Logistic回归

在实际应用中,除了预测问题,其实更多的是 分类问题回归问题分类问题其实是非常相似的,主要区别是分类问题的输出变量Y是取有限个离散值的,而回归问题本质上是一个拟合问题,给定一组已知数据,选择一条函数曲线使其很好地拟合已知数据且很好地预测未知数据。

面对两个相似的问题,我们就要考虑能否用同样的算法来解决?之前学习过线性回归模型,其实只要对线性回归模型稍加修改,就能将其应用到 分类问题上面了,经过修改过的线性回归模型就被称为Logistic回归。具体修改方案如下:

假设对应的分类目标只有两类,即y0,1,回顾一下,在线性回归模型中,我们的预测函数为h_θ(x),在分类问题中,我们将其稍加修改:

hθ(x)=g(θTx)=11+eθTx

其实就是在原来的预测函数上叠加一个g(z)函数,而g(z)是如此定义的:

g(z)=11+ez

可以来看一下g(x)函数的图像:

logistic函数图像

从图像中可以看出,函数值是永远固定在[0,1]之内的,其实这个g(z)函数就被称为Logistic函数或者sigmoid函数。因此,在这个Logistic函数的作用下,h_θ(x)就被固定在[0,1]之内,也即h_θ(x)[0,1]

再次观察Logistic函数的图像,我们可以发现,x越大,其函数值越接近于1x越小,其函数值越接近与0,因此我们用h_θ(x)来估计每个分类的概率值,即:

p(y=1|x;θ)=hθ(x)

又因为我们的假设是一个二元分类问题,所以:

p(y=0|x;θ)=1hθ(x)

将上面两个等式合并:

p(y|x;θ)=(hθ(x))y(1hθ(x))1y

接着,我们可以写出参数θ的似然函数:

L(θ)=p(y|X;θ)=mi=1p(y(i)|x(i);θ)=mi=1(hθ(x(i)))y(i)(1hθ(x(i)))1y(i)

这时,就可以依照在最小二乘法的概率解释中的推导过程一样,将这个关于θ的复杂似然函数转化为相对简单的对数函数:

(θ)=logL(θ)=mi=1y(i)logh(x(i))+(1y(i))log(1h(x(i)))

现在的目标就是要使得这个似然函数最大化,可以回想一下我们在线性回归模型中所用的算法——梯度下降法,在此处我们也可以使用这个算法,使得θ=θ+α(θ),需要注意的是,此处我们使用的加号而不是减号,因为我们要求的最大值而不是最小值。

θ中的每一个分量进行求偏导(此时为了运算的方便,暂时当做只有一组数据):

θj(θ)=(y1g(θTx)(1y)11g(θTx))θjg(θTx)

而又因为g(z)=11+ez,所以

ddzg(z)=1(1+ez)2ez=11+ez(111+ez)=g(z)(1g(z))

因此式子???可以进行如下的推导:

j(θ)=(y1g(θTx)(1y)11g(θTx))g(θTx)(1g(θTx))jθx=[y(1g(θx))(1y)g(θx)]xj=(yg(θTx))x=(yhθ(x))x

最终,我们得到了梯度上升法的递推公式:

θj=θj+α(y(i)hθ(x(i)))x(i)j

到现在为止,我们已经得到了Logistic回归模型的学习算法了。

比较

这个公式???线性回归模型 中的梯度下降法"长得"是一样的,但是其本质是完全不同的,在线性回归模型中,h_θ(x)是一个线性函数,而在Logistic回归中,h_θ(x)则不是一个线性函数,而是一个sigmoid函数。

在学习算法中,有三种学习模型是非常相似的,分别是线性回归模型Logistic回归感知机模型 ,它们不管在模型的建立还是在算法的求解上都非常的相似1,但是它们之间也存在着不同的地方。

首先是线性回归模型 ,它主要使用来对一系列的点进行拟合的,它的输出值(h_θ(x))是任意的预测值。

感知机模型则是一种典型的简单分类器,它的输出值(h_θ(x))只能是固定的有限的几个类别,在二元分类问题中,其输出值(h_θ(x))只能0或1,即h_θ(x){0,1} filename 最后是本文的主角,Logistic回归,某种程度上,我觉得它是介于上面两种模型之间的"中间模型",它的输出值(h_θ(x))虽然也是固定在有限的范围内,但是却是连续的,而不像感知机那样,全是离散的值,在二元分类中,其输出值是h_θ(x)[0,1]

参考资料


  1. 其实之前我自己都一直在困惑,这个三个模型的区别到底在哪里 

Share on: TwitterFacebookEmail


Flyaway is the owner of this blog.

Published

Category

machine-learning

Tags

Contact