Logistic回归
在实际应用中,除了预测问题,其实更多的是 分类问题,回归问题和分类问题其实是非常相似的,主要区别是分类问题的输出变量Y是取有限个离散值的,而回归问题本质上是一个拟合问题,给定一组已知数据,选择一条函数曲线使其很好地拟合已知数据且很好地预测未知数据。
面对两个相似的问题,我们就要考虑能否用同样的算法来解决?之前学习过线性回归模型,其实只要对线性回归模型稍加修改,就能将其应用到 分类问题上面了,经过修改过的线性回归模型就被称为Logistic回归。具体修改方案如下:
假设对应的分类目标只有两类,即\(y\in {0,1}\),回顾一下,在线性回归模型中,我们的预测函数为\(h\_\theta(x)\),在分类问题中,我们将其稍加修改:
其实就是在原来的预测函数上叠加一个\(g(z)\)函数,而\(g(z)\)是如此定义的:
可以来看一下\(g(x)\)函数的图像:
从图像中可以看出,函数值是永远固定在\([0,1]\)之内的,其实这个\(g(z)\)函数就被称为Logistic函数或者sigmoid函数。因此,在这个Logistic函数的作用下,\(h\_\theta(x)\)就被固定在\([0,1]\)之内,也即\(h\_\theta(x)\in [0,1]\)。
再次观察Logistic函数的图像,我们可以发现,\(x\)越大,其函数值越接近于\(1\),\(x\)越小,其函数值越接近与\(0\),因此我们用\(h\_\theta(x)\)来估计每个分类的概率值,即:
又因为我们的假设是一个二元分类问题,所以:
将上面两个等式合并:
接着,我们可以写出参数\(\theta\)的似然函数:
这时,就可以依照在最小二乘法的概率解释中的推导过程一样,将这个关于\(\theta\)的复杂似然函数转化为相对简单的对数函数:
现在的目标就是要使得这个似然函数最大化,可以回想一下我们在线性回归模型中所用的算法——梯度下降法,在此处我们也可以使用这个算法,使得\(\theta = \theta+\alpha\nabla\ell(\theta)\),需要注意的是,此处我们使用的加号而不是减号,因为我们要求的最大值而不是最小值。
对\(\theta\)中的每一个分量进行求偏导(此时为了运算的方便,暂时当做只有一组数据):
而又因为\(g(z)=\frac{1}{1+e^{-z}}\),所以
因此式子\(\ref{0}\)可以进行如下的推导:
最终,我们得到了梯度上升法的递推公式:
到现在为止,我们已经得到了Logistic回归模型的学习算法了。
比较
这个公式\(\ref{1}\)和线性回归模型 中的梯度下降法"长得"是一样的,但是其本质是完全不同的,在线性回归模型中,\(h\_\theta(x)\)是一个线性函数,而在Logistic回归中,\(h\_\theta(x)\)则不是一个线性函数,而是一个sigmoid函数。
在学习算法中,有三种学习模型是非常相似的,分别是线性回归模型 、Logistic回归和感知机模型 ,它们不管在模型的建立还是在算法的求解上都非常的相似1,但是它们之间也存在着不同的地方。
首先是线性回归模型 ,它主要使用来对一系列的点进行拟合的,它的输出值(\(h\_\theta(x)\))是任意的预测值。
而感知机模型则是一种典型的简单分类器,它的输出值(\(h\_\theta(x)\))只能是固定的有限的几个类别,在二元分类问题中,其输出值(\(h\_\theta(x)\))只能0或1,即\(h\_\theta(x)\in \{0,1\}\) filename 最后是本文的主角,Logistic回归,某种程度上,我觉得它是介于上面两种模型之间的"中间模型",它的输出值(\(h\_\theta(x)\))虽然也是固定在有限的范围内,但是却是连续的,而不像感知机那样,全是离散的值,在二元分类中,其输出值是\(h\_\theta(x)\in [0,1]\)。
参考资料
- 斯坦福公开课《机器学习》第三集及其配套讲义
- logistic回归的一些直观理解
-
其实之前我自己都一直在困惑,这个三个模型的区别到底在哪里 ↩