之前的几篇文章中,分别介绍了线性回归Logistic-Regression,分别用来解决回归问题和分类问题。其实,这两种模型是属于一种更加广义的模型:广义线性模型(Generalized Linear Models),本文将会说明其实上述两种模型都是广义线性模型的特殊形式。

指数分布族

在说明什么是广义线性模型之前,首先需要定义什么是指数分布族,我们将具有如下形式的分布称为是指数分布族

p(y;η)=b(y)eηTT(y)a(η)

其中,η称为该分布的自然参数(natural parameter),T(y)称为充分统计量,a(η)称为对数区分函数(log partition function)。当给定a,b,T这三个函数时,上述公式就定义了一个概率分布的集合,它以η为参数,当η改变时,我们就得到不同的分布。

贝努力模型(Bernoulli)

贝努力模型就是指数分布族中的一种分布情况,我们将贝努力分布进行如下的推导:

p(y;ϕ)=ϕy(1ϕ)1y=elog(ϕy(1ϕ)1y)=eylogϕ+(1y)log(1ϕ)=elog(ϕ1ϕ)˙y+log(1ϕ)

对照上面指数分布族的定义,我们可以得到:

η=logϕ1ϕT(y)=ya(η)=log(1ϕ)=log(1+eϕ)b(y)=1

可以看到,贝努力分布确实可以改写成指数分布族的形式,这一点在广义线性模型的推导中很重要。

高斯分布

高斯分布同样是指数分布族中的一员,具体的推导过程如下所示1:

p(y;μ)=12πe12(yμ)2=12πe12y2eμy12μ2

我们得到:

η=μT(y)=ya(η)=μ22=η22b(y)=12πey22

说明高斯分布也是指数分布族中的一种。事实上,还有许多分布都是指数分布族中的成员,比如:

  1. 多项式分布(Multinomial): 对有K个离散结果的事件建模,多类分类。
  2. 泊松分布(Poisson): 对计数过程进行建模。
  3. 伽马分布(Gamma)和指数分布(exponential): 对有间隔的正数进行建模。
  4. β分布: 对小数建模。
  5. Dirichler分布: 对概率分布进行建模。
  6. Wishart分布: 协方差矩阵的分布。

广义线性模型

当我们遇到一个分类问题或回归问题的时候,首先需要估计分析的问题是满足什么样的分布的,比如线性回归中的我们假设其满足正态分布;在为银行顾客排队建模时,我们假设其满足Poisson分布;在Logistic回归中假设满足贝努力分布(二元分类),那么当我们确定问题的分布时,如何才能正确建模呢?这就要引出广义线性模型(GLM)了。

在GLM中,给定x对y进行预测时,我们有三个假设,分别是:

  1. p(y|x;θ)满足指数分布族,也就是说,给定xθ,y的分布情况满足以η为参数的指数分布族的分布。
  2. 给定x,我们的目标是预测T(y)的期望值,也即hθ(x)=E[T(y)|x]
  3. 自然参数η和输入x是线性关系:η=θTx

通过GLM我们能够很快就能推导出不同分布下的优化目标,以线性回归模型和Logidtic回归模型为例:

线性回归模型

我们假设线性回归模型是满足高斯分布的,因此根据上面我们对高斯分布的推导,我们可以得到:

hθ(x)=E[y|x;θ]=μ=η=θTx

上述公式中的第二个等号是因为GLM的第二个假设,并且高斯分布的期望正是μ,第三个等号是因为经过之前高斯分布的推导,对于高斯分布来说,η=μ,最后一个等号是因为GLM的第三个假设。

可以看到,我们通过高斯分布直接得到了我们的目标函数,这也就能够解释为什么在线性回归 中要假设成hθ(x)=θ0+θ1x_1++θnxn了。

Logistic回归

同样的,在Logistic回归中,奇怪的g(z)是怎么来的,也能够用GLM来解释:

hθ(x)=E[y|x;θ]=ϕ=11+eη=11+eθtx

从上述的推导中,我们就可以看出,一旦我们确定待分析的问题是满足贝努力分布的,我们就能够自然而然地得出h_θ(x)=11+eθtx的结论了。

总结

可以看到,利用GLM,我们能够很快确定我们的目标函数是什么,当我们选取高斯分布的时候,我们就能够得到线性回归模型;当我们选取贝努力分布时,我们就得到Logistic模型。所以,可以把广义线性模型看成是一个关于分布的分布,不同的参数得到不同的分布模型,从而得到不同的目标函数。

最后在斯坦福的公开课《机器学习》中还有一个比较复杂GLM的例子,是对多项式分布进行建模,由于公式推导比较多,这里就不再给出了,感兴趣的朋友可以去找相应的讲义来看看。

参考资料


  1. 此处为了简化我们的推导过程,我们假设高斯分布中的σ2=1。 

Share on: TwitterFacebookEmail


Flyaway is the owner of this blog.

Published

Category

machine-learning

Tags

Contact