贝叶斯线性回归

更新时间:2022-05-15 13:13

贝叶斯线性回归(Bayesian linear regression)是使用统计学中贝叶斯推断(Bayesian inference)方法求解的线性回归(linear regression)模型。

历史

贝叶斯线性回归是二十世纪60-70年代贝叶斯理论兴起时得到发展的统计方法之一,其早期工作包括在回归模型中对权重先验和最大后验密度(Highest Posterior Density, HPD)的研究、在贝叶斯视角下发展的随机效应模型(random effect mode)以及贝叶斯统计中可交换性(exchangeability)概念的引入。

正式提出贝叶斯回归方法的工作来自英国统计学家Dennis Lindley和Adrian Smith,在其1972年发表的两篇论文中,Lindley和Smith对贝叶斯线性回归进行了系统论述并通过数值试验与其它线性回归方法进行了比较,为贝叶斯线性回归的应用奠定了基础。

理论与算法

模型

给定相互独立的N组学习样本 , ,贝叶斯线性回归使用如下的多元线性回归模型 :

这里 为权重系数, 为残差。由于学习样本间相互独立,因此 为独立同分布(independent and identically distributed, iid)。贝叶斯线性回归假设残差服从正态分布,其方差服从逆Gamma分布(Inverse-Gamma distribution):

正态分布的均值 和逆Gamma分布的系数 要求预先指定。通常设定均值 ,对应白噪声(white noise)残差,因此贝叶斯线性回归的模型本身至少包含2个超参数(hyperparameter)。以上的贝叶斯线性回归也可推广至广义线性模型(Generalized Linear Model, GLM),得到贝叶斯广义线性模型(Bayesian GLM)。

求解

根据线性模型的定义,权重系数 与观测数据 相互独立,也与残差的方差 相互独立,由贝叶斯定理(Bayes' theorem)可推出,贝叶斯线性回归中权重系数的后验有如下表示:

式中 称为似然(likelihood),由线性回归模型完全决定,以模型残差服从iid的0均值正态分布为例,这里似然也服从iid的正态分布:

式中的 是 的边缘似然(marginal likelihood),在贝叶斯推断中也被称为模型证据(model evidence),仅与观测数据有关,与权重系数相互独立。

求解 式要求预先给定权重系数的先验 ,即一个连续概率分布(continuous probability distribution),通常的选择为0均值的正态分布:

式中 为预先给定的超参数。和其它贝叶斯推断一样,根据似然和先验的类型,可用于求解贝叶斯线性回归的方法有三类,即极大后验估计(Maximum A Posteriori estimation, MAP)、共轭先验(conjugate prior)求解和数值方法,前两者要求似然或先验满足特定条件,数值方法没有特定要求,可以通过迭代逼近任意形式的后验分布。

在权重系数没有合理先验假设的问题中,贝叶斯线性回归可使用无信息先验(uninformative prior),即一个均匀分布(uniform distribution),此时权重系数按均等的机会取任意值。

极大后验估计(Maximum A Posteriori estimation, MAP)

在贝叶斯线性回归中,MAP可以被视为一种特殊的贝叶斯估计(Bayesian estimator),其求解步骤与极大似然估计(maximum likelihood estimation)类似。对给定的先验,MAP将 式转化为求解 使后验概率最大的优化问题,并求得后验的众数(mode)。由于正态分布的众数即是均值,因此MAP通常被应用于正态先验。

这里以的0均值正态先验为例介绍MAP的求解步骤,首先给定权重系数 的0均值正态分布先验: 。由于边缘似然与 相互独立,此时求解后验概率的极大值等价于求解似然和先验乘积的极大值:

对上述极值问题取自然对数并考虑正态分布的解析型式,可有如下推导:

由于式中各项的系数均为负数,因此该极大值问题可转化为仅与 有关的极小值问题,并可通过线性代数得到 的解:

式中 为模型残差和权重系数方差的比值,由超参数直接计算, 为单位矩阵。

除正态先验外,MAP也使用拉普拉斯分布(Laplace distribution)作为权重系数的先验:

式中 为超参数。取均值 ,在经过与正态先验类似的推导后,拉普拉斯先验的MAP可转化为如下优化问题:

该优化问题对应一个泛定方程,在 足够大时,可以得到稀疏解(sparse solution)。

MAP是单点估计,不支持在线学习(online learning),也无法提供置信区间,但能够以很小的计算量求解贝叶斯线性回归的权重系数,且可用于最常见的正态先验情形。使用正态先验和MAP求解的贝叶斯线性回归等价于岭回归(ridge regression),优化目标中的 被称为L2正则化项;使用拉普拉斯分布先验的情形对应线性模型的LASSO(Least Absolute Shrinkage and Selection Operator), 被称为L1正则化项。

共轭先验求解

由于贝叶斯线性回归的似然是正态分布,因此在权重系数的先验存在共轭分布时可利用共轭性(conjugacy)求解后验。这里以正态先验为例介绍其求解步骤。

首先引入权重系数的0均值正态先验: ,随后由 式可知,后验正比于似然和先验的乘积:

在正态似然下,方差已知的正态先验的共轭分布是正态分布,因此将上式按正态分布的解析型式进行整理有如下结果:

式中 定义与先前相同。以上式为基础,可以得到权重系数的均值和置信区间,完成对贝叶斯线性回归的求解。

除正态先验外,共轭先验求解也适用于对数正态分布(log-normal distribution)、Beta分布(Beta distribution)、Gamma分布(Gamma distribution)等的先验。

数值方法

一般地,贝叶斯推断的数值方法都适用于贝叶斯线性回归,其中最常见的是马尔可夫链蒙特卡罗(Markov Chain Monte Carlo, MCMC)。这里以MCMC中的吉布斯采样(Gibbs sampling)算法为例介绍。

给定均值为 ,方差为 的正态先验 和权重系数 ,吉布斯采样是一个迭代算法,每个迭代都依次采样所有的权重系数:

1. 随机初始化权重系数 和残差的方差

2. 采样 :

3. 使用 采样 :

4. 采样 :

5. 重复1-4至迭代完成/分布收敛

迭代步骤中的 和 被称为条件采样分布(conditional sampling distribution)。条件采样的推导较为繁琐,这里给出一维情形下截距斜率 和残差方差 的条件采样分布:

在Python 3的Numpy模块下,上述迭代步骤可有如下编程实现:

除吉布斯采样外,Metropolis-Hastings算法和数据增强算法(data augmentation algorithm)也可用于贝叶斯线性回归的MCMC计算。

预测

由MAP求解的贝叶斯线性回归可直接使用权重系数对预测数据进行计算。MAP是单点估计,因此预测结果不提供后验分布。对共轭先验或数值方法求解的贝叶斯线性回归,可通过边缘化(marginalized out)模型权重,即按其后验积分得到预测结果:

式中 为预测数据, 为预测结果。对0均值的正态先验,由其共轭性可知,预测结果的后验也为正态分布:

上式右侧的正态分布可以提供预测结果的置信区间,在本质上是线性模型使用所有潜在权重系数计算所得结果的概率密度函数。

模型验证

边缘似然描述了似然和先验的组合在多大程度上解释了观测数据,因此边缘似然可以用于计算贝叶斯因子,与其它模型进行比较并验证模型和先验的合理性。由全概率公式(law of total probability)可知,边缘似然有如下积分形式:

由上式计算的边缘似然拥有描述模型复杂度的全部信息,包括先验假设的类型,权重系数的数量等,因此可以与任意复杂度的其它模型计算贝叶斯因子进行比较。

由MCMC计算的贝叶斯线性回归也可以使用数值方法进行交叉验证(cross-validation),具体方法包括重采样(re-sampling MCMC)和使用EC(Expectation Consistent)近似的留一法(Leave One Out, LOO)交叉验证。

在线学习

由共轭先验和数值方法求解的贝叶斯线性回归可以进行在线学习,即使用实时数据对权重系数进行更新。在线学习的具体方法依模型本身而定,其设计思路是将先钱求解得到的后验作为新的先验,并带入数据得到后验。

性质

稳健性:由求解部分的推导可知,若贝叶斯线性回归使用正态先验,则其MAP的估计结果等价于岭回归,而使用拉普拉斯先验的情形对应线性模型的LASSO,因此贝叶斯线性回归与使用正则化(regularization)的回归分析一样平衡了模型的经验风险和结构风险。特别地,使用拉普拉斯先验的贝叶斯线性回归由于可以得到稀疏解,因此具有一定的变量筛选(variable selection)能力。

作为贝叶斯推断所具有的性质:由于贝叶斯线性回归是贝叶斯推断在线性回归问题中的应用,因此其具有贝叶斯方法的一般性质,包括对先验进行实时更新、将观测数据视为定点因而不需要渐进假设、服从似然定理(likelihood principle)、估计结果包含置信区间等。基于最小二乘法的线性回归(Ordinary Linear Regression, OLR)通常仅在观测数据显著地多于权重系数维数的时候才会有好的效果,而贝叶斯线性回归没有此类限制,且在权重系数维数过高是,可以根据后验对模型进行降维(dimensionality reduction)。

与高斯过程回归(Gaussian Process Regression, GPR)的比较:贝叶斯线性回归是GPR在权重空间(weight-space)下的特例。在贝叶斯线性回归中引入映射函数 可得到GPR的预测形式: ,而当映射函数为等值函数(identity function)时,GPR退化为贝叶斯线性回归。

应用

除一般意义上线性回归模型的应用外,贝叶斯线性模型可被用于观测数据较少但要求提供后验分布的问题,例如对物理常数的精确估计。有研究利用贝叶斯线性回归的性质进行变量筛选和降维。此外,贝叶斯线性回归是在统计方法中使用贝叶斯推断的简单实现之一,因此常作为贝叶斯理论或数值计算教学的重要例子。

免责声明
隐私政策
用户协议
目录 22
0{{catalogNumber[index]}}. {{item.title}}
{{item.title}}