11__基础线性回归:一元与多元
文章目录
从今天开始,专栏将进入统计机器学习模块。虽然统计机器学习中千姿百态的模型让人眼花缭乱,但究其本原,它们都来源于最原始的线性回归(linear regression)。
在我看来,线性模型最大的优点不是便于计算,而是便于解释。它能以简洁明了的方式清晰体现出输入的变化如何导致输出的变化。正所谓“一生二,二生三,三生万物”,将不同的改进方式融入线性模型的基本思想中,就可以得到各种巧夺天工的复杂方法。
在第一季“人工智能基础课”专栏中,我介绍了线性回归的原理,证明了当噪声满足正态分布时,基于最小二乘法(least squares)的线性回归和最大似然估计是等价的。
这次我们换个角度,来看看最小二乘法的几何意义。之前,线性回归的数学表达式被写成 f(x)=wTx=∑ni=0wi⋅xif(x)=wTx=∑i=0nwi⋅xi
文章作者
上次更新 10100-01-10