一文读不懂系列之“线性回归”

看不懂系列的“线性回归”

1. 模型

  • 训练集一文读不懂系列之“线性回归”,自变量为样本的特征向量一文读不懂系列之“线性回归”,因变量为一文读不懂系列之“线性回归”
  • 权重向量一文读不懂系列之“线性回归”和偏差一文读不懂系列之“线性回归”是可学习的参数;
  • 线性模型:函数一文读不懂系列之“线性回归”

一文读不懂系列之“线性回归”
增广权重向量和增广特征向量统一为下一文读不懂系列之“线性回归”一文读不懂系列之“线性回归”,则线性模型简写为
一文读不懂系列之“线性回归”

  • 经验风险一文读不懂系列之“线性回归”在训练集上一文读不懂系列之“线性回归”取平方损失函数一文读不懂系列之“线性回归”
    一文读不懂系列之“线性回归”

2. 参数估计

一文读不懂系列之“线性回归”

2.1 LSM | Least Square Method:平方损失的经验风险最小化

一文读不懂系列之“线性回归”
订购一文读不懂系列之“线性回归”
一文读不懂系列之“线性回归”
​ 可以看到在LSM中我们需要一文读不懂系列之“线性回归”是可逆的(一文读不懂系列之“线性回归”),即可以知道一文读不懂系列之“线性回归”的行向量是线性不相关,换句话说特征之间是互相独立的(不存在完美的多重共线性[说人话就是不存在精确的线性关系]);

存在的问题

  • 一文读不懂系列之“线性回归”不可逆时,比较常见的情况是样本数量一文读不懂系列之“线性回归”小于特征数量一文读不懂系列之“线性回归”,则此时一文读不懂系列之“线性回归”,就会有无穷多解一文读不懂系列之“线性回归”使得一文读不懂系列之“线性回归”;解决方案 预处理时采用PCA等方法消除不同特征之间的相关性,再使用LSM进行参数估计;使用LMS(梯度下降迭代)求解参数;
  • 一文读不懂系列之“线性回归”可逆时,有可能存在多重共线性(数据集一文读不懂系列之“线性回归”上小的扰动会导致一文读不懂系列之“线性回归”发生大的改变),使得LSM的计算变得不稳定;解决方案: 岭回归:一文读不懂系列之“线性回归”,最优参数为
    一文读不懂系列之“线性回归”

​ 岭回归也可以看作结构风险最小化准则下的LSM,其中
一文读不懂系列之“线性回归”

​ > 其实多重共线性还有很多其他的解决方法【挖🕳待补充】

2.2 LMS | Least Mean Square

一文读不懂系列之“线性回归”

  • 多个样本时梯度下降两种方式 批量梯度下降法 | Batch Gradient Descent 每一步检查整个训练集中的所有样本;容易被局部最小值影响;[此处不会,一文读不懂系列之“线性回归”为凸函数,极小值就是最小值] 随机梯度下降法 | Stochastic Gradient Descent 每次遇到一个样本就对参数进行更新,对整个训练集进行循环遍历;训练集(一文读不懂系列之“线性回归”)很大的时候,一般偏向于选择SGD(BGD需要对整个训练集进行扫描,引起性能开销)

2.3 MLE | Maximum Likelihood Estimation

[Maximum Likelihood Estimation] Choose value that maximizes the probability of observed data
一文读不懂系列之“线性回归”

条件概率一文读不懂系列之“线性回归”角度

假设随机变量一文读不懂系列之“线性回归”由函数一文读不懂系列之“线性回归”和随机噪声一文读不懂系列之“线性回归”(一文读不懂系列之“线性回归”)组成,即
一文读不懂系列之“线性回归”
由此我们可以得到随机变量一文读不懂系列之“线性回归”
一文读不懂系列之“线性回归”
那么参数一文读不懂系列之“线性回归”在训练集一文读不懂系列之“线性回归”上的似然函数为
一文读不懂系列之“线性回归”
它的对数似然函数是
一文读不懂系列之“线性回归”
则MLE转化为
一文读不懂系列之“线性回归”

一文读不懂系列之“线性回归”,计算
一文读不懂系列之“线性回归”

2.4 MAP | Maximum A Posterior Estimation

[Maximum A Posterior Estimation] Choose value that is most probable given observed data and prior belief
一文读不懂系列之“线性回归”

在MLE的假设基础上,进一步假设我们掌握了一些关于参数一文读不懂系列之“线性回归”的信息,即参数一文读不懂系列之“线性回归”先验分布为一文读不懂系列之“线性回归”,由贝叶斯公式,我们能得到
一文读不懂系列之“线性回归”
如果我们假设这个先验分布是一个各向同性的高斯分布(一文读不懂系列之“线性回归”),那么
一文读不懂系列之“线性回归”

  • 我们看到MAP实际上等价于平方损失的结构风险最小化(正则化系数为一文读不懂系列之“线性回归”)
  • 当先验分布一文读不懂系列之“线性回归”退化为均匀分布时(大白话就是你的先验信息获取了和没获取一样),此时MAP退化为MLE;

没做完

* 整理自

  1. nndl
  2. cs290 notes1
  3. cmu 10-715 lecture1b

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
心中带点小风骚的头像心中带点小风骚普通用户
上一篇 2022年5月7日
下一篇 2022年5月7日

相关推荐