Machine Learning – week1

1. 什么是机器学习?

  • Arthur Samuel 将其描述为:“这一研究领域使计算机能够在没有明确编程的情况下进行学习。”这是一个古老的非正式定义。
  • 汤姆·米切尔提供了一个更现代的定义:“一个计算机程序被认为从经验E中学习关于某些类别的任务T和性能测量P,如果它在任务T中的表现,由P测量,随着经验E的提高。”
  • 一般来说,任何机器学习都可以分为:监督学习和无监督学习。

2. 监督学习

  • 在监督学习中,我们得到一个数据集并且已经知道我们的正确输出应该是什么样子,因为我们知道输入和输出之间存在关系。 Machine Learning - week1

监督学习问题分为“回归”问题和“分类”问题:

  • 在回归问题中,我们试图预测连续输出的结果,这意味着我们试图将输入变量映射到连续函数。 Machine Learning - week1
    示例:给定房子的大小,我们使用大小来预测售价。
  • 在分类问题中,我们试图预测离散输出的结果。换句话说,我们尝试将输入变量映射为离散变量。 Machine Learning - week1
    示例:对于患有肿瘤的患者,我们预测肿瘤是恶性的还是良性的。

3. 无监督学习

  • 无监督学习:无监督学习使我们能够在几乎不知道结果应该是什么样子的情况下解决问题。我们可以在不需要知道变量的影响的情况下从数据中推导出结构,并且可以通过基于数据中变量之间的关系对数据进行聚类来推导出这种结构。
  • 在无监督学习中,没有基于预测结果的反馈。 Machine Learning - week1
  • 聚类:将100万个不同的基因集合起来,然后找到一种方法将这些基因自动分组,使其在某种程度上具有相似性或与不同的变量相关。比如寿命,位置,角色等等。Machine Learning - week1
  • 非聚类:“鸡尾酒会算法”可让您在杂乱的环境中找到结构。 (从鸡尾酒会上的各种声音中识别出不同的声音和音乐)。

4. 线性回归模型

  • x%5E%7B%28i%29%7D代表输入变量;
  • y%5E%7B%28i%29%7D 表示“输出”或我们试图预测的目标变量;
  • 一对%28x%5E%7B%28i%29%7D%2Cy%5E%7B%28i%29%7D%29代表一个训练样本;
  • m表示训练样本数;
  • i代表样本索引,i%3D1%2C...%2Cm代表训练集。

x%5E%7B%281%29%7D%3D2104%EF%BC%8Cy%5E%7B%281%29%7D%3D460;
x%5E%7B%282%29%7D%3D1416%EF%BC%8Cy%5E%7B%282%29%7D%3D232Machine Learning - week1

  • h表示一个函数,代表hypothesis(假设函数);
  • 假设函数:h_%5Ctheta%28x_i%29%3D%5Ctheta_0%2B%5Ctheta_1x_i
    Machine Learning - week1
  • 给定一个训练集,学习一个函数h%3A%20X%E2%86%92Y,这样h%28X%29就能“很好地”预测Y的相应值;
  • 输入是房子的大小,h根据y的输入值推导出y的值,y的值对应的是房子的价格,hxy的函数映射。

5. 代价函数(平方误差函数)

  • 成本函数也称为平方误差函数或平方误差成本函数。
  • 我们可以使用成本函数来衡量假设函数的准确性。它需要所有假设结果的平均差(实际上是平均数的一个奇特版本)。
    J%28%5Ctheta_0%2C%5Ctheta_1%29%20%3D%20%5Cfrac%7B1%7D%7B2m%7D%20%5Csum_%7Bi%3D1%7D%5Em%20%28%5Chat%7By%7D_i-y_i%29%5E2%3D%20%5Cfrac%7B1%7D%7B2m%7D%20%5Csum_%7Bi%3D1%7D%5Em%20%28h_%5Ctheta%28x_i%29-y_i%29%5E2
  • 我们的目标是得到尽可能好的线(线由%5Ctheta_0%5Ctheta_1确定,需要梯度下降来找到J%28%5Ctheta_0%2C%5Ctheta_1%29的小值)。最佳直线是散点到该直线的平均垂直距离的平方最小的直线。理想情况下,这条线应该穿过训练数据集中的所有点。在这种情况下,J%28%5Ctheta_0%2C%5Ctheta_1%29%3D0

(1)单参图像直观展示

  • 下图是一个理想的情况,直线通过了数据集所有点,当%5Ctheta_0%3D0%2C%5Ctheta_1%3D1时,代价函数为0。Machine Learning - week1

%5Ctheta_1%3D1时,我们得到斜率为1,它经过模型中的每一个数据点。
%5Ctheta_1%20%3D%200.5时,我们看到拟合数据点的垂直距离增加。
Machine Learning - week1
绘制其他几个代价函数值的结果,如下图,当%5Ctheta_1%3D1时,J%28%5Ctheta_1%29的值最小。 Machine Learning - week1

(2)双参图像直观展示

当只有一个参数%5Ctheta_1时,我们画一个弓形函数;并且我们有两个参数,那么代价函数仍然呈现类似的弓形,会得到一个三维曲面图。
Machine Learning - week1

两个轴分别代表%5Ctheta_0%5Ctheta_1。随着%5Ctheta_0%5Ctheta_1大小的变化,对于特定点%28%5Ctheta_0%20%2C%20%5Ctheta_1%29表面的高度获得不同的成本函数J%28%5Ctheta_0%20%2C%20%5Ctheta_1%29。也就是垂直方向的高度,它代表代价函数的值J%28%5Ctheta_0%20%2C%20%5Ctheta_1%29

  • 等高线图是包含许多等高线的图。双变量函数的轮廓在同一直线上的所有点处具有恒定值。这种图表的一个例子是右下方的图表。
  • 沿着“圆圈”走,我们会期望相同的成本函数值。例如,绿线上的三个绿点对于J%28%5Ctheta_0%20%2C%20%5Ctheta_1%29的值相同,所以它们在同一条线上。
    Machine Learning - week1
  • %5Ctheta_0%3D360%2C%5Ctheta_1%3D0时,J%28%5Ctheta_0%20%2C%20%5Ctheta_1%29的值更接近中心,从而降低了代价函数的误差。现在让我们的假设函数有一个稍微正的斜率,以更好地拟合数据。 Machine Learning - week1
  • 下图尽可能地使代价函数最小化,因此,%5Ctheta_0的结果和%5Ctheta_1分别在 250 和 0.12 左右。在图中,将这些值画在右边,似乎将我们的点放在最内侧的“圆”的中心。
    Machine Learning - week1

6. 梯度下降算法

  • 梯度下降的作用:我们有一个假设函数和一个平方误差函数来衡量它与数据的拟合程度。现在我们需要使用梯度下降来估计假设函数中的参数%5Ctheta_1%2C%5Ctheta_2
  • 梯度下降的工作原理:首先将%5Ctheta_1%2C%5Ctheta_2初始化为%5Ctheta_1%3D0%2C%5Ctheta_2%3D0,然后通过梯度下降算法不断改变%5Ctheta_1%2C%5Ctheta_2,以减小平方误差函数值,直到J%28%5Ctheta_1%2C%5Ctheta_2%29达到我们想要的最小值。
  • 梯度下降算法:

%E9%87%8D%E5%A4%8D%E7%9B%B4%E5%88%B0%E6%94%B6%E6%95%9B%EF%BC%9A%5Clbrace
%5Ctheta_j%3A%3D%5Ctheta_j-%5Calpha%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%5Ctheta_j%7DJ%28%5Ctheta_0%2C%5Ctheta_1%29
%5Crbrace

%3A%3D代表赋值,右边的项被赋值给左边的项。
j:表示特征索引号。
%5Calpha:称为学习率,参数α决定了每一步的大小。较小的 α 会导致较小的步长,较大的 α 会导致较大的步长。步进方向由J%28%5Ctheta_1%2C%5Ctheta_2%29的偏导数决定。

我们把%5Ctheta_1放在x轴上,%5Ctheta_2放在y轴上,代价函数在垂直z轴上。图上的点是使用我们的假设和特定参数的代价函数的结果。Machine Learning - week1
我们的方法是取成本函数的导数(函数的正切)。切线的斜率是这个点的导数,它会给我们一个移动的方向。我们让代价函数朝着递减速度最快的方向逐渐递减。
Machine Learning - week1
不同的起点可能在不同的点结束。上图显示了两个不同的起点和在两个不同的地方结束。

  • 在每次迭代j时,应该同时更新参数%5Ctheta_1%2C%5Ctheta_2%2C...%2C%5Ctheta_n
    Machine Learning - week1

(1)单参

  • 对于只有一个参数的梯度下降算法,公式表示为:

%E9%87%8D%E5%A4%8D%E7%9B%B4%E5%88%B0%E6%94%B6%E6%95%9B%EF%BC%9A%5Clbrace
%5Ctheta_j%3A%3D%5Ctheta_j-%5Calpha%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%5Ctheta_j%7DJ%28%5Ctheta_1%29
%5Crbrace

  • 当斜率为负时,%5Ctheta_1值增大;当斜率为正时,%5Ctheta_1的值减小。
    Machine Learning - week1
  • 我们应该调整参数%5Calpha以确保梯度下降算法在合理的时间内收敛。无法收敛或花费太多时间达到最小值意味着我们的步长是错误的。
    图 1:如果 %5Calpha 太小,梯度下降可能会很慢。
    图2:如果%5Calpha太大,梯度下降可能会超过最小值。它可能不会收敛,甚至会发散。
    Machine Learning - week1
  • 平方误差函数在接近凸函数的底部时%5Cfrac%7Bd%7D%7Bd%5Ctheta_1%7D%20J%28%5Ctheta_1%29趋于0。在最小值时,导数始终为0,得到:%5Ctheta_1%3A%3D%5Ctheta_1-%5Calpha%2A0
  • 当我们接近局部最小值时,梯度下降将自动采取小步骤,因此无需随着时间的推移减少%5Calpha
    Machine Learning - week1

(2)双参(梯度下降完整公式)

  • 当专门应用于线性回归时,可以推导出一种新形式的梯度下降方程。我们可以替换我们的实际成本函数和我们的实际假设函数,并将方程修改为:

%E9%87%8D%E5%A4%8D%E7%9B%B4%E5%88%B0%E6%94%B6%E6%95%9B%EF%BC%9A%5Clbrace
%5Ctheta_j%3A%3D%5Ctheta_j-%5Calpha%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%5Ctheta_j%7DJ%28%5Ctheta_0%2C%5Ctheta_1%29
%3D%5Ctheta_j-%5Calpha%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%5Ctheta_j%7D%5Cfrac%7B1%7D%7B2m%7D%5Csum_%7Bi%3D1%7D%5Em%20%28h_%5Ctheta%28x_i%29-y_i%29%5E2
%3D%5Ctheta_j-%5Calpha%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%5Ctheta_j%7D%5Cfrac%7B1%7D%7B2m%7D%5Csum_%7Bi%3D1%7D%5Em%20%28%5Ctheta_0%2B%5Ctheta_1x%5E%7B%28i%29%7D-y_i%29%5E2
%5Crbrace
%5CDownarrow%E5%BE%AE%E5%88%86
%E9%87%8D%E5%A4%8D%E7%9B%B4%E5%88%B0%E6%94%B6%E6%95%9B%EF%BC%9A%5Clbrace
%5Ctheta_0%3A%3D%5Ctheta_0-%5Calpha%5Cfrac%7B1%7D%7Bm%7D%20%5Csum_%7Bi%3D1%7D%5Em%28h_0%28x%5E%7B%28i%29%7D%29-y%5E%7B%28i%29%7D%29
%5Ctheta_1%3A%3D%5Ctheta_1-%5Calpha%5Cfrac%7B1%7D%7Bm%7D%20%5Csum_%7Bi%3D1%7D%5Em%28h_0%28x%5E%7B%28i%29%7D%29-y%5E%7B%28i%29%7D%29%5Ctimes%20x_i
%5Crbrace

  • 如果我们从假设的猜测%28%5Ctheta_0%2C%5Ctheta_1%29开始,然后反复应用梯度下降方程,我们的假设会越来越准确。
  • 这种方法在整个训练集的每一步都考虑每个示例,称为批量梯度下降。

版权声明:本文为博主iFulling原创文章,版权归属原作者,如果侵权,请联系我们删除!

原文链接:https://blog.csdn.net/realoser/article/details/122847867

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2022年2月21日 下午1:31
下一篇 2022年2月21日

相关推荐

此站出售,如需请站内私信或者邮箱!