站点图标 AI技术聚合

Machine Learning – week1

Machine Learning - week1

1. 什么是机器学习?

2. 监督学习

监督学习问题分为“回归”问题和“分类”问题:

  • 在回归问题中,我们试图预测连续输出的结果,这意味着我们试图将输入变量映射到连续函数。
    示例:给定房子的大小,我们使用大小来预测售价。
  • 在分类问题中,我们试图预测离散输出的结果。换句话说,我们尝试将输入变量映射为离散变量。
    示例:对于患有肿瘤的患者,我们预测肿瘤是恶性的还是良性的。

3. 无监督学习

  • 聚类:将100万个不同的基因集合起来,然后找到一种方法将这些基因自动分组,使其在某种程度上具有相似性或与不同的变量相关。比如寿命,位置,角色等等。
  • 非聚类:“鸡尾酒会算法”可让您在杂乱的环境中找到结构。 (从鸡尾酒会上的各种声音中识别出不同的声音和音乐)。

4. 线性回归模型

;

5. 代价函数(平方误差函数)

(1)单参图像直观展示

时,我们得到斜率为1,它经过模型中的每一个数据点。
时,我们看到拟合数据点的垂直距离增加。

绘制其他几个代价函数值的结果,如下图,当时,的值最小。

(2)双参图像直观展示

当只有一个参数时,我们画一个弓形函数;并且我们有两个参数,那么代价函数仍然呈现类似的弓形,会得到一个三维曲面图。

两个轴分别代表。随着大小的变化,对于特定点表面的高度获得不同的成本函数。也就是垂直方向的高度,它代表代价函数的值

6. 梯度下降算法



代表赋值,右边的项被赋值给左边的项。
:表示特征索引号。
:称为学习率,参数α决定了每一步的大小。较小的 α 会导致较小的步长,较大的 α 会导致较大的步长。步进方向由的偏导数决定。

我们把放在x轴上,放在y轴上,代价函数在垂直z轴上。图上的点是使用我们的假设和特定参数的代价函数的结果。
我们的方法是取成本函数的导数(函数的正切)。切线的斜率是这个点的导数,它会给我们一个移动的方向。我们让代价函数朝着递减速度最快的方向逐渐递减。

不同的起点可能在不同的点结束。上图显示了两个不同的起点和在两个不同的地方结束。

(1)单参



(2)双参(梯度下降完整公式)










版权声明:本文为博主iFulling原创文章,版权归属原作者,如果侵权,请联系我们删除!

原文链接:https://blog.csdn.net/realoser/article/details/122847867

退出移动版