机器学习(周志华)第12章计算学习理论

周志华先生《机器学习》一书学习笔记
记录学习过程
本博客记录Chapter12

1 基础知识

计算学习理论(computational learning theory):关于通过“计算”来进行“学习”的理论,即关于机器学习的理论基础,其目的是分析学习任务的困难本质,为学习算法体统理论保证,并根据结果指导算法设计。

对于二分类问题,给定样本集机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论。假设所有样本服从一个隐含未知的分布机器学习(周志华)第12章计算学习理论,所有样本均独立同分布(independent and identically distributed)。

机器学习(周志华)第12章计算学习理论为样本到机器学习(周志华)第12章计算学习理论的映射,其泛化误差为
机器学习(周志华)第12章计算学习理论
机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论的经验误差为
机器学习(周志华)第12章计算学习理论

由于D是机器学习(周志华)第12章计算学习理论的独立同分布采样,因此机器学习(周志华)第12章计算学习理论的经验误差的期望等于其泛化误差。在上下文明确时,我们将机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论分别简记为机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论。 令机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论的上限,即机器学习(周志华)第12章计算学习理论;我们通常用机器学习(周志华)第12章计算学习理论表示预先设定的学得模型所应满足的误差要求,亦称“误差参数”。

我们将研究经验误差和泛化误差之间的逼近程度;若机器学习(周志华)第12章计算学习理论在数据集上的经验误差为0,则称机器学习(周志华)第12章计算学习理论与D一致,否则称其不一致。对于任意两个映射机器学习(周志华)第12章计算学习理论,用不合(disagreement)来度量他们之间的差别:
机器学习(周志华)第12章计算学习理论
我们将使用几个常见的不等式:

  • Jensen不等式:对任意凸函数,有
    机器学习(周志华)第12章计算学习理论
  • Hoeffding不等式:若机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论个独立随机变量,且满足机器学习(周志华)第12章计算学习理论,对任意机器学习(周志华)第12章计算学习理论,有
    机器学习(周志华)第12章计算学习理论
  • McDiarmid不等式:若机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论个独立随机变量,且满足机器学习(周志华)第12章计算学习理论,函数机器学习(周志华)第12章计算学习理论满足:
    机器学习(周志华)第12章计算学习理论
    那么对于任何 机器学习(周志华)第12章计算学习理论,我们有
    机器学习(周志华)第12章计算学习理论

2 PAC学习

概率近似正确理论(Probably Approximately Correct,PAC):

  • 先介绍两个概念:
  • 机器学习(周志华)第12章计算学习理论:概念类。表示从样本空间到标签空间的映射,可以对任意样本做机器学习(周志华)第12章计算学习理论
  • 机器学习(周志华)第12章计算学习理论:假设类。学习算法聚合了它认为可能形成的目标概念机器学习(周志华)第12章计算学习理论
  • 如果机器学习(周志华)第12章计算学习理论,则表示该假设可以以与ground truth标签一致的方式完全分离所有示例,该问题对于学习算法而言称为“可分离”;否则称为“形影不离”
  • 对于训练集,我们希望学习算法学习到的模型所对应的假设机器学习(周志华)第12章计算学习理论尽可能接近目标概念机器学习(周志华)第12章计算学习理论。我们希望以更大的确定性来学习一个更好的模型,即学习一个误差达到预设上限的概率更大的模型,也就是“概率近似正确”的意思。形式上,令机器学习(周志华)第12章计算学习理论表示置信度,可以定义为:
  • PAC辨识:对机器学习(周志华)第12章计算学习理论,所有的机器学习(周志华)第12章计算学习理论和分布机器学习(周志华)第12章计算学习理论,若存在学习算法,其输出假设机器学习(周志华)第12章计算学习理论满足:
    机器学习(周志华)第12章计算学习理论
    则称学习算法能从假设空间机器学习(周志华)第12章计算学习理论中PAC辨识概念类机器学习(周志华)第12章计算学习理论。这样的学习算法能以较大的概率(至少机器学习(周志华)第12章计算学习理论) 学得目标概念机器学习(周志华)第12章计算学习理论的近似 (误差最多为机器学习(周志华)第12章计算学习理论)。在此基础上可定义:
  • PAC可学习:令机器学习(周志华)第12章计算学习理论表示从分布机器学习(周志华)第12章计算学习理论中独立同分布采样得到的样例数目,机器学习(周志华)第12章计算学习理论,对所有分布机器学习(周志华)第12章计算学习理论,若存在学习算法和多项式函数机器学习(周志华)第12章计算学习理论(样例数目机器学习(周志华)第12章计算学习理论与误差机器学习(周志华)第12章计算学习理论、置信度机器学习(周志华)第12章计算学习理论、数据本身的复杂度机器学习(周志华)第12章计算学习理论、目标概念的复杂度机器学习(周志华)第12章计算学习理论都有关),使得对于任何机器学习(周志华)第12章计算学习理论,学习算法能从假设空间中PAC辨识概念类机器学习(周志华)第12章计算学习理论,则称概念类机器学习(周志华)第12章计算学习理论对假设空间而言是PAC可学习的,有时也简称概念类机器学习(周志华)第12章计算学习理论是PAC 可学习的。
  • PAC学习算法:满足PAC可学习的算法。(假定学习算法处理每个样本的时间为常数,因此机器学习(周志华)第12章计算学习理论的时间复杂度等价于样本复杂度。于是,我们对算法时间复杂度的关心就转化为对样本复杂度的关心)
  • 样本复杂度(Sample Complexity):满足机器学习(周志华)第12章计算学习理论的最小的机器学习(周志华)第12章计算学习理论
  • PAC学习中一个关键因素是假设空间H的复杂度。H包含了学习算法所有可能输出的假设,若在PAC学习中假设空间与概念类完全相同,即H=C,这称为”恰PAC可学习” (properly PAC learnable)。直观地看,这意味着学习算法的能力与学习任务”恰好匹配“。
    然而,这个要求拥有来自概念类的所有候选假设似乎是合理的,但并不实用,因为在现实世界的应用中我们通常对概念类一无所知机器学习(周志华)第12章计算学习理论,更不用说获得一个假设空间和概念类完全一样学习算法。显然,更重要的是研究假设空间与概念类不同的情况,即机器学习(周志华)第12章计算学习理论。一般来说,机器学习(周志华)第12章计算学习理论越大,越有可能包含任何目标概念,但越难从中找到具体的目标概念。 机器学习(周志华)第12章计算学习理论 当它是有限时,我们称之为“有限假设空间”,否则称为“无限假设空间”。

3 有限假设空间

3.1 可分情形

对于PAC来说,只要训练集机器学习(周志华)第12章计算学习理论的规模能使得学习算法以概率机器学习(周志华)第12章计算学习理论找到目标假设的机器学习(周志华)第12章计算学习理论近似即可。

首先估计泛化误差大于机器学习(周志华)第12章计算学习理论但仍然在训练集上表现完美的假设的概率。假设机器学习(周志华)第12章计算学习理论的泛化误差大于机器学习(周志华)第12章计算学习理论,对于从分布机器学习(周志华)第12章计算学习理论随机抽样得到的任意样本机器学习(周志华)第12章计算学习理论,我们有:
机器学习(周志华)第12章计算学习理论
由于机器学习(周志华)第12章计算学习理论包含机器学习(周志华)第12章计算学习理论例子,机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论一致的概率为:
机器学习(周志华)第12章计算学习理论
我们事先并不知道学习算法会输出哪个假设,但我们只需要保证泛化误差大于机器学习(周志华)第12章计算学习理论,并且在训练集上完美的多个假设的出现概率之和不大于比机器学习(周志华)第12章计算学习理论
机器学习(周志华)第12章计算学习理论

令上式不大于机器学习(周志华)第12章计算学习理论
机器学习(周志华)第12章计算学习理论
可用的
机器学习(周志华)第12章计算学习理论
由此可知,有限假设空间机器学习(周志华)第12章计算学习理论都是PAC可学习的,所需的样例数目如上式所示,输出假设机器学习(周志华)第12章计算学习理论的泛化误差随样例数目的增多而收敛到 0,收敛速率为机器学习(周志华)第12章计算学习理论

3.2 不可分情形

机器学习(周志华)第12章计算学习理论时,我们的学习算法无法学习到目标概念机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论近似,但是当假设空间给定时,必然存在泛化误差最小的假设,找到这个假设的机器学习(周志华)第12章计算学习理论近似也是一个不错的目标。 .

机器学习(周志华)第12章计算学习理论中泛化误差最小的假设是机器学习(周志华)第12章计算学习理论,以此为目标可将PAC学习推广到机器学习(周志华)第12章计算学习理论的情况,称为**”不可知学习“**(agnostic learning)。其概念如下:

机器学习(周志华)第12章计算学习理论表示从分布机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论中独立且相同的分布采样的样本数,对于所有分布机器学习(周志华)第12章计算学习理论,如果存在学习算法和多项式函数机器学习(周志华)第12章计算学习理论,使得对于任何机器学习(周志华)第12章计算学习理论,学习算法可以从满足下列方程的假设空间 假设机器学习(周志华)第12章计算学习理论
机器学习(周志华)第12章计算学习理论
则称假设空间是不可知PAC学习的。

4 VC维

VC维:假设空间机器学习(周志华)第12章计算学习理论的VC维是能被机器学习(周志华)第12章计算学习理论打散的最大示例集的大小:
机器学习(周志华)第12章计算学习理论
例如对二分类问题来说,m个样本最多有机器学习(周志华)第12章计算学习理论个可能结果,每种可能结果称为一种“对分”,若假设空间能实现数据集D的所有对分,则称数据集能被该假设空间打散。VC维指能被机器学习(周志华)第12章计算学习理论打散的最大示例集的大小。

应注意到,VC维与数据分布机器学习(周志华)第12章计算学习理论无关!在数据分布未知时,仍能计算出假设空间的VC维。

机器学习(周志华)第12章计算学习理论

若假设空间机器学习(周志华)第12章计算学习理论的VC维是机器学习(周志华)第12章计算学习理论,则对任意整数机器学习(周志华)第12章计算学习理论,有:
机器学习(周志华)第12章计算学习理论
同时任何VC维有限的假设空间机器学习(周志华)第12章计算学习理论都是(不可知)PAC学习的。

5 Rademacher复杂度

Rademacher 复杂度 (Rademacher complexity) 是另一种刻画假设空间复杂度的途径,与VC维不同的是,它在一定程度上考虑了数据分布。

考虑实值函数空间机器学习(周志华)第12章计算学习理论,令机器学习(周志华)第12章计算学习理论。函数空间机器学习(周志华)第12章计算学习理论关于机器学习(周志华)第12章计算学习理论的经验Rademacher复杂度
机器学习(周志华)第12章计算学习理论
经验Rademacher复杂度衡量了函数空间机器学习(周志华)第12章计算学习理论与随机噪声在集合机器学习(周志华)第12章计算学习理论中的相关性。通常我们希望了解函数空间机器学习(周志华)第12章计算学习理论机器学习(周志华)第12章计算学习理论上关于分布机器学习(周志华)第12章计算学习理论的相关性,因此,对所
机器学习(周志华)第12章计算学习理论 采样的 IID 有一个大小为 机器学习(周志华)第12章计算学习理论 的集合 机器学习(周志华)第12章计算学习理论
机器学习(周志华)第12章计算学习理论
假设空间机器学习(周志华)第12章计算学习理论的Rdemacher复杂度机器学习(周志华)第12章计算学习理论与增长函数机器学习(周志华)第12章计算学习理论满足
机器学习(周志华)第12章计算学习理论

6 稳定性

顾名思义,算法的“稳定性”考察的是当输入发生变化时,算法的输出是否会发生显着变化。学习算法的输入是训练集,所以我们首先定义训练集的两个变体:

  • remove:机器学习(周志华)第12章计算学习理论,表示去掉机器学习(周志华)第12章计算学习理论中的第机器学习(周志华)第12章计算学习理论个例子得到的集合
    机器学习(周志华)第12章计算学习理论
  • 替换:机器学习(周志华)第12章计算学习理论,表示替换机器学习(周志华)第12章计算学习理论中的第1个样本得到的集合
    机器学习(周志华)第12章计算学习理论

损失函数捕获预测标记和真实标记之间的差异:

机器学习(周志华)第12章计算学习理论

算法的均匀稳定性:

机器学习(周志华)第12章计算学习理论

因此,移除示例的稳定性包括替换示例的稳定性。

若学习算法符合经验风险最小化原则(ERM)且稳定的,则假设空间机器学习(周志华)第12章计算学习理论是可学习的。稳定性通过损失函数与假设空间的可学习联系在了一起。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2022年4月6日 下午5:16
下一篇 2022年4月6日 下午5:37

相关推荐

此站出售,如需请站内私信或者邮箱!