周志华先生《机器学习》一书学习笔记
记录学习过程
本博客记录Chapter12
1 基础知识
计算学习理论(computational learning theory):关于通过“计算”来进行“学习”的理论,即关于机器学习的理论基础,其目的是分析学习任务的困难本质,为学习算法体统理论保证,并根据结果指导算法设计。
对于二分类问题,给定样本集,
。假设所有样本服从一个隐含未知的分布
,所有样本均独立同分布(independent and identically distributed)。
令为样本到
的映射,其泛化误差为
对
的经验误差为
由于D是的独立同分布采样,因此
的经验误差的期望等于其泛化误差。在上下文明确时,我们将
和
分别简记为
和
。 令
为
的上限,即
;我们通常用
表示预先设定的学得模型所应满足的误差要求,亦称“误差参数”。
我们将研究经验误差和泛化误差之间的逼近程度;若在数据集上的经验误差为0,则称
与D一致,否则称其不一致。对于任意两个映射
,用不合(disagreement)来度量他们之间的差别:
我们将使用几个常见的不等式:
- Jensen不等式:对任意凸函数,有
- Hoeffding不等式:若
为
个独立随机变量,且满足
,对任意
,有
- McDiarmid不等式:若
为
个独立随机变量,且满足
,函数
满足:
那么对于任何,我们有
2 PAC学习
概率近似正确理论(Probably Approximately Correct,PAC):
- 先介绍两个概念:
:概念类。表示从样本空间到标签空间的映射,可以对任意样本做
。
:假设类。学习算法聚合了它认为可能形成的目标概念
。
- 如果
,则表示该假设可以以与ground truth标签一致的方式完全分离所有示例,该问题对于学习算法而言称为“可分离”;否则称为“形影不离”
- 对于训练集,我们希望学习算法学习到的模型所对应的假设
尽可能接近目标概念
。我们希望以更大的确定性来学习一个更好的模型,即学习一个误差达到预设上限的概率更大的模型,也就是“概率近似正确”的意思。形式上,令
表示置信度,可以定义为:
- PAC辨识:对
,所有的
和分布
,若存在学习算法,其输出假设
满足:
则称学习算法能从假设空间中PAC辨识概念类
。这样的学习算法能以较大的概率(至少
) 学得目标概念
的近似 (误差最多为
)。在此基础上可定义:
- PAC可学习:令
表示从分布
中独立同分布采样得到的样例数目,
,对所有分布
,若存在学习算法和多项式函数
(样例数目
与误差
、置信度
、数据本身的复杂度
、目标概念的复杂度
都有关),使得对于任何
,学习算法能从假设空间中PAC辨识概念类
,则称概念类
对假设空间而言是PAC可学习的,有时也简称概念类
是PAC 可学习的。
- PAC学习算法:满足PAC可学习的算法。(假定学习算法处理每个样本的时间为常数,因此
的时间复杂度等价于样本复杂度。于是,我们对算法时间复杂度的关心就转化为对样本复杂度的关心)
- 样本复杂度(Sample Complexity):满足
的最小的
。
- PAC学习中一个关键因素是假设空间H的复杂度。H包含了学习算法所有可能输出的假设,若在PAC学习中假设空间与概念类完全相同,即H=C,这称为”恰PAC可学习” (properly PAC learnable)。直观地看,这意味着学习算法的能力与学习任务”恰好匹配“。
然而,这个要求拥有来自概念类的所有候选假设似乎是合理的,但并不实用,因为在现实世界的应用中我们通常对概念类一无所知,更不用说获得一个假设空间和概念类完全一样学习算法。显然,更重要的是研究假设空间与概念类不同的情况,即
。一般来说,
越大,越有可能包含任何目标概念,但越难从中找到具体的目标概念。
当它是有限时,我们称之为“有限假设空间”,否则称为“无限假设空间”。
3 有限假设空间
3.1 可分情形
对于PAC来说,只要训练集的规模能使得学习算法以概率
找到目标假设的
近似即可。
首先估计泛化误差大于但仍然在训练集上表现完美的假设的概率。假设
的泛化误差大于
,对于从分布
随机抽样得到的任意样本
,我们有:
由于包含
例子,
和
一致的概率为:
我们事先并不知道学习算法会输出哪个假设,但我们只需要保证泛化误差大于,并且在训练集上完美的多个假设的出现概率之和不大于比
。
令上式不大于
可用的
由此可知,有限假设空间都是PAC可学习的,所需的样例数目如上式所示,输出假设
的泛化误差随样例数目的增多而收敛到 0,收敛速率为
。
3.2 不可分情形
当时,我们的学习算法无法学习到目标概念
的
近似,但是当假设空间给定时,必然存在泛化误差最小的假设,找到这个假设的
近似也是一个不错的目标。 .
中泛化误差最小的假设是
,以此为目标可将PAC学习推广到
的情况,称为**”不可知学习“**(agnostic learning)。其概念如下:
令表示从分布
,
中独立且相同的分布采样的样本数,对于所有分布
,如果存在学习算法和多项式函数
,使得对于任何
,学习算法可以从满足下列方程的假设空间 假设
:
则称假设空间是不可知PAC学习的。
4 VC维
VC维:假设空间的VC维是能被
打散的最大示例集的大小:
例如对二分类问题来说,m个样本最多有个可能结果,每种可能结果称为一种“对分”,若假设空间能实现数据集D的所有对分,则称数据集能被该假设空间打散。VC维指能被
打散的最大示例集的大小。
应注意到,VC维与数据分布无关!在数据分布未知时,仍能计算出假设空间的VC维。
若假设空间的VC维是
,则对任意整数
,有:
同时任何VC维有限的假设空间都是(不可知)PAC学习的。
5 Rademacher复杂度
Rademacher 复杂度 (Rademacher complexity) 是另一种刻画假设空间复杂度的途径,与VC维不同的是,它在一定程度上考虑了数据分布。
考虑实值函数空间,令
。函数空间
关于
的经验Rademacher复杂度
经验Rademacher复杂度衡量了函数空间与随机噪声在集合
中的相关性。通常我们希望了解函数空间
在
上关于分布
的相关性,因此,对所
从 采样的 IID 有一个大小为
的集合
。
假设空间的Rdemacher复杂度
与增长函数
满足
6 稳定性
顾名思义,算法的“稳定性”考察的是当输入发生变化时,算法的输出是否会发生显着变化。学习算法的输入是训练集,所以我们首先定义训练集的两个变体:
- remove:
,表示去掉
中的第
个例子得到的集合
- 替换:
,表示替换
中的第1个样本得到的集合
损失函数捕获预测标记和真实标记之间的差异:
算法的均匀稳定性:
因此,移除示例的稳定性包括替换示例的稳定性。
若学习算法符合经验风险最小化原则(ERM)且稳定的,则假设空间是可学习的。稳定性通过损失函数与假设空间的可学习联系在了一起。
文章出处登录后可见!