机器学习基础 HMM模型(隐马尔科夫)

文章目录

推荐参考:https://juejin.cn/post/6844903891834781703

一、马尔科夫链

在机器学习算法中,马尔可夫链(Markov chain)是个很重要的概念。马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(俄语:Андрей Андреевич Марков)得名。

机器学习基础 HMM模型(隐马尔科夫)

1. 简介

马尔科夫链即为状态空间中从一个状态到另一个状态转换的随机过程

机器学习基础 HMM模型(隐马尔科夫)

2. 经典举例

下图中的马尔科夫链是用来表示股市模型,共有三种状态:牛市(Bull market), 熊市(Bear market)和横盘(Stagnant market)。

每一个状态都以一定的概率转化到下一个状态。比如,牛市以0.025的概率转化到横盘的状态。

机器学习基础 HMM模型(隐马尔科夫)

机器学习基础 HMM模型(隐马尔科夫)

当这个状态转移矩阵P确定以后,整个股市模型就已经确定!

3. 小结

二、HMM简介

隐马尔可夫模型(Hidden Markov Model,HMM)是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程

其难点是从可观察的参数中确定该过程的隐含参数。然后利用这些参数来作进一步的分析,例如模式识别

1. 简单案例

下面我们一起用一个简单的例子来阐述:

机器学习基础 HMM模型(隐马尔科夫)

但是在隐马尔可夫模型中,我们不仅仅有这么一串可见状态链,还有一串隐含状态链

一般来说,HMM中说到的马尔可夫链其实是指隐含状态链,因为隐含状态(骰子)之间存在转换概率(transition probability)。

同样的,尽管可见状态之间没有转换概率,但是隐含状态和可见状态之间有一个概率叫做输出概率(emission probability)。

机器学习基础 HMM模型(隐马尔科夫)

机器学习基础 HMM模型(隐马尔科夫)

其实对于HMM来说,如果提前知道所有隐含状态之间的转换概率和所有隐含状态到所有可见状态之间的输出概率,做模拟是相当容易的。但是应用HMM模型时候呢,往往是缺失了一部分信息的。

如果应用算法去估计这些缺失的信息,就成了一个很重要的问题。这些算法我会在后面详细讲。

2. 三个基本问题

  1. 给定模型,如何有效计算产生观测序列的概率?换言之,如何评估模型与观测序列之间的匹配程度?
  2. 给定模型和观测序列,如何找到与此观测序列最匹配的状态序列?换言之,如何根据观测序列推断出隐藏的模型状态?
  3. 给定观测序列,如何调整模型参数使得该序列出现的概率最大?换言之,如何训练模型使其能最好地描述观测数据?

前两个问题是模式识别的问题:1) 根据隐马尔科夫模型得到一个可观察状态序列的概率(评价);2) 找到一个隐藏状态的序列使得这个序列产生一个可观察状态序列的概率最大(解码)。第三个问题就是根据一个可以观察到的状态序列集产生一个隐马尔科夫模型(学习)。
对应的三大问题解法:

  1. 向前算法(Forward Algorithm)、向后算法(Backward Algorithm)
  2. 维特比算法(Viterbi Algorithm)
  3. 鲍姆-韦尔奇算法(Baum-Welch Algorithm) (约等于EM算法)

三、HMM模型基础

1. 什么样的问题需要HMM模型

首先我们来看看什么样的问题解决可以用HMM模型。使用HMM模型时我们的问题一般有这两个特征:

有了这两个特征,那么这个问题一般可以用HMM模型来尝试解决。这样的问题在实际生活中是很多的。

从这些例子中,我们可以发现,HMM模型可以无处不在。但是上面的描述还不精确,下面我们用精确的数学符号来表述我们的HMM模型。

2. HMM模型的定义

对于HMM模型,首先我们假设Q是所有可能的隐藏状态的集合,V是所有可能的观测状态的集合,即:

其中,N是可能的隐藏状态数,M是所有的可能的观察状态数。

对于一个长度为T的序列,i是对应的状态序列, O是对应的观察序列,即:

其中,任意一个隐藏状态机器学习基础 HMM模型(隐马尔科夫), 任意一个观察状态机器学习基础 HMM模型(隐马尔科夫)

HMM模型做了两个很重要的假设如下:

1) 齐次马尔科夫链假设

2) 观测独立性假设

一个HMM模型,可以由隐藏状态初始概率分布机器学习基础 HMM模型(隐马尔科夫) , 状态转移概率矩阵A和观测状态概率矩阵B决定

机器学习基础 HMM模型(隐马尔科夫) ,A决定状态序列,B决定观测序列。

因此,HMM模型可以由一个三元组机器学习基础 HMM模型(隐马尔科夫) 表示如下:

3. 一个HMM模型实例

下面我们用一个简单的实例来描述上面抽象出的HMM模型。这是一个盒子与球的模型。

例子来源于李航的《统计学习方法》。

假设我们有3个盒子,每个盒子里都有红色和白色两种球,这三个盒子里球的数量分别是:
机器学习基础 HMM模型(隐马尔科夫)

以这个概率抽一次球后,将球放回。

然后从当前盒子转移到下一个盒子进行抽球。规则是:

如此下去,直到重复三次,得到一个球的颜色的观测序列:

注意在这个过程中,观察者只能看到球的颜色序列,却不能看到球是从哪个盒子里取出的

那么按照我们前面HMM模型的定义,我们的观察状态集合是:

我们的隐藏状态集合是:

而观察序列和状态序列的长度为3.

初始状态分布机器学习基础 HMM模型(隐马尔科夫)为:

  • 机器学习基础 HMM模型(隐马尔科夫)

​​
状态转移概率分布A矩阵为:

机器学习基础 HMM模型(隐马尔科夫)

观测状态概率B矩阵为:

机器学习基础 HMM模型(隐马尔科夫)

4. HMM观测序列的生成

从上面的例子,我们也可以抽象出HMM观测序列生成的过程。

生成的过程如下:

所有的机器学习基础 HMM模型(隐马尔科夫)​​ 一起形成观测序列机器学习基础 HMM模型(隐马尔科夫)

5. HMM模型的三个基本问题

HMM模型一共有三个经典的问题需要解决:

1)评估观察序列概率 —— 前向后向的概率计算

2)预测问题,也称为解码问题 ——维特比(Viterbi)算法

3)模型参数学习问题 —— 鲍姆-韦尔奇(Baum-Welch)算法(状态未知) ,这是一个学习问题

接下来的三节,我们将基于这个三个问题展开讨论。

四、前向后向算法评估观察序列概率

本节我们就关注HMM第一个基本问题的解决方法,即已知模型和观测序列,求观测序列出现的概率。

1. 回顾HMM问题一:求观测序列的概率

首先我们回顾下HMM模型的问题一。这个问题是这样的。

我们已知HMM模型的参数机器学习基础 HMM模型(隐马尔科夫)

其中A是隐藏状态转移概率的矩阵,

B是观测状态生成概率的矩阵,

机器学习基础 HMM模型(隐马尔科夫) 是隐藏状态的初始概率分布。

同时我们也已经得到了观测序列机器学习基础 HMM模型(隐马尔科夫),

现在我们要求观测序列O在模型机器学习基础 HMM模型(隐马尔科夫) 下出现的条件概率机器学习基础 HMM模型(隐马尔科夫)

乍一看,这个问题很简单。因为我们知道所有的隐藏状态之间的转移概率和所有从隐藏状态到观测状态生成概率,那么我们是可以暴力求解的

我们可以列举出所有可能出现的长度为T的隐藏序列机器学习基础 HMM模型(隐马尔科夫),分别求出这些隐藏序列与观测序列机器学习基础 HMM模型(隐马尔科夫)的联合概率分布机器学习基础 HMM模型(隐马尔科夫),这样我们就可以很容易的求出边缘分布机器学习基础 HMM模型(隐马尔科夫)了。

具体暴力求解的方法是这样的:

虽然上述方法有效,但是如果我们的隐藏状态数N非常多的那就麻烦了,此时我们预测状态有机器学习基础 HMM模型(隐马尔科夫)种组合,算法的时间复杂度是机器学习基础 HMM模型(隐马尔科夫)阶的。

因此对于一些隐藏状态数极少的模型,我们可以用暴力求解法来得到观测序列出现的概率,但是如果隐藏状态多,则上述算法太耗时,我们需要寻找其他简洁的算法。

前向后向算法就是来帮助我们在较低的时间复杂度情况下求解这个问题的。

2. 用前向算法求HMM观测序列的概率

前向后向算法是前向算法和后向算法的统称,这两个算法都可以用来求HMM观测序列的概率。我们先来看看前向算法是如何求解这个问题的。

2.1 流程梳理

前向算法本质上属于动态规划的算法,也就是我们要通过找到局部状态递推的公式,这样一步步的从子问题的最优解拓展到整个问题的最优解。

机器学习基础 HMM模型(隐马尔科夫)

我们的动态规划从时刻1开始,到时刻T结束,由于机器学习基础 HMM模型(隐马尔科夫)表示在时刻T观测序列为机器学习基础 HMM模型(隐马尔科夫)​​ ,并且时刻T隐藏状态机器学习基础 HMM模型(隐马尔科夫)的概率,我们只要将所有隐藏状态对应的概率相加,即机器学习基础 HMM模型(隐马尔科夫)就得到了在时刻T观测序列为机器学习基础 HMM模型(隐马尔科夫)的概率。

2.2 算法总结

从递推公式可以看出,我们的算法时间复杂度是机器学习基础 HMM模型(隐马尔科夫),比暴力解法的时间复杂度机器学习基础 HMM模型(隐马尔科夫)少了几个数量级。

3. HMM前向算法求解实例

这里我们用前面盒子与球的例子来显示前向概率的计算。 我们的观察集合是:

机器学习基础 HMM模型(隐马尔科夫)

我们的状态集合是:

机器学习基础 HMM模型(隐马尔科夫)

而观察序列和状态序列的长度为3.

初始状态分布为:

机器学习基础 HMM模型(隐马尔科夫)

状态转移概率分布矩阵为:

机器学习基础 HMM模型(隐马尔科夫)

观测状态概率矩阵为:

机器学习基础 HMM模型(隐马尔科夫)

球的颜色的观测序列:

机器学习基础 HMM模型(隐马尔科夫)

按照我们上一节的前向算法。首先计算时刻1三个状态的前向概率:

时刻1是红色球,

现在我们可以开始递推了,首先递推时刻2三个状态的前向概率:

时刻2是白色球,

继续递推,现在我们递推时刻3三个状态的前向概率:

时刻3是红色球,

最终我们求出观测序列:O=红,白,红的概率为:

机器学习基础 HMM模型(隐马尔科夫)

向后算法原理大概一致,可自行查询

五、维特比算法解码隐藏状态序列

学习目标
知道维特比算法解码隐藏状态序列
在本篇我们会讨论维特比算法解码隐藏状态序列,即给定模型和观测序列,求给定观测序列条件下,最可能出现的对应的隐藏状态序列

HMM模型的解码问题最常用的算法是维特比算法,当然也有其他的算法可以求解这个问题。

同时维特比算法是一个通用的求序列最短路径的动态规划算法,也可以用于很多其他问题。

1. HMM最可能隐藏状态序列求解概述

HMM模型的解码问题即:

一个可能的近似解法是求出观测序列O在每个时刻t最可能的隐藏状态 机器学习基础 HMM模型(隐马尔科夫) 然后得到一个近似的隐藏状态序列机器学习基础 HMM模型(隐马尔科夫)I。要这样近似求解不难,利用前向后向算法评估观察序列概率的定义:

近似算法很简单,但是却不能保证预测的状态序列整体是最可能的状态序列,因为预测的状态序列中某些相邻的隐藏状态可能存在转移概率为0的情况。

维特比算法可以将HMM的状态序列作为一个整体来考虑,避免近似算法的问题,下面我们来看看维特比算法进行HMM解码的方法。

2. 维特比算法概述

维特比算法是一个通用的解码算法,是基于动态规划的求序列最短路径的方法。

既然是动态规划算法,那么就需要找到合适的局部状态,以及局部状态的递推公式。在HMM中,维特比算法定义了两个局部状态用于递推。

1)第一个局部状态是在时刻t隐藏状态为机器学习基础 HMM模型(隐马尔科夫)所有可能的状态转移路径机器学习基础 HMM模型(隐马尔科夫)​​ 中的概率最大值。

机器学习基础 HMM模型(隐马尔科夫)的定义可以得到机器学习基础 HMM模型(隐马尔科夫)的递推表达式:

机器学习基础 HMM模型(隐马尔科夫)

2)第二个局部状态由第一个局部状态递推得到

有了这两个局部状态,我们就可以从时刻0一直递推到时刻T,然后利用机器学习基础 HMM模型(隐马尔科夫)记录的前一个最可能的状态节点回溯,直到找到最优的隐藏状态序列。

3. 维特比算法流程总结

现在我们来总结下维特比算法的流程:

流程如下:

最终得到最有可能的隐藏状态序列机器学习基础 HMM模型(隐马尔科夫)

4. HMM维特比算法求解实例

下面我们仍然用盒子与球的例子来看看HMM维特比算法求解。 我们的观察集合是:

机器学习基础 HMM模型(隐马尔科夫)

我们的状态集合是:

机器学习基础 HMM模型(隐马尔科夫)

而观察序列和状态序列的长度为3.

初始状态分布为:

机器学习基础 HMM模型(隐马尔科夫)

状态转移概率分布矩阵为:

机器学习基础 HMM模型(隐马尔科夫)

观测状态概率矩阵为:

机器学习基础 HMM模型(隐马尔科夫)

球的颜色的观测序列:

机器学习基础 HMM模型(隐马尔科夫)

按照我们前面的维特比算法,首先需要得到三个隐藏状态在时刻1时对应的各自两个局部状态,此时观测状态为1:

机器学习基础 HMM模型(隐马尔科夫)

现在开始递推三个隐藏状态在时刻2时对应的各自两个局部状态,此时观测状态为2:
机器学习基础 HMM模型(隐马尔科夫)

由于机器学习基础 HMM模型(隐马尔科夫),所以机器学习基础 HMM模型(隐马尔科夫) , 而又由于机器学习基础 HMM模型(隐马尔科夫),所以机器学习基础 HMM模型(隐马尔科夫)。从而得到最终的最可能的隐藏状态序列为:(3,3,3)。

六、鲍姆-韦尔奇算法简介

1. 简介

模型参数学习问题 —— 鲍姆-韦尔奇(Baum-Welch)算法(状态未知) ,

机器学习基础 HMM模型(隐马尔科夫)

2. 鲍姆-韦尔奇算法原理

鲍姆-韦尔奇算法原理既然使用的就是EM算法的原理,

接着不停的进行EM迭代,直到模型参数的值收敛为止。

首先来看看E步,当前模型参数为机器学习基础 HMM模型(隐马尔科夫)​​, 联合分布机器学习基础 HMM模型(隐马尔科夫)基于条件概率机器学习基础 HMM模型(隐马尔科夫)的期望表达式为:

  • 机器学习基础 HMM模型(隐马尔科夫)

在M步,我们极大化上式,然后得到更新后的模型参数如下:

  • 机器学习基础 HMM模型(隐马尔科夫)

通过不断的E步和M步的迭代,直到机器学习基础 HMM模型(隐马尔科夫)收敛。

七、HMM模型API介绍

1. API的安装:

官网链接:https://hmmlearn.readthedocs.io/en/latest/

pip3 install hmmlearn

2. hmmlearn介绍

hmmlearn实现了三种HMM模型类,按照观测状态是连续状态还是离散状态,可以分为两类。

GaussianHMM和GMMHMM是连续观测状态的HMM模型,而MultinomialHMM是离散观测状态的模型,也是我们在HMM原理系列篇里面使用的模型。

在这里主要介绍我们前面一直讲的关于离散状态的MultinomialHMM模型。

对于MultinomialHMM的模型,使用比较简单,里面有几个常用的参数:

3. MultinomialHMM实例

下面我们用我们在前面讲的关于球的那个例子使用MultinomialHMM跑一遍。

import numpy as np
from hmmlearn import hmm
# 设定隐藏状态的集合
states = ["box 1", "box 2", "box3"]
n_states = len(states)

# 设定观察状态的集合
observations = ["red", "white"]
n_observations = len(observations)

# 设定初始状态分布
start_probability = np.array([0.2, 0.4, 0.4])

# 设定状态转移概率分布矩阵
transition_probability = np.array([
  [0.5, 0.2, 0.3],
  [0.3, 0.5, 0.2],
  [0.2, 0.3, 0.5]
])
# 设定观测状态概率矩阵
emission_probability = np.array([
  [0.5, 0.5],
  [0.4, 0.6],
  [0.7, 0.3]
])
# 设定模型参数
model = hmm.MultinomialHMM(n_components=n_states)
model.startprob_=start_probability  # 初始状态分布
model.transmat_=transition_probability  # 状态转移概率分布矩阵
model.emissionprob_=emission_probability  # 观测状态概率矩阵

现在我们来跑一跑HMM问题三维特比算法的解码过程,使用和之前一样的观测序列来解码,代码如下:

seen = np.array([[0,1,0]]).T  # 设定观测序列
box = model.predict(seen)

print("球的观测顺序为:\n", ", ".join(map(lambda x: observations[x], seen.flatten())))
# 注意:需要使用flatten方法,把seen从二维变成一维
print("最可能的隐藏状态序列为:\n", ", ".join(map(lambda x: states[x], box)))

我们再来看看求HMM问题一的观测序列的概率的问题,代码如下:

print(model.score(seen))
# 输出结果是:-2.03854530992

要注意的是score函数返回的是以自然对数为底的对数概率值,我们在HMM问题一中手动计算的结果是未取对数的原始概率是0.13022。对比一下:

import math

math.exp(-2.038545309915233)
# ln0.13022≈−2.0385
# 输出结果是:0.13021800000000003

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2023年3月28日
下一篇 2023年3月28日

相关推荐