破解音频隐写术:结合机器学习

内容

前言

1.马尔可夫特征集

1.1 提取AMDCT系数矩阵

1.2 计算差分矩阵

1.3 计算转移概率

1.4 特征优化

2. 深度学习的应用

2.1 概述

2.2 两种隐写分析框架

2.3 网络模型基础部件

系列文章

前言

针对特定算法设计了特殊的隐写分析方法,通用性较弱;相反,一般隐写分析比特殊隐写分析具有更强的通用性,可以检测多种隐写方法。传统的通用隐写分析模型也称为盲隐写分析模型,主要包括隐写特征分析和分类器选择。

随着机器学习的发展和深度学习的出现,隐写分析方法不需要预先设计特征,可以直接利用神经网络自动完成特征学习。一些分析特征可以同时应用于多个嵌入域,但它们的适用范围和检测精度却大相径庭。

1.马尔可夫特征集

马尔可夫特征集是最简单、最有效的隐写分析特征之一。假设隐写嵌入域是一个服从马尔科夫链的随机过程,马尔科夫链的状态转移概率矩阵将根据隐写操作发生变化。马尔科夫特征集计算简单,对于一些低嵌入率的隐写算法也有很好的检测效果。但是,由于变量的状态数和样本分量的数量都很大,马尔可夫特征的维数很高。

在实际应用中,通常需要对某些状态值和特征分量进行筛选和优化以降维,并剔除一些对检测影响不大的分量和训练中过拟合的分量,以满足实际计算成本和检出率要求。这些在音频隐写分析中以多种形式应用,包括时域和压缩域等。

以下,以MP3音频为例来说明马尔科夫特征的计算过程步骤。

1.1 提取AMDCT系数矩阵

提取待测MP3音频的QMDCT系数矩阵C_Q为如下:

C_Q=(c_{mn})_{M\times N}=\begin{pmatrix} c_{11}&\cdots&c_{1N}\\ \vdots&\ddots&\vdots\\ c_{M1}&\cdots &c_{MN}\end{pmatrix}

上式子中,C_Q的每个行向量表示MP3帧中的一个颗粒,由此M就代表音频文件的总颗粒数,它可以控制单次检测的粒度,M值越小检测粒度越细。根据MP3的编码标准,N的值为576,当然根据实际应用,M和N的值可以灵活选取。从每个颗粒中QMDCT系数的分布来讲,大约位于后\frac{1}{3}的QMDCT系数都属于零值区,对特征的计算没有实质作用,由此就可以减小N的取值。

1.2 计算差分矩阵

计算C_Q的差分矩阵D_Q和绝对值差分矩阵D_{AQ}如下:

破解音频隐写术:结合机器学习

上式中,d_{mn}=c_{m+1,n}-c_{mn}d_{mn}'=|c_{m+1,n}|-|c_{mn}|

1.3 计算转移概率

根据马尔可夫链的状态转移原理,可以单独计算C_Q,D_Q,D_{AQ}的一阶转移概率。

行方向的帧间转换概率如下:

破解音频隐写术:结合机器学习

列方向的帧内转换概率如下:

破解音频隐写术:结合机器学习

上式子中T代表状态量阈值,且\delta(X=x,Y=y)=\begin{cases}1,\quad X=x,Y=y\\0,\quad others \end{},此式子中x,y\in[-T,T]

1.4 特征优化

为了降低特征向量维度,可以通过调节阈值T,同时对以上式子特征进行优化选择。

P_{D_{AQ-Inter}} 特征优化条件如下:

破解音频隐写术:结合机器学习

P_D_{AQ-Intra} 特征优化条件如下:

破解音频隐写术:结合机器学习

上式子中,\mu()\sigma()分别代表均值函数和标准差函数;S_iC_i分别表示第i个隐写音频样本和载体音频样本;I是样本对总数;\epsilon_{Inter-mean},\epsilon_{Inter-std},\epsilon_{Intra-mean},\epsilon_{Intra-std}是对应的阈值;x,y\in[-T',T'](T'<T)

综上1.1~1.4,马尔科夫特征的维度与T值选取和特征优选有关系,如果不考虑特征优选,则特征维度计算为6(2T+1)^2维。

2. 深度学习的应用

2.1 概述

深度学习在近些年受到了世界各国研究人员的热捧,也是一个很有潜力的研究方向。深度学习已被广泛应用于图像分类,语音识别,目标跟踪以及语义分割等众多领域。其中最具有代表性的深度学习网络包括LeNet,AlexNet,VGG,GoogLeNet,ResNet和DenseNet。其中具有代表性的书籍如下:

破解音频隐写术:结合机器学习

人工智能、机器学习、神经网络、深度学习之间的关系如下图所示:

破解音频隐写术:结合机器学习

隐写分析的本质任务是分类任务,其目标是找到最优的隐写统计特征表达,从而更好地区分正常载体和隐写载体。因此,深度学习技术也可以应用于隐写分析。

2.2 两种隐写分析框架

基于卷积神经网络和基于手工特征设计的隐写分析方法,两个框架的基本组件相似,最本质的区别在于隐写特征的表达。基于卷积神经网络的隐写分析方法可以实现特征空间的自动优化;基于人工特征设计的隐写分析方法需要很强的专业知识和设计经验。这两种类型的隐写分析框架的比较可以看如下:

破解音频隐写术:结合机器学习

随着自适应隐写术等现代隐写技术的发展,基于手工特征设计的隐写分析方法变得越来越困难。事实上,深度学习技术在隐写分析中得到了很好的应用,检测效果已经超越了传统的基于人工特征设计的隐写分析方法。

基于深度学习的音频隐写分析是将如何计算隐写分析特征的问题转化为深度学习网络结构的设计。设计一个好的用于隐写分析检测的深度学习网络模型实际上是一个由大样本驱动的迭代过程,然后利用反馈结果不断改进网络模型。当前深度学习模型的构建还缺乏完整的理论体系,整个网络的构成也取决于具体的分析对象。

2.3 网络模型基础部件

(1)批量标准化层。由Google公司提出的一种训练优化方法,目的是缓解输入数据的协方差偏移现象,从而降低梯度弥散的风险。如果批次训练样本的分布特性不同,那么神经网络还需要再迭代时重新学习不同的分布,这个过程将影响网络的训练效率。所以我们需要提出多种训练数据的标准化方法。

(2)激活函数。 可以引入非线性因素,提升网络对各类函数的表达能力。

(3)池化层。对特征图进行降采样,一方面可以减少特征图的维度,降低运算复杂度;另一方面可以对特征进行压缩,保留其鲁棒性。常用的池化类型包含:均值池化,最大池化,随机池化和卷积池化。

(4)正则化。在机器学习中,通过显示控制模型复杂度来避免模型过拟合,确保其泛化能力。正则化在损失函数中引入模型复杂度指标,强化训练数据中的噪声。

系列文章

音频隐写术:结合“熵”理解隐写算法的具体步骤_唠嗑!的博客-CSDN博客

音频隐写术:两种具体的实现方法_唠嗑!的博客-CSDN博客

音频隐写术:分析剑桥大学提出的MP3Stego算法_唠嗑!的博客-CSDN博客

隐写术基础_唠嗑!的博客-CSDN博客

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
社会演员多的头像社会演员多普通用户
上一篇 2022年4月10日
下一篇 2022年4月10日

相关推荐