编码器-解码器架构

文章目录

1. 通信系统

在学习深度学习的编码器-解码器之前,先引入通信系统中的编码与解码调制与解调

  1. 通信是为了交流消息,交流消息需要保证接受方收到的和发出方所发送的信息一致。可是,通信过程中存在干扰!
  2. 原始信号(模拟信号):指通信系统中,发送端原始形成的、波形起伏多样、无规则的信号,容易被干扰(失真)。
  3. 因此需要给信号进行加工,使其即不容易被干扰、波形不严重变形。

所以就有了编码与解码调制与解调

  1. 在发送端,信源编码 对原始信号编码器-解码器架构进行电平化处理,信道编码 减小信号的失真率以及加强其可检验性
  2. 利用调制技术进一步加强信号,得到中间信号编码器-解码器架构
  3. 在接收端,信道解码 ,信源解码 逆操作得到输出信号编码器-解码器架构
  4. 从而完成一个高保真、高效率的信号传输。

编码方式:反向不归零编码,曼彻斯特编码,密勒编码,修正密勒码,差错控制编码。
调制方式:振幅键控,频移键控,相位键控,副载波调制。
参考

2. 编码器Encoder-解码器Decoder

2.1 导言

在机器学习中,很多问题可以抽象出类似的模型:

机器翻译:将一种语言的句子转化成另外一种语言的句子。
自动摘要:为一段文字提取出摘要。
为图像生成文字解说:将图像数据转化成文字数据。

直接用一个函数编码器-解码器架构完成上述转化,可能会存在困难。eg:机器翻译,输入和输出的长度是不固定的,二者还可能不相等。

因此,先将输入数据编码器-解码器架构 转化成一种中间数据编码器-解码器架构,再从中间数据编码器-解码器架构 映射出输出数据编码器-解码器架构。这就是编码器-解码器架构。(类似于通信系统的编码与解码过程:原始信号编码器-解码器架构—-中间信号编码器-解码器架构—-输出信号编码器-解码器架构

2.2 Encoder-Decoder架构

编码器-解码器(Encoder-Decoder)是深度学习模型的抽象概念。许多模型都基于这一架构,比如CNN,RNN,LSTM和Transformer等。

  1. 编码器(Encoder):负责将输入(Input)转化为特征(Feature)
  2. 解码器(Decoder):负责将特征(Feature)转化为目标(Target)
图片不显示
  • CNN(卷积神经网络):可以当作解码器Decoder,可以不接受输入Input。
图片不显示
  • RNN(循环神经网络):可以当作解码器Decoder,接受输入Input。
图片不显示

2.3 详细介绍

参考

2.3.1 PCA 主成分分析

PCA是一种无监督数据降维算法。将一个高维的向量 编码器-解码器架构 映射成一个低维的向量 编码器-解码器架构,前提条件是 编码器-解码器架构 很好的保留了 编码器-解码器架构 的主要信息。执行公式1实现数据降维。降维过程类似于编码器,将高维向量 编码器-解码器架构 编码成低维向量 编码器-解码器架构
编码器-解码器架构:投影矩阵,通过样本集计算得到;编码器-解码器架构:样本集的均值向量
编码器-解码器架构

有时,我们需要从降维后的向量 编码器-解码器架构 重构出原始的向量 编码器-解码器架构,执行公式2实现数据重构。数据重构和数据降维算法相反,重构过程类似于解码器,从低维向量 编码器-解码器架构 解码出原始的高维向量 编码器-解码器架构
编码器-解码器架构

2.3.2 Auto-Encoder AE 自动编码器

AE 是一种特殊的神经网络,用于特征提取和数据降维。最简单的自动编码器由一个输入层,一个隐含层,一个输出层组成。隐含层的映射充当编码器,输出层的映射充当解码器

训练时编码器(隐藏层)对输入向量 编码器-解码器架构 进行映射,得到编码后的向量 编码器-解码器架构解码器(输出层)对编码向量 编码器-解码器架构 进行映射,得到重构后的向量 编码器-解码器架构 (对输入向量 编码器-解码器架构 的近似)。编码器和解码器同时训练,训练的目标是最小化重构误差,即让重构向量 编码器-解码器架构 与原始输入向量 编码器-解码器架构 之间的误差最小化,这与PCA非常类似。样本 编码器-解码器架构 的标签值就是样本自身。

训练完成之后,在预测时只使用编码器而不再需要解码器编码器的输出结果被进一步使用,用于分类,回归等任务。

图片不显示

如果 编码器-解码器架构为编码器的映射函数,编码器-解码器架构 为解码器的映射函数,编码器-解码器架构 训练样本数,编码器-解码器架构编码器-解码器架构 为编码器和解码器要确定的参数,采样欧氏距离损失,则训练时优化的目标函数为公式3
编码器-解码器架构

2.3.3 Variational Auto-Encoder VAE 变分自动编码器

变分自动编码器是一种深度生成模型,用于生成图像,声音等的数据,类似于 GAN 生成对抗网络。变分自动编码器和自动编码器有很大的不同,二者的目的完全不同。

考虑数据生成问题,比如写字,写出MNIST数据集这样的手写数字

图片不显示

如果先收集训练样本,然后让算法原样输出样本(写字),生成的样本没有多样性。解决思路如下:

图片不显示

简单的随机数的生成:首先从文字图像中学习特征,然后对特征进行随机扰动,生成新的样本。变分自动编码器采用了该思路。其结构如下图所示:

图片不显示

编码器和解码器同时训练,训练时的目标为公式4的右端:
编码器-解码器架构

训练完成之后,预测阶段可以直接生成样本。首先,从正态分布 编码器-解码器架构 中产生一个随机数,然后送入解码器中,得到预测结果,即为生成的样本。此时不再需要编码器,也不需要对随机数进行均值和方差变换。

图片不显示

2.3.4 密集预测-全卷积网络

图像分割的目标是确定图像中每个像素属于什么物体,即对所有像素进行分类,是一个逐像素预测的密集预测问题。

卷积网络 CNN 的不足:(1)在进行多次卷积和池化后会缩小图像的尺寸,最后的输出结果无法对应到原始图像中的每一个像素。(2)卷积层后面接的全连接层将图像映射成固定长度的向量,与分割任务不符。

全卷积网络 FCN 的优点:(1)采用反卷积运算,从前面的卷积特征图像中得到与原始输入图像尺寸相等的输出图像。(2)去掉了卷积神经网络中的全连接层,用卷积代替。

全卷积网络 FCN 从卷积特征图像预测出输入图像每个像素的类别。网络能够接受任意尺寸的输入图像,并产生相同尺寸的输出图像,输入图像和输出图像的像素一一对应。这种网络支持端到端、像素到像素的训练。

FCN的前半部分是卷积层和池化层,充当编码器,从输入图像中提取特征。网络的后半部分是反卷积层,充当解码器,从特征中解码出结果图像。典型的网络结构如下图所示

图片不显示

SegNet语义分割网络 的前半部分是编码器,由多个卷积层和池化层组成。网络的后半部分为解码器,由多个上采样层和卷积层构成。解码器的最后一层是softmax层,用于对像素进行分类。

图片不显示

其中,编码器网络的作用是产生有语义信息的特征图像;解码器网络的作用是将编码器网络输出的低分辨率特征图像映射回输入图像的尺寸,以进行逐像素的分类。

2.3.5 序列到序列学习

有些问题输入序列和输出序列的长度不一定相等,而且输出序列的长度未知。

比如,机器翻译,将一种语言的句子翻译成另外一种语言之后,句子的长度即包括的单词数量一般是不相等的。英文 ”what’s your name” 是3个单词组成的序列,翻译成中文 “你叫什么名字”,是4个汉字词组成的序列。

标准的RNN无法处理这种输入序列和输出序列长度不相等的情况,解决这类问题的一种方法是序列到序列学习 Sequence to Sequence Learning,简称 seq2seq 技术

seq2seq 框架包括两部分,分别称为编码器和解码器,它们都是循环神经网络。这里要完成的是从一个序列到另外一个序列的预测(映射):编码器-解码器架构,前者是源序列,后者是目标序列,二者的长度可能不相等。

编码器网络接受输入序列,把最后时刻 编码器-解码器架构 产生的隐含层状态值 编码器-解码器架构 作为序列的编码值 编码器-解码器架构,它包含了编码器-解码器架构编码器-解码器架构 时刻输入序列的所有信息,是一个固定长度的向量。解码器网络每一时刻的输入值为 编码器-解码器架构编码器-解码器架构 ,它可以计算目标序列 编码器-解码器架构 的条件概率

对于机器翻译而言,编码器依次接收源语言句子的每个词,到 eos 为止,最后得到语义向量 编码器-解码器架构解码器首先输入 bos,即句子的开始,根据 bos 和 编码器-解码器架构 预测出每个词作为下一个词的概率,挑选出概率最大的一个或几个词。接下来将这个概率最大的词与 编码器-解码器架构 送入解码器,得到下一个词,如此循环,直到得到 eos,即句子的结尾,翻译结束。(使用了集束搜索 beam search 技术)如下图所示:

图片不显示

2.3.6 CNN与RNN的结合

FCN 是 CNN 和 CNN 的结合,seq2seq 是 RNN 和 RNN 的结合。

在编码器-解码器框架中,CNN和RNN可以结合,形成编码器-解码器架构,两者可灵活组合用于各种不同的任务。

2.3.6.1 从图像到文字

从图像到文字的映射,是指为图像或视频生成文字解说。

(1)CNN 是编码器,用于提取出图像的语义特征。
(2)RNN是解码器,其输入为图像的语义特征,输出不固定长度的文字序列。结构如下图所示:

图片不显示

2.3.6.2 从文字到图像

用循环神经网络和深度卷积生成对抗网络可以将一段文字生成图像,将视觉概念从文字变成像素表示。如下图所示:

图片不显示

和机器翻译类似,采用编码器-解码器框架。

(1)通过一个 CNN 和一个 RNN 将文本转换成向量(文本的语义信息)输出,该输出和图像对应。
(2)在生成的文本向量基础上训练一个生成对抗网(深度卷积网络),负责生成图像。生成对抗网实现的映射为:编码器-解码器架构

编码器-解码器架构:随机噪声的维数;编码器-解码器架构:文本向量化后的向量维数;编码器-解码器架构:生成的图像的维数。生成对抗网络接受随机噪声向量和文字的特征向量作为输入,输出指定大小的图像。

3. 其他

  1. Transformer中,编码器在训练和测试时并行工作;解码器在训练时并行,测试时串行。Attention参考Encoder-Decoder

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
乘风的头像乘风管理团队
上一篇 2023年11月10日
下一篇 2023年11月10日

相关推荐

此站出售,如需请站内私信或者邮箱!