计算机视觉中的Encoder-Decoder架构总结(持续更新)

NLP领域的编码解码器结构

可能很难直接使用函数来完成数据转换。例如,对于机器翻译来说,输入和输出的长度是不固定的,两者可能不相等,所以输出和输入的转换是通过一个中间格式来完成的。

对于NLP任务,Embedding是从语义空间到向量空间的映射,语义相近的两个词汇在向量空间的位置也比较接近,编码器-解码器网络是一个成功的翻译模型,接受一个序列作为输入,并将序列中的信息编码作为中间表示,解码器将中间表示解码为目标语言。
计算机视觉中的Encoder-Decoder架构总结(持续更新)
如上图所示,RNN中的Seq-to-Seq结构,处理机器翻译问题,将原始语言向量输入通过RNN编码为中间形式,后面通过Decoder解码为另一种语言向量序列。

机器学习中的编码器

自动编码器

最简单的,PCA在机器学习领域作为一种降维的工具,可以将样本投影在新的坐标系下,相当于一种新的中间表示形式,我们后面用线性回归或者SVM进行分类等任务,这时候机器学习模型扮演解码器的结构,这是一种非自动编码器,需要先人工干预编码,然后训练解码器。
计算机视觉中的Encoder-Decoder架构总结(持续更新)

如上图所示,自动编码器(Auto-Encoder,简称AE)是一种特殊的神经网络,用于特征提取和数据降维络。最简单的自动编码器由一个输入层,一个隐含层,一个输出层组成。隐含层的映射充当编码器,输出层的映射充当解码器。训练时编码器对输入向量进行映射,得到编码后的向量;解码器对编码向量进行映射,得到重构后的向量,它是对输入向量的近似。

编码器和解码器同时训练,训练的目标是最小化重构误差,即让重构向量与原始输入向量之间的误差最小化,这与PCA非常类似。因此样本x的标签值就是样本自身。训练完成之后,在预测时只使用编码器而不再需要解码器,编码器的输出结果被进一步使用,用于分类,回归等任务。

视觉领域的编解码器架构

  • Transfuser:多模态领域
    计算机视觉中的Encoder-Decoder架构总结(持续更新)
    如上图所示,模型将图像和雷达信息编码成512长度的一维向量,表示场景语义信息,后面用MLP组合RNN进行解码,预测车辆的行动轨迹。
  • SRN-DeblurNet:高质量图像生成
    计算机视觉中的Encoder-Decoder架构总结(持续更新)
    对原始图像(有噪声,低分辨率)进行编码和解码,生成高分辨率去噪图像。
  • DETR:目标检测
    计算机视觉中的Encoder-Decoder架构总结(持续更新)

利用CNN和Encoder作为编码器生成中间形式的查询向量,然后通过Decoder解码用来FFN预测目标信息。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
青葱年少的头像青葱年少普通用户
上一篇 2022年3月17日 下午4:14
下一篇 2022年3月17日 下午4:28

相关推荐