多模态关键任务与应用综述(从表征到融合,从协同学习到关键技术梳理)

冗余和互补是多模态各种特征存在的基础

1.双线性池化

特征融合即输入两个模态的特征向量,输出融合后的向量。最常用的方法是拼接、按位乘、按位加。有些作者认为这些简单的操作效果不如外积/叉乘得tensor,不足以建模两个模态间的复杂关系。但外积计算存在复杂度过高的问题。双线性(Bilinear)就是向量外积的计算。双线性池化(Bilinear Pooling)是对双线性融合后的特征进行池化。
例如LMF(Low-rank Multimodal Fusion),PTP (polynomialtensor pooling)
双线性池化详解、改进及相关论文
Ps:模态对齐的挑战
模态对齐面临着许多困难:少有显示标注模态对齐的数据集;很难设计模态间的相似性度量;存在多种可能的模态对齐,而且一个模态中的elements可能在另一个模态中没有对应。

2.多模态特征表示

主要任务是学习如何更好地提取和表示多模态数据的特征信息,以利用多模态数据的互补性
主要存在的问题有:(1)如何组合来自不同模态的数据 (2)如何处理不同模态不同程度的噪音 (3)如何处理缺失数据。
联合特征表示(Joint representations)和协同特征表示(coordinated representations)。联合特征表示将各模态信息映射到相同的特征空间中,而协同特征表示分别映射每个模态的信息,但是要保证映射后的每个模态之间存在一定的约束,使它们进入并行的相互映射的协同空间。(投影到分离但相关的空间)
联合特征表示主要用于训练和测试阶段的多模态数据任务。
协同特征表示是为每个模态学习一个单独的特征提取模型,通过一个约束来协调不同的模态,更适合在测试时只有一个模态数据的任务,例如:多模态检索和翻译。
协同架构包括跨模态相似性模型和典型相关分析,其目的是在协同子空间中寻求模态之间的相关性;由于不同的模式包含不同的信息,协同方式有利于保持每个单一模式的独特性。特点和排他性,

  • 协同架构已广泛应用于跨模态学习,主流的协同方法是基于跨模态相似性方法,旨在通过直接测量向量到不同模态的距离来学习一个公共子空间。而基于跨模态相关性的方法旨在学习一个共享子空间,以最大化不同模态表示集的相关性。
  • 跨模态相似性方法在相似性度量的约束下保持模态间和模态内的相似性结构,期望相同语义或相关对象的跨模态相似距离尽可能小,不同的距离语义尽可能大。
  • 与其他框架相比,协作架构的优势在于每个单一模态都可以独立工作,这一特性有助于跨模态迁移学习,旨在在不同模态或领域之间传递知识。缺点是模态融合困难,使得跨模态学习模型不易实现,模型难以实现两种以上模态之间的迁移学习。

3.多模态融合(fusion)

多模态融合是为分类或回归任务整合来自多种不同模态的信息。值得注意的是,在最近的工作中,对于深度神经网络等模型,多模态表示和融合之间的界限已经模糊,其中表示学习与分类或回归目标交织在一起。
优点有三个,一是比单一模态更健壮,二是模态信息互补,三是没有任何一个模态信息也能运行。

模型无关的方法(Model-agnostic approaches)不依赖具体机器学习方法
(与任何分类器或回归器兼容)

  1. 早期融合:提取特征后简单连接,利用低水平特征间的相关性和相互作用,训练容易(特征级的融合,多模态表示的前期尝试)不过无法充分利用多个模态数据间的互补性,且存在信息冗余问题(可由PCA,AE等方法缓解)
    pixel level:对原始数据最小粒度进行融合。
  2. 后期融合:针对不同的模态训练不同的模型,然后将它们融合以更好地对每个模态数据进行建模(无需融合,类似于继承学习),模型独立且鲁棒。融合的方法是在特征生成的过程中(比如多层神经网络的中间)进行自由融合,以达到更大的灵活性,本质上忽略了模态之间的低层交互,即底层特征之间.关系(推理结果融合)可以比较容易地处理数据的异步
    利用单一模态的预测结果,通过投票机制、加权、signal variance或者一个模型进行融合
    decision level 对决策结果进行融合,这就和集成学习很像了。
  3. 混合融合:结合许多

基于模型的方法(Model-based approaches)
基于内核的方法(Multiple kernel learning):SVM的扩展,不同模态不同内核,灵活选择kernel可以更好的融合异构数据,主要优势是MKL的损失函数是凸函数,可以得到全局最优解,模型训练可以使用标准的优化package和全局优化方法,劣势在于测试时对于数据集的依赖推理速度慢,缺点在于测试期间依赖于训练数据(sv),测试慢内存大
概率图模型(Graphical models):生成模型(联合概率)和概率模型(条件概率),耦合和阶乘隐马尔可夫模型以及动态贝叶斯网络,CRF
图模型可以方便地探索数据中的时空结构,并且可以将专家知识嵌入到模型中,模型也可以解释
神经网络模型(Neural networks):多模态特征提取部分和多模态融合部分可以进行端到端的训练且能够学习其他方法难以处理的复杂决策边界。神经网络方法的主要缺点就是可解释性差以及需要依赖大量高质量的训练数据。

融合挑战

1.不同模态的信息在时间上可能不是完全对齐的,同一时刻有的模态信号密集,有的模态信号稀疏。
2.融合模型很难利用模态之间的互补性
3.不同模态数据的噪音类型和强度可能不同

4.多模态共同学习

旨在通过揭示有关另一种模式的信息来帮助对当前模式进行建模
相关场景:资源有限、缺乏标记数据或输入噪声高、标签可靠性低的模态
1.并行数据:模态之间共享一个实例集合,两种方法:协同训练和表征学习
协同训练:当某一个模态的标记数据非常少时,可以利用协同训练生成更多的标注训练数据(图像增强RGB,文本增强翻译德法语),或者利用模态间的不一致性过滤不可靠标注样本
协同训练方法能够生成更多的标注数据,但也可能会导致overfitting

迁移学习:多模态玻尔兹曼机或多模态自编码器将一种模态特征表示转换为另一种模态特征表示,这样不仅可以获得多模态表示,而且在推理过程中也可以获得单一模态。也可以获得更好的性能。

2.非并行数据:不需要依赖模态间共享的实例,有共享的类别或者概念(concept)即可
迁移学习:迁移学习能够从一个数据充分、干净的模态学习特征表示迁移到另一个数据稀缺、噪声大的模态,这种迁移学习常用多模态协同特征表示实现。(zero shot)

Conceptual grounding:通过语言以及其他附加模态,例如视觉、声音、甚至味觉,学习语义含义,单纯的利用文本信息不能很好的学习到语义含义,例如人学习一个概念的时候利用的是所有的感知信息而非单纯的符号。(共感觉性/通感)

grounding通常通过寻找特征表征间的共同隐空间或者分别学习每个模态的特征表示拼接,conceptual grounding和多模态特征对齐之间有很高的重合部分。

需要注意的是,grounding并不能在所有情况下带来性能的提升,仅当grounding与具体任务相关时有效,例如在视觉相关任务中利用图像进行grounding

3.混合数据:通过共享的模态或者数据集连接两种非数据并行的模态,典型的任务例如多种语言进行图像描述,图片会与至少一种语言之间建立联系,语言之间的可以利用机器翻译任务建立起联系。

目标任务如果仅有少量标注数据,也可利用类似或相关任务去提升性能,例如利用大量文本语料指导图像分割任务(有点prompt的意思)。

多模态协作学习使一种模态能够通过在模态之间找到互补信息来影响另一种模态的训练过程。
多模态协作学习与任务无关,可用于更好的多模态特征融合、转换和对齐。

5.关键技术梳理

设计一个Vision-Language 预训练模型,其实主要涉及到三个关键技术:特征提取、特征融合和预训练任务。
(1)特征提取要解决的问题是怎么分别量化文字和图像,进而送到模型学习?
(2)特征融合要解决的问题是怎么让文字和图像的表征交互?
(3)预训练任务就是怎么去设计一些预训练任务来辅助模型学习到图文的对齐信息?
当然还有一些其他的零零散散的,但是也很重要的trick,比如:
(1) 训练的数据是文本和图像pair,怎么挖掘?
(2) 训练好的预训练模型怎么增量学习?
(3) 训练好的预训练模型怎么压缩?
(4) …
目前这三种技术的常见做法是:
(1) 特征提取:文本端的表征标配就是bert的tokenizer,更早的可能有LSTM;图像的话就是使用一些传统经典的卷积网络,按提取的形式主要有三种Rol、Pixel、Patch三种形式。
(2) 特征融合:目前的主流的做法不外乎两种即双流two-stream或者单流single-stream;前者基本上就是双塔网络,然后在模型最后的时候设计一些layer进行交互,所以双流结构的交互发生的时间更晚。后者就是一个网络比如transformer,其从一开始就进入一个网络进行交互,所以单流结构的交互时间发生的更早且全程发生,更灵活;当然还有一类是Multi-stream(MMFT-BERT),目前还不多,不排除将来出现基于图文音等Multi-stream多模态模型。
(3) 预训练任务:这里就是最有意思的地方,也是大部分多模态paper的idea体现。这里就先总结一些常见的标配任务,一些特色的任务后面paper单独介绍。

  5.1 Masked Language Modeling ( MLM ):传统的文本屏蔽语言模型,针对的是文本流。

  5.2 Masked Region Modeling(MRM):模仿MLM,只不过这里是对图片进行随机mask,针对的是图像流。被随机屏蔽的概率是15% ,替换成 0 和保持不变的概率分别是 90%和10%,这里又可以细化的分为Masked Region Feature Regression (MRFR) ,Masked Region Classification (MRC)和Masked Region Classification with KL-Divergence (MRC-kl)。主要的loss分别是L2 regression,cross-entropy (CE) loss,KL divergence 。

  5.3 Image-Text Matching ( ITM ): 图文匹配任务,针对的是图文交互流,即判断当前pair是不是匹配(就是个分类任务),具体的是将图片的IMG token和文本的cls做element-wise product再经过一个MLP层来做相似性的监督学习。

可以看到其实 5.1是Language-Modal的,5.2是Vision-modal的,5.3是Cross-modal

Conclusion

(1)基本上现在的标配:就是single-modal层面的MASK预测,以及cross-modal层面的对齐学习。
(2) single-stream好还是two-stream好,目前没有一个绝对的结论,就目前看使用single-stream更多一些,使用single-stream的好处是特征融合更早更充分,使用two-stream一个明显的优势是参数量更多(意味着可以容纳更多的信息),先在前期提取了各种低阶特征,进而在高阶进行融合。
(3) 图像的提取Rol到Pixel到Patch,目前使用Rol方式居多,但是必然缺失了很多信息,最直观的就是空间,尽管一些模型都显示的加了位置embedding,但是一些隐式的也有缺失,毕竟目标外的甚至是目标检测模型不能检测的目标信息都丢失了,所以从包含的信息的角度考虑后两种更全。
(4)粒度越来越细。语言模态上:从简单的MLM到mask 场景图,视觉模态上:从单纯的mask region 区域到mask object目标,kaleido-BERT的设计的AKPM任务等等。对齐任务上面的比如:kaleido-BERT的设计的AGM。这里也是可以挖掘的一个方向可以更细粒度,当然难点就是要挖掘的粒度下的训练pair的挖掘。对齐先验知识很重要,这块有更大的挖掘空间。
(5)数据量越来越大。不论是使用对比学习还是什么手段,本质上就是为了使的模型可以利用更大的数据集。谁能利用的数据量更大且谁能挖掘更细粒度的对齐,效果应该是越好。
(6) 大一统模态即一个模型同时可以多模态单模态可能是一个方向,因为其利用的数据可以更多,且一个模型解决可以覆盖所有任务,应用也广。

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
xiaoxingxing的头像xiaoxingxing管理团队
上一篇 2022年4月20日 下午4:54
下一篇 2022年4月20日 下午5:10

相关推荐