自然语言处理
-
Molecule Attention Transformer(二)
应用Transformer框架对分子属性进行预测,代码:MAT,原文:Molecule Attention Transformer。变量名,函数名很多来自The Annotated…
-
GLIDE 学习笔记
GLIDE 学习笔记 GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Dif…
-
NLP-transformer部分知识点
1. Scaled Dot-Product Attention中为什么要除以 计算公式: 在softmax中起到temperature的作用,即使分布趋于平滑,增加可能性 为什么…
-
Molecule Attention Transformer(一)
应用Transformer框架对分子属性进行预测,代码:MAT,原文:Molecule Attention Transformer。变量名,函数名很多来自The Annotated…
-
论文泛读记录(多模情感分析/探测;厌恶语音探测;属性级情感分析;CVPR2022三元组对比学习的视觉语言预训练;以及NLP和CV其他方向paper)
1.1 CTFN: Hierarchical Learning for Multimodal Sentiment Analysis Using Coupled-Translatio…
-
Transform结构分析
Transform 下图是Transform 的整体架构,由decoder和encoder构成,下面分部分对Transform的结构进行分析 (下图来自于论文Attention i…
-
基于预训练模型 ERNIE-Gram 实现语义匹配-数据预处理
本案例介绍 NLP 最基本的任务类型之一 :文本语义匹配,并且基于 PaddleNLP 使用百度开源的预训练模型 ERNIE-Gram 搭建效果优异的语义匹配模型,来判断 2 段文…
-
论文分享(5)—-Attention-based multimodal contextual fusion for sentiment and emotion classification
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 前言 现如今,互联网上有着大量多模态的信息需要进行情感抽取,为了提高抽取准确率,本文提出了一种基于注意力机制的多模…
-
【NLP】《Attention Is All You Need》的阅读笔记
背景 在深度学习领域,如果你连Transformer都不知,那就太out了。现如今基于Transformer的模型,如Bert在NLP的下游的很多任务中都达到了sota。而这个Tr…
-
NLP实战:面向中文电子病历的命名实体识别
一.前言 本篇文章是关于NLP中的中文命名实体识别(Named Entity Recognition,NER)的实战项目,该项目利用了大型预训练语言模型BERT和BiLSTM神经网…