自然语言处理
-
【Pytorch神经网络实战案例】33 使用BERT模型实现完形填空任务
1 案例描述 案例:加载Transformers库中的BERT模型,并用它实现完形填空任务,即预测一个句子中缺失的单词。 2 代码实现:使用BERT模型实现完形填空任务 2…
-
torchtext 安装,与pytorch版本匹配
没想到安装一个torchtext,查看了好几篇博客!于是梳理总结了一下~ 报错:ModuleNotFoundError: No module named ‘torchtext’ t…
-
A Joint Training Dual-MRC Framework for Aspect Based Sentiment Analysis
文章概述 该篇文章针对于ASTE任务(联合提取文本中的方面、意见词和情感三元组),构建了两个机器阅读理解任务,并通过并通过联合训练两个具有参数共享的 BERT-MRC 模型来解决所…
-
【论文阅读笔记】文本相似度分析
论文阅读笔记 1. title:基于文本加权词共现的跨语言文本相似度分析 Zhang Xiaoyu中国传媒大学软件指南计算跨语言文本相似度的三种方法:(1)基于全文机器翻译方法:把…
-
NLP 进行文本摘要的三种策略代码实现和对比:TextRank vs Seq2Seq vs BART
本文将使用 Python 实现和对比解释 NLP中的3 种不同文本摘要策略:老式的 TextRank(使用 gensim)、著名的 Seq2Seq(使基于 tensorflow)和…
-
使用gensim.models.word2vec.LineSentence之前的语料预处理
nlp小白摸爬滚打的叨叨叨记录 在进行自然语言处理工作时,不可避免使用大型语料库。在这里记录并分享做自己实验的时候读函数文档,以及参考各路大神,终于明白LinSentence如何使…
-
知识蒸馏基础及Bert蒸馏模型
为了提高模型准确率,我们习惯用复杂的模型(网络层次深、参数量大),甚至会选用多个模型集成的模型,这就导致我们需要大量的计算资源以及庞大的数据集去支撑这个“大”模型。但是,在部署服务…
-
『Transformer』为什么1*1卷积可以替代全连接层?
起源 事情起源于同学的一个疑惑,他在阅读Transformer论文时,看到作者在前馈神经网络部分写有这么一句话: Another way of describing this is…
-
论文笔记 EMNLP 2021|Crosslingual Transfer Learning for Relation and Event Extraction viaWord Category an
1 简介 论文题目:Crosslingual Transfer Learning for Relation and Event ExtractionviaWord Category…
-
SVM模型详解
初入菜鸟,希望能通过做笔记的方式记录下自己学到的东西,也希望能对同样入门的人有所帮助。希望大佬们帮忙指正错误~侵权立即删除。 内容 一、SVM定义与解决目标 二、SVM算法原理 1…