自然语言处理
-
一文理解Self-attention和Transformer
1. 自注意力机制 (1) 序列和模型 哪些场景使用向量作为输入?首先是词的表示,表示词的方式:One-hot Encoding(词向量很长,并且词之间相互独立)、Word Emb…
-
word2vector之Skip_Gram模型详解
一个深度学习入门的菜鸟,希望通过做笔记的方式记录下自己学到的东西,希望对同样入门的人有所帮助。希望大佬们帮忙指正错误~侵权立即删除。 内容 一、前景知识 二、Skip-gram模型…
-
NTLK情感分析安装与两种使用方式–python
下载安装到实战详细步骤 NLTK下载安装 先使用pip install nltk 安装包然后运行下面两行代码会弹出如图得GUI界面,注意下载位置,然后点击下载全部下载了大概3.5G…
-
隐马尔可夫模型基础介绍
应用场景 隐含马尔可夫模型(Hidden Markov Model, 简称HMM)可以被应用到语音,人脸识别,动作识别等领域。语音具有时序性质。HMM被应用到语音当中,可以有效的反…
-
Raki的NLP竞赛topline解读:NBME – Score Clinical Patient Notes
Description 当您去看医生时,他们如何解释您的症状可以决定您的诊断是否准确。到他们获得许可时,医生已经进行了大量练习,编写患者记录,记录患者的投诉历史、体检结果、可能的诊…
-
NLP之Transformer
总体来看,Transformer这个模型架构还是遵循着Encoder-Decoder的格式。此外,Transformer由注意力机制模块组成,因此在学习Transformer之前有…
-
史上最全pandas语法汇总,教你一文掌握pandas
#!/usr/bin/env python # -*- coding: utf-8 -*- # @Author : honshaofeng # @Time : 2021/7/28 …
-
【论文阅读】强化学习与知识图谱关系路径发现
论文标题:DeepPath: A Reinforcement Learning Method for Knowledge Graph Reasoning 中文题目:Depth Pa…
-
[论文阅读笔记65]Template-Based Named Entity Recognition Using BART
1. 基本信息 题目 论文作者与单位 来源 年份 Template-Based Named Entity Recognition Using BART Leyang Cui(Zhe…
-
多模态机器学习基础、应用和预训练模型简介
早在公元前四世纪,哲学家和艺术家就提出了多模态的概念来定义表达形式和包含不同内容的修辞方法。在当今大数据时代,我们总说数据是多源异构的: 多源:数据持有方多样化。比如数据来源于问卷…