文章目录
-
-
-
- 分词
-
- jieba分词
- 关键词提取
- python处理形成共现矩阵
- gephi导入共现矩阵
-
- 过滤边的权重进行优化
- 最终效果
-
-
分词
本文研究不同文章中的关键词出现次数,因此将出现在同一篇文章中的关键词都定义为”共现”。
jieba分词
对不同后缀文件(txt、docx、pdf)进行不同处理,提取文章内容为字符串,之后使用jieba库的lcut函数进行分词。
if path+'.txt' in lis
版权声明:本文为博主作者:Cachel wood原创文章,版权归属原作者,如果侵权,请联系我们删除!
原文链接:https://blog.csdn.net/weixin_46530492/article/details/132228153