synonyms - Python:基于jieba中文分词的词包

介绍:

查近义词,计算句子相似度的接口函数,

https://github.com/huyingxi/Synonyms

 

oov: out of vocabulary , 集外词,未登录词

基于jieba分词

 

主要方法:

  • nearby(‘w’), 获取'w'近义词、相似度(距离远近)
  • compare('s1', 's2', seg=True|False) , 比较两个句子的相似度,seg决定是否分词。
  • SenetenceSim上进行测试,阈值0.5 ,语料7516条情况下,准确率 88.15%
  • display('w'): 以友好的方式打印近义词,方便调试,调用了nearby方法

距离计算时用欧氏距离或曼哈顿距离等。

实用性:

分词用的jieba模块

相似度计算用的word2vec模型

自定义停止词文件

相似距离计算最后加入了0.8 的莱文斯坦距离比重,又称Levenshtein距离

启发性思想:

词库的局限性,已经训练成的word2vec的效果局限性


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部