分词jar使用(ansj_seg,ikanalyzer,mmseg4j-analysis)

(1)ikanalyzer的使用

步骤1、下载相关jar

  • IKAnalyzer2012_u6.jar
  • lucene-core-3.6.0.jar

 

测试代码
public static void main(String[] args) {// 单独使用// 检索内容String text = "据说WWDC要推出iPhone6要出了?与iPhone5s相比怎样呢?@2014巴西世界杯";// 创建分词对象StringReader reader = new StringReader(text);IKSegmenter ik = new IKSegmenter(reader,true);// 当为true时,分词器进行最大词长切分Lexeme lexeme = null;try {while((lexeme = ik.next())!=null)System.out.println(lexeme.getLexemeText());} catch (IOException e) {e.printStackTrace();} finally{reader.close();}
}

测试结果

(2)mmseg4j-analysis的使用

步骤1 、下载相关jar

mmseg4j-analysis-1.9.1.jar

mmseg4j-core-1.10.0.jar

mmseg4j-solr-2.4.0.jar

测试代码

public static void main(String[] args){String txt = "Jim喜欢写代码";Dictionary dic = Dictionary.getInstance("");Seg seg = new ComplexSeg(dic);MMSeg mmSeg = new MMSeg(new StringReader(txt), seg);Word word = null;try {while ((word = mmSeg.next()) != null) {System.out.print(word + "|");}} catch (Exception e) {System.exit(0);}
}

测试结果 

(3)ansj_seg

步骤1、下载相关jar

如果你用的是1.x版本需要下载tree_split.jar。
如果你用的是2.x版本需要下载nlp-lang.jar。
如果你用的是3.x以上版本只需要下载 ansj_seg-[version]-all-in-one.jar 一个jar包就能浪了。

测试代码

 public static void main(String[] args) throws Exception {System.out.println(baseAnalysis());System.out.println("==================================");System.out.println(toAnalysis());System.out.println("==================================");System.out.println(nNlpAnalysis());System.out.println("==================================");System.out.println(indexAnalysis());System.out.println("==================================");System.out.println(dicAnalysis());}/*** 基本分词:最基本的分词.词语颗粒度最非常小的* 用户自定义词典Χ 数字识别√人名识别Χ机构名识别Χ新词发现Χ* @return*/public static Result baseAnalysis(){return BaseAnalysis.parse("孙杨在里约奥运会男子200米自由泳决赛中,以1分44秒65夺得冠军");};/*** 精准分词:在易用性,稳定性.准确性.以及分词效率上.都取得了一个不错的平衡.* 用户自定义词典√ 数字识别√人名识别√机构名识别Χ新词发现Χ* @return*/public static  Result toAnalysis(){return ToAnalysis.parse("孙杨在里约奥运会男子200米自由泳决赛中,以1分44秒65夺得冠军");}/*** nlp分词:语法实体名抽取.未登录词整理.只要是对文本进行发现分析等工作* 用户自定义词典√ 数字识别 √人名识别√机构名识别√新词发现√* @return*/public static  Result nNlpAnalysis(){return NlpAnalysis.parse("孙杨在里约奥运会男子200米自由泳决赛中,以1分44秒65夺得冠军");}/***  面向索引分词:故名思议就是适合在lucene等文本检索中用到的分词。*  用户自定义词典√ 数字识别√人名识别√机构名识别Χ新词发现Χ*  在该版本中分词效果貌似有点问题,切换成3.7.6的结果也跟上方一样,*  不过看资料说是能有result:[主副食品/n, 主副食, 副食, 副食品, 食品]这种效果,*  有需要可以切换更旧的版本试试。* @return*/public static  Result indexAnalysis(){return IndexAnalysis.parse("主副食品");}/*** 加载自定义词典“奥运会男子200米自由泳”是加到词典中的* @return* @throws Exception*/public static  Result dicAnalysis() throws Exception {Forest forest = Library.makeForest("C:\\Users\\wonders\\IdeaProjects\\ansj_seg-5.1.6\\src\\txt\\base.dic");return DicAnalysis.parse("孙杨在里约奥运会男子200米自由泳决赛中,以1分44秒65夺得冠军", forest);}/*** 去停用词:* 去除了n词性“自由泳”,和停用词“决赛”,停用词可以是一个String,也可以是一个java List对象* @return* @throws Exception*/
//    public static  Result dicAnalysis_recognition() throws Exception {
//        List list = new ArrayList();
//        list.add("决赛");
//        list.add("自由泳");
//        FilterRecognition filter = new FilterRecognition();
//        filter.insertStopNatures("ns");
//        filter.insertStopWords(list);
//        String word = "孙杨在里约奥运会男子200米自由泳决赛中,以1分44秒65夺得冠军";
//        return DicAnalysis.parse(word).recognition(filter);
//    }/**** 动态添加词典:** @return* @throws Exception*/
//    public static  Result dicAnalysis() throws Exception {
//        UserDefineLibrary.insertWord("ansj中文分词", "userDefine", 1000);
//        var terms = ToAnalysis.parse("我觉得Ansj中文分词是一个不错的系统!我是王婆!");
//        System.out.println("增加新词例子:" + terms);
//        // 删除词语,只能删除.用户自定义的词典.
//        UserDefineLibrary.removeWord("ansj中文分词");
//        terms = ToAnalysis.parse("我觉得ansj中文分词是一个不错的系统!我是王婆!");
//        System.out.println("删除用户自定义词典例子:" + terms);
//    }
想管资料

词性说明
汉语文本词性标注标记集
# 1. 名词  (1个一类,7个二类,5个三类)
名词分为以下子类:
n 名词
nr 人名
nr1 汉语姓氏
nr2 汉语名字
nrj 日语人名
nrf 音译人名
ns 地名
nsf 音译地名
nt 机构团体名
nz 其它专名
nl 名词性惯用语
ng 名词性语素
nw 新词
# 2. 时间词(1个一类,1个二类)
t 时间词
tg 时间词性语素
# 3. 处所词(1个一类)
s 处所词
# 4. 方位词(1个一类)
f 方位词
# 5. 动词(1个一类,9个二类)
v 动词
vd 副动词
vn 名动词
vshi 动词“是”
vyou 动词“有”
vf 趋向动词
vx 形式动词
vi 不及物动词(内动词)
vl 动词性惯用语
vg 动词性语素
# 6. 形容词(1个一类,4个二类)
a 形容词
ad 副形词
an 名形词
ag 形容词性语素
al 形容词性惯用语
# 7. 区别词(1个一类,2个二类)
b 区别词
bl 区别词性惯用语
# 8. 状态词(1个一类)
z 状态词
# 9. 代词(1个一类,4个二类,6个三类)
r 代词
rr 人称代词
rz 指示代词
rzt 时间指示代词
rzs 处所指示代词
rzv 谓词性指示代词
ry 疑问代词
ryt 时间疑问代词
rys 处所疑问代词
ryv 谓词性疑问代词
rg 代词性语素
# 10. 数词(1个一类,1个二类)
m 数词
mq 数量词
# 11. 量词(1个一类,2个二类)
q 量词
qv 动量词
qt 时量词
# 12. 副词(1个一类)
d 副词
# 13. 介词(1个一类,2个二类)
p 介词
pba 介词“把”
pbei 介词“被”
# 14. 连词(1个一类,1个二类)
c 连词
 cc 并列连词
# 15. 助词(1个一类,15个二类)
u 助词
uzhe 着
ule 了 喽
uguo 过
ude1 的 底
ude2 地
ude3 得
usuo 所
udeng 等 等等 云云
uyy 一样 一般 似的 般
udh 的话
uls 来讲 来说 而言 说来
uzhi 之
ulian 连 (“连小学生都会”)
# 16. 叹词(1个一类)
e 叹词
# 17. 语气词(1个一类)
y 语气词(delete yg)
# 18. 拟声词(1个一类)
o 拟声词
# 19. 前缀(1个一类)
h 前缀
# 20. 后缀(1个一类)
k 后缀
# 21. 字符串(1个一类,2个二类)
x 字符串
 xx 非语素字
 xu 网址URL
# 22. 标点符号(1个一类,16个二类)
w 标点符号
wkz 左括号,全角:( 〔  [  {  《 【  〖〈   半角:( [ { <
wky 右括号,全角:) 〕  ] } 》  】 〗 〉 半角: ) ] { >
wyz 左引号,全角:“ ‘ 『 
wyy 右引号,全角:” ’ 』
wj 句号,全角:。
ww 问号,全角:? 半角:?
wt 叹号,全角:! 半角:!
wd 逗号,全角:, 半角:,
wf 分号,全角:; 半角: ;
wn 顿号,全角:、
wm 冒号,全角:: 半角: :
ws 省略号,全角:……  …
wp 破折号,全角:——   --   ——-   半角:---  ----
wb 百分号千分号,全角:% ‰   半角:%
wh 单位符号,全角:¥ $ £  °  ℃  半角:$

 

ToAnalysis 精准分词

精准分词是Ansj分词的***店长推荐款***

它在易用性,稳定性.准确性.以及分词效率上.都取得了一个不错的平衡.如果你初次尝试Ansj如果你想开箱即用.那么就用这个分词方式是不会错的.

DicAnalysis 用户自定义词典优先策略的分词

用户自定义词典优先策略的分词,如果你的用户自定义词典足够好,或者你的需求对用户自定义词典的要求比较高,那么强烈建议你使用DicAnalysis的分词方式.

可以说在很多方面Dic优于ToAnalysis的结果

NlpAnalysis 带有新词发现功能的分词

nlp分词是总能给你惊喜的一种分词方式.

它可以识别出未登录词.但是它也有它的缺点.速度比较慢.稳定性差.ps:我这里说的慢仅仅是和自己的其他方式比较.应该是40w字每秒的速度吧.

个人觉得nlp的适用方式.1.语法实体名抽取.未登录词整理.主要是对文本进行发现分析等工作

IndexAnalysis 面向索引的分词

面向索引的分词。顾名思义就是适合在lucene等文本检索中用到的分词。 主要考虑以下两点

  • 召回率 * 召回率是对分词结果尽可能的涵盖。比如对“上海虹桥机场南路” 召回结果是[上海/ns, 上海虹桥机场/nt, 虹桥/ns, 虹桥机场/nz, 机场/n, 南路/nr]
  • 准确率 * 其实这和召回本身是具有一定矛盾性的Ansj的强大之处是很巧妙的避开了这两个的冲突 。比如我们常见的歧义句“旅游和服务”->对于一般保证召回 。大家会给出的结果是“旅游 和服 服务” 对于ansj不存在跨term的分词。意思就是。召回的词只是针对精准分词之后的结果的一个细分。比较好的解决了这个问题

BaseAnalysis 最小颗粒度的分词

基本就是保证了最基本的分词.词语***颗粒度最非常小***的..所涉及到的词大约是***10万***左右.

基本分词速度非常快.在macAir上.能到每秒300w字每秒.同时准确率也很高.但是对于新词他的功能十分有限.

功能统计

名称用户自定义词典数字识别人名识别机构名识别新词发现
BaseAnalysisXXXXX
ToAnalysisXX
DicAnalysisXX
IndexAnalysisXX
NlpAnalysis

 

 

 

 


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部