中分分词与分词性能评测代码及详细设计文档
通过本资源了解中文分词的意义,在实现正向、逆向最大匹配分词算法的过程中,加深对自然语言理解原理的探讨兴趣。本资源内含详细的代码设计分档、测试语料、源代码以及多个自己制作的语料库词典,分别实现了正、逆向最大匹配中文分词,并且设计了算法对分词效果进行了详细的评测,可以对大作业乃至毕业设计提供巨大的帮助.
用户评论
推荐下载
-
分词工具推荐功能全面分词.docx
如果您需要进行中文文本分析,那么分词工具可视为您的得力助手。本文将为您推荐多款功能全面的分词工具,并详细介绍它们的使用方法及各自的特点。其中包括结巴分词、HanLP分词、THULAC和Pyltp等,并
11 2023-05-05 -
IK分词器_供分词使用
IK分词器时国人开发的根据汉语习惯进行分词,分词的结果更加符合中国人的习惯
33 2019-01-02 -
Lucene中文分词器极易分词
Lucene中文分词器中的极易分词组建,找了老长时间才弄下来的
33 2020-08-10 -
python中文分词使用结巴分词对python进行分词实例讲解
下面小编就为大家带来一篇python中文分词,使用结巴分词对python进行分词的实例讲解。有比较好的参考价值,希望能给大家做个参考。一起跟随小编过来看看吧
27 2020-10-28 -
word分词器ansj分词器mmseg4j分词器ikanalyzer分词器分词效果评估
ansj、mmseg4j和ik-analyzer的评估程序博文链接:https://yangshangchuan.iteye.com/blog/2056537
35 2020-05-18 -
用来中文分词评测用的北大语料库
北大98年1月份语料库迈向/v充满/v希望/n的/u新/a世纪/n
20 2020-05-23 -
自然语言处理中英文分词词性标注与命名实体识别文本和代码
中英文分词工具有很多,今天我们来使用Jieba、SnowNlp、nltk、thunlp、NLPIR、Stanford等六种工具来对给定中英文文本进行分词、词性标注与命名实体识别。
21 2019-07-16 -
分词与查重软件
网络查重软件,可以用来进行网络文本的词频查重、关注度分析,有利于研究网络消费者的消费行为、动机。
24 2019-02-15 -
paoding分词与gate使用
paoding分词与gate使用,给公司做报告时准备的ppt
25 2019-06-01 -
Lucene分词与查询详解
Lucene分词与查询详解。这是一个完整的实例,希望对大家的开发学习有帮助!!!
45 2019-01-07
暂无评论