中文分词方法
1)基于词典的匹配:前向最大匹配,后向最大匹配2)基于字的标注:最大熵模型,条件随机场模型,感知器模型3)其它方法与词性标注结合,与句法分析结合
用户评论
推荐下载
-
中文分词java实现
所需要抽取的文本进行分词和词性的标注,将中文划分为独立存在的词,并且辨别这些词的词性,将每一个词的词性标注在每一个词的后面。这样做可以方便我们对一些需要的词的抽取,并且能更加方便的进行词频统计。
36 2019-05-14 -
Ansj中文分词强大
Ansj中文分词是一款纯Java、主要用于自然语言处理、高精度的中文分词工具,目标是“准确、高效、自由地进行中文分词”。内容简介:http://www.iteye.com/magazines/102#
48 2019-06-04 -
中文分词搜狗词库
搜狗的词库,虽然时间老,但是还是不错的,分词开发可以参考一下
65 2019-06-04 -
中文分词C#
简单的分词程序,用C#编写,用于交老师作业的,传上来给大家分享一下。
26 2019-07-27 -
pymmsegcpp python中文分词
pymmseg-cppisaPythonportofthermmseg-cppproject.rmmseg-cppisaMMSEGChinesewordsegmentingalgorithmimple
51 2019-07-16 -
HMM实现中文分词
以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。
42 2019-08-02 -
elasticsearch中文分词插件
elasticsearch中文分词插件,解压至ES安装目录,如D:\works\elasticsearch-6.4.0\plugins\ik,注意,不用修改elasticsearch.yml,就可以直
45 2019-08-02 -
中文分词包.txt
IK分词器jar包,可用于solr或者ElasticSearch进行中文分词,国内大牛专为国人写的中文分词包。
47 2019-08-02 -
PHP简易中文分词
PHP simple Chinese word segmentation
32 2019-06-24 -
php中文分词案例
Php Chinese word segmentation case
27 2019-06-24
暂无评论