搜狗的词库,虽然时间老,但是还是不错的,分词开发可以参考一下
简单的分词程序,用C#编写,用于交老师作业的,传上来给大家分享一下。
pymmseg-cppisaPythonportofthermmseg-cppproject.rmmseg-cppisaMMSEGChinesewordsegmentingalgorithmimple
以新闻语料为基础,用HMM算法实现中文分词。按照每个字为B,E,S,M进行划分。
elasticsearch中文分词插件,解压至ES安装目录,如D:\works\elasticsearch-6.4.0\plugins\ik,注意,不用修改elasticsearch.yml,就可以直
IK分词器jar包,可用于solr或者ElasticSearch进行中文分词,国内大牛专为国人写的中文分词包。
PHP simple Chinese word segmentation
Php Chinese word segmentation case
EXCEL Chinese automatic participle
Chinese word segmentation
用户评论