中文分词工具包
(1)精确模式:试图将句子最精确地切开,适合文本分析;(2)全模式:把句子中所有的可以成词的词语都扫描出来,速度非常快,但是不能解决歧义;(3)搜索引擎模式:在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。
用户评论
推荐下载
-
IKAnalyzer中文分词包
我在博客中使用的中文分词包,大家也可以去官网上取下
48 2019-05-19 -
中文分词包.txt
IK分词器jar包,可用于solr或者ElasticSearch进行中文分词,国内大牛专为国人写的中文分词包。
47 2019-08-02 -
ik中文分词包
ik中文分词包,95%的精确,包含30万词典
30 2019-09-21 -
中文分词工具jar包
源码是中科院的分词源码,将其引入项目中,进行生成jar包,很方便的引入到另一个项目中,推荐使用啊。
40 2019-05-03 -
lucene中文分词jar包
Lucene Chinese word segment jar package
40 2019-06-23 -
smallseg中文分词包python
安装方法:只需将下载的包中smallseg.py拷贝到Python安装目录的Lib文件夹中即可
165 2018-12-18 -
麻将开源中文分词工具包中文分词Web APILucene中文分词中英文混合分词源码
麻将中文分词 简介 麻将一直是广受欢迎的传统娱乐活动,字牌的组合千变万化。汉字的组合也是变化多端,麻将这个项目希望能从汉字组合中发现汉语的秘密,为自然语言处理提供好的中文分词工具。 麻将是基于Scal
19 2021-04-02 -
scws中文分词源码包
scws是基于词频词典的中文分词系统,源码包中含有win下php的dll拓展.测试可用
25 2019-07-19 -
中文分词论文转载中文分词算法中文分词系统
中文分词技术属于自然语言处理技术范畴,对 于一句话,人可以通过自己的知识来明白哪些是 词,哪些不是词,但如何让计算机也能理解
42 2020-05-15 -
Python中文分词_中文分词软件
Python中文分词_中文分词软件,使用jieba字典
99 2018-12-09
暂无评论