jieba分词器 java版
本人最近在用lucene做一些东西,需要用到jieba分词器。但csdn上的资源都是需要积分的,一个开源软件竟然还要积分。。。从github找的,分享给大家吧
用户评论
推荐下载
-
jieba分词词性标注.py
将需要分词进行词性标注的句子存放在corpus文本文件(自建)中,最好是每句话存为一行。注:corpus文件需放在代码所在文件夹里。运行代码,自动生成一个outcome文本文件,分词词性标注结果就在此
19 2020-07-26 -
中文分词的庖丁解牛分词器
一种比较有效的中文分词器,可以在lucene开发中使用
30 2020-03-12 -
Elasticsearch中安装IK分词器
在Elasticsearch中默认的分词器对中文的支持不好,会分隔成一个一个的汉字。而IK分词器对中文的支持比较好一些,主要有两种模式“ik_smart”和“ik_max_word”。 Elastic
14 2021-01-17 -
elasticsearch7.6.1ik分词器
elasticsearch7.6.1-ik分词器
122 2021-01-19 -
中科院分词器ICTCLAS
中科院语义分词 ICTCLAS 中科院官方于2009年2月19日发布了中科院中文分词器ICTCLAS2009版,转引官方介绍说明,新版本的中文分词系统在原有的基础上主要完善的有: 1、用户词典接口扩展
28 2020-10-25 -
elasticsearch6.2.4ik分词器
Linux-CentOS环境下:分布式索引服务-elasticsearch-6.2.4版本及ik分词器整包,包括(elasticsearch-6.2.4.tar.gz,ik-analyzer.zip)
18 2020-10-14 -
solr和中文分词器.zip
Solr是一个高性能,采用Java开发,基于Lucene的全文搜索服务器。同时对其进行了扩展,提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展并对查询性能进行了优化,并且提供了一个完善
23 2020-08-16 -
Ik分词器源码jar包
Ik分词器的源码,jar包,导入即可使用,常用到与持久层对句子进行分词处理
34 2020-06-03 -
elasticsearch2.3.1IK分词器
elasticsearch-analysis-ik.zip
21 2020-05-29 -
lucene.net中文分词器
自己写的lucene.net2.0的中文分词器,采用最大向前匹配算法,附上源代码,希望这方面有兴趣的互相交流一下。yangxiuyunji@163.com
23 2020-05-18
暂无评论