文本情感分析:去停用词
原文地址 分类目录——情感识别 随便构造了一份测试数据如下,内容是gensim下的词向量生成模型word2vec的属性说明 一种方式,通过正则表达式,这里以去标点符号为例,在分词之前进行操作 import re # 通过正则表达式筛除string中的标点符号 def clearn_str(string): # 筛除掉中文标点 string = re.sub(r'["#$%&'()*+,-/:;@[\]^_`{|}~⦅⦆「」、 、〃〈〉《》「」『』【】〔〕〖〗〘〙〚〛〜〝〞〟:wavy_dash:〾〿–—‘’‛“”„‟...‧_、;·!?。。 ]', '', string)
用户评论
推荐下载
-
中英文停用词表
中英文停用词表是用于支持Solr搜索引擎对停用词的过滤,可以提高搜索效果。中文停用词包括“的”、“是”、“我”等常见词汇,而英文停用词包括“a”、“an”、“the”等冠词和介词等。Solr提供了默认
38 2018-12-07 -
中文停用词表3000加
综合了网上各个版本的停用词,整理出的适用于大部分自然语言处理的问题
27 2018-12-07 -
英文停用词表绝对够用
基本上涵盖了所有的英文停用词,适用于信息检索时的预处理。
16 2020-09-02 -
多种中文分词停用词表
包含了中文停用词表、百度停用词表、哈工大停用词表和四川大学机器智能实验室停用词库及四个词库整合去重后的汇总停用词库
69 2019-02-18 -
自然语言处理停用词
收集的停用词。
53 2018-12-20 -
百度停用词表
百度停用词表,可以用于情感分析去停用词处理,欢迎下载使用
34 2018-12-20 -
中文分词常用停用词文档
中文分词常用停用词 文档
57 2018-12-25 -
中文分词最全停用词表
中文最全停用词表
44 2019-05-16 -
jieba分词词典和停用词
利用jieba分词进行文本的处理这里面是jieba分词所需要的词典和停用词
71 2019-05-28 -
最全中文停用词表
结合多个停用词表收藏了2000+停用词,满足日常自然语言分词处理
41 2019-05-03
暂无评论