北京地区网络招聘信息文本挖掘.rar
使用python对51job的招聘信息进行爬虫,使用python对职位信息输出词云,词频统计图,使用jieba库进行分词,然后使用gensim的word2vec进行词向量训练,然后使用sklearn的k-means算法进行聚类。压缩包内有代码,数据,简单的小论文文档,代码来源于网络,论文自己写的,水平一般。代码在anaconda的spyder开发环境可以正常运行。
文件列表
北京地区网络招聘信息文本挖掘.rar
(预估有个9文件)
k_means_.py
63KB
test_k_means.py
33KB
usedwordcloud.py
5KB
jobname_wc.py
3KB
职位文本信息词云与文本聚类.docx
906KB
51job_spyder.py
9KB
jobnae_wordcloud.png
603KB
kmstrcluster.py
4KB
jobname原.txt
2.67MB
暂无评论