Scrapy_Redis_Weibo 源码
微博爬虫启用方式 在当前目录输入pip install -r requirements.txt 在当前目录输入scrapy crawl weibocn 即可在redis / mongodb可视化界面看到相关数据信息 以下为任选scrapyd部署: 在cmd / terminal输入**(scrapyd>〜/ scrapyd.log&)**打开scrapyd服务 在当前目录输入scrapyd-deploy部署爬虫项目 输入curl -d project = weibo -d spider = weibocn快速启动 bloomfilter配置 安装 输入以下命令: pip install scrapy - redis - bloomfilter 使用 在settings.py里添加如下代码: # Persist SCHEDULER_PERSIST = True # Ensure use
文件列表
Scrapy_Redis_Weibo-master.zip
(预估有个17文件)
Scrapy_Redis_Weibo-master
weibo
settings.py
4KB
pipelines.py
2KB
middlewares.py
1KB
__init__.py
0B
items.py
822B
__pycache__
items.cpython-37.pyc
837B
settings.cpython-37.pyc
1KB
暂无评论