基于python的网络爬虫技术,相比于通用的搜索引擎更具有目的性和灵活性,它能根据选定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。而通用的搜索引擎的目标是尽可能将网络覆盖率增大,并且在数据形式复杂的情况下,对于具有一定结构且信息含量密集的数据,往往不能被很好的搜索出来,但这些都可以在网络爬虫技术下得到很好的解决。 本文以SCI论文数据爬取和爬取后的保存及查询为研究,实现了一个基于python的SCI论文爬取及查询系统。本论文还阐述了一些网络爬虫实现的常见问题,包括常用的lxml模块下xpath路径问题、网页信息解析问题、数据保存写入问题、服务器屏蔽ip问题等。还阐述有