Sci-Hub + Python爬虫实现文献批量下载
操作思路 在Web of Science或者其他学术搜索引擎上查找所需要的文献,然后将全体检索结果的信息导出成Excel(包括作者、标题、出版年份、期刊、DOI号等等) 以DOI号为检索条件,到Sci-Hub下载文献,将这一过程写成爬虫进行批量处理 导出DOI号序列,写成循环来逐个爬取 以DOI号检索文献,进入下载页面,查找到保存按钮对应的元素,下载到本地 将下载的PDF文件按照自己的标准重命名 手动补全无法在Sci-Hub上得到的文献 ...