GitHub Clone Scraper:抓取GitHub存储库以跟踪克隆总数的Python脚本。 这对于由NSF资助的项目很有用因为其中需要报告“影响”(总下
GitHub-Clone-Scraper 由于各种原因,GitHub存储库所有者需要跟踪其代码的下载或克隆次数。 GitHub允许存储库所有者通过/ graphs / traffic窗格在滑动窗口中跟踪克隆计数。 但是,GitHub不跟踪总数。 这段代码使用GitHub的API来刮取/ graphs / traffic任意数量的所有者存储库,并将此信息保存在文件中。 刮板是幂等的,这意味着它将永远不会删除旧的唯一条目,也不会覆盖以前从数据库中刮过的现有信息。 因此,可以将此脚本设置为每隔几天运行一次,以保持所有克隆的准确计数。 谁会使用这个? NSF要求资助接受者报告已下载代码的次数。 由
文件列表
GitHub-Clone-Scraper-master.zip
(预估有个2文件)
GitHub-Clone-Scraper-master
README.md
1KB
getCloneCount.py
4KB
暂无评论