gpt2 ml master(GPT2 多语言支持 15亿参数中文预训练模型).zip
GPT-2的中文预训练模型。GPT-2是逆天的语言AI模型,编故事以假乱真,问答翻译写摘要都行。问世之后横扫各大语言建模任务,引发了大量关注以及研究者跟进研究。
文件列表
gpt2-ml-master(GPT2 多语言支持, 15亿参数中文预训练模型).zip
(预估有个37文件)
gpt2-ml-master
requirements-gpu.txt
130B
.github
logo.svg
6KB
loss.png
24KB
logo.png
5KB
ISSUE_TEMPLATE
bug_report.md
966B
discussion.md
191B
feature_request.md
258B
暂无评论