gpt 2:“语言模型是无监督的多任务学习者”论文的代码 源码
状态:存档(代码按原样提供,预计无更新) gpt-2 论文代码和模型。 您可以在我们的, 和阅读有关GPT-2及其分阶段发布的。 我们还供研究人员研究他们的行为。 *请注意,由于错误(在我们以前的博客文章和论文中),我们的原始参数计数是错误的。 因此,您可能已经看到小型代表117M,中等代表345M。 用法 该存储库是研究人员和工程师尝试GPT-2的起点。 有关基本信息,请参见我们的。 一些警告 GPT-2模型的健壮性和最坏情况下的行为尚不为人所知。 与任何机器学习的模型一样,请针对您的用例仔细评估GPT-2,尤其是在未进行微调的情况下或在可靠性至关重要的安全性至关重要的应用中使用。 我们训练GPT-2模型的数据集包含许多有和事实不正确的文本,因此GPT-2模型也可能有偏见和不准确。 为避免样品被误认为是人为书写,我们建议在广泛传播之前将样品清晰地标记为合成样品。 我们的模型
文件列表
gpt-2-master.zip
(预估有个17文件)
gpt-2-master
.gitignore
33B
DEVELOPERS.md
2KB
domains.txt
14KB
README.md
3KB
CONTRIBUTORS.md
551B
download_model.py
1KB
LICENSE
1KB
.gitattributes
191B
Dockerfile.gpu
548B
暂无评论