gpt 2:gpt 2 源码
状态:存档(代码按原样提供,预计不会更新) gpt-2 论文代码和模型。 您可以在我们的, 和阅读有关GPT-2及其分阶段发布的。 我们还供研究人员研究他们的行为。 *请注意,由于错误(在之前的博客文章和论文中),我们的原始参数计数是错误的。 因此,您可能已经看到小型代表117M,中等代表345M。 用法 该存储库是研究人员和工程师尝试GPT-2的起点。 有关基本信息,请参见我们的。 一些警告 GPT-2模型的健壮性和最坏情况下的行为不是很容易理解。 与任何机器学习的模型一样,请针对您的用例仔细评估GPT-2,尤其是在未进行微调的情况下或在可靠性至关重要的安全性至关重要的应用中使用。 我们训练GPT-2模型的数据集包含许多有和事实不正确的文本,因此GPT-2模型也可能有偏见和不准确。 为避免样品被误认为是人工书写,我们建议在广泛传播之前将样品清晰地标记为合成样品。 我们的模型
文件列表
gpt-2-master.zip
(预估有个18文件)
gpt-2-master
.gitignore
33B
download_model.py
1KB
requirements.txt
58B
src
interactive_conditional_samples.py
3KB
sample.py
3KB
generate_unconditional_samples.py
3KB
test.py
2KB
model.py
6KB
暂无评论