hacker news gpt 2:GPT 2生成的文本转储内容经过了Hacker News标题培训 源码
hacker-news-gpt-2 从生成的文本转储到Hacker News标题上训练到2019年4月25日(大约603k标题,30MB文本)进行了36,813步(带P100 GPU 12小时,售价约6美元)。 输出绝对不同于Markov链。 对于每个温度,有20个1,000个标题的转储(您可以在good_XXX.txt文件中看到一些good_XXX.txt标题)。 温度越高,文本就越疯狂。 temp_0_7 :正常且在语法上正确,但是AI有时会逐字复制现有标题。 我建议您对照HN搜索进行检查。 temp_1_0 : temp_1_0 ,在语法上大部分正确。 有趣的IMO。 几乎所有标题都是唯一的,以前从未在HN上发布过。 temp_1_3 :更加疯狂,有时在语法上正确。 top_p变体是使用0.9核采样在相同温度下生成的。 在每个相应的温度下,结果略为疯狂,但并非异常。 如何
文件列表
hacker-news-gpt-2:GPT-2生成的文本转储内容经过了Hacker News标题培训
(预估有个126文件)
README.md
2KB
gpt2_gentext_20190426_155200.txt
71KB
gpt2_gentext_20190426_151503.txt
72KB
gpt2_gentext_20190426_155646.txt
71KB
gpt2_gentext_20190426_155559.txt
71KB
gpt2_gentext_20190426_151331.txt
71KB
gpt2_gentext_20190426_155424.txt
72KB
gpt2_gentext_20190426_155336.txt
71KB
gpt2_gentext_20190426_151159.txt
70KB
gpt2_gentext_20190426_155249.txt
71KB
暂无评论