hacker-news-gpt-2 从生成的文本转储到Hacker News标题上训练到2019年4月25日(大约603k标题,30MB文本)进行了36,813步(带P100 GPU 12小时,售价约6美元)。 输出绝对不同于Markov链。 对于每个温度,有20个1,000个标题的转储(您可以在good_XXX.txt文件中看到一些good_XXX.txt标题)。 温度越高,文本就越疯狂。 temp_0_7 :正常且在语法上正确,但是AI有时会逐字复制现有标题。 我建议您对照HN搜索进行检查。 temp_1_0 : temp_1_0 ,在语法上大部分正确。 有趣的IMO。 几乎所有标题都是唯一的,以前从未在HN上发布过。 temp_1_3 :更加疯狂,有时在语法上正确。 top_p变体是使用0.9核采样在相同温度下生成的。 在每个相应的温度下,结果略为疯狂,但并非异常。 如何