使用问题生成 :hugging_face: 变形金刚 项目详情 问题生成是根据文本段落自动生成问题的任务。 最直接的方法是产生答案的问题。 在知道答案的问题生成中,向模型提供答案和段落,并要求通过考虑段落上下文来为该答案生成一个问题。 尽管有许多论文可以进行质量保证任务,但它仍不如质量保证体系主流。 原因之一是大多数较早的论文都使用复杂的模型/处理管道,并且没有可用的预训练模型。 近期很少有论文,特别是UniLM和ProphetNet具有可用于QG的SOTA预训练权重,但是用法似乎很复杂。 该项目的目标是使用直接训练的端到端方法而无需复杂的流水线,使用预训练的变压器(特别是seq-2-seq模型)进行问题生成的开源研究。 目的是提供简化的数据处理和训练脚本以及易于使用的推理管道。 初步实验 如下所述,使用SQuADv1数据集和T5模型以不同的输入处理格式进行了初始实验。 答案感知问题的产生 对于知道答案的模型