在OpenAI发布的GPT-4预发布安全测试中,模型在自主复制任务中未能成功,但是测试引发了对未来人工智能安全性的紧迫讨论。GPT-4具有“寻求权力”、“表现出越来越‘自主’的行为”等新功能,这些功能令人担忧且需要长期的规划和积累资源。尽管如此,GPT-4的能力还是有限的,但随着新功能的不断出现,更强大的模型将不可避免地出现。在评估GPT-4潜在风险的过程中,包括开发机构OpenAI在内的AI测试小组认为自我复制和自我提升是两个重要的风险点。