ChatGPT是一款备受关注的对话AI模型,其在各类应用场景中的流量不断增加,这使得对其算力需求也变得越来越大。从技术原理和运行条件两个角度解析,可见对ChatGPT进行大规模预训练和存储海量知识需要大量算力支持。此外,对于高端芯片的需求也将推高芯片均价。购买一片英伟达顶级GPU的成本高达8万元,而支撑ChatGPT所需的算力基础设施则至少需要上万颗英伟达GPU A100,这也进一步促使芯片市场价格的上升。