
近日,人工智能领域传来重磅消息:OpenAI已正式启动下一代旗舰大模型的研发工作,该模型采用代号“土豆”(Spud)的全新预训练架构,集结了公司过去两年的顶尖研究成果,引发全球AI圈的广泛热议与密切关注。与此同时,有内部消息曝光,曾引爆行业的Sora视频生成项目已被边缘化,OpenAI已决定暂时搁置视频生成路线,将所有算力、核心研发团队及资源全面倾斜至“土豆”新架构的研发,此举被视为该公司从多线扩张转向集中资源攻坚核心技术的战略重构。
据OpenAI内部人士透露,代号“土豆”(Spud)的新预训练架构并非现有GPT系列模型的常规迭代,而是一款面向通用人工智能(AGI)打造的全新基座模型,外界普遍预计其最终将以GPT-5.5或GPT-6的命名正式亮相,目前该模型已完成核心预训练工作,进入最终调优与内测阶段,预计数周内即可对外发布。与前代模型相比,“土豆”架构的突破集中体现在两大核心维度,其中最引人关注的便是OpenAI总裁Greg Brockman提出的“大模型嗅觉”概念——这并非生物学意义上的嗅觉,而是比喻模型能像嗅觉一样敏锐捕捉问题中隐含的复杂模式和深层逻辑,不再停留于表面指令的理解,能够“啃更难的问题”,实现更精准的推理。
有真实案例印证了这一能力的飞跃:一位物理学家将长期困扰自己的难题交给OpenAI的测试版模型,仅12小时后,AI便给出了可行的解决方案,这位物理学家感慨,这是他第一次感觉模型在“真正思考”,甚至认为该问题“人类或许永远也解不了”。据悉,“土豆”架构将复杂任务的成功率从当前的约20%提升至80%,这一显著突破也让OpenAI高层决心“三倍投入”资源,将其作为当前优先级最高的一号研发工程。
除了推理能力的跃升,“土豆”架构还可能采用原生多模态设计,这也是其核心架构突破之一。不同于现有多数模型将文本、音频、图像等不同模态组件进行后期拼接的方式,“土豆”从预训练底层就实现了多模态信息的统一处理与深度融合,有效解决了传统拼接模式交互效率低、融合深度不足的痛点,为嵌入企业全流程、支撑具身智能等需要深度感知与交互的场景打下了坚实基础。OpenAI官方将“土豆”定义为“极具竞争力的颠覆性AI模型”,核心目标是推动AGI技术落地,成为重构社会生产力的核心工具,而非单纯的对话式聊天机器人。
与“土豆”新架构的火热形成鲜明对比的是,曾风靡一时的Sora视频生成项目的边缘化。作为OpenAI在2025年9月推出的现象级AI视频生成工具,Sora曾创造10天下载破百万、峰值下载量达333万次的亮眼成绩,还一度登顶App Store免费榜,甚至与迪士尼达成10亿美元投资及角色授权合作,允许用户调用漫威、星球大战等IP进行创作,试图打造“AI内容平台”。但其光鲜背后,隐藏着难以持续的商业困境,这也是OpenAI决定搁置该项目的核心原因。








