
OpenAI与博通联合抛出的战略合作公告,在全球科技圈掀起巨浪。这场酝酿18个月的秘密合作明确:双方将共同开发定制化AI加速器,OpenAI主导芯片与系统架构设计,博通负责机架扩展、互联方案及规模化部署,首颗芯片预计9个月后实现量产,2026年下半年启动算力集群落地,最终于2029年底完成10GW算力部署——这一规模相当于800多万户美国家庭的总用电量,是胡佛水坝发电量的5倍。
消息一经发布,博通股价盘中暴涨近10%,市值攀升至1.68万亿美元,印证了市场对这场合作的强烈预期。而这只是OpenAI算力布局的最新落子:此前一个月内,其已相继与英伟达(10GW超算)、AMD(6GWGPU及1.6亿股票认购)达成合作,叠加与甲骨文、CoreWeave的云服务协议,一张总规模达26GW的“万亿美元算力网”已然成型。
此次自研芯片的核心突破,在于OpenAI将大模型的实战经验直接嵌入硬件底层。不同于英伟达通用GPU,这款定制加速器针对LLM的稀疏计算特性优化——通过脉动阵列架构跳过50%-90%的零值权重计算,搭配3nm工艺与HBM3内存,理论训练能效比可达H100的2.5倍,推理成本降低70%。更颠覆的是“硬件-系统”的垂直整合:博通将芯片与以太网互联、散热方案深度绑定,避免“F1引擎装家用车底盘”的效率浪费,实现从晶体管到Token输出的端到端优化。
最具未来感的细节藏在研发流程中:OpenAI团队已用ChatGPT辅助芯片设计,其提出的组件优化方案能实现大幅度面积缩减,且可瞬间完成人类工程师需耗时一个月的迭代探索。在一次紧迫的截止日期前,团队甚至直接采用AI持续输出的优化结果,印证了“人类-AI协同”的全新设计范式。此外,芯片采用2.5D封装与相变存储器PCM技术,将数据移动距离缩短70%,延迟降至GPU的1/8,为GPT-6级模型的实时交互扫清障碍。
OpenAI的自研之举,本质是对算力命脉的掌控。此前GPT-5训练一次需耗费2亿美元,英伟达H200交货周期长达52周,3nm芯片流片成本高达1.2亿美元,外部依赖已成为技术迭代的瓶颈。而“自研芯片+自研系统+自有模型+自家软件栈”的闭环生态,将彻底打破这一桎梏——正如SamAltman所言,“计算是AI的关键,而这必须掌握在自己手中”。








