
当地时间1月26日,微软正式推出第二代自研人工智能推理芯片Maia200,这款由台积电采用3nm先进工艺代工的芯片,不仅成为微软迄今部署的能效最优推理系统,更在多项核心性能指标上超越谷歌、亚马逊同类产品。目前Maia200已率先落地微软美国爱荷华州数据中心,后续将进驻亚利桑那州凤凰城数据中心,未来还将逐步扩展至更多全球算力节点。该芯片将全面支撑Microsoft 365 Copilot、OpenAI系列大模型及微软下一代自研AI模型的研发与运行,同时微软已启动Maia300的研发工作,自研AI芯片的快速迭代进一步加速了其摆脱对英伟达芯片依赖的进程。
作为微软异构AI基础设施的核心组成部分,Maia200在硬件设计上实现了性能与能效的双重突破。该芯片集成超1400亿颗晶体管,专为低精度计算的新一代大模型量身打造,原生搭载FP8/FP4张量核心,在FP4精度下可提供超10PFLOPS的算力,FP8精度下算力达5PFLOPS,且所有性能均控制在750W的热设计功耗范围内。存储与传输层面,Maia200配备216GBHBM3e高带宽内存,读写速度高达7TB/s,搭配272MB片上SRAM及专用DMA引擎,大幅提升了海量模型的运行效率;同时单芯片支持2.8TB/s双向专用扩展带宽,可实现6144块芯片的集群互连,为超大规模AI工作负载提供算力支撑。
在性能对比中,Maia200展现出显著的行业优势,其FP4性能是亚马逊第三代Trainium芯片的三倍以上,FP8性能则超越谷歌第七代TPU,每美元性能较微软当前部署的最新一代硬件提升30%。微软云与AI业务负责人ScottGuthrie表示,Maia200可轻松运行当前全球最大规模的AI模型,同时为未来更大体量的模型研发预留了充足的性能空间,其重新设计的内存子系统与片上网络架构,能有效提高AItoken吞吐量,大幅提升AI推理任务的经济效益。
在部署与应用层面,Maia200实现了从芯片到数据中心的快速落地,首批封装件到货数日内即完成AI模型的适配运行,从芯片到数据中心机架部署的时间缩短至同类项目的一半以上。目前该芯片已在爱荷华州得梅因附近的美国中部数据中心投入使用,后续将落地凤凰城附近的美国西部3区数据中心,成为微软Azure云平台的重要算力支撑。应用场景上,Maia200将全面服务于微软及合作伙伴的AI生态,不仅支撑OpenAI最新的GPT-5.2模型、Microsoft 365 Copilot及Microsoft Foundry服务,还将为微软超级智能团队的合成数据生成、强化学习提供算力支持,加速下一代自研AI模型的迭代优化。此外,微软已向开发者、学术界及前沿AI实验室开放Maia200软件开发工具包预览版,未来计划面向更广泛客户开放芯片云服务租用。
为进一步降低对第三方芯片的依赖,微软在Maia200发布的同时,正式启动了下一代芯片Maia300的研发工作,构建Maia系列芯片的多代迭代体系。








