
在全球AI算力需求持续爆发的背景下,高通正式推出新一代数据中心AI推理优化解决方案,以AI 200和AI 250两款核心芯片为基础,搭配专属加速卡与机架系统,凭借创新技术架构和高效散热设计,为数据中心AI推理场景提供更具性价比和能效比的算力支撑,进一步完善其在AI基础设施领域的布局。
此次发布的解决方案核心在于两款差异化定位的AI芯片。AI200芯片专为机架级AI推理场景量身打造,聚焦大规模分布式推理任务,能够适配云端数据中心的高密度部署需求,在处理自然语言处理、计算机视觉等主流AI推理工作负载时,可实现性能与功耗的精准平衡,满足企业级用户对稳定算力输出的核心诉求。
AI250芯片则搭载创新内存架构,通过优化内存带宽和容量配置,针对性解决AI推理过程中数据读写延迟高、带宽不足等痛点。该架构可更高效地支撑大模型推理时的海量数据交互,尤其适用于对响应速度要求严苛的实时推理场景,如智能客服、自动驾驶数据处理、工业质检等,为高并发、低延迟的AI应用提供强劲算力保障。
两款芯片对应的机架解决方案均采用直接液冷技术,这一设计成为此次发布的一大亮点。相较于传统风冷散热,直接液冷技术具备散热效率高、能耗损失小、运行噪音低等显著优势,可有效控制高密度芯片部署带来的散热压力。
在数据中心追求高算力密度部署的趋势下,液冷技术的应用能够让AI加速卡和机架在持续高负载运行状态下保持稳定性能,避免因过热导致的算力衰减,同时降低数据中心的整体能耗,契合“绿色算力”的行业发展方向,助力企业在提升AI算力的同时实现节能减排目标。
高通同步公布了两款芯片的商用时间表:AI200预计于2026年正式投入商用,AI250则计划在2027年实现规模化落地。这一清晰的推进节奏,为数据中心运营商、云服务提供商及AI解决方案厂商提供了明确的技术选型参考,便于企业提前规划算力升级路径。
作为全球领先的半导体解决方案提供商,高通此次发布的新一代数据中心AI推理优化解决方案,不仅延续了其在芯片设计领域的技术积累,更通过软硬件协同优化,填补了不同层级AI推理场景的算力需求缺口。随着商用进程的推进,该解决方案有望进一步降低AI推理的部署成本和门槛,推动大模型应用、智能计算等领域的规模化发展,为数字经济转型注入强劲算力动力。








