Meta超级智能实验室交出首份答卷 六个月研发落地多模态核心模型

🤖 由 文心大模型 生成的文章摘要

当地时间1月21日,Meta首席技术官安德鲁・博斯沃思在达沃斯世界经济论坛年会期间宣布,Meta于2025年7月新成立的超级智能实验室(MSL)已在本月完成首批关键AI模型的内部交付,从组建团队到模型达到可用状态仅耗时不到六个月。这批模型聚焦多模态融合与高级智能体核心能力研发,成为Meta 2026年新一代大模型迭代与AI应用商业化落地的重要技术基石,也标志着Meta在全球AI技术竞赛中完成了关键的技术储备。

Meta超级智能实验室的成立,是扎克伯格对公司AI业务的一次重磅重组,也是Meta为抢占AI技术制高点的核心布局。该实验室于2025年6月由扎克伯格官宣组建,7月1日正式成立,组建之初便以开发比肩甚至超越人类能力的 “超级智能” AI系统为核心目标。为快速搭建顶尖研发团队,Meta不仅从OpenAI挖来超过20位核心研究员,还以140亿美元收购 Scale AI部分股份,引入其创始人Alexandr Wang担纲核心角色,同时任命赵晟佳为首席科学家,形成了由Nat Friedman、Johan Schalkwyk等行业专家组成的研发阵容,实验室直接由 Meta首席人工智能官汪滔统筹管理,研发资源与战略地位凸显。而此次首批模型的快速落地,也成为这一顶尖团队交出的首份研发答卷,博斯沃思直言这批模型 “表现非常出色”,印证了Meta在AI领域重磅投入的早期回报。

此次内部交付的首批模型,包含代号 “鳄梨”(Avocado)的文本类大模型与代号 “芒果”(Mango)的图像视频处理多模态模型,在技术层面实现了三大核心突破,精准对标当前大模型研发的关键痛点。其一,延续并升级了Llama 4系列的混合专家(MoE)架构,模型参数量或突破 2 万亿级,同时通过动态路由机制仅激活2880亿左右核心参数,在保持大模型知识容量的同时,大幅降低计算成本,实现性能与效率的平衡;其二,实现千万级 token 超长上下文窗口处理能力,可轻松解析约1.5万页文本或20小时视频内容,解决了传统大模型在长文档分析、大规模代码推理等场景中的 “短视” 问题;其三,采用原生多模态融合设计,通过MetaCLIP视觉编码器实现文本、图像、视频token的统一嵌入与联合训练,在 ChartQA、DocVQA等图文理解基准测试中,性能已超越GPT-4o、Gemini 2.0 Flash等竞品。内部测试数据显示,这批模型在复杂任务规划中的准确率较Llama 4提升40%,代码生成效率提高35%,已初步具备 “数字员工” 级别的自主执行能力。

值得注意的是,这批模型虽已实现内部可用,但博斯沃思也坦言,当前研发工作尚未完成,模型训练结束后仍需开展大量优化工作,才能实现从内部测试到面向消费者开放的落地。而在完成内部交付后,这批模型的技术能力已开始反哺Meta的核心业务,在Instagram的Reels内容生成场景中,模型应用让内容生产效率提升10倍,WhatsApp的点击广告营收增速也有望进一步提升,实现了AI技术与社交生态的初步融合。

「93913原创内容,转载请注明出处」