
2026年2月10日,阿里巴巴达摩院正式对外发布具身智能大脑基础模型RynnBrain,并宣布一次性开源包括30B MoE在内的7个全系列模型,同步开放完整的推理与训练代码及全新评测基准RynnBrain-Bench。此次开源不仅填补了具身智能领域时空细粒度评测的行业空白,更凭借时空记忆与物理空间推理的核心突破,让机器人实现智能水平的大幅跃升,在16项具身开源评测榜单上刷新纪录(SOTA),全面超越谷歌Gemini Robotics ER 1.5、英伟达Cosmos Reason 2等行业顶尖模型,为通用具身智能的产业化落地注入强劲动力。
当前,具身智能作为连接人工智能与物理世界的核心载体,已成为全球AI领域的竞争焦点,其核心目标是让机器人能够像人类一样感知、理解并交互物理环境,完成各类复杂现实任务。然而,行业发展正面临严峻瓶颈:具身模型的泛化能力不足,难以适配多样化场景;现有技术路线均存在明显短板,要么无法实现泛化,要么缺乏实用化能力。具体而言,业界主要形成两条探索路径:一类是从机器人末端动作输出切入的动作模型,发展出可直接操作物理世界的VLA模型,但这类模型受限于数据稀缺性,难以实现跨场景泛化;另一类是从具备泛化能力的VLM(视觉语言模型)入手的大脑模型,却普遍存在动态认知受限、缺乏记忆能力的问题,且易产生物理幻觉,无法支撑人形机器人复杂的移动操作任务。
为破解上述行业痛点,达摩院研发团队经过长期技术攻坚,推出了RynnBrain具身智能大脑基础模型,其核心创新在于首次为机器人赋予了时空记忆和物理空间推理两项关键能力,这也是机器人与物理环境高效互动的必备基础。时空记忆能力让机器人能够在完整的历史记忆中定位物体、目标区域,甚至预测运动轨迹,具备全局时空回溯能力——例如,运行RynnBrain模型的机器人在执行A任务时被突然打断去完成B任务,完成后可精准记住A任务的时间和空间状态,无缝衔接继续工作;在厨房场景中,即便机器人短暂离开再返回,也能准确回忆起目标物品的位置与最优取放路径,彻底解决了传统机器人“转身就忘”的尴尬困境。
物理空间推理则打破了传统纯文本推理的范式,RynnBrain采用文本与空间定位交错进行的推理策略,将推理过程与物理环境紧密绑定,大幅减弱了物理幻觉问题。不同于传统模型可能出现“认为杯子可以穿过墙壁”这类脱离现实的推理结果,RynnBrain在推理时会同步给出对应的空间指向信息,比如“走向桌子(对应视频帧中的区域坐标),伸出手对准苹果(对应物体的边界框),避开旁边的水杯(对应障碍物的点集)”,这种类人化的推理方式,让机器人的决策更贴合物理世界规律,幻觉发生率大幅降低67%。








