全球首款生成式人形机器人运动大模型“龙跃”发布

🤖 由 文心大模型 生成的文章摘要

5月29日上午,在上海张江科学会堂举办的2025张江具身智能开发者大会暨2025国际人形机器人技能大赛上,国家地方共建人形机器人创新中心联合复旦大学未来信息创新学院,正式发布全球首款生成式人形机器人运动大模型——“龙跃”(MindLoongGPT)。这一突破性成果,标志着我国在智能体运动控制领域迈入全球领先行列。​

此次大会以“具身智能,未来已来”为主题,采用“峰会+大赛+展览”三位一体的模式,吸引了200余家人形机器人、具身智能和产业链头部企业,以及1000余位知名院士、专家、企业领袖及开发者参与,共同探讨人形机器人产业的技术突破与商业落地路径。​

“龙跃”模型以“自然语言驱动”为核心亮点,彻底改变了传统人形机器人复杂的编程控制方式。以往,操作人员需要具备专业的编程知识,通过编写大量代码来控制人形机器人的动作,这不仅门槛高,而且效率低下。而现在,借助“龙跃”模型,使用者只需通过自然语言下达指令,如“向前走5步,然后举起右手”,人形机器人便能迅速理解并执行相应动作。这种自然语言交互方式,极大地降低了人与机器人之间的沟通成本,让普通人也能轻松驾驭人形机器人,为人形机器人的普及应用开辟了广阔前景。​

在多模态交互方面,“龙跃”模型展现出卓越的性能。它能够融合视觉、听觉、触觉等多种传感器数据,对周围环境进行全方位感知。例如,在视觉上,它可以识别复杂场景中的物体形状、颜色、位置等信息;听觉上,准确识别语音指令,并能理解语义;触觉方面,当与人或物体接触时,能感知压力、力度等信息。通过对这些多模态信息的深度融合与分析,人形机器人能够更精准地理解环境和任务需求,做出更加智能、合理的决策。比如在家庭服务场景中,机器人可以通过视觉识别餐桌上的餐具,听到主人“收拾餐具”的指令后,利用触觉信息,准确地拿起餐具并放置到合适位置,实现高效的人机协作。​

“龙跃”模型的低门槛驱动特性,使得开发者和使用者无需深入了解机器人的底层控制原理和复杂的动力学模型,就能快速开发出各种应用。这为广大中小企业和个人开发者提供了便捷的开发途径,激发了市场的创新活力。以教育领域为例,教师可以利用“龙跃”模型轻松开发出适合教学场景的机器人应用,让学生通过与机器人互动,更好地理解科学知识,培养创新思维和实践能力。这种低门槛驱动模式,将加速人形机器人在各个行业的普及应用,推动产业生态的繁荣发展。​

在人形机器人运动控制中,拟真度和时序一致性一直是两大关键难题。“龙跃”模型通过创新的算法架构和海量数据训练,实现了拟真度与时序一致性的双突破。在拟真度方面,机器人的动作更加接近人类的自然动作,如行走时的步伐姿态、手臂摆动的幅度和节奏等,都显得非常自然流畅,不会出现以往机器人动作生硬、机械的问题。在时序一致性上,“龙跃”模型能够精确控制机器人各个关节的运动顺序和时间间隔,确保在执行复杂动作序列时,每个动作都能按照正确的时间顺序依次完成,避免了动作冲突和不协调的情况。例如在舞蹈表演场景中,机器人能够跟随音乐节奏,完美地完成一系列复杂的舞蹈动作,动作的流畅性和协调性让人惊叹,为用户带来更加逼真、自然的交互体验。

「93913原创内容,转载请注明出处」