高德宣布TrafficVLM模型升级,以AI赋能实现全局交通掌控

🤖 由 文心大模型 生成的文章摘要

高德地图宣布其基于阿里通义Qwen模型的交通视觉语言模型(TrafficVLM)完成新一轮升级,旨在帮助驾驶者突破“局部视角”限制,实现对全局交通的掌控。​

在现代交通环境中,驾驶者常常面临信息盲区的挑战。在复杂的路口穿梭时,人们只能看到眼前的车流,却无法预知百米外哪个车道即将拥堵;在畅通的高速上行驶时,难以预见前方因轻微刹车而引发的“幽灵堵车”。这些局部视角的限制,使得驾驶者难以做出最优的决策。​

依托空间智能架构,全新升级的TrafficVLM为用户带来“天眼”视角,让用户全面了解全局交通状况,从而在复杂环境中做出更优决策。它赋予每位驾驶者“全知视角”的能力,在面对路口或高速时,不再受限于局部视野,从而更直观预知前方路况,从容应对潜在风险。​

当用户开启高德地图导航,在用户看不见的云端,TrafficVLM也在同步运行,并以分钟级的频率持续对沿途交通态势进行实时推理,化身用户的超视距“天眼”。例如,在用户前方3公里的主干道上,左侧车道因一起突发追尾事故而形成新堵点,即时TrafficVLM会通过实时孪生交通感知到这一异常,且推理识别出事故点并洞悉其发展趋势:拥堵或将快速蔓延,形成一个长达3公里的拥堵路段。为此,TrafficVLM会迅速生成最优决策建议。在用户到达拥堵点之前,及时推送通行建议:“前方三公里突发事故,大量车辆向右并线,推荐您提前靠右行驶,注意避让应急车辆。”​

这不仅仅是一条文字提醒。当用户点击导航界面右下角的视窗,导航画面瞬间切换,仿佛一部拥有上帝视角的摄影机,跨越3公里直抵拥堵现场,实时呈现前方车流动态与高清实景图像。通过云端调度系统的快速响应,系统在拥堵发生时即刻下发观测指令,调取第一现场的视觉数据,并基于图像中的深度信息进行智能分析,精准还原拥堵点位的空间结构与交通态势。这意味着用户不仅能直观看到“前方堵车”,更能清楚理解为何需要变道、何时该减速,以及拥堵的真实成因与范围。这种从被动接收提示到主动洞察全局的转变,让用户摆脱了“盲人摸象”般的局限,真正实现了对复杂路况的可视化、可感知、可预判的智慧导航体验。​

据介绍,TrafficVLM基于通义Qwen-VL构建,在高德海量的、经过孪生还原的交通视觉数据上进行后训练和强化学习,能够将实时交通数据转化为视频流进行解析,识别车辆变道意图、拥堵传导趋势等复杂场景。

「93913原创内容,转载请注明出处」