
近日,科技巨头Meta正式宣布,于年初重磅推出的新一代研究和实验型智能眼镜设备Aria Gen 2已全面开放学术与商业研究申请通道,并计划在2026年第二季度向通过审核的符合条件申请者广泛部署该设备。与此同时,Meta同步发布了Aria Gen 2的技术白皮书与试点数据集,前者系统拆解设备核心技术架构,后者则通过真实场景案例直观展现其多元研究价值,为全球科研力量搭建起探索下一代计算平台的关键桥梁。
作为Meta Project Aria计划的重要迭代成果,Aria Gen 2自2025年初首次亮相以来便备受行业关注。该设备延续了初代产品服务前沿研究的核心定位,聚焦机器感知、上下文AI与机器人学三大关键领域,在硬件配置与功能体验上实现了跨越式升级。在便携性设计上,Aria Gen 2采用轻量化镜框结构,重量控制在74-76克之间,并创新加入可折叠镜臂设计,配合涵盖头宽与鼻梁差异的8种尺寸选择,大幅提升了不同用户的佩戴适配性与携带便利性。
核心技术层面,Aria Gen 2的硬件升级堪称全面。设备搭载四台计算机视觉摄像头,数量较初代翻倍,其全局快门传感器支持120dB高动态范围,较初代的70dB实现质的飞跃,能够在复杂光照条件下精准完成视觉捕捉任务。立体重叠角度从 35° 扩展至 80°,结合视觉惯性里程计技术,实现了六自由度空间追踪与环境映射,为深度感知研究提供了强大支撑。新增的眼动追踪系统可高精度捕捉视线轨迹、瞳孔参数等关键数据,而鼻托处集成的光电容积描记传感器与接触式麦克风,则分别实现了心率实时监测与嘈杂环境下的清晰音频采集。此外,通过SubGHz无线电技术构建的机载硬件校准方案,将设备间时间同步精度提升至亚毫秒级,远超初代的软件校准水平。
在软件与算法支撑上,Aria Gen 2搭载Meta自主研发的节能定制协处理器,可高效运行设备端机器感知算法,实现裸手3D追踪、手势识别等高精度交互功能,其手部关节追踪精度达到0.1毫米级,为机器人灵巧操作等研究提供了可靠数据基础。此次同步发布的技术白皮书,从硬件参数、传感器原理到算法架构、数据处理流程进行了全方位解析,为研究人员提供了完整的技术参考框架。
试点数据集则通过具象化场景展示了设备的应用潜力。该数据集记录了模拟周末场景中佩戴者的日常活动,完整呈现了手部追踪、眼动追踪、环境点云图等核心数据类型,并配套集成了Meta自研的手部-物体交互检测、3D边界框检测等算法,以及NVIDIA的FoundationStereo 深度估算算法。同时提供的专用分析工具与笔记本,降低了研究人员的探索门槛,助力快速挖掘数据价值。
回顾Project Aria计划的发展历程,自2020年启动以来已积累了丰硕成果,初代设备构建的 Ego-Exo4D 数据集已成为计算机视觉与机器人领域的基础研究工具。此次Aria Gen 2的开放申请,将进一步扩大研究协作网络。从已有的试点案例来看,乔治亚理工学院利用其训练家庭服务机器人,宝马团队探索 AR 技术在智能汽车中的集成应用,卡耐基梅隆大学基于其开发视障人士室内导航系统,Envision公司则通过其空间音频与SLAM功能升级无障碍 AI 助手。这些探索覆盖机器人学、智能交通、无障碍技术等多个领域,彰显了设备的跨学科研究价值。
Meta表示,Aria Gen 2暂不面向消费市场销售,其技术积累将为未来消费级AR产品的迭代提供核心支撑。业内分析认为,该设备在传感器融合、轻量化设计、本地化AI处理等方面的突破,有望建立AR研究设备的行业新标准,推动医疗手术导航、工业维修指导、教育培训等专业领域的技术创新。随着2026年设备的广泛部署,以及全球科研力量的参与探索,Aria Gen 2或将加速AI与AR 技术的融合落地,为下一代人机交互与智能计算平台的发展奠定重要基础。目前,学术机构与商业研究实验室可通过 Meta 官方渠道提交申请,参与这场前沿技术的探索浪潮。








