
苹果公司首席执行官蒂姆・库克在近日的季度财报电话会议上,特别点名表扬了Apple Intelligence旗下的视觉智能(Visual Intelligence)功能,称其是目前用户最受欢迎的AI能力之一。同时有传闻称,这项功能将在今年内迎来重大升级,并落地全新硬件产品,其中就包括备受期待的Apple Glasses。
视觉智能功能最早随iPhone 16一同亮相,集成于相机控制按钮内。用户只需长按该按钮,或通过控制中心、锁屏快捷方式,即可快速启用AI视觉分析能力。其核心功能包括实时翻译路牌文字、将传单上的活动信息一键添加至日历、调取餐厅点评与图片等,极大简化了用户在现实场景中的信息获取流程。
随着iOS 26系统的推送,视觉智能的应用场景实现了突破性扩展。该功能不再局限于相机取景,而是通过全新设计的截图查看器,覆盖iPhone屏幕上的所有内容。用户截取包含纯文本网址的画面后,系统可自动将其转化为可点击的链接;针对图片中的文字信息,还能提供翻译、总结等一键式服务。库克评价道:“视觉智能帮助用户借助iPhone屏幕内容学习和完成更多任务,大幅提升了跨应用搜索、操作和答疑的效率。”
库克此番高调“带货”,或与苹果的硬件生态扩张计划密切相关。据知名苹果爆料人马克・古尔曼透露,苹果正计划将视觉智能打造为未来穿戴设备的核心功能,高端版AirPods Pro 3和Apple Glasses均有望在今年晚些时候搭载该技术。
两款新品都将内置摄像头模组,结合视觉智能实现环境感知与信息交互。其中,Apple Glasses被直接定位为“纯粹的Apple Intelligence设备”,它能够分析用户视线范围内的场景,主动推送地标导航、物品识别等信息,实现“所见即所得”的无屏交互体验。AirPods Pro 3的红外摄像头可扫描周边环境,通过音频反馈为用户提供实时信息,同时支持手势操控,有望取代传统的压感按键。
苹果的长期规划显示,视觉智能将成为其穿戴设备生态的关键技术支点。从iPhone端的屏幕与相机分析,到耳机、眼镜的全场景感知,苹果正逐步构建一套覆盖用户视觉、听觉的多模态AI交互体系。市场预测,随着硬件产品的落地,视觉智能有望推动苹果穿戴设备业务迎来新一轮增长。








