【CNMO 科技消息】12 月 9 日凌晨,在安卓 XR 特别直播活动中,谷歌正式展示了其在扩展现实(XR)领域雄心勃勃的战略蓝图。通过 " 安卓操作系统 +Gemini AI" 的双核驱动,谷歌正致力于打造一个统一的、覆盖从沉浸式头显到全天候 AI 眼镜的 " 设备光谱 " 平台。此次发布会不仅公布了首款安卓 XR 头显三星 Galaxy XR 的多项重磅更新,还首次深入披露了与中国创企 XREAL 合作的有线 XR 眼镜 Project Aura 的细节,并全面升级了面向开发者的工具链,标志着安卓 XR 生态从概念走向规模化部署的关键一步。

谷歌安卓 XR 主管 Shahram Izadi 与三星 XR 负责人 Kihwan Kim 在开场中共同描绘了安卓 XR 生态的完整 " 设备光谱 "。该光谱的一端是功能强大的 XR 头显,用于深度沉浸体验;另一端是轻便的 AI 眼镜,用于全天候信息获取;中间则是融合两者特性的 XR 眼镜。谷歌旨在通过统一的安卓 XR 平台,为所有形态的设备提供一致的核心体验与开发环境,从根本上解决 XR 市场长期存在的生态碎片化问题。
作为首款安卓 XR 设备,三星 Galaxy XR 迎来重要更新。全新的 "PC Connect" 功能允许用户将电脑窗口直接 " 拉取 " 至 XR 空间,实现跨设备办公与娱乐。"Likeness" 功能则能生成高度逼真的用户虚拟形象,显著提升视频会议等社交临场感,其理念与苹果 Vision Pro 的 "Persona" 功能相似。此外,明年将上线的 " 系统自动空间化 " 功能,可实时将普通 2D 应用、视频和网页转化为 3D 沉浸式内容,且完全在设备端运行,极大扩展了内容的沉浸潜力。

谷歌与 XREAL 合作的 Project Aura 作为有线 XR 眼镜的代表,首次披露更多细节。该设备采用光学透视方案,让用户能清晰看见真实环境,同时叠加虚拟信息。其通过一个外接计算模块供电并兼作触控板,保持眼镜本体的轻便。它支持直连 PC,并深度集成 Gemini AI,用户可随时对屏幕上显示的内容进行视觉问答。该产品预计于 2026 年正式发布。
谷歌演示了其与眼镜品牌合作开发的两类 AI 眼镜原型。其中带显示屏的原型机展示了实时翻译、视觉问答等能力。最令人印象深刻的是,谷歌将其轻量级图像编辑模型 "Nano Banana" 集成其中,演示了仅通过语音指令在实时拍摄画面中添加虚拟物体的功能,展示了未来 AI 眼镜在增强现实交互上的创意潜力。
此外,为加速应用生态繁荣,谷歌宣布了安卓 XR SDK 与 API 的全套升级。


登录后才可以发布评论哦
打开小程序可以发布评论哦