12 月 9 日凌晨,谷歌举办 XR Edition 特别发布活动,首次系统性地展示了 XR 领域的最新进展。
谷歌将 Android XR 定位为 " 业界首个为扩展现实设备打造的统一平台 "。
这一平台的核心在于其统一的 Android 基础,可以将智能手机时代的体验优势直接延伸至 XR 领域。

图:谷歌计划将 Android XR 打造为首个统一的 XR 平台
把 Android 体验搬到 XR 平台上,谷歌拉了三星、高通入伙,其中三星负责技术架构和产品,高通负责芯片。
安卓时代,谷歌亲儿子 Nexus 系列,基本就是类似的套路。
按照谷歌的定义:Android XR 的设计哲学,是将扩展现实视为一个连续的设备谱系,而非单一产品形态,翻译过来就是,产品形态很多元。
按照谷歌的介绍,Android XR 的硬件不仅有功能强大、能提供深度沉浸体验的头戴设备,适合娱乐、游戏等高强度交互;也有轻便时尚、可全天佩戴的 AI 智能眼镜。
而介于两者之间的,则是如 XREAL Project Aura 这类融合了双方特点的混合形态设备。
Android XR 的 " 亲儿子 "
为了保证 Android XR 的体验,谷歌与三星主导技术架构。
设计上,作为 " 亲儿子 " 系列初代产品,谷歌选择了走时尚路线,邀请了眼镜行业的领导者 Warby Parker 和先锋设计品牌 Gentle Monster 参与产品定义与设计,包含两个型号,计划在 2026 年正式推出。
一款是注重基础交互的音频版 AI 智能眼镜,配备先进的微型扬声器阵列、高清摄像头和环境麦克风,用户可以通过自然语音与 Gemini 进行对话,实现音乐播放、通话沟通、即时拍摄等功能。

另一款则是在此基础上进一步集成了一项关键技术——带屏幕——一个微型、低功耗的透明显示屏,能够在用户视野的恰当位置以极高的隐私性显示导航箭头、消息通知、实时翻译字幕等信息。

这两款产品,既然叫做智能眼镜,设计哲学被明确为 " 首先是眼镜 "。
所以设计合作方的理念是让复杂的传感器和计算模块隐于无形,融入日常穿搭。
产品体验则完全围绕 Gemini AI 构建,致力于提供一种 " 情境感知式 " 的无感协助。
例如,通过视觉搜索,眼镜可以识别用户看到的物体并即时提供相关信息,如在超市中识别商品成分;
实时翻译功能可支持面对面的自然对话,打破语言隔阂;
结合地理位置与视觉识别的情境提醒,能在旅行中主动推荐景点或在复杂交通枢纽引导用户至准确的上车点。

此外,眼镜还融入了谷歌最新的多模态 AI 能力,用户只需语音指令即可完成拍摄,并利用类似 Nano Banana 的轻量级图像模型进行实时创意编辑,如在合影中添加有趣的虚拟元素,让智能交互充满趣味与个性。
新增 " 有线 XR 眼镜 " 品类
既然是多元,就不能只有智能眼镜,所以谷歌还联合 XREAL 推出了介于头显与 AI 眼镜之间的新设备品类——有线 XR 眼镜。
首款产品 Project Aura,设计核心是分体式架构——眼镜 + 计算设备——预计将于 2026 年正式推出。

用户佩戴的是一副形态接近普通眼镜、采用光学透视方案的轻便显示终端,它通过一根线缆连接到一个独立的、被称为 "Puck" 的便携式计算核心上。

这个 Puck 不仅承载了主要的运算单元和电池,其表面还可作为触控板使用,实现了算力与佩戴舒适度的平衡。
Project Aura 的产品体验倒不新鲜,可以概括为:真实世界画面 + 虚拟窗口内容高精度地叠加。交互方式直观,用户可以直接用手在空间中进行操控。
按照谷歌的演示,Project Aura 既可以作为独立 XR,并且拥有谷歌应用生态支持,也可以作为移动设备的外接屏幕,当然也整合了 Gemini 的 AI 能力。
三星用头显与谷歌绑定
三星和谷歌在 Android XR 上的合作,不仅包括帮助其打造 " 亲儿子 " 产品,也拿出了头显形态产品 Galaxy XR。
实际上,10 月份的时候,三星就已经发布了这款产品,所以这次主要是三个功能的升级。
首先,基于 PC Connect 功能彻底打破了头显与个人电脑之间的壁垒。
用户现在可以将 Windows PC 的整个桌面或任意单个应用窗口,以无线、低延迟的方式无缝 " 拉入 " 头显的无线虚拟屏幕之中。

用户可以在一个完全沉浸、不受物理边界限制的环境中使用 Photoshop、CAD 等专业软件进行创作,也开启了全新的娱乐方式——将高性能 PC 游戏串流至头显。
其次,为了解决用户在佩戴头显进行视频通话时 " 隐身 " 的社交尴尬,谷歌推出了 Likeness 功能。这项技术允许用户创建一个高度逼真的个人数字人化身。该化身并非静态模型,而是能够通过头显的传感器实时、精确地镜像用户的所有面部微妙表情、口型动作乃至头部的自然转动。

在 Google Meet 等视频会议中,与会者看到的将是一个栩栩如生、表情同步的 " 你 ",极大地增强了虚拟社交的真实感与临场感,让远程协作和沟通变得更为自然亲切。
第三,为了拓展头显的使用场景至移动环境,全新的 Travel Mode 应运而生,利用先进的算法智能补偿外部运动带来的干扰,显著稳定用户视野中的虚拟画面,减少因画面抖动而产生的眩晕感。

除了上述即刻可用的三大功能,谷歌还预告了一项计划于明年推出的核心技术——系统级自动空间化,在系统底层,实时、自动地将任何普通的 2D 应用界面,动态转化为具有立体深度和空间感的 3D 沉浸式体验。
此举将无需开发者进行单独适配,从而有望瞬间极大地丰富 XR 生态的内容库,将整个数字世界 " 空间化 ",预示着沉浸式交互将从特定应用走向普适化体验的未来。
开发工具包更新
面向开发者社区,谷歌同步发布了 Android XR SDK 开发者预览版 3(DP3)。
本次更新的核心在于首次正式开放了对 AI 智能眼镜的完整开发支持,标志着 Android XR 平台从沉浸式头显正式延伸至全天候佩戴的智能可穿戴领域。

为帮助开发者高效构建面向未来的眼镜应用,谷歌推出了两大专属开发库:
Jetpack Glimmer 是一个专为透明显示屏设计的现代化 UI 工具包,基于 Compose 构建,它提供了经过精心优化、符合眼镜交互逻辑的界面组件(如卡片、列表),让开发者能够轻松创建清晰、优雅且对现实世界干扰最小的视觉体验。
Jetpack Projected 则是一个基础 API 库,它旨在解决生态扩展的初始挑战,允许开发者将现有 Android 手机应用的核心功能与业务逻辑,通过简洁的接口快速 " 投射 " 至眼镜平台,管理音频与摄像头访问,从而实现从移动端到眼镜端的平滑过渡,显著简化了开发流程。
在增强现实能力方面,SDK 集成了 ARCore for Jetpack XR,并新增了关键的地理空间 API。这使得开发者能够利用全球规模的视觉定位服务,构建出基于精确地理位置与现实场景识别的应用,例如提供实时的 AR 步行导航。
为了构建一个开放且充满活力的生态,Android XR 遵循 OpenXR 这一行业开放标准。
在游戏与高沉浸感内容创作领域,Unreal Engine 现已能够利用其原生 OpenXR 支持为 Android XR 进行开发。谷歌还宣布,其官方提供的专属插件(将集成更深度的手部追踪等平台特性)预计于 2026 年初发布,以进一步释放引擎的创作潜力。
与此同时,开源的 Godot 引擎已在其 v4.2.2 稳定版中,通过官方插件提供了对 Android XR 的完整支持,为独立开发者和小型团队提供了强大而灵活的选择。
一个生动的开发者案例来自 Uber,他们演示了如何利用新工具为带显示屏的 AI 智能眼镜重塑出行体验。
当乘客抵达机场,眼镜的透明显示屏上会浮现出行程状态与预计到达时间,让信息获取无需低头。通过集成的 AR 路径引导,虚拟箭头会清晰地叠加在真实的航站楼环境中,引导用户步行至准确的上车点。

最终,车辆信息(如车牌号)会直接显示在视野中,用户甚至可通过眼镜便捷地呼叫司机,整个过程实现了信息与物理世界的无缝融合,让用户始终保持抬头、解放双手。(文 / 腾讯科技特约编译金鹿,编辑 / 苏扬)


登录后才可以发布评论哦
打开小程序可以发布评论哦