
大厂开始发力,初创公司慌不慌
文 /VR 陀螺 万里
昨夜,谷歌举办了名为《The Android Show | XR Edition》的线上发布会。
本次发布会时长 30 分钟,没有硬件新品,核心聚焦在 XR 头显软件更新、AI 眼镜能力展示以及新的 Android XR SDK。

在这之前,不少人都对谷歌的 XR 产品线感觉到混乱,原因在于 Android XR 系统涵盖了头显与眼镜,但是两类产品的能力有着较大区别。本次发布会,谷歌再次对各类产品捋了一遍:
XR 是眼镜与头显的总称。Galaxy XR 归属于 XR 头显;XREAL 与谷歌联合开发的 Project Aura 定义为有线 XR 眼镜;对于智能眼镜,则分为了 AI 眼镜和显示 AI 眼镜(Display AI Glasses)两大类。(不知道是否是因为 Google Glasses 的挫折,谷歌现在已经不倾向使用 AR 眼镜等词汇。)

01
XR 头显多项功能更新
展示安卓版 "Persona"
发布会开始,谷歌简单介绍了 Galaxy XR 的最新动态。这是一款由三星、谷歌与高通三方联合开发的头显设备,产品发布于今年 10 月。发布会期间提到了一项数据:设备上线一个月,商店里面已经有超过 60 款专为 XR 打造的应用和游戏,其中包括知名 VR 桌游《Demeo》。
一个多月过去,Galaxy XR 推出了以下几项更新:
PC Connect:可将电脑屏幕画面投屏到头显端,以获得大屏的观影以及游戏体验,应用将会在今日推出测试版;
旅行模式:方便用户在飞机等移动使用场景下使用头显;
Likeness:这是一个 Android 版 Persona,用户需要在手机端预先录入脸部信息。根据演示视频,Likeness 看起来十分逼真,不过如果与 Persona 对比,Likeness 似乎更像是一个常规的 2D 图片而非真实的 3D 模型。

System autospatialization:这是一项系统级实时 2D 窗口转 3D 功能,比如头显中打开了 YouTube 等窗口,它可以将 2D 窗口转化为 3D 效果,该功能将会在明年正式推出。

02
Project Aura 实机演示
预告多项 AI 眼镜合作
Project Aura 是一款由 XREAL 与谷歌联合开发的有线 XR 眼镜。Project Aura 已经是老面孔了,曾在今年谷歌 I/O 等活动有所亮相,设备支持 70 ° 大 FoV 显示,搭载了由 XREAL 自研的 X1S 空间计算芯片,产品计划在 2026 年面向市场。
本场发布会中,Project Aura 首度进行了上手演示,并透露了更多细节。Project Aura 配备了一个外置计算单元,从图片中可以看到,它的外观有点类似于智能手机,承担了计算以及供电的角色,主机正上方应该是一个触控板。此外,Project Aura 正前方有 3 颗摄像头,用于实现空间定位以及手势交互。
其他方面,Project Aura 具备与 Galaxy XR 类似的能力,如窗口多开,眼镜可通过镜腿唤起 Gemini,并让 AI 识别当前屏幕内容等。

除 XREAL 外,谷歌还与 Gentle Monster 和 Warby Parker 等品牌达成了 AI 眼镜相关合作,产品预计会在明年推出。(这其实也不是新闻了,谷歌之前活动中曾多次提及)
Warby Parker 联合创始人 Neil Blumenthal 在发布会中表示," 我们期待有一天所有眼镜都能智能化 ...... 而那一天比我们想象的要来的更快。"

除了与第三方厂商合作外,谷歌也在开发自家的 AI 眼镜,发布会展示了一款谷歌 AI 眼镜原型设备,它的典型场景如下:调用 Gemini 的多模态能力识别眼前的食物;拍照并基于 Nano Banana 模型进行图片再创作;跨语言对话翻译;查找周边美食等。

03
眼镜 SDK 发布,Uber 正在开发眼镜应用
Android XR 之于开发者,具备一个得天独厚的优势,大部分原生安卓应用无需特别移植即可直接在 XR 头显以及有线 XR 眼镜等设备运行。当应用包含富媒体通知等体验时,它也可以很容易移植到 AI 眼镜端。
去年 12 月,谷歌曾对外推出了 Android XR SDK 开发者预览版,当时 SDK 重点聚焦于 XR 头显,本次发布会期间,谷歌进一步发布了 SDK 开发者预览版 3,并首次介绍了智能眼镜的配套能力。以下是主要更新。
1、AI 眼镜
Jetpack XR SDK 中为 AI 眼镜引入两个新的专用库:
Jetpack Projected ——旨在连接移动设备和 AI 眼镜,其功能可让您访问眼镜上的传感器、扬声器和显示屏;
Jetpack Compose Glimmer ——用于在 AI 眼镜上打造和设计增强体验的全新设计语言和 UI 组件。

Android Studio 引入 AI 眼镜模拟器,开发者可以在上面更直观查看眼镜特有的交互方式,如触摸板和语音输入。
Jetpack XR ARCore 能力支持 AI 眼镜,可用于构建运动追踪、地理空间等视觉定位服务。
Gemini Live API 让开发者能够使用 Gemini 的能力并构建多模态 AI 体验。
Android XR AI 眼镜的首批第三方应用即将来袭,谷歌透露,目前 Uber 正在利用 Android XR SDK 为其打车 APP 构建 AI 眼镜应用。当旅客下机后,AI 眼镜上面会显示行程状态、接送地点等信息;此外,眼镜可以识别车牌信息,或者与司机进行电话沟通。AI 眼镜的加入,能够让打车这一过程变得更加顺滑。

2、XR 头显
SDK 主要更新如下:
Jetpack SceneCore 现在支持通过 URI 动态加载 glTF 模型,并改进了材质支持,可在运行时创建新的 PBR 材质;
Jetpack Compose for XR 增加了用于跟随行为的 UserSubspace 组件、可以使用空间动画来实现平滑过渡效果等;
在 Material Design for XR 中,新组件可以通过重写自动进行空间自适应;
ARCore for Jetpack XR 新增了感知功能,包括支持 68 个混合变形值的面部追踪;
Android Studio 中引入了针对 Project Aura 等设备等设备的模拟器。
结语
从新品的角度来看,本次 The Android Show 活动并没有太多让人眼前一亮的地方。很多产品也属于 " 预热 "、" 预热 " 再 " 预热 "。
不过,另外一方面,我们可以看到谷歌在 XR 赛道其实正在逐步加大力度,比如头显以及 AI 眼镜品类全面铺开,并且稳步在系统功能以及 SDK 相关底层建设上稳步推进中。
拆开来看,对于 XR 头显,Galaxy XR 处处落后 Vision Pro 半拍,今天发布的新功能也已经见怪不怪。
然而,对于 AI 眼镜,Android XR 平台却显得势不可挡,因为它是目前市场上 " 最正规的正规军 ",它具备了目前最强的手机、眼镜跨终端生态能力,Gemini 体验也很强。目前市场属于 " 矮子里挑高个 ",谷歌起点就很高。
随着谷歌的进一步发力,毫无疑问的是明年 AI 眼镜市场的热度会再上一个阶梯,而 Android XR 也可能会成为更多硬件初创公司的首要选择。
第一时间了解 XR 资讯
关注 VR 陀螺官网(vrtuoluo.cn)
VR 陀螺的联系方式:
商务合作 | 投稿 :
六六(微信号 13138755620)
寻求免费曝光:
六六(微信号 13138755620)
投稿邮箱:tougao@youxituoluo.com

陀螺研究院热门报告


登录后才可以发布评论哦
打开小程序可以发布评论哦