5 月 21 日消息,在今年的谷歌 Google I/O 大会上,谷歌现场演示了重量级安卓 Android XR 智能眼镜—— Project Aura 智能眼镜。Project Aura 是由 Google 和中国混合现实技术公司 Xreal 共同推出,并且还会是第一个在 Gemini 时代构建的 Android 平台。
在 2012 年,谷歌发布了世界上首款智能眼镜 Google Project Glass,但由于多种原因于 2015 年停止了该项目。而在今天的 Google I/O 上,谷歌公司借助 Android XR 平台再度重启智能眼镜。
谷歌在现场演示了 Project Aura 智能眼镜的实时翻译功能:两位演讲者分别使用印地语和波斯语进行对话,眼镜能够为他们提供实时翻译,打破了语言障碍。而在此前的 Gemini 部分演讲中,我们可以推测 Project Aura 智能眼镜以后还有可能直接输出音频,为使用者直接配音。
Project Aura 智能眼镜融合了 Gemini AI 技术,可以为用户带来了多模态的智能交互体验。用户可以通过按键或语音唤醒的方式,向 Gemini 询问自己看到的内容,进行搜索和解答。能够准确记住用户刚才见过的人或物,理解视觉 - 语音等多模态的上下文,精准把握用户需求。
从渲染图以及 I/O 2025 现场演示来看,Project Aura 智能眼镜至少配备左右两个摄像头以及中置的其他视觉传感器模组,不仅可以用于拍摄照片和视频,还能支持 Gemini 的视觉 /agent 智能体能力。内置双声道立体声扬声器和多个麦克风组成的阵列,能够满足通话、录音需求,同时支持 Gemini 的语音交互功能。Project Aura 智能眼镜还有一块内嵌于镜片的屏幕。
编辑点评:Project Aura 智能眼镜是谷歌在智能眼镜领域的新尝试和延续,底层技术正在走向成熟,智能眼镜的整体性能和功能将不断提升。大家会对智能眼镜的印象怎么样呢?不妨在评论区留下自己的意见哦!
登录后才可以发布评论哦
打开小程序可以发布评论哦