
智东西
编译 | 刘煜
编辑 | 陈骏达
智东西 5 月 15 日消息,今日,Meta 宣布 Meta Ray-Ban Display 的多项功能即日起将陆续上线,包括神经手写功能(neural handwriting)、画面录制功能(display recording)以及升级后的步行导航功能(walking directions feature)和实时字幕功能(Live captions)。此外,Muse Spark 将于今年夏季正式登陆该款智能眼镜。

图源:Meta 官网
此次更新的功能中,神经手写功能将向用户全面开放,用户只需做出对应手势,即可完成文字输入并发送消息。用户通过佩戴 Meta Ray-Ban Display 标配的神经腕带(Neural Band)便能使用该功能。即日起,该功能也将正式适配 WhatsApp、Messenger、Instagram,以及安卓、iOS 系统原生短信应用。
全新画面录制功能则支持用户录制该智能眼镜镜内画面、实景视角与周围环境音频,生成视频后用户可一键分享。
同时,该智能眼镜的步行导航功能已实现全美覆盖,并支持用户在伦敦、巴黎、罗马等城市的出行导航;Meta 将在 WhatsApp、Facebook Messenger 和 Instagram 私信语音通话中推出实时字幕功能,该功能可实时转录用户面对面对话与电话通话语音内容。
Meta 还在 Ray-Ban Display 主屏幕新增多款快捷查看小组件,涵盖提醒、天气、股票、日历;同时支持用户一键直达 Spotify 收藏歌单,并上线了 Instagram 短视频功能。
针对开发者群体,Meta 在开发者预览版中开放 Meta Ray-Ban Display 的应用开发权限,允许开发者在该款智能眼镜上部署网页应用。
例如,开发者可使用 HTML、CSS、JavaScript 开发应用,无需经过繁琐的安装流程,只用点击开发好的应用网址链接,便能在该智能眼镜上使用对应应用。可开发的应用类型也较为丰富,包括游戏、出行工具、烹饪教程、购物清单、乐器练习工具等。
通过使用 Meta 的穿戴设备开发工具包(Wearables Device Access Toolkit),开发者可将现有的手机应用等适配迁移至该眼镜屏幕,同时能够自行添加文字、图片、列表、按钮、视频播放等界面组件。
Meta 称:" 即使用户没有专业技术基础,也可以借助常见的 AI 编程工具完成应用开发。"
值得一提的是,本次更新的神经手写功能,自去年 9 月这款智能眼镜发布后便备受市场关注,不过当时并未在该产品首发阶段同步推出。今年 1 月,Meta 开始在 WhatsApp 和 Messenger 中推出该功能的抢先体验版。
结语:新功能落地丰富穿戴体验,生态迭代后续表现仍待观察
此次 Meta 为 Ray-Ban Display 集中推送多项功能更新,一定程度上补齐手势输入、视频录制、导航及实时字幕等核心体验,同时通过开放网页应用与开发工具包,进一步拓宽了该智能眼镜的第三方应用生态边界。
随着 Muse Spark 模型将于夏季正式在该款智能眼镜上线,叠加后续开发者生态的持续完善,该款穿戴设备或将持续在日常实用场景与智能化能力上迭代演进。
不过,该款智能眼镜的各项新功能实际体验,尚需用户在实际使用中检验。后续其生态适配与功能完善进展,也有待市场持续关注。


登录后才可以发布评论哦
打开小程序可以发布评论哦