财联社 9 月 25 日讯(编辑 黄君芝)在首次向公众展示的四个月后,OpenAI 终于要面向其所有付费用户开放 ChatGPT 的类人高级人工智能(AI)语音助手功能—— " 高级语音模式 "(Advanced Voice Mode,以下简称 AVM)。
OpenAI 周二(24 日)宣布,所有付费订阅 ChatGPT Plus 和 Team 计划的用户,都将可以使用新的 AVM 功能,不过该模式将在未来几天逐步推出。它将首先在美国市场上线。下周,该功能将向 OpenAI Edu 和 Enterprise 计划的订阅者开放。
据悉,AVM 提高了部分外语的对话速度、流畅度并改进口音。
此外,AVM 还新增了两大功能:为语音助手存储 " 自定义指令 ",以及记住用户希望语音助手表现何种行为的 " 记忆 " 的功能(这类似于今年 4 月 OpenAI 为 ChatGPT 文本版本推出的记忆功能)。
也就是说,ChatGPT 用户可以利用自定义指令和 " 记忆 " 来确保语音模式是个性化的,AVM 会根据他们对所有对话的偏好做出响应。
语音方面,OpenAI 推出了五种不同风格的新声音:Arbor、Maple、Sol、Spruce 和 Vale,加上之前老版本的四种声音 Breeze、Juniper、Cove 和 Ember,可选声音达到九种,撤走了被指山寨 " 寡姐 "(女演员斯嘉丽 · 约翰逊)的声音 Sky。
这意味着,ChatGPT 的 Plus 版个人用户和小型企业团队用户(Teams)可以通过 " 说话 " 的方式,而不是输入提示来使用聊天机器人。当用户在应用程序上进入语音模式时,他们会通过一个弹出窗口知道他们已经进入了高级语音助手。
最后值得一提的是,AVM 可以用超过 50 种语言说 " 对不起,我迟到了 "。
根据 OpenAI 在 X 上发布的一段视频,用户要求语音助手表达,由于让奶奶久等了,向奶奶致歉。AVM 先用英语流畅地总结了一遍,并在用户表示 " 奶奶只会说普通话 " 后,又用标准的中文普通话表达了一遍。
不过据悉,这些更新只适用于 OpenAI 的 AI 模型 GPT-4o,不适用于最近发布的预览模型 o1。
今年 5 月,OpenAI 首次展示了这款语音产品,并展示了它如何快速响应用户发出的书面和视觉提示。但在 6 月,以解决潜在安全问题为由,推迟发布。到了 7 月份,该功能也只面向有限数量的 ChatGPT Plus 用户开放。
不过,新的语音模式缺少 5 月 OpenAI 展示过的不少功能,比如计算机视觉功能。该功能可让 GPT 仅通过使用智能手机的摄像头就对用户的舞蹈动作提供语音反馈。
登录后才可以发布评论哦
打开小程序可以发布评论哦