IT 之家 9 月 29 日消息,当用户提交情感化或个性化提示词时,OpenAI 旗下的 ChatGPT 会自动切换到限制性更强的语言模型,但这一过程不会通知用户。
目前,OpenAI 正在 ChatGPT 中测试一款全新的 " 安全路由系统 ",该系统可根据对话主题自动将交流内容导向不同模型。ChatGPT 负责人尼克・特利(Nick Turley)表示,只要对话涉及 " 敏感或情感类主题 ",该系统就会启动干预。
在实际应用中,ChatGPT 会将用户提示词临时转交至更严格的模型进行处理,例如 GPT-5,或是专用模型 "gpt-5-chat-safety"。特利指出,这种模型切换仅针对单条消息触发,且只有当用户专门就此向模型提问时,切换行为才会显露出痕迹。
IT 之家注意到,OpenAI 早在 9 月的一篇博客文章中就首次披露了这类基于情感的路由机制,并将其描述为针对 " 严重心理困扰 " 场景的防护措施。而特利此次的最新表态则将该机制的适用范围扩大到所有涉及敏感或情感领域的对话。
莱克斯(Lex)对这套新路由系统开展的技术评估显示,即便是无害的情感化或个性化提示词,也常常会被重定向至更严格的 "gpt-5-chat-safety" 模型。此外,涉及模型自身角色设定或其 " 自我认知 " 的提示词,同样会触发自动切换。
已有一名用户记录下了模型切换的实际过程,其他用户也证实了类似情况的存在。目前似乎还存在第二款路由模型 "gpt-5-a-t-mini",当用户提示词可能涉及请求实施潜在非法行为时,该模型便会被启用。
部分人士已对 OpenAI 提出批评,认为其在模型重定向的触发时机与原因方面缺乏足够透明度。他们表示,这种做法给人一种 " 居高临下 " 的感觉,且模糊了 " 儿童安全保护 " 与 " 更广泛的一般性限制 " 之间的界限。
目前,OpenAI 仅计划在特定地区推行基于官方文件的严格年龄验证机制。就当前而言,该语言模型判断用户身份及解读消息含义的方式准确性尚不高,这一问题未来可能持续引发争议。
登录后才可以发布评论哦
打开小程序可以发布评论哦