日前有消息显示,美国联邦贸易委员会(以下简称为 FTC)方面近日向 OpenAI、Meta 及其子公司 Instagram、Snap、xAI、谷歌母公司 Alphabet 和 Character.AI 开发商等 7 家企业发出调查令,要求相关企业在 45 天内提交相关资料与文件,详细说明其如何评估 " 虚拟陪伴 " 类 AI 产品对儿童及青少年的影响。
具体而言,FTC 明确要求相关企业披露 " 虚拟陪伴 " 类 AI 产品的盈利模式、维系用户群体的具体计划,以及为降低用户使用风险所采取的各项措施。
FTC 方面指出,此次行动属于研究项目范畴,并非执法行动,核心目的是深入了解科技企业在评估 AI 聊天机器人安全性方面的具体做法与机制。但 FTC 也强调,如调查结果显示相关企业存在违法行为,其可能会进一步展开执法行动。对此 FTC 专员 Mark Meador 表示," 如果后续调查确认法律被违反,委员会将毫不犹豫采取行动保护最脆弱的人群 "。
据相关消息显示,除 FTC 外,美国多地监管机构也在推动新的 AI 政策以保护未成年人。例如加州州议会近期已通过一项法案,明确要求为 AI 聊天机器人设立安全标准,并强化企业在相关领域的责任追究机制。
同时科技企业自身也在采取各种措施,例如不久前 OpenAI 方面就宣布,为加强对青少年用户的保护,正在针对 ChatGPT 持续开发和推出符合青少年需求的保障措施,并对敏感内容和危险行为设置更强有力的防护。据 OpenAI 方面透露,自今年 10 月起将为 ChatGPT 引入家长控制功能。
目前,OpenAI 正在与关注进食障碍、药物使用障碍和青少年健康的专家合作打造这项功能。该功能支持家长将自己的 ChatGPT 账号与孩子的账号关联,并决定 ChatGPT 如何回复孩子的问题,以及是否禁用记忆、聊天记录等功能。此外该功能还将自动干预风险对话,当孩子尝试与 ChatGPT 聊敏感话题时,系统就会自动发出提醒,让家长能及时采取下一步行动,避免出现 " 完全不知情 " 的情况。
【本文图片来自网络】
登录后才可以发布评论哦
打开小程序可以发布评论哦