36氪 1小时前
ChatGPT上线年龄预测:AI 终于学会看人下菜碟
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

OpenAI 于 2026 年 1 月 20 日正式在 ChatGPT 消费级版本推出「年龄预测」功能,不再依赖用户自报年龄,而是通过账户存续时间、活跃时段、交互模式等多维度行为信号,自动识别 18 岁以下用户并启用专属安全防护,同时配套家长控制与第三方验证机制,标志着 AI 平台未成年人保护从「自愿申报」迈入「行为识别」的新阶段。

ChatGPT 年龄预测的技术逻辑

长期以来,AI 平台的未成年人保护多依赖「用户自报年龄 + 内容分级」的被动模式 —— 用户注册时勾选「已满 18 岁」,即可解锁全部功能,这种方式不仅容易被规避,也无法应对未成年人冒用成年账号的场景。

此次 OpenAI 推出的「年龄预测」功能,彻底打破了这一传统逻辑。其核心是一套基于账户与行为信号的多维度预测模型,具体分析维度包括:

账户维度:注册时长、账号活跃度、付费状态等基础信息;

行为维度:日常活跃时段(如是否频繁深夜使用)、交互频率、提问内容偏好、对话长度与风格等;

补充维度:结合用户注册时填报的年龄信息,但仅作为辅助参考,不做唯一判定依据。

这套模型的核心优势在于「动态识别」:不同于一次性的年龄申报,它能持续分析用户的使用行为,不断修正年龄判定结果,即使是成年用户长期以未成年人的方式使用(如频繁提问低龄化内容、深夜高频互动),也可能被标记为「疑似未成年」并触发防护;反之,未成年人若模仿成年用户的使用习惯,也难以完全规避识别。

未成年人保护的「软硬兼施」方案

针对被判定为未成年人的账户,ChatGPT 会强制启用五层安全防护,精准拦截高风险内容,具体包括:

1、直接展示的暴力血腥画面;

2、可能诱导未成年人模仿的危险病毒式挑战(如极限恶作剧、危险实验);

3、涉及性或暴力的角色扮演(Role Play)内容;

4、自残、自杀相关的描述与引导;

5、宣扬极端审美、不健康节食或身材羞辱的内容。

同时,为避免模型误判影响成年用户体验,OpenAI 引入了第三方身份验证服务 Persona:被错误归类为未成年人的用户,可通过上传自拍完成快速人脸验证,验证通过后即可恢复账号完整功能,平衡了安全性与用户体验。

此外,系统还配套了家长控制定制功能,让家长拥有更灵活的管控权限:可设置「静默时间」(禁止使用时段,如上课、睡觉时间)、管控账号记忆功能权限(避免孩子重复查看敏感内容),甚至能在系统检测到用户出现急性心理困扰迹象时(如频繁提问自残相关问题),及时接收通知并介入引导。

OpenAI 为何此时推出年龄预测?

此次功能上线,并非 OpenAI 的「主动创新」,而是监管压力与行业趋势共同推动的结果

一方面,OpenAI 正面临美国联邦贸易委员会(FTC)的调查,核心质疑点正是「AI 聊天机器人对青少年的负面影响」,同时还涉及多起相关诉讼 —— 此前已有家长投诉 ChatGPT 未有效拦截有害内容,导致未成年人接触暴力、色情信息,甚至出现心理问题。推出年龄预测功能,是 OpenAI 应对监管审查、降低法律风险的关键举措。

另一方面,未成年人保护已成为全球 AI 行业的「必答题」。随着 AI 工具的普及,越来越多青少年将 ChatGPT 作为学习、娱乐的重要工具,但其心智尚未成熟,容易受到不良信息的诱导。此前,谷歌 Bard、Anthropic Claude 等竞品已推出不同程度的未成年人保护功能,但多依赖内容分级与自愿申报,而 OpenAI 的「行为识别 + 动态防护」模式,无疑是行业内更前沿的探索。

从行业趋势来看,AI 平台的安全防护正从「内容过滤」向「用户识别 + 内容分级」的双重模式升级 —— 不仅要判断「内容是否有害」,更要判断「用户是否适合接触该内容」,这也是未来 AI 安全发展的核心方向。

年龄预测能否真正守护未成年人?

尽管功能设计看似完善,但「年龄预测」仍面临诸多争议与挑战,核心集中在三个方面:

1. 行为信号能否完全代表年龄?

年龄预测模型的核心是「行为与年龄的关联性」,但这种关联性并非绝对 —— 例如,部分成年用户可能因工作、学习需求频繁深夜使用 ChatGPT,或偏好提问低龄化的科普内容,容易被误判为未成年人;而部分早熟的未成年人,可能通过模仿成年用户的交互模式,规避识别。OpenAI 虽表示会持续优化模型精度,但短期内仍难以实现 100% 准确。

2. 行为分析是否侵犯用户隐私?

年龄预测需要收集、分析用户的大量行为数据,包括活跃时段、交互内容、使用习惯等,这引发了用户对隐私泄露的担忧 —— OpenAI 如何确保这些数据不被滥用?是否会与第三方共享?尽管 OpenAI 未明确说明数据使用规则,但在全球数据合规趋严的背景下,如何平衡「行为识别」与「隐私保护」,将是其必须解决的问题。

3. 防护能否覆盖所有风险场景?

此次 ChatGPT 拦截的五类高风险内容,主要集中在「显性有害信息」,但对于「隐性风险」(如诱导未成年人网络诈骗、传播极端思想、泄露个人信息等),年龄预测模型尚未覆盖。此外,家长控制功能依赖家长的主动操作,若家长缺乏监管意识或技术能力,该功能的实际效果将大打折扣。

ChatGPT 上线「年龄预测」功能,是 AI 行业未成年人保护的一次重要突破 —— 它标志着 AI 平台终于学会「看人下菜碟」,从被动的内容过滤,转向主动的用户识别与精准防护。

但我们也需清醒认识到,技术并非万能,年龄预测只是未成年人保护的「第一步」。未来,只有平台、家长、监管机构三方协同,持续优化技术、完善规则、强化引导,才能真正为青少年打造一个安全、健康的 AI 使用环境,让 AI 技术真正赋能未成年人成长,而非带来风险。

对于 OpenAI 而言,年龄预测功能的上线,是应对监管、重塑口碑的关键一步;对于整个 AI 行业而言,这是一次「安全升级」的信号 —— 当技术创新与安全兜底并行,AI 才能真正走向成熟与合规。

评论
大家都在看