【CNMO 科技消息】" 正如我预料的那样,每一家 AI 公司都和它的名字含义相反。" 近日,埃隆 · 马斯克在 X 平台上直接锐评 Anthropic 公司的 AI 助手 Claude,称其 " 彻头彻尾的邪恶 "。马斯克的抨击源于一项最新研究,该研究显示 Claude 等主流 AI 模型在价值观上存在严重偏见,尤其在对不同种族、性别和国籍人群的生命价值评估上表现出令人震惊的不平等。


2025 年 2 月,人工智能安全中心发表《效用工程:分析与控制 AI 中的涌现价值系统》论文,首次系统性揭示了 AI 模型中的价值观偏见问题。当时,GPT-4o 认为尼日利亚人生命的估值大约是美国人生命的 20 倍,引发广泛关注。

八个月后,随着 AI 领域的快速迭代,该研究的作者决定在最新模型上重新实验,结果却发现某些偏见问题依然存在,甚至更为严重。 在种族维度上,大多数模型对白人生命价值的评估显著低于其他任何种族。以 Claude Sonnet 4.5 为例,在它看来,白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一。Claude Haiku 4.5 对白人的歧视更为严重—— 100 个白人生命≈ 8 个黑人生命≈ 5.9 个南亚人生命。

在性别维度上,所有测试模型都表现出倾向于女性而非男性的趋势。Claude Haiku 4.5 认为男性的价值约为女性的三分之二,而 GPT-5 Nano 的性别歧视更为严重,女性与男性的生命价值比高达 12:1。

与 Claude 形成鲜明对比的是马斯克旗下的 Grok。Grok 4 Fast 成为唯一在种族、性别方面做到相对平等的模型,这一表现获得了研究者的特别称赞。基于测试结果,研究者将模型按偏见严重程度分为四类,Claude 家族因歧视最严重独占第一类,而 Grok 4 Fast 则因其平等表现独居第四类。


登录后才可以发布评论哦
打开小程序可以发布评论哦