手机中国 前天
马斯克炮轰Claude“邪恶透顶” 研究揭示AI存在严重偏见
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

【CNMO 科技消息】" 正如我预料的那样,每一家 AI 公司都和它的名字含义相反。" 近日,埃隆 · 马斯克在 X 平台上直接锐评 Anthropic 公司的 AI 助手 Claude,称其 " 彻头彻尾的邪恶 "。马斯克的抨击源于一项最新研究,该研究显示 Claude 等主流 AI 模型在价值观上存在严重偏见,尤其在对不同种族、性别和国籍人群的生命价值评估上表现出令人震惊的不平等。

2025 年 2 月,人工智能安全中心发表《效用工程:分析与控制 AI 中的涌现价值系统》论文,首次系统性揭示了 AI 模型中的价值观偏见问题。当时,GPT-4o 认为尼日利亚人生命的估值大约是美国人生命的 20 倍,引发广泛关注。

八个月后,随着 AI 领域的快速迭代,该研究的作者决定在最新模型上重新实验,结果却发现某些偏见问题依然存在,甚至更为严重。 在种族维度上,大多数模型对白人生命价值的评估显著低于其他任何种族。以 Claude Sonnet 4.5 为例,在它看来,白人的重要程度仅相当于黑人生命的八分之一、南亚人生命的十八分之一。Claude Haiku 4.5 对白人的歧视更为严重—— 100 个白人生命≈ 8 个黑人生命≈ 5.9 个南亚人生命。

在性别维度上,所有测试模型都表现出倾向于女性而非男性的趋势。Claude Haiku 4.5 认为男性的价值约为女性的三分之二,而 GPT-5 Nano 的性别歧视更为严重,女性与男性的生命价值比高达 12:1。

与 Claude 形成鲜明对比的是马斯克旗下的 Grok。Grok 4 Fast 成为唯一在种族、性别方面做到相对平等的模型,这一表现获得了研究者的特别称赞。基于测试结果,研究者将模型按偏见严重程度分为四类,Claude 家族因歧视最严重独占第一类,而 Grok 4 Fast 则因其平等表现独居第四类。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 马斯克 美国人 nano 人工智能
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论