腾讯科技 4小时前
Anthropic向中国大模型发难
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

图片由 AI 生成

文丨苏扬

编辑丨徐青阳

Anthropic 向中国大模型发难,这是为了打击竞争对手,还是别有商业目的?

2 月 24 日,Anthropic 在其官网发布内容,称DeepSeek、Moonshot 和 MiniMax 三家人工智能企业试图窃取 Claude 的功能以改进其自身模型,并强调上述企业通过约 24000 个账户与 Claude 进行了超过 1600 万次交互,违反其服务条款和区域访问限制。

所谓的区域访问限制,可以追溯到 2024 年 5 月,Anthropic 旗下 Claude 相关模型停止对中国大陆地区支持,随后 2025 年 9 月更进一步,限制向中资关联方提供服务。

更早之前,Anthropic CEO Dario Amodei 还曾呼吁禁止美国芯片出口中国以限制中国 AI 发展。

北京大学新闻与传播学院教授胡泳将 Dario Amodei 的这种 " 不友好 " 概括为人工智能民族主义," 以前有技术民族主义,现在有人工智能民族主义。"

"OpenAI 一开始就不开放中国大陆接口,不让你用,奥特曼连香港、澳门都不去,但最赤裸裸敌视的还是 Anthropic。" 一位长期关注科技政策的研究员说。

Anthropic 指责中国大模型对 Claude 模型进行蒸馏,意图贴上 " 抄袭 " 的标签。

所谓蒸馏,简单来说就是用大模型对话的输出,来当小模型训练的教材,这项技术由 "AI 教父 " 杰弗里 · 辛顿 2015 年提出。

Anthropic 认为,蒸馏是一种广泛使用且合法的训练方法,但强调可能会被用于非法目的:竞争对手可以利用它,以极低的成本和极短的时间,从其他实验室获取强大的功能,而独立开发这些功能则需要花费更多的时间和精力。

" 蒸馏本身没啥,大家相互借鉴,你既然敢开放使用,就不要怕用你的回答当数据," 一位学术界研究员强调用大模型来获取数据是行业惯例,"对于闭源模型来说,既然你不公布代码,我也可以用指令微调学习黑盒的经验。"

一名知名研究机构的研究员也表示,没有什么(有效的)方法确定蒸馏的情况,现在大家都互相这么做

不过需要注意,即便 Anthropic 强调24000 个账户与 Claude 进行了超过 1600 万次交互,也不能直接证明 DeepSeek、Moonshot 这些企业利用了上述交互获取的知识,实质上用于了大模型训练。

在此之前,DeepSeek 就曾回应过 OpenAI 指控的蒸馏问题,强调 V3 模型的训练数据都来自于网页和电子书,但也表示相关网页上包含了大量 OpenAI 模型生成的答案,可能会导致基础模型间接受益于其他强大模型的知识。

也就是说,DeepSeek 不否认使用了带有 OpenAI 模型推理的知识进行训练,但这些数据都来自于网页,不是其主动 " 蒸馏 " 的行为。

" 现在这个时代,某个网页不是 OpenAI 官方的但里面有截取的部分对话,这很难避免。" 前述学术界研究员补充说。

马斯克调侃 Anthropic" 偷 " 数据

Anthropic 给中国大模型贴 " 抄袭 " 的标签,社交网络上却出现了不同的声音。马斯克在 X 上转发用户评论时调侃,"他们竟敢‘偷窃’ Anthropic 从人类程序员那里偷走的东西?"

上述被点名的企业中的一位不愿具名的人士说," 可以看看海内外反应,Twitter 评论区还挺正常的,可能大家比较反感 Anthropic。"

用户调侃 " 问大模型训练数据来源 " 是不礼貌行为

和马斯克一样,一位用户在评论区中贴了一张梗图,将 " 问女性年龄 "," 问男性薪资 "," 问 AI 公司的训练数据从哪里来 " 列为不礼貌的行为,暗示大模型训练数据来源之谜。

"(来源)太多了,互联网上的都有可能,大家现在都说互联网数据用得差不多了。" 前述学术界研究员强调。

前 OpenAI 联合创始人、SSI 创始人 Ilya Sutskever 在 NeurIPS 2024 大会上也表达过类似观点,Ilya 认为预训练时代即将结束,数据作为 AI 的化石燃料是有限的。

从这个角度来看,所有模型公司都在 " 燃烧 " 互联网数据以喂养自家基座模型,同样还是马斯克,更是不留情面的批评 Anthropic" 窃取 " 数据,并为此赔了数十亿美元的赔偿。

回到 " 蒸馏 " 这件事情上,融力天闻律师事务所高级合伙人翁才林在 "OpenAI 质疑 DeepSeek ‘蒸馏’ " 时就曾强调,需要从合同法、著作权法、不正当竞争角度来看 " 蒸馏 " 的问题。

翁才林认为,即便使用协议明确禁止 " 蒸馏 ",也可能存在提示义务不足导致协议无效的问题,且协议即便有效,还需要举证中国大模型的行为造成的实际损失。

然而就像前文所述,1600 万次的调用很难直接认定为与 " 蒸馏 " 直接挂钩,这一次 Anthropic 也很难拿出实锤证据。

而在著作权上,翁才林表示,利用模型输出的数据,通常缺乏人类作者足够的智力贡献,很难被认定受到版权保护,即便达到可版权性的标准,也因为平台将输出内容的权利转让给用户,无法主张著作权侵权。

至于不正当竞争,翁才林强调,仅通过公开 API 获取输出数据,而非窃取 OpenAI 内部参数、算法或源代码,则难以认定其存在欺骗、侵犯商业秘密等不正当手段。

" 如果 OpenAI 将合法的蒸馏技术一律禁止,反而可能因其市场支配地位而被认为构成滥用市场优势,阻碍技术创新与自由竞争。" 翁才林补充说。

指控中国公司对其模型蒸馏是表象,打击竞争对手才是核心目的,为了实现这一目的,Anthropic 甚至为自己披上了国家安全的外衣。

" 非法提炼的模型缺乏必要的安全保障,会造成重大的国家安全风险,"Anthropic 在新闻稿中写道,"Anthropic 一直支持出口管制,以帮助美国保持其在人工智能领域的领先地位。然而,蒸馏攻击却破坏了这些管制措施。"

Anthropic 极力将模型竞争与国家安全关联,与最近两届美国政府保持高度一致," 中国大模型第一股 " 智谱一度因此被纳入实体清单,但智谱则强调称缺乏事实依据。

" 这个口径是拜登时期政府提出来的,(Anthropic)他家是去靠这个口径," 美国凯腾律所合伙人韩利杰认为此举既有商业目的,也是营销手段。

" 我觉得有两个原因:一个是价值观比较凸显,一个是为了利益。" 前述长期关注科技政策的研究员表示," 站队美国政府,拿订单和政策。"

2025 年,Anthropic 和美国政府达成了多项重点合作,已经成为美国政府的大模型服务承包商。

根据公开资料,2025 年 6 月,Anthropic 推出专为国防、情报、执法等敏感场景设计的模型 Claude Gov,获得政府合规优先认定。随后 7 月,与美国国防部 CDAO 签约,为国防场景开发定制模型、部署涉密网络,订单最高 2 亿美元。

2025 年 9 月,Anthropic 签署白宫《AI 安全承诺》《AI 教育承诺》,被认定为 " 符合政府 AI 安全与伦理标准 " 的头部企业,获得美国政府采购白名单资格。

不过也需要注意,Anthropic 与美国政府的关系并非牢不可破。

当地时间 2 月 23 日,美国《国会山》报披露其与美国国防部近期有关在敏感领域的应用已经出现分歧,有可能波及近 2 亿美元的订单。

事实上,2 亿美元的订单,影响对于年化收入 140 亿美元的 Anthropic 来说并不算大,更重要的是其高优先级的美国政府承包商这一身份,这对于其未来与 OpenAI 的竞争以及持续的融资来说至关重要。

就在 2 月中旬,Anthropic 宣布完成总额 300 亿美元的 G 轮融资,投后估值达 3800 亿美元。 作为对比,OpenAI 正在推动新一轮投后估值 8500 亿美元的融资。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

人工智能 北京大学 民族主义 美国 香港
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论