硅星人 2025-12-18
Nature 杂志:全球应该积极响应中国的 AI 治理主张
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

12 月 11 日,《自然》发表了题为《世界应该积极参与中国的 AI 监管推动》(The world should engage with China's AI-regulation push)的文章,文章直接点名中国在 AI 监管上的主导地位,并呼吁全球各国积极参与中国提出的 " 世界人工智能合作组织 "(WAICO)倡议。这不仅是对中国在 AI 治理方面推动力的认可,更是对全球合作思维的呼唤。

AI 的进步与风险并存,全球监管框架的缺失是亟待解决的问题。这一倡议,能否成为未来全球 AI 监管的引领者?《自然》这篇文章,正是从这一角度出发,提出了全球 AI 治理必须超越地缘政治竞争、实现国际合作的核心观点。

在文章中,《自然》不仅详细分析了各国在 AI 监管方面的差异,还为中国提出的 AI 治理框架给予了高度评价,特别是在全球性监管和跨国合作方面的推动。

以下是这篇社论全文内容,经简单的编辑整理,分享给大家:

原文链接:https://www.nature.com/articles/d41586-025-03972-y 全球 AI 监管面临领导力真空

过去几年,围绕人工智能发展和应用的国际对话、白皮书和咨询小组建议层出不穷。然而,当需要将这些讨论转化为全球性规则,以最大化 AI 的益处并最小化其危害时,却出现了领导力真空。

正如《自然》上周报道的那样(Nature https://doi.org/qhbv; 2025),有一个国家正在推进改变这一现状的计划。中国提议建立一个全球性机构来协调 AI 监管,该机构被称为 " 世界人工智能合作组织 "(World Artificial Intelligence Cooperation Organization, WAICO)。建立这样的机构符合所有国家的利益,世界各国政府都应该参与其中。

AI 模型拥有惊人的能力,可以极大地推动科学发展和促进经济增长。但它们并不完全理解世界,可能以不可预测的方式失效。它们可能造成多种危害,包括加剧不平等、助长犯罪活动以及协助传播错误信息和虚假信息。一些知名研究人员甚至认为,超级智能 AI 有朝一日可能摧毁人类。

各国监管路径的巨大差异

美国:企业自律与监管缺失

迄今为止,在开发 AI 的 " 疯狂竞赛 " 中,这些风险并未得到应有的重视——许多人担心这场竞赛已经制造了一个即将破裂的经济泡沫。美国是许多最强大、使用最广泛的 AI 模型制造商的所在地,但该国没有国家级的 AI 法规,只有零散的州级法律。总体而言,美国的公司被期望自我监管并建立自己的内部防护措施——同时还要处于无情的竞争之中。

根据位于加利福尼亚州坎贝尔的未来生命研究所(Future of Life Institute)12 月 3 日发布的大型科技公司安全与风险政策最新评估—— AI 安全指数,按 A 到 F 的评分标准,没有任何一家美国公司的得分高于 C+详见 go.nature.com/48ikyhv)。然而就在上个月,美国总统唐纳德 · 特朗普启动了一项名为 " 创世纪任务 "(Genesis Mission)的倡议,该倡议将为开发 AI 模型的公司和研究人员提供前所未有的政府数据集访问权限。该政府将其与阿波罗登月计划相提并论。

欧盟:立法与执行的挑战

在欧洲联盟,去年推出的《人工智能法案》要求最强大的先进 AI 系统的制造商加强对其模型所构成威胁的分析。该法案正在分阶段实施,目前尚不清楚对不合规行为处以巨额罚款的威胁会产生什么效果。媒体报道表明,企业正在向欧盟施压,要求其放松法律限制。

中国:系统性监管的加速推进

与此同时,中国走出了自己的道路。其政府正在努力将 AI 嵌入整个社会,从地方政府聊天机器人到能够加速生产的工厂机器人。但其监管机构也一直在推动 AI 输出的可追溯性和公司问责制(值得注意的是,中国 AI 公司在 AI 安全指数上的得分甚至低于西方同行,部分原因是未能解决灾难性误用问题,这是根据未来生命研究所的说法)。

自 2022 年以来,中国引入了一系列法律和技术标准,要求开发者在部署前向监管机构提交生成式 AI 模型进行安全评估,并在 AI 生成的内容上添加可见的、不可消除的水印,以防止欺诈和虚假信息。这一推动正在加速:根据总部位于北京的人工智能安全咨询公司 Concordia AI 的数据,中国在 2025 年上半年发布的国家级 AI 要求数量相当于过去三年的总和

理解中国动机:不仅是政治稳定

南加州大学洛杉矶分校的法律研究员和技术监管专家 Angela Zhang 表示,中国官员希望防止 AI 动摇政治稳定,但仍然允许它被用于促进经济增长。任何试图以安全的名义控制 AI 模型输出的尝试——无论是出于政治目的还是为了使输出与社会价值观保持一致——都仍然充满困难。

但正如神经科学家和 AI 企业家 Gary Marcus 在 10 月份伦敦的一次活动中对记者所说的那样,在许多方面,中国的动机与其他国家 " 非常相似 "。" 他们不想被机器人消灭。"

理解中国的 AI 标准对每个人都很重要。 该国生产免费或低成本访问的 " 开放权重 " 模型的政策意味着,世界各地的公司越来越多地在中国 AI 的基础上构建他们的服务。 同时,重要的是让中国研究人员多边参与,以帮助评估什么样的全球治理既有效又现实。

现有国际监管框架的局限

目前在全球层面监管 AI 的努力——例如经济合作与发展组织(OECD)的 AI 原则和欧洲理事会的 AI 框架公约——要么不具约束力,要么未被强制执行。要有效监管 AI,需要独特的解决方案,但 WAICO 可以借鉴的一个模式是维也纳国际原子能机构(IAEA)用于监管核能的模式。该模式涉及各国同意发展限制,并开放核设施供检查,从而允许各国验证其他国家是否遵守该体系。

超越地缘政治竞赛的视野

围绕 AI 的许多言论将其框定为一场地缘政治竞赛,认为一个国家的安全是由技术主导地位来保证的。但 " 获胜 " 对大多数国家来说不是一个选项,AI 军备竞赛不会保证人们更安全或更富有。

更好的计划是让每个人齐心协力,就什么是安全的以及世界如何利用 AI 达成一致。中国的倡议应该受到欢迎,世界各地的研究人员和当局都应该参与进来。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 人工智能 竞赛 美国
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论