11 月 7 日,英国《金融时报》爆出了一则大新闻:欧盟委员会正计划放宽部分数字监管法规。据报道,欧委会已经拟定了一个 " 简化方案 ",并将在 11 月 19 日对该方案作出决定。目前,该草案仍在委员会内部以及与欧盟各成员国首都进行非正式讨论,在正式通过之前,方案内容仍可能面临更改。
有意思的是,《AI 法案》(AI Act)也出现在了拟放宽的法规清单上。虽然《AI 法案》名义上已于 2024 年 8 月生效,但由于多项条款需分阶段实施,法案事实上尚未正式运行。例如,备受关注的 " 高风险 AI 系统条款 " 将于 2026 年 8 月才正式生效。在这种情况下,法案本身就要面临修改,着实有些令人意外。
众所周知,在数字经济领域,欧盟素来以监管严格著称。坊间曾有一个说法:在数字经济发展上,美国负责创新,中国负责应用,而欧盟则负责监管。具体到 AI 领域,欧盟更是走在了监管前列。当中美等国还在积极研究 AI 立法的必要性、可行性等问题时,欧盟早早推进了相关立法进程,并率先通过了《AI 法案》。而短短几年之后,欧盟的立场就发生了如此重大的改变。这种先紧后松的逆转,原因究竟何在?在修正之后,欧盟的 AI 监管到底会是什么样?这对欧洲和全世界的 AI 产业发展会产生怎样的影响?对于中国来说,这一事件又有何意义?
从紧立法的逻辑
要理解当前 AI 监管上的放松,首先要理解为何欧盟过去会采取严厉态度。许多 AI 从业者批评欧盟 " 自缚手脚 ",认为在中美将 AI 视为竞争制高点、投入巨资发展 AI 的背景下,欧盟却率先拟定严格监管法案,似乎不够理性。但若从政策制定者角度看,这套思路背后其实存在值得重视的结构性理由。
第一,从经济角度看,严监管契合欧盟以中小企业为主的产业生态。
长期以来,欧盟经济结构以中小企业为主体:2022 年,欧盟 27 国有约 2430 万家中小企业,占非金融企业总数的 99.8%,雇佣 8490 万人,占就业的 64.4%,贡献了 51.8% 的经济增加值。与大企业相比,中小企业缺乏大规模试错能力和风险缓冲,一旦面对尚不成熟、潜在负外部性较强的通用技术,更倾向于希望规则明确、风险可控。如果监管过松,一旦出现技术失控、合规缺陷或算法风险,大量中小企业可能陷入困境,冲击就业与产业基础。
因此,严格监管某种意义上是对这一脆弱生态的保护:以规则和合规机制托底,让创新发展在可控轨道内推进。虽然这可能削弱 AI 产业竞争力,但从稳定与安全视角看依然具有合理性。
第二,从政治角度看,从严监管是欧盟维护数字主权的重要方式。
过去二十年,欧洲在搜索、社交、移动生态、云计算等关键技术浪潮中均未取得主导权,缺乏能与中美科技巨头竞争的 " 技术旗舰 "。在这种情况下,规则成为欧洲参与全球竞争的重要工具。
在严格规则下,本土缺乏大型科技企业反而成了优势:反垄断法、GDPR 等法规看似 " 一视同仁 ",在实践中却主要对美国与中国科技巨头施加约束,而欧洲本土企业受影响较小。
在这样的路径依赖下,欧洲逐渐形成制度自信:既然无法成为技术中心,就努力成为规则中心。《AI 法案》正延续了这种 " 制度性竞争策略 " ——通过构建最全面的 AI 治理框架,以 " 合规压力 " 影响跨国企业,将欧洲价值观嵌入未来的全球 AI 秩序。若这一策略奏效,即便在技术上不占先机,欧洲也能在全球治理中保持存在感。
第三,从文化角度看,严监管符合欧洲强调伦理与权利的传统。
欧盟的治理逻辑并非凭空生成,而是源自长期的政治文化传统。与美国强调个人自由、企业创新,中国重视国家协调和产业发展不同,欧洲更强调人格尊严、公共性和群体利益。这决定了其面对技术风险时更倾向 " 风险前置 ",要求技术在广泛应用前先被框定、被审查。
" 预防原则 "(Precautionary Principle)长期存在于欧盟的环境、食品、隐私立法中,也深刻形塑其技术监管逻辑。AI 被视为可能影响劳工权利、弱势群体地位、公共资源分配乃至民主程序的关键技术,因此必须提前建立 " 安全栏杆 "。
从这个意义上看,《AI 法案》不仅是技术法案,更是一部制度伦理法案,体现了欧洲的价值逻辑。
第四,从制度运作角度看,欧盟多国协商结构天然易导致监管趋严。
欧盟是由 27 国组成的复杂政治共同体,北欧强调隐私权,德国强调劳动保护与伦理边界,法国强调国家战略与文化自治,东欧强调政治安全,欧盟议会倾向推动更进一步的监管。在多元立场的拉扯下,最稳妥、最容易达成政治均衡的,就是偏 " 安全侧 " 的严格监管。
尤其当 AI 议题被纳入 " 保护欧洲价值 " 这一政治叙事后,几乎没有政党或利益集团敢于公开主张放松监管。某种意义上," 先紧后松 " 是欧盟这个政治结构内最可能出现的制度均衡。
放松法案的原因
通过前面部分的讨论,我们已经理解了欧盟为何在 AI 治理早期采取较为严厉的态度。那么,问题是:又是什么促使它在短短几年内悄然转向,对 AI 监管 " 松绑 "?
第一,技术红利显现," 风险—收益 " 的对比开始发生倾斜,是促使欧盟态度转向的首要原因。
在 AI 发展早期,风险远比收益显眼。深度伪造、数据滥用、算法歧视等问题层出不穷,而技术的经济回报还不明确。欧盟倾向强调 " 预防风险 ",对 AI 持高度警惕。但 2023 年以来,大模型能力飞跃,AI 技术的实际效益逐步显现。企业应用 AI 提升生产力,公共服务系统引入 AI 改造流程,法律、医疗、金融等行业开始实质性运用,释放了巨大的效率红利。创业活跃、资本加速涌入,AI 成为 " 经济变量 ",政策关注的重心也自然随之改变。
欧盟议会经济与货币事务委员会在 2023 年发布报告称,若全面采用生成式 AI,未来十年或可带来 1.2~1.4 万亿英镑的 GDP 新增量。AI 从一个 " 风险议题 ",转变为 " 技术增长 " 与 " 政策竞争力 " 的战略杠杆。
第二,AI 技术变得 " 更可治理 "。
在早期治理想象中,大模型是不可解释的 " 黑箱 "。系统难以预测,决策路径不透明,AI 生成内容真假难辨、难以追责,让监管者倍感焦虑。但过去两年中,AI 对齐(alignment)、可解释性(explainability)、可控性(controllability)等治理技术不断取得进展。模型生成的内容更加可追溯、可阐释,关键行为可以被及时识别并制止。
行业也在建立自我规范,如大模型公司主动披露模型卡(model card),标注模型训练的数据来源、偏好倾向、可能风险、关键参数等。这些实践让欧盟意识到:AI 不是完全不可控的黑盒,而是一个可以在一定制度与工程架构下进行治理的复杂系统。治理能力越高,监管介入的必要性越低,便可以让位于更大尺度的技术应用。
第三,制度逻辑从 " 预防原则 " 回摆至 " 比例原则 "。
欧盟法传统中最核心的监管理念之一,是所谓 " 预防原则 "(precautionary principle)。即便风险未被完全验证,也要基于科学预测进行前置防范。然而,这套逻辑在发展速度极快、变化路径不确定的大模型时代面临巨大挑战。2023 年后,大模型在能力上已快速超越监管假设,但其风险仍未在现实中大规模显现,此时若仍以 " 最坏情形 " 为基准进行提前干预,反而可能导致错杀创新,扼杀早期探索机会,造成制度失配。
因此,欧盟决策者逐渐回到 " 比例原则 ":只有当风险确实存在,并具有社会伤害性时,才可以与其相匹配地设计监管机制。监管不能 " 过度 ",必须是 " 适度 " 的。这也意味着,监管者要回到 " 证据基础 ",而非仅凭焦虑制定规则。
第四,大国竞争压力使欧盟意识到,在技术竞赛中 " 慢一步 " 并不等于更安全,反而可能被淘汰。
欧盟一开始假设全球技术步调一致,因此可以率先立法、倒逼全球企业合规。但现实是,美国在基础模型领域遥遥领先,中国也在应用端快速推进,而欧盟企业在高度监管框架下发展缓慢。AI 技术是 " 超越式技术 "(leapfrog tech),一旦起跑落后,可能永远追不上。技术代差演化为产业代差、生态代差,最终可能转化为治理能力落差与国际话语权丧失。与其等待完美监管体系,不如先保障本地创新生态健康运行。越来越多欧盟议员认识到:" 监管是为了发展,而不是压制发展。"
第五,欧盟内部政治格局变化,也影响了 AI 政策方向的转变。
欧盟的政策博弈中,一直存在两股力量:强调伦理风险的议会派,强调产业竞争力的执行委员会派。2023 年以来,执委会在数字事务上的主导力持续上升;负责产业政策的委员会(如 DG GROW)不断表达对创新空间的担忧,提出 " 监管应服务于市场主体的现实需求 "。成员国也纷纷提出异议:意大利、西班牙、法国等国家希望 " 豁免开源模型 ",德国强烈主张 " 不能管得太死 "。2024 年之后,议会中部分中间派议员转向,原本较激进的条款遭遇反对,使得监管最终 " 软着陆 "。
第六,外部地缘政治施压使欧盟不得不 " 退一步 "。
欧盟早期对 AI 巨头的立场强硬,制定出高标准、高合规成本的法律草案。而面对欧盟的 " 数字规训 ",美国科技企业一度采取配合态度。但 2024 年中期起,政治局势变化,美国政府强硬反制,特朗普再次上台后直接表示《AI 法案》是对美科技企业的 " 打压 ",威胁欧盟若不修改相关条款,将采取对等报复。谷歌、Meta、OpenAI 等企业随即加大游说强度,不再配合欧盟 AI 道德治理框架,称 " 无法负担合规成本 ",并停止部分合作项目。
多重压力下,欧盟不得不进行政策回调,为 AI 创新与合规探索留出空间。
法案会调整什么?
那么,调整后的法案又会是什么样?相比于原版,它究竟有哪些放松呢?从媒体目前释放的消息看,已经明确会调整的内容将会有如下几个方面:
第一是实施时间上的普遍延迟,一些重要义务的生效时间被推后。
本来,《AI 法案》就被设计为一个严格、分阶段的制度,对于其中每一项义务的生效时间,法案中都进行了严格的安排。但到了真正执行的时刻,欧盟开始意识到,这套精巧的时间表与欧洲企业的承受能力之间存在明显落差。许多中小企业刚刚摸清规则便感到力不从心,而大公司虽然更有资源,却同样担忧严格监管可能拖慢创新步伐。
于是,监管开始向现实让步。执行节奏被放缓,宽限期的长度悄悄增长,原本计划按部就班推进的义务,被调整为循序渐进,适时推动。尤其是对高风险系统、通用 AI 模型(GPAI)相关义务的执行,将会采取更长的宽限期与更温和的启动方式。
第二是通用 AI 模型义务趋向于 " 弱化 ",治理思路从政府监管主导转向行业自律。
原版的《AI 法案》要求所有高影响力的通用 AI 模型必须遵守严格的透明度与治理义务,对于训练数据来源说明、模型安全测试、能耗披露、风险缓解方案等,都提出了十分严格的要求。然而在立法完成后不久,欧盟就对这些严格的要求进行了放松。例如,欧盟方面现已明确,部分义务可由产业 " 代码实践(Code of Practice)",即由企业、行业协会、技术组织共同制定的非强制性的、行业认可的操作准则替代,签署行业准则者可获得较宽松免责与更长的过渡期。
与此同时,对基础模型 " 分级管理 " 的力度也将出现明显的弱化。简而言之,新版法案可能在保留整体监管框架的同时,把强制的监管转化为一套软性的 " 示范—奖励 " 模式,从强调政府监管更多地转向行业的自律。
第三是处罚条款的实际执行向 " 警告优先 " 转型,处罚力度将大为降低。
在原版的《AI 法案》中,最吸人眼球的一项条款是对严重违规行为最高可以处以 3500 万欧元或全球年营业额 7% 的罚款。但在后来的实践中,欧盟的立法者逐步发现,这种高处罚策略不仅难以达到原来预期的威慑目标,反而可能会招来不必要的争议(尤其是外交争议)。在这种情况下,不少立法者建议将处罚的规定改为更为温和而务实的 " 教育—整改—警告—处罚 " 的流程。
目前,欧盟委员会与各国监管机构都明确指出,罚款将只是针对那些拒不合规或造成严重风险的企业实施的最后手段。可以预期,在新版的法案中,对于处罚的操作会施加更多的限制,它在保留威慑和象征意义的同时,具备更多的灵活性。
需要指出的是,除了以上目前已经比较明确的修正内容之外,还有不少正在酝酿、却可以预期的松动方向。
例如,欧盟内部已经开始讨论 " 高风险系统 " 的定义是否过于宽泛。在原版的法案中,教育、医疗、金融、就业等领域的 AI 应用都被大面积纳入高风险分类,但在实际应用中,许多场景并没有想象中的危险。对于企业而言,这意味着不必要的重负;而对于监管者来说,这也会占用大量审查资源。因而,不少专家都建议,应该对目前的清单进行重新调整,以便让监管重点真正集中在最需要关注的领域。
又如,《AI 法案》的 " 域外效力 " 也可能会面临很大的削弱。欧盟立法者在最初设计法案时,一度十分强调跨境监管,强调对海外企业的长臂管辖,但随着与美国、日本等国的数字谈判推进,再加上美国政府和硅谷公司的外部压力,欧盟不得不面对一个事实:如果把域外义务设得太高,欧洲的市场会更封闭、谈判会更困难,而其本土企业也很难在全球竞争中站稳脚跟。因此,未来在执行中,欧盟或许会选择一种 " 务实版本 " 的域外监管,只对进入欧洲市场的产品做最低程度的要求,而不再逐项追究。
另外值得一提的是,欧盟立法者在总体上放松原版法案的各项规则时,也对某些条款和规定进行了强调。其中的一个典型例子就是 " 监管沙盒 "。沙盒本来是配套机制,但随着讨论的深入,人们开始意识到它几乎可以成为整个法案的运作核心。通过沙盒,技术可以在放松监管的条件下试点;企业可以边试边调,监管者也能边看边学。它让所有人都能安全地 " 在泳池边学会游泳 ",而不是一上来就被推向大海。未来,沙盒机制将可能成为欧洲 AI 创新的主要舞台,而不是边角补充。
法案调整的影响
可以预见,在 AI 技术突飞猛进、全球 AI 竞争如火如荼的背景下,欧盟对《AI 法案》的调整,可能对欧洲乃至全球 AI 行业的发展都产生广泛而深远的影响。
第一,这将为欧洲 AI 创新生态重新 " 点火 ",为本地 AI 发展创造条件。
过去两年,欧洲科技界最担心的一件事就是,《AI 法案》可能让本就脆弱的创新能力进一步被削弱。欧洲本就缺乏具备全球影响力的基础模型企业,资本市场活跃度不高,创业环境也远不如中美灵活。一旦监管过严,欧洲很可能在这场 AI 革命中被彻底边缘化,沦为 " 规则的输出者,而非技术的参与者 "。
如今,《AI 法案》的松动有望改变这一局面。从延迟实施到扩大 " 监管沙盒 ",从软化合规义务到强调 " 引导而非惩罚 ",监管正试图与创新保持同频。欧洲的初创企业将不必在起步阶段就背负沉重的合规成本,资本也不再因监管阴影而犹豫不决。而那些试图追赶中美大模型进程的本地企业,也终于在更现实的制度框架下看到了成长空间。
如果说 2024 年《AI 法案》的生效是一阵可能冻结欧洲 AI 创新的冷风,那么此次法案的松动则可能成为令整个生态重焕生机的一缕暖流。
第二,这可能改变全球 AI 竞争格局,使全球监管从单一规则主导走向多中心协作。
在《AI 法案》立法之初,美国、日本、韩国乃至中国,都密切关注其是否会成为新一代全球数字监管范式。如果欧盟坚持严格执行原版条款,那么全球 AI 企业只要想进入欧洲市场,几乎都必须按照欧盟标准训练、部署和运营模型。这意味着,欧洲标准将事实上变成全球范围内的 " 默认 " 标准。
然而,随着欧盟态度松动,全球监管格局也随之生变。美国仍将推进以市场为核心的治理路径,日本与英国则强化 " 轻监管 + 创新试验 " 的策略,中国则可能继续强调产业发展与技术安全并重的平衡治理模式。由此,AI 领域将不再由某一单一规则体系主导,而是形成多个 " 数字治理区域 ":北美的市场导向治理、欧洲的价值导向治理、亚洲的产业驱动治理将并存、互动与竞争。
制度竞择将成为全球 AI 发展的一项新趋势。
第三,这将使跨国企业的 AI 战略更加灵活,加快全球技术扩散速度。
对于跨国公司而言,原版《AI 法案》意味着极高的合规成本。企业不仅需为欧洲市场单独定制模型版本,还需披露大量信息、接受频繁审查。这不仅推高成本,也容易导致 AI 技术在欧洲的部署进程延后。
随着法案调整,企业的合规负担将显著减轻,欧洲不再是难以进入的 " 高地 ",而将成为一块 " 可试验、可调整、可共同学习 " 的制度空间。这将带来两个直接后果:一方面,更多前沿模型将率先在欧洲落地,而不再局限于美国或亚洲;另一方面,企业可在欧洲以更低成本测试不同应用场景下的模型性能,从而加快 AI 技术跨行业扩散。这将显著推动 AI 技术的全球传播速度,不仅加快技术进步,也将促进 AI 在更多领域的普及和应用。
第四,这将推动全球形成一种 " 温和监管 " 新范式,打破监管与创新对立的思维惯性。
过去十年," 监管越严、创新越弱 " 似乎成为许多政策讨论中的潜在逻辑。《AI 法案》刚提出时,这种担忧更是被推至极致。
而此次欧盟的调整,有望提供一个新的治理样本:监管不仅可以矫正偏差,也可以协同发展;制度的效力,不在于它是否 " 够硬 ",而在于它是否贴近产业的真实需求与演进节奏。
这一治理理念的变化将通过跨国企业、学术界和政策论坛逐步扩散至全球,使更多国家意识到:监管并非是为技术 " 戴上镣铐 ",而是要为技术 " 铺设轨道 "。
未来几年,全球或将逐步形成一种更温和、更平衡、注重 " 动态治理 " 的 AI 监管范式。而欧盟此次的制度松动,或许正是这一转变的前奏。
结语
欧盟对《AI 法案》的调整,并不是一场轰轰烈烈的 " 废旧立新 ",也不是价值取向的动摇,而是一种更深层次的制度成熟——在宏大原则与技术现实之间,在风险保障与创新动力之间,欧洲逐渐意识到,面向未来的法律无法在第一次落地时就臻于完美。技术以指数速度前进,而制度只能一步步追赶;若监管不能适时调整自身姿态,终将沦为被时代淘汰的旧框架。
从这个意义上看,欧盟的 " 回调 ",是 " 高标准监管 " 与 " 现实产业能力 " 之间的姿态转变,是一块紧绷的制度肌肉开始学会松弛。它承认一个事实:在人工智能这样迅猛发展的领域,监管必须具备学习能力,允许自己暂时退后一步,让技术、企业与社会共同探索更可行的路径。
当前,中国也在推进 AI 相关立法。在此背景下,欧盟的调整带来三点启示:
首先,监管必须与产业发展阶段相匹配。监管先行固然重要,但若在产业尚未形成核心优势时就施加过重负担,可能会过早压制本土创新。
其次,制度设计应保留试错空间。面对高速演进的技术生态,不应期待规则一劳永逸,而需避免把法律刻成无法调整的石碑,能够在必要时 " 回调 " 和修正。
再次," 风险控制 " 与 " 创新自由 " 之间需要保持更细腻的平衡。中国既是全球最大规模的 AI 应用场景,也是技术迭代最快的市场之一,因此必须在促进发展与防范风险之间寻找动态均衡,而非二选一。
总体而言,欧盟此次调整犹如一面镜子,照见了所有试图为未来技术立法的国家所面临的共同挑战。它提醒我们:真正的监管,不是筑起高墙,而是架起通往未来的桥梁。好的立法,不仅要守住风险底线,也要让创新穿越时代激流,驶向更光明的彼岸。


登录后才可以发布评论哦
打开小程序可以发布评论哦