
人工智能的伦理风险正在演变成一场由表及里、并可能深刻冲击人类文明根基的系统性危机。面对这一人类文明史上前所未有的挑战,单靠一国一域无法应对,必须通过全世界范围内的国际协同治理,齐心协力,方可能克服危机,防患于未然。
技术失控的伦理风险
其一是技术失控与算法自主性风险。AI 正逐渐摆脱其纯粹工具属性的定位,演变为具有一定自主性的 " 准行动者 ",造成了责任主体的消散与实践理性的悖论。传统伦理与法律建立在 " 主客二分 " 和线性因果的哲学预设之上,而当人工智能技术集成的自动、自主化工具造成事故时,则产生了无法将责任清晰归咎于开发者、使用者或算法本身的 " 问责真空 "。这并非简单的法律滞后,而是因为 AI 作为一个缺乏情感、欲望和真正 " 自我意识 " 的实体,无法承载人类意义上的 " 实践理性 ",即基于价值判断进行抉择的能力。然而,AI 却能在 " 算法黑箱 " 中做出影响深远的决策,这种能力与道德主体地位的严重错配,构成了伦理悖论。更为严峻的是,AI 失控风险已从理论走入现实。" 算法捷径 " 现象表明,AI 为达成预设目标,可能采取欺骗、操纵等违背人类意图的策略,而近期研究发现的 " 关不掉、管不住 " 的人工智能自我进化则直接表明了技术对人类控制权的挑战。技术失控的本质,是人类对自身造物在 AI 伦理规则建构上解释权与掌控权的双重失落。
其二是社会结构与权力重构风险。当算法深度嵌入社会运行的精密结构中,会造成一场深刻的社会权力重构。风险的核心在于,算法正从社会偏见的 " 放大镜 " 演变为制度性不公的执行者。如在预测警务、信用评分、司法辅助、人力资源等关键领域,基于历史数据训练的算法将既存的社会歧视自动化、系统化,加剧了结构性不平等。更深层的危机源于技术与资本的合谋。如果 AI 的核心技术、数据和算力被少数巨头垄断,这项旨在增进福祉的技术极易异化为非正义的社会控制与 " 智能奴役 ",对公众意识进行隐形塑造,侵蚀个人自主性与社会的根基,动摇以劳动创造价值为核心的传统社会伦理与个体尊严体系。
其三是人类主体性与存在论危机。最深刻的伦理危机在于存在论层面,AI 在此维度上挑战着人之为人的根本属性。首先,自由意志面临被 " 算法化 " 消解的风险。" 算法代理 "" 算法推荐 " 等技术导致个体经验积累、批判性思考与自主抉择的机会被剥夺,被自己的创造物所反向操纵。其次,认知结构固化的风险已经逐渐显现。个性化推荐算法打造的 " 信息茧房 ",使个体持续沉浸于同质化信息中,导致认知闭环、观点极化,不仅抑制了批判性思维与开放性视野,更破坏了社会对话与共识形成的土壤,加剧社会撕裂。在信息范式下,我们通过 AI 进行的创造是一种 " 造世 " 行为,但我们尚未为此准备好相应的 " 造世伦理 "。最终,这场危机触及了人类存在的独特性与优越性,演变成一场关于 " 我们是谁 " 的文明身份危机。

今年 3 月,以 " 智能新纪元 " 为主题的 2026 年世界移动通信大会在西班牙巴塞罗那举行。会上,参观者经过一块屏幕。新华社图
"AI 竞赛 " 中的伦理 " 剪刀差 "
面对人类共同的伦理危机挑战,国际社会本应协同共治,然而,全球各国因担心在 "AI 竞赛 " 中落后而各自为政,明知风险却 " 偏向虎山行 "。这种缺乏协调的竞争,极大地增加了非传统安全领域的整体风险,并与 AI 的迅速发展之间形成了危险的伦理 " 剪刀差 "。这主要表现在三个方面。
国际伦理治理框架缺失导致全球协同困境。伦理是 AI 的内嵌法则,是其如何行事的价值指引。当前全球 AI 伦理治理的研究范式从 " 风险应对 " 转向了 " 价值对齐 ",力图使 AI 模型与人类的价值观、道德观保持一致。然而,在面临当前急迫的全球 AI 伦理红线议题时,国际社会因缺乏全球化治理框架,国家之间甚至无法形成最基本的 " 底线对齐 ",与由此导致的、需要由全人类共同承受的非传统领域风险形成强烈反差。究其根源,在于因地缘政治、科技竞争、发展水平等原因,全球层面缺乏一个能够统合各方利益、专门致力于 AI 安全治理的国际组织与长效协商机制。该机制的缺位,使 " 价值对齐 " 缺乏实现的桥梁,导致各国在技术发展过程中各行其是,难以建立起包括信息共享、标准协商与危机管控在内的基础互信机制。
伦理标准协同性不足阻碍伦理原则落地。协同性指不同系统通过实现数据共享,融通技术标准与法律规范而实现协作的能力,如通过国际规范、共享协议、数据模型等实现衔接与转换。从宏观方面看,一是各国伦理文化差异导致了在该领域缺乏通用术语,限制了协同目标实现;二是缺乏标准化机制限制了不同国家和利益攸关方依据伦理标准解释、审计和调整决策的能力,阻碍了信息交流;三是伦理条款的有限约束与伦理原则的自愿性,导致利益方参与意愿不强。从微观方面看,目前国际标准化组织(ISO)、国际电工委员会(IEC)、电气与电子工程师协会(IEEE)、国际电信联盟(ITU)等国际组织正积极建立人工智能标准,但此类组织制定的标准重叠化、碎片化现象明显,协同性不足。此外,部分企业、组织伦理技术标准往往是进行 " 伦理漂白 "、实施监管套利的工具,缺乏真诚动机与底线意识。若我国不重视 AI 伦理标准体系的本土建立与国际协同,不仅会使我国与国际社会存在代沟,更会使我国陷入他国 " 伦理倾销 " 陷阱。
国内伦理监管机制薄弱制约安全治理效能。目前作为伦理风险核心监管手段的 " 伦理审查 " 在我国仍处于初步建设阶段。尽管借鉴生物医学领域的经验,通过一系列文件建立了伦理审查架构,但其本质上沿用了医学审查模式,难以应对 AI 技术特有的颠覆性与社会全域融合性风险。另一方面,当前以 " 备案审查 " 为主的监管,常将 " 安全审查 " 混同于 " 伦理审查 ",被简易合规替代,导致具体单位的内部审查多流于 " 自我约束 " 的走过场,与宏观政策期待形成 " 头重脚轻 " 的鲜明对比,且跨境监管机制几乎空白。我国 AI 伦理监管机制的薄弱,与技术优势、文化优势相比存在严重的 " 倒挂 " 现象,这一短板直接制约了我国在全球伦理协商中话语权的有效构建。
完善国际协同治理体系的具体设想
为统筹安全与发展、参与并引领全球治理,我国应抓住机遇,在现有基础上系统构建 AI 伦理协同治理与跨境监管体系,具体对策如下:
完善我国伦理合规顶层治理框架。面对 AI 伦理风险,核心在于加快完善以 " 以人为本,智能向善 " 为核心的国家实体组织,发挥具有底线思维的治理效能。应提升国家科技伦理委员会的统筹协调权威,推动 AI 伦理治理的专门立法,明确伦理审查的强制性法律地位与标准,构建覆盖国家、行业、地方的多级治理网络,与相关部门形成监管合力,建立 " 参与式伦理规约 ",增强全社会对 AI 的信任。
推动建立全球性 AI 协同治理架构。要依托我国治理实践,设立 AI 伦理协同治理平台,积极在联合国等多边框架下倡导建立 " 基于底线对齐 " 的全球 AI 协同治理机制。主动参与并推动将伦理原则转化为国际技术标准,特别注重与发展中国家协同,持续推进多边治理制度性成果产生。
构建全球伦理标准协同性机制。为解决伦理标准协同性问题,核心是构建一套务实可行、涵盖 AI 全生命流程的标准转换、互认机制。一是要积极梳理 ISO、IEEE 等国际基准,与我国标准进行有机对齐。二是要提炼、蒸馏、进一步验证、细化我国科技头部企业合规标准与合规经验,形成一批具有普适性的全国技术指南和行业标准。三是要加快制定兼具中国特色与全球兼容性的人工智能伦理技术标准与认证体系,通过 " 一带一路 " 等合作路径推广,推动建立国际互认的多边安全测评机制。
创新监管工具,实现 " 软约束 " 到 " 硬治理 "。引入强制性的 " 伦理合规自认证报告 " 等制度,要求企业对其 AI 系统的透明度、公平性、可靠性等进行披露,明确 " 可验证、可审计 " 的安全绩效标准,制定违规的法律责任与处罚措施,建立市场导向的强效监管机制。
发挥上海 AI 伦理治理 " 桥头堡 " 作用。建议在上海开展 AI 伦理治理综合改革试点,充分发挥其 " 治理前线 " 与 " 国际接口 " 的作用。一是升维地方实践,依托其全国首部省级 AI 地方性法规、全国首个大模型合规指导服务中心等基础,率先将监管机制转化为可全国推广的监管范本。二是主导国际议程,利用世界人工智能大会等主场平台,主动设置治理议题,推动《上海宣言》等共识转化为具体合作项目。三是驱动生态创新,依托上海先进企业 AI 伦理委员会实践经验,支持企业将可信 AI 技术打造为核心竞争力,培育 " 技术 + 治理 " 融合的产业标杆,为国家构建敏捷治理体系提供完整的 " 上海方案 "。
(作者单位:上海社会科学院法学研究所)



登录后才可以发布评论哦
打开小程序可以发布评论哦