经济观察报 昨天
温海明:用儒学思想为技术狂奔的AI注入文明基因
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

编者按

2025 年 7 月 9 日至 10 日,第十一届尼山世界文明论坛将在山东曲阜举办。

从 2010 年 9 月创立至今,尼山论坛汇集全球专家学者,汇聚世界文明智慧,共同为解决人类社会普遍存在的问题、为人类文明的未来发展贡献智慧,正日益成为世界了解中国的重要窗口、文明交流互鉴的重要平台、凝聚人类文明共识的重要纽带。

当下,全球政治冲突频发、各国之间经贸壁垒陡增,不同文明之间的对话显得尤为迫切。

本届尼山论坛的主题是 " 各美其美 · 美美与共——文明间关系与全球现代化 ",并设置了 " 文明的起源与未来发展 "" 儒家文化的世界意义和时代价值 "" 齐鲁文化与世界文明 "" 在全球现代化进程中成人之美 "" 文明视野下的家庭意义与社会发展 "" 人工智能发展与人类文明走向 " 等多个分议题。

这个世界如何才能做到各美其美、美美与共,不同的文明如何相处和互鉴,人类才能拥有更好的未来?结合本次论坛的主题和各分议题,经济观察报采访了来自不同国家和地区的学者与专家,以下是来自他(她)们的观察、思考和期望。

经济观察报 记者 钱玉娟

人工智能(AI)经过上百年的发展历程,走过符号推理、机器学习,迈入深度学习的阶段后,正以前所未有的速度改变着世界。

除了与人类进行交流表达,AI 也在重构知识生产逻辑的基础上,狂奔至教育、制造、医疗、交通等多个领域。

从提升生产效率到促进产业升级、经济发展乃至社会进步,AI 这一先进技术工具的效应加速凸显。但包括中国人民大学哲学院教授温海明在内的一些学者,在人类科技文明行至 " 人机共生 " 的十字路口时,指出技术创新存在的隐忧—— AI 发展如 " 双刃剑 ",要确保科技进步不会走向与人类社会发展初衷相悖的方向。

" 让 AI 儒家化。" 温海明在 2024 年第 10 届尼山世界文明论坛上呼吁技术以及背后的开发者能拥有儒家主义心态,目的是让 AI 的应用符合人类发展的长远利益,促进技术和文化和谐共生。

对 AI 技术的演进水平,温海明多从文科领域的应用体验中感知,他肯定这一新的生产力工具带来的效率提升,但他基于意识、心灵哲学的多年研究,再经过系列哲学问题挑战 DeepSeek 等 AI 模型后,发现 AI 文明的构建与科技人文的共融话题,需要被学界重视并深入研讨。

2025 年 6 月,在第 11 届尼山世界文明论坛启幕前,温海明接受经济观察报专访时再次谈及,AI 技术不能无限狂奔,背后掌握着创新内核的开发者们,应在儒家 " 仁学 " 下怀有恻隐之心。在他看来,用儒学为 AI 设置伦理围栏,在科技文明社会发展的目标下,为 AI 重建一个 " 以人为本 " 的伦理坐标系,是在 " 人机共生 " 共识下,比驯化 AI、技术迭代更紧迫的事。

AI 儒家化的必要性

经济观察报:怎样的契机,促动你提出了 " 让 AI 儒家化 "?

温海明:去年尼山世界文明论坛期间,我作为 AI 这一专场的主持人,与相关学者一起讨论的时候,就明确提出,AI 的发展应该儒家化,我觉得这是很有必要的事情。

儒家以人为本,一直倡导仁爱他人之学,认为不论自己还是别人,都是有情感、爱心的生命体,而目前来看,AI 作为人类的一个智能工具,虽然可以增强人们在运算、思考等很多方面的技能和效率,但是机器相对来说是冷冰冰的。

即便如此,我们希望 AI 发展会趋向于 " 把人当人 ",不能在慢慢渗透至人类工作生活相关的场景后,产生技术霸权。AI 发展需要得到正确引导,其发展如果完全没有方向,只是纯技术化地谋求迅速更新迭代,极有可能走向与我们初衷相悖的状态。

现在各行业都在关心 AI 未来会怎样发展,我觉得如果 AI 能自主思考的话,首先需要认真思考与发明它的主人,即人类的关系。一定程度上,AI 能否学着去理解人类,是 AI 技术演进的一个重要课题。简而言之,我希望由人类发明的 AI,今后能够理解儒家的 " 忠恕 " 之道,有推己及人的能力。

经济观察报:AI 技术的飞速发展,不免让行业内产生 "AI 或将替代人类 " 的系列猜想。儒家探究 " 关系性存在 ",你觉得 AI 应该如何更好地处理与人类的关系?

温海明:AI 虽然是一个工具性存在,但它和之前所有因技术创新而诞生的工具不太一样。后者多是由人类去发出命令,技术工具照指令行事,人类有比较确定的把握,知道这个工具会怎么样去实现。AI 则是在人类实现自我认知与技术探索后,发明出来的一个智能工具,现如今它甚至能独立思考,尝试去理解人的想法和情绪,反而是人不能完全理解 AI,不知未来会何去何从。

人类原来是把工具型的技术或能力拿来为我所用,但是现在你会发现,AI 不再是纯粹的工具,它有一定智力,很多时候的表现还会超出我们的想象。所以有些人开始悲观地预判,认为 AI 会在超越人以后再毁灭人。

正是因为预见到可能的危险,我们需要把 AI 往比较乐观的道路上去引导,尽可能防止它变成一个破坏性的力量。从中国古代阴阳学说来看,AI 发展本身有两面性,像一把双刃剑,可能造福人类,也可能伤害人类,这就要求我们去探究如何充分地利用、引导其对人有利的一面,把不利于人类文明社会发展或具有破坏性的另一面减少或者去掉。

在社会生活当中,人的情感也是两面的,绵延两千多年的儒家学说,可以说只强调仁爱、忠恕,强调推己及人," 己欲立而立人,己欲达而达人 ",强调 " 己所不欲勿施于人 "。儒家学说的 " 普世价值 " 在于,它不断强调 " 人之为人 " 的正面、共情且共通的价值。也正因此,人们才能把一个可能潜在不利的东西,转化成 " 为我所用 " 之物。

AI 现在朝着自主学习方向发展,如果人类不去充分、正确地引导,不把它儒家化,那人类就可能面临越来越大的麻烦。

经济观察报:你会担心 AI 未来不可控,技术作恶?

温海明:这是需要警惕的。开发 AI、调教 AI 的技术人员应该有儒家情怀,才能让 AI 充分理解与人的关系,在 AI 思考或做决策的过程中,坚持 " 把人当人 ",才能尽量避免技术作恶的可能。

我觉得 AI 与人的共情能力需要提升,这给开发人员提出了更高要求,而这也反映出,儒家情怀可能是研发工程师们推动技术狂飙突进过程中缺失的东西。

经济观察报:你希望 AI 开发者们拥抱儒家情怀,反观儒学中 " 人之为人 " 的核心价值,是否需要在 AI 时代进行新的价值锚定?

温海明:确实儒家情怀需要与时俱进。我提出人是意念创生的存在,可以通过一个人的意识实化状态,来对其形成监督和判断,也就是说,人的存在,其实就是其意识存在的状态。

人类的意识过去可能通过记录在纸片上存在,之后产生了手机、电脑等表达个人意识的终端设备。今天很多人如果丢了手机,就会像丢了魂儿似的,那是因为人们越来越多的私人数据存在手机上,手机终端已经成为人跟这个世界共在的一部分。

现如今伴随 AI 的发展,一个人若对 AI 的使用愈发频繁,他的意识就会跟 AI 绑定得越深,他也将变成跟 AI 共在的关系人。可以说,AI 时代的人不再是原来单纯肉体意义的人,已经变成了 " 超自然人 " 状态,即与 AI 共生或人机共生的状态。

" 人机共生 " 是趋势

经济观察报:你也提及人们对 AI 的认知、判断已分化为乐观、悲观两派,这也引申出了人文社会与技术融合与冲突的讨论。

温海明:其实讲到人机共生体,就代表当下人类文明与 AI 这种机器智能已经是一个融合状态。

我长期研究意本论,认为人之为人的存在,最根本是意识存续的状态,当人的意识和 AI 深度绑定,高度融合,这可以说是中国传统哲学心物一元或心物交融的现实体现。

西方哲学主张心物二元,认为身体和心灵是分开的,心灵、意识又和物质分开。AI 技术发展下,身心关系、心物关系越来越趋向一元论,因为人和终端以及 AI 已经深度绑定,今天愈发走向了一种类似量子纠缠的关系,人与世界之前的那种关联关系,今天变成了人机一体化、人与 AI 一体化的共生状态。

经济观察报:中国哲学主张天人合一,这和现今技术演变背景下,绝大多数人对未来 AI 世界的趋势预判是 " 人机共生 " 有逻辑共通性。

温海明:对,现在我们已经处于人机共生、人机交融的状态,最后走向的将是人类与 AI 世界混于一体,技术帮我们实现了人和 AI 世界深度绑定、融通一体的可能性。

经济观察报:在 AI 与人类文明的创新融合中,现实中已有不少传统文化、历史古籍等基于 AIGC(人工智能生成内容)再呈现,像哲学这类深奥的思想,是否有被 AI 从技术和深入学习后消解了文化深度的可能?

温海明:这要分不同层面来讲,首先要看数字人文,不只是经典古籍,像一些博物馆已经利用 AI 数字技术 " 复原 " 佛像,将流失海外的佛头与佛身虚拟地连接出来,供国人一睹佛像当年完整的状态。还有像清明上河图这样的画卷,通过 AI 视觉化的呈现,让观众的感受更生动。

在数字人文方面,AI 有很正面的价值,它让不少经典 " 复活 ",这种文化与技术的融合是一个活化的过程。

不过,AI 对经典的诠释,除了形象化的呈现,还需要对经典本身的内涵义理有更深理解,这是当下比较难的事情。

我认为在中国传统文化中,最为精深奥妙的便是与哲理性相关的内容,比如书法的气韵,文字蕴藏的义理,经典背后的历史情景,古人交流的语境等。这估计是 AI 特别难理解的方面。

AI 可以处理文字、图像资料,甚至再创作加以呈现出来,一旦涉及到哲学义理的知识,AI 的长处在于整理,不在理解。从目前对一些 AI 产品的体验来看,AI 离充分理解哲学还有距离,要真正消解人类文化的深度不容易。

经济观察报:哲学学者一般会拿怎样的问题去挑战 DeepSeek 们呢?AI 给出的回答,又有哪些会让你惊喜?

温海明:如果用一些比较难理解的哲学问题去挑战 DeepSeek,会发现它对很多问题有大概的了解,也能回答清楚,但它往往是对问题有通用型的理解,对类似问题甚至会重复相关回答。

AI 表示它也懂,大概知道问题出自哪里,什么意思,它看起来能给你解释得头头是道,让你觉得 AI 确实有经验,一旦你多次提出类似的问题,会发现 AI 回答近乎雷同。

分析是一套方法,显然 AI 的理解分析能力还有较大的提升空间。但不管怎么说,AI 的资料、数据丰富性已经超出大部分人所能得到或想到的程度,它的运算处理速度也更快,对人类的工作提效带来很大帮助。

经济观察报:给 AI 提供丰富的知识库甚至场景学习,让它加速进化迭代,一个被人类驯化得更好的 AI,能与人类文明融合得更快?

温海明:如果一座 " 观音 " 机器人不仅会合掌诵经,还会在人们向它发问时,给出有佛学意味且令人满意的回答,民众就可能开始供养这个机器人,会尊崇 AI 为大师。

这就像 DeepSeek 们可以回答各种各样的问题,一下子震惊所有人,即使佛学、道学等深奥问题,也可以有问必答。一定程度上说明,伴随技术发展,AI 通过深度学习,是能理解哲学义理的。我们可以思考,AI 基于算法、理性,最后是否能提升到人类直觉性或者开悟性的状态。

可能的 AI 佛祖也许会表现出 AI 开悟的那面,AI 能进化到怎样的状态?投喂大量数据,让 AI 进行海量学习之后,AI 可能也会突然开悟。

人类社会繁杂的数据在 AI 面前都成了小儿科,至于最精妙的义理,能不能被 AI 所拥有,有的人持乐观态度,我不能判断 AI 行与不行,只是要强调的是,一旦 AI 在哲学方面都能够超越人类,它真的就变成一个大师级的存在。如康德所说,理性分析还是有边界的,AI 目前基于数据、算法等与人类进行的交互,还是偏理性的,一旦要上升到开悟状态,需要超越理性的边界。

经济观察报:超越性是指 AI 在情感意识方面的融入,超越机器化,像人一样是理性加感性的?

温海明:目前 AI 总体来说还是理性地对海量数据、资料进行学习,它能否加入感性思维,又会引发不少悲观态度的人思考,AI 有自我意识和情感后,就像人一样思考和体验,且它的运算能力远远超过人类,一旦 AI 的情感是反人类的,那就很麻烦。

这也是我主张让 AI 儒家化的原因所在,当 AI 有了感情,就更要驯化它具有恻隐之心,能够理解人,甚至对人有同情心。目前大家都知道 AI 不一定是善良的,在它还偏机器和工具的时候,若不正确规范引导,一旦出现反人类的情感,就等于人类把自己送上了毁灭之路。

不仅是设置 AI 伦理围栏

经济观察报:儒学讲 " 己所不欲勿施于人 ",从科技人文视角看,是否也应该 " 己所不欲勿施于 AI"?技术创新背后紧跟着的是治理问题,现在像 AI 医疗等应用落地场景下,非人决策引发的伦理讨论备受关注,你的相关研究中,哪些可以作为 AI 伦理的原则性标准?

温海明:伴随技术发展,引入 AI 伦理相关讨论特别有意义。不只是 AI 生物诊疗中的医疗决策开始非人化,由机器做决策的还包括当前火爆的无人驾驶相关。

过去,医疗、交通驾驶的决策,其责任主体都是人,如今 AI 机器决策,反倒成了医疗机构、驾驶员撇清责任的借口。

机器本应该是人的价值延伸,作为辅助技术来帮助人,而非彻底代替责任主体。即便技术无限发展,真正彻底实现了无人驾驶以后,AI 也无法保证 100% 不出错,假设事故率是 1 ‱,AI 也不应该因为容错率就不担责任。

人类作为责任主体,可以被要求承担责任,那么 AI 时代该由谁来限制可能出现的问题,约束其不会因为技术狂奔走向相反的方向?

经济观察报:开发者们不回避 AI 仍是存在幻觉的,难以避免会出错,这就像给了 AI 一个免责的合理借口。

温海明:人类驾驶时因为累出现了幻觉,造成事故,要负相应的责任,这是后果论。今天到了 AI 时代,不能因为 AI 可能有幻觉,就让相关人规避责任。

AI 既然已经介入人类工作生活等多个场景,那它在进行相关决策后就要负相应的责任,相对来看,AI 的容错率应该比人还低,其要负的责任则更高才对。

不能因为 AI 是新技术,就纵容它出错,尤其在可能伤害人类的情境当中,背后训练 AI 的技术人员不能逃避相应的责任。

经济观察报:用伦理规则约束 AI 技术,其实在行业内已有较高呼声,但面对狂奔在前的技术,你觉得该如何避免上述规则或讨论声音沦为技术发展的附庸?

温海明:与驾驶相关的伦理规则、责任事故认定等,是和驾驶、公路等技术一并发展起来的,到今天已经是相当完善的状态。所以 AI 治理或伦理的探讨,需要和技术发展同步进行。

我担心优先技术发展再去做治理的方式,极有可能让一些想逃脱伦理责任的人,在 AI 应用落地的诸多可能性当中,做一些不合伦理或难以被监督治理的事情。

因此,我也呼吁 AI 伦理、AI 治理甚至相关法律的介入,都应该是与技术发展同步,要坚持 " 以人为本 " 的基本原则,为 AI 发展设置约束的围栏。

人类社会创新生产出来的技术,不管如何高精尖,都不能脱离 " 以人为本 ",一旦以技术为本,让技术狂奔,AI 或许有一天会在理解人后,更肆意地操控人、伤害人,这是很可怕的事情。

经济观察报:你觉得眼下的 AI 技术,是否称得上人类文明发展进程中一个比较乐观的技术伙伴?

温海明:我认为 AI 的发展应该像手机、电脑那样为人所用,超出为人所用的部分,需要谨慎,这也在一定程度上要求技术相对缓慢地演进。

像很多车载场景已经接入了自动驾驶技术,但驾驶的伦理、法规并没有修改,现在行业强调自动驾驶还是工具,不应该仓促地大力推进,毕竟这一技术涉及到人类的生命财产安全。手机、电脑等诞生出来的时候,也有不少技术因不能真正帮助到人,渐渐被淘汰。AI 发展同样,我们对待这一新技术,能否像目前已有的技术一样,有更多的耐心,朝着对人有利的角度去开发?

技术演进要循序渐进,而背后做研发的技术工程师们,更不该无限狂奔,避免给人类社会发展带来伤害的可能。

经济观察报:能感受到你期许将来能进入一个 " 人机共生 " 的新型文明生态,但又不希望这个进程太快。

温海明:确实,技术应用于人文发展存在不利的方面,该规避就规避,该限制就限制。现在人们极度关注 AI,经常看到一些宣传说 " 五年之后 AI 会替代多少行业 ",这种说法其实是在制造焦虑,是不应该出现的。

经济观察报:科技圈会勾勒一个技术普惠的愿景图,而 AI 因为算法被认为存在规则不平等,你如何从哲学视角分析算法对人的区别性?

温海明:AI 到底是让社会更公平,还是加剧了不公平,这是很有意思的话题。今天通过终端应用等获取来的信息几乎没有信息差。但算法不同,控制 AI 和算法的人,将其变成有用的工具,而让大多数人成为算法操控的对象,这就回到了 AI 儒家化的问题。

手握 AI 先进技术,用算法控制信息的人,如果没有儒家情怀,就会把人变成资源,视人为 " 矿 ",通过非人化手段将人变得物质化,这是很可怕的。

经济观察报:真正实现 AI 普惠,其实契合儒家所倡导的 " 天下大同 " 思想,只是,想要切实促进人类科技文明社会的发展,眼下行业还有很长的路要走。

温海明:对,我觉得首先要有耐心,顺其自然,发展 AI 不能操之过急;其次是问题衍生出来,就要及时讨论解决办法,及时治理;第三是人类创新开发出来的一切前沿技术,不论应用于人类社会的哪些方面,都必须 " 以人为本 "。

AI 融入并推进人类社会发展,一定能够推动人与人之间实现更多公平、普惠。

经济观察报:你与多位学者在今年展开一些思想学术讨论,其中就涉及对 AI 葆有质疑、批判精神,这是心灵哲学领域对 AI 与人类文明融合的共识吗?

温海明:对,中西方哲学家们都在对 AI 进行思考,担心 AI 慢慢地自我进化,将来有意识、情感后,它若脱离人类控制,将会给人类社会带去不可想象的麻烦。

当然未来 AI 是否会不可控地闯入人类文明生态中,取决于掌握着顶尖技术的科学家们,他们是否能够掌控、引导 AI。总而言之,要展望人类科技文明的乐观将来,一件重要的事就是用儒学思想为技术狂奔的 AI 注入文明基因。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 人工智能 山东 技术创新 中国人民大学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论