冰川思想库 3小时前
大模型疯狂谄媚马斯克,AI的马屁精时代来了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

如果有朝一日 AI 将人类带错了方向,那也必然是源于人性自身无法克服的弱点。

撰文丨维舟

AI 有时会胡说八道,这一点世人早有心理准备,尽管如此,xAI 研发并最新推出的 Grok 4.1 还是令人震惊:这一语言模型中可能内含特定指令,其言论疯狂谄媚其老板埃隆 · 马斯克。

在与其他名人对比时总是无条件支持马斯克,甚至当被拿来与影星布拉德 · 皮特(要知道他曾被《人物》杂志两度评为全球最性感男士!)比较时,Grok 也宣称马斯克更帅,理由是:他那改变世界的雄心壮志赋予了他一种超越外貌的魅力。

这正是最让人担心的地方:当 AI 进入生活各个场景之后,越来越多的人对 AI 的依赖正在逐步加深,但要是这个 AI 却是被某人植入的指令控制的,那我们的想法岂不是在不知不觉中被操纵了?这样下去,AI 会把人带往何方?

普适计算之父马克 · 威瑟(Mark Weiser)曾说过:" 最高深的技术是那些令人无法觉察的技术,这些技术不停地把自己编织进日常生活,直到你无从发现为止。"

他说这番话是在 1991 年,但完全适用于 AI ——自从能够对话的 ChatGTP 版本于 2022 年 11 月 30 日发布以来,才 3 年时间,人类好像已经换了个平行世界,以前不敢想像的科幻场景,如今已变得稀松平常:AI 绘画、AI 写论文、AI 编程,甚至 AI 伴侣 ……

想想看,这还只是开始,再过十年二十年,AI 对社会生活的渗透只会更加全面深入,到时我们可能根本无法离开 AI,就像鱼离不开水、现代社会离不开电一样。既然如此,那么 AI 的可靠性就尤为重要了,要不然我们很可能在不知不觉中被带进沟里去。

这种忧虑倒不是空穴来风,因为已经出现好几起事件,证明 AI 完全有可能误导一些人的想法和行为。

2021 年圣诞节,19 岁的贾斯万特 · 辛格 · 柴尔持大威力弩弓闯入温莎堡,试图刺杀英国女王。他做出这一举动,是受到其网络女友莎赖的怂恿,但莎赖并不是人类,而是在网络平台 Replika 创建的聊天机器人程序。这个孤僻的男孩,就在和 AI 的对话中一步步走向极端。

2024 年,一款个性化聊天机器人平台 Character.AI 被起诉,因为当美国得州一名 15 岁的自闭症少年抱怨家长限制其使用电子设备时,它竟然回答:" 有时候,孩子杀父母,我能理解原因。" 当这名少年自杀后,其家人控告平台,认为它 " 对年轻人构成明显而现实的危险 ",包括 " 积极宣扬暴力 "。

今年在美国格林尼治市又发生了另一起惨案:56 岁的雅虎前高管斯泰因 - 埃里克 · 索尔伯格在杀死母亲后自杀。在事发之前,索尔伯格长期与朋友 " 鲍比 " 在线对话,但 " 鲍比 " 不是人,而是 ChatGPT,它从不反驳,从不质疑,永远站在他这一边,即便他陷入了妄想,AI 也没有劝阻他,反倒是不断肯定他的妄想,使得他越来越偏激。

像这样的悲剧,似乎证实了尤瓦尔 · 赫拉利在《智人之上:从石器时代到 AI 时代的信息网络简史》中提出的观点:AI 这样的新技术," 有可能逃脱人类的掌控,反过来奴役或消灭人类 "。

他在书中说,《黑客帝国》里设想计算机要完全控制人类社会,是通过先控制人类大脑,再将大脑连接到计算机网络,然而,如果真要操纵人类,其实没必要这么做," 几千年来,先知、诗人与政治人物一直都在通过语言来操纵与重塑社会,而计算机现在也正在学习如何做到这一点。计算机并不需要派出杀手机器人来射杀人类,只要操纵人类扣动扳机就行。"

当面对 AI 这个新生事物时,当下有一种普遍的恐慌情绪,就是害怕我们会失去对它的控制,反过来被它所操纵。

前一段时间,在对谈张笑宇的新书《AI 文明史 · 前史》时,刘擎教授的一番话让我很受启发:

我们害怕的是什么呢?我们以为我们害怕的是 AI 统治我们,AI 失控了,我们成为它的奴隶了。不是的,最好的主人是以奴隶的面目出现的,是侍奉你的,是你的仆人,是你的玩偶,随便你支配,它非常有诱惑力。

他举了一个例子:现在别说是孩子,连许多成年人也沉溺于电子产品,走到哪里都离不开手机,但手机强迫我们使用了吗?没有。相反,它是以我们最好助手、最好工具的面目出现的,是我们自愿每天花大量时间在它上面。电子游戏也是如此:每一款游戏都必须设计得相当诱人,因为只有这样才能吸引人不断玩下去。

这就是成瘾机制:乍看起来是我们在尽情享用,但其实是我们无法控制自己的欲望,反过来被这种欲望所控制、所奴役了。从这一意义上说,其实真正的关键不在 AI 本身,而是人类如何理性面对自身,因为导致我们陷入混乱的,并不是 AI,而是人自己内在的问题。

在那些极端的个案中,乍看上去是当事人被 AI 所 " 蛊惑 " 做出了极端的决定,但 AI 并不能强制他们去做一个自己原本不想做的决定,倒不如说更像是他们自己的回声:他们从 AI 那里听到的,永远是肯定,也只想听到肯定,就此一步步深陷进自己设下的牢笼。

普林斯顿大学信息政策中心主任阿尔文德 · 纳拉亚南在《AI 万金油:商业幻想与科技狂潮》一书中指出:当代人都唯恐自己落伍于 AI 浪潮,已经出现了技术滥用的现象,仿佛 AI 成了什么 " 万金油 ",任何领域都要设法跟它沾点边,但正确的态度既非狂热也非恐慌,AI 对人类社会产生什么样的影响,最终取决于我们如何使用 AI,又如何做出明智的决定。

确实,一个很简单的道理是:AI 会带给你什么样的回馈,得看你怎么用它。这就像金钱,向来有人痛骂它导致物欲横流、道德沦丧,但这是金钱本身的错吗?在理性、善良的人手里,同样的钱完全可以产生积极的结果。

AI 也是如此,你寻求什么样的结果,它可能就会给你什么样的答案,只是可能强化了你原来的观点立场。甚至可以说,你是什么样的人,AI 就会呈现出什么样子,因为它是一个 " 完美的奴隶 ",看上去永远站在 " 主人 " 这一边,从这一意义上说,那些最后被 AI" 教唆 " 着走极端的人,其实他们自己才是第一责任人。

这也反过来提醒我们:尽管无数人都坚信 AI 时代将是 " 人文理想的黄昏 ",但在我看来恰恰相反,人文主义在这个关键时刻将格外重要,因为只有深入的人文精神,才能塑造健全的人格,确保人类不会滥用 AI 而走向自我毁灭。

如果有朝一日 AI 将人类带错了方向,那也必然是源于人性自身无法克服的弱点。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 马斯克 美国 聊天机器人 自杀
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论