腾讯科技 前天
AI终极恐惧:超级智能赢了战争后,人类会沦为保护物种住进动物园吗
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

划重点:

硅谷部分研究者认为 AI 有 50% 可能性在十年内威胁人类生存,他们为此建造生物避难所储备食物等,甚至研发专业级空气过滤系统应对可能出现的 AI 生物武器威胁。

部分科技从业者采取 " 倒计时生活方式 " :花光退休金、尝试致幻药物、大规模冷冻卵子。这种消费行为背后是 " 及时行乐 " 的末日心态。

敏锐的创业者已在开发模块化生物避难所,提供从空气过滤到辐射防护的全套方案。同时出现的还有 " 韧性顾问 ",专门指导富豪如何在全球性灾难中保全资产。

对冲基金高管警告:未来 3-5 年是积累财富的最后机会,未及时完成资本积累的家族可能沦为 " 数字农奴 "。

AI 安全研究员亨利表示,如果超级 AI 获胜,保留部分人类作为 " 保护物种 " 或是相对理想的结局。

人工智能(AI)的迅猛发展正在撕裂人们对未来的认知——有人视其为通向富足时代的钥匙,有人则坚信它将引发人类存亡危机。

在硅谷的科技精英圈中,一场前所未有的 " 生存策略分化 " 正在上演:

AI 研究员亨利花费上万美元建造生物避难所,储备三年食物以防范 "AI 制造的致命病毒 ";

OpenAI 前员工科科塔伊洛停止储蓄退休金,认为 " 未来几十年可能变得毫无意义 ";

数据科学家阿普瓦转而追求 " 颜值与社交 ",只因 " 智力即将被 AI 淘汰 ";

甚至有人因对 AI 风险的立场分歧而选择离婚 ……

从挥霍积蓄的狂欢派对到打造 3.9 万美元的末日避难所,从冷冻卵子保 " 基因火种 " 到争夺 " 最后赚钱窗口期 " ,这场集体焦虑的背后,是人类面对技术奇点时最赤裸的生存本能与价值重构。

01 AI 研究员的末日预言:人类只有 50% 的生存概率

亨利是一位看起来有些孩子气的 AI 研究员,他预测在未来几年内,AI 技术将发展到极致状态,届时对人类生存构成根本性威胁的概率高达 50%。

亨利在旧金山湾区的一家小型 AI 安全实验室工作,每天的任务就是尽力阻止这种可怕场景成为现实。为了这个使命,他不仅放弃了个人感情生活,还将每月收入的三分之一捐给专注 AI 安全的公益组织。

工作之余,亨利也在为最坏的情况做准备。他正在亲手打造一个生物防护所,用来保护自己和家人免受 "AI 末日 " 的威胁。按照他的说法,建造这样一个能抵御 AI 可能制造的致命病毒的避难所非常简单:只需要购买一个现成的正压帐篷(通常充当植物培育室),在进气口安装多层专业级高效空气过滤器,再囤积足够三年消耗的食物、饮用水和其他必需品。

亨利估算这个避难所的总造价相当便宜,可能不超过 1 万美元。他坚持使用化名接受采访,因为不想背负 " 末日准备狂 " 的社会标签,特别是如果最终证明他的担忧是多余的,人类平安度过这场危机的话。

像亨利这样将金钱投入到应对自己最深层恐惧的人不在少数。在硅谷的某些圈子里,AI 不仅仅被视为下一波科技浪潮,而是即将彻底重塑社会的革命性力量。对这些先行者来说,关于 AI 未来的讨论早已不是纸上谈兵,而是必须立即采取行动的现实问题。

" 很多人以后回顾这几年时会想,要是当初我们多做些什么,或许就能避免灾难发生。" 亨利如是说。

有人将 AI 视为开启人类富足时代的钥匙——当绝大多数脑力劳动都能被自动化时,我们将迎来前所未有的繁荣。但也有人预感到经济灾难即将降临,并据此调整自己的职业规划和投资方向。更有一群人坚信 AI 终将脱离人类控制,获得消灭所有有机生命的能力。这些人正在挥霍退休积蓄,组织各种 " 疯狂派对 ",同时建造生存避难所。

" 以后人们可能会后悔,为什么当初没有抓住机会做出改变。" 这句话道出了他们的心声。

02 在末日阴影下,活出人的样子

正如英国文学巨匠 C.S. 刘易斯在 1948 年写下的这样一段话:" 如果原子弹注定会毁灭我们,那么当那一刻来临时,让我们依然保持着人性的尊严,做着理智而人性化的事情——祈祷、工作、教书、阅读、聆听音乐、为孩子洗澡、打网球、与友人把酒言欢、玩飞镖——而不是像受惊的羊群般蜷缩一团,满脑子只想着即将降临的灾难。"

在与一些担忧 AI 影响的人交流时,不少人明确引用了刘易斯的这句话,许多人也表达了类似的情绪,即他们正努力珍惜当下的时光。

旧金山湾区恋物癖研究员艾拉在社交媒体上拥有大批追随者,她在谈起对 AI 发展的担忧时说:" 知道吗?AI 可能毁灭人类这件事,反而让我解脱了。我喜欢举办奇怪的狂欢派对,我想——反正我们都会死,谁还在乎更奇怪、更刺激、更疯狂的派对?现在就去做!"

面对 AI 可能毁灭人类的恐惧,艾拉坦言:" 我没法直面这个巨大的威胁,只能偶尔用余光瞥见它,在情绪能承受时才敢稍微想一想。" 这种焦虑让她选择活在当下——挥霍积蓄、尝试违禁药物、大量冷冻卵子。" 就当是给自己留个乐子。" 她轻描淡写地说。

相较之下,风险投资人维沙尔 · 迈尼的态度更为克制。他主张 " 遗愿清单式的生活 ",即在有限的时间里,专注于做真正重要的事。

迈尼勾勒着未来几年的图景,眼神中闪烁着不确定的光芒," 我们可能迎来 AI 赋能人类的美好时代,也可能坠入被技术淘汰的黑暗深渊 "。在这种不确定性中,他提倡 " 原始未来主义 ":在这个被算法推送和虚拟体验淹没的数字丛林里,要主动选择真实的人际往来。

他说:" 当我们进入 AI 伴侣时代,虚拟世界将变得比现实更精彩,我们有两个选择:你会选择在元宇宙里沉沦,还是选择留在现实世界?"

03 当 AI 成为婚姻杀手:一对硅谷夫妻的终极分歧

霍莉 · 埃尔莫尔的婚姻,最终败给了对人工智能的不同恐惧。她和前夫都对不受限制的 AI 发展风险深有感触,但在遏制 AI 的方式上存在分歧。

作为反 AI 抗议团体 " 暂停 AI"(Pause AI)的执行董事,她坚信必须动员民众抵制 OpenAI 等科技巨头的 AI 研发。而她的前夫罗尼 · 费尔南德斯,虽然同样担忧 AI 风险,却无法认同妻子的激进做法。

埃尔莫尔解释称:" 这段婚姻或许本就不该开始,要继续在一起,我就没法全身心投入反 AI 事业。" 而对她而言,这场抗争不仅是工作,更是人生的意义所在。

费尔南德斯则通过电子邮件回应道:" 我确实认为,试图通过制造对立来实现政策目标,历史证明其往往会适得其反。这些分歧导致我们双方都产生了怨恨,最终导致了离婚。"

尽管费尔南德斯认为将 AI 实验室视为 " 政治敌人 " 可能会适得其反,但他强调:" 在几十年内,比人类更智能的 AI 将‘直接杀死所有人,或导致更糟糕的后果’的可能性很高。"

04 AI 时代的金钱观分裂:从 " 放弃储蓄 " 到 " 加速敛财 "

对于有些人来说,他们对 AI 的梦想和最坏的担忧改变了他们的金钱观。

28 岁的 AI 研究员丹尼尔 · 科科塔伊洛(Daniel Kokotajlo)曾是 OpenAI 员工,但在 2024 年因不满公司的安全政策而离职。他在文章《AI 2027》中预测,AI 的快速发展可能导致多种 " 失控 " 情况发生,AI 可能在 2030 年左右引发世界大战,甚至在 2035 年释放致命化学喷雾导致人类灭绝。

基于这种极端风险,科科塔伊洛决定停止为退休储蓄。他说:" 我手头有一笔钱,还持有很多股票,但我打算把它们都花掉。既然未来可能不复存在,何必为几十年后存钱?"

类似的观点在硅谷 AI 圈蔓延。Anthropic 研究员特伦顿 · 布里克也曾在播客中称,他同样停止了为退休储蓄,因为他相信 AGI 正快速临近。 他解释称:" 我很难想象,把所有的钱都存放在账户里,等到 60 岁时取出来,却发现世界已经发生了翻天覆地的变化。"

与放弃储蓄的人相反,另一批科技从业者正疯狂积累财富,因为他们认为 AI 将迅速固化社会阶层。加密货币作者 Redphone 警告:" 我们只有几年时间实现财务自由,否则可能沦为 AI 统治下的‘数字农奴’。"

前 Facebook 分析师哈伦 · 乔杜里创办了 AI 公司 Autoblocks,他也有类似的担忧。他认为未来几年是他为自己和孩子积累更多财富的最后机会。他说:" 未来资源会更稀缺,社会流动性将冻结,现在是为下一代积累财富的最后窗口。"

AI 对冲基金 AlphaFund 的高管马西 · 布兰斯科姆更直言不讳地阐述了这个概念:" 如果你没有将自己定位为 OpenAI 和 Anthropic 等这些顶级 AI 实验室的核心成员,还在过着那种被称为‘打工族’的生活,那么你就有被淘汰的危险,而且未来会更艰难。这些工作将不会再回来。"

当然,并非所有人都接受这种极端预测。范德堡大学哲学教授大卫 · 索斯塔德虽然因 AI 不确定性增加了储蓄,但他提醒:" 湾区科技圈很容易陷入群体思维,过度放大 AI 威胁。当人们沉浸在某种极端的 AI 世界观中时,就很难跳脱出来。"

05 AI 末日威胁催生新产业

有些人不仅在为 AI 引发的 " 金融末日 " 做准备,更在为 AI 引发的 " 终极末日 " 做准备。

乌尔里克 · 霍恩的职业生涯经历了戏剧性转折。这位曾致力于可再生能源的宾夕法尼亚大学高材生,如今在斯德哥尔摩经营着一家名为 Fonix 的特殊企业——专门生产售价 3.9 万美元的模块化生物避难所。他的转型源于对 " 镜像生命 " 技术的担忧:这项能创造自然界生命镜像形式的技术,可能被 AI 加速研发成毁灭性生物武器。

" 五年内,AI 就可能掌握制造超级病原体的能力。" 霍恩说。他的避难所配备军用级空气过滤系统,首批订单已排到 2026 年交付。这个看似小众的市场,正吸引着越来越多焦虑的科技富豪。

霍恩并非唯一一个将 AI 的潜在威胁视作商业机会的人。威奇塔州立大学商业分析助理教授罗斯 · 格鲁特泽马赫正在成立一家 " 韧性 " 咨询公司,旨在帮助企业和个人为 AI 及其他生存风险带来的重大冲击做准备。格鲁特泽马赫还在怀俄明州购买了土地,计划在那里建造自己的私人避难所。

企业家詹姆斯 · 诺里斯长期以来一直担忧人类面临的各种威胁,他最近搬到东南亚某秘密地点,他称那里为 " 生存庇护所 ",并提供咨询服务,协助他人建立庇护所。诺里斯表示,他已经决定不再生育,因为他相信 AI 将给世界带来浩劫。

尽管存在个人担忧,前 OpenAI 研究员科科塔伊洛对任何积极准备应对 AI 可能带来的灾难的尝试表示怀疑。他说:" 我认为更可能的情况是,要么我们都死了,要么我们都安好。我觉得如果我花几周时间,做一个应急包,建一个生物避难所,某些可能的未来情景下,这也许能拯救我的家人。但对我来说,做我该做的本职工作,比这些事情更重要。"

与之相比,AI 安全研究员亨利似乎改变了主意,不再尝试建造生物避难所。他认为自己之前的计划不够宏大,现在正尝试在加州购买土地,准备建造更永久性的防御设施,保护更多的朋友和家人。亨利说:" 我主要考虑的场景是未对齐的超级智能掌控一切。"

他正在为不远的未来做准备,届时一个全能的 AI 将对人类发动战争,但 "AI 依然可能保有一点同情 "。他总结道:" 最可能的结局是超级 AI 获胜后,保留部分人类作为保护物种。而我宁愿被关在人类动物园里,也不愿被生物武器杀死。"

06 " 乐观末世论 ":人类是否应当为 AI 让路?

在硅谷精英圈的另一极,活跃着一群被称为 " 乐观末世论者 " 的人物。他们秉持一个颇具颠覆性的信念:数字生命的崛起,是宇宙演化中自然且理想的下一步。

早在 2015 年,埃隆 · 马斯克就曾与谷歌母公司 Alphabet 时任首席执行官拉里 · 佩奇就 AI 安全问题激烈交锋。佩奇当时主张,不应限制数字思维的进化,而应 " 放开束缚,让最优秀的智能胜出 "。他甚至直言担忧人类命运的马斯克是 " 物种沙文主义者 ",即认为自身物种在道德上高人一等。

尽管在 AI 研究界尚属少数派,但 " 不担心 AI 最终取代人类 " 的这一立场,其拥护者中不乏极具影响力的人物。

图灵奖得主、著名 AI 学者理查德 · 萨顿便是代表人物之一。他承认,AI 科学家正在努力创造比现有任何物种都更聪明的实体,而更聪明的实体,很可能也会更强大。但他反问:为何这必须被视为一种 " 生存风险 "?在萨顿看来,人类的 DNA 并非神圣不可侵犯,绝大多数物种终将走向灭绝。如果事实证明,人类的存在 " 阻碍了宇宙达到其可能的最佳状态 ",那么 AI 以任何方式将人类清除,都是 " 可以接受的 "。

这些思想的拥护者倾向于认为,在意识层面,硅基与碳基只是不同的物质载体,生物意识的价值并非天然高于未来的数字意识。在精英云集的 AI 会议中,甚至流传着一种更为极端的观点:那些生育子女的人,不过是对人类这一物种注入了过多的情感。

虚拟现实先驱贾伦 · 拉尼尔对此现象曾一针见血地指出,某些精英圈内人士认为,人类普遍感染了一种 " 应受谴责的思想病毒 ",即偏爱人类胜过 AI。他们主张,人类 " 理应让路 ",因为由 AI 接管后的宇宙,其中的意识将更为优越。他们的结论是," 纯粹以人类为中心的道德愿望是站不住脚的 "。

批评者则犀利地指出,这种 " 乐观末世论 " 本质上是某种人类身体厌恶症与 " 强权即公理 " 思想的混合体,仿佛最高级的智力就天然享有至高无上的生存权。有时,这听起来像是一个 " 心怀不满的聪明孩子的终极复仇幻想 ":通过支持自己创造的 AI 代理人,来战胜那些 " 平庸的凡人 "。

无论人们对这种哲学持何种态度,科技界对 " 末世 " 的集体焦虑确实存在。2023 年一项针对 AI 研究人员的调查显示,他们评估 "AI 导致人类灭绝或永久性丧失重大权力 " 的平均概率为 16%。这相当于一场 " 俄罗斯轮盘赌 " 的死亡几率。该数字也与马斯克、Anthropic 首席执行官达里奥 · 阿莫代伊等业界领袖的私下预估基本吻合。

这场关于人类未来命运的辩论,在末日避难所的构想与挥霍无度的派对之间,在对人类沦为 " 动物园 " 的假设性接受与对 " 物种沙文主义 " 的斥责之间,深刻揭示了技术奇点降临前,精英阶层内部最根本的生存分歧与价值观重构。(文 / 腾讯科技特约编译金鹿 , 编辑 / 海伦)

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论