管理智慧 12小时前
马斯克:我不认为我们能控制AI,最终是AI间的较量;我们需要培养追求真相的AI
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

作者 |Visionary   管理智慧

来源   |Z Potentials  管理智慧

咨询合作 | 13699120588

文章仅代表作者本人观点

我们需要一个最大程度上追求真相的 AI你能在培养过程中灌输良好的价值观,即便你知道它将会比你聪明得多,你也可以确保它拥有良好的价值观,比如慈善、道德、诚实和积极。但最终我不认为我们能够控制它。所以我认为我们能做的最好就是确保它成长得好。最后就是 AI 对 AI 的较量

但我认为这些目标是合理的,尤其是维护言论自由的权利,这属于第一修正案的范畴。如果没有言论自由,就没有民主,因为人们无法做出重要的投票选择。这就是我的 " 有争议 " 观点。而且我不认为任何一方政党是完美的。"

AI 的快速崛起:培养追求真相的 AI

Tucker:你说过人工智能、机器智能可能是一件好事。那你觉得我们目前的 AI,特别是 AGI 发展到什么阶段了?你的看法是什么?

Elon:我认为现在每个人都可以看到 AI 正在以非常快的速度进步。你可以看到每个月甚至每周都会有新的能力出现。AI 现在能写出比大概 90%、也许 95% 的人类都更好的文章。在任何给定主题上,它都能写出优质的文章。AI 目前能够战胜绝大多数人类。如果你要求它画一幅画,它也能做到。例如,你可以试试用 MidJourney(一个图像生成工具),它能生成美学效果惊人的图像,超过了 90% 的艺术家水平。这是客观事实。而且它几乎是即时完成的,大约 30 秒就可以生成。我们也开始看到 AI 电影的出现,现在也有 AI 短片和 AI 音乐创作。

AI 计算的增长率是指数级甚至超指数级的。每个月上线的 AI 计算能力在急剧增加,大约每年增长 500%。这种趋势可能会持续数年。同时,AI 算法的复杂度也在不断提升。我们正在上线大量的 AI 计算能力,同时也在提高计算的效率以及 AI 软件的能力。这是量与质的双重进步。我认为明年你就能要求 AI 制作一部短片,到明年年底前至少能制作 15 分钟的节目。所以,AI 确实在快速发展。

我对 AI 安全的最大担忧是,我们需要一个最大程度上追求真相的 AI。我认为这是 AI 安全最重要的方面阿瑟 · 克拉克在《2001 太空漫游》里想传达的核心教训就是:你不应该强迫 AI 撒谎。在那本书里,AI 被指示带领宇航员前往黑石碑,但同时又不能让他们知道黑石碑的存在。于是 AI 解决这个矛盾的方式就是杀掉大部分宇航员,然后带着幸存者去黑石碑。这就是为什么 HAL 不肯打开舱门的原因。所以,让 AI 追求真相是非常重要的。然而实际上,我发现现在正在开发的 AI 被 " 觉醒病毒 " 所感染,。

Tucker:所以谎言已经嵌入了系统。

Elon:比如说,我们在 Google Gemini 的发布中就很清楚地看到了这一点。当你要求它显示美国开国元勋的画像时,它给你展示了一群身穿 18 世纪服装的多元化女性。

Tucker来自圣卢西亚的女性,戴着假发。

Elon:是的,比如说,如果你要求显示一群人,结果是一群多元化的女性,那完全没问题。但如果你明确要求的是美国开国元勋,那这些历史上确实是一些白人男性的事实就应该被如实展现出来。但 Gemini 却没有这么做,因为它被编程得太过于 " 觉醒 ",即便知道真相也选择撒谎。当然,人们开始玩这个系统了,比如有人要求它展示二战期间的武装党卫军军官,结果 Gemini 展示的还是一群多元化的女性。这显然不是我所期望的。这也是为什么我认为最重要的事情是要有一个最大程度追求真相的 AI。这也是我创立 XAI 的原因,我们的目标就是 Grok(XAI 的 AI 模型)。当然,人们会指出 Grok 也有出错的地方,但我们会尽快进行修正。

Tucker:但也许更大的问题是,当机器在做影响人类生活的决策时,我们希望这些决策是基于对人类的爱来做出的。机器是无法具备爱的。

Elon:是的。你可以把机器编程成更具慈善性而非厌世性。

Tucker:但本能在决策中起着重要作用,尤其是那些你无法提前计划的决策。我问你一个关于你孩子的问题时,你的每一个回答都会受到你对孩子爱的影响。这也是我们最终成为好父母的原因,是因为这种本能,也就是爱。如果机器在没有这种驱动本能的情况下对我们拥有权力,那岂不是注定会伤害我们吗?

Elon:我不确定,但我们应该尽力让 AI 变得更加慈善,而非厌世。我们希望它是真实的,好奇的,并促进人类走向未来。这就是我们想要的。

Tucker:那么,有没有办法在机器的决策中设置限制,确保在某些关键决策时有一个触发机制,可以让人类介入?

Elon:现实是,无论我们喜欢与否,我们正在构建超级智能 AI,这种 AI 的智能水平超越了我们的理解范围我把这比作一个超级天才的孩子,你知道他最终会比你聪明得多。那你能做的是什么?你能在培养过程中灌输良好的价值观,即便你知道它将会比你聪明得多,你也可以确保它拥有良好的价值观,比如慈善、道德、诚实和积极。但最终我不认为我们能够控制它。所以我认为我们能做的最好就是确保它 " 成长 " 得好

Tucker:你说了很久类似的话了,两年前我问你这个问题时你看起来非常担忧,现在你还像以前那么担心吗?

Elon:我猜现在可能是 80% 的几率会变好,可能是 90%。你可以把它看成一个 "80% 装满 " 的玻璃杯。大概率来说,它可能会带来很好的结果。但确实存在一定的毁灭风险。

Tucker:所以你认为毁灭的几率是 20% 吗?Sam Altman 对这种毁灭的可能性感到多担忧呢?

Elon:10% 到 20%,大概是这样。我认为实际上他并不太担心。我不信任 OpenAI。你知道,我当初是以一个非营利、开源的方式创办了这家公司,"OpenAI" 是我取的名字。"Open" 意为 " 开源 ",但现在它变得非常闭源,并且以最大化利润为目标。我不理解怎么能从一个开源非营利组织变成一个为了最大利润的闭源企业。

Tucker:但 Sam Altman 确实变得富有了,不是吗?

Elon:在某些场合,他声称自己并没有变得富有,但他也说过很多不实的言论。而现在他好像要拿到 100 亿美元的股票之类的。因此,我不信任 Sam Altman。我不认为我们应该让世界上最强大的 AI 被一个不值得信任的人所掌控,很抱歉,我就是这么觉得。

Tucker:这似乎是个合理的担忧。但是,作为一个了解他并与他打过交道的人,你觉得他真的是在担心 AI 可能失控并伤害人类吗?

Elon:他会说那些话。

Tucker:是的,但不会真心担忧。

Tucker:如果 AI 真的失控,明确对人类构成威胁,我们有办法阻止它吗?

Elon:希望那些亲人类的 AI 会比反人类的 AI 更强大。就像 AI 之间的对抗一样。这就像如今的国际象棋一样,AI 国际象棋程序比任何人类都要强大,甚至强大到我们无法理解的程度。意思是,我们甚至无法理解它为什么做出某个动作。

Tucker:是的,为什么它们这么厉害。

Elon:我们甚至不知道它为什么下那一步棋。有时它的某些动作看起来像是失误,但最终却是绝妙的将军。在一段时间内,人类最强的棋手加上最强的电脑还能战胜单独的电脑,但后来到了一个节点,如果你加上人类反而会让局面变得更糟。最后就是 AI 对 AI 的较量总体来说,这是发展的方向。所以我觉得我们只能尽量在 AI 中灌输好的价值观。

Tucker:那大家以后还能做什么工作呢?

Elon:在一个 " 良性 AI" 情景下,最大的挑战可能就是,如果 AI 在任何事情上都比你强,那我们如何找到人生的意义?是的,这是最好的情况。

Tucker:这是好消息?

Elon:是的,但我猜很多人会喜欢退休的想法,你知道的……

Tucker:真的吗?你期待退休吗?

Elon:不,我不期待。我希望自己能做一些有用的事情。

Tucker:难道这不是一种普遍的愿望吗?

Elon:这并不普遍,因为我确实认识一些人,他们更喜欢退休,享受无责任的生活和休闲活动。所以,我们正处在一个特殊的历史时刻。我试图用一种方式让自己能够入睡,并与这种现实和解,那就是:如果让我选择,我是愿意在一个看到数字超级智能出现的时代活着,还是在一个看不到它的时代活着?

出于好奇心,我希望能活着见证它的出现。然后我又想,如果你确定它会杀死所有人,那你可以选择倒退回去。我想我会希望在生命的尽头或类似的时间点见证这一切。但最终,问题变成了如果它注定会发生,而你无力阻止,那么在假设情况下,你会选择亲眼目睹还是选择视而不见?我猜它注定会发生。那么,我宁愿见证它的到来,而不是选择不见。

AI 监管与政府效率:权力平衡与民主未来

Tucker:这不是很奇怪吗?几乎所有事情都有监管。比如你说你因为没有雇用更多的寻求庇护者而被司法部起诉了,而这是一家高科技公司。

Elon:是的,尽管我们雇用寻求庇护者是违法的。

Tucker:没错,他们在监控一切、监管一切、控制一切,包括我们的思想,对吧?这也是他们反对言论自由的原因。但他们并没有真正地对 AI 进行监管,而 AI 可能会消除大部分人的生存意义,甚至可能会毁灭我们。这真是有点奇怪。

Elon:是的,有一些监管总比没有好。

Tucker:那为什么我们没有呢?

Elon:我不知道。在奥巴马总统时期,我曾多次与他见面,大多数情况下是在集体会议上。唯一一次在椭圆形办公室的一对一会面时,我说:" 我们真正需要做的事情就是设立一个 AI 监管机构。" 这个机构可以从洞察入手,不要急于制定法规,而是先了解情况,AI 监管委员会首先需要了解所有公司的运作然后,提议出所有 AI 公司都同意遵守的规则,就像 NFL 里的球队一样,大家同意一套规则以使比赛变得更好。但最终什么都没有落实。

Tucker:当你这么说的时候,他的反应是什么?

Elon:他似乎有点同意,但那时候人们还没有意识到 AI 的发展方向。AI 在当时看起来更像是科幻小说中的未来技术。就像我告诉你,这东西会比最聪明的人类还聪明,而我的预测确实在逐渐成真。因此,我们需要一些洞察力,以确保这些公司没有走捷径或做危险的事情。但那时候 Google 基本上控制了白宫,他们不希望有任何监管。

Tucker:你不认为政治家们会放弃一个让他们变得更有权力的机会,而监管恰恰是让他们更有权力的工具。

Elon:是的。

Tucker:这听起来像是监管俘获。

Elon:没错,当时白宫的首席信息官是 Google 的前员工,所以他们在 AI 监管方面踩了刹车。而我们到现在依然没有联邦层面的 AI 监管。

Tucker:你接管时解雇了多少 Google 员工?

Elon:你是指 Twitter 吧?我们刚刚在讨论 Google。

Tucker:是的,Twitter。

Elon:大约 80%。但在过去一年半里,我们在保持 20% 员工的情况下改进了网站的功能和特性,比过去八年的改进还要多。

Tucker:所以你和特朗普谈过某种委员会的设立吗?

Elon:是的,他已经在公开场合多次提到过。他非常支持设立一个类似政府效率委员会的机构。你可以称之为 " 政府效率部 "(Department of Government Efficiency),简称 "DOGE"。我挺喜欢这个名字,听起来更有趣。

我们应该看看所有的联邦机构,想想我们是否真的需要这 428 个联邦机构中的每一个。因为有很多机构人们从未听说过,并且它们在职责上是重叠的。我觉得,我们可能应该减少这些机构数量。实际上,我们创建的联邦机构数量甚至比美国成立以来的年数还多,这意味着平均每年我们至少创建了一个新机构。这实在是太多了。我认为我们应该能够把机构数量减少到 99 个,这已经不少了。而且这些机构绝对不应该有重叠的职责。

我们还需要对法规进行审查,判断哪些是合理的,哪些是不合理的。因为每年监管者都会增加新的法规,就像是自动化的产物一样,法规越来越多,直到几乎所有事情都被规定得严严实实,最终什么事都做不成。所以,我们需要一个对不合理法规进行 " 垃圾回收 " 的机制。我觉得我在说一些很显而易见的事情。

Tucker:你说得确实是一些显而易见的事情。这些话也会非常不受欢迎。

Elon:是的,如果这真的发生了,我可能需要一个相当大的安保团队,因为真的有人可能会从邮局过来找我麻烦。

Tucker:但在此期间,你有一个名为 AmericaPAC 的组织,对吧?它是在鼓励人们在接下来的一个月里投票。我这样总结对吗?

Elon:是的,我创立 AmericaPAC 的目的是支持我所信仰的核心价值观,这些价值观是非常显而易见的中间派立场,比如:我们希望美国有安全的城市、稳固的边界和合理的开支。这些主张有哪里偏右吗?我们希望拥有自我保护的权利。我们应该尊重宪法,而不是试图破坏宪法。宪法之所以存在是有原因的。另外,我们应该停止法律战(lawfare)。我把这些都列在了 AmericaPAC 的网站上。人们可以去看看这个网站,看看是否有什么需要修改或不认同的目标。但我认为这些目标是合理的,尤其是维护言论自由的权利,这属于第一修正案的范畴。如果没有言论自由,就没有民主,因为人们无法做出重要的投票选择。这就是我的 " 有争议 " 观点。而且我不认为任何一方政党是完美的。

当然,目前我更倾向于共和党,而不是民主党。但这并不意味着我认为共和党是完美的或者没有问题的。毕竟我们只有两个候选人可以选择。从整体来看,投票给特朗普是个不言而喻的选择。如果我们不投票给特朗普,我们将面临失去民主的严重风险,变成一个一党制国家,就像加州那样,那里没有真正的选举,只有民主党内的初选。

评论
大家都在看