IT之家 03-23
“AI教父”辛顿:科技公司眼中只有短期利润,并不关心AI长期影响
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 3 月 23 日消息,当地时间 3 月 22 日,据《财富》杂志报道,多数科技行业领袖并未真正思考 AI 的最终走向。诺贝尔奖得主、"AI 教父 " 的杰弗里 · 辛顿认为,当前行业的核心驱动力并不在长期影响,而是短期回报。" 对公司所有者来说,推动研究的动力是短期利润。"

他对《财富》表示:" 对公司所有者来说,驱动研究的是短期利润。研究人员关注的也是眼前的问题,而不是研究最终会带来什么结果。我们不会从一开始就设定‘人类未来会怎样’这样的目标,而是围绕具体问题展开,比如如何让计算机识别图像,或者生成逼真的视频,这才是真正驱动研究的动力。"

IT 之家从报道中获悉,辛顿长期警告 AI 风险,并认为在实现超级智能之后,AI 导致人类灭绝的概率可能达到 10% 至 20%。2023 年,在将 DNNresearch 出售给谷歌 10 年后,他离开谷歌,以便更自由地表达对 AI 风险的担忧,并指出难以阻止技术被不良行为者滥用。

对于风险类型,他区分了两类:" 一类是坏人滥用 AI 的风险,这种情况已经出现,例如虚假视频和网络攻击,甚至可能扩展到病毒领域;另一类则是 AI 本身成为不良行为者,这两者是完全不同的风险。"

在应对路径上,辛顿认为难点在于每一类问题都需要单独解决。例如,可以通过类似溯源认证的方式对图像和视频进行标记,以遏制深度伪造传播,就像印刷术出现后出版物开始标注作者一样。他同时也指出,这类方案具有局限性:" 这个问题或许可以解决,但解决它并不能解决其他问题。"

对于 AI 本身的风险,辛顿认为关键在于重新定义人与 AI 的关系。一旦 AI 达到 " 超级智能 " 水平,不仅能力将全面超越人类,还可能产生生存和控制的动机,现有 " 人类可以控制 AI" 的前提将不再成立。

他提出,应为 AI 设计类似 " 母性本能 " 的机制,使其对人类产生同情而非控制欲,并以母婴关系作类比:目前唯一一个更聪明的存在被较弱者影响的例子,是婴儿对母亲的影响。" 因此,这或许是我们面对超级智能 AI 时可以参考的模型 —— 它们像母亲,而我们像婴儿。"

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 教父 谷歌 it之家 婴儿
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论