谷歌 AI 应用于军事,已打开闸门
2 月 5 日,谷歌被曝已从其人工智能原则中删除了不将 AI 技术用于武器等潜在有害应用的承诺。据悉,谷歌更新了其公开的 AI 原则页面,删除了此前 " 我们不会追求的应用 " 部分,其中包括 " 可能造成整体伤害的技术 ",特别是武器。
谷歌高级副总裁 James Manyika 和人工智能实验室 DeepMind 负责人 Demis Hassabis 随后在一篇博客文章中为这一举措辩护,称随着技术的发展,2018 年发布的人工智能原则需要更新。他们强调,企业和政府需要在 " 支持国家安全 " 的人工智能方面进行合作。谷歌的原则强调 " 减少意外或有害的结果,并避免不公平的偏见 ",同时确保其人工智能的发展符合 " 广泛接受的国际法和人权原则 "。
这一改变引发了广泛的关注和讨论。前谷歌道德人工智能团队的联合负责人 Margaret Mitchell 表示,删除 " 伤害 " 条款可能会抹去谷歌在人工智能道德领域所做的工作,甚至意味着谷歌可能会致力于开发可以杀人的技术。此外,谷歌与美国和以色列军方签订的云服务合同曾引发公司内部员工的抗议,他们担心 AI 技术被用于军事目的。
谷歌的这一转变并非孤立事件。近年来,包括 OpenAI 和 Meta 在内的其他硅谷科技公司也相继放宽了对 AI 军事应用的限制。例如,Meta 在 2024 年 11 月表示,将允许美国政府机构和承包商将其 AI 模型 Llama 用于军事目的。OpenAI 也在 2024 年 12 月与美国国防科技初创公司 Anduril Industries 建立战略合作伙伴关系,开发用于国家安全任务的 AI 解决方案。
谷歌的这一决策标志着其在 AI 军事化道路上的重大转变,也引发了对 AI 技术伦理和社会责任的进一步思考。
登录后才可以发布评论哦
打开小程序可以发布评论哦