近日,OpenAI 和 Google DeepMind 的数名前任和现任员工联名,向世界发出了一封振聋发聩的公开信。
公开信指出,AI 的发展可能会导致加剧社会不平等、传播错误信息和自主 AI 系统的失控等一系列风险。
尽管全球政府和 AI 专家已经意识到这些潜在风险,但那些以财务利益为驱动的 AI 公司往往抵制有效的监督, 并且现有的企业治理结构并不足以应对这些挑战。
因此,公开信呼吁 AI 企业应当遵循一系列原则,包括不签订禁止负面评价的协议,建立匿名机制让员工反映风险担忧,允许员工在保护商业秘密的前提下公开技术风险等。
为这封公开信背书的业内 AI 大佬则有「深度学习之父」Geoffrey Hinton、图灵奖得主 Yoshua Bengio,以及 AI 安全领域的顶级学者 Stuart Russell。
附上公开信原文:
我们是前沿人工智能公司的现任和前任员工,我们相信人工智能技术有潜力为人类带来前所未有的福祉。
同时,我们也认识到这些技术所带来的严峻挑战。这些挑战包括加剧现有的不平等现象,操纵和传播误导信息,以及可能无法控制自主人工智能系统,这最终可能导致人类灭绝。
全球的政府和其他人工智能专家,以及人工智能公司本身,都已经意识到了这些风险。
我们希望,在科学界、政策制定者和公众的充分指导下,这些风险能够得到有效缓解。
然而,人工智能公司出于财务利益,往往避免接受有效监管,我们认为特别设计的企业治理模式不足以改变这一现状。
人工智能公司掌握着大量的内部信息,包括其系统的能力和局限性、保护措施的充分性,以及不同类型伤害的风险水平。然而,目前他们与政府分享这些信息的责任较为有限,而且没有与民间社会分享的义务。
我们不认为他们都会自愿分享这些信息。
在政府的有力监管缺失的情况下,现任和前任员工是为数不多的能够向公众负责的人。
然而,广泛的保密条款阻碍了我们表达关切,我们只能向那些可能未能解决这些问题的公司本身反映。
常规的举报人保护措施不足以应对,因为它们主要针对非法行为,而我们关心的许多风险尚未受到监管。
鉴于行业内类似事件的历史,我们中的一些人合理地担心可能会遭受各种形式的报复。我们不是第一个遇到或谈论这些问题的人。
因此,我们敦促领先的人工智能企业承诺遵循以下原则:
公司承诺不会签订或执行任何禁止对公司的风险相关担忧进行负面评价或批评的协议,也不会因员工进行风险相关的批评而阻碍其既得经济利益作为报复。
公司承诺将建立一个可验证的匿名机制,供现任和前任员工使用,以向公司董事会、监管机构及具备相关专业知识的独立组织反映风险相关的关切。
只要确保商业秘密和其他知识产权得到适当保护,公司承诺倡导开放反馈的文化,并允许现任及前任员工向公众、公司董事会、监管机构或具备相关专业知识的独立组织公开其技术相关的风险担忧。
公司承诺不会对在其它途径无效后公开披露与风险相关的保密信息的前任和现任员工进行报复。我们理解,在报告风险相关担忧时,应避免不必要的保密信息泄露。
因此,一旦建立了有效的匿名担忧上报流程,我们同意担忧应首先通过该流程提出疑虑。然而,只要这样的流程尚未建立,现任和前任员工应保留向公众披露担忧的权利。
登录后才可以发布评论哦
打开小程序可以发布评论哦