在近日举行的阿斯彭安全论坛上,谷歌、微软、英伟达、英特尔、OpenAI、IBM、亚马逊、思科等 14 家科技公司宣布成立安全 AI 联盟(Coalition for Secure AI,以下简称为 CoSAI),旨在汇集领先的科技公司和组织、共同应对 AI 安全挑战。
CoSAI 方面表示,AI 正在迅速改变世界,并具有解决复杂问题的巨大潜力。为了确保人们对 AI 的信任并推动 AI 负责任地发展,至关重要的是开发和分享将安全性放在首位的方法,识别和减轻 AI 系统中的潜在漏洞,并创建设计安全的系统。目前保护 AI 和 AI 应用及服务是一项零散的工作,开发人员需要应对各种准则和标准,而这些准则和标准往往不一致且各自为政,在没有明确最佳实践和标准化方法的情况下,评估和缓解特定于 AI 的普遍风险对于即使是最有经验的组织来说也是一项重大挑战。因此在行业领袖和专家的支持下,CoSAI 准备在建立标准化实践方面取得重大进展,以增强 AI 安全性并在全球利益相关者之间建立信任。
据了解,CoSAI 计划与各界合作,共同解决 AI 软件供应链安全性、网络领域安全性、AI 安全治理等领域的难题。同时该联盟还将与 Frontier Model Forum、Partnership on AI、Open Source Security Foundation、ML Commons 等 AI 安全组织合作,以共同推动 " 负责任的 AI"。
具体而言,CoSAI 将建立一个协作生态体系分享与 AI 安全设计有关的 " 方法、标准化框架及工具 ",并通过一系列被认证为 " 安全 " 的 AI 系统来构建、部署运营环境,以降低 " 模型操纵、模型盗窃、恶意训练数据、提示词‘越狱’ " 等情况发生的可能性,从而为 B 端市场提供安全的解决方案。
对此 CoSAI 理事会联席主席 Omar Santos 表示," 我们致力于与负责任和处于安全 AI 技术前沿的组织合作。我们的目标是通过专注于关键主题的关键合作伙伴关系消除冗余并扩大我们的集体影响力。在 CoSAI,我们将利用我们的综合专业知识和资源来快速开发强大的 AI 安全标准和实践,这将使整个行业受益 "。
【本文图片来自网络】
登录后才可以发布评论哦
打开小程序可以发布评论哦