IT 之家 3 月 2 日消息,OpenAI 首席执行官萨姆 · 奥尔特曼本人也承认,公司与美国国防部的协议 " 绝对是仓促敲定的 ",而且 " 外界观感并不好 "。

上周五,Anthropic 与五角大楼的谈判破裂后,美国总统唐纳德 · 特朗普下令联邦机构在六个月过渡期后停止使用 Anthropic 的技术;国防部长皮特 · 赫格塞斯则宣布,将这家人工智能公司列为供应链风险主体。
随后,OpenAI 迅速宣布已达成协议,将其模型部署于机密环境。Anthropic 明确表示,其技术绝不用于完全自主武器或大规模国内监控,奥尔特曼也称 OpenAI 设有同样的 " 红线 "。这便引出了一些显而易见的问题:OpenAI 对自身安全保障的表述是否诚实?为何它能达成协议,而 Anthropic 却不能?
于是,OpenAI 高管一边在社交媒体为该协议辩护,一边发布博客文章,详细阐述其合作方案。
事实上,这篇博文明确列出了 OpenAI 模型的三大禁用领域:大规模国内监控、自主武器系统,以及 " 高风险自动化决策(例如‘社会信用’类系统)"。
OpenAI 称,与其他一些人工智能公司 " 在国家安全部署中削减或取消安全防护机制,仅将使用政策作为主要保障手段 " 的做法不同,其协议通过 " 更全面、多层次的方案 " 守护这些红线。
" 我们对自身安全体系拥有完全决定权,采用云端部署模式,由通过安全审查的 OpenAI 人员全程参与,且具备强有力的合同保障," 博文写道," 这些措施之外,还有美国现有法律的严格保护。"
公司还补充道:" 我们不清楚 Anthropic 为何未能达成此类协议,希望他们及更多人工智能实验室能考虑这类合作。"
博文发布后,Techdirt 的迈克 · 马斯尼克称,该协议 " 完全允许国内监控 ",因为协议规定私人数据收集需符合第 12333 号行政命令及其他多项法律。马斯尼克称,该行政命令正是 " 美国国家安全局通过在美国境外线路截获通信内容,以此掩盖国内监控行为的手段 —— 即便这些通信包含美国公民的信息 "。
在领英的一篇帖子中,OpenAI 国家安全合作负责人卡特里娜 · 马利根反驳称,围绕合同条款的诸多讨论,都假定 " 阻止人工智能被用于大规模国内监控和自主武器的唯一屏障,只是与战争部签订的单一合同中的一项使用政策条款 "。
" 实际运作并非如此," 马利根表示,并补充道," 部署架构比合同条款更重要 …… 通过将部署限制在云端 API,我们能确保模型不会直接集成到武器系统、传感器或其他作战硬件中。"
IT 之家注意到,奥尔特曼也在 X 平台回应了关于该协议的质疑,承认协议仓促敲定,且引发了对 OpenAI 的强烈反对。影响之大,以至于 Anthropic 的 Claude 在上周六的苹果应用商店下载量反超 OpenAI 的 ChatGPT。那么,为何要这么做?

" 我们真心希望缓和局势,也认为这份协议条件不错," 奥尔特曼说," 如果我们判断正确,这真能促成战争部与行业间的关系缓和,我们会被视为天才,是一家甘愿承受诸多非议、为行业做事的公司。如果判断失误,我们将继续被贴上 …… 仓促、不谨慎的标签。"


登录后才可以发布评论哦
打开小程序可以发布评论哦