科创板日报 06-05
硅谷又现AI吹哨人:不能指望人工智能公司自觉披露风险信息!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

财联社 6 月 5 日讯(编辑 马兰)人工智能行业发展迅速,但技术发展与秩序重新规划的速度不匹配,持续引发人们对于该行业的安全担忧,就连深度参与人工智能研发的工程师们也站出来公开警告。

13 名来自 OpenAI、谷歌 DeepMind 和甲骨文的前员工和现员工在一封公开信中表示,人工智能行业缺乏安全监督,且该行业对举报人的保护并不充分。

信中指出,人工智能公司掌握着大量非公开信息,包括其系统的能力和局限性、保护措施的充分性以及不同类型伤害的风险水平。然而,公司目前只有很弱的义务向政府分享部分信息,而对民间社会则没有任何义务。

这些内部人士认为,人们不能指望人工智能企业会自愿分享这些信息。

内部发声渠道被阻断

公开信中写道,由于广泛的保密协议,内部员工被阻止表达自己的担忧。他们希望先进的人工智能公司可以承诺遵守几项原则,包括不对批评公司的员工进行报复等。

公开信强调,普通的保护举报人措施对人工智能行业来说是不够的,因为一般措施是用于保护举报非法活动的内部人士,但人工智能行业的举报人更多是公开指出许多未受到监管的风险。

OpenAI 则在一份声明中为自己的做法进行了辩护,称公司有举报热线等渠道来报告公司内部问题,并且在采取保障措施之前不会发布新技术。谷歌则没有立即回应置评请求。

然而,这封信出现的时间点颇为微妙。OpenAI 上月刚刚有两名高级员工离职——联合创始人兼首席技术官 Ilya Sutskever 和关键安全研究员 Jan Leike。Leike 在辞职后还直言不讳地批评 OpenAI 已经放弃了安全文化,转向商业利润。

此外,OpenAI 等公司也确实存在较为激进的策略,来阻止员工自由发声。据报道,OpenAI 要求离职员工签署极其严格的保密文件,否则就将失去所有既得股权。OpenAI 首席执行官奥尔特曼在该报道后发布道歉声明,并声称将改革公司离职程序。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

逗玩.AI

逗玩.AI

ZAKER旗下AI智能创作平台

相关标签

人工智能 离职 谷歌 举报 首席执行官
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论