科创板日报 03-04
印度给“新生代”AI工具设限:发布前需得到政府许可
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

财联社 3 月 4 日讯(编辑 周子意)人工智能(AI)工具几乎不可能不出差错,有时它们可能向用户回复错误的答案。

对于此类状况,印度近日进行了明文规定,要求国内外科技公司在公开发布 " 不可靠 " 或正在试用的人工智能工具之前,寻求印度政府的批准,并指出它们也应该被贴上标签。

印度电子信息技术部在上周五(3 月 1 日)发布的一份报告中表示,这些人工智能工具的使用,及其在印度互联网上对用户的可用性,都必须事先得到印度政府的明确许可。

该报告明确针对所有人工智能模型、大型语言模型、利用生成式人工智能的软件、以及任何目前正在测试、处于开发 beta 阶段或被认为不太不可靠的算法。

收紧监管

随着人工智能技术的扩散,世界各国都在竞相制定规范人工智能的规则,印度则是一直在收紧对社交媒体公司的监管。

这份报告强调,"确保印度互联网的安全和信任是政府、用户和平台的共同目标。"

不过,近日印度国内却发生了一件戏剧性的 " 事故 ",印度总理莫迪似乎被谷歌的人工智能工具 " 针对 " 了,印度网民随即炸开了锅。

事件的起因是,2 月末,一名网民在社交平台 X 上分享了 Gemini 对印度总理莫迪相关问题的回答,Gemini 将莫迪与 " 法西斯 " 相关联,称莫迪实施的某些政策被一些专家认为具有法西斯主义性质。Gemini 还举出例子,比如莫迪的一些政策涉及搞印度教民族主义、打压异见人士等。

一天后,谷歌回应此事称,该公司已迅速解决了这个问题,并表示该工具 " 可能并不总是可靠的 ",特别是对于时事和政治话题。

随后,印度电子信息技术部副部长 Rajeev Chandrasekhar 在 X 上回应谷歌声明时态度强硬,称 " 安全与信任是平台的法律义务,‘对不起,不可靠’的回应不能免于法律责任。"

Chandrasekhar 还对 Gemini AI 聊天机器人可能违反印度 IT 法律表示担忧。

对于如何避免人工智能工具在政治方面做出的错误回应,特别是目前正处于印度大选前的关键时期,上述这份报告还要求,这些人工智能平台需要确保其 AI 工具不会 " 威胁选举过程的完整性 "

尽管该建议不具有法律约束力,但 Chandrasekhar 部长强调,它标志着未来监管的方向。他还补充道,如果不遵守这一建议,这些人工智能平台可能会面临即将出台法律的监管。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

印度 ai 人工智能 莫迪 谷歌
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论