每日经济新闻 昨天
AI惹祸谁来背锅?香港金融科技周筹办商Finoverse首席执行官:应由多方共同承担
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

人工智能的采用率正在上升,但信任仍是一个关键挑战。

根据毕马威 KPMG 最新数据,相较于 2022 年 ChatGPT 发布前,如今 AI(人工智能)普及率已经显著提升,但忧虑情绪也随之上升,全球仅 46% 受访者愿意信任 AI 系统。

许多先进的人工智能模型被视为 " 黑箱 ",即便是开发者也难以完全理解其决策逻辑。面对这种透明度缺失的情况,我们应如何建立对人工智能系统的信任?近日,《每日经济新闻》记者(简称 NBD)专访了香港金融科技周筹办商 Finoverse 首席执行官 Anthony Sar。

Finoverse 首席执行官 Anthony Sar 受访者供图

" 大语言模型至今其实仍不透明,即便对于其创造者也是如此。"Anthony Sar 认为,建立信任需要强有力的人类监督、透明的数据使用以及企业级的测试,与此同时,当 AI 出现严重错误时,责任应由多方共同承担。

负责任的人工智能并不意味着取代人类判断

NBD:许多先进的人工智能模型被视为 " 黑箱 ",面对这种透明度缺失的情况,我们应如何建立对人工智能系统的信任?

Anthony Sar:大型语言模型的透明度仍未完全实现,即便对其创造者而言亦是如此,如今的人工智能不仅能预测文字,还能理解概念——这既赋予了它强大的能力,也带来了相应风险。建立信任需要强有力的人类监督、透明的数据使用以及企业级的测试。负责任的人工智能意味着,在技术能够安全提升人类成果的领域部署它,而非取代人类的判断。

NBD:训练数据中存在的社会偏见往往会传导至人工智能上。在您看来,社会和科技公司应采取哪些具体且可操作的措施,系统性地减轻甚至消除人工智能偏见,以确保其发展不会加剧社会不平等?

Anthony Sar:人工智能往往会反映人类生成数据中存在的偏见,但我们应该建立更具包容性的人际联结。例如,我们为本次金融科技周设计的人工智能社区主持人 Samantha,在为参会者进行匹配时,仅关注双方的共同利益,而忽略头衔、国籍或影响力等因素。

Samantha 通过发起原本可能不会发生的引荐,帮助打破了这一障碍。活动吸引了来自 120 多个国家的参与者,Samantha 基于共同价值而非曝光度为人们搭建联结。这只是人工智能如何帮助减少壁垒、推动以人为本的机会获取的一个例证。

人工智能责任应由多方共同承担

NBD:当人工智能系统出现严重错误(例如自动驾驶汽车引发事故、医疗人工智能给出误诊)时,该由谁为这一错误负责?

Anthony Sar:人工智能的责任应由多方共同承担。就像交通安全依赖于司机、行人及监管机构共同遵守规则一样,负责任的人工智能需要开发者、部署者和用户各自承担明确的角色。

我们已经拥有监管复杂系统的框架,通过标准制定、测试和执行,这些框架同样可以应用于人工智能领域。

例如,我们在 Samantha 的设计中融入了 " 人机协同 " 模式,确保所有互动均经由活动组织者与我们的团队审核后,再逐步扩大自动化应用范围。这种方式既保留了人类监督,又让人工智能能够处理日常事务,为平衡创新与问责提供了真实可行的实践模型。

NBD:随着人工智能能力的快速提升,人们对其被恶意使用的担忧日益加剧,甚至有人担心人工智能可能变得无法控制,超出人类的监督范围。您认为这些是迫在眉睫的现实威胁,还是遥远的科幻场景?国际社会应如何为人工智能的发展和使用划定 " 红线 ",以应对其可能带来的 " 灾难性 " 或 " 生存性 " 风险?

Anthony Sar:与任何强大的技术一样,人工智能既可用于造福人类,也可能被用于危害他人,就像核能一样。人工智能可能在未来 20 年内超越人类能力,因此治理至关重要,必须确保技术发展的方向始终服务于人类福祉。

我们认为,灵活的、基于风险的治理模式是关键。需要注意的是,并非所有应用场景都存在相同程度的风险,在金融、医疗或公共安全等敏感领域,监管必须像对持证职业那样严格,确保每一项决策都经过测试、验证并明确问责。但在创意类或低风险应用场景中,应允许人工智能在清晰的伦理准则下更自由地发展。

每日经济新闻

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

人工智能 ai 首席执行官 金融科技 香港
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论