
近期,豆包、Auto GLM 等人工智能助手试图接管手机,却接连被微信、支付宝等超级应用平台封杀。平台方的理由很充分:保护用户隐私与系统安全。这引出了一个关键问题:用户委托律师处理的许多事项,私密性远高于人工智能助手,为什么反而很少产生隐私和安全顾虑?
答案在于,律师执业要取得《律师执业证》。这张证书背后,是一整套关于专业能力、职业道德和行业监管的制度体系。如果人工智能助手想接受人类委托处理手机上的数字生活,也需要这样一张《AI 执业证》。今天就跟大家聊聊,参照律师制度,需要建立怎样的《AI 执业证》制度。
律师受职业道德体系的约束,执业要求是忠于客户,并且保守客户的秘密。如果要让用户放心,人工智能助手需要建立类似的职业道德和利益冲突制度。而目前的实践中,人工智能助手有如下问题:
1. 商业模式复杂影响独立性。律师的商业模式比较简单,为用户提供服务并收取律师费,获得用户的隐私数据和商业秘密后,只能用于为用户服务的目的,负有为用户保密的义务。而人工智能平台的利益就更加复杂,如果让第三方人工智能进入微信这样的超级应用,意味着它可以获取用户非常多的隐私和商业秘密数据,比如聊天记录、财务状况等。
但很多人工智能助手是移动互联网平台开发的,作为移动互联网产业的赢家,这些公司的商业模式就是靠分析大数据通过增值服务获利。同时,目前的人工智能产业正在快速提升能力的阶段,对获取训练数据又非常饥渴。因此,人工智能公司获取数据之后,除了提供服务,还可能用数据做训练以及分析大数据投放广告。
所以能读取用户隐私的人工智能助手,应该和其运营方有隔离。隔离的方式有两种,第一种是监管约束,政府或者行业协会制定行业标准,约束人工智能助手的开发方和运营方,不得将获取的用户数据用于训练和大数据分析。另一种是独立部署,用户自己架设服务器或者在本地设备上部署开源人工智能助手。
2. 如何解决利益冲突。律师办案时不能同时代理原告和被告,如果发现有利益冲突,必须声明并回避。而一个由电商平台开发的人工智能购物助手,在为用户推荐商品时,是优先考虑用户利益还是平台利润?这里的利益冲突如果不解决,用户也没法放心委托人工智能购物。
用户签订的律师合同里,有对于用户的商业秘密和隐私进行保密的条款,用户也可以要求律师签订单独的保密协议,但对于同样要获取用户隐私的人工智能助手,签一份保密协议远远不够。根据现行的《个人信息保护法》,所有非用户自己部署的人工智能助手,每次调用数据都应该告知用户并获得用户同意,敏感数据还要单独同意,这种法律要求和人工智能助手的操作方法不太兼容。
比如用户跟人工智能助手简单说一句:帮我规划并预订下周去上海的旅行。实际就是一个复杂的任务:人工智能助手需要自主决定访问包括日程、攻略、票务、支付等多个应用获取数据,而且很多都是敏感数据,如果完全按照法律要求,人工智能助手使用场景下,识别敏感数据并多次让用户单独同意会让操作变得繁琐,而每次数据处理前人工智能都进行明确、充分的告知并同意会变得不切实际。
同时,用户指令的模糊性还使得《个人信息保护法》规定的应用获取数据最小必要原则受到挑战,如何界定人工智能助手获取数据的最小必要范围是巨大难题,人工智能助手为了提供最优解,可能会倾向于多多益善地收集数据,这与数据最小化的原则天然存在冲突。
笔者认为,如果人工智能助手产业后续快速发展,则需要对法律进行升级,把人工智能助手作为一个 " 数字代理人 ",而不是工具或者应用来对待,像律师一样,只要获得用户一次授权就可以多次获取并处理包括敏感数据在内的数据,免除其反复请求的义务就会变得势在必行。
本文主要讨论的是人工智能助手的问题,但究责问题,其实是整个人工智能产业都面临的问题,人工智能买错东西了咋办?这个问题听上去不大,但人工智能医疗助手给病人误诊了咋办?人工智能驾驶汽车出交通事故了咋办?这些问题事关人的健康和生命,就非常大了。
究责时,首先是主体问题难解决,犯错的是人工智能助手,但它却没有权利能力,不是法律意义上的主体。所以只能在用户、部署者或者运营者、开发者这几个主体里找替罪羊。错误责任更难界定,人工智能助手的决策过程并不透明,当出错时,很难确定是算法、训练数据偏差、部署配置,还是用户自己的问题导致的。
因为复杂,所以传统的单一过错责任乃至混合过错这些原则都较难适用,从产业发展来说,责任界定问题就一定要解决。所以要有人兜底才行,对人工智能犯错适用严格责任,有平台或者保险兜底才有可能让用户放心。这也是产业发展必然要解决的制度问题。
如果对律师服务不满意,用户可以炒律师的鱿鱼,也就是解聘律师。但哪怕解聘之后,律师也负有为用户保密的义务。而人工智能的服务这方面目前问题不小。当客户要求律师销毁档案时,碎纸机只需要几秒钟就能物理粉碎文件,不仅彻底而且可验证。用户停用人工智能服务了,数据不一定能够被删除。这个也是产业需要解决的一个问题。
《个人信息保护法》规定了被遗忘权:处理目的已实现或无必要的,信息主体可以请求处理者删除个人信息。部分人工智能服务商虽然声称对话不用于训练,仅临时缓存用于上下文理解,此类数据理论上可在服务器端删除,但实际上用户难以验证是否真未用于训练。
如果曾开启历史记录或数据共享选项,即使删除聊天记录,也只是清除日志,模型仍可能记住信息。数据可能已被匿名化后用于改进模型。技术上,用户数据一旦用于模型训练,会融入海量参数中,覆水难收,无法精准删除。现在人工智能公司用围栏机制解决此问题,并不是删除信息,而是过滤回复信息。


登录后才可以发布评论哦
打开小程序可以发布评论哦