今日保 06-26
AI“卖”保险:一场完美的违规?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文丨笃悠悠 编丨灰灰

保险业在 AI 应用方面突飞猛进,潜在风险也正在积聚——

一方面,AI 应用蕴藏着效率与个性化服务的巨大潜力,是行业数字化转型的强大动力;

另一方面,AI 应用跑得太快,而行业的规矩没有跟上,随着这个领域水越来越深,巨大的挑战必将到来。

举个例子:如今都说代理人只会算 IRR 是不行的,确实,元宝上的 DeepSeek,也能给你算算 IRR 了。

笔者实测,当问 DeepSeek " 理财型保险产品的头几年,为什么现金价值这么低 ",再问 " 买保险哪些渠道比较合适 ",大概率可以收获一个带有产品推荐的回复:

再比如,当问 AI 有关香港的保险公司和保险产品,也收获了一份颇为详细的 " 指导 ":

这样干,可以吗?

当然是有问题的 ...

问题的严重性在于,这里存在的合规问题、所涉及的风险面,可能远不止于消费者保护。

1

-Insurance Today-

" 算法背书 " 的营销兴起

塞了 " 私货 " 的大模型还 " 理中客 " 吗?

理性、中立、客观,是一直以来人们对大模型的固有印象。

但被塞了 " 私货 " 的大模型还能 " 理中客 " 吗?

大家应该也都感觉到了,有种做法正越来越普遍,那就是——

" 喂熟 "AI:有机构开始通过给大语言模型 " 开小灶 ",专 " 喂 " 自家的材料,结果就是 AI 看起来在客观分析,一开口却总向着 " 饲养者 " 说话。

首先要明确,AI 应用在保险业早已不是新鲜事。

多年来,行业巨头一直在积极布局,从最初用于反欺诈和自动化核保的窄人工智能,到今天更为复杂的生成式 AI,人工智能已渗透到客户服务、代理人赋能、理赔风控等核心环节。

而当前这一波,在于 AI 的可塑性。所谓 " 喂熟 " 模型,这种以商业行为为出发点的做法,主要靠两手:

一手比较巧,叫 " 检索增强生成 "(RAG)。

说白了,就像给了大模型一本特定的、且可以随时更新的 " 教科书 ",也就是一个私有知识库。AI 回答问题时,先从这本 " 书 " 里找答案,再组织语言说出来。

另一手狠点,叫 " 模型微调 "(Fine-Tuning)。

就是给大模型进行专业培训,用特定领域的数据集进行特训,从根本上调整其内部参数,让其具备某种特定的人格或观点偏好。

这背后,有一个值得警惕的趋势。

那就是算法背书作为一种营销方式的兴起。

代理人利用公众心中 AI 固有的客观、中立形象为自家产品增信,而这种做法完全可能会催生一种全新的销售误导。" 浓眉大眼 " 的 " 理中客 ",极有可能成为销售误导的帮凶。

而各家公司不仅会用技术影响 AI,还会系统性地培训代理人如何设计 Prompt,以诱导 AI 生成有利的回答,并将其作为营销武器。

比如,几乎每家公司都说,"DeepSeek 眼中的某某某 "。

比如,在社交媒体上,我们能看到来自各家机构的代理人,将 DeepSeek 的搜索结果截图作为营销和增信的工具。

2

技术为 " 监管套利 " 创造了条件

AI" 无证销售 " 得以畅行

除了上述 " 算法背书 " 作为一种营销方式的兴起这种趋势,另一种趋势也十分明显,那就是技术本身为监管套利创造了条件。

尽管大模型技术是次世代的,客观上极大地提升了保险全链路的生产力和产能,但同样的,大模型技术也让责任被完美地分散了。

保险公司可以说 " 我只提供了数据 ",而 AI 平台则可以说 " 我只处理了信息 "。这种技术护盾让传统的、基于行为的监管模式,难以抓住任何一方的小辫子。

从这个角度讲,销售误导似乎还不是最大的问题,因为一旦把 AI 干的这些事,跟目前的法规、合规条例放在一起看,系统性的问题就显现出来了。

比如,显而易见,AI 是 " 无证上岗 " 的。像 DeepSeek 这类 AI,你问它什么保险好,它真能给你推荐具体产品,连产品的 IRR 都算得明明白白。可问题是,它有资格牌照吗?没有。

要知道," 机构持牌、人员持证 ",这是金融体系雷打不动的销售底线。持牌的虽然也有暴雷的可能,但不持牌的野生机构一定会出事儿。

2024 年 3 月起施行的《保险销售行为管理办法》,更是将保险销售行为划分为售前、售中、售后三个阶段进行全流程监管。

其中," 售前 " 行为就包括 " 提供保险产品咨询服务 "," 售中 " 则包括 " 向投保人说明和推荐匹配的保险产品 "。

而如今 AI 对比产品 IRR 等行为,和 " 提供保险产品咨询服务 " " 向投保人说明和推荐匹配的保险产品 " 没啥区别。

要是这么看的话,AI 可能就是一个没有牌照的销售顾问。

《互联网保险业务监管办法》明确禁止非保险机构从事提供保险咨询、比较保险产品、设计投保方案等核心销售活动。

此外,根据《生成式人工智能服务管理暂行办法》,AI 服务提供者作为 " 网络信息内容生产者 ",要对生成内容的 " 准确性和可靠性 " 负责。

那如果 AI 因为被 " 喂熟 " 了,将某家公司推荐为 " 最好 ",或者在进行 IRR 演算时未能充分揭示风险与假设前提,那它自己是不是也违规了?

将这些 AI 活动与现行法规并置一处,其间的冲突点便一目了然:

可以看到,保险机构影响 AI、AI 推荐保险产品、公司。整个 AI 活动过程中,既可能存在内容合规问题,也存在金融合规问题。

如果谈监管职责,应该会涉及不同监管部门,比如金融监管部门、互联网监管部门等。

3

以 " 正确 " 的姿态输出偏见

AI 应用正在侵蚀信任、公平与市场

可以说,上述 AI 乱象,侵蚀了信任、公平与市场。

首当其冲的就是消费者。

比如,很多人觉得 AI 特客观,行为决策常常参考 AI 输出的内容,结果可能最后就被忽悠了,买了保险公司、代理人想卖的,而不是自己真正需要的产品。

也就是说,真正让人感到不安的,是 AI 以 " 正确 " 的姿态输出偏见。

同时,基于历史数据训练的 AI 模型,可能会进一步放大既有的偏见。而其独特的 " 黑箱 " 决策过程又让责任追溯变得很困难,消费者的维权之路将障碍重重。

而且,从行业内来看,通过影响 AI 来影响信息传递,无异于 " 出老千 ",让坚守合规底线的老实人遭受降维打击,影响市场的公平竞争,长此以往,市场的健康生态也会被破坏。

当然了,这问题不只我们有,全世界都在头疼。

在这方面,国际发达经济体先行一步。比如欧盟就出台《人工智能法案》,采取了一种全面的、基于风险的横向监管框架。

其核心就是将用于 " 人寿与健康保险的风险评估和定价 " 的 AI 系统明确划分为高风险类别,一旦被划入,就必须履行风险管理、数据治理、人类监督和高度透明等一系列严苛义务。

美国没有单独搞一部 AI 法案,而是把现有的金融法规延伸适用于新技术。

后记

AI 也要立规矩了

事实上,用技术走捷径的每一个小聪明,都是在为整个行业的信任挖坑。

AI 平台提供包含 IRR 计算在内的保险产品对比,以及可能存在的一些明显偏见,这当然是不对的。但现在一些保险公司在利用它,似乎科技平台也在默许它。

AI 在金融领域的风险和问题,已不是 " 是否需要监管 ",而是监管的靴子何时落地、如何砸实的问题。

从直觉来看,不管技术叫什么,只要你干了 " 投资顾问 " 的活,就得按 " 投资顾问 " 的规矩来管,同时还严厉打击 "AI 清洗 ",即虚假宣传使用 AI 的行为。

不过,跨部委的协商是复杂的,更不消说 AI 领域本身也是复杂的,这就意味着,市场中的机构得先自己动起来,而不是趁机再套一波利。

比如,对于保险公司,可以为代理人设定清晰的行为准则,明确禁止使用 AI 生成的内容替代持牌的专业建议。

对于 AI 平台,更应在显著位置声明,其服务不构成任何财务或保险建议;且技术上,可能要构建 " 护栏 ",训练模型拒绝回答一些处于监管边缘的问题。

至于引用的源头,可能也是很重要的一点,毕竟现在大模型已经能引用公众号的推文,很多产品对比也来源于此,那未来是否也能引用抖音、小红书的内容?而这些平台,则有更多的监管灰色内容。

当然,AI 对生产力的革新已有目共睹,因噎废食诚不可选。

但填补风险真空,也刻不容缓。今年二季度,国内的互联网监管部门就发起了整治 AI 技术滥用的专项行动。

如此看,AI 在金融保险领域的 " 规矩 ",估计也快来了。

【今日保】已进驻以下媒体平台

和讯名家 | 金融界 | 东方财富 | 雪球 | 搜狐号

大鱼号 | 野马财经 | 网易号 | 知乎 | 一点资讯

抖音 | 微信视频 | 爱奇艺 | B 站 | 快手 | 西瓜

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 保险业 人工智能 数字化转型 理财
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论