每日经济新闻 昨天
很遗憾,“AI不会成为治疗者” 生成式AI让心理健康服务更普惠,但暂时难堪大任
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

至少 60 年前,人类就已经尝到了与 " 数字心理医生 " 对话的滋味。

20 世纪 60 年代,麻省理工学院的约瑟夫•魏泽鲍姆(Joseph Weizenbaum)教授模拟了一个心理医生 ELIZA,通过简单的语言模式与用户对话,让患者自己暴露内心、获得情感抚慰。不过,ELIZA 并不能真正理解情绪,而是通过算法将对话引向特定模式。

时光荏苒,人工智能浪潮几起几落," 数字心理医生 " 也从最初的算法规则匹配,发展到如今大模型和智能体的多模态应用,人们致力于让机器与人类 " 共情 "。

AI 正从实验室走向真实个体的心灵。然而,如何平衡普惠化应用与伦理安全,成为摆在科技与医疗交叉口的一道时代命题。

近日,香港中文大学教授、电气与电子工程师学会会士(IEEE Fellow)、美国计算机学会会士(ACM Fellow)邢国良在接受《每日经济新闻》记者采访时指出,AI 要真正成为 " 心理健康的基础设施 ",仍需跨越伦理、安全与技术等多重挑战。他直言,AI 不会成为治疗者,但可以成为陪伴者。

受限于技术缺陷,业内呼吁严格限制 AI 对患者的直接行为建议,不让 AI 直接给患者任何具体的行为指导。此外,从临床需求来看,应推动 AI 从通用模型向专业化、多模态系统进化。

但通过 AI 在心理照护方面的实践,能获得更具启发性的思考:如何重估 " 真正的智能 ",它也许不是回答一切,而是知道何时该沉默。

图片来源:视觉中国 -VCG211478193393

生成式 AI 开启 " 心灵普惠时代 "

研究显示,在我国,有心理问题的人数在 2 亿~3 亿,其中超 5400 万人患有抑郁症,泛心理问题人数高达 9500 万。

随着消费者心理健康意识不断增强,以及在线泛心理健康服务平台蓬勃发展,预计心理健康服务市场将实现快速发展。弗若斯特沙利文预计,2025 年中国泛心理健康服务市场规模将达到 104.1 亿元。

与此同时,专业心理治疗资源紧缺问题持续存在。在很长一段时间里,心理援助可以说是属于少数人的奢侈品,专业心理医生数量有限、服务价格高昂、地域分布不均,将大部分人挡在门外。

长久以来,人们对通过技术改善心理健康服务的探索从未停止,但真正的转折点,或许正在生成式 AI 的到来中出现——它不仅能让心理咨询服务变得更加普惠,也能在情感陪伴、心理干预等环节上,为人类提供新的技术支撑。

聆心智能 CEO 郑叔亮在一次公开分享中提到,生成式人工智能的出现,是 AI 从 " 理解 " 到 " 共情 " 的重要转折点。就像孩子真正学会做题那一刻一样,当 AI 能够在理解人类情绪的基础上生成恰当的回应,它才真正具备了陪伴和疗愈的潜力。

不过,需要注意的是,在临床实践中,更深层的挑战并不在于 " 陪伴 " 的缺口,而在于 " 诊断 " 的复杂性。

上海交通大学计算机学院副研究员吴梦玥在一场分享会中指出,精神疾病与生理疾病的不同在于 " 没有生物标记物 ",例如,糖尿病可以通过测血糖来客观诊断,精神疾病的诊断高度依赖医生的问诊和量表,使得诊断本身就面临差异性。

AI 的出现,在这片主观经验与高昂成本交织的领域,提供了一种全新的可能性。

与传统心理服务相比,AI 工具的优势之一或许就在于低门槛与规模化优势。邢国良指出,只需一部手机或一款应用,用户即可获得初步的情绪理解与压力管理建议,服务成本极低,且互动压力小。

这种低成本的方式,正在打破心理援助的稀缺壁垒,将心理援助推向大众。" 不少用户面对人类咨询师时存在羞怯、顾虑,AI 提供的是‘低压对话环境’,尤其适合情绪尚不严重但有倾诉需求的人群。" 邢国良补充道。

IEEE 数字金融与经济标准委员会专家委员、桐元软件 CEO 胡凝也认为,AI 的 " 非人类 " 身份在某些情况下会成为独特的优势,让某些患者放下对同类的戒备心理,更容易建立信任和沟通。

AI 不会成为治疗者

一方面,AI 正让心理服务的门槛一点点降低,但另一方面,当 AI 从一个 " 博学的助手 " 尝试扮演更积极的角色时,其固有的技术缺陷便暴露无遗。

幻觉问题是当前 AI 行业公认的隐忧。所谓幻觉,是指模型生成了看似合理、实则错误的信息。

在心理健康领域,机器的幻觉,比人的幻觉更难察觉,因为它披着理性的外衣。但与此同时,在这一对语义敏感度和准确性要求极高的场景中,幻觉可能直接误导患者,甚至造成心理伤害。

吴梦玥提到了当前心理诊疗的一大难点——当前精神疾病诊疗手册中关于抑郁情绪的描述,与人们表达 " 我现在心情不好 " 之间存在一个巨大的语义鸿沟,它是个人自然语言表达与结构化的临床文本之间的鸿沟,这种理解错位本身就极易导致误导性建议。

其次,医疗大模型的另一个难点在于 " 实践智慧 " 的缺失。吴梦玥提到,临床决策中常有两难情节,在两个冲突的伦理原则间做权衡,这依赖医生的 " 实践智慧 "。

AI 在面对这类没有标准答案的灰色地带时,其幻觉带来的影响可能很难估量。

" 这是 AI 在心理健康行业公认的难题。" 邢国良表示,尤其在心理健康这种对内容准确性和语义敏感度要求极高的领域,更应格外谨慎。

胡凝提出了一个辩证的观点。她认为,有时候,符合患者认知的 " 幻觉 " 可能有助于情感安慰。" 在心理疏导和客观事实之间,有时需要优先考虑患者的情感需求 ",但这需要专业判断,不能滥用。

在临床应用中,专业人士对于 AI 输出内容的可控性和安全性有着极高要求。邢国良强调,AI 不会成为治疗者,但可以成为陪伴者。他认为,AI 将首先在情绪监测、早期筛查、轻度疏导等领域实现落地。" 在引导性对话中,应设置明确的‘底线机制’,例如识别(出)风险行为时立即提示专业干预。" 目前,其团队正在尝试通过端侧建模和数据匿名化策略,防止情绪识别过程本身造成新的心理负担。

为规避风险,胡凝主张,应严格限制 AI 对患者的直接行为建议,不让 AI 直接给患者任何具体的行为指导,避免因理解偏差造成危险,因为一旦出现问题,很难明确责任归属。对医生而言,AI 系统则必须确保其建议过程透明、可验证,提供来源依据和核实工具。

武汉大学精神卫生中心主任、教授、主任医师王惠玲的临床经验也印证了这一点。她在评价 AI 模型给出的治疗建议时,特别提到其亮点在于逻辑清晰,符合临床思维以及治疗策略有据可循。尽管如此,王惠玲也指出,AI 在策略制定中应更加重视患者不良风险,建议增加自杀干预相关的应对策略等。

为了在技术上 " 锁住 " 幻觉,行业正积极探索解决方案。

胡凝提议,可以通过检索增强生成(RAG)与专家混合(MoE)等机制,让多个系统相互监督,以降低幻觉率。

邢国良则认为,AI 最具潜力的落地形式可能不是模仿心理医生的 AI,而是嵌入日常生活的轻量化系统。比如,通过音频、活动、交互频次等行为信号在本地做推断,为用户推送 " 温和提醒 " 或 " 转介建议 ",这类非侵入式干预在伦理和实践层面更容易被接受。

临床需求:AI 心理应用应从通用走向专用

当前的 AI 心理应用大多基于通用模型,它们擅长语言,却看不懂表情、语气、姿势,也缺乏长期记忆。它们无法知道用户的情绪在昨天是怎样的、今天为何不同,而这恰恰是心理健康中最关键的线索

因此,从通用走向专用,就成了产业的现实选择。

邢国良认为,当前模型往往只能处理用户明确表达的信息,对语气、行为、表情等复杂语境感知不足;同时缺乏长期记忆能力,无法形成持续的心理画像;在文化和成长背景的理解上也不够敏感。

胡凝也认为,通用模型虽能辅助专业人员,但难以满足不同患者复杂而独特的心理需求。" 传统的通用模型无法充分理解每个患者独特的主观体验 ",真正的心理 AI 系统,应从分类诊断走向对心理状态的多维和流动的动态理解,这要求系统能够具备模拟多样认知模式、整合多模态数据的能力。

临床的需求则更为迫切和具体。王惠玲描述了精神科诊断的难点:" 我们的特点与皮肤科不一样。其中之一是不能一眼看到,得医生去挖掘才能找到这个点。" 她提到,一名抑郁症患者对着镜子练习 " 标准化微笑 "," 我们医生都看不出来他是个抑郁症,都觉得他的笑是发自内心,但其实他是抑郁 "。

" 所以,如果 AI 能帮助我们做数字听诊器的工作或者数字标志物的工作,这个对我们是非常重要的。" 王惠玲迫切希望能有客观工具,帮助医生捕捉患者面部表情、语音语调、姿势动作等的细微变化。

这种临床的迫切需求,正推动 AI 从通用模型向专业化、多模态系统进化。

" 未来的心理健康 AI 必须是‘多模态 + 多源感知 + 用户可控’的系统。" 邢国良表示,这意味着 AI 需要与穿戴设备、端侧传感器、生理和行为数据融合。在这一方向上,邢国良团队已孵化出 Nuna 智能吊坠(Nuna Smart Pendant)等可穿戴产品。该设备可通过语音与生理信号推断用户的情绪变化趋势,并在端侧提供轻量化的反馈与提醒,帮助用户在日常生活中进行情绪调节。邢国良指出,这类 " 嵌入式 " 设计能在保护隐私的前提下提供温和支持," 让情绪关怀真正成为生活的一部分 "。

重估 AI 价值:真正的智能是知道何时该沉默

更深层的变化在于理念的转向,心理健康照护正从标准化走向个性化。

" 传统心理健康护理往往依赖固定的诊断标签,就像给每个人贴上统一的标签。" 胡凝指出,AI 的价值,不仅在于通过分析行为、生理和环境的各种数据,发现人眼难以捕捉的细微变化,帮助医生 " 看见 " 患者内心的微妙变化,更在于帮助患者理解自我、重新融入社会。

胡凝认为,真正的心理 AI 系统,应具备模拟多样认知模式的能力," 对患者行为模式和认知进行总结归纳,帮助临床医生理解他们未曾亲身经历过的认知模式 "。同时,系统也需要 " 对病患可能的危险行为进行模拟和预测 "。

当 AI 具备了这种深度理解能力,其最终目标也不再仅是诊断,而是成为连接患者与现实的桥梁。

胡凝提到了桥接现实的技术理念,即当患者的主观感受与现实社会存在较大差异时,AI 能创造介于两者之间的桥接空间,用患者能理解的方式解释社会规则,同时用社会能接受的方式表达患者的需求。

这种深度融合的另一面,同样面临极大的隐私挑战。

邢国良强调,技术机制必须服务于人的信任。他认为,AI 在心理健康中的最大风险来自数据使用边界模糊与隐私保护缺位,用户缺乏对数据如何被使用的控制力、模型训练可能放大社会偏见以及云端处理难以完全脱敏或避免泄漏。

在人机协作的终极形态中,机器的智能与人类的智慧缺一不可,真正的智能,也许不是回答一切,而是知道何时该沉默。

邢国良直言:"AI 本质上不具备真正的‘共情’,但可以模拟出共情行为,这对心理辅助场景尤为重要。" 他认为,关键在于通过技术设定、语气控制和容错机制,让模型 " 知道何时该沉默 ",在关键情绪节点 " 止步于不懂,而非强行输出 "。

每日经济新闻

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 人工智能 浪潮 心理健康 美国
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论