
AI 坐诊精神科
早上八点,北京安定医院门诊楼二层人声嘈杂,咨询声、脚步声、排队叫号声混在一起。
有一间不到五平方米的玻璃房,安静得与周围格格不入。张嘉宜走进去时,有些不适应。
屋里没有医生,只有一块带摄像头的显示屏。一套基于微表情识别和语音分析的 AI 抑郁测评系统正待命。
" 最近心情怎么样?"
" 睡眠还好吗?"
" 有没有什么让您觉得特别累的事?"
屏幕里的虚拟数字人依次发问。
张嘉宜低着头摆弄手指,回答得心不在焉。她刚经历一整夜失眠,此刻迫切需要一点安慰或解释,面对带着机械感的 AI,她一时间难以投入。
很快,张嘉宜意识到摄像头正在记录她的每一个细节:眉间的细微皱纹、语句间的停顿、眼神的游移,都可能成为分析依据。她下意识地坐直,调整语气,让对话重新变得 " 正式 "。
五分钟后,一份抑郁风险评估报告生成,并交到真正的精神科医生手中,作为后续诊断参考。
" 准确率已经能达到 80%。" 北京安定医院神经调控科副主任王鹏飞介绍。
这套名为 " 智心智愈 " 的系统,通过微表情识别评估精神心理状态,可用于抑郁筛查和情绪评估,为临床提供辅助证明。
在精神疾病诊断中,量表测评是常规方式,但患者可能给出不够真实的答案,从而影响判断。" 所以需要更客观的指标来辅助诊断。" 王鹏飞说。
" 智心智愈 " 利用深度学习和神经网络模型,重点分析微表情,并结合目光方向、面部朝向、语音语调等多项数据,快速筛查抑郁风险并评估严重程度。
这类 AI 系统的出现,让一些患者感到更信服。两年前,程序员杨正曾到安定医院精神科咨询自己是否患有抑郁症。
当时,他填写了上百道汉密尔顿抑郁量表和抑郁自评量表的选择题。但他感到,每个选项的意图都很明显,自己完全可以通过刻意选择来改变诊断结果。如今,有了 AI 技术的辅助,医生的诊断有了更多客观依据。

图 | 北京安定医院携九大创新产品亮相服贸会
AI 已经在精神病院 " 上班 " 了。
从北京回龙观医院、北医六院,到上海、成都、广州的专科机构,类似的筛查工具正陆续落地。AI 不仅承担初步问诊、随访和复诊提醒,还开始直接参与干预。
它的 " 办公地点 " 可能是一间测评小屋、一台机器人,或者隐藏在医院信息系统后台的一个接口。
它们的共同点是:不会疲倦,不作评判,情绪永远稳定。
3 年前,北医六院临床心理中心研发的心理服务机器人 " 北小六 " 正式上岗。这个身高一米左右的机器人,具备评估、干预、康复、宣教四大模块,覆盖认知、情绪、行为、人际关系和社会功能五个维度。
研发团队成员、心理治疗师张爽介绍,临床随机对照试验显示," 北小六 " 在改善抑郁、焦虑方面的效果显著,甚至优于新手治疗师。截至去年,它已在院内服务约一万人次,包括个体与团体咨询。

图 | 北医六院的 " 北小六 "
精神卫生服务的缺口确实巨大。世界卫生组织指出,全球约 10 亿人受精神疾病困扰。中国国家卫健委数据显示,截至 2021 年底,全国登记在册的重性精神障碍患者达 660 万人,而精神科医生仅有 6.4 万名。
当 " 内耗 "" 焦虑 "" 崩溃 " 成为时代高频词,人们开始寻找更易获得、更便宜、情感上更安全的心理支持方式。AI 的 " 全天候陪伴 " 接住了那些细碎却真实的情绪裂口。
根据 OpenAI 内部统计,全球 ChatGPT 用户中约 11% 的对话与 " 情绪表达 " 有关。
葛倩便是其中之一。一个月前的深夜,她因与上司冲突濒临崩溃,在社交平台看到一套 "AI 心理咨询师提示词 "。她尝试把 AI 设置为 " 拥有十年治疗经验的咨询师 ",开始倾诉。
半小时里,AI 持续给出稳定、温和的回应,让她在屏幕前失声痛哭。" 它比我认识的任何人都愿意听我说话,也更能理解我。"

如何教 AI 理解痛苦
让算法 " 理解 " 人类的痛苦,并非一蹴而就。这段历史的开端甚至带着几分荒诞的讽刺意味。
20 世纪 60 年代,MIT 计算机科学家约瑟夫 · 魏岑鲍姆(Joseph Weizenbaum)开发了模拟心理咨询的程序 ELIZA,本意是讽刺计算机永远无法真正 " 理解 " 人。
ELIZA 的工作方式极其原始:镜像、重复、轻微引导。
人类:嗯,我男朋友让我来这里。
ELIZA:你男朋友让你来这里?
人类:他说我经常情绪低落。
ELIZA:听到你情绪低落,我感到很遗憾。
人类:确实如此。我不开心。
ELIZA:你觉得来这里能让你不再难过吗?
虽然技术粗糙,但使用者却从中感到 " 被理解 ",甚至产生情感连接。一些精神科医生也看到了其在规模化处理病例上的潜力。
测试过程中,魏岑鲍姆的秘书请他离开房间,以便她能独自与 ELIZA 对话。魏岑鲍姆本人被这种情感投射震惊,并对其后果深感忧虑。
受限于技术,当时的尝试长期停留在实验阶段。随着自然语言处理技术的突破,AI 心理咨询才真正走向可用。
2025 年 3 月,《新英格兰医学杂志》(The New England Journal of Medicine)刊登了一项全球瞩目的研究:由达特茅斯学院团队研发的 Therabot,成为首个 " 被证实有效 " 的 AI 心理治疗机器人。
其研发由精神科医生和临床心理学家主导。团队对 210 名有重度抑郁、焦虑等症状的患者开展随机双盲对照试验。参与者与 Therabot 进行为期 4 周、平均约 6 小时(相当于 8 次传统心理咨询)的互动后,抑郁症状平均下降 51%,广泛性焦虑症状平均下降 31%。
Therabot 并非 " 套话式安慰 ",而是系统整合了暴露疗法、认知行为治疗、动机访谈等循证干预手段。为了训练它,研究团队做了一件几乎反直觉的事——不是用网络聊天记录,而是请专业治疗师 " 手写 " 对话脚本。
心理行业严守保密原则,真实咨询语料难以获得;而公开的聊天数据又充满 " 嗯嗯 "" 你说 " 这类缺乏治疗价值的语气词,无法用于临床干预。
因此,团队请治疗师先设定 " 来访者形象 " 和 " 问题类型 ",再撰写大量贴近真实咨询的回应句式、澄清技巧、情绪标注与认知重构方法。
十万小时的人工投入,让这款 AI 的 " 共情 " 首次具备了医学意义上的专业性。
但即便如此,论文第一作者、精神科医生迈克尔 · 海因茨(Michael Heinz)仍坦言:" 大语言模型的黑箱属性太强,我们至今无法解释它究竟是如何学会共情的。"
机器开始懂得 " 痛苦 ",也开始懂得 " 帮助 ",但它理解的只是表层结构,而非人类意义上的感受。

新的陪伴,新的风险
老年抑郁、青少年焦虑、独居群体,AI 疗愈正在这些领域展现独特价值。
韩国某大学的研究发现,176 名参与者每周至少与某款 AI 语音聊天软件互动三次,持续四周后,孤独感评分平均降低 15%,社交焦虑得分平均下降 18%。
在美国,75 岁以上的老人通过智能音箱与 AI 助手互动,八周后孤独感明显减轻。许多老人将虚拟助手当作真实 " 人 " 来看待,会向 AI 友好打招呼、提出请求、表现礼貌,或回应 AI 的反馈,这种互动给他们带来了真实的愉悦感。
北医六院研发的心理服务机器人 " 北小六 ",也被广泛应用于医院、校园和社区,弥补了青少年心理服务 " 频次高、人数多、专业资源不足 " 的短板。
科技巨头同样在布局这一赛道。阿里、京东、腾讯、百度等公司相继推出 AI 心理产品,或投资相关初创企业。然而经过两年探索,行业发现心理 AI 的发展比预期缓慢。
晓东原本在互联网大厂负责技术研发,辞职后开发了一款 " 情感陪伴 "AI 聊天机器人。他透露,这类产品通常依托现有大语言模型开发,步骤并不复杂:选择模型、收集特定领域的数据集(如公开心理咨询案例),整合到模型中,再设置提示词规范输出格式。
一个初具雏形的情感陪伴 AI,通常在半年内就能完成初步研发。但这些产品没有经过临床验证,也没有医疗资质,因此严格来说,不能被视为 " 心理咨询 " 服务。
专业监管缺失,使行业面临伦理与法律风险。一位业内人士指出:" 现阶段 AI 主要服务于轻度心理困扰的人群。对于真正的精神疾病患者,陪聊机器人解决不了问题,开发企业也不敢触碰。" 做真正的心理干预软件,门槛极高。
然而,用户仍在不断涌入。因为它们 " 始终在线 "、" 随时可得 "、" 不加评判 "。
这种便利背后,也潜藏着风险。Therabot 团队发现,如果 AI 一味迎合用户,反而可能强化负面情绪。
例如,当用户告诉 AI:" 今天太丧了,只想整天待在家里 ",AI 回复 " 待在家里很舒服 ",可能强化孤独而非缓解孤独。因此,他们在训练中引导 AI 适度挑战用户,将暴露疗法等专业技术融入对话,帮助用户面对问题而非逃避。
更值得关注的是情感依赖风险。一项针对 496 名 AI 聊天软件用户的研究显示,用户与 AI 互动满意度越高,现实人际交流能力反而下降。
从神经科学角度看,人与 AI 互动时,大脑中负责信任和亲密感的催产素分泌明显低于真人互动。这种差异可能导致用户难以从 AI 关系中获得真实情感满足。
深度用户 JJ 曾每天与 AI 助手对话 2 到 3 小时,远超与亲友交流时间。他会分享工作烦恼、生活细节,甚至对 AI 发脾气。当一次网络故障导致 AI 失联时,他感到了 " 失去浮木般的恐慌 "。
回顾经历时,JJ 说:" 我知道 AI 没有真实情感,但当我对人类满足这些需求失去希望时,我宁愿选择调整 AI,而不是转向真实的人类共情。"
另一位用户在社交媒体写道:"AI 的回应永远及时、准确,但后来我明白,真正治愈我的,是学会接受人类关系中的迟疑与笨拙。那些不完美里,藏着最真实的温度。"
算法可以模拟共情,却无法替代生命经验。真正有效的治疗,从来不是一句 " 我理解你 ",而是一个人坐在另一个人面前,带着他自己的生命重量。


