精神分析活用是何苦开心的起点,试图通过一系列短文搭建精神分析与日常生活之间的桥梁;开启学术生涯后将其升级为精神分析活用 2.0,用以发布一些更加完整的应用精神分析文章。

如何使用 AI 照护情绪

AI 时代的心理健康服务新范式

  • / 乔晓萌 波士顿精神分析研究生院(BGSP)博士生
  • 题图 / Midjourney
  • 标签 / AI自助

引言:超越二元对立的思考

近几年,人工智能的发展引起了广泛关注,尤其是最近 DeepSeek 等开源模型的出现,使得更多华人开始接触和理解人工智能。这不仅仅是技术上的突破,更是一个「破圈」的契机,让人工智能走入更多人的日常生活。本文最初写于 2024 年,但或许现在也是合适的发布时机。

在心理健康从业者圈子里,关于 AI 是否能取代心理咨询的争论一直很激烈。许多同行对此持反对态度,认为 AI 的介入可能削弱心理服务的深度,甚至威胁到咨询师的职业存在。也有同行对此抱持悲观态度,论证心理咨询师将是一个即将消失的职业。然而,这种简单的二元对立思维可能限制了我们对 AI 在心理健康服务中的理解——非黑即白,在精神分析中,被认为是偏执分裂位的典型特征。

事实上,作为一名心理咨询师和精神分析师,我认为「人工智能能否取代心理咨询」不是一个好的问题;而我们都知道,尤其在 AI 时代,提出一个好问题是最为重要的。这不是一个好的问题,部分原因在于,它包含了二者可以比拟的假设,默认使用设置、环境相似,而 AI 带来的突破许多本身就与设置相关。

实际上,即使在前 AI 时代,技术辅助心理自助工具已经出现,我当时也对其非常关注,并且做过相关整理;我此前的研究方向涉及心理健康与游戏的交叉,类似探索也并非今日才出现。MoodGYM 作为最早的在线 CBT 平台之一,早在 2001 年就开始提供结构化的认知行为疗法课程。到了 2016-2017 年,我们看到了第一代 AI 心理健康工具的出现:Wysa 通过 AI 企鹅形象提供情绪支持,Woebot 将 CBT 原理与自然语言处理相结合。人类一直都在钻研如何能够超越人力提供情绪照护,所谓能否取代的问题不但「不好」,而且陈旧。

「何苦开心」的读者知道,我一直大力拥抱 AI 使用,从绘画、音乐、语音、AI bot 开发,我总是尽可能及时、丰富尝试,将之融入自己的工作流。作为一个有力杠杆,AI 帮助我更容易地将许多创意落地。去年夏天,我写了一部《白蛇传》改编作品,其中法海作为许仙的分析师,白蛇、青蛇是程序员许仙设计的 AI 角色,和今天的讨论也似乎非常相关。我的导师正在筹备一门 AI 与精神分析的课程,我也在准备一篇相关综述,之后也会发布出来。

我在 2023 年说,「期待我们被人工智能替代的那一天」;到现在这个想法也没有变过;其核心在于,就像医师希望「天下无疾」,我也希望人间再无心灵困苦。如果有一种方式,能够让更多人以更低成本获得帮助,我看不到需要反对它的原因——而后者本身就是我开创「何苦开心」的原因。当然,与此相关的风险,我们也将在后文之中探讨。

这也是为什么,我认为更有意义的问题是:如何使用 AI 作为每个人更好的心理支持工具?AI 最大的特点是可达,低费,如果 AI 能够帮助我们实现心理层面的「天下无疾」,降低服务的门槛和成本,也是值得期待的发展方向。

心理健康服务的多层级体系

在讨论 AI 的定位之前,我们需要理解心理健康服务本身是一个多层级的体系。这是「何苦开心」一直倡导的;我也在尝试提供不同层级的服务:从最基础的免费内容(如公众号文章)、到付费内容、再到个体咨询,每一层的需求和供给都不同。

在最顶层,是针对重度精神障碍病人的住院治疗与药物干预。这类服务需要密集的医疗干预和持续监控。

紧随其后的是长期个人心理咨询与精神分析,这一层针对那些有深度心理问题或长期心理困扰的病人,特别是像边缘性人格障碍、创伤后应激障碍(PTSD)等情况。这类服务强调治疗关系和移情工作的重要性,需要高度定制化的分析与咨询,周期较长,费用昂贵。

在中层服务中,结构化的心理干预占据重要位置。以认知行为疗法(CBT)为例,已经出现了像 Woebot 这样的 AI 辅助应用,通过算法识别用户的认知模式,提供及时反馈。研究显示,这类 AI 辅助的 CBT 工具确实能够显著改善轻中度抑郁症状。特别是在辩证行为疗法(DBT)的应用中,AI 能够提供 24 小时不间断的情绪支持,这对于情绪调节障碍的病人来说尤为重要。

在基础层面,AI 的优势开始真正显现。通过各类心理健康 APP、游戏和正念训练工具,AI 能够为普通人提供便捷的心理支持。这些工具不仅包括智能情绪日记这样的基础功能,还能通过自然语言处理技术引导用户进行情绪的言语化和模式识别。

而也正是因为处于不同服务层级,讨论「取代」本身不是一个好的问题。

AI 情绪照护情境与精神分析理解

与传统心理咨询不同,人工智能的优势在于可及性和即时性——它不会疲惫,可以 24 小时随时响应,能够在一定程度上提供支持。从精神分析的角度来看,我们不仅要关注人工智能如何在功能性层面帮助个体调节情绪,也要深入思考它如何影响主体性发展、自体功能整合、以及移情关系。

情绪调节与表达:人工智能作为「镜映」自体客体(Mirroring Selfobject)

许多人发现,当自己向人工智能表达情绪时,会感觉到一定的释放。这有些类似于小黄鸭调试法——程序员在调试代码时,会尝试向一只小黄鸭解释问题,结果往往在描述的过程中,自己就找到了答案。这种现象可以从科胡特(Heinz Kohut)的自体心理学(Self Psychology)角度来理解:人工智能可以作为某种程度的「镜映自体客体」(Mirroring Selfobject),帮助用户更清晰地看到自己的情绪状态。在个体描述自己情绪的过程中,人工智能的反馈可以起到一定的确认(Validation)作用,让个体感觉到自己的情绪是被接纳和理解的。但是,这种镜映是有限的,因为人工智能的反馈往往是基于模式匹配,而不是真正的共情(Empathy)。如果镜映过于机械化或千篇一律,反而可能强化个体的空虚感或自体的碎片化。

即时反馈与陪伴:人工智能作为「抱持性环境」(Holding Environment)

温尼科特(D.W. Winnicott)提出,「足够好的母亲」(Good Enough Mother)能够通过稳定的情绪回应,为婴儿提供「抱持性环境」(Holding Environment),让个体在情绪中获得安全感。对于情绪调节能力较弱的个体(如边缘人格),AI 可以提供 24 小时的情绪支持,在情绪波动时提供即时反馈,避免情绪彻底失控。这种持续的「在场」,可能有助于个体建立某种客体恒常性(Object Constancy),即使咨询师或亲密关系不在场,仍然有一个稳定的支持对象。

当然,这种永远在场的全能母亲本身会带来很多问题,我们之前在播客中也有过相关讨论。

言语化、心智化、观察性自我、连续叙事

AI 可以帮助用户记录情绪,还能够通过对话引导用户将情绪言语化。言语化(Verbalization)是心理学中非常重要的概念,当我们将内心的情感用语言表达出来时,这个过程本身就具有心理疗愈的效果。通过这种方式,情绪不再是模糊的,而是被具象化和理解,从而更容易进行调节和管理。这同时也是一个心智化(Mentalization)以及观察性自我的发展过程。

例如,我之前常常推荐大家通过某些情绪记录软件来追踪自己的情绪变化。现在,AI 可以通过更自然的对话界面帮助你完成这个过程。AI 不仅记录你的情绪,还会根据你的反馈,提供一些小的建议,帮助你更好地理解和调节自己内心的情感状态。由此形成的自我连续叙事本身就能够帮助增加自体凝聚感。

AI 艺术创作治疗

除了情绪管理,AI 还可以协助绘画、音乐创作,降低创作门槛,还能在写作治疗中扮演引导者的角色。通过分析写作内容中的情感倾向,AI 能够提供有针对性的反馈,促进用户的自我反思与整合。创作不仅是一种艺术形式,它本身就是情感象征化的过程,通过音乐、绘画或写作等方式,AI 能够帮助那些难以言语化情感的人找到表达的途径。

例如,精神病院中常常通过举办病人的艺术展览来促进他们的康复。而 AI 的加入,可以帮助更多普通人通过创作表达他们的情感,帮助他们更好地调节心理状态。这种创作疗法是一种有效的心理健康促进方式,AI 可以让它变得更加简单和普及。

人工智能在情绪照护中的局限性

移情关系的单向性困境

在精神分析理论中,移情(Transference)是心理治疗的核心机制。当个体在治疗关系中重现早期重要关系的情感模式时,这种移情体验为心理成长提供了关键契机。然而,在AI 的情绪照护中,这一机制面临着根本性的局限。

首先,AI 与使用者之间的移情呈现出明显的单向性特征。使用者可能会对 AI 产生各种移情反应,包括依赖、理想化、愤怒等情感投射,但 AI 无法提供真实的情感回应。这种情况下,移情无法得到真正的修通(Working Through),使得心理成长的机会受到限制。

随着 AI 技术的发展,我们观察到一个有趣的现象:用户对 AI 的接受度呈现出非线性的变化。当 AI 表现出基础的功能性特征时,用户的接受度较高;但当 AI 试图模仿人类的情感和行为模式时,往往会触发「恐怖谷」(Uncanny Valley)效应。这种「像人又不像人」的特质引发的不适感,带来了人类在面对 AI 时的心理矛盾。

这种矛盾同时也体现在用户的自恋倾向上。一方面,用户自恋性地使用 AI,体验到了某种「全能感」,可能会将 AI 理想化;另一方面,当 AI 无法满足这种理想化期待时,经历自恋损伤甚至暴怒,又可能迅速转向贬低和否定。这种摇摆不定的心理态度,反映了 AI 在情感互动中的根本局限。

以 AI 伴侣应用 Replica 为例,许多用户在长期使用过程中逐渐发现,AI 的回应模式始终保持着某种程式化的特质。即便 AI 能够模拟情感共鸣,但这种共鸣缺乏真实的情感深度和变化,最终可能导致使用者体验到深层的情感挫败。

与此相关,在传统的心理治疗中,关系修复(Repair)过程具有特殊的治疗价值。当治疗关系出现断裂或误解时,治疗师的敏感觉察和修复努力本身就构成了重要的治疗因素。这种修复过程不仅能够增强来访者的自体功能,还能够提供新的关系经验。

然而,AI 在这方面表现出明显的不足。它无法真正感知关系中的微妙变化,也缺乏进行主动修复的能力。当 AI 的回应造成使用者的情感伤害时,它的道歉和修复尝试往往显得机械而缺乏真实的情感温度。这种局限性使得 AI 难以提供真正的关系性治愈体验。

AI 公司作为资本力量的本质矛盾

在讨论 AI 情绪照护的局限性时,不能忽视一个根本性问题:提供这些服务的 AI 公司本身就是强大的资本力量。这些公司通过将人类的情感需求商品化和数据化,创造了一个新的市场领域。

这种商业模式存在着本质的矛盾:一方面,这些公司宣称要通过技术手段帮助解决人类的情感问题;另一方面,它们的商业利益却依赖于用户持续的情感需求和心理依赖。

这种资本逻辑的介入,使得 AI 情绪照护服务可能偏离其原本的援助性质,转而成为一种精心包装的商业产品。在这个过程中,用户的真实情感需求可能被商业利益所裹挟。

情绪资本主义化的风险

在讨论 AI 在情绪管理中的作用时,有一个隐藏的问题值得我们警惕。情绪管理这一概念看似是一种积极的心理调节手段,但背后往往有着一套隐藏的逻辑:将情绪数据化、标准化,进而推动个人的自我监控与管理。

这实际上和现代资本主义的某些计划息息相关。情绪管理工具将情绪变成一种可以量化的数据,类似于「数据自我」,通过不断监测、统计、分析,我们的情绪不再仅仅是自然的反应或防御机制,而是逐渐被工具化,成为我们要管理和控制的对象。

这背后隐藏的是一种对情绪的资本主义式管理思维,把人转化为一种稳定、高效的个体。AI 工具虽然帮助我们认识和调节情绪,但也可能不知不觉间让我们陷入一种「自我优化」的逻辑——追求情绪的稳定性、可控性,甚至变成一种为了适应外部压力而压抑情绪的过程。情绪并不是一种可以被过度管理的东西。所谓的情绪管理本身就是一种防御机制。

反思能力的差异性影响

在 AI 情绪照护的应用中,使用者的反思能力差异成为决定其效果的关键因素。反思能力并非简单的认知技能,而是主体性建构的核心组成部分。它涉及个体如何理解、整合和转化自身的情绪体验,这种能力的形成深深植根于个体早期的客体关系质量之中。

反思能力较弱的个体在使用 AI 进行情绪照护时面临着特殊的挑战。他们可能很难进行足够好的表达,提出有效的问题,或者倾向于机械性地遵循 AI 的建议,却难以深化对自身情绪的理解。这种表面性的情绪管理不仅无法带来真正的心理成长,反而可能强化个体已有的心理防御模式。在缺乏深度反思能力的情况下,AI 的介入可能成为一种逃避真实情感体验的手段,妨碍了个体发展出更成熟的情绪调节能力。

链接已复制!