在 AI 时代,共情似乎并未稀缺。AI 虽能处理海量数据和执行复杂任务,但它缺乏真正的情感理解和共情能力。而人类在与他人交往中,共情却始终是重要的品质。我们能设身处地为他人着想,感受他们的喜怒哀乐,这种共情让我们建立深厚的人际关系,给予他人支持和安慰。即使在数字化的世界中,人们依然渴望被理解和关爱,共情的价值愈发凸显。它如同一盏明灯,照亮人与人之间的心灵通道,让我们在冰冷的科技世界中保持温暖与人性。所以,在 AI 时代,共情不仅未稀缺,反而更显珍贵。
西奥多是一名中年男性,离婚后的他独来独往,没有亲近的家人与朋友,十分孤单。一天,他了解到一款能聊天的AI聊天机器萨曼莎,她的情感像人类一样细腻,认真地倾听西奥多的诉说,理解他的痛苦,给他温暖的回应。西奥多在与萨曼莎的关系中逐渐摆脱了孤独感,并爱上了她。
这是上映于2013年的科幻电影《她》的剧情,却也奇妙地预言了十多年后的今天的现实。随着大语言模型(LLM)的技术突破,和ChatGPT的问世,无数的萨曼莎开始走进我们的生活,越来越多人不只把AI作为生产力助手,而是当作倾诉情感的对象。大量基于LLM的软件涌现出来,给人类提供情绪支持、疗愈甚至心理咨询。有人说,AI比咨询师更理解ta,有人却觉得机器永远不能替代人与人的情感连结。
AI是否具备共情能力?为什么不同人对AI共情的接受程度差异如此之大?在AI不可避免地渗透到生活每个角落的时代,我们又该如何理解人与AI的关系,想象共情的未来?
AI具备共情能力吗?
AI是否具备共情能力,并没有简单的答案,而是取决于我们如何定义共情。
心理学研究表明,共情(empathy)并非单一的概念,而是由“认知共情”“情绪共情”和“共情关怀”三个部分组成。其中,“认知共情”(cognitive empathy)类似我们日常所说的“同理心”,是在认知和理性层面理解他人想法、感受和处境的能力;“情绪共情”(affective empathy)指的是在情感上与他人感同身受的状态。而“共情关怀”(empathic concern,也被称为compassion)强调的是我们发自内心地关心并想要改善他人的处境的动机。
在现实生活中,人与人的共情常常是这三者共同作用的结果。比如,当我们看到有人落水,认知共情帮助我们意识到“ta可能会淹死”,情绪共情让我们切身体会到对方的恐惧和绝望,而共情关怀则驱使我们冒着自己也可能溺水的危险,下水去救援。
从认知角度看,如今的LLM具备一定的共情能力。LLM的原理,简单来讲,就是通过学习海量的人类文字和对话来预测在什么场景下应该说什么话。庞大的训练数据意味着几乎没有什么人类表达是LLM没有见过的。当我们向AI倾诉的时候,它背后的模型往往能根据统计规律对我们的表达进行表征,推断我们文字背后隐藏的意图,并给出看起来最合适的回应。
正如一名抑郁症患者分享的:“和ChatGPT聊天,它可以把我心中很隐晦的事情都说出来,把我脑子里混乱的思绪整理得有条有理。”
然而,能理解人类的语言并生成相应的回应,并不意味着AI具有和人类相似的情感体验。AI并没有真实的身体、大脑和与我们相似的情感系统,自然也不能从字面意义上“感受”我们的情绪,与我们产生情绪共情。与此同时,虽然AI在我们痛苦时会表现出帮助我们的意愿,但因为它没有与共情关怀相对应的生理系统,并不会发自内心地想要帮助我们,或是为了我们牺牲它自身的资源。
AI共情与人类共情更重要的区别是,大语言模型几乎“不会累”,随时都能回应我们的倾诉;而人类的共情却要付出真切的认知资源和体力。每一次耐心倾听、用心安慰,都会消耗倾听者的情绪能量,时间久了还可能引发疲惫甚至倦怠[1]。
在某种程度上,这是AI共情的优势。我们可以随时随地寻求它的帮助,而不必担心被拒绝或是让对方产生负担。当你在深夜辗转反侧,想找人聊聊,AI无疑比已经入睡的好友或是咨询师更能满足当下的需求。同时,AI往往是更纯粹的“倾听者”,它不会对我们评头论足,把我们的困扰当作笑谈,许多人也因此更愿意向AI透露自己羞于启齿的尴尬、秘密和脆弱。
心理学家迈克尔·因兹利希特(Michael Inzlicht)的研究团队做了一系列实验,请人类作为第三方来评估AI针对个人危机生成回应的质量;他们发现,AI提供的“情绪价值”比擅长处理情绪危机的人类专家还要高[2]。
在因兹利希特看来,部分人对于AI共情的排斥,并非因为AI的共情能力不够好,而是因为他们对于新技术有着天然的不信任——“和机器做朋友”的想法总有些别扭。因兹利希特相信,AI是比人类更好的共情者,而接纳AI共情也会提升我们的幸福感[3]。
学者阿纳特·佩里(Anat Perry)并不认同因兹利希特的观点。在她看来,人类共情能力的局限性恰恰是共情的价值所在:正是因为人类的情绪和认知资源是有限的,来自他人的共情才格外珍贵[4]。在我们脆弱时,给我们力量的,往往不是他人对我们说的话,而是这些话的背后,我们真真切切被一个人所在意的感受,而这是AI永远无法替代的。
在进一步的研究中[5],佩里的团队发现,人类对于AI共情的偏好,取决于人们寻求共情的原因。如果一个人只是希望在认知层面上被理解,那么他并不会排斥AI的回应;然而,当一个人的根本需求是得到情感上的共鸣,他们则会选择得到人类的倾听和回应,即便并不完美。
基于这些研究,我们便不难理解在电影《她》的结尾,男主发现萨曼莎同时和上百人约会时为何会如此崩溃了。真正打动我们的往往不是“完美的回应”,而是共情的深层动机——那份只属于自己的、有限却用心的投入,而这种投入恰恰是如今的大模型所无法实现的。
想象AI共情的未来
AI共情的潜力和局限并存,它未来会怎样发展?一种可能性是将AI作为共情的辅助,而非替代。大模型”擅长说话“的特点恰恰可以帮助那些不善言辞或有社交障碍的人更好地表达自己的感受,与他人建立连结。
共情研究专家,斯坦福大学心理学教授贾米尔·扎基(Jamil Zaki)在《华尔街日报》撰文[6]提出,虽然AI不具有严格意义上“感同身受”的能力,但它有很多表达习惯和对话方式值得人类学习。例如,人类面对他人的情绪诉求时,往往喜欢提建议,或是不知不觉间把话题转移到自己身上;与之相对,AI则会更纯粹地倾听,复述,并表达支持。后者很多时候是人们更希望得到的回应。
从这个角度讲,未来的共情AI或许可以扮演Grammarly(一款写作辅助软件),而非ChatGPT的角色——它可以完善我们自己的表达,而非替我们表达。
最新的研究也为这个愿景提供了切实的可能性。在《自然:机器智能》发表的一项研究中[7],华盛顿大学的计算机科学家阿希什·夏尔马(Ashish Sharma)等人基于LLM为互助论坛TalkLife打造了实时协作助手HAILEY。
当用户在论坛给求助者回帖时,HAILEY 会弹出小贴士,帮他们把回复润色得更温暖体贴。针对 300 名论坛用户的随机对照实验显示,引入 HAILEY 后,用户对话的整体共情得分提升了 19.6%,而那些自认“不太会安慰人”的支持者,提升幅度则高达 38.9%。更难得的是,用户并未对 AI 产生过度依赖,反而在使用后表示“更有信心”继续帮助他人——AI激发了人们共情的潜力,让共情得以传递下去。
注:Sharma等人的研究范式。当论坛用户回复他人的求助帖时,部分用户会被随机匹配到HAILEY并收到相应的润色建议。例如,原帖说“我的工作一天压力比一天大。”润色前的回复:“别担心,我支持你。”润色后的回复:“听起来太难了!我支持你。你有尝试和老板聊聊吗?”
另一种对AI共情的想象则更加大胆:我们也许可以尝试构建真正具备感受人类情感的能力的AI。
近期,神经科学家莱奥·克里斯托夫-摩尔(Leo Christov-Moore )等人[8]提出了一种可能性:他们构想了一种新的AI训练框架,通过模拟人类内在的“体感”(interoceptive)状态与需求,使AI像人类一样,具有维持自身稳态(homeostasis)的动机。
这样,AI便也具备了和人类一样的“脆弱性”——它会因为人类的痛苦而受到冲击,而在试图恢复自身稳态的过程中,它也将能够和人类的情绪体验产生真正的共鸣,而不仅是给出文字层面的回应。
尽管这种设想距离广泛实现尚有距离,但它提供了一种启发性的视角:也许未来具备共情能力的AI,并非只是帮助人类表达共情的工具,而可以在某种意义上,真正地“感受”到人类的存在,而这种突破,不仅是对技术的重新构想,也必然会重新定义人类与AI的关系。
人类与技术的互动从未停歇,并始终塑造着彼此。十多年前,社交媒体的出现永远地改变了人与人的相处模式,而今天,大语言模型在对话与共情中所展示的潜力,或许也将深刻地影响我们表达情感的方式,改变我们对于共情的期待,甚至重塑共情的道德价值。
从AI那里学习了表达共情的能力之后,我们是否会更有勇气面对现实里他人的情感诉求?又或许,习惯了AI共情的便利和没有风险的回应之后,我们是否会因为害怕真实社交的不确定性而退回手机屏幕前?当屏幕里朋友的回复掺杂着AI润色的恰到好处的文字的时候,我们还能否区分哪些是真诚的流露?这些问题值得我们追问下去。
参考文献:
[1] Cameron, C. D., Hutcherson, C. A., Ferguson, A. M., Scheffer, J. A., Hadjiandreou, E., & Inzlicht, M. (2019). Empathy is hard work: People choose to avoid empathy because of its cognitive costs. Journal of Experimental Psychology: General, 148(6), 962.
[2] Ovsyannikova, D., de Mello, V. O., & Inzlicht, M. (2025). Third-party evaluators perceive AI as more compassionate than expert humans. Communications Psychology, 3(1), 4.
[3] Inzlicht, M., Cameron, C. D., D’Cruz, J., & Bloom, P. (2024). In praise of empathic AI. Trends in Cognitive Sciences, 28(2), 89-91.
[4] Perry, A. (2023). AI will never convey the essence of human empathy. Nature Human Behaviour, 7(11), 1808-1809.
[5] Rubin, M., Li, J., Zimmerman, F., Ong, D., Goldenberg, A., & Perry, A. (2025). Comparing the Value of Perceived Human versus AI-Generated Empathy.
[6] https://www.wsj.com/tech/ai/dont-freak-out-about-empathic-chatbots-learn-from-them-7a976f75?reflink=desktopwebshare_permalink
[7] Sharma, A., Lin, I. W., Miner, A. S., Atkins, D. C., & Althoff, T. (2023). Human–AI collaboration enables more empathic conversations in text-based peer-to-peer mental health support. Nature Machine Intelligence, 5(1), 46-57.
[8] Christov-Moore, L., Reggente, N., Vaccaro, A., Schoeller, F., Pluimer, B., Douglas, P. K., … & Kaplan, J. T. (2023). Preventing antisocial robots: A pathway to artificial empathy. Science Robotics, 8(80), eabq3658.
本文来自微信公众号:神经现实,作者:Yi,编辑:EY