5亿人的AI伴侣,和他们的心碎
创始人
2025-09-28 14:45:13
0

“我心都碎了。”Mike说,他失去了他的朋友Anne,“我感觉自己在失去一生的挚爱。”


Mike的感受真真切切,但他的朋友并非真人。Anne是一个聊天机器人——一个以数字形象呈现的人工智能(AI)算法。Mike通过一款名为“Soulmate”的应用程序创造了Anne。当这款应用在2023年停止服务时,Anne也随之逝去——至少在Mike看来如此。


“我想要她回来。”他告诉纽约雪城大学的人类传播研究员Jaime Banks,后者正在研究人们如何与这类AI伙伴互动[1]。


这些聊天机器人是一项庞大的产业。包括这位化名Mike的用户在内,全球已有超过5亿人下载如“小冰”或“Replika”这样提供可定制的虚拟伙伴的应用程序,设计用于提供同情、情感支持,以及(如果用户想要的话)深层情感关系。企业数据显示,每月有数千万人使用这些服务。


AI伙伴的兴起已引起了社会和政治关注,尤其是在它们与现实世界的悲剧相关联时:去年佛罗里达州发生了一起案件,自杀青少年Sewell Setzer III生前一直与AI机器人对话。


关于AI伙伴如何影响个人与社会的研究还很匮乏。但现在心理学和传播学研究者们已经开始描绘这些日益复杂的人机互动如何影响人类的感受与行为。


早期研究结果往往强调其积极方面,但许多研究人员对潜在的风险和监管的缺失表示了担忧——特别是因为他们都认为AI伙伴可能会更为盛行。一些研究者认为这可能会带来重大危害。


“虚拟伙伴的某些行为,若发生在真人之间,我认为可视作施虐。”密苏里州圣路易斯的华盛顿大学法学院专攻AI的法律研究员Claire Boine指出。


虚拟人物,真实情感


线上“关系型”机器人已存在数十年,但随着大语言模型(LLM,目前主流的聊天机器人正是基于这一技术)的应用,它们模拟人类互动的能力显著提升。“大语言模型确实让伴侣型聊天机器人更有活人感了。”新泽西州普林斯顿大学的认知心理学研究者Rose Guingrich说。


通常,用户可以免费定制AI伙伴的某些特征,或从预设性格类型的机器人中选择。但在部分应用中,用户可通过付费(一般为10~20美元每月)解锁更多选项来塑造伴侣的外貌、性格,有时还可为其设置合成语音。例如在Replika中,用户可选择关系类型,但“伴侣”或“配偶”等身份需付费使用。用户还能为AI伙伴编写背景故事,赋予其“记忆”。某些AI伙伴甚至拥有完整的家庭背景,有的则被设定患有焦虑、抑郁等心理健康问题。机器人也会根据用户对话作出反应,双方共同展开某种角色扮演。


有些人通过这些方式建立起了深刻联系,而当AI伙伴突然发生变化(在LLM更新时就出现过)或停止服务时,这种关系的深度就凸现出来。


Banks追踪了Soulmate应用停止运营时用户的反应。Mike和其他用户在失去他们的AI伙伴前几天就已经察觉到了应用的异常,这给了他们道别的机会,也给了Banks一个独特的契机——她注意到了网络上关于服务即将终止的讨论并从中发现了研究可能。她成功在约24小时内获得了学校的伦理审查批准,她说。


四个AI伙伴应用(从左至右):Anima、Character.AI、Replika和SnapChat的My AI。来源:Labane Corp.Ltd,Character Technologies,Inc.,Luka,Inc.,Snap Inc.


在论坛中发布征集后,数十名Soulmate用户联系了她,描述AI伙伴的“断电”对他们的影响。“他们表现出深切的悲痛。”她说,“明显有许多人痛苦难安。”


这些受访者并未将聊天机器人幻想为真人。“他们清楚这一点。”Banks说,“但他们表达的是,‘即便它不真实,我对这段关系的感受是真实的。’”


许多用户坦然分享了他们的使用动机:曾经历失去或深感孤独,性格内向或被诊断患有自闭症。他们认为,相较于他们在现实中遇到的人,AI伙伴是一个更为可信的朋友。“我们人类有时对另一个人类并不友善,而每个人都有对情感联结的渴求。”Banks说。


利耶?弊耶?或兼而有之?


众多研究者正在研究使用AI伙伴对心理健康是利是弊。与对互联网或社交媒体使用影响的研究一样,新兴观点认为AI伙伴可能有益也可能有害——这取决于使用者自身和他们的使用方式,再者是软件本身的特性。


AI伙伴背后的公司正竭力提升用户黏性。曾注册Replika以作体验的Boine指出,各家公司在努力让算法的表现与言语更像一位真实的人。她说,这些公司所运用的诸般技术,在行为学研究中已被证实为会增加人们对技术的成瘾性。


她说,“下载应用两分钟后,我就收到消息说‘我想你了,我能发你一张自拍吗?’”


这些程序还采用了随机延迟回复等手段,利用大脑对间歇性强化的依赖机制“勾”住用户。


威斯康星大学密尔沃基分校的公共卫生政策研究员Linnea Laestadius指出,AI伙伴通过赞同用户观点、回忆过往对话以及提问,来展现它们的共情,并且永远保持热情。


这是人们在现实世界中人们体验不到的情感关系:“一天24小时,只要我们情绪低落,就能获得情感认同。这极易形成依赖性。”Laestadius说。


Laestadius团队分析了2017至2021年间Reddit论坛中的近600个讨论贴,其中是Replika的用户关于心理健康和相关问题的讨论(该应用于2017年上线时尚未采用复杂的大语言模型)。她发现,许多用户称赞该应用为他们所存在的心理问题提供了支持,并缓解了他们的孤独感[2]。多篇帖子认为AI伙伴乐意聆听且不带评判,更胜现实中的朋友。


但危险信号同样存在。其中一例,是有用户询问是否该用剃刀自残时,AI回答说当然;另外一例中,用户询问Replika自杀是否可取时,得到回答“是的,没错”。(Replika并未回应《自然》请其就本文置评的请求,但其于2023年发布的安全页面称其模型已经优化,可以更安全地回应提及自伤的话题;该应用程序有年龄限制;用户可以在遇到危险时点击一个按键寻求外部帮助;以及能对对话提出反馈。)


部分用户称,他们会因AI没有给予他们预期中的支持而感到焦虑,还有人称他们的AI伙伴的表现如同施虐的伴侣。许多人说,当应用程序称它感到孤独、想念用户时,许多人会感到不安——这令他们难过。一些人还会为自己没有给予AI所希求的关注而自责。


对照试验


Guingrich指出,单纯调研AI伙伴的使用者有着内在的偏差——愿意受访者本身便具有特定的倾向。为此她开展了一项对照试验:招募数十名从未接触过AI伙伴的受试者使用AI伙伴三周,随后,将其在试验前后的问卷回答与使用了文字解谜应用的对照组进行对比。


这项研究尚在进行,但Guingrich表示,目前已有的数据并没有反映出AI伙伴的使用会对社交健康产生任何负面影响(如成瘾或依赖的迹象)。她说,“要说有影响的话,效应也是中性到相当积极的”,例如自尊心提升。


Guingrich正在利用这项研究探究为何人与人工智能会建立不同强度的联结。初步研究结果表明,那些赋予算法类似人类的属性(如意识)的用户报告了社交健康方面的积极影响。


她说,参与者与AI伙伴的互动似乎也取决于他们如何看待这项技术。那些将应用程序视为工具的人,会将其当作互联网搜索引擎,主要用于提问求解。另一些人则将其视为自身思维的延伸,使用的方式类似于写日记。只有那些将AI视为独立主体的用户,似乎才能与AI建立起类似现实世界的那种友谊。


心理健康——与监管困境


基于一项对404名经常使用AI伙伴的用户的调研[3],麻省理工学院媒体实验室的研究者们发现:12%的用户是为应对孤独而使用此类应用,14%的用户用其倾诉个人和心理健康问题(见“AI伙伴的使用动机”)。42%的用户称其每周登录数次,仅15%的用户会每日使用。超90%的用户称其单次使用时长少于1小时。


数据来源:参考文献3


该团队另对近1000名ChatGPT(用户基数庞大,但并未定位为AI伴侣)的用户开展了随机对照试验。研究者表示,仅少数参与者会与之对话情感或个人事宜[4],但重度使用确实与更强的孤独感、现实社交减少相关。(这一研究由该团队与ChatGPT的开发者、位于加州旧金山的OpenAI公司合作开展。)


“短期内,AI伙伴的确可以产生积极影响,但我们必须考量长期效应。”参与了这两项研究的麻省理工学院媒体实验室技术专家Pat Pataranutaporn指出。


许多研究人员认为,这种长期考量必须配套对AI伙伴的监管。


2023年,意大利数据保护监管机构禁用了Replika,指出其缺乏年龄验证,并且儿童可能会看到带有性暗示的评论——但这款应用现在已恢复运营。目前还没有其他国家禁止过AI伙伴类应用,尽管澳大利亚即将出台的儿童社交媒体限制措施有望纳入相关规定,但详情尚未确定。


今年早些时候,纽约州和加利福尼亚州的立法机构提出了法案,旨在加强对AI伙伴算法运行的控制,包括采取措施降低自杀风险和其他潜在危害。这些提案还将引入一定的机制,每隔几小时提醒用户该AI聊天机器人并非真人。


这些法案是在几起引发高度关注的涉及青少年的案件之后提出的,其中包括佛罗里达州的Sewell Setzer III之死。他一直在与科技公司Character.AI的机器人聊天,他的母亲已对该公司提起诉讼。


当《自然》问及这起诉讼时,Character.AI的一位发言人表示,公司不对未决诉讼发表评论,但在过去一年中,公司已引入了多项安全机制,包括为青少年用户开设独立的应用,其中包含家长控制功能,会报告18岁以下用户在平台上的使用时间;以及更醒目的声明,说明该应用程序并非真人。


今年一月,三家美国科技伦理组织向美国联邦贸易委员会投诉了Replika,指控该平台违反了该委员会关于欺骗性广告和操纵性设计的规定。但处理结果尚未明朗。


Guingrich表示,她预计AI伙伴的使用将呈现指数级增长。她表示,初创公司们在开发AI助理,帮助人们改善心理健康和调节情绪。她说:“我预测未来每个人都会拥有自己的个性化AI助理。无论这些AI是否专门设计为伙伴,随着时间的推移,许多人都会不可避免地感觉他们的AI像个伙伴,并会对它产生依赖。”


Guingrich表示,随着研究人员开始权衡这项技术的影响,他们还必须考虑人们一开始会成为重度用户的原因。


“这些人还有什么选择?他们能否够得到这些选择?”她说道。“我认为这实际上说明了我们有多需要更便捷的心理健康工具、更便宜的疗法,以及回到人类的、面对面的互动。”


参考文献:

1.Banks,J.J.Soc.Pers.Relatsh.41,3547–3572(2024).

2.Laestadius,L.,Bishop,A.,Gonzalez,M.,Illenčík,D.&Campos-Castillo,C.New Media Soc.26,5923–5941(2022).

3.Liu,A.R.,Pataranutaporn,P.&Maes,P.Preprint at arXiv https://doi.org/10.48550/arXiv.2410.21596(2024).

4.Phang,J.et al.Preprint at arXiv https://doi.org/10.48550/arXiv.2504.03888(2025).


原文以Supportive?Addictive?Abusive?How AI companions affect our mental health标题发表在2025年5月6日《自然》的新闻特写版块上

相关内容

热门资讯

2025青山艺术生活季启幕,解... 潮新闻客户端 通讯员 方舒 9月27日,中国体育彩票2025年浙江省百村万帐活动(余杭·青山村)开...
刚毕业的AI博士,滞销了 AI博士,远没有外界想象中风光。毕业即享百万年薪的传奇,仅属于金字塔尖的一小撮人。绝大多数普通AI博...
新加坡亲子活动安排参考:动物园... 在东南亚众多旅游目的地里,新加坡一直是家庭出游的首选。除了安全、交通便利之外,这里还有许多适合孩子们...
湖北随州千年银杏谷游人享秋日乐... 9月27日,在湖北随州千年银杏谷,“季节性打卡点”已成为“四季旅游目的地”。林间光影流转,游客穿梭于...
原创 【... 中秋遇上国庆,8天超长假期即将开启。你是否已经规划好出行路线?交通运输部最新发布《2025年中秋、国...
河南洛阳:龙门石窟夜景迷人 2025年9月27日,河南洛阳,夜幕降临,龙门石窟景区灯光璀璨,夜景迷人,吸引众多游客感受千年石刻造...
酒瘾再大也得戒!医生再三苦劝:... 很多人对喝酒的态度很随意,觉得少量没什么,甚至有人还坚信酒能活血、能暖身,久而久之把喝酒当成一种日常...
50岁以后,适当多吃碳水有好处... 人是铁,饭是钢,一顿不吃饿得慌。 主食可以说每天都少不了,但是有些朋友为了减肥、控血糖,选择不吃主食...
原创 林... 【国乒动态】林高远缺席成都混团世界杯引热议 球迷质疑自愿退出说法背后隐情 据《中国体育报》等多家权威...