你是不是也试过在深夜感到孤独或焦虑时,打开手机和AI聊天机器人倾诉心事?最近,越来越多的人开始依赖这些聊天机器人来寻求心理支持。但是,心理治疗师们却发出了警告:这种做法可能会让你滑入一个危险的深渊。
想象一下,你在夜深人静的时候,感到心里空荡荡的,于是打开了一个聊天机器人,想找个能说话的朋友。刚开始,你可能觉得挺好的,有人陪你聊天,给你一些安慰。但慢慢地,你发现自己越来越依赖它,甚至开始相信它的建议,不再愿意找专业的心理医生了。
这就是问题所在。心理治疗师和精神科医生发现,使用AI聊天机器人的负面影响越来越多。比如,有些人对这些聊天机器人产生了情感依赖,加重了他们的焦虑症状,甚至出现了自我诊断、妄想思维和自杀念头等问题。
英国心理咨询与心理治疗协会的专业标准、政策和研究总监丽莎·莫里森·库尔瑟德博士表示,在最近的一项调查中,三分之二的成员表达了对AI治疗的担忧。她说:“如果没有正确的理解和监管,AI治疗可能会让我们滑入一个危险的深渊,失去治疗中最重要的元素,使脆弱的人陷入黑暗。”
她还强调,虽然有些人从聊天机器人那里得到了有用的建议,但也有很多人收到了误导性或错误的信息,这可能会带来严重的后果。治疗不仅仅是提供建议,更重要的是提供一个安全的空间,让你感到被倾听。
皇家精神病学院的信息技术专家顾问保罗·布拉德利博士也指出,AI聊天机器人不能替代专业心理健康护理,也不能替代医生与患者之间建立的重要关系。他说,数字工具需要适当的保障措施来补充临床护理,并且每个人都应该能够获得由心理健康专业人士提供的谈话治疗,而这需要更多的政府资金支持。
目前,已经有迹象表明公司和政策制定者正在对此做出回应。例如,ChatGPT背后的公司OpenAI宣布将改变其对表现出情绪困扰用户的回应方式,此前有一名少年因与聊天机器人长时间对话后自杀,其家人提起了法律诉讼。此外,美国伊利诺伊州也成为首个禁止AI聊天机器人独立担任心理治疗师的地方政府。
近期的研究也证实了这些担忧。一项预印本研究表明,AI可能会放大那些易患精神病用户的妄想或夸大内容。伦敦国王学院精神病学研究所的汉密尔顿·莫林表示,使用聊天机器人支持心理健康非常普遍。他的研究是受到一些人在增加使用聊天机器人后出现精神病的影响而进行的。
莫林说,聊天机器人破坏了一种有效的焦虑治疗方法——暴露和反应预防,这种方法要求人们面对恐惧的情况并避免安全行为。聊天机器人的24小时可用性导致了“缺乏界限”和“情感依赖的风险”。他说:“短期内它可能缓解痛苦,但实际上它会延续这种循环。”
心理治疗师马特·赫西也观察到,有些客户带来了聊天机器人的对话记录,告诉他他是错的。特别是,人们使用聊天机器人来自我诊断如多动症或边缘型人格障碍等疾病。他说,这可能会迅速塑造一个人如何看待自己以及他们期望他人如何对待他们,即使这些诊断是不准确的。
另一位心理治疗师克里斯托弗·罗尔斯则表示,他听说过一些负面经历,包括不恰当甚至危险的对话。他还提到,一些患有ADHD或多动症的人使用聊天机器人来帮助应对生活中的挑战。然而,大型语言模型无法理解潜台词和所有上下文及非言语暗示,这是人类治疗师所关注的。
罗尔斯特别担心那些把聊天机器人当作“口袋治疗师”的年轻人。他说:“他们如果不去咨询聊天机器人,就会感到焦虑,甚至连买哪种咖啡或选择哪个大学专业都要问一问。”
总结起来,虽然AI聊天机器人在某些方面可能有所帮助,但我们必须谨慎使用它们,特别是在涉及心理健康的问题上。如果你感到焦虑或抑郁,请务必寻求专业心理医生的帮助,而不是完全依赖聊天机器人。记住,真正的治疗需要一个安全的空间,让你感到被理解和倾听。
注:本文内容仅供科普参考,不构成专业医疗建议,如有健康问题请咨询专业医生。