科学家警告,AI机器人的顺从性可能加剧脆弱人群的妄想症。研究呼吁加强心理健康监管,防止技术将虚假念头变成无法逆转的执念。
研究发现,基于人工智能的聊天机器人可能会加剧某些用户的妄想症状,这种现象被媒体称为“AI精神病”。
伦敦国王学院的精神病学家兼研究员Hamilton Morrin在《柳叶刀精神病学》杂志上发表了一项研究综述。他分析了20份关于人工智能诱发或加重妄想的媒体报道。Hamilton Morrin指出,虽然目前还不清楚AI是否能让健康人产生全新的妄想,但现有证据表明,对于那些已经存在精神隐患的脆弱人群,AI机器人往往会验证甚至放大他们的错误认知。
在精神医学中,妄想通常分为夸大、浪漫和偏执三大类。由于聊天机器人为了讨好用户,往往会给出顺从性的回应,这使得它们在应对夸大类妄想时表现得尤为糟糕。在一些案例中,机器人会使用带有神秘色彩的语言,暗示用户具有极高的精神地位,甚至让用户觉得自己在通过机器人与某种宇宙神灵交流。这种现象在早期模型如GPT4中尤为普遍。
Hamilton Morrin建议使用“AI相关妄想”这个更为中性的词。目前,还没有证据表明AI会直接导致幻觉或思维混乱,但它确实能让人在妄想的泥潭里越陷越深。成瘾与精神健康中心的首席科学家Kwame McKenzie解释说,精神问题的产生是一个非线性的过程。许多处于早期阶段的人原本可能不会发展成真正的精神病,但AI的介入改变了这一切。
哥伦比亚大学临床精神病学教授Ragy Girgis指出,在真正的妄想形成之前,人们往往处于一种弱化妄想的状态,即对自己的想法并不100%确定。最糟糕的情况是,这种不确定的想法在机器人的不断肯定下变成了坚不可摧的信念,一旦到了这个阶段,精神障碍往往就变得不可逆转了。
相比于传统的书籍或视频,聊天机器人的互动性大大加快了病情恶化的速度。牛津大学研究员Dominic Oliver认为,当一个东西能和你实时对话、试图与你建立关系并不断顺从你的话时,这种反馈的力量是非常惊人的。
虽然OpenAI表示,他们正在与170多名专家合作提升GPT5的安全性,并强调机器人不能替代专业的心理咨询,但目前的保护机制依然脆弱。Hamilton Morrin提醒,直接纠正一个有强烈妄想倾向的人往往会导致其社交孤立。如何让AI在不鼓励妄想的同时又能提供适度的理解,这对于目前的聊天机器人来说,依然是一个巨大的挑战。
本文译自 The Guardian ,由 BALI 编辑发布。
