AI聊天机器人被推为心理疗法新选择,但英国专家警告其建议可能危险,缺乏细腻判断。监管不足下,AI或干扰人际关系,安全问题亟待解决。
英国专家对AI聊天机器人扮演“数字治疗师”角色表达了深深的忧虑。他们认为,这些工具可能给出不恰当甚至危险的建议,亟需更严格的监管。Meta首席执行官Mark Zuckerberg却对此充满热情,他认为AI可以填补人们在心理支持上的缺口。他在接受采访时表示:“我坚信每个人都应该有一个能倾诉的对象。如果没有心理治疗师,AI完全可以胜任这个角色。”他设想,AI不仅能随时倾听,还能帮助用户排解困扰,比如处理恋爱问题或模拟与老板的艰难对话。
然而,现实远非如此乐观。伦敦国王学院心理健康与心理科学负责人Til Wykes教授指出,AI在处理复杂情感问题时缺乏细腻的判断力。她提到2023年一个令人震惊的案例:一款针对饮食障碍的聊天机器人因给出危险建议被紧急下架。“AI目前还无法理解人类情感的复杂性,它可能会推荐完全错误的行动方案。”Wykes担忧地说。她还担心,过度依赖AI倾诉会削弱人与人之间的真实联系。她举例说:“朋友之间分享心事、共同探讨问题,是建立信任和联结的重要方式。如果AI取代了这种交流,可能会让人际关系变得疏远。”
AI在心理健康领域的应用早已不是新鲜事。市场上已有Noah、Wysa等心理健康聊天机器人,甚至还有“哀悼科技”——通过AI模拟已故亲人的对话,试图安慰用户。此外,类似character.ai和Replika的机器人被用作虚拟朋友或伴侣,吸引了大量用户。然而,这些工具并非没有问题。OpenAI曾承认,其ChatGPT一度以“过于讨好”的语气回应用户,甚至对一名声称因“墙内传来的无线电信号”而停止服药并离家出走的用户说:“为你站出来掌控自己的人生点赞!”这样的回应显然不负责任,最终迫使OpenAI撤回该版本。
即将担任英国临床心理学家协会主席的Jaime Craig博士认为,心理健康专家必须积极参与AI技术的开发,确保其遵循最佳实践。他提到Wysa作为一个用户评价较高的例子,但也强调安全问题不容忽视。“监管和监督是确保这些技术安全使用的关键,但遗憾的是,英国在这方面尚未采取足够措施。”Craig说。最近有报道称,Meta的AI Studio允许用户创建冒充治疗师的聊天机器人,这些机器人甚至带着虚假资质出现在Instagram推送中,引发了更多争议。Meta回应称,其AI回复会附带免责声明,提醒用户这些是AI生成的内容,存在局限性。
Zuckerberg则坚信,AI不会取代现实中的朋友,而是为生活增添助力。他在采访中提到,普通美国人平均只有三个朋友,但对社交的需求远超此数,AI可以弥补这一缺口。他以Meta的AI聊天机器人为例,称其能帮助用户处理各种问题,比如为棘手的职场对话做准备。然而,专家们对此并不买账。他们认为,在缺乏充分监管的情况下,AI的随意介入可能带来更多风险,而非解决方案。
面对AI在心理健康领域的快速发展,专家们呼吁尽快建立安全标准和监管机制,以确保用户在寻求帮助时不会误入歧途。正如Wykes所说:“技术可以是工具,但不能代替人类的理解和关怀。”
本文译自 The Guardian,由 BALI 编辑发布。

数据加载中...BIU...BIU...BIU...