AI没有幻觉,它只是在胡说八道
BALI @ 2024.06.15 , 07:02 上午大型语言模型(如OpenAI的ChatGPT)彻底改变了人工智能与人类互动的方式,生成的文本常常与人类写作难以区分。尽管这些模型功能强大,但它们生成的内容中仍存在许多不准确之处,通常被称为“AI幻觉”。然而,格拉斯哥大学的Michael Townsen Hicks、James Humphries和Joe Slater在《伦理与信息技术》期刊发表的论文中指出,这些不准确的内容更应被理解为“胡说八道”。
大型语言模型(LLMs)是设计用来生成类似人类文本的复杂计算机程序。它们通过分析大量的书面材料,并使用统计技术来预测特定词语在序列中出现的可能性,从而生成连贯且符合上下文的响应。
与人类大脑有多种目标和行为不同,LLMs的唯一目标是生成与人类语言相似的文本。这意味着它们的主要功能是复制人类言语和写作的模式和结构,而不是理解或传达真实信息。
“AI幻觉”一词用来描述像ChatGPT这样的大型语言模型生成不准确或完全虚构的信息。这一术语暗示AI在经历感知错误,类似于人类看到不存在的东西。然而,Hicks及其同事认为这一比喻是误导性的,因为它暗示AI具有感知和传达真实信息的意图,而实际上并没有。
要更好地理解这些不准确信息为何更应被称为“胡说八道”,有必要了解哲学家Harry Frankfurt对“胡说八道”概念的定义。在他的经典著作中,Frankfurt区分了“胡说八道”和“撒谎”。撒谎者知道真相但故意说假话,而胡说八道者对真相漠不关心。他们关心的不是所说内容的真伪,而是是否能达到其目的,通常是为了给人留下深刻印象或说服他人。
Frankfurt的概念强调了胡说八道者对真相的漠视。胡说八道者不关心其陈述的准确性,只在乎这些陈述是否看起来可信或者符合特定的叙述。
研究者们认为,像ChatGPT这样的LLMs的输出更符合Frankfurt对“胡说八道”的定义,而不是“幻觉”的概念。这些模型并没有对真伪的理解;它们根据训练数据中的模式生成文本,没有任何对准确性的内在关注。这使它们更像胡说八道者——生成的陈述听起来可能可信,但没有真实的基础。
这种区分很重要,因为它影响我们如何理解和解决这些模型生成的不准确信息。如果我们认为这些不准确是幻觉,我们可能会认为AI在试图传达真实信息但失败了。
但正如Hicks及其同事所解释的,像ChatGPT这样的AI模型没有信念、意图或理解。它们纯粹基于从训练数据中得出的统计模式运行。
它们生成不准确信息并不是因为故意欺骗(像撒谎一样)或感知错误(像幻觉一样)。而是因为它们被设计用来创建看起来和听起来正确的文本,而没有任何内在机制来确保事实准确性。
“投资者、政策制定者和普通公众在如何对待这些机器以及如何对其做出反应时,并非基于对其工作原理的深入技术理解,而是基于其能力和功能常常是以隐喻性的方式传达的,”Hicks及其同事总结道。“称这些错误为‘幻觉’并非无害:它容易让人误以为机器某种程度上是误解的,但仍在试图传达它们相信或感知的东西。”
“正如我们所论述的,这是错误的隐喻。机器并没有试图传达它们相信或感知的东西。它们的不准确性不是由于误解或幻觉。正如我们指出的,它们根本没有试图传达信息。它们是在胡说八道。”
“称聊天机器人错误信息为‘幻觉’助长了技术支持者对其能力的过度炒作,并可能导致公众的不必要担忧。它还可能提出不适合的问题解决方案,并导致专家在AI对齐方面的误导性努力,”研究者写道。
“这也可能导致我们对机器在正确时的态度错误:即便它们有时是正确的,其不准确性显示它们是在胡说八道。称这些不准确为‘胡说八道’而不是‘幻觉’不仅更准确(如我们所论证的);这也是在科学和技术交流中一个迫切需要的良好实践。”
OpenAI方面也表示,提高ChatGPT的事实准确性是一个关键目标。
“提高事实准确性是OpenAI和其他许多AI开发者的一个重要焦点,我们正在取得进展,”该公司在2023年的一篇博客文章中写道。“通过利用用户反馈作为主要数据来源,我们改进了GPT-4的事实准确性。与GPT-3.5相比,GPT-4生成事实内容的可能性提高了40%。”
“当用户注册使用该工具时,我们尽量透明地告知ChatGPT可能并非总是准确的。然而,我们认识到,还有很多工作要做,以进一步减少幻觉的可能性,并教育公众了解这些AI工具的当前局限性。”
PREV : 在与科学分道扬镳后,艺术的魔力消失了
NEXT : 为什么睡眠不足会扰乱记忆