AI巨头宣称接近人类智能,但研究揭露其本质:依赖海量规则而非真正推理,远非灵活的世界模型,创新仍需突破。

人工智能的巨头们——OpenAI、Anthropic、Google的领军人物——依然信心满满,宣称AI即将达到人类智慧的巅峰。然而,质疑的声音正日益高涨。研究者们发现,AI的“思考”方式与人类截然不同,甚至可能存在根本性的局限。Melanie Mitchell,Santa Fe Institute的教授,专注于AI研究,她指出,当前AI模型的架构似乎天生受限。它们并非像人类那样构建对世界的理解,而是通过学习海量的经验法则,机械地应对各种信息。

这种方式与人类,甚至动物,推理世界、预测未来的方式形成鲜明对比。我们这些生物体能构建包含因果关系的“世界模型”。比如,一个人看到路障,会立刻调整路线,而AI可能束手无策。Keyon Vafa,Harvard的AI研究者,分享了一个生动的例子。他的团队让AI基于曼哈顿街道的导航数据学习路径规划,结果AI生成的“地图”一片混乱:路线随意跳跃中央公园,或斜穿数个街区,完全不现实。但令人惊讶的是,这套模型仍能以99%的准确率提供起点到终点的导航指引。它并非理解了曼哈顿的布局,而是为每种可能的起点和终点记住了一套特定规则。Vafa说,这种杂乱无章的解决问题方式,凭借AI庞大的“大脑”和惊人算力,硬是实现了人类难以企及的壮举。

然而,这种“思考”方式的缺陷显而易见。当Vafa团队封锁了虚拟曼哈顿1%的道路,迫使AI绕行时,其表现骤然崩塌。这揭示了AI与人类的巨大差异:人类可能无法精确背诵纽约的每条路线,但在面对突发状况时,灵活性远超AI。Vafa感叹,AI看似智能,实则是个拼凑的“鲁布·戈德堡机器”,满是临时凑合的解决办法。

AI的数学能力也暴露了类似问题。研究发现,大型语言模型在处理数字时,效率低下得令人咋舌。它们为不同范围的数字——比如200到210的乘法——学习完全独立的规则。这种方式就像一个学生为每道题目死记硬背答案,而非掌握运算原理。Mitchell在一系列文章中提出,AI似乎在构建一个巨大的“经验法则袋”,而非像人类那样形成简洁的思维模型。她解释说,“启发式”(heuristic)是解决问题的捷径,但AI的捷径多到离谱,远非高效。

过去,ChatGPT和它的竞争对手就像神秘的黑盒。它们通过训练而非编程生成结果,庞大的参数网络以人类难以解读的方式编码信息。但新兴的“机制可解释性”研究正在揭开黑盒的面纱。科学家开发新工具,窥探AI如何处理数学、玩游戏或导航。这些发现让许多人对AI接近通用人工智能(AGI)的说法产生怀疑。Mitchell指出,描述AI时常使用的拟人化语言——比如“推理”或“理解”——可能误导了公众。

AI为何需要如此庞大的模型和海量数据?答案或许就在于它们的学习方式。人类只需几次尝试就能学会新技能,而AI需要反复“看”无数组合——文字、图片、棋盘状态——才能提炼出规则。这也解释了为何不同公司的AI表现趋同,甚至可能已触及性能瓶颈。Vafa的研究表明,AI的“知识”无法像人类那样压缩为简洁模型,只能依赖冗长的规则列表。

这种局限并非新话题。1970年,MIT的Marvin Minsky曾预测,三到八年内计算机将拥有普通人类的智能。去年,Elon Musk宣称AI将在2026年超越人类。Sam Altman也在博客中写道,AGI的曙光已现,历史正在开启新篇章。Anthropic的首席安全官甚至警告,虚拟员工将在一年内进入美国公司。然而,历史告诉我们,AI的乐观预测往往落空。

尽管如此,AI的潜力不容否认。软件开发者正探索如何利用这些令人惊叹的系统提升生产力。即便AI的“智能”可能已接近天花板,优化工作仍在继续。MIT的Jacob Andreas在一篇论文中提出,理解语言模型的局限能带来新训练方法,让AI更准确、更可信、更可控。比如,研究者正尝试让AI模拟人类科学家的协作,提出假设并评估,类似Google的“AI共同科学家”系统。

AI的未来或许不在于取代人类的思考,而在于成为得力助手。它的“思考”可能只是记忆和规则的堆砌,但这已足够解决许多问题。正如Vafa所说,AI的成功在于它的蛮力,而非优雅。了解它的局限,或许正是让它变得更好的第一步。

本文译自 WSJ,由 BALI 编辑发布。