所谓的人工智能实际上是处理信息的复杂工具。因术语误读与商业炒作,机器常被误认为具备人类般的智慧。看清其非感性本质,有助于更好地利用技术。
自从1956年人工智能这个术语正式诞生以来,人类就陷入了一个长达70年的认知误区。在科幻作品和媒体的长期渲染下,大众往往会把机器“拟人化”,认为它终将具备情感和自主决策能力。但这种看法更像是一种幻觉,掩盖了技术背后的真实逻辑。
这种幻觉首先源于术语的二义性。在计算机语境下,“智能”往往仅指代信息处理的效率和精准度。比如一个计算器的运算速度远超人类,我们觉得它很先进,但不会觉得它有智慧。然而,当同样的计算逻辑被应用到自然语言处理或图像生成时,人类特有的共情本能就会让我们赋予机器并不存在的认知深度。其实,目前的系统更擅长的是数据处理,而非类似人类的“思考”。
科技公司在这一幻象的传播中扮演了重要角色。在追求融资和市场份额的竞赛中,将技术包装成具备通用人工智能潜力的生命体,能带来巨大的商业吸引力。这种叙事虽然能推动技术进步,但也制造了不切实际的期待和过度恐慌。事实上,即便是在雷诺集团、三星电子、苹果或惠普这类顶尖科技巨头工作了30多年的科学家也清楚,AI只是一系列高度专业化的工具,而非统一的智慧实体。
AI的真正力量在于它能以惊人的速度处理海量数据。在医疗领域,它辅助医生诊断疾病并预测治疗结果,在金融领域,它能瞬间捕捉市场波动的模式,在交通领域,它则是自动驾驶技术的核心。这些应用虽然深刻改变了行业,但其运作依然被局限在预设的算法和训练数据之内。一个能击败世界冠军的下棋程序,却写不出哪怕一首充满真情实感的短诗,因为它根本无法理解什么是情感,什么是经验。
最能体现AI局限性的是创造力。虽然生成式模型能创作看似精美的艺术品或文字,但这种所谓的“创造”本质上是对已有数据的模仿和再重组。它能产生意想不到的组合,却无法产生真正意义上的原创思想。人类的创造力涉及直觉、情感以及跳出框架思考的能力,而AI目前的表现依然受限于其编程边界。
将AI视为工具而非自主实体,也有助于建立更科学的监管体系。监管的重点不应是应对虚无缥缈的“意识觉醒”,而应聚焦于透明度、问责制和防止数据偏见。我们需要通过教育让公众了解技术的真实边界,确保AI系统在设计之初就符合公平和包容的原则。
AI是由人类创造并为人类服务的工具,其能力始终取决于我们设定的参数。在2026年出版的《AI幻象》一书中,相关观点也得到了进一步阐述:在复杂的伦理和哲学挑战面前,只有人类的创造性思维才能给出最终答案。承认机器“不聪明”,并不是贬低技术,而是为了让我们能以更清醒的姿态,让人类价值主导未来的技术演进。