在伊朗冲突中,AI已不再是简单的辅助工具,而是直接参与生死裁决。随着科技巨头与政府的博弈升级,战争的问责机制正面临崩溃。

2026年3月初,随着美国与以色列对伊朗目标发动打击,残酷的一幕发生了。据报道,在攻击开始后的几小时内,伊朗南部的一所女校发生爆炸,导致至少153人遇难,其中许多是孩子。尽管军方对行动细节讳莫如深,但这次惨剧揭示了一个令人不安的现实:在决定炸弹投向何处时,人类可能已经不再是那个最终的决策者。

在当今的战场上,一种被称为“自主武器”的技术正迅速成为核心。这些武器不再需要人类在环路中进行实时判断,而是通过整合手机定位、社交媒体图片以及无人机影像,由算法来“推测”目标是否为敌方人员。指挥官们正逐渐将沉重的道德和军事判断外包给这些自动化的闭环系统,而当这种系统出错时,代价往往由无辜平民承担。

这场变革背后的政治角力同样激烈。2024年6月,Anthropic公司在其使用政策中明确禁止将技术用于自主武器或大规模监控。尽管如此,美国国防部还是在2025年7月与之签署了一份价值2亿美元的合同,让 克劳德模型 进入五角大楼的机密网络。然而,矛盾在2026年2月爆发,五角大楼要求合同必须包含“任何合法用途”条款,意图彻底取消人工智能的使用限制。

Anthropic公司的首席执行官 Dario Amodei 拒绝了这一要求,他警告称当前的人工智能系统在战场上极不可靠,容易产生不可预知的错误识别。这一举动激怒了 Trump 总统,他不仅在 Truth Social 上指责该公司是“左翼疯子”,更将其列为“供应链风险”,要求所有政府机构及合作伙伴停止与其合作。与此同时,开放人工智能公司的 Sam Altman 和 xAI公司 的 Elon Musk 则迅速向行政当局靠拢,承诺提供符合政府要求的替代方案。

事实上,这种算法战争的逻辑早已在其他冲突中被验证。在乌克兰,名为“巡飞弹”的自主无人机已成为实验室产品。在加沙,以色列军方部署了名为“丁香花”的系统,通过机器学习生成了多达37000人的疑似名单。据 纽约时报 调查,为了追求“杀戮工厂”般的效率,军方显著放宽了对平民伤亡的容忍度,甚至在定位低级别目标时也允许波及数十名平民。

专家指出,这些自主系统本质上是“责任稀释机”。当算法给出建议,而人类在几秒钟内就草率批准,或者系统完全自动运行,传统的战争责任链条就彻底断裂了。这种“道德距离”让开发者、指挥官和政治家都能在惨剧发生后逃避谴责。如果人类失去了对最终杀戮权的掌控,战争将不可避免地滑向一个更加黑暗且无法问责的深渊。

本文译自 The New Republic,由 BALI 编辑发布。