军事AI在提升作战效率的同时,正引发责任归属和士兵心理创伤等严峻挑战。专家呼吁建立国际规则,确保人类始终握有最后的决定权。
当今世界,战争的硝烟正与算法的冷光交织。从朝鲜半岛边境能够自动锁定2英里外目标的 Super aEgis 2 哨兵机器人,到能够自主识别目标的无人机集群,人工智能(AI)正以前所未有的速度渗透进现代防御体系。然而,当冰冷的传感器取代了人类的直觉,当毫秒级的算力接管了生死抉择,我们是否已经准备好面对随之而来的伦理风暴?
军事AI带来的首要挑战是“责任鸿沟”。在传统战争中,指挥官对部下的行为负责。但在自主武器系统(LAWS)的语境下,如果一台机器在没有人类指令的情况下误杀了平民,法律的利剑该指向谁?是编写代码的程序员,是部署机器的指挥官,还是机器本身?正如发表在 arXiv 上的研究指出,AI 仅仅是在执行程序,它没有痛感,无法像人类一样接受惩罚。这种法律上的真空,可能导致战争受害者陷入投诉无门的绝望。
更令人揪心的是对前线士兵心理的隐形伤害。Kate Devitt 在研究中提出了一个耐人寻味的词汇:“被烤焦的苹果”(cooked apples)。在战场上,原本正直的士兵可能被糟糕的AI决策环境“烤焦”。当AI系统通过算法不断诱导或强制士兵接受其判断时,士兵的道德机构会被削弱,沦为机器决策的“道德溃缩区”。即便士兵物理上远离战场,仅仅通过屏幕远程操控,他们目睹平民伤亡时的心理冲击往往比传统飞行员更剧烈,容易产生深刻的“道德伤害”和创伤后应激障碍。
为了修补这些裂痕,一些走在前端的项目正在尝试“伦理嵌入式设计”。以名为 Athena AI 的雅典娜人工智能为例,这套系统由澳大利亚的军事合作研究中心致命自主系统部开发。它的核心任务不是寻找杀戮目标,而是利用视觉识别技术快速找出平民和受保护建筑,减少所谓的“战争迷雾”,确保作战行动符合《日内瓦公约》。这种“增强智能”模式旨在辅助人类决策,而非取而代之。
与此同时,美国国防部的国防创新委员会也提出了5项基本原则:负责、公平、可追溯、可靠和可控。他们强调,无论技术如何进化,人类必须对AI系统的结果承担最终责任。科学家们甚至从冷战时期的《外层空间条约》中汲取灵感。当年,美苏两国为了防止太空武器化,同意将外层空间定义为“全人类的共同领土”。专家认为,我们现在急需一份类似的国际条约来界定AI在军事领域的红线,防止人工智能陷入盲目的军备竞赛。
国际红十字委员会也发出警告,完全不可预测的自主武器系统必须被明令禁止。正如 Wikipedia 记录的那样,Eric Schmidt 等行业领袖曾预言,到2025年AI将定义下一代战争。但在那一天到来之前,人类必须为这些“杀人机器人”装上最后的保险栓。我们需要建立一种文化,让技术服务于人道主义目标,而不是让算法彻底统治战场。正如昆士兰大学和阿德莱德大学的研究者所言,完美主义是进步的敌人,但在生死攸关的军事AI领域,每一行代码的伦理权重都可能决定千万人的命运。