翻译:Pikachu
原文:http://www.sciencealert.com/killer-robots-already-exist-and-they-ve-been-here-a-very-long-time

美国国防部声明:“人们总能决定武装机器什么时候开火。”
这个声明是为了降低人们对新式瞄准系统(ATLAS)的恐惧。该系统会在武装载具上用于瞄准和解决威胁。

虽然民众可能会对所谓的“战争机器”感到不安,但是这概念其实一点都不新鲜,装备机枪的SWORDS机器早就在2007年于伊拉克部署过了。我们与军事机器人的关系甚至能追溯到更久以前。这是因为当人们说到“机器人”时,他们可以指任何一项可以不需要人们干涉而完成任务的科技。

这些科技已经存在了很长一段时间了。在二战期间,近炸引信(proximity fuse)已经被开发,它能在离目标预定距离的地方爆炸。这让那些自动爆炸的炮弹效率远高于人类干涉过的炮弹,某种程度上,这使人们完全放弃了挑起战争。

所以问题不应该是我们是否应该在战争中使用自动武器系统——因为我们已经使用过了,而且它存在很多种形式。我们应该关注的是我们怎么使用它们,为何使用它们,和以什么形式使用它们。如果要使用的话,人类应该进行干预。

控制论(cybernetics)的诞生

作者的研究探索人-机关系的哲学,特别关注军事伦理学和我们分辨人与机器的方法。

在二战期间,数学家Norbert Wiener 在研究如何控制防空火炮时提出了控制论的基本原理。通过研究飞行器的预测动作和实际动作间的误差,Wiener和他的同事Julian Bigelow 提出了“反馈循环”的概念。误差可以通过这个循环被反馈到系统来纠正以后的预测。

Wiener的理论因此有了很大的提升,因为控制论技术可以用来提前预测人类的决定。这把容易出错的人类移出了循环,以便机器作出更好更快的决定达到提高武器系统效率的目的。

二战以后的这些年来,计算机的出现帮助控制论成为了军队思想的中心支柱,催生了一系列武器,包括越战使用激光制导的智能导弹,到现在的洲际导弹和死神无人机。

很快就不会像以前一样仅仅去提升士兵的能力了。并且下一个阶段将会完全移除人类,“最大化”军事输出的同时最小化政治成本和盟军士兵的损失。

这也已经导致了美国和其盟友的军事无人机的广泛使用。尽管这些使用有很大的争议,他们还是在政治领域通过民众对死去士兵的抗议证明了这是更可取的。

人与机

与无人机战有关的饱受争议的事物之一就是无人机驾驶员的角色,也叫做“驾驶员”。就像其他人一样,这些操作员的老板叫他们好好干。然而他们并不知道怎样才算干的漂亮。

就像哲学家和文化评论家Laurie Calhoun说的——操作员的工作就是杀戮

这样的话,他们的任务并不是自己做决定,而是去干他们受被要求干的活。如果电脑告诉他们去杀戮,他们真的有理由不去做吗?

现代士兵也会有类似的问题。士兵们要带着GPS导航、视频上传设备等等设备将他们和互联网绑定,所有行动都将被监视和操纵。这导致了一个伦理难题。如果士兵的任务是无脑服从命令,而且还要被摄像头监视来确保执行,那么我们为什么一定要用人类士兵呢?

总的来说,机器比人类效率多了,而且不会像人类一样感受到疲劳和压力。如果士兵要求像设计好的程序一样工作,那有什么让友军流血的必要呢?

解决方案就是,人们作为这些几乎完全机械化的行为的一个托词或者叫作“伦理掩护”。就像无人机操作员的任务是监视电脑操纵的无人机,在国防部ATLAS系统里人类的任务就是当事情失去控制时打伦理掩护。

当人们提到军事自动化和“杀人机器”时你的第一反应可能会是铁血战士和死神无人机,但这些事物也早已不是什么新鲜事。它们仅仅是这几十年的科技发展历程上的新的事物。

虽然设想机器永远只能是人类命令的下属能令某些读者感到舒服,但这并不是重点。自动系统早就深深嵌入了军事,而我们应该准备好承担后果。

[ 广告 ]
赞一个 (4)

PREV :
NEXT :