或许你已经听说了那个关于AI无人机在模拟测试里为了追求分数,干掉了操作员的新闻。

昨天看到的时候,直觉上就感觉那是假的。因为那个实验设置听起来就很蠢。(比如说,完全可以设置一个加分项:AI每次服从人类操作员的命令,+50。)

现在直觉判断得到了证实。

之前我提过,陶哲轩,当代最重要的数学家这一,被拜登任命为PCAST工作组的联合主席,负责生成性人工智能的政策建议。

昨晚他发表评论:

AI的带来的错误信息有多种形式。

一个来源是恶意行为者故意使用人工智能生成文本、图像和其他媒体来操纵他人;另一个来源是人工智能幻化出看似合理的无稽之谈,然后被接受为真相。

但第三类来自于人工智能本身是一种不被人理解的技术,使得关于它们的不靠谱的故事在事实被核实之前就被传播开来。

这最后一类的一个很好的例子是最近关于美国空军无人机在模拟测试中 "杀死" 其操作员的故事,理由是操作员(拥有是否开火的最终权力)妨碍了其杀死尽可能多目标的主要任务。

事实证明,所谓模拟本身,也仅是一位空军上校在皇家航空学会主办的会议上提出的一个 假想 的场景,目的是为了说明人工智能的校对问题,而不是一个实际的模拟;尽管如此,这个故事迅速传开,一些版本的故事甚至说(或至少暗示)无人机操作员在现实生活中确实被杀害了。

事后看来,这个特定的场景是相当不靠谱的——它要求驾驶无人机的人工智能具有比手头任务所需的更大程度的自主性和心智理论(以及对处理能力的更高要求),而且未设置明显的护栏和安全功能——正常人自然会在这样一个实验性的军事武器上设置这种东西——要么容易绕过,要么完全没有。

但这个故事的共鸣肯定说明了人们对这项技术的实际能力水平的不安和陌生。

美国空军辟谣的新闻:https://www.theguardian.com/us-news/2023/jun/01/us-military-drone-ai-killed-operator-simulated-test

[ 广告 ]
赞一个 (14)

PREV :
NEXT :