一家多产的网络安全分析公司表示,它已经设计出了让特斯拉的自动驾驶功能偏离路线的诡计,只需要在路面上粘贴三张小贴纸。

Keen Lab是特斯拉“抓bug”名人堂里的两次获奖者,周六在一份研究报告中表示,它又发现了两种通过改变物理路面来欺骗自动驾驶系统Autopilot识别车道的方法。译注:Keen Lab应该就是腾讯科恩实验室,是腾讯下面的研究机构。

首先,他们尝试在左侧车道线上用雪花干扰图像来混淆Autopilot的判断,随后团队认为,在现实世界中部署这种干扰方式有点太不寻常,并且特斯拉车载电脑的学习算法似乎反应得也很快。

“攻击者很难在物理世界中部署一些不被人发现的标记来禁用移动中的特斯拉车的道路识别功能。”

研究人员表示,他们怀疑特斯拉也能很好地应对这种情况,因为一轮实验下来,它已经在其自动驾驶仪里程中标记了许多“异常路段”。他们说,即使没有良好的照明,或者在恶劣的天气状况下,这种学习能力也给特斯拉车提供了良好的车道方向感。

Keen并没有因为第一个创意不高的成功率而受挫,于是又想出了让特斯拉的Autopilot拐上错误车道的方法。

研究人员在路面上画了三个小方块来模仿合并条带,并使自动驾驶汽车转向了左侧逆行车道

“使用恶意攻击者绘制的小方块来误导自动驾驶车辆转向错误的交通方向有时比使其无法识别路况更危险。”Keen说,“如果程序意识到假车道通往反向车道,它应该会忽略这条假车道,然后就可以避免交通事故。”

针对Keen的实验结果,特斯拉表示,这些问题并不代表现实世界中的问题,也没有哪个司机遇到过报告中提及的状况。

“在演示中,研究人员调整了车辆周围的物理环境(例如在路上放置条带或改变车道线路),以干扰Autopilot的判断。”该公司表示,“考虑到实际驾车过程中,司机可以随时用方向盘或刹车超驰控制自动驾驶系统,所以那不是现实世界中的问题。”

特斯拉的一位代表告诉Business Insider,虽然Keen的调查结果不符合该公司的“抓bug”计划的悬赏条件,但该公司十分重视这些研究人员的看法。

“我们知道这需要花费大量的时间、精力和技巧,我们非常期待看到他们以后的报告。”

本文译自 sciencealert,由 majer 编辑发布。

[ 广告 ]
赞一个 (7)

PREV :
NEXT :