自动驾驶汽车不安全!有7大障碍需要克服

2024-07-26  |  来源:互联网 24浏览

上周,一辆特斯拉Model S发生事故致人死亡,它告诉我们:无人驾驶技术仍然需要改进。

特斯拉官方博客解释称,当约书亚·布朗(Joshua Brown)的汽车撞上卡车时,控制汽车的正是Autopilot技术,这门技术仍然处在“公开测试阶段”。也就是说,特斯拉开放了技术,接受公众的强度测试,技术可能存在漏洞。一些产品也用类似的方法测试,比如新的电子邮件应用、VR头盔。苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)认为:“测试产品不应该引发关乎生死的严重后果。”

在调查结果出炉之前,我们无法知道事故到底是软件故障引起的,还是人为错误引起的。有报道称,事故发生时司机可能正在看《哈利波特》电影。有一点倒是肯定的:当时的天空很明亮,拖拉机挂车的侧面是白色的,Autopilot与司机都没有注意到货车,刹车没有启动。

特斯拉Autopilot用摄像头和雷达来侦测、躲避障碍物,通过事故我们可以知道系统肯定出现了两个错误。**,摄像头无法处理日光的刺眼光芒,其次,雷达将卡车当成了空中的公路标志予以忽略,避免错误刹车。

通过Twitter帐号,马斯克不断对新闻媒体的报道作出解释,尽管如此,要让自动驾驶汽车技术普及开来,还有许多常见错误需要解决。

传感器问题

如果汽车安装了多个传感器,给出的信息存在冲突,你选择哪一个?特斯拉事故也存在这样的问题,当中的一个传感器的确发现了卡车,但是将它误认为头顶的道路标识。

自动驾汽车专家、密歇根-迪尔伯恩大学(University of Michigan-Dearborn)工程教授斯里达尔·阿克什曼安(Sridhar Lakshmanan)认为:“无人驾驶汽车制造商面临一个大难题:机器智能如何知道自己应该相信某个雷达传感器?答案很难知道。”

道路施工

2015年4月,Delphi派出无人驾驶汽车在全美行驶了3400英里,当中的50英里是工程师控制的。为什么?有些城市环境无法预测,因为道路没有标记,正在施工。

沙袋与假设

2016年2月,一辆谷歌无人驾驶汽车与山景城(Mountain View)的一辆公共巴士撞在一起,当时无人驾驶汽车试图绕过街道上的沙袋。为了绕过沙袋,汽车左前方撞到了巴士,当时巴士准备超车。

谷歌解释称:“很遗憾,所有的假定引导我们在同一时间抵达道路的同一个地点。每**,公路上的人类司机都会发生同样的误解。”

天气

不论是对人还是对无人驾驶技术的传感器来说,反常天气条件都会影响能见度。因为下雨,激光雷达传感器的覆盖范围、精准度会下降,嵌入式传感器的视线会模糊,下雨还会产生反光和眩光。

为了提高无人驾驶技术在潮湿环境下的表现,谷歌在西雅图附近的公路上测试汽车,那里雨量充足。

黑客

汽车的科技含量越来越高,越来越容易遭遇黑客的攻击。无人驾驶汽车安装了电脑,支持互联网连接,安装了传感器,遭受攻击的可能性相应也会提高。

在概念验证式攻击中,安全专家乔纳森·佩蒂特(Jonathan Petit)向我们证明,用手持激光棒就可以欺骗汽车,让它误认为路面上存在非天然障碍物,从而迫使汽车减速、停车或者转向。

人类

90%以上的汽车事故都是人为错误引起的,在半自动驾驶汽车中人类也是*弱的一个环节。一些汽车功能标上了“Autopilot”(自动驾驶)标志,鼓励用户相信汽车,这种后果更严重。

美国汽车研究中心交通系统分析部门主管理查德·华莱士(Richard Wallace)认为:“可能中间等级的自动驾驶还不能应用于消费产品。企业制造商积*鼓励用户使用系统,而这些技术还没有准备好,企业做得有点激进。”

其它人

坐在自动驾驶汽车中的人应该保持警惕,其它汽车中的人也应该警惕。密歇根大学交通研究机构查看了谷歌、Delphi和奥迪的数据,发现自动驾汽车的事故率比常规汽车高一倍。

尽管如此,无人驾驶汽车并没有犯错,许多时候都是粗心大意、积*冒进的人类司机从后面撞上了无人驾驶汽车,因为自动驾驶汽车严格遵守交通规则,他们不习惯。

谷歌已经为汽车编程,让汽车的行驶方式更加接近人类驾驶方式,例如,在十字路口前面汽车会慢慢向前移动,告诉别人它马上就要行驶了。