自驾车事故如何通过技术规避?(上)

国际金属加工网 2018年04月17日

Uber的自动驾驶车辆上个月在美国发生撞人致死案件,当时一篇报导“自动驾驶车们,请先跑完仿真再上路测试好吗?”;在文章发表之后,高通(Qualcomm)的人工智能(AI)研发业务开发负责人RickCalle做出回应,问了我以下的问题:

Uber撞人事件是第一场悲剧,我们该如何让它变成最后一场?我非常确定他们也用了仿真软件,但大家是否仿真了传感器故障的情况、因为距离使得光达(Lidar)采样稀疏的效应,还有其他不可预测的事件?

Calle的问题指出了测试自动驾驶车辆绝非易事,要验证自驾车不只是能运作,各种功能还必须安全运作,需要前所未有的工程严谨度;测试人员不仅得确定需要模拟的内容,也要确保模拟过程使用了高保真度的感测数据。接着必须拟定测试计划,以便为车辆供货商提供足够可证明的安全性能指针。

不过,在了解模拟/测试方法的细节之前,知道一件事情很重要──我们今日所知的“自动驾驶”仍然不成熟。

美国卡内基美隆大学(CarnegieMellonUniversity)教授PhilipKoopman在最新的一篇部落格文章中写道,在Uber事故导致行人ElaineHerzberg身亡的并非全自动驾驶车辆,她是受害者,是因为一辆仍在开发阶段的“未经实证的测试车”,还有“应该要确保技术故障不会导致伤害的那个安全驾驶”。

让我们一起想想…过去一年半以来,科技业者(还有媒体)忙着促成全自动驾驶车辆的即将实现,却漠视了无数挥之不去的、关于自动驾驶的“未知”;这里的“未知”,我指的是自动驾驶车辆所衍生出的、科技产业几乎还未开始处理的议题,更不用说提出因应策略。

我们询问过数个产业界消息来源──从算法开发者、测试专家,到嵌入式系统软件工程师,他们仍认为开发“安全的”自动驾驶车辆是一个不确定的议题或挑战,虽然他们的回答各异,却都坦承自驾车还有很多议题,有待来自科技与汽车产业的回答。

预测性感知

自驾车技术开发商DeepScale执行长ForrestIandola在谈到Uber事故时表示,除非Uber公布行车纪录器以外的数据──包括车上的雷达与摄影机在事故发生时所看到的──外界人士可能永远不会知道事故发生原因:“我们需要透明的信息,不然很难知道他们的感知系统、动作规划或是地图绘制等功能究竟哪里出错。”

DeepSale是一家成立于2015年的新创公司,专门为先进驾驶辅助系统(ADAS)与自动驾驶车辆开发深度学习感知软件;根据该公司已经学到的经验,Iandola解释,大多数为自驾车设计的感知系统是产业界与学术界“精心打造”,举例来说,光达已经可以清楚辨识3D目标物的形状,同时自驾车的“语义”(semantic)感知在物体分类方面也有所改善。

不过仍缺乏的,是“预测性感知”(predictiveperception);Iandola指出:“预测性感知技术的研发几乎还没开始。”

举例来说,如果自驾车不能预测某目标物在5秒后的可能位置,就不能决定是否该煞车或转向,甚至是在看到该目标物体后。“在运动规划与预测性信息之间需要一个标准接口,”Iandola表示:“如果这个问题没有解决,我的说要实现Level4自驾车真的很困难。”

极端案例能模拟吗?

在公开道路上测试自动驾驶车辆之前的模拟显然非常重要,但更重要的是实际上如何模拟。安全自动驾驶车辆系统开发商EdgeCaseResearch共同创办人暨执行长MichaelWagner表示,对自驾车开发者来说有一个坏消息是,尽管累积了数十亿英哩的模拟驾驶里程,也不一定能涵盖自驾车可能遭遇的所谓“极端案例”或“边缘案例”。

在过去几年,深度学习芯片供货商耗费大量资源,宣传深度学习算法可能实现全自动驾驶系统,这种算法可能让自驾车发展出类似人类的能力,能在不需要知道每一种可能情况的前提下识别不同图形。

依赖深度学习的自动驾驶系统能被训练,发展出类似人类的能力(来源:DriveSafely)

不过来自反面的声音是,当机器学习或深度学习系统遭遇以往未见过的事物──被称为长尾(longtail)或离群值(outlier)──会被“吓到”;而人类驾驶在面临实在异常的状况时,至少会有的反应是觉得奇怪,他们知道在某种程度上需要有所反应,而机器则可能不会记录极端异常的情况,会继续往前走。

Wagner表示,EdgeCaseResearch专注于建立这样的极端情况,以纳入仿真软件平台;他坦承一切还在早期开发阶段,该公司的平台代号为“全像”(Hologram),目标是将实体车辆所行驶过的每一英哩转化为数百万计的可能场景,尽可能快速且安全地根除“未知的未知”。

要为自动驾驶车辆建立这种“极端案例”并不简单;Wagner指出,在欧洲有一个名为Pegasus的项目利用了一种数据库方法来确保自动驾驶安全,但挑战在于该项目的某部份场景,可能对神经网络来说不一定重要。

Wagner表示,也就是说,我们其实并不知道神经网络会发现什么难题或不容易处理的情况,更别说为何神经网络会有那样的行为模式:“随机性对于建立异常案例非常重要,我们利用实际的场景,在影像上做不少变化,然后在我们的Hologram平台上进行细微修改。”

他将Hologram形容为一个试验专案:“我们正在向投资者推销这个平台,以扩大它的规模。”而自动驾驶系统带给汽车业者的最大冲击,就是软件内容不断膨胀…


网友评论
欧特克

编辑推荐

您关注的企业

您关注的主题

猜您喜欢

相关主题