由于操作过于频繁,请点击下方按钮进行验证!

自驾车事故如何通过技术规避?(上)

Uber的自动驾驶车辆上个月在美国发生撞人致死案件,当时一篇报导“自动驾驶车们,请先跑完仿真再上路测试好吗?”;在文章发表之后,高通(Qualcomm)的人工智能(AI)研发业务开发负责人RickCalle做出回应,问了我以下的问题:

Uber撞人事件是第一场悲剧,我们该如何让它变成最后一场?我非常确定他们也用了仿真软件,但大家是否仿真了传感器故障的情况、因为距离使得光达(Lidar)采样稀疏的效应,还有其他不可预测的事件?

Calle的问题指出了测试自动驾驶车辆绝非易事,要验证自驾车不只是能运作,各种功能还必须安全运作,需要前所未有的工程严谨度;测试人员不仅得确定需要模拟的内容,也要确保模拟过程使用了高保真度的感测数据。接着必须拟定测试计划,以便为车辆供货商提供足够可证明的安全性能指针。

不过,在了解模拟/测试方法的细节之前,知道一件事情很重要──我们今日所知的“自动驾驶”仍然不成熟。

美国卡内基美隆大学(CarnegieMellonUniversity)教授PhilipKoopman在最新的一篇部落格文章中写道,在Uber事故导致行人ElaineHerzberg身亡的并非全自动驾驶车辆,她是受害者,是因为一辆仍在开发阶段的“未经实证的测试车”,还有“应该要确保技术故障不会导致伤害的那个安全驾驶”。

让我们一起想想…过去一年半以来,科技业者(还有媒体)忙着促成全自动驾驶车辆的即将实现,却漠视了无数挥之不去的、关于自动驾驶的“未知”;这里的“未知”,我指的是自动驾驶车辆所衍生出的、科技产业几乎还未开始处理的议题,更不用说提出因应策略。

我们询问过数个产业界消息来源──从算法开发者、测试专家,到嵌入式系统软件工程师,他们仍认为开发“安全的”自动驾驶车辆是一个不确定的议题或挑战,虽然他们的回答各异,却都坦承自驾车还有很多议题,有待来自科技与汽车产业的回答。

预测性感知

自驾车技术开发商DeepScale执行长ForrestIandola在谈到Uber事故时表示,除非Uber公布行车纪录器以外的数据──包括车上的雷达与摄影机在事故发生时所看到的──外界人士可能永远不会知道事故发生原因:“我们需要透明的信息,不然很难知道他们的感知系统、动作规划或是地图绘制等功能究竟哪里出错。”

DeepSale是一家成立于2015年的新创公司,专门为先进驾驶辅助系统(ADAS)与自动驾驶车辆开发深度学习感知软件;根据该公司已经学到的经验,Iandola解释,大多数为自驾车设计的感知系统是产业界与学术界“精心打造”,举例来说,光达已经可以清楚辨识3D目标物的形状,同时自驾车的“语义”(semantic)感知在物体分类方面也有所改善。

不过仍缺乏的,是“预测性感知”(predictiveperception);Iandola指出:“预测性感知技术的研发几乎还没开始。”

举例来说,如果自驾车不能预测某目标物在5秒后的可能位置,就不能决定是否该煞车或转向,甚至是在看到该目标物体后。“在运动规划与预测性信息之间需要一个标准接口,”Iandola表示:“如果这个问题没有解决,我的说要实现Level4自驾车真的很困难。”

极端案例能模拟吗?

在公开道路上测试自动驾驶车辆之前的模拟显然非常重要,但更重要的是实际上如何模拟。安全自动驾驶车辆系统开发商EdgeCaseResearch共同创办人暨执行长MichaelWagner表示,对自驾车开发者来说有一个坏消息是,尽管累积了数十亿英哩的模拟驾驶里程,也不一定能涵盖自驾车可能遭遇的所谓“极端案例”或“边缘案例”。

在过去几年,深度学习芯片供货商耗费大量资源,宣传深度学习算法可能实现全自动驾驶系统,这种算法可能让自驾车发展出类似人类的能力,能在不需要知道每一种可能情况的前提下识别不同图形。

依赖深度学习的自动驾驶系统能被训练,发展出类似人类的能力(来源:DriveSafely)

不过来自反面的声音是,当机器学习或深度学习系统遭遇以往未见过的事物──被称为长尾(longtail)或离群值(outlier)──会被“吓到”;而人类驾驶在面临实在异常的状况时,至少会有的反应是觉得奇怪,他们知道在某种程度上需要有所反应,而机器则可能不会记录极端异常的情况,会继续往前走。

Wagner表示,EdgeCaseResearch专注于建立这样的极端情况,以纳入仿真软件平台;他坦承一切还在早期开发阶段,该公司的平台代号为“全像”(Hologram),目标是将实体车辆所行驶过的每一英哩转化为数百万计的可能场景,尽可能快速且安全地根除“未知的未知”。

要为自动驾驶车辆建立这种“极端案例”并不简单;Wagner指出,在欧洲有一个名为Pegasus的项目利用了一种数据库方法来确保自动驾驶安全,但挑战在于该项目的某部份场景,可能对神经网络来说不一定重要。

Wagner表示,也就是说,我们其实并不知道神经网络会发现什么难题或不容易处理的情况,更别说为何神经网络会有那样的行为模式:“随机性对于建立异常案例非常重要,我们利用实际的场景,在影像上做不少变化,然后在我们的Hologram平台上进行细微修改。”

他将Hologram形容为一个试验专案:“我们正在向投资者推销这个平台,以扩大它的规模。”而自动驾驶系统带给汽车业者的最大冲击,就是软件内容不断膨胀…


声明:本网站所收集的部分公开资料来源于互联网,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,不为其版权负责。如果您发现网站上所用视频、图片、文字如涉及作品版权问题,请第一时间告知,我们将根据您提供的证明材料确认版权并按国家标准支付稿酬或立即删除内容,以保证您的权益!联系电话:010-58612588 或 Email:editor@mmsonline.com.cn。

网友评论 匿名:

分享到

相关主题