自动驾驶 Uber 撞死行人,为什么说这类事故发生是迟早的事?


题图:Public Domain


相关新闻


3 月 20 日消息,据旧金山纪事报报道,Uber 的一辆无人驾驶汽车日前在美国亚利桑那州坦佩市撞死一名女子。当地警察局长表示,初步调查显示,Uber 的无人驾驶汽车并无过错。


来源:网易科技


Uber 全球第一起自动驾驶致其死亡的不幸事件发生,反映了哪些问题?会有何影响?


知友:周博磊(100+ 赞同,深度学习、机器学习、人工智能话题优秀回答者)


这个算是第一个公众眼里的 AI 致死事件,也是意料之中的事情,Anything that can go wrong will go wrong. 为死者惋惜。


这个事件带来两个核心问题,一个是为什么事故会发生,另外一个是到底是谁的责任。


为什么事故会发生,简单来说是 AI 作出错误决策导致事故发生,那到底为什么 AI 会作出错误决策,这就涉及 AI 模型的可解释性(explainability)和透明性(transparency)。


目前连图片分类神经网络的解释性都还没解决,对于自动车如此复杂的系统,要解释明白为什么没检测到行人以及为什么没有制动,我觉得是个非常难的问题,因为我自己的一个研究方向就是 AI 模型的可解释性。


解释 AI 模型的决策还任重道远,好在这两年大家也意识到了这个问题的重要性,相关研究工作多了起来,比如说美国国防部DARPA 的 Explainable AI 研发项目,就是力求开发出更具有解释性的模型。


AI 模型解释性也涉及 AI 的立法管理。


去年欧盟就颁布了一个法令 GDPR (General Data Protection Regulation),其中一项是 Right to Explanation: a user can ask for an explanation about an algorithmic decision made about them。


大概意思是,民众有权利要求机器算法解释其作出决策的原因,也是希望提出的 AI 模型能更具透明性和可解释性。


关于此次事故的技术调查,我也会继续关注。


这次事件带来的另外一个问题是,人命关天到底是谁的责任。


自动驾驶汽车出了事故,责任是属于汽车所有人?操作员?乘客?生产车厂商?还是 AI 算法科学家?程序员?或者背锅临时工?


这是个非常困难的问题,而且并没有相应的法规和立法。这个问题,深层次又涉及 AI 的伦理。比如说让 AI 来解这个伦理学上的经典问题 Trolley Problem,机器又会做出如何的选择。


打个岔,针对这个 Trolley 问题, MIT 的 media lab 搞了个挺有意思的实验平台 Moral Machine:其在上面设计出了一些场景,让人来思考自动驾驶系统会作出如何的决策。


比如说下面第一个场景是,一个失控的自动驾驶系统,如果继续前行的话会造成 5 个婴儿死亡,转左的话会造成 2 名乘客死亡,那算法应该如何作出决策?


第二个场景是自动车直行造成一部分行人受伤,左转的后果不确定(有可能造成行人伤亡,有可能无恙),那算法又该作出怎样的决策呢?


研究 AI,并不一定需要非常 technical,这种从心理学伦理学社会学出发,也是一条路子。




总的来说,AI 造成伤亡事故,和 AI 战胜人类最优秀的围棋选手,都是发展过程中的必然。


其造成的影响,暴露出的问题,长远来看还是对 AI 的发展,和人类社会针对 AI 的立法伦理都有积极推动意义。


知乎机构号:量子位(300+ 赞同)


可能要从两个方面思考这个问题:


首先 Uber 无人车撞人致死和自动驾驶是否真的安全,没有必然联系;


第二,Uber 只是自动驾驶玩家之一,而且也不是最优秀技术的代表。


一个个说。


1)Uber 无人车撞人说明了啥?


只能说明 Uber 无人驾驶技术实在不怎么样。


先给大家介绍下事故始末:


美国上周日 22 点,在气候宜人、自动驾驶政策友好的亚利桑那州郊区路段,一名 49 岁的女性行人没有通过人行道而希望横穿马路(违章过马路),被被 Uber 无人驾驶测试车撞倒,送医抢救后死亡。


当时 Uber 无人车的情况是:车改装自沃尔沃 XC90 SUV,后添加了 Uber 自主研发的软件系统,使用了包括激光雷达、相机在内的传感器,确实是目前较为主流的自动驾驶方案。


并且,事故发生时,Uber 无人车上有人,但坐于后座。据称车速 60 公里/小时,没有刹车减速。


OK,事故目前细节基本就是这样。


可以看出这么几个问题:1)周末夜晚,路况不错,环境不错;2)行人在非人行横道突发闯路;3)Uber 无人车系统完全没有识别、感知和决策。


所以也可以得出基本结论:悲剧的原因非常明显——Uber 自动驾驶技术实在太差了!


在 L4 等级(完全无司机参与)的自动驾驶中,对于行人的识别是最基本、最必须的要求,虽然始发时间是夜晚(可能会影响相机发挥作用),但装有激光雷达的 Uber 无人车,至少应该做到有效识别,然后减速\刹车。


但 Uber 无人车都没有,直接撞了过去。


有人可能说是行人违章过马路,但假如连这样的场景都解决不了,是不是自动驾驶以后要专门建设防行人穿过的车道?那我们要不直接建地铁\轻轨?


而且 Uber 也不是第一次发生事故了。


去年 3 月,也是在亚利桑那州,一辆 Uber 无人车发生车祸。


据 ABC 15 新闻台当时从当地警方得到的消息,警方没有接到车祸中受伤的报告,事故发生的原因是一辆人类驾驶的汽车没有及时减速。当时,Uber 的自动驾驶汽车没有载客,驾驶座上有一名人类,但不清楚当时是人类还是计算机在开车。


Uber 随后也表示“没有人严重受伤”,公司也正在对事故进行调查。在此过程中,Uber 在亚利桑那、旧金山和匹兹堡的自动驾驶测试项目都暂停运行。


2)自动驾驶真的安全吗?


不同于其他技术,自动驾驶人命关天,0.000001% 的缺陷,都可能造成 100% 的伤害,所以自动驾驶不会是绝对安全,有保障的技术。


然而,Uber 无人车撞人致死,与自动驾驶是否安全没有直接联系。


因为 Uber 不代表最先进技术的发展水平。


谁能代表呢?谷歌的 Waymo。


前些日子,Waymo 宣布无人车实际路测里程达到了 500 万英里(800 万公里)——相当于绕地球地道跑了 200 圈。这是一个前无古人的数据,而且没有发生撞人致死的事故。


并且还是在亚利桑那州,Waymo 去年试运行了一年,很多普通居民感受到了无人驾驶出行的魅力——昼夜不停、全年无休。


值得说明,一次事故都没有发生哦。Waymo 今年还希望正式推出无人驾驶出租车打车服务。但现在经 Uber 无人车这么一撞,感觉要很被动了。


说 Uber 是无人驾驶产业的猪队友,一点不为过。


当然,即便 Uber 无人车此次发生致命事故,你也不能说自动驾驶不安全。


因为相比人类司机,自动驾驶系统可能更安全,从逻辑上讲,人类会疲劳、会喝酒、会有一些有的没的注意力不集中的时候,但计算机完全没有这样的问题。


从现实数据来说,光美国一年在交通事故中丧生的人数,平均每天就有 16 人。


但你不会看见任何报道。


而从 Google 开始搞无人车至今,差不多 10 年了,今天猪队友 Uber 发生了史上第一起撞人致死的案件。


然后被全球瞩目。


如果仅凭此认为自动驾驶不安全,是完全没有道理的。


最后的最后,还是要哀悼这位名叫伊莱 - 恩赫茨伯格(Elaine Herzberg)的逝者,如果说一点积极的意义,那可能这次会让人们更加关注自动驾驶带来的影响,也会更积极地思考自动驾驶遭遇类似问题时,需要解决的问题。


当然,其中最不希望的就是因噎废食。


知友:hu wang(100+ 赞同)


目前具体事故的细节还不清楚,我先大概说说。等到有更多细节信息之后,再进行补充。


以现有的技术条件,无人驾驶撞死行人的事故是迟早会发生的。之前唯一的问题是,什么时候会发生?


为什么说无人驾驶撞死行人的事故迟早会发生?


从大的角度来看,任何技术都不可能是百分之百可靠的。随着无人驾驶测试里程的增加,出现致命事故的可能性也会大大增加。


假设一万公里里程测试中的无人驾驶出现致命事故的概率是 0.1%,那么里程达到一亿公里时,无人驾驶出现致命事故的概率会达到 (1 - 0.999^10000) ≈ 100%。数字不准确,但是基本原理如此。


无人驾驶的致命事故是可以预期、一定会发生的事情。不要觉得一万公里和一亿公里差了很多,Uber 可是要从沃尔沃购买 24000 辆车的。


以下部分为目前的推测,在事故细节披露之后会进行修改


具体到这次事故,目前还没有细节信息透露出来。根据已有的一些信息,我做一些大胆的揣测。


由车辆停车位置还有撞击痕迹来看,事故很可能是由行人没有注意到后方来车,突然左转横穿马路造成的。


根据警方发布会的初步信息,当时 Uber 车的车速是 40 英里每小时,也就是说 Uber 车并没有因为行人而减速。


根据现场事故图片可以注意到,行人开始左转的时候,很可能已经处在 Lidar 的盲区。而车上 Lidar 以外的其他传感器很可能并没有识别出「推着车 / 骑着车的行人正在左转」。


车上算法认为行人仍然在直行,最终撞了上去。或者也可能传感器正确识别了行人,算法做出了反应,但是由于车速过快,车没有能够及时停下。


这让人想起了 Uber 之前的一次无人驾驶事故(车被撞翻了)。两次事故可能的共同之处在于,无人驾驶车辆的行为是合法的,但是又是不合常理的、不符合人开车的通常习惯的。


具体到这次事故。事故虽然很可能是行人的行为导致的,但是如果是人驾驶的车辆的话,通常不会在人行道有人行走的情况下,以 40 英里每小时的速度通过临近道路。


考虑到安全因素,人驾驶的车辆,或者会减速,或者会考虑往左进行一些避让。


有人提到了车上实际上是坐着安全员的。安全员的设置,并不能防止这种事故发生。


事实上,无人驾驶的安全员作出反应的时间,是比人类驾驶员自己开车的反应时间更长的。这是在讨论 ADAS 或者低级别自动驾驶时,经常提到的 Over-trust 问题。这个问题具体展开讲太大了,就不细说了。


最后作为一个业内人士,我一直对无人驾驶持非常保守的态度。


在这种和生命直接相关的技术领域,重要的不是知道技术能做什么,而是理解技术还不能做到什么。


这两年国内的无人驾驶相关公司都在疯狂鼓吹快速落地商业化,然而这项技术目前并没有那么成熟。也希望这次事故,能让同行们引以为戒。


 本文内容来自「知乎」

 转载请联系原作者 

 欢迎转发到朋友圈~ 



知乎热门文章

喝热水致癌?这么说可能是错的

你坚持过哪些细小的好习惯?

不是所有人都适合早睡早起


为了推送更多大家喜欢的内容,知乎君特意准备了一个调查问卷,请戳阅读原文填写~