博名知识网

您现在的位置是: 首页 > 知识问答

写日记的格式,优步安全员负责掩盖自动驾驶的责任困境

2020-10-24 16:27:54博名知识网
图片来源@VisualChina文字丨脑极体还记得两年多前导致Uber行人死亡的自动驾驶车祸吗?最新消息是,今年9月15日,亚利桑那州的一个大陪审团决定以故意杀人罪起诉当时的Uber自动驾驶汽车前安全驾驶员RafaelVasquez。

  

  图片来源@Visual China

  文字丨脑极体

  还记得两年多前导致Uber行人死亡的自动驾驶车祸吗?最新消息是,今年9月15日,亚利桑那州的一个大陪审团决定以故意杀人罪起诉当时的Uber自动驾驶汽车前安全驾驶员Rafael Vasquez。入狱五年,治安官拒绝在法庭上认罪。 诉讼可能会继续。

  

  那起事故的责任方Uber呢?实际上,早在去年3月,作案者Uber就没有被美国法院判有罪。

  被称为“自动驾驶导致的行人死亡的第一例”的当事方很容易逃脱责任,这让确实有过错的安全人员承担全部责任。这个结果真令人尴尬。 这是涉及“大公司行恶而小公司后手”的司法腐败吗?还是这种判断是美国司法的旧模式遇到了新的问题,并且不知道如何对自动驾驶算法系统及其所有者做出裁决?

  在自动驾驶测试或由安全员监控的商业应用中,我们自然会将车辆的安全性归因于安全员。 但是,一旦真正的无人驾驶大规模流行,汽车上的安全员,甚至是方向盘,在取消刹车后,车辆安全事故的责任自然就算在汽车的主体上了。 开发和使用这套自动驾驶算法的企业。然后,自动驾驶算法的责任性将变得更加复杂。

  在讨论此问题之前,我们不妨先回顾一下Uber的车祸细节,以了解此车祸判决中有争议的要点。 优步真的可以撤退吗?一旦安全主任被撤职,无人驾驶汽车和自动驾驶算法应如何负责?将来似乎遇到的这些问题已经摆在您和我面前,因此迫切需要考虑和讨论。

  回到现场:车祸是怎么发生的?

  去年11月,美国国家运输安全委员会(NTSB)发布了一份报告,其中披露了撞车发生前10秒的优步自动驾驶汽车的详细信息。值得注意的是,当时已经裁定Uber平台不负责任,但这份报告指出,Uber的自动驾驶系统存在各种漏洞。

  这就是事故发生的方式。2018年3月18日晚上,亚利桑那州坦佩的一名妇女在推着自行车过马路时被一辆Uber无人驾驶汽车撞上,时速超过60公里。

  如果汽车只是普通车辆,那么事故的责任就显而易见了。 一方面,行人过马路,他们负责,但车辆驾驶员主要负责不刹车和及时回避。但是这辆车是Uber的无人驾驶测试车,上面有一名安全人员,负责处理该车的紧急情况。

  在这次车祸中,安全人员显然没有履行职责。根据调查,安全人员在驾驶过程中一直通过手机观看类似于“中国之声”的娱乐节目。 在此期间,监控摄像头反复捕获他的头部,直到0为止。在5秒钟内,他注意到行人在车前,最后只有0。踩刹车花了7秒钟,但事故已经发生了。

  

  决定在此事故中应对安全人员负责是没有问题的。毕竟,他的职责是确保车辆和道路行人的安全,但他的疏忽直接导致了这一严重事故。在日常生活中,大量的交通事故主要是由于这种疏忽造成的。

  但是正是Uber的无人驾驶汽车的自动驾驶系统给安全人员带来了一种幻想,即该汽车可以自行判断前方的路况,并且他可以懒于看手机。这也是自动驾驶技术水平的L3水平的两难选择。可以高度自主地驾驶车辆,但是如果发生事故,则由驾驶员负责。那么,驾驶员如何放心或娱乐比赛呢?

  回到Uber车上,这没有问题吗?从调查来看,存在很多问题。

  在Uber车辆撞到行人之前的10秒钟内,车辆最初识别出行人并避免了事故。但是一系列系统的错误判断导致车辆在没有减速的情况下坠毁。报告中有几个关键数据:在9中。9秒到5。8秒内,汽车从56公里加速到70公里; 在5。6秒钟内,汽车毫米波雷达(Radar)首次检测到前方物体并将其识别为“汽车”,5。在2秒钟内,汽车的激光雷达(Lidar)首次检测到前方的物体,将其识别为“其他”,并判断其是否静止。4。2秒到2。在7秒钟内,汽车在“汽车”和“未知”之间来回摆动到所识别的物体,但不参考物体的跟踪历史,最终被判定为静止物体。

  

  2。6秒为1。激光雷达花了2秒钟将物体识别为静止的自行车,但它决定再次摇摆,并等待直到再次将其识别为自动车并决定刹车为止。但是在事故发生之前,车辆的实际制动为0。2秒后开始。此时,每小时64公里的车辆无法避免撞到行人。车祸发生了。

  我们看到,在事故发生前的几秒钟内,车辆出现了许多错误的判断,这些错误的判断令人费解,浪费了大量时间。根据NTSB报告,造成事故的关键问题是该软件无法正确预测受害者的类别和运动轨迹。如果系统正确地识别出前方前方的物体是行人,那么它应该明显减速或设法避免它。

  但是优步的自动驾驶系统并没有那么谨慎。 相反,Uber认为紧急制动系统会导致车辆不稳定,因此限制了该系统。

  换句话说,Uber将自动驾驶系统的制动视为要考虑的最后一个因素,这确实很可怕。

  安全员负责驾驶自动驾驶系统吗?

  根据NTSB的调查,Uber的自动驾驶系统存在巨大的安全漏洞。 首先是车辆识别算法的准确性和及时性,其次是紧急制动系统的权限。NTSB的结论是,Uber取消了车辆随附的自动紧急制动系统,这增加了在公共道路上测试自动驾驶车辆的风险。

  

  根据调查报告,在事故发生之前,Uber汽车已经以自动驾驶模式运行了大约19分钟,并且该汽车已经行驶了至少22公里。因此,在此距离内,如果安全员没有踩过制动器一次,则意味着自动驾驶系统可能没有一次启动制动器。对于那些有驾驶经验的人来说,即使是在午夜时分安静的街道上,也很少会以每小时近70公里的速度行驶超过20公里,并且无需减速或刹车。

  如果Uber确实将刹车授权给了安全员,那么在高速驾驶时,这位安全员又怎么敢在不考虑自己和行人安全的情况下,沉浸在娱乐节目中。

  换句话说,虽然优步将制动权限授予了安全员,但并未使安全员意识到他必须100%理解该安全措施。优步通过设置安全员来避免法律风险,但它没有预见到车辆本身的安全风险,也没有履行通知的义务,从而使被算法“蒙蔽”的人成为自动驾驶技术进入的脚注 现实中。

  另一方面,如果汽车的自动驾驶系统在自动驾驶模式下没有制动权限,但是完全需要安全员的操作,那么这种自动驾驶测试是什么意思呢?

  Uber即将离职的工程师表示:“ Uber的车祸发生率仍然会很高”,“如果Waymo拥有如此出色的性能,它将停止测试以找出原因,而Uber将忽略此问题。”。

  这些问题也是外界批评优步的无人驾驶计划的地方。优步不仅希望通过一项激进的自动驾驶计划来促进其自动驾驶出租车业务的商业化,而且还希望通过设立安全官员来规避其在自动驾驶系统中的不足和漏洞。 如果最终出现问题,他们还可以将责任转移给这些员工。

  显然,Uber做到了。2018年底,Uber在一些城市恢复了无人驾驶汽车的道路测试,为每辆汽车配备了2名安全员,进行了更严格的监控,并优化了自动驾驶系统。

  对于当地司法机构而言,Uber不对判决负责的原因很简单,即“判决没有依据。”

  无人驾驶后,谁将真正承担责任?

  由于缺乏法律责任,Uber这次得以幸免于难。但是,基于以上分析,面对事实责任,很难指责Uber。

  首先,Uber的自动驾驶系统不首先考虑安全性,而是强调系统的稳定性和连续性。这是Uber无人驾驶汽车众多安全事故的隐患。如果Uber在未来使用这种“激进”算法来推进其无人驾驶出租车驾驶策略,那么车辆将优先考虑快速驾驶而忽略道路安全。

  其次,在驱动系统的测试中存在缺陷。 根据制动系统的设置,它需要安全员的干预才能完成,这显然与自动驾驶技术的初衷背道而驰。显然,这样的系统不能真正实现商业无人驾驶。

  在Uber发生致命事故的同一年,美国加利福尼亚州进一步放松了对无人驾驶的监管,允许车辆没有安全的驾驶员,只需要确保发生问题时就可以远程接管自动驾驶汽车。

  在2019年,Waymo收到了加州机动车辆管理局(DMV)颁发的完全自动驾驶测试许可证,该许可证允许在没有安全人员的情况下对其进行测试。在无人驾驶出租车的背面,乘客已经可以在没有安全员的情况下上出租车了,但是遇到突发危险之后,他们可以在开车时按下汽车帮助按钮或在应用中联系安全员。

  

  然后,在这种情况下,有必要考虑无人驾驶汽车的新所有权和相关问题。 毕竟,再也不能将交通事故归咎于远程指导的安全人员。

  责任实际上相对简单。确定正常交通事故的责任后,如果排除了另一方的责任,则事故责任将确定为无人驾驶汽车的责任,但对于汽车制造商,自动驾驶系统提供商或 经营者承担责任,需要根据商业模式的责任划分和现场事故原因的确定来划分。

  但是,将会存在缺少法律责任主体的问题。在目前的一般情况下,几乎所有事故都会由专人负责,其中大多数是违反规定的驾驶员,但是一旦将其替换为无人驾驶汽车,就不会再有此类法律责任了。因为不可能起诉购买无人驾驶汽车的车主。 毕竟,他没有开车。 起诉设计自动驾驶算法的工程师是不可能的。 工程师并不孤单,事故原因不能仅归因于一行代码。那么,这是否归结于提供自动驾驶系统的公司?那时没有公司愿意承担如此巨大的风险。

  也许将来,将由自动驾驶汽车的双方和保险公司共同建立一个责任实体。 这些制造,设计和经营中的当事方应根据责任的大小承担相应比例的保险费。个人)还将在购买服务中支付一定的保险费,以形成保险资产库来处理可能的事故。

  该责任人承担整个事故的责任确定和赔偿。 同时,它还形成了一个内部AI测量系统,可以根据不同汽车制造商的车辆损坏,不同自动驾驶算法的事故率以及操作员的操作策略来确定特定的责任。,以确定不同实体的未来保费。

  例如,一些汽车制造商将乘车者的安全放在首位,因此在事故造成行人伤害之后,基于该策略的公司将不得不支付更多保费; 如果某些制造商优先考虑保护行人和乘客的安全,那如果乘客受伤或致命事故,就要为车内乘客支付更多的费用。

  可以预见的是,随着无人驾驶自动驾驶汽车的普及,在各种复杂情况下责任确定的案例将无穷无尽。在此之前,我们必须开始思考和尝试立法工作。而不是等到事情发生后再开始探索。不要像Uber那样,最终只能将责任归咎于这个不负责任的人,而自动驾驶算法系统将无可奈何。

  对无人驾驶汽车的严格控制并不意味着我们对这个行业并不乐观。我认为无人驾驶汽车的未来非常光明。尽管将发生此类事故和其他极端事故,但无人驾驶肯定会比将来现有的人类驾驶旅行条件更安全。

  

  就像Waymo发生的许多事故一样,大多数事故是人类驾驶员的全部责任。当未来无人驾驶汽车占主导地位时,我们不再需要注意这些车辆,而应该更加注意人类驾驶员的车辆。因为自动驾驶系统在开车时不会去看“人才秀”。

-