1,美国加州特斯拉致命车祸是如何发生的

美国加州特斯拉Model X致命车祸发生之后,3月25日,交通管理人员在事故现场开展工作。特斯拉3月30日发布公告称,美国特斯拉Model X致命车祸发生之前,事故车辆的Autopilot(自动辅助驾驶)处于开启状态。这令公众对半自动驾驶系统在公路上行驶的安全性产生了新的担忧。特斯拉还称,事故车辆的驾驶日志显示,车祸发生之前,汽车对司机发出了双手放在方向盘上的警告,但司机没有采取行动。据华尔街日报3月30日报道,特斯拉称,驾驶日志中显示,撞车发生前的6秒钟,司机的双手没有在方向盘上检测出,这期间尽管有约5秒时间和500英尺(150米)的无障碍视野,但司机没有采取任何行动。特斯拉的公告中没有提到为什么Autopilot没有检测出混凝土隔离带。3月23日,在美国加利福尼亚州山景城101号高速公路上,一辆蓝色的特斯拉Model X在向南行驶时,撞上混凝土隔离带,汽车起火。随后又被车道后方驶来的两辆汽车相继追尾,车主送往医院之后不治身亡。特斯拉此次车祸致死发生在Uber自动驾驶撞人致死案后不久。此前的3月18日,Uber在美国亚利桑那州进行自动驾驶测试时,撞死了一名行人。3月27日,美国国家运输安全委员会(The National Transportation Safety Board ,NTSB)介入此案展开了调查。这也是该局今年第二次对特斯拉车祸施以关注。华尔街日报报道称,美国国家运输安全委员会以调查空难闻名,现在对新兴的自动驾驶科技也投入了更多的调研。据路透社3月31日报道,特斯拉的Autopilot在特定的情况下允许司机更长时间双手离开方向盘。虽然特斯拉要求用户在使用Autopilot之前双手必须“始终”放在方向盘上,但用户经常吹嘘他们在使用该功能时可以不需要手握方向盘。此前的2016年5月,一辆特斯拉Model S的车祸令司机身亡,当时司机同样使用了Autopilot。这也是首次特斯拉汽车在Autopilot模式打开时造成的致死车祸。报道称,美国国家运输安全委员会对该案调查结论认为,特斯拉对车祸负有责任,由于没有包含足够的安全保护措施。当时特斯拉的解释是,系统在面对明亮的天空时没有看见白色的卡车。该委员会还表示,Autopilot让司机无视了公司的警告,长时间驾驶时双手不放在方向盘上。他们还发现,Autopilot可以被用于没有被设计到的路段。司机双手在不在方向盘上的检测系统对警告司机来说作用也很鸡肋。特斯拉在公告中称,“Autopilot不能阻止所有的事故——设立这样的标准是不可能的,但它能让事故尽可能减少发生。它毋庸置疑能让这个世界上的车主、行人和骑行者更加安全。”路透社的报道还提到,3月29日,特斯拉宣布召回其2016年4月前生产的12.3万辆Model S轿车,称是为了更换螺栓。该螺栓为动力转向组件中的一部分,据说与寒冷气温下播撒的路面盐接触后会开始腐蚀。目前还没有因此产生事故。

美国加州特斯拉致命车祸是如何发生的

2,自动驾驶发生事故谁负责

就在最近,在经过航空官方几个月对无人机和飞机之间的飞行数量和距离的警告之后,无人机与飞机之间距离过近的时间频频发生。为了让我们真正受益于这些新技术,保险公司、政策制定者和技术生产者必须齐心协力,以确保有人负责并且使风险得到有效管控。每天,我们的生活都更像电影《回到未来》。虽然我们的车还不能飞,但已经可以自动驾驶了。快递员也在被无人机取代。我们的家、车,甚至城市都变得“智能”,或者说更多地融入到这个“数字世界”。我们很高兴看到这些创新变成了现实。但新产品也带来了新的风险,而且现在他们正阻止我们将这些创新带到大众市场。7月,一辆自动驾驶的特斯拉汽车发生了第一起致命的事故。就在最近,在经过航空官方几个月对无人机和飞机之间的飞行数量和距离的警告之后,无人机与飞机之间距离过近的时间频频发生。为了让我们真正受益于这些新技术,保险公司、政策制定者和技术生产者必须齐心协力,以确保有人负责并且使风险得到有效管控。我们尤其应该采取三项行动。首先,人工智能产品的责任应该明确界定并对外界透明。第二,应该建立用互联网功能的共享数据,在不危机安全的情况下允许连接的设备数据共享。第三,一个全球认可的机构应授权以及监督该行业的管理标准。让我们从责任谈起。很明显,配备人工智能的产品可以比那些不配备的更好、更安全。 例如,据估计自动驾驶的车辆会将事故率降低90%,成为“本世纪最伟大的健康成就”。但随着这些智能机器的不断发展,它们导致事故的责任问题出现了。谁应对自主或人工智能的“机器人”造成的伤害负责? 如果人工智能设备的所有者无法再控制设备的操作,那么他们仍然负有责任吗?目前,没有为全自动化人工智能设备提供清楚、和谐(认为是全球认可的)故障机制的规定。因此,保险人必须与技术制造商和决策者共同努力,以解决这些责任归属方面的空白。没有明确的责任归属,保险公司将无法弥补个人、制造商或技术设计人员的损失。第二,考虑创建一个用于数据共享的安全网络。在“信息物理系统”的时代,我们的汽车不仅是自主的而且是“智能的”,也就是说是数据连接的。但数据连接也会自动带来人为错误和恶意黑客的风险。 2015年,克莱斯勒在了解到车辆容易受到无线黑客攻击,会被第三方控制仪表板功能、转向、传动和制动之后,召回了超过150万辆汽车。威胁范围远远超出我们的车辆。在过去几个月里,美国和德国政府系统曾被黑客攻击。关键问题不能忽视:如果不只是一辆汽车,而是所有的汽车被黑客攻击呢? 如果一个意图破坏的组织控制我们的数字基础设施并切断水电,该怎么办?我在世界经济论坛上组织了一场降低风险的会议,在这次会议中,保险公司都纷纷对上述问题表示了担忧。他们要求与政府、制造商和技术设计人员合作,明确数据需求和树立访问框架,并实时高效地共享数据。这是朝着正确方向迈出的一步:所有利益相关者需要共同努力,使新兴技术的前期设计更加透明化,以便在新技术开发的每一步中实现统一的安全标准并降低风险。最后,考虑建立一个全球公认的标准体系。现在,保险标准和规定保险范围的的缺失,抑制了社会在伤害和损失方面的保护。随着按需经济的出现,许多共享平台既没有保险也没有最低限度的自我保险。此外,城市或地区之间监管不统一。例如,在加拿大,分享经济的合法性因省而异。(在多伦多是合法的,在温哥华不是)网约车使穿越城市、州和国家线路变得十分容易。在这样的一个世界里,如果我们要保护个人长期性需要的社会保护(即种族歧视,背景调查 /许可证验证和保险要求),协调变得非常重要。在没有强制要求保险或建立单一认证机构的情况下,共享汽车的驾驶员可能没有商业能力驾驶所需的保险;个人出租自己的房子几个晚上可能没有适当的房主保险; 个人本身可能没有适当的医疗保险、养老金或其他长期保护卖家和用户的受监管的保险,总之,虽然这些新兴技术为社会带来巨大的利益,但它们本质上带来了新的和更复杂的风险,其中将导致财产和生命的严重损失。分散的监管框架、缺乏责任和缺乏统一标准阻碍了保险公司通过开发新产品来管理这些风险的能力。但通过共同努力,在未来这些风险不仅可以消除,我们甚至可以预防它的发生。我们可能永远不会像在电影中那样回到未来,但至少我们要回到一个有适当的风险保障和责任的世界。
汽车自动驾驶情况下,发生事故,司机不需要承担责任?

自动驾驶发生事故谁负责

3,特斯拉发生车祸致死无人驾驶还能被信任吗

本周四,特斯拉披露了一起致死事故。在美国佛罗里达州的高速公路上,一辆特斯拉Model S在自动驾驶模式下,撞上并钻入了一辆18轮大拖车的车底。车主是一名40岁的男子,当场死亡。  当前,无人驾驶的科技研发在全世界范围内都如火如荼地开展。无人车倍受商业推崇,被预测将成为继个人电脑和智能手机后的第三个全球商业价值潜力巨大的电子消费品。  无人驾驶最为人称道的优势之一,就是将极大地降低甚至消除交通事故率。各种精密仪器持续监测,高精度三维地图持续辅助,人工智能完美处理运作,自动驾驶被认为将比人类驾驶员更靠谱,因为后者会出现操作失误和人为错误,比如走神、酒驾、疲惫等问题。  然而随着特斯拉这一辆Model S在高速飞驰时,直接从卡车一侧钻入其车底,车主当场失去生命。全球第一个涉及无人驾驶技术的致死车祸场面如此惨烈。公众原本对于无人驾驶科技就存在隐忧,现在担心开始浮出水面。我们不禁发问,无人驾驶真的安全吗?无人驾驶汽车技术实现究竟还有多远?  “由于那天光线强烈,自动驾驶仪和驾驶员均未注意到那辆拖车的白色棉,因此没有启动刹车”,特斯拉表示为本次事故承担责任。  但特斯拉坚持认为无人驾驶汽车还是比人类驾驶员安全。特斯拉无人系统在驾驶了累计2亿900万千米后,出现了一起致死事故。而对于人类驾驶员而言,平均驾驶9千万公里就会出现一例死亡事故。  但是以安全为目标的无人驾驶车,在高速公路上飞奔时,直接从侧面穿进大卡车的底部,挡风玻璃全部破碎,驾驶员当场死亡。以安全为目标的无人驾驶技术,发生如此惨烈的事故,还是让拥护着无人驾驶技术的人们十分尴尬并产生了些许犹疑。特斯拉官网上有这样一句话:“Model S配备自动驾驶功能,让你的公路之旅安全而又轻松。”  汽车厂商们此前其实已经表示,无人驾驶非一日而就,因而更倾向于不断在普通人驾车上,不断增加与升级智能辅助的软件和设备,不断提升智能程度,并最终实现完全无人驾驶。他们希望计算机进行日常性驾驶,同时人们在更具挑战的路况时接过驾驶任务。  然而本次发生于佛罗里达的事故却表明这种方式或许失败了。发生事故的特斯拉Model S其实有一个传感器,能够不断感应驾驶员的手有没有脱离方向盘,并且在监测到问题的时候发出警报并减速。所以,按照厂商们的设计,本次事故离世的布朗先生,本应该采取减速或者避让的手动措施。然而特斯拉承认,车主与自动驾驶系统都未能阻止事故的发生。  其实此前,就有人表达了担忧,在智能辅助这种驾驶方式下,安全性可能不升反降。驾驶员们因为厂商宣传的各种安全性能提升,他们的警惕性下降,对于驾驶变得松懈。甚至操作更加大胆,因为知道有更多安全保障而不断提升车速,反而将增加事故率。  正如无数事实证明,技术的提升如果做不到100%的安全保障,反而会带来更高的事故率。早期的制动防抱死系统,设计初衷是因为汽车在刹车过程中如果一次制动,轮胎则不再旋转,容易造成汽车失去控制,发生车祸。这样一款为了提高安全性能而设计的技术,却在早期极大增加了事故率。因为驾驶员知道自己有了更好的安全保障,操作反而更为激进大胆了。  汽车厂商们一致认为,由智能系统完全掌控,驾驶员什么都不用管的时代,还有一段时间才能实现。当前的发展阶段是不断给驾驶员装配各种智能辅助系统,一步一步地慢慢来。  那么他们必须思考,不断提供更好的技术帮助时,如何能够防止驾驶员开始变得过于松懈,或者变得过于自信与激进。  热衷于研发无人驾驶技术的汽车厂商们,不能把精力仅放在全球技术竞赛,同时需要更加的审慎与严谨地考虑,如何在安全性能不断提升的过程中保证驾驶员的操作规范,直到无人驾驶技术彻底实现,再也不需要驾驶员集中精力。当前的人为和智能双结合驾驶模式下,如何帮助无人车拒绝来自主人的不安全指令,或何时拒绝不合时宜的高速模式,当实时数据与驾驶员指令存在矛盾时,计算机又该如何处理。  因此当前的智能辅助阶段,因为操作指令需要兼顾驾驶员和自动系统两者,所以比日后的完全自动驾驶阶段更为复杂。  最后还有一个严肃的法律问题。无人驾驶技术存在的立法需求,可能比技术问题更为复杂。当道路上既有驾驶员驾驶的车辆,又有智能系统对人提供辅助的车辆,未来还有完全无人驾驶车辆。当三者发生车祸时,事故责任应该如何界定。如果是智能系统对人提供辅助的车辆一方负主要责任,那事故责任应该由车主承担还是由发出指令的智能系统承担?  在涉及无人车的交通事故中,出行者可能对其车辆本身提起诉讼。本田公司在美国就曾因其高端品牌讴歌的防撞系统被起诉。福特公司首席研究员Pim van der Jagt表示,为了处理无人车问题,我们确需新法律,并且汽车也如同飞机一样需要黑匣子,来记录究竟事故缘由为何。【启东律师】http://www.lawtime.cn/qidong

特斯拉发生车祸致死无人驾驶还能被信任吗


文章TAG:特斯拉  自动  自动驾驶  驾驶  特斯拉自动驾驶出意外  
下一篇