三三文章网 - 科技知识大全是专业科技新媒体网站。网站著眼于新一代科技新闻的全面及时处理报导,让网民在外面第二时间交待全球新一代的科技资讯。内容涵括AI+、互联网、IT、创业投资、核定、区块链、智能硬件等领域

特斯拉自动驾驶软件受调查:美国展开全面车型审查

  • 时间:
  • 浏览:0

好久不见了,今天我想和大家探讨一下关于“特斯拉面临750多起刹车投诉,或遭数亿元罚款”的话题。如果你对这个领域还不太了解,那么这篇文章就是为你准备的,让我们一起来学习一下吧。

文章目录列表:

特斯拉面临750多起刹车投诉,或遭数亿元罚款

特斯拉面临750多起刹车投诉,或遭数亿元罚款

 特斯拉面临750多起刹车投诉,或遭数亿元罚款,据悉,NHTSA要求特斯拉提供所有有关错误制动的现场报告,特斯拉必须在2022年6月20日之前做出回应,特斯拉面临750多起刹车投诉,或遭数亿元罚款。

 特斯拉面临750多起刹车投诉,或遭数亿元罚款1

 据ABC4日报道,当地时间6月3日,美国 公路交通安全管理局表示,该机构已收到超过750起特斯拉制动事故投诉。不少车主抱怨说,特斯拉的自动驾驶系统有问题,“汽车突然无征兆地停在半路上。”

 相关报道截图(来源:ABC)

 报道称,早在今年5月4日,美国 公路交通安全管理局就向特斯拉发去了一封长达14页的函件,不仅要求其提供收到的投诉报告,还要详细描述当时的现场状况,包括车辆是否发生碰撞、事故现场是否有人受伤以及事故发生时,汽车的自动驾驶辅助系统和自动紧急制动系统是否处于“活跃”状态。

 自今年2月以来,美国 公路交通安全管理局收到的有关特斯拉的投诉增加了一倍多。函件中提到,特斯拉必须在6月20日之前回应有关自动驾驶制动的问题,但同时,公司方面可以提出延长期限。

 特斯拉资料图(来源:《纽约邮报》)

 今年2月中旬,美联社报道称,在收到354起有关“幽灵刹车”的投诉后,美国 公路交通安全管理局表示将启动对特斯拉的调查,主要涉及特斯拉2021年和2022年的“Model 3”和“Model Y”车型。

 由于有用户表示,在开启特斯拉汽车的自动驾驶辅助系统时,车辆会在某种不需要刹车的情况下突然“无缘无故”地刹车,因此该问题也被部分车主称为“幽灵刹车”。

 “消费者反馈说,‘幽灵刹车’事件通常在没有提前预警的情况下发生,所以自己非常担心,怕在高速公路上会发生类似问题,增加汽车追尾的风险。”美国 公路交通安全管理局表示。

 目前,特斯拉正处于舆论的风口浪尖之上。当地时间6月2日,路透社报道称,特斯拉CEO埃隆·马斯克表示对经济状况不乐观,公司需要裁员约10%,且暂停全球招聘。该消息一出,引发市场一片哗然。受此影响,当地时间周五晚上,特斯拉股价暴跌逾9%。

 特斯拉面临750多起刹车投诉,或遭数亿元罚款2

 6月3日,美国 公路交通安全管理局(NHTSA)公布了一份监管文件。该文件显示,今年2月以来,对特斯拉汽车“幽灵制动”的投诉已经从354起上升到了758起,增加了一倍多。

 “幽灵制动”指的是高级驾驶辅助系统(ADAS)或自动驾驶系统在没有充分理由的情况下自动刹车。该系统可能会错误地监测道路上的物体,或者预测不会发生的碰撞,并采取非必要的制动措施。

 “幽灵制动”会带来重大的安全隐患,如果后方的车辆靠的得太近,很可能会造成追尾事故。

 据悉,NHTSA要求特斯拉提供所有有关错误制动的现场报告,并且询问了特斯拉的自动驾驶系统在这些事故中是否处于激活状态。而特斯拉必须在2022年6月20日之前做出回应,否则可能面临高达1.15亿美元的罚款。

 NHTSA调查的重点是2021-2022款的Model 3和ModelY。不过,老款Model 3和Model Y的车主也报告了越来越多的“幽灵制动”事件,特别是在2021年5月软件升级到只支持视觉的辅助驾驶系统之后。

 美国科技网站The erge表示,“幽灵刹车”的问题可能要追溯到去年特斯拉决定在新款Model 3和Model Y汽车上移除雷达传感器。在做出这一决定之前,马斯克曾公开表示,希望特斯拉的辅助驾驶可以完全依靠摄像头来完成。

 据悉,雷达传感器被用来帮助探测快速接近的物体,在许多现代汽车中很常见。它们即使在能见度很低的情况下也能正常工作,是为自动紧急刹车等安全功能提供数据支持的传感器之一。虽然现代汽车也会从其他传感器(包括摄像头)获取数据,但汽车制造商倾向于使用多种类型的传感器,因为如果一种类型的传感器故障或不能在特定情况下运行,总有替代方案。

 今年2月,NHTSA对特斯拉的“幽灵刹车”情况展开了调查,涉及特斯拉Model 3和Model Y两款车型中约41.6万辆汽车。但目前还没有因为刹车问题而发生车祸或造 员伤亡的'报道。

 美国汽车安全中心 执行董事兼首席法律顾问迈克尔·布鲁克斯(Michael Brooks)说:“在短时间内收到这么多投诉,这表明NHTSA应该加大调查力度。我们每个月都有数百名车主报告他们的紧急刹车系统被错误激活,可能还有更多的人有类似的问题但没有向NHTSA报告。”

 关于特斯拉“幽灵刹车”的报道最早出现在2021年10月,当时特斯拉被迫撤回其全自动驾驶(FSD)测试版10.3,原因是系统升级后出现了虚假的碰撞警告和意外刹车等问题。

 据了解,NHTSA正在对所有车企的自动驾驶事故进行深入调查。自2016年以来,该机构已派出团队调查了34起与之相关的事故,其中28起涉及特斯拉汽车。

 特斯拉面临750多起刹车投诉,或遭数亿元罚款3

 美国汽车安全监管机构在最新公布的监管文件中宣布,将对特斯拉加大调查力度。此前,该机构收到758起被称为“幻影制动”的投诉,即特斯拉汽车在高速行驶中突然刹车。

 监管文件显示,2021年和2022年生产的特斯拉汽车遭到车主“幻影制动”投诉的数量从2月份的354起升至758起,这促使美国 公路交通安全管理局(NHTSA)要求特斯拉在6月20日之前就此作出答复。如果不及时做出回应,这家汽车制造商将面临高达1.15亿美元的罚款。

 据悉,此次调查涉及Models 3和Models Y两款车型中的约41.6万辆汽车,目前还没有因为上述制动问题导致的撞车事故或人员受伤报告。这些车辆配备了部分自动化的司机辅助驾驶功能,如自适应巡航控制和Autopilot,使它们能够在车道内自动制动和转向。

 但NHTSA在公布的文件说,这些车辆可能在高速行驶时意外刹车。该机构表示:“投诉者报告称,突然减速和刹车可能会在没有任何警告的情况下发生,而且往往会在单次驾驶周期内反复发生。”投诉中的许多车主表示,他们担心会在高速公路上发生追尾事故。

 这次调查是美国汽车安全监管机构针对特斯拉汽车诸多调查中的最新一项,这些调查包括特斯拉司机辅助驾驶系统Autopilot及其高级版本“全自动驾驶”(FSD)软件。尽管名字容易引起误解,但事实上这两款软件都未能实现在没有人类司机监督的情况下自动驾驶车辆行驶。

 这是过去三年来,美国监管机构针对特斯拉进行的第四次正式调查。自2021年1月以来,NHTSA正在监督15次特斯拉召回。此外,自2016年以来,该机构已派出调查人员调查至少33起涉及特斯拉车主启动Autopilot发射的撞车事故,已经有11人在事故中遇难。

 在最新投诉中,一名来自奥斯汀的特斯拉车主报告说,其装有Autopilot的Model Y在两车道的道路和高速公路上行驶时,曾无缘无故地反复自动刹车。

 这位车主在2月2日提交的投诉书中写道:“这些幻影制动包括减速时缓慢制动到高速时紧急刹车,它们大大降低了车速,对我和车内乘客以及可能跟在我后面的车中的乘客造 身安全威胁。”

  各种原因多次召回

 就在上周,NHTSA要求特斯拉在美国召回近57.9万辆汽车,因为“Boombox”功能可以通过外部扬声器播放声音,并在行人看到有车辆驶来时发出模糊的声音警告。

 非营利组织“汽车安全中心” 执行董事兼首席法律顾问迈克尔·布鲁克斯(Michael Brooks)说:“在短时间内收到这么多投诉,这表明NHTSA应该加大调查力度。我们每个月都有数百名车主报告他们的紧急刹车系统被错误激活,可能还有更多人没有向NHTSA报告这个问题。”

 他还表示,看到NHTSA对特斯拉采取的执法行动令人鼓舞。但布鲁克斯说,特斯拉始终向在美国道路上行驶的汽车发布软件,而这些软件没有经过测试以确保它的安全。

 布鲁克斯在电子邮件中写道:“对每个引起关注的问题采取零敲碎打的调查方法,并不能解决特斯拉安全文化中更大的问题。该公司继续愿意在美国公众身上测试其技术,同时歪曲其车辆的性能。”

 特斯拉最近还因其他问题召回许多车辆,比如在遇到停车标志时依然会减速通过,加热系统无法快速清理挡风玻璃,司机未系好安全带也不会受到警告,允许司机在驾驶时在触摸屏上播放**等。这些问题本应通过 软件更新来解决。

 去年8月,NHTSA宣布对特斯拉Autopilot进行调查,因为其未能发现停在道路上的紧急车辆。这项调查涵盖了十几起导致1人死亡、17人受伤的撞车事故。

  制动问题曾有先例

 在最新调查之前,特斯拉在去年10月份因类似的幻影制动问题召回了近1.2万辆汽车。该公司发布了 软件更新,以修复其FSD软件的故障。去年9月份,特斯拉进行了一次软件更新,旨在改善在弱光条件下识别紧急车辆灯。

 许多经过挑选的特斯拉司机已经开始在公共道路上对FSD软件进行了测试。该公司警告称,由于汽车尚不能自动驾驶,司机必须准备好随时接管。NHTSA还要求特斯拉提供有关汽车测试的信息,包括特斯拉要求测试人员保密的信息。

 安全倡导者抱怨说,特斯拉不应该被允许在有未经培训的司机的交通环境中测试其技术,而且特斯拉的软件可能会出现故障,使其他司机和行人陷入危险。大多数其他拥有类似软件的汽车公司都会用训练有素的人类安全司机进行测试。

 NHTSA在2021年8月的一份声明中表示:“NHTSA提醒公众,目前没有任何商用机动车辆能够自动驾驶。目前可用的车辆都需要人类司机随时准备接手控制,所有法律都要求人类司机对车辆的行为负责。”

作者 | 周继凤

编辑 | 黎明

悲剧再次发生了。

8月14日晚,名为“美一好”的公众号发布讣告称,8月12日下午2时,年仅31岁的创业者、上善若水投资管理公司创始人林文钦(昵称“萌剑客”),驾驶蔚来ES8 汽车 启用自动驾驶功能(NOP领航状态)后,在沈海高速涵江段发生交通事故,不幸逝世。

据《科创板日报》报道,林文钦的好友郑先生称:“蔚来工作人员告诉我们,事发时,这辆蔚来正处于NOP状态。”而蔚来内部人士回应称:“NOP领航辅助不是自动驾驶,后续有调查结果会向外界同步信息。”

事件发生后,网络上掀起了有关自动驾驶技术的讨论。不少网友指出,车企为了商业利益, 在宣传时将“辅助”驾驶与“自动”驾驶的概念进行混淆 ,让用户过于信任和依赖这套系统,导致驾驶员很容易在开车时掉以轻心从而酿成惨剧。在蔚来这起事故之前,已经发生不少类似的安全事故。

几乎同一时间,美国 公路交通安全管理局(NHTSA)宣布,由于发生多起特斯拉 汽车 与停放的紧急车辆相撞的事故,该局已经开始对特斯拉的Autopilot自动辅助驾驶系统展开正式调查。

对于一名 汽车 用户而言,“辅助”驾驶与“自动”驾驶的概念功能,本应该是最基本的认知常识。可悲的是,自动驾驶行业里的玩家长期以来都在夸大宣传,忽悠用户。

自动驾驶行业发展了这么多年,这一次,安全问题以及“过度宣传”问题,终于被摆到台面上来了——以生命为代价。

不止是这次悲剧的主人公, 在全行业的鼓吹下,大量的消费者正在接受甚至依赖自动辅助驾驶功能

卢米是一名特斯拉车主,他平日里跑高速都会选择开启自动辅助驾驶,在他看来,自动辅助驾驶的体验很好。

车主张鹭也发现了自动辅助驾驶的好处。“平日里开车,我只用手握方向盘,刹车和油门就不用踩了,系统会自动跟车,自动转弯,非常方便。”甚至有几次,张鹭感觉自动驾驶救了他的命。他回忆,特斯拉的自动驾驶有一些主动预警措施,比如在车道偏离、接近追尾时,关键时刻会给他提醒。

但是,已经逐渐习惯并且依赖这一套系统的消费者们,其实并不清楚自己开启的是怎样一套系统,以及这套系统是否存在风险。

很多时候,他们依据名字来判断。

目前,特斯拉针对自动驾驶推出了不同的软件包,其中,基础标配的功能被称作基础辅助驾驶功能(即AP),更高阶的软件包FSD,被称为完全自动驾驶。 由于特斯拉直接把更高阶的自动驾驶软件包取名为完全自动驾驶,不少车主直接把特斯拉FSD等同于自动驾驶技术

一名特斯拉车主坦言:“我其实分不清具体什么是自动驾驶,什么是自动辅助驾驶。但是有朋友推荐说,可以开启一下AP,效果挺好,我就跟着一起用了起来。”

人们也不知道,在所谓的自动辅助驾驶模式下,究竟什么可做什么不可做。

经朋友推荐开启自动辅助驾驶功能的特斯拉车主王盛,如今只要是跑通勤上高速或者上环线都会开启自动驾驶。他有时候会分心处理一些公务,有时候还会接接电话。

不止是国内,美国安全保险研究所在2020年的一项调查显示,有48%的司机错误认为,只要开启了特斯拉的“Autopilot”功能,不掌控方向盘也是安全的。

一些人太信任 自动辅助驾驶系统,以为开车时完全可以解放双手双脚

不少车主在网络上分享了抖机灵的做法,比如把矿泉水瓶、橘子绑在方向盘上迷惑系统,让系统误认为是驾驶员的手放在方向盘上。8月份,甚至有车主上传了一段自己使用辅助驾驶系统躺着开理想ONE的视 ,一度引发全网热议。

在现代 社会 ,信任能更快地达成交易,但对于自动辅助驾驶来说, 过度信任,有时候却会送命 。早在蔚来这起致命事故发生之前,因为驾驶员过于信任自动辅助驾驶系统,已经酿成了多起悲剧。

2016年,美国佛州的一辆特斯拉Model S在Autopilot状态下与正在转弯的白色半挂卡车发生碰撞,特斯拉驾驶员不幸身亡;2019年,一辆特斯拉Model 3在Autopilot状态下以110公里/小时的时速径直撞向了一辆正在缓慢横穿马路的白色拖挂卡车……

美国 公路交通安全管理局(NHTSA)在调查后发现,自2018年1月以来,特斯拉自动驾驶系统已导致11起事故,致17人受伤,1人死亡。且这11起事故中有4起发生在今年。

自动驾驶的诞生源自这样一个逻辑,人类驾驶员会犯很多错误,而自动驾驶 汽车 犯错的概率相对于人类要小很多,会让驾驶变得更加安全。 为什么原本是为了让人类驾驶更安全的系统,如今成为了马路 ?

这其实不仅仅是一个技术问题。

我们从自动驾驶的分级说起。

当下车企所宣传的“无人驾驶”、“自动驾驶”,其实都是L2级别的自动辅助驾驶。

根据SAE(美国 汽车 工程师学会)的分类,自动驾驶可以分为L0-L5级六个阶段。其中L0代表无自动辅助功能;L1-L2为驾驶辅助系统,驾驶员是车辆操作的主体;L3-L4为有条件的自动驾驶系统;只有到了L5才是真正的无人驾驶。

这其中最重要的分界线是L2级别。

L2及以下级别是自动驾驶的初级水平,这个区间的自动驾驶技术不具备“全自动驾驶能力”,是始终需要人类监管的驾驶辅助系统——事故主要责任人始终是人类驾驶员。

按照常规,一名驾驶员理应知道自己购买的车归属于什么自动驾驶级别。如果是在L2级自动辅助驾驶系统中,作为完全责任主体的驾驶员,则更应该明确认识到L2级自动辅助驾驶系统的风险。

但很多车企都在不遗余力地模糊L2这一界限,夸大自己的自动驾驶技术。

很长一段时间,特斯拉将Autopilot(高级辅助驾驶系统),当成“自动驾驶”对外宣传,直到发生多次安全事故,才不得不改口。而即便现在,特斯拉最高阶的软件包FSD,仍被称为完全自动驾驶。

至于国内,蔚来副总裁沈斐曾在微博中表示,车主们使用其自动辅助驾驶功能时可以“放心地边吃东西边开车”(相关内容现已删除)。

车企很清楚,如果直接表明自己是L3、L4级别的自动驾驶,那么一旦发生事故,责任方就会归于自己。于是,他们在宣传时打一些擦边球。

比如,4月16日,威马正式亮相了第三款量产车型W6。在官方宣传中,威马反复强调W6是“20万级国内 无人驾驶量产车型”、“国内 L4级别无人驾驶量产车”。

但实际上,威马W6仅仅在停车这个场景上,实现了L4级别无人驾驶。但很多消费者误以为“威马的所有出行场景都实现了L4级别无人驾驶”,“威马的W6是 实现了L4级别无人驾驶的量产车。”

这些夸大宣传提高了企业的曝光度,但在巨大的信息不对称下,消费者很有可被误导,误以为企业已经推出全自动驾驶技术。

自动驾驶公司Waymo曾放弃将自动驾驶称为“self driving”,更名为“autonomous driving”。Waymo的逻辑是:“ 的语言很重要,可以挽救生命 。”

反过来,我们可以套用一下Waymo的逻辑——车企们正在用模糊的语言把越来越多的人推向悬崖。

8月16日晚间,理想 汽车 创始人李想在朋友圈发文称,L2 、L3一类的专业话术,用户容易混淆且听不懂,建议 名称为L2=辅助驾驶;L3=高级辅助驾驶;L4=自动驾驶;L5=无人驾驶,一个多余的中文字也不要有。

“最大化的控制期望值,避免自动和辅助出现在同一个状态下,辅助驾驶就是人的责任,出现自动两个字就是车的责任。”他表示。

再说回来,即便是L2级别的辅助驾驶,也不是100%安全。在当下,L2级别的自动驾驶辅助系统主要配备毫米波雷达以及视觉识别(摄像头),从而感知环境。其中,毫米波雷达对于前方完全静止的物体,有一定几率无法识别。而视觉识别是按照深度学习的逻辑来运行的,也永远无法达到100%的准确率。

也就是说,面对复杂的路况,自动辅助驾驶的识别无法做到100% 。

对于驾驶员来说,在使用自动辅助驾驶功能时,永远需要保持警惕以备不时之需。作为系统的提供方,车企有责任有义务将自动辅助驾驶的功能及使用范围明确,并确保教会用户正确的操作方法。

但就目前来看,在风险提醒上,各大车企做得相当敷衍。有媒体指出,蔚来NOP在去年10月更新上线,自动辅助驾驶功能推出或升级时,蔚来对车主的线上安全提醒都是非强制性的。

蔚来的这种行为就相当于,我把说明书摆在这儿,你愿不愿意看或者看不看得懂,都和我没关系。

很长一段时间,以上提到的这些潜在风险,都被自动驾驶行业的光环掩盖了。

近些年,自动驾驶行业蓬勃兴盛。

资本与行业玩家合力打造了一个看上去颇具颠覆性的出行故事,这个出行梦的核心就是自动驾驶技术。中国智能网联 汽车 创新中心预测,2020年至2025年,可以实现部分自动化或有条件自动化的智能网联 汽车 销量,占当年 汽车 总销量的比例将超过50%。

以特斯拉为代表的 汽车 制造商,加速了这一进程。

2015年,特斯拉 次通过OTA的方式为Model S推送了Autopilot辅助驾驶系统。特斯拉车主们一觉醒来,发现自己的车突然获得了一些自动辅助驾驶功能,比如,在高速路上特斯拉可以自动保持车道、自动根据路况加减速等等。

靠着特斯拉的带动,越来越多安装着自动驾驶辅助系统的智能车上路。如今,一辆电动车如果没有搭载自动辅助驾驶,似乎不能够称之为智能车。

投资人开始意识到,卖车卖硬件或许不是最重要的,自动驾驶等软件服务才是最具想象力的环节。

而跨界造车也让自动驾驶上下游产业链火爆了起来。仅今年6月的 周,就有3家自动驾驶公司相继宣布获得融资,总计融资超过32亿元。

整个市场变得大胆且激进。马斯克一度放话:“我们已经非常接近L5自动驾驶了。”为了搏出位、吸引投资人的目光,不少车企对外宣称已经实现L3、L4级别自动驾驶。

一位业内人士曾指出,已经量产的车企,很多完全没有自研能力,只能转头选择向博世、Mobileye等厂商采购成熟的自动驾驶方案。但这不影响车企们将之包装成自己的研发能力。

7月初的 人工智能大会上,原华为智能驾驶产品线总裁兼首席架构师苏菁曾面对特斯拉的高事故率,痛斥其为“杀人”。

一位用户在看完最近的报道后感叹:自动驾驶技术走向成熟的道路也是一段无数用户亲身试错的血泪史。

一位业内人士指出:“为了保证安全,技术层面以外,法律法规也需要适配自动驾驶的边界。”

但在操作层面,还有更多细微的问题需要解决。

国外有可参考的案例。2020年,美国高速公路安全保险协会IIHS发布了一系列ADAS功能的指导方针。其中,IIHS建议,自动化系统能够提升安全的关键就是确保司机需要始终参与车辆的操作。

当下,车企们防止司机分神的系统 两类。一是像特斯拉和一些主流车企采用的方向盘压力检测,如果系统检测到司机的双手离开方向盘达到一定时长后,便会分段执行警告、强制解除辅助驾驶状态、刹车等动作。另一种是安装面向驾驶员的摄像头来监控驾驶员的面部是否一直面向道路。

IIHS指出,这些都不是万无一失的方法。该机构建议,还应该加入检测方向盘是否被手动调整,调整了多少角度以及驾驶员注意力监控。这或许是一些更为实际的指导方法。

*题图及文中部分配图来源于Unspalsh。

好了,今天关于“特斯拉面临750多起刹车投诉,或遭数亿元罚款”的话题就讲到这里了。希望大家能够对“特斯拉面临750多起刹车投诉,或遭数亿元罚款”有更深入的认识,并从我的回答中得到一些启示。如果您有任何问题或需要进一步的信息,请随时告诉我。