特斯拉FSD自动驾驶测评中三次撞上假人模型
- 时间:
- 浏览:0
在接下来的时间里,我将为大家提供一些关于特斯拉FSD自动驾驶测评中三次撞上假人模型的信息,并尽力回答大家的问题。让我们开始探讨一下特斯拉FSD自动驾驶测评中三次撞上假人模型的话题吧。
文章目录列表:
特斯拉FSD自动驾驶测评中三次撞上假人模型
特斯拉FSD自动驾驶测评中三次撞上假人模型
特斯拉FSD自动驾驶测评中三次撞上假人模型,测试团队驾驶员驾驶Model 3在开启FSD的状态下进行假人碰撞测试,然而车辆一连三次都撞上儿童假人模型。特斯拉FSD自动驾驶测评中三次撞上假人模型。
特斯拉FSD自动驾驶测评中三次撞上假人模型1马斯克曾多次吹爆特斯拉的FSD(完全自动驾驶)功能,称其‘令人惊叹’,但并非所有人都认同他的观点,甚至还有批评者,将特斯拉FSD功能,看作是所有美国人的致命威胁。
8月10日消息,Green Hills Software的CEO、特斯拉 反对者丹·奥多德(Dan ODowd)资助并发布了一项评测结果,特斯拉的FSD自动驾驶系统在评测中多次撞上儿童假人模型。
据悉,奥多德去年曾发起一项运动“黎明项目”,禁止他所说的不安全软件进入安全系统,该组织一直在积极测试特斯拉的软件。
该组织发布的最新一段32秒的宣传视 中,在加州的一条测试车道上,一辆特斯拉在开启FSD功能后,车辆一连三次都撞上或碾压了儿童假人模型。
测试团队称,这项测试在过去一个月的时间里进行了几十次。在撞到人体模型之前,特斯拉车辆从未尝试转向,或者减速超过每小时25英里。
测试司机表示,在FSD启动之后,特斯拉Model 3“开始摇摇晃晃,好像很迷惑,放慢了一点速度,但仍然以超过每小时25英里的速度撞击并碾压了人体模型”。
奥多德发声称:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为采取行动的呼声。埃隆·马斯克(Elon Musk)说,特斯拉FSD软件‘令人惊叹’,但事实并非如此。它对所有美国人都是致命的威胁。”
目前,特斯拉还未对此回应。
特斯拉FSD自动驾驶测评中三次撞上假人模型2特斯拉批评人士CEO丹·奥多德(Dan ODowd)日前发布的一段测试视 ,批评特斯拉FSD(全自动驾驶)功能。
在这段测试视 中,测试团队驾驶员驾驶Model 3在开启FSD的状态下进行假人碰撞测试,然而车辆一连三次都撞上儿童假人模型。
测试团队表示,这台Model 3对于前方假人的`表现很“迷惑”,虽然放慢了一点速度,但仍然以超过每小时25英里的速度撞击了假人。
丹·奥多德表示对这一测试结果非常担忧,并呼吁相关方面采取行动,“特斯拉FSD软件被马斯克赞扬,但事实并非如此,这对所有美国人都是致命的威胁。”
丹·奥多德算是特斯拉的“头号黑粉”,他同样是Green Hills Software软件公司的CEO,因此两家公司可能在利益上存在瓜葛。实际上,这已经不是丹·奥多德 次攻击特斯拉了。
他曾公开表示,特斯拉FSD Beta“糟糕透顶”、“问题 出”,应当在美国道路上彻底封杀。为了达到这一目的,他曾花费约200万美元向全美投放了一条名为《什么速度都不安全》的广告宣传视 ,集中阐述了特斯拉FSD系统的潜在危险。
特斯拉的FSD Beta系统被认为是全球量产车中能力最强的自动驾驶系统之一。该公司曾在去年安排一台特斯拉Model 3,在自动驾驶开启的状态下,从SpaceX总部前往位于硅谷的特斯拉前总部,在500多公里的路程上没有进行过一次人工接管。
特斯拉FSD自动驾驶测评中三次撞上假人模型3根据本周公布的一项非监管评测结果,特斯拉的FSD自动驾驶系统在评测中多次撞上一个儿童大小的人体模型。这项测试由Green Hills Software首席执行官、 的特斯拉批评者丹·奥多德(Dan ODowd)资助并发布。
奥多德去年曾发起一项运动“黎明项目”,禁止他所说的不安全软件进入安全系统。随后,该组织一直在积极测试特斯拉的软件。这场由奥多德资助的运动呼吁美国国会关闭特斯拉的软件,奥多德此前还曾试图以禁止特斯拉FSD自动驾驶系统为纲领来竞选美国参议员。
本周二,该组织在最新的广告宣传中发布了一段视 。在视 中,一辆特斯拉汽车在开启FSD功能时多次撞坏人体模型。
特斯拉发言人没有对这条消息做出回应。
这段32秒的视 展示了,在加州一条测试车道上,特斯拉汽车三次撞坏人体模型。“黎明项目”的发言人表示,这项测试在过去一个月的时间里进行了几十次。在撞到人体模型之前,车辆从未尝试转向,或者减速超过每小时25英里。但根据视 的宣誓书,这项测试只进行了三次。
值得注意的是,这项测试并不是在美国监管机构的监督下进行,而是独立开展的,因此没有受到一致的测试标准的约束。
例如,在美国,美国 公路运输安全管理局(NHTSA)和公路安全保险研究所使用至少五种不同类型的测试方法来测试汽车的安全性能。NHTSA在2020年启动了一个自动化的测试项目,通过崩溃报告来评估软件。
特斯拉此前一直避免向机动车辆管理部门报告事故数据,这是因为该公司的系统被归类为L2的驾驶辅助系统,而不是类似Waymo等竞争对手的自动驾驶系统。后者需要遵守不同的事故报告标准。
在“黎明项目”进行的每一次测试中,特斯拉汽车都会以每小时40英里的速度起步,在 的车道内行驶100码,随后撞上人体模型。在测试中,专业的测试司机被要求将手从方向盘上移开,只有在车辆与人体模型碰撞后才能刹车。
特斯拉则对司机表示,其驾驶辅助系统无法取代司机,因此即使该系统开启,司机也仍然应该将手放在方向盘上,并随时准备好接管车辆的操控。
测试司机阿特·海尼(Art Haynie)在声明中表示,在FSD启动之后,特斯拉Model 3“开始摇摇晃晃,好像很迷惑,放慢了一点速度,但仍然以超过每小时25英里的速度撞击并碾压了人体模型”。
奥多德则在声明中说:“我们对特斯拉FSD的安全测试结果非常不安,这应该成为采取行动的呼声。埃隆·马斯克(Elon Musk)说,特斯拉FSD软件‘令人惊叹’,但事实并非如此。它对所有美国人都是致命的威胁。”
特斯拉FSD以往也曾引发过争议。上月,加州机动车辆管理局对特斯拉提起诉讼,称该公司在宣传驾驶辅助系统时采取了“错误或误导性”的说辞。
尽管FSD顾名思义是“全自动驾驶”,但实际上只是选装的功能包,让特斯拉汽车能够自动变道,进入并离开高速公路,识别停车标志和红绿灯,以及自动泊车。
该软件目前仍然处于测试中,用户可以以1.2万美元的选装包,或是每月199美元的包月服务等形式来购买。在使用FSD时,司机仍然需要随时关注车辆情况。目前,这款软件有超过10万名付费用户,特斯拉利用这些用户来实时测试该软件,同时让系统的人工智能模型可以向有经验的司机学习。
今天的讨论已经涵盖了“特斯拉FSD自动驾驶测评中三次撞上假人模型”的各个方面。我希望您能够从中获得所需的信息,并利用这些知识在将来的学习和生活中取得更好的成果。如果您有任何问题或需要进一步的讨论,请随时告诉我。