一辆显然是在无人驾驶状态下的特斯拉发生了人身伤亡事故,这让人们对半自动驾驶汽车的安全性以及它们所行驶的美国监管的模糊地带有了新的认识。
德克萨斯州哈里斯县的警方表示,周六,一辆特斯拉Model S在高速行驶时,由于未能识别一个弯道而撞上一棵树,随后起火燃烧,导致副驾驶中一名乘客和后座的车主死亡。
特斯拉CEO 马斯克周一在推特上表示,特斯拉下载的初步数据显示,这款汽车没有使用Autopilot,他们使用的也不是特斯拉公司“全自动驾驶”系统(FSD)的一部分。
特斯拉的Autopilot和FSD,以及其他汽车制造商越来越多的类似半自动驾驶功能,对负责机动车和公路安全监管的机构构成了挑战。
美国联邦道路安全机构——美国国家公路交通安全管理局(NHTSA)尚未发布针对Autopilot或全自动驾驶汽车(AVs)等半自动系统的具体法规或性能标准。
由于没有性能或技术标准,像自动驾驶这样的系统就处于监管的灰色地带。
在德克萨斯州的这起事故之前,已经发生了一系列涉及特斯拉汽车使用Autopilot驾驶的事故。Autopilot是特斯拉的半自动驾驶系统,可以执行一系列功能,比如辅助司机车道维持和在高速公路上驾驶。
自去年10月以来,特斯拉还向约2000名客户推出了被称为“测试版”的FSD系统,从而可以有效地让他们测试FSD系统在公共道路上的运行情况。
哈里斯县警方目前正在申请对特斯拉数据的调取令,并表示据目击者称,死者是为了测试汽车的自动驾驶系统。
实践中,让监管的混乱雪上加霜的是,传统上NHTSA只负责监管车辆安全,而各个州的机动车管理局(DMVs)则负责监管司机。
加州机动车管理局(DMV)对路透社表示,该州已经引入了规制自动驾驶汽车的法规,但这些法规只适用于那些配备了无需人工控制或监控就能执行动态驾驶任务的汽车。而特斯拉的完全自动驾驶系统尚未达到这些标准。
这使得特斯拉的Autopilot和FSD系统在加州的监管陷入了困境。
负责汽车安全的美国国家公路交通安全管理局(NHTSA)本周表示,已经对28起特斯拉汽车碰撞事故展开了调查,其中24起仍在进行中。自今年3月以来,还至少发生了4起事故,其中包括这起致命的德州事故。
NHTSA曾多次表示,它有权要求汽车制造商召回任何存在不合理安全风险的车辆,以解决驾驶员辅助系统的问题。
但到目前为止,NHTSA并没有对特斯拉的驾驶系统采取任何执法行动。
负责调查交通事故的美国政府机构——NTSB,对NHTSA的监管缺位提出了批评。
NTSB负责人Robert Sumwalt在2月1日的信中写道:“ NHTSA拒绝对部分或较低水平自动化的车辆采取行动,并继续等待更高水平的自动化,然后才认为自动系统达到最低的国家标准。”“由于NHTSA没有提出任何要求,制造商可以在任何地方测试车辆。”
NHTSA对路透社表示,随着新一届政府的成立,他们正在审查与自动驾驶系统相关的法规,并欢迎NTSB在推进自动驾驶系统政策方面的宝贵意见。
然而,近年来,随着人们对自动驾驶技术安全性担忧的不断加剧,特斯拉也对其局限性发出了警告。
2020年2月,特斯拉的自动驾驶技术总监Andrej Karpathy指出,该公司的自动驾驶系统始终面临的一个挑战是:如何识别停在路边的应急闪光灯闪烁的警车。
“这是我们想要了解的一个新挑战的其中一个例子,”Andrej Karpathy在一次会议上说。
此后仅一年多的时间,特斯拉汽车就曾四次撞向停在道路上的警车,而且自2016年以来,至少有三辆在Autopilot系统下运行的特斯拉汽车发生了致命的撞车事故。
警方说,至少有三辆车处于自动驾驶模式。在其中一起发生在北卡罗来纳州的案件中,一名医生正在用手机看电影,他的车撞上了一辆警车。
尽管发生了这些事故和调查,也没有妨碍马斯克推广其所宣称的能够自动驾驶的汽车的步伐。
马斯克在最近的一条推文中表示,特斯拉“几乎准备好了‘FSD Beta V9.0’。改进巨大,特别是对于奇怪的道路角落和恶劣的天气。纯视觉,没有雷达”。
特斯拉还表示,它已经使用了100万辆行驶在路上的汽车来收集图像数据,并利用机器学习和人工智能来改进Autopilot。
特斯拉的自动驾驶技术总监Andrej Karpathy 说,他曾在Palo Alto 在没有人工干预的情况下驾驶特斯拉20分钟去购买咖啡。
但在今年3月的一个“Robot Brains”播客上,他曾说:“这不是一个完美的系统,但它正在朝着这个方向发展。(驾驶时)我肯定会把手放在方向盘上。”
特斯拉,AUTOPILOT,监管灰色地带