辅助驾驶又双??出事了。
近日,温州一位车主驾驶理想ONE跑高速启用辅助驾驶功能后,犯困之际经过一高速路口,车辆直接撞上防撞桶,导致十来个防撞桶被撞坏,车辆前保险杠脱落。
尽管事故最终以车主疲劳驾驶,承担事故全部责任并罚款200元告终,但网友们并不买账,把关注的焦点全部转移到了技术之上。
有人语重心长喊话理想汽车:“无人驾驶不靠谱啊理想”
有人现身说法:“我遇到过这种情况,识别不了,赶紧减速、打灯、并线”
有人为交通安全法献策:“应该立法,无人驾驶出意外的都要判刑”
还有人二话不说,直接搞了个总结:“总的来说,无人驾驶就是不靠谱”
看来这里,新智驾真的有必要站出来说句公道话:辅助驾驶的锅,真的别让无人驾驶来背。
毕竟,老百姓对于某项技术的正确认知非常重要,尤其是这项技术不仅关乎生命安全,甚至还能够直接影响相关政策的制定,直接决定相关行业的未来走向。
辅助驾驶≠自动驾驶/无人驾驶
辅助驾驶
常见的辅助驾驶功能包括自适应巡航、前碰撞预警、自动紧急刹车、车道保持辅助、换道辅助等。
尽管这些功能看似纷繁复杂,但重点在于「辅助」二字,在一定程度上分担驾驶压力,其核心并非旨在控制汽车。
针对辅助驾驶的传感器配置,元戎启行副总裁刘念邱表示:
辅助驾驶只使用了相机视觉的数据,并不能完全精确感知周围的环境,相机在遇到强光的环境上 容易出现误检,仍需要驾驶员对车辆进行控制。
也就是说,辅助驾驶的场景下,驾驶员仍然是驾驶的主体。相信在购置配有辅助驾驶功能的车辆时,工作人员也会一再叮嘱不可掉以轻心,时刻保持专注,手握方向盘。
上个星期,小鹏汽车正式启动“小鹏NGP3000公里远征挑战”。
其中,新智驾受邀参与泉州至温州路段的试乘,路线全长570km,其中NGP功能开启路段超400km。
在本次长达一天的驾驶体验中,小鹏NGP表现总体优秀,加减速操作稳定,识别反馈清晰高效。
同时,人工也主动接管了两次:一次是过环形匝道,因为下雨,下匝道时受前方车辆溅起大量水汽退出一次;另一次也是左侧修路,无序堆放了很多防撞桶。
对此,小鹏汽车表示:
NGP高速自主导航驾驶功能依然属于辅助驾驶范畴,我们希望通过该功能的实现,能帮助驾驶员更轻松更安全的完成旅途,绝非替代驾驶员。
看到这里,就有小伙伴会问了,辅助驾驶系统为何总是折戟防撞桶,识别到了绕路行驶不就万事大吉了吗?
对此,某业内工程师解释道,辅助驾驶系统通常感知精度和准确度不够。另外,规划算法能力不足,自动跨线绕行比较危险,目前“最省事”的方式就是人工接管。
自动驾驶
自动驾驶,原则上是不需要驾驶员介入的,但出于法律法规以及安全的需求,现阶段自动驾驶车辆的驾驶座上需要有安全员(出现意外情况,可人工接管)。
另外,在技术方面,自动驾驶比辅助驾驶的要求更严格。
在自动驾驶车辆上路前,系统里会导入相关区域的高精度地图;在车辆上路时,车身搭载的激光雷达、摄像头等传感器实时搜集周围信息,更精确的算法系统对路面上的静态/动态障碍物进行识别,并对其行动轨迹进行精确预测。
结合多方面的信息,自动驾驶车辆会进行智能决策,规划新的路线,并控制车辆的行驶轨迹??这是辅助驾驶所不具备的能力。
这时候,车辆已经成为了驾驶的主体。
无人驾驶
总体上来说,无人驾驶的等级最高,相当于把开车这件事完全交给了无人驾驶系统,驾驶座可以没有安全员,甚至可以没有方向盘。
不过,要实现完全的无人驾驶还有很漫长一段路要走。
珍爱生命,理性对待辅助驾驶
目前市面上所能买到的量产车,无论宣传页上的表述是 L2 级自动驾驶,还是 L2.5/L2+ 自动驾驶,严格意义上都算是辅助驾驶??与自动驾驶/无人驾驶压根不是一回事儿。
然而,美国汽车协会研究表明,在真实世界中行驶 4000 英里的过程中,配备辅助系统的车辆平均每 8 英里就会遇到某种类型的问题。
也就是说,这些辅助驾驶系统并不是 100% 的安全可靠。
同时,随着新车辅助驾驶系统搭载率快速提升,在辅助驾驶系统开启时发生交通事故的情况也已经屡见不鲜。
包括上文提到的理想 ONE 事故,车主就曾在接受媒体采访中提到,“辅助驾驶系统没有识别到防撞桶”。
辅助驾驶无法正常识别前方目标物而引起事故的情况其实很常见。
去年,理想 ONE 曾在一个月内遭遇两场追尾前车的事故,原因也都是辅助驾驶系统未能第一时间识别前方变道车辆。两位事故车主均表示,在自己介入前,系统未能识别出前车并给出任何警示,也未减速。
即便是业内公认的新造车领跑者特斯拉,也时不时陷入失控疑云,尽管特斯拉认为自己的Autopilot 能够挽救无数生命。
每个季度,特斯拉都会公布自家电动车队的安全记录数据,特别是开启 Autopilot 和关闭 Autopilot 时事故率的对比。
特斯拉在去年第三季度的报告中写道:
开了 Autopilot 的特斯拉每459 万英里才发生一起事故,只用到我们主动安全功能的特斯拉事故率则变成了每 242 万英里一次。那些不开 Autopilot 也不开主动安全功能的特斯拉则每 179 万英里就会出一次事故。与其相比,NHTSA 的美国车辆事故频率为每 47.9 万英里每次。
看起来 Autopilot 很厉害对不对,不过,这些数据的误导性可不小。
据 MIT 的研究显示,Autopilot能如此强悍主要是因为它大多数用在高速路上,比例高达 94%。但在高速公路之外,事故率是高速道路的 3 倍有余。
尽管特斯拉官方语境里 Autopilot 只能用在高速上,但高速好开,事故率低,出了事可就是大事。
最近特斯拉开始小范围推送的全自动驾驶 (FSD)Beta 版本,要把此前局限于高速道路的使用范围扩展到城市街道。
然而,在网友上传的相关视频中不难发现,FSD 十分莽撞,甚至像一个马路杀手。在这种情况下,驾驶员不提前进行干预是非常危险的。
责任界定的难点
事实上,在发生类似事故的时候总有一个难题:责任怎么来界定?
2016 年,一位特斯拉车主驾驶在京港澳高速邯郸段行驶时,与前方的道路清扫车发生追尾事故身亡。经交警认定,这起事故中,驾驶特斯拉的车主负主要责任。
然而,受害者的父亲对特斯拉提起诉讼,称特斯拉夸大宣传的自动驾驶功能致使受害者在驾驶时放松警惕,才是这起车祸真正原因??特斯拉在自动驾驶系统尚不完善、不能保证安全的情况下,仍然通过宣传诱导用户去信任这套系统,应该承担相应的法律责任。
同年,一名北京特斯拉车主在开启 Autopilot 模式时,因未能避过停在左侧的汽车,导致两辆汽车损毁。
车祸发生后,该名特斯拉车主在网络平台详述了车祸发生的过程,并投诉特斯拉公司夸大自动驾驶功能误导买家。
此后,特斯拉中国官网上才将「自动驾驶」这个词替换成了「自动辅助驾驶」,并且发布《车主使用手册》,要求车辆必须由有驾驶执照的人驾驶,而且要一直把手放在方向盘上。
在去年 9 月的一次事故后,理想汽车则在官方网站上将原先的「自动辅助驾驶」更改为了「辅助驾驶」。
理想汽车还给出了官方微博声明:“目前理想 ONE L2 级别辅助驾驶还是以驾驶员为主来控制车辆,不能完全替代驾驶员做决策”,并呼吁驾驶员安全使用该系统。
目前,理想 ONE 的订购页面底部也有一行浅色文字:
驾驶辅助系统是驾驶辅助功能,无法应对所有交通、天气与路况。驾驶员无论何时均需保持对车辆的主动控制。在交通状况复杂多变、冰雪雨路面湿滑天气、道路积水或烂泥路面、能见度较差、崎岖山路或高速路入口出口等情况下,请谨慎使用。
尽管技术在不断进步,但整个行业的发展还远远称不上是成熟。
一些灰暗的时刻固然不会阻挡世界继续向更高级的自动驾驶未来进发,但这些事故确实给了我们一个重要的机会,想想这起事故为何会发生,我们又能从中学到什么以防止事故重演?
藉由此,车主清晰正确地认识、并使用辅助驾驶功能,可能是一个成本最小,收益最大的答案。
LX A i 中 国 网 Q