輔助駕駛又雙叒叕出事了。
近日,溫州一位車主駕駛理想ONE跑高速啟用輔助駕駛功能后,犯困之際經過一高速路口,車輛直接撞上防撞桶,導致十來個防撞桶被撞壞,車輛前保險杠脫落。
盡管事故最終以車主疲勞駕駛,承擔事故全部責任并罰款200元告終,但網友們并不買賬,把關注的焦點全部轉移到了技術之上。
有人語重心長喊話理想汽車:“無人駕駛不靠譜啊理想”
有人現(xiàn)身說法:“我遇到過這種情況,識別不了,趕緊減速、打燈、并線”
有人為交通安全法獻策:“應該立法,無人駕駛出意外的都要判刑”
還有人二話不說,直接搞了個總結:“總的來說,無人駕駛就是不靠譜”
看來這里,新智駕真的有必要站出來說句公道話:輔助駕駛的鍋,真的別讓無人駕駛來背。
畢竟,老百姓對于某項技術的正確認知非常重要,尤其是這項技術不僅關乎生命安全,甚至還能夠直接影響相關政策的制定,直接決定相關行業(yè)的未來走向。
輔助駕駛≠自動駕駛/無人駕駛
輔助駕駛
常見的輔助駕駛功能包括自適應巡航、前碰撞預警、自動緊急剎車、車道保持輔助、換道輔助等。
盡管這些功能看似紛繁復雜,但重點在于「輔助」二字,在一定程度上分擔駕駛壓力,其核心并非旨在控制汽車。
針對輔助駕駛的傳感器配置,元戎啟行副總裁劉念邱表示:
輔助駕駛只使用了相機視覺的數(shù)據(jù),并不能完全精確感知周圍的環(huán)境,相機在遇到強光的環(huán)境上 容易出現(xiàn)誤檢,仍需要駕駛員對車輛進行控制。
也就是說,輔助駕駛的場景下,駕駛員仍然是駕駛的主體。相信在購置配有輔助駕駛功能的車輛時,工作人員也會一再叮囑不可掉以輕心,時刻保持專注,手握方向盤。
上個星期,小鵬汽車正式啟動“小鵬NGP3000公里遠征挑戰(zhàn)”。
其中,新智駕受邀參與泉州至溫州路段的試乘,路線全長570km,其中NGP功能開啟路段超400km。
在本次長達一天的駕駛體驗中,小鵬NGP表現(xiàn)總體優(yōu)秀,加減速操作穩(wěn)定,識別反饋清晰高效。
同時,人工也主動接管了兩次:一次是過環(huán)形匝道,因為下雨,下匝道時受前方車輛濺起大量水汽退出一次;另一次也是左側修路,無序堆放了很多防撞桶。
對此,小鵬汽車表示:
NGP高速自主導航駕駛功能依然屬于輔助駕駛范疇,我們希望通過該功能的實現(xiàn),能幫助駕駛員更輕松更安全的完成旅途,絕非替代駕駛員。
看到這里,就有小伙伴會問了,輔助駕駛系統(tǒng)為何總是折戟防撞桶,識別到了繞路行駛不就萬事大吉了嗎?
對此,某業(yè)內工程師解釋道,輔助駕駛系統(tǒng)通常感知精度和準確度不夠。另外,規(guī)劃算法能力不足,自動跨線繞行比較危險,目前“最省事”的方式就是人工接管。
自動駕駛
自動駕駛,原則上是不需要駕駛員介入的,但出于法律法規(guī)以及安全的需求,現(xiàn)階段自動駕駛車輛的駕駛座上需要有安全員(出現(xiàn)意外情況,可人工接管)。
另外,在技術方面,自動駕駛比輔助駕駛的要求更嚴格。
在自動駕駛車輛上路前,系統(tǒng)里會導入相關區(qū)域的高精度地圖;在車輛上路時,車身搭載的激光雷達、攝像頭等傳感器實時搜集周圍信息,更精確的算法系統(tǒng)對路面上的靜態(tài)/動態(tài)障礙物進行識別,并對其行動軌跡進行精確預測。
結合多方面的信息,自動駕駛車輛會進行智能決策,規(guī)劃新的路線,并控制車輛的行駛軌跡——這是輔助駕駛所不具備的能力。
這時候,車輛已經成為了駕駛的主體。
無人駕駛
總體上來說,無人駕駛的等級最高,相當于把開車這件事完全交給了無人駕駛系統(tǒng),駕駛座可以沒有安全員,甚至可以沒有方向盤。
不過,要實現(xiàn)完全的無人駕駛還有很漫長一段路要走。
珍愛生命,理性對待輔助駕駛
目前市面上所能買到的量產車,無論宣傳頁上的表述是 L2 級自動駕駛,還是 L2.5/L2+ 自動駕駛,嚴格意義上都算是輔助駕駛——與自動駕駛/無人駕駛壓根不是一回事兒。
然而,美國汽車協(xié)會研究表明,在真實世界中行駛 4000 英里的過程中,配備輔助系統(tǒng)的車輛平均每 8 英里就會遇到某種類型的問題。
也就是說,這些輔助駕駛系統(tǒng)并不是 100% 的安全可靠。
同時,隨著新車輔助駕駛系統(tǒng)搭載率快速提升,在輔助駕駛系統(tǒng)開啟時發(fā)生交通事故的情況也已經屢見不鮮。
包括上文提到的理想 ONE 事故,車主就曾在接受媒體采訪中提到,“輔助駕駛系統(tǒng)沒有識別到防撞桶”。
輔助駕駛無法正常識別前方目標物而引起事故的情況其實很常見。
去年,理想 ONE 曾在一個月內遭遇兩場追尾前車的事故,原因也都是輔助駕駛系統(tǒng)未能第一時間識別前方變道車輛。兩位事故車主均表示,在自己介入前,系統(tǒng)未能識別出前車并給出任何警示,也未減速。
即便是業(yè)內公認的新造車領跑者特斯拉,也時不時陷入失控疑云,盡管特斯拉認為自己的Autopilot 能夠挽救無數(shù)生命。
每個季度,特斯拉都會公布自家電動車隊的安全記錄數(shù)據(jù),特別是開啟 Autopilot 和關閉 Autopilot 時事故率的對比。
特斯拉在去年第三季度的報告中寫道:
開了 Autopilot 的特斯拉每459 萬英里才發(fā)生一起事故,只用到我們主動安全功能的特斯拉事故率則變成了每 242 萬英里一次。那些不開 Autopilot 也不開主動安全功能的特斯拉則每 179 萬英里就會出一次事故。與其相比,NHTSA 的美國車輛事故頻率為每 47.9 萬英里每次。
看起來 Autopilot 很厲害對不對,不過,這些數(shù)據(jù)的誤導性可不小。
據(jù) MIT 的研究顯示,Autopilot能如此強悍主要是因為它大多數(shù)用在高速路上,比例高達 94%。但在高速公路之外,事故率是高速道路的 3 倍有余。
盡管特斯拉官方語境里 Autopilot 只能用在高速上,但高速好開,事故率低,出了事可就是大事。
最近特斯拉開始小范圍推送的全自動駕駛 (FSD)Beta 版本,要把此前局限于高速道路的使用范圍擴展到城市街道。
然而,在網友上傳的相關視頻中不難發(fā)現(xiàn),F(xiàn)SD 十分莽撞,甚至像一個馬路殺手。在這種情況下,駕駛員不提前進行干預是非常危險的。
責任界定的難點
事實上,在發(fā)生類似事故的時候總有一個難題:責任怎么來界定?
2016 年,一位特斯拉車主駕駛在京港澳高速邯鄲段行駛時,與前方的道路清掃車發(fā)生追尾事故身亡。經交警認定,這起事故中,駕駛特斯拉的車主負主要責任。
然而,受害者的父親對特斯拉提起訴訟,稱特斯拉夸大宣傳的自動駕駛功能致使受害者在駕駛時放松警惕,才是這起車禍真正原因——特斯拉在自動駕駛系統(tǒng)尚不完善、不能保證安全的情況下,仍然通過宣傳誘導用戶去信任這套系統(tǒng),應該承擔相應的法律責任。
同年,一名北京特斯拉車主在開啟 Autopilot 模式時,因未能避過停在左側的汽車,導致兩輛汽車損毀。
車禍發(fā)生后,該名特斯拉車主在網絡平臺詳述了車禍發(fā)生的過程,并投訴特斯拉公司夸大自動駕駛功能誤導買家。
此后,特斯拉中國官網上才將「自動駕駛」這個詞替換成了「自動輔助駕駛」,并且發(fā)布《車主使用手冊》,要求車輛必須由有駕駛執(zhí)照的人駕駛,而且要一直把手放在方向盤上。
在去年 9 月的一次事故后,理想汽車則在官方網站上將原先的「自動輔助駕駛」更改為了「輔助駕駛」。
理想汽車還給出了官方微博聲明:“目前理想 ONE L2 級別輔助駕駛還是以駕駛員為主來控制車輛,不能完全替代駕駛員做決策”,并呼吁駕駛員安全使用該系統(tǒng)。
目前,理想 ONE 的訂購頁面底部也有一行淺色文字:
駕駛輔助系統(tǒng)是駕駛輔助功能,無法應對所有交通、天氣與路況。駕駛員無論何時均需保持對車輛的主動控制。在交通狀況復雜多變、冰雪雨路面濕滑天氣、道路積水或爛泥路面、能見度較差、崎嶇山路或高速路入口出口等情況下,請謹慎使用。
盡管技術在不斷進步,但整個行業(yè)的發(fā)展還遠遠稱不上是成熟。
一些灰暗的時刻固然不會阻擋世界繼續(xù)向更高級的自動駕駛未來進發(fā),但這些事故確實給了我們一個重要的機會,想想這起事故為何會發(fā)生,我們又能從中學到什么以防止事故重演?
藉由此,車主清晰正確地認識、并使用輔助駕駛功能,可能是一個成本最小,收益最大的答案。
雷鋒網雷鋒網(公眾號:雷鋒網)雷鋒網
雷鋒網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。