法國哲學(xué)家阿爾伯特·加繆曾經(jīng)說過,沒有哪種死法比車禍更荒謬。然而 1960 年,加繆死于車禍。
半個多世紀(jì)過去了,這樣的「隨機性殘忍」時有發(fā)生。
駕駛機動車已成為大多數(shù)成年人做的最危險的事情之一,2018 年,全球因車禍?zhǔn)鹿试斐傻乃劳鋈藬?shù)超過 140 萬。
這幾年自動駕駛在全球范圍內(nèi)燎原式發(fā)展,這一技術(shù)據(jù)稱能消除 94% 由人為失誤造成的車禍。
某種程度上,自動駕駛汽車有機會成為救命良方。但我們還沒有走到那一步,自動駕駛的發(fā)展還處在中古時期,充滿了太多的不確定性和未知。
我們緬懷這些在自動駕駛歷史進程中,因為技術(shù)不夠完善而遭遇不幸的人們,發(fā)展自動駕駛,每一個參與其中的人都應(yīng)心存敬畏。
事故一
時間:2016 年 1 月 20 日
地點:京港澳高速河北邯鄲段
罹難者:高雅寧(23 歲)
2016 年 1 月 20 日,京港澳高速河北邯鄲段發(fā)生了一起追尾事故。
一輛特斯拉 Model S 直接撞上正在作業(yè)的道路清掃車,Model S 當(dāng)場損毀,司機高雅寧不幸身亡。
根據(jù)車輛行車記錄儀拍下的畫面顯示:
2016 年 1 月 20 日 14 時整,高雅寧駕駛車輛從河北邯鄲入口進入高速,沿著左側(cè)第一車道行駛。
當(dāng)天天氣晴好,車輛速度也不是很快,14 時 08 分,高雅寧還哼了幾句歌。
14 時 09 分,行車記錄儀的畫面中可以看到前方的道路清掃車正在作業(yè)的指示燈,隨后開在前面的黑色轎車向右并線到第二車道。
但高雅寧駕駛的特斯拉在距離道路清掃車越來越近時,沒有進行減速或者變道,而是徑直撞上了前方的道路清掃車。事故發(fā)生后,道路清掃車司機報了警。
經(jīng)過警方的調(diào)查,他們發(fā)現(xiàn)在發(fā)生事故前,高雅寧駕駛的特斯拉轎車沒有進行任何的緊急制動和躲避措施,直接發(fā)生了追尾事故。
事故發(fā)生時,高雅寧剛剛 23 歲,他的父親高巨斌始終無法理解在行車記錄儀里明明早就看到了道路清掃車,為什么兒子高雅寧既沒有剎車也沒有躲避而是直接撞了上去?
高巨斌介紹,高雅寧早在 2011 年就考取了駕照。
2013 年,他以大學(xué)生的身份參軍入伍,在部隊中擔(dān)任大型軍用車輛的駕駛員,一直表現(xiàn)優(yōu)秀。在 2015 年 9 月,高雅寧復(fù)員回家。
事發(fā)后,高雅寧部隊的戰(zhàn)友和上級都表示,高雅寧的駕駛技術(shù)完全沒問題,安全駕駛的公里數(shù)為幾萬公里。
既然是這樣,為何高雅寧沒有采取任何動作?父親高巨斌表示:「如果不找找這個問題,孩子死不瞑目。」
于是高巨斌將這起事故的行車記錄視頻發(fā)給了一些專業(yè)人士進行分析,他們得出的一致結(jié)論是:這輛特斯拉當(dāng)時應(yīng)該處在定速的狀態(tài)。
后續(xù),特斯拉方面也承認(rèn)車輛在事故發(fā)生前其 Autopilot 系統(tǒng)是開啟的狀態(tài),這導(dǎo)致了高雅寧在高速上行駛時沒有把注意力放在前方道路上,而且 Autopilot 系統(tǒng)也沒有識別出前方的道路清掃車,最后導(dǎo)致了這起悲劇。
高雅寧是在 2014 年購買的特斯拉 Model S,當(dāng)時車上并沒有自動駕駛功能,但是相應(yīng)的硬件已經(jīng)配齊,包括 1 個前置的攝像頭和 Mobileye EyeQ3 芯片負(fù)責(zé)視覺感知;車前方裝配了一個非隱藏式毫米波雷達;車輛周身配備了 360 度超聲波傳感器。
2015 年 10 月,特斯拉開始向全球車主陸續(xù)推送 V7.0 版本的軟件更新,Autopilot 的主要功能得以解鎖,加入了自動車道保持、自動變道和自動泊車三大輔助駕駛功能。Autopilot 也成為特斯拉著力宣傳的賣點。
事故發(fā)生的 2016 年 1 月,Autopilot 系統(tǒng)在大部分情況下能夠較好識別路況(包括車道線和其他車輛的位置)并進行處置。
但是針對錐桶、行人這樣的小型障礙物,系統(tǒng)還識別不了。這起事故中,Autopilot 系統(tǒng)沒有識別到前方的道路清掃車,所以在碰撞前沒有采取任何措施。
2016 年 7 月,高雅寧的家人將特斯拉的經(jīng)銷商起訴至北京市朝陽區(qū)人民法院,要求賠償損失 10000 元,理由是特斯拉在其自動駕駛系統(tǒng)尚不完善過關(guān)的情況下仍然通過誘導(dǎo)宣傳讓用戶信任這套系統(tǒng),應(yīng)該承擔(dān)相應(yīng)的法律責(zé)任。
針對賠償金額,高雅寧家人的代理律師表示,賠償?shù)亩嗌俨⒉皇潜景杆非蟮哪康模峭ㄟ^這起案件帶來一些社會價值:
讓公眾知道目前自動駕駛的缺陷,希望特斯拉公司能夠在宣傳、產(chǎn)品營銷過程中有一個慎重的態(tài)度,不要把自動駕駛作為吸引年輕人的賣點。
在高雅寧事故之后,特斯拉的 Autopilot 系統(tǒng)似乎進入到了事故的怪圈中,接二連三出現(xiàn)開啟 Autopilot 功能后致死致傷、車輛財產(chǎn)損失的事故。
這起事故在發(fā)生之后很長一段時間里,沒有被太多報道,致使公眾對這起事故的認(rèn)知少之又少。
后來我們知道,2016 年 5 月 7 日發(fā)生在美國佛羅里達州的特斯拉 Autopilot 致死事故引起了廣泛關(guān)注,被稱為「全球范圍內(nèi)第一起自動駕駛致死事故」。
但事實上,高雅寧案要比之更早,但在當(dāng)時只被認(rèn)為是一起普通追尾事故,沒有引起自動駕駛業(yè)內(nèi)足夠的重視和警惕,這是非常令人遺憾的。
事故二
時間:2016 年 5 月 7 日
地點:美國佛羅里達州 Wiliston 27 號高速
事故車輛:2015 款黑色特斯拉 Model S
罹難者:Joshua Brown(40 歲)
時間來到 2016 年 5 月 7 日,距離高雅寧事故發(fā)生不到 4 個月后,在美國佛羅里達州一段沒有完全封閉的高速公路上,40 歲的俄亥俄州居民 Joshua Brown 駕駛的一輛 2015 款黑色特斯拉 Model S,撞上了一輛正在左拐的拖掛式卡車。
Joshua Brown 是一位狂熱的特斯拉粉、科技愛好者,為自己的愛車取名「Tessy」。他經(jīng)常在 Youtube 上發(fā)一些與特斯拉有關(guān)的視頻,是個小有影響力的視頻博主。
他曾經(jīng)在推特上發(fā)布了一段特斯拉 Autopilot 系統(tǒng)幫助他避免一場車禍的視頻,還得到了 Elon Musk 的轉(zhuǎn)推。
據(jù) Brown 的鄰居回憶,Brown 曾跟她聊天時談到:「如果有幸能得到 Elon Musk 的關(guān)注,我死也值了。」
沒想到一語成讖。
事故那天天氣晴好,頭頂是藍天白云,心情不錯的 Joshua Brown 駕駛著他心愛的 Model S 飛馳在佛羅里達州 27 號高速上。
他開啟了車上的 Autopilot 系統(tǒng),將自適應(yīng)巡航的速度調(diào)至每小時 74 英里。因為對 Autopilot 系統(tǒng)足夠信任,他沒有將全部注意力放在車輛前方的道路上。
差不多時間,貨運司機 Frank Baressi 駕駛著他的白色拖掛式卡車也行駛在 27 號高速上,但他在 Joshua Brown 的對向車道上。
行至一個路口時,F(xiàn)rank Baressi 進行左轉(zhuǎn)準(zhǔn)備下高速。就在這時,Joshua Brown 和他的特斯拉 Model S 都沒有注意到前方正在轉(zhuǎn)彎的的白色卡車。
在沒有任何反應(yīng)的情況下,Model S 朝著卡車車廂撞了上去,車輛擋風(fēng)玻璃首先撞上車廂底部,車頂被掀掉后從卡車車廂底部穿出,因為速度過快,Model S 還連撞了幾個道路圍欄、樹木還有電話亭后才最終停下。
Joshua Brown 在這場車禍中喪生。
一個鮮為人知的細節(jié)是,卡車司機 Frank Baressi 后來向美聯(lián)社回憶,事故發(fā)生后當(dāng)他靠近事故車時,聽見車?yán)镎诓シ烹娪啊豆げㄌ亍罚?dāng)時警察也在事故車上找到了一臺便攜式的 DVD 播放機。
若他所言為真,這就解釋了為什么 Joshua Brown 在碰撞發(fā)生前沒有進行任何接管車輛和踩剎車的動作。
這起致死事故引發(fā)了全球范圍的關(guān)注,面對鋪天蓋地的報道和討論,特斯拉再也不能像處理高雅寧案那樣鎮(zhèn)定自若了。
針對這起事故,特斯拉在其官方博客發(fā)表了聲明,他們認(rèn)為這起事故的特殊之處在于:拖掛車正在橫穿公路,且車身較高,這一情況導(dǎo)致了 Model S 的前擋風(fēng)玻璃與掛車底部首先發(fā)生撞擊。
假使當(dāng)時車輛發(fā)生的是正面撞擊或追尾事故,即便在高速行駛條件下,Model S 的防撞系統(tǒng)都極有可能避免人員傷亡的發(fā)生。
特斯拉同時強調(diào),每一次自動駕駛啟動時,車輛都會提醒駕駛員「請始終握住方向盤,準(zhǔn)備隨時接管」。
言下之意就是 Joshua Brown 并未按照系統(tǒng)的提示手握方向盤,所以特斯拉系統(tǒng)不負(fù)主要責(zé)任。
而針對車輛系統(tǒng)未檢測到白色的拖掛卡車車廂、AEB 系統(tǒng)也沒有及時起作用的情況,特斯拉的供應(yīng)商 Mobileye 也發(fā)布了官方聲明:
「當(dāng)前的防碰撞技術(shù)或者自動緊急制動系統(tǒng) AEB 的設(shè)計,是為了防止與前車車尾的碰撞。在這起事故中,涉及到對橫向行駛車輛的處理,不屬于這一代 AEB 的設(shè)計目標(biāo)。」
就此將事故責(zé)任與自己撇清。
汽車之心基于多位業(yè)內(nèi)專業(yè)人士的分析認(rèn)為:
在 Joshua Brown 的事故中,毫米波雷達已經(jīng)檢測到前方卡車車廂的存在,但它無法判斷車廂的高度,結(jié)合視覺感知把卡車白色的「車廂」當(dāng)成了天上的「白云」,最終系統(tǒng)傾向認(rèn)為車廂是一塊懸在道路上方的路牌。
2017 年 1 月 20 日,美國 NHTSA 給出的事故最終結(jié)論是:
沒有足夠有力的證據(jù)表明特斯拉的自動駕駛系統(tǒng)直接導(dǎo)致了 Joshua Brown 的不幸,將不會對任何一輛特斯拉進行召回。至此,為期 8 個月的事故調(diào)查告一段落。
這起事故受到了全球關(guān)注和討論,也帶來了一些深遠的影響。
特斯拉和 Mobileye 在這起事故后的 2 個月宣布合作關(guān)系破裂,Mobileye 將不再向特斯拉供應(yīng) EyeQ 芯片以及相應(yīng)的視覺算法。
特斯拉對此的解釋是 Mobileye 難以跟上其產(chǎn)品的發(fā)展步伐,雙方分手不可避免;還有傳聞?wù)f是特斯拉想自己開發(fā)視覺算法而 Mobileye 不同意才導(dǎo)致雙方關(guān)系破裂。
后來的故事大家都知道,特斯拉轉(zhuǎn)向與英偉達進行合作,并且在視覺算法上轉(zhuǎn)向自研,內(nèi)部成立 Tesla Vision 團隊。
2016 年 10 月,特斯拉還發(fā)布了全新的 Autopilot 2.0 版本硬件:
英偉達 Drive PX2 芯片;12 個超聲波雷達;1 個毫米波雷達;8 個全車攝像頭(三目前視、正側(cè)方、側(cè)后方、后置攝像頭)。
另一方面,2016 年 7 月特斯拉在中國的經(jīng)銷商被高雅寧家屬告上法庭,加上佛羅里達事故被全球關(guān)注——雙重壓力下,2016 年 8 月份,特斯拉中文官網(wǎng)將「自動駕駛」改為「自動輔助駕駛」。
特斯拉中國公司員工還需接受額外培訓(xùn),在演示相關(guān)功能時,必須將雙手放在方向盤上。
之后很長一段時間,特斯拉 Autopilot 沒有出過大問題。
但在當(dāng)?shù)貢r間 2018 年 3 月 1 日,一起與 Joshua Brown 事故如出一轍的悲劇又發(fā)生了。
事故三
時間:2018 年 3 月 1 日
地點:美國佛羅里達州棕櫚灘
事故車輛:紅色特斯拉 Model 3
罹難者:Jeremy Banner
3 月 1 日,Jeremy Banner 從睡夢中醒來,開上他的紅色特斯拉 Model 3,沿著佛羅里達的大沼澤地的邊緣向南行駛,車窗外的沼澤和農(nóng)田快速掠過。
他輕撥了兩下方向盤下的操縱桿,車內(nèi)響起提示音,他啟動了車上的 Autopilot 系統(tǒng)。
行至一處路口的時,Banner 沒能發(fā)現(xiàn)正前方有一輛拖掛卡車正穿過四車道的高速公路,Model 3 的 Autopilot 系統(tǒng)也沒有注意到,車輛以 109 公里的時速撞了上去,車頂直接被掀翻,這位有三個孩子的 50 歲父親當(dāng)場死亡。
這次事故的場景與 2016 年 5 月發(fā)生的 Joshua Brown 事故如出一轍,兩年的時間,特斯拉 Autopilot 依然對這樣的駕駛場景束手無策。
這一特殊場景,值得所有自動駕駛研發(fā)公司進行針對性研究。
Banner 的家人根據(jù)佛羅里達州的《非正常死亡法案》起訴了特斯拉,要求產(chǎn)品責(zé)任索賠。
前文我們提到,特斯拉針對 2016 年 5 月份發(fā)生的事故曾經(jīng)聲明:車輛與拖掛卡車車廂底部相撞后直接穿過去的情況是「極其少見」的。但同樣的事故,在特斯拉身上已經(jīng)發(fā)生了兩起。
事實是,在美國,這樣場景的事故每年都會發(fā)生幾百起,而且基本都是撞向車廂的側(cè)面然后從底部鉆了出來,但是業(yè)界一直沒有采取有效措施來避免類似的事故。
后來,有一些創(chuàng)業(yè)者提出一些改進措施,就是在拖掛卡車的車廂兩側(cè)安裝一個類似于護翼的裝置,能夠避免車輛在撞向卡車車廂側(cè)面時竄入車底而引發(fā)更大的傷害。
人們給這樣的裝置起了一個很美好的名字「AngelWings(天使之翼)」。
2017 年,IIHS 針對 AngelWings 裝置進行了測試,在車輛時速 35-40 英里時表現(xiàn)良好。
事故四
時間:2018 年 3 月 18 日
地點:美國亞利桑那州坦佩市
事故車輛:Uber 自動駕駛測試車
罹難者:Elaine Herzberg(49 歲)
同樣在 3 月,Uber 自動駕駛測試車致死事故引發(fā)了全球行業(yè)震蕩。
在一個看似尋常的周日晚上,一輛基于 2017 款沃爾沃 XC90 打造的 Uber 自動駕駛汽車正在亞利桑那州坦佩的一條既定路線進行道路測試,車輛駕駛位上是一名 44 歲的白人女性,她是這輛車的安全員。
晚上 9 時 39 分,這輛車開啟了自動駕駛模式,系統(tǒng)接管了所有操作。19 分鐘后,車輛撞上了一位正推著自行車橫穿馬路的白人女性 Elaine Herzberg 并致其死亡。這是全球第一起自動駕駛測試車撞死行人事故。
事故發(fā)生的道路有 4 條車道,Uber 的自動駕駛汽車行駛在最右側(cè)的車道上,道路兩側(cè)是有路燈的。
但是 Elaine Herzberg 選擇橫穿馬路的地方并不是斑馬線區(qū)域,而且正好是路燈照不太到的位置。她推著車從左至右穿行,在快要穿過馬路時,Uber 的自動駕駛車撞倒了她。
車上的自動駕駛系統(tǒng)以及安全員都沒有及時發(fā)揮作用,導(dǎo)致被撞者身亡。車內(nèi)的攝像頭錄下的視頻顯示,碰撞前幾秒,安全員還低頭往右下方看了兩眼。
Uber 為這輛車配備了前向、后向、內(nèi)視攝像頭共 10 枚攝像頭,還有毫米波雷達以及激光雷達,車內(nèi)還集成了計算單元和數(shù)據(jù)存儲單元。
而且,沃爾沃在出廠前也為這輛車配備了一系列駕駛輔助功能,其中包括 AEB 系統(tǒng)。但是 Uber 的設(shè)計邏輯是,一旦其自動駕駛系統(tǒng)接管了車輛,這輛 XC90 本身具備的一些駕駛輔助功能就無法使用。
美國 NTSB 針對這起事故發(fā)布了兩份調(diào)查報告,汽車之心對其關(guān)鍵信息進行提取發(fā)現(xiàn):
在碰撞前 6 秒,車上的毫米波雷達和激光雷達檢測到了前方行人的存在,當(dāng)時車輛的時速是 43 英里。隨著行人和車輛越來越接近,自動駕駛系統(tǒng)不斷改變其判斷「結(jié)果」:
碰撞發(fā)生前 5.2 秒,系統(tǒng)將 Herzberg 劃歸為「未知物體」;
碰撞發(fā)生前 4.2 秒,系統(tǒng)又將 Herzberg 重新歸類為「車輛」;
碰撞發(fā)生前 3.8-2.7 秒的時間段中,軟件的分類功能在「車輛」與「未知物體」的分類結(jié)果中跳動了好多次;
碰撞發(fā)生前 2.6 秒,系統(tǒng)又變了,將 Herzberg 和她的自行車識別為「自行車」;
碰撞發(fā)生前 1.5 秒,Herzberg 被識別為「未知物體」;
碰撞發(fā)生前 1.2 秒,Herzberg 又被識別成了「自行車」;
碰撞前 1.2 秒時,Herzberg 進入了測試車的行車路線,自動系統(tǒng)才反應(yīng)過來需要進行緊急制動。
但在這關(guān)鍵的 1.2 秒時間里,因為 Uber 方面為系統(tǒng)設(shè)置了一個緊急情況動作抑制程序,需要花費 1 秒鐘時間來執(zhí)行,所以車輛最后雖然進行了制動但已于事無補,Herzberg 被撞時車輛速度是每小時 39 英里。
Uber 后來解釋,在系統(tǒng)中加入動作抑制程序是因為擔(dān)心在車輛進行測試時會系統(tǒng)頻繁誤報,給車輛帶來一些不必要的緊急制動。
致死事故發(fā)生后,Uber 叫停了在美國坦佩、匹茲堡、舊金山和多倫多等城市的自動駕駛汽車測試。
7 月底,Uber 宣布終止開發(fā)自動駕駛卡車,從而把精力更加聚焦到自動駕駛乘用車上。
8 月份,Uber 重新開啟自動駕駛乘用車路測,但在一段時間內(nèi)車輛必須由人工駕駛,主要是為算法訓(xùn)練和地圖收集信息數(shù)據(jù)。
而且,為了讓這項技術(shù)重回公眾視野,Uber 在前美國國家交通安全局主席及交通專家的指導(dǎo)下,展開了大規(guī)模的「安全檢查」。
這起事故對于 Uber 自動駕駛來說,無疑是沉重的打擊。但是人命關(guān)天,Uber 的教訓(xùn)也為全世界范圍來所進行的自動駕駛研發(fā)和測試敲響了警鐘。
諸多企業(yè)甚至因此調(diào)整了開發(fā)策略,叫停了自動駕駛路測轉(zhuǎn)而更專心于打磨技術(shù),豐田便是其中之一。
事故五
時間:2018 年 3 月 23 日
地點:美國加州山景城 101 高速
事故車輛:2017 款藍色特斯拉 Model X P100D
罹難者:黃偉倫(38 歲)
當(dāng)人們還未從 Uber 自動駕駛致死案中緩過神來,特斯拉 Autopilot 又出事了。
3 月 23 日周五上午 9 時 27 分,38 歲的蘋果工程師黃偉倫(Walter Huang)駕駛著他的 2017 款特斯拉 Model X P100D 行駛在加州山景城的 101 號高速上,正往南開。
加州 101 號高速山景城段有 6 條向南的車道,其中最左側(cè)的多乘員車道(HOV)正好連著 85 號州際公路。
兩條公路的分流處有建好的混凝土隔離帶進行分隔,隔離帶上裝有碰撞減速裝置(Crash Attenuator),目的就是為了減小車輛撞上隔離帶的沖擊力,避免更大的傷害。
但就在 3 月 12 日,該隔離帶發(fā)生了一次車禍,當(dāng)時是一輛豐田普銳斯以時速 75 英里的速度撞上隔離帶。
所幸,車上的安全帶和安全氣囊以及隔離帶的碰撞減速裝置同時發(fā)揮作用,普銳斯車主幸免于難。該事故發(fā)生后,隔離帶上的碰撞減速裝置因為各種原因遲遲沒有修復(fù)好。
當(dāng)黃偉倫駕駛著特斯拉在 101 號高速左起第二車道上行駛時,根據(jù)車上的行車數(shù)據(jù)顯示,黃偉倫當(dāng)時開啟了 Autopilot 系統(tǒng),車輛正在進行自適應(yīng)巡航,速度設(shè)定為每小時 75 英里。
美國 NTSB 在 2018 年 6 月發(fā)布的一份初步調(diào)查報告中稱:
黃偉倫的特斯拉在事故發(fā)生前 8 秒,以每小時 65 英里的速度跟在另一輛車后面;1 秒鐘后,特斯拉開始向左行駛,同時仍然跟在那輛車后面。
但在事故發(fā)生前的 4 秒鐘,特斯拉已經(jīng)不再跟隨前方車輛,在撞擊前 3 秒,車輛加速到大約 71 英里每小時,最終撞上了碰撞減速裝置破損的隔離帶。根據(jù) NTSB 對該車記錄的性能數(shù)據(jù)的總結(jié),沒有檢測到碰撞前的剎車或規(guī)避轉(zhuǎn)向動作。
因撞擊力太大,特斯拉車身發(fā)生了逆時針旋轉(zhuǎn),致使前車身結(jié)構(gòu)和與車輛后部分離。
車輛在撞擊后因電池承壓過大而起火,黃偉倫被困在車內(nèi),一旁的群眾將他從起火的車中轉(zhuǎn)移出來并聯(lián)系救護車將其送到最近的醫(yī)院。
不幸的是,黃偉倫因傷勢過重而不治身亡。
事故還導(dǎo)致了后續(xù)兩輛車的追尾,馬自達車主輕微受傷、奧迪車主無大礙。
事故后,特斯拉發(fā)布聲明稱,發(fā)生碰撞前 6 秒沒有檢測到駕駛員的手有觸碰過方向盤,駕駛員約有 5 秒時間、距離 150 米 的無遮擋視野,可以看到混凝土隔離帶和壞掉的碰撞減速裝置。
特斯拉的言下之意就是,事故與己無關(guān),是駕駛員黃偉倫沒有專心看路,未能及時接管車輛踩下剎車才釀成了致命事故。
特斯拉方面還認(rèn)為,破損的碰撞減速裝置加重了撞擊的嚴(yán)重性。
黃偉倫家屬對特斯拉發(fā)起了訴訟,原告律師在聲明中表示,事發(fā)時特斯拉的系統(tǒng)誤讀了車道線,未能發(fā)現(xiàn)混凝土隔離帶,未能及時剎車。
原告律師聲稱,特斯拉利用客戶真實駕駛來對其系統(tǒng)進行測試,導(dǎo)致妻子失去了丈夫,兩個孩子失去了父親。遇難者家人希望通過訴訟,防止這種悲劇再次發(fā)生在其他特斯拉車主的身上。
黃偉倫于 2017 年 11 月入職蘋果,而后購買了特斯拉 Model X 慶祝。按照特斯拉 Autopilot 硬件的裝車時間,這款車上至少是 Autopilot 2.0 版本硬件,甚至有可能是 Autopilot 2.5 版本硬件,其軟件能力也已進化至 V8 版本。
按理說,從硬件和軟件的配置來看,車輛不應(yīng)該出現(xiàn)偏離車道的情形,而且車上配備的 AEB 系統(tǒng),也應(yīng)該在碰撞前進行緊急制動,但最終的結(jié)果是這些主動安全系統(tǒng)沒有發(fā)揮作用。
為了驗證這起車禍?zhǔn)欠駷榕既?,另一名特斯拉車主以身試險,進行了一次還原測試。這位特斯拉車主在芝加哥一條高速公路上找到了和事故路段幾乎完全相同的路況。
他在開啟自動駕駛模式后,車速保持在每小時 59 英里,而當(dāng)接近一處岔口時汽車儀表盤開始預(yù)警,提示司機將雙手放到方向盤上,車輛隨后徑直駛向了分岔路中央的隔離帶。
好在司機注意力集中,及時人為完成剎車制動,汽車勉強停在隔離帶前。
從這次還原測試來看,特斯拉 Autopilot 系統(tǒng)在面對這樣的駕駛場景時,確實會出現(xiàn)偏離車道的問題,這無疑是系統(tǒng)致命的缺陷。
這也暴露出特斯拉在算法層面針對這樣的場景的測試并不夠完善。
對于這樣不夠完善的系統(tǒng),黃偉倫和之前多位特斯拉車主一樣,太過于信任它,最終釀成了悲劇。
來源:億歐