以前Mobileye公司合伙創(chuàng)始人兼首席技術(shù)官Amnon Shashua坦率地表示:“當(dāng)人們提到自主駕駛汽車呼之欲出時,其實他們并不知道說的是啥?!?/span>
不過,Shashua并非悲觀主義者。作為一位企業(yè)主管,Shashua表示,“我們不是在等待科學(xué)革命,那要等上50年。我們只是在等待一場技術(shù)革命?!?/span>
開放問題
那么,有哪些開放問題仍然需要技術(shù)革命來回答呢?
現(xiàn)在是時候區(qū)分“科研項目”(正如Shashua所說的那樣)自主駕駛汽車(在安靜的大街上做YouTube演示)和汽車制造商需要但還未有的商用化自主駕駛汽車了。
正如筆者從Mobileye公司的首席技術(shù)官以及眾多學(xué)者、行業(yè)分析師和從事自主駕駛汽車“感知”工作的企業(yè)家那里聽到的那樣,困擾自主駕駛汽車行業(yè)的“開放問題”清單已經(jīng)變得很長了。
有些問題關(guān)聯(lián)性很強,但從廣義角度看,我們可以把它們分成五類:1)自主駕駛汽車的駕駛行為(在密集交通中的協(xié)商);2)更具體更深度的“增強型”學(xué)習(xí)和邊緣案例;3)測試與驗證(我們可以驗證人工智能駕駛汽車的安全性嗎?);4)安全與防篡改(防止無人駕駛汽車被黑);5)更理性卻重要的“多好算夠好”的問題(因為自主駕駛汽車不會很完美)。
1.駕駛行為
Mobileye公司的Shashua稱之為“駕駛策略”。他的意思是自主駕駛汽車必須“在密集交通時進行協(xié)商”。The Linley Group公司高級分析師Mike Demler雖然同意這個觀點,但更愿意使用術(shù)語“駕駛行為”。
“通過行為這個術(shù)語來表示我們每天一直在做的安全駕駛的各個方面,這是用車管局駕駛員手冊中的規(guī)則所無法描述的?!盌emler指出。
這些還不是所謂的“偏僻案例”,他認為,“正如我們在最近的優(yōu)步事故中所看到的那樣,安全駕駛遠不止保持你的車道和觀察速度限制。在信號燈變黃色或視野不清晰時,人們知道(或應(yīng)該知道)應(yīng)該很小心地進入十字路口。你可能不會違反任何法律,但向前行進可能也不是什么好事。”
在亞利桑那州坦佩市發(fā)生的優(yōu)步事故現(xiàn)場。(來源:當(dāng)?shù)豊BC新聞)
Demler補充道:“駕駛行為的其他例子有司機之間常見的互動,不管是好的還是壞的。當(dāng)你緊跟前車行駛時你會做什么?什么時候你應(yīng)該減速讓其他車擠進來?如何在科思科(美國科思科連鎖企業(yè))或擁擠的購物中心輕松地找到停車場?”
他表示,“四級或五級汽車也需要做到這一點。所有的演示視頻都顯示的是一輛車在通暢的交通環(huán)境下行駛,這是比較容易實現(xiàn)的?!?/span>
駕駛策略或駕駛行為有關(guān)系的地方,是在無人駕駛汽車必須能夠在沒有書面規(guī)則的地方行駛,“感覺”或本能取代數(shù)字式的“書本學(xué)習(xí)”時。
2.深度的“增強學(xué)習(xí)”
Demler指出的行為問題大部分是軟件問題。這里的問題不是針對物體檢測的“深度學(xué)習(xí)”。舉例來說,在計算機視覺中,這種深度學(xué)習(xí)可以教會機器將一個邊界盒放在道路上的物體周圍。這已經(jīng)證明是有效的。
但在駕駛策略中,關(guān)鍵是深度的“增強學(xué)習(xí)”。
Mobileye公司的Shashua喜歡舉雙車道并線的例子——此時沒有路權(quán)規(guī)則。在這個領(lǐng)域中,“我們喜歡使用機器學(xué)習(xí),”Shashua表示,“機器可以通過觀察數(shù)據(jù)而不是由規(guī)則編程進行學(xué)習(xí)?!?/span>
為了教授自主駕駛汽車在沒有規(guī)則的情形下如何進行駕駛,機器學(xué)習(xí)是一個理想的工具?!坝^察和收集數(shù)據(jù)要比理解你想解決的問題的背后的規(guī)則要簡單得多。”Shashua指出。
但這也是機器學(xué)習(xí)暴露其弱點的地方。
“機器學(xué)習(xí)基于的是數(shù)據(jù)統(tǒng)計和數(shù)據(jù)篩選能力?!盨hashua表示,但它也可能“遇到極端情況而失敗。”
總之,為了教授自主駕駛汽車駕駛策略,機器學(xué)習(xí)需要收集“稀有事件”(“事故”),這可不是件容易的事。
Vision Systems Intelligence(VSI)公司創(chuàng)始人兼首席顧問Phil Magney相信,人工智能有能力訓(xùn)練無人駕駛汽車的行為更像是人的行為,例如有時違反直覺地使用“一點點激進的措施實現(xiàn)并道”。
但數(shù)據(jù)仍然是“鴻溝”,Magney表示:“要想使人工智能被人們所接受,你需要龐大的數(shù)據(jù)來訓(xùn)練你的行為模型。你可以出去收集盡可能多的數(shù)據(jù),但你仍然不可能測試到所有邊界情況,而且也不可能以安全的方式做到。因此在這種情況下你必須求助于仿真數(shù)據(jù)。”
事實上,Shashua承認,當(dāng)你考慮到城市與國家之間不同的“協(xié)商文化”的細微差別時就會發(fā)現(xiàn),回避極端情況可能導(dǎo)致更多的不確定性。不同地區(qū)和不同文化下每個新版本的駕駛策略都要求收集新的數(shù)據(jù)。
缺少全球解決方案是開放問題之一,Strategy Analytics公司負責(zé)全球汽車慣例的總監(jiān)Ian Riches指出。
關(guān)鍵問題歸結(jié)于“如何保證基于機器學(xué)習(xí)的技術(shù)的安全?!盨hashua認為。在他看來,這“很大程度上是一個開放的問題”。 “這是整個行業(yè)的薄弱環(huán)節(jié)?!彼娴?。
3.測試與驗證
Shashua演講稿中沒有提到(針對人工智能駕駛汽車的)測試與驗證問題,但DeepScale公司首席執(zhí)行官Forrest Iandola時刻關(guān)注著這個問題,這是一家2015年成立于山景城的初創(chuàng)企業(yè)。
DeepScale公司致力于加速“感知”技術(shù),讓汽車實時理解發(fā)生在車輛周邊的情況。
Forrest Iandola
Iandola在學(xué)術(shù)界早已聲名遠揚。他和加州大學(xué)伯克利的研究人員——其中一些人現(xiàn)在已經(jīng)加入DeepScale——共同開發(fā)了一款名為SqueezNet的深度神經(jīng)網(wǎng)絡(luò)模型(DNN)。SqueezNet不是設(shè)計去直接用于解決自主駕駛問題的,Iandola透露,但開發(fā)人員的目標(biāo)是“將模型做得盡可能小,同時保持計算機視覺數(shù)據(jù)集有合理的精度?!?/span>
Iandola相信,四級自主駕駛汽車中的測試質(zhì)量保證最重要。“對于二級ADAS汽車來說,功能性的安全測試也許就夠了。但對于需要能夠完美自主駕駛的4級車來說,你需要滿足除了ISO26262以外的其他自動化測試要求。”
ISO26262非常適合用于測試發(fā)動機控制器,但并不適合測試那些必須看見并持續(xù)響應(yīng)充滿變數(shù)的外部世界的傳感器,他解釋道。“對于質(zhì)量保證而言,實地駕駛測試并不是一個好的方法?!彼赋?,因為這種測試不可能覆蓋所有有難度的物理條件(天氣、地形、交通),這涉及無數(shù)難以預(yù)測的人類駕駛員行為。
他認為,這正是基于優(yōu)秀仿真的測試顯得重要的地方。
不過,Iandola認為實地測試也有其價值,“我們最好能夠設(shè)計這樣一個系統(tǒng),每輛自主駕駛汽車內(nèi)的每個模塊都能向云持續(xù)發(fā)送具有一定置信度的‘反饋’”。
這樣采用這種系統(tǒng)的自主駕駛汽車就不用傻等著發(fā)生碰撞,自己就可以開展自我檢查,他表示。當(dāng)每個模塊切換到人工駕駛模式時,先要問問自己是否感到有些困惑,或問問此刻有多少置信度。模塊會持續(xù)發(fā)送這些數(shù)據(jù)。這類自我檢查有助于數(shù)據(jù)注解器識別最難案例,并建立質(zhì)量保證模型,他解釋道。
考慮到必須在自主駕駛汽車中執(zhí)行的無數(shù)測試與質(zhì)量保證,Iandola也建議說,這個行業(yè)需要開發(fā)一種可以分解成“多個小模塊的”自主駕駛汽車平臺。集中式的自主駕駛汽車平臺有其優(yōu)勢,但缺點之一是無法判斷突然出現(xiàn)的某些軟件瑕疵或硬件問題的癥結(jié)何在。
Iandola決不是鼓吹汽車行業(yè)需要回到汽車內(nèi)集成不同供應(yīng)商提供的100多個ECU模塊的時代。他只是在尋找一種更合理的方式來構(gòu)建由“多個模塊”組成的平臺。
Magney也認為測試與驗證是個大問題。他表示,“我們正處于如何解決3級以上自主駕駛汽車的測試與驗證問題的初級階段?!?/span>
如何驗證人工智能駕駛汽車的安全性“仍是一道未解難題”,他表示,“你必須定義好你能夠用于測試汽車工作的流程和架構(gòu),但這項工作還沒有完成?!?/span>
V模型(來源:Philip Koopman的演講)
另外,Magney強調(diào):“你無法證明為什么人工智能模塊會在傳統(tǒng)功能安全操作條件下發(fā)生故障。你需要一個壓縮的測試與驗證過程來測試實際使用和/或仿真過程中的汽車的性能。”
4.安全和防篡改
首先,今天所有人工駕駛的普通汽車都是不安全的。當(dāng)汽車變成無人駕駛汽車后,問題的嚴重性更呈指數(shù)式上升。
由于無人駕駛汽車中的每個模塊都由計算機控制,整個回路中沒有人工參與,因此計算機就是司機。后座上的乘客只能聽任計算機遇到的任何軟硬件問題發(fā)生。由于回路中沒有人類司機,攻擊也變得更加容易,因為沒有手握方向盤的人說,“嗨,發(fā)生了什么情況?”
另外還有一個問題。Linley Group公司的Demler補充道,“在最近舉行的會議上,有人提出了一個簡單的情形:某人舉一塊停止標(biāo)牌將自主駕駛汽車逼停。自主駕駛汽車如何做才能避免被劫呢?”
5.多好才夠好?
有關(guān)自主駕駛汽車的一個永恒問題則更富哲理性而不是技術(shù)性,而且是問題的核心:多好才夠好?
Gill Pratt是麻省理工學(xué)院前教授,目前是成立一年的豐田研究所負責(zé)人。他在今年早些時候舉辦的美國國際消費電子展(CES)上的豐田新聞發(fā)布會上討論了社會如何感知無人駕駛汽車的安全性。
Pratt表示,在美國,能夠容忍人為失誤的人可以接受每年35,000名交通死亡者。但他問人們能否容忍即使只有一半因自主駕駛汽車造成的死亡數(shù)。“從情感上講,我們認為不能接受?!盤ratt認為,“人們對機器造成的死亡數(shù)持零容忍態(tài)度。”
他這樣解釋Isaac Asimov的第一條機器人規(guī)則:“機器人不能傷害一個人,或者通過不動作而允許人類受到傷害。”
Mobileye公司的Shashua不同意Pratt和Asimov的觀點。他把自主駕駛汽車的安全問題看作類似于氣囊問題。“人們知道氣囊可以拯救生命,但他們同樣能殺人,”取決于汽車行駛的時間、速度或軌跡?!皻饽覛⑷说那闆r每年都有發(fā)生,社會已經(jīng)學(xué)會與之共處?!?/span>
如果自主駕駛汽車可以將致死數(shù)量從35,000減少到35或者350——假設(shè)如此,Shashua相信人們將學(xué)會與自主駕駛汽車和平共處。
Strategy Analytics公司的Riches告訴筆者:“沒有人說自主駕駛汽車絕對可靠。然而,作為一個行業(yè)和社會,我們還沒能提出一個穩(wěn)健的衡量標(biāo)準,來規(guī)定什么樣的故障率是可接受的。”
Riches還補充道,“與之關(guān)聯(lián)的是驗證問題。如果/當(dāng)我們準確地定義了一個可接受的差錯率,對于用來證明某個解決方案符合必需標(biāo)準所需的驗證和仿真技術(shù),我們也與之差距甚遠。”