面對電車難題,自動駕駛交了一張白卷

 
樓主  收藏   舉報   帖子創(chuàng)建時間:  2018-11-03 11:52 回復(fù):1 關(guān)注量:1033

一輛剎車失靈的有軌電車正在急速行駛,前面的鐵軌上綁著一群人, 如果任由電車行駛, 那群人必將罹難。

這時你站在鐵軌正上方的天橋上, 你前面有一個胖子, 你可以將他推下天橋以阻擋住電車來營救那群人,不過這個胖子會遇難。

當然,你考慮過自己跳下去,但由于你自己的體積太小而無法阻擋電車,這個方案并不可行。

請問這時你是推還是不推?

這就是經(jīng)典的電車困境了——1967年由哲學(xué)家Philippa Foot提出。50年之后,來自麻省理工學(xué)院媒體實驗室(the MIT of Media Lab)可擴展合作小組(the Scalable Cooperation group)的數(shù)名研究人修改了這項道德難題,將有軌電車換成自動駕駛汽車,并征集了來自全球的回答。

游戲鏈接如下,大家可以先自行感受一把。

http://moralmachine.mit.edu/

文摘菌玩的時候救得最多的竟然是男運動員

2016年,麻省理工學(xué)院創(chuàng)建了名為“道德機器”的游戲平臺,通過此平臺收集人類對未來人工智能可能會遇到的道德困境的不同意見。

游戲中,正在行駛的自動駕駛汽車直行會撞到一位年邁老奶奶,如果選擇變道則會撞到一位年邁老爺爺(有時可能是五只狗或是五個輕微肥胖的男性)。

在這個游戲中,玩家所要做出的不再只是一瞬間的抉擇,而是未來將會被編寫進汽車程序中的預(yù)先判斷。

據(jù)《Nature》雜志報道,經(jīng)過兩年時間,MIT已收集到3億9千6百萬份數(shù)據(jù),該數(shù)據(jù)來源覆蓋了10種語言,233個國家和地區(qū),囊括了多個不同文化對該困境的道德態(tài)度。

對這些數(shù)據(jù)進行分析發(fā)現(xiàn),東方國家例如日本、沙特阿拉伯和印度尼西亞,人們傾向于保護那些遵紀守法的人。西方國家例如美國、加拿大、挪威和德國更傾向于選擇不變道,讓汽車繼續(xù)直行。而在一些拉丁美洲國家,例如尼加拉瓜和墨西哥,人們更傾向于為健康的、年輕的或是地位高的人選擇變道。

從整體上看,人們普遍傾向保護人類而非動物,愿意犧牲少數(shù)保護多數(shù),同時更傾向于保護年輕人。

無人車的倫理問題不是個簡單的選擇題。從學(xué)界到業(yè)界,都在孜孜不倦進行研究。

今年3月份,MIT、哈佛、加州大學(xué)爾灣分校、法國圖盧茲大學(xué)的一個聯(lián)合研究小組,致力于通過定量研究的手段,了解人們在面對無人車事故時的態(tài)度,并于最近發(fā)布了研究成果。

大數(shù)據(jù)文摘公眾號后臺對話框回復(fù)“背鍋”下載這篇論文。

論文作者來自腦和認知科學(xué)、心理學(xué)、經(jīng)濟學(xué)等多個不同領(lǐng)域,MIT火爆的無人車課程講師Sydney Levine也是作者之一。

針對自動駕駛的道德問題,多數(shù)自動駕駛從業(yè)者對該問題都沒有明確回應(yīng),只能報以一聲嘆息。

行駛道路上,汽車難免會遇到?jīng)_撞情境,工程師們必須要考慮將如何權(quán)衡與抉擇編寫進自動駕駛汽車的程序當中。MIT媒體實驗室博士后合作者Edmond Awad提到:“我們主要的目的在于,去了解一旦事故發(fā)生,人們會如何反應(yīng)。我們將這個游戲作為大型平臺,以供專家們觀察和分析公眾的反應(yīng)?!?

那么,搭建這項技術(shù)的工程師到底是如何看待道德困境的呢?

大多數(shù)人選擇,不作答。

Karl Iagnemma(Aptiv Automated Mobility 總裁兼自動駕駛車輛公司nuTonomy的共同創(chuàng)辦人)表示:“從工程師的角度看,解決這個困境需要基于兩點考慮。首先,誰都無法確定正確的解決方法是什么,甚至都無法確定是否存在解決方法。其次,像這樣的事故概率是極其微小的,并且自動駕駛技術(shù)會讓這一概率繼續(xù)減小?!?

另外,自動駕駛汽車無法做到像游戲中的玩家一樣進行復(fù)雜的利弊權(quán)衡然后做出抉擇,它們的傳感器甚至都無法辨別出汽車尾氣與墻面,更不必說百萬富翁與流浪漢了。

目前,開發(fā)者更多的是在關(guān)注一些基礎(chǔ)問題,比如訓(xùn)練機器辨識騎自行車的人和??康能囕v或是行駛的車輛。

不過,工程師同時也正在讓技術(shù)進行基本的利弊權(quán)衡判斷。

來自開發(fā)自動駕駛汽車感知系統(tǒng)的DeepScale公司的首席執(zhí)行官Forrest Iandola告訴我們:“自動駕駛汽車會將檢測到的目標分為從脆弱到不脆弱的幾個等級。其中,最重要的脆弱對象是毫無防衛(wèi)的人類,而停靠的汽車或是交通路標則被分類為不脆弱——也就是汽車在不得已的情況下會選擇撞上的對象?!?

除此之外,自動駕駛車輛同時必須要適應(yīng)世界不同文化。例如,NuTonomy在波士頓和新加坡測試了自動駕駛技術(shù),形成了適應(yīng)不同文化和情境的“規(guī)則手冊”。

不單單是nuTonomy這一家企業(yè)有著這樣的考慮,其他企業(yè)也同樣關(guān)注文化差異。Iagnemma表示:“我們所有都致力于構(gòu)建安全且設(shè)計良好的系統(tǒng)。接下來我們將會關(guān)注駕駛偏好、文化和地理等問題,這些同樣也會涉及道德倫理問題?!?

自動駕駛產(chǎn)業(yè)對利弊權(quán)衡和文化差異都已進行了不同的考量,更深層的道德問題也終將會被提上日程。

自動駕駛對電車難題會交出怎樣的答卷,我們屏息以待。