應(yīng)用

技術(shù)

物聯(lián)網(wǎng)世界 >> 物聯(lián)網(wǎng)新聞 >> 物聯(lián)網(wǎng)熱點(diǎn)新聞
企業(yè)注冊(cè)個(gè)人注冊(cè)登錄

在意外來(lái)臨時(shí),自動(dòng)駕駛系統(tǒng)會(huì)選擇撞向誰(shuí)?

2019-01-09 10:26 S-Tech?

導(dǎo)讀:現(xiàn)行的自動(dòng)駕駛系統(tǒng)分為六個(gè)級(jí)別,Level 0—Level 5,從“僅提供提醒”到“無(wú)需駕駛員的全自動(dòng)駕駛”,特斯拉的自動(dòng)駕駛系統(tǒng)已經(jīng)可以達(dá)到L5,并且谷歌、百度等公司還在不斷的跟進(jìn)自動(dòng)駕駛系統(tǒng)開(kāi)發(fā)。

“一輛高速行駛的列車(chē)駛來(lái),列車(chē)前面有兩條軌道,正常行駛的軌道上被綁著五個(gè)人,而另一條軌道上綁著一個(gè)人;你的手中有一根操控桿可以控制列車(chē)的行駛軌道,如果不拉下操縱桿,列車(chē)將撞上五個(gè)人,另外一條軌道的一個(gè)人將會(huì)得救;如果拉下操縱桿,列車(chē)將撞向一個(gè)人,正常行駛軌道上的五個(gè)人將會(huì)得救。如果是你,將怎樣選擇?”

聞名于哲學(xué)界的“電車(chē)難題(Trolley Problem)”在自動(dòng)駕駛汽車(chē)時(shí)代”,將不再只是一個(gè)哲學(xué)問(wèn)題,而是每一個(gè)自動(dòng)駕駛系統(tǒng)需要面對(duì)的真實(shí)問(wèn)題,系統(tǒng)將決定在發(fā)生事故時(shí)撞向誰(shuí)、保全誰(shuí)。

現(xiàn)行的自動(dòng)駕駛系統(tǒng)分為六個(gè)級(jí)別,Level 0—Level 5,從“僅提供提醒”到“無(wú)需駕駛員的全自動(dòng)駕駛”,特斯拉的自動(dòng)駕駛系統(tǒng)已經(jīng)可以達(dá)到L5,并且谷歌、百度等公司還在不斷的跟進(jìn)自動(dòng)駕駛系統(tǒng)開(kāi)發(fā)。

(源自 :為什么自動(dòng)駕駛需要5G?網(wǎng)優(yōu)雇傭軍)

但是當(dāng)自動(dòng)駕駛系統(tǒng)達(dá)到“全自動(dòng)駕駛”時(shí),系統(tǒng)的開(kāi)發(fā)者就要認(rèn)真考慮多種兩難的情境:當(dāng)自動(dòng)駕駛汽車(chē)處于“電車(chē)難題”情況下要怎樣選擇?在極端情況下,自動(dòng)駕駛系統(tǒng)會(huì)選擇拯救年長(zhǎng)者還是拯救青少年?而當(dāng)不可避免的事故發(fā)生時(shí),法律將怎樣判定肇事責(zé)任?

1、意外來(lái)臨時(shí),人類(lèi)會(huì)如何選擇

麻省理工大學(xué)在2016年開(kāi)發(fā)出了“道德機(jī)器(Moral Machine)”問(wèn)卷測(cè)試網(wǎng)頁(yè),通過(guò)問(wèn)卷的方式調(diào)查全球各地的人在假定的 “電車(chē)難題”中如何做出選擇。在問(wèn)卷之中,有九種獨(dú)立情況需要受試者做出判斷,分別是:人類(lèi)和寵物之間的選擇、多數(shù)人和少數(shù)人之間的選擇、年長(zhǎng)者和年輕人的選擇、遵守交規(guī)的人和違反交規(guī)的人之間的選擇等九個(gè)分類(lèi)。

人類(lèi)道德選擇的共性

“道德機(jī)器(Moral Machine)”收集了來(lái)自233個(gè)國(guó)家的人做出的接近4000萬(wàn)個(gè)選擇數(shù)據(jù)并進(jìn)行分析,并且將分析結(jié)果發(fā)表到了Nature上。

研究發(fā)現(xiàn)了一些全球普遍的選擇傾向,比如受訪者較普遍地選擇了保護(hù)人類(lèi)而不是其他動(dòng)物;較普遍地選擇保護(hù)多數(shù)生命而不是少數(shù);較普遍的選擇保護(hù)青少年而不是年長(zhǎng)者;較普遍的選擇保護(hù)遵守交規(guī)的人而不是違反交規(guī)的人。

(選擇偏向表 版權(quán)所有:Nature)

人類(lèi)道德選擇差異

除此之外,研究顯示在不同的國(guó)家和地區(qū),人們選擇也出現(xiàn)了很大的差異。本論文中,將所有的參加調(diào)查樣本分成了三個(gè)集群:第一,西部集群(Western),主要包括北美和歐洲,以天主教和傳統(tǒng)基督教文化為主的集群;第二,東部集群(Eastern),主要包括中國(guó)和亞洲國(guó)家,以儒家文化為主的集群;第三,南部集群(Southern),主要包括拉丁美洲和法屬海外地區(qū)。

(不同地區(qū)的選擇偏向 版權(quán)所有:Nature)

根據(jù)雷達(dá)圖可看出,來(lái)自不同地區(qū)的人的選擇存在差異;比如,其一,西部集群和南部集群傾向于保護(hù)年輕人,而東部集群這種傾向則不明顯;有可能是因?yàn)闁|部集群的“敬老”文化”的影響;其二,南部集群傾向于保護(hù)社會(huì)地位高的人,并且遠(yuǎn)超西部集群和東部集群。或許和南部地區(qū)的集權(quán)統(tǒng)治和軍閥當(dāng)政有關(guān)系;當(dāng)進(jìn)行了地區(qū)分類(lèi)之后,還有一些奇怪的傾向,比如說(shuō),南部集群傾向于保護(hù)動(dòng)物而不是人類(lèi)。

由此可以預(yù)見(jiàn)的是,在未來(lái)自動(dòng)駕駛法制化進(jìn)程中,首先我們需要一套所有人類(lèi)達(dá)成共識(shí)的基本準(zhǔn)則(比如說(shuō)優(yōu)先保護(hù)人類(lèi)生命),并且通過(guò)聯(lián)合國(guó)或者其他國(guó)際組織讓其法制化,基本準(zhǔn)則就相當(dāng)于自動(dòng)駕駛領(lǐng)域的憲法,其他自動(dòng)駕駛相關(guān)的法案不得違背基本準(zhǔn)則。

然后各個(gè)國(guó)家可以根據(jù)每個(gè)地區(qū)使用者的特殊需求來(lái)制定不與基本準(zhǔn)則相沖突的補(bǔ)充法案,通過(guò)法律手段來(lái)規(guī)范自動(dòng)駕駛中出現(xiàn)的部分“電車(chē)難題”。

與此同時(shí),各國(guó)的自動(dòng)駕駛技術(shù)供應(yīng)商也需要按照各個(gè)國(guó)家地區(qū)的不同法律來(lái)對(duì)自動(dòng)駕駛系統(tǒng)進(jìn)行定制設(shè)置,對(duì)每一套產(chǎn)品進(jìn)行合規(guī)檢查。

2、意外來(lái)臨時(shí),法律如何應(yīng)對(duì)?

由于自動(dòng)駕駛的發(fā)展還處于初期階段,各國(guó)政府都在積極制定法律法規(guī),美國(guó)德國(guó)等政府已經(jīng)承認(rèn)自動(dòng)駕駛系統(tǒng)的合法地位,開(kāi)始對(duì)自動(dòng)駕駛汽車(chē)的道路測(cè)試等環(huán)節(jié)進(jìn)行規(guī)范(騰訊研究院,2018),中國(guó)政府也已經(jīng)開(kāi)始積極籌備自動(dòng)駕駛立法工作;但世界上極少有關(guān)于自動(dòng)駕駛汽車(chē)的道德選擇的法律規(guī)范。

截至今天,世界上唯一一份提供官方自動(dòng)駕駛汽車(chē)道德官方指導(dǎo)的文件是德國(guó)聯(lián)邦運(yùn)輸及數(shù)字基礎(chǔ)設(shè)施部門(mén)在2017年6月發(fā)布的《German Ethics Commission on Automated and Connected Driving》中文譯名(暫):《德國(guó)道德委員會(huì)關(guān)于自動(dòng)互聯(lián)化駕駛的指導(dǎo)準(zhǔn)則》(后簡(jiǎn)稱(chēng)《準(zhǔn)則》)。

《準(zhǔn)則》中首次嘗試對(duì)部分自動(dòng)駕駛涉及的道德難題給出官方解答:

第七條中明確地指出,在極端情況下,自動(dòng)駕駛系統(tǒng)需要將人類(lèi)的安全置于首位,高于財(cái)產(chǎn)和動(dòng)物安全;

第九條指出,在車(chē)禍不可避免的情況下,自動(dòng)駕駛系統(tǒng)中任何基于個(gè)人特征的選擇傾向(比如:年齡、性別、身體和心理狀況等)都是禁止的;自動(dòng)駕駛系統(tǒng)在移動(dòng)中產(chǎn)生危險(xiǎn)時(shí)不能夠犧牲不相關(guān)的第三方。

這兩個(gè)條款意味著:其一,當(dāng)意外發(fā)生時(shí)系統(tǒng)會(huì)盡全力保護(hù)乘車(chē)人和行人的安全甚至可能會(huì)犧牲動(dòng)物安全;其二,自動(dòng)駕駛系統(tǒng)不被允許在意外來(lái)臨時(shí)做出道德判斷,比如選擇保護(hù)年輕人或者年長(zhǎng)者,而且在車(chē)禍不可避免時(shí),也不能夠選擇性地“犧牲”行人,不論行人是否違反交通規(guī)則。

第七條背后體現(xiàn)的是對(duì)人類(lèi)生命權(quán)的保護(hù)和人道主義精神,具有普世意義,值得未來(lái)其他法案的借鑒。而第九條則要求自動(dòng)駕駛系統(tǒng)不能在意外來(lái)臨時(shí)做出道德判斷,比如選擇保護(hù)年輕人或者年長(zhǎng)者,而且不能夠選擇性地“犧牲”行人。本條法案排除掉了很多“電車(chē)難題”,但是在自動(dòng)駕駛系統(tǒng)的實(shí)際運(yùn)行中缺乏一定的指導(dǎo)意義。

在道德難題之外,《準(zhǔn)則》還對(duì)自動(dòng)駕駛的其他方面進(jìn)行了規(guī)定:

第十二條規(guī)定,公眾有權(quán)充分了解自動(dòng)駕駛領(lǐng)域的新技術(shù)和自動(dòng)駕駛技術(shù)在不同駕駛情況下的應(yīng)用;

第十五條規(guī)定,車(chē)輛所有者和駕駛者有權(quán)決定是否要將本車(chē)產(chǎn)生的自動(dòng)駕駛數(shù)據(jù)分享或者給第三方使用等。

這兩條規(guī)定規(guī)范了公眾的知情權(quán)和數(shù)據(jù)決定權(quán)等基本權(quán)利,《準(zhǔn)則》中還有針對(duì)模糊情況的規(guī)范,本文暫不贅述。

《準(zhǔn)則》為各國(guó)的自動(dòng)駕駛立法提供了一個(gè)有效參考,但是依然沒(méi)有能夠具有法律效力,并且沒(méi)有得到全球的普遍認(rèn)可。

3、意外來(lái)臨時(shí),自動(dòng)駕駛系統(tǒng)會(huì)怎么做?

在各國(guó)立法尚不完善的情況下,開(kāi)發(fā)自動(dòng)駕駛系統(tǒng)的公司已經(jīng)在悄無(wú)聲息地在算法中寫(xiě)入了一些偏好,而這些偏好就將涉及到上文提及的道德判斷。

早在2014年時(shí),Google就表示,Google的自動(dòng)駕駛原型車(chē)會(huì)在撞擊中選擇“較小的物體”;在2016年,Google又表示,Google的自動(dòng)駕駛系統(tǒng)會(huì)先保護(hù)行人,然后再選擇撞“較小的物品”。同在2016年,奔馳的高管曾表示,公司會(huì)“不惜一切代價(jià)的保護(hù)乘客安全”,這個(gè)表態(tài)引起了軒然大波,公眾認(rèn)為公司無(wú)權(quán)做出生命抉擇;后來(lái)奔馳公司又表態(tài),他們的目標(biāo)是“百分之百的避免事故”而不是做出道德選擇,風(fēng)波才逐漸平息。

可想而知,公司普遍不愿意回答媒體或者大眾提出的關(guān)于自動(dòng)駕駛系統(tǒng)道德選擇的提問(wèn),因?yàn)槭紫?,大家?dān)心為時(shí)尚早;現(xiàn)在的系統(tǒng)還只能夠在行人、動(dòng)物和騎車(chē)者之間進(jìn)行判斷,甚至還不具備事故發(fā)生時(shí)迅速判斷個(gè)人特征的能力(比如:年齡、社會(huì)地位等);其次,沒(méi)有公司愿意搬起石頭砸自己的腳;在類(lèi)“電車(chē)難題”中的任何判斷都將引起公眾地指責(zé)和質(zhì)疑,并且會(huì)直接影響到消費(fèi)者的看法。

自動(dòng)駕駛系統(tǒng)道德選擇背后涉及的是極大的倫理問(wèn)題。在兩難問(wèn)題中對(duì)任何一方的偏袒都會(huì)涉及到對(duì)另一方的歧視。比如:當(dāng)自動(dòng)駕駛系統(tǒng)優(yōu)先選擇男性時(shí),女性還敢選擇自動(dòng)駕駛汽車(chē)嗎?行走在馬路上的女性能夠安心嗎?如果武斷地對(duì)自動(dòng)駕駛倫理問(wèn)題做出判斷,將帶來(lái)極大的社會(huì)影響,并且剝奪某些群體的合法權(quán)益。

在自動(dòng)駕駛飛速發(fā)展的時(shí)代,各家自動(dòng)駕駛系統(tǒng)的最終目標(biāo)還是從技術(shù)上消除交通事故或者將交通事故對(duì)人類(lèi)的傷害降到最低。關(guān)于交通事故不可避免時(shí)的道德判斷標(biāo)準(zhǔn),沒(méi)有公司或者個(gè)人有權(quán)力或者愿意決定處于危急關(guān)頭時(shí)任何一個(gè)人的性命,畢竟每個(gè)人都只有一次生的機(jī)會(huì),而沒(méi)有一條生命是能被放棄的。

參考文獻(xiàn):

1. Moral Machine測(cè)試 網(wǎng)址:http://moralmachine.mit.edu/

2. Edmond Awad, Sohan Dsouza, Richard Kim, Jonathan Schulz, Joseph Henrich, Azim Shariff, Jean-Fran?ois Bonnefon & Iyad Rahwan. The Moral Machine experiment. Nature 563, pages59–64 (2018)

3. Federal Ministry of Transport and Digital Infrastructure, Federal Republic of Germany. German Ethics Commission on Automated and Connected Driving. 2017

4. James Vincent, Global Preferences for Who to Save in Self-driving Car Crashes Revealed, The Verge. 2018

5. Hussein Dia, The Moral Machine: Navigating the ethical rules of autonomous vehicles, Swinburne University of Technology. 2018

6. 騰訊研究院. 自動(dòng)駕駛發(fā)展指南.2018

7. 虎嗅 網(wǎng)優(yōu)雇傭軍. 為什么自動(dòng)駕駛需要5G. 2018