Uber自動駕駛汽車發生撞車事故
圖片來源于網絡,若有侵權請告知,我們會刪除
本文作者:省情新媒體中心 黃語心
本文字數:3399字
1分鍾速覽
2018/11/29
1. 當無人駕駛汽車遇上“電車難題”,應該做出什麽選擇?
2. MIT的實驗揭露全球性偏好:人類>動物,多數人>少數人,兒童>成人。
3. 德國議員提出:所有人的生命都應該被賦予同等的價值,任何基于個人特征(如年齡或性別)的區別都應該被禁止。
4. 沒有簡單的答案,重要的是讓這些決定變得透明。
5. 如果在未來,每一條生命都被賦予了一個價值來決定誰被犧牲,這又意味著什麽?
如果無人駕駛汽車真的普及開來,即使在技術100%成熟的情況下,人類社會仍然不得不應對一種新的困境:在無可避免的交通事故前,如何根據人類的偏好對無人駕駛汽車進行編程。
當發生突發事故時,人類司機會本能地做出選擇,但人工智能算法將能夠提前做好這些決定。那麽,當汽車公司給汽車輸入程式代碼時,應該告訴它優先拯救老人還是年輕人?富人還是窮人?
2015年 · 無人駕駛正式亮相
2015年5月,谷歌宣布他們的無人駕駛汽車已經行駛超過百萬英裏了。把進度條快進到2018年的今天,無人駕駛的競爭正在進入白熱化的階段。
據環球網11月26日報道,北京四維圖新科技股份有限公司(NavInfo)正在爲自動駕駛汽車制作高清晰的新加坡地圖。預計該工作將于2019年完成。
早在去年11月,新加坡推出了一個測試無人駕駛公共交通的小鎮。從明年3月起,自動駕駛巴士還將在新加坡國立大學校園周圍運營。
美國的國際金融服務公司Morgan Stanley稱無人駕駛汽車將會在2025年投入量産。
這時候我們不得不承認,許多曾經只出現在科幻小說裏的情節,都正以比想象更快的速度,一步步成爲現實。
1942年 · 機器人三原則
早在上世紀40年代,人類就已經意識到科學技術的進步很可能引發一些人類不希望出現的問題。
爲了保護人類,科幻作家阿西莫夫(Isaac Asimov)的短篇小說“Runaround”中提出了關于機器人學的三條制約性的法則:
“LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外。
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。”
根據阿西莫夫小說改編的電影《機械公敵》劇照
這篇小說很好地提供了一個關于人工智能與人類共存的倫理背景。毫無疑問,擁有人工智能的車也應當遵守這些法則。
之後,包括阿西莫夫本人在內也有許多人不斷提出對機器人三原則的補充、修正。然而,文章一開頭題出的問題,機器人法則始終沒有提到,也沒有提供任何有參考價值的解決方案。
1967年 · 電車難題
這是一個著名的哲學實驗性猜想,于1967年由英國哲學家菲利帕·富特(Philippa Foot)提出,被稱爲“電車難題(Trolley Problem)”:
一輛有軌電車,突然失去了控制(原因待查)。在軌道正前方,正巧——或者說不幸,有五個鐵路工人在施工。如果不作任何處理,電車將直接撞上這五個工人,不存在任何僥幸。司機無法刹車——刹車已經失靈(原因依然不詳)!但,司機並不是眼睜睜看著慘劇發生,他還有一個唯一的選項——電車方向盤還是有用的,他可以扳動一下方向盤,使電車駛進另外一條軌道。在另外一條軌道上,只有一名工人。因此,如果司機扳動方向盤,他可以救下那五個人,但要軋死另外一個人。司機應當怎樣做?
“電車難題”圖解
如果司機是你,你會怎麽做?
顯然我們的無人駕駛汽車也將面臨一樣的窘境,無可避免地,所有交通工具都要面對同樣的難題。
2018年 · “道德機器”實驗
2018年10月28日,麻省理工學院(MIT)發表了一篇新論文,內容正好是公衆對這些問題的看法的相關調查,以及對2016年推出的一項名爲“道德機器”(Moral Machine)的在線測試數據的整理。
測試要求用戶對虛構的車禍做出一系列倫理抉擇,類似于著名的“電車難題”。
研究人員對9個不同的因素進行了測試,包括傾向于撞向男性還是女性、挽救更多或更少的生命、拯救年輕人或老年人、行人或亂穿馬路者,甚至在社會地位低的人和社會地位高的人之間做出選擇。
來自233個國家和地區的數百萬用戶參加了這個測試,總共做出了4000萬個道德決定。
數據揭露了某些全球一致的偏好:人類>動物,多數人>少數人,兒童>成人。文章作者建議,在爲自動駕駛汽車制定法律時,這些因素應被視爲制定政策的“基本構成要素”。但他強調,這些研究結果絕不是人工智能進行算法決策時所遵循的模板。
“我們在這裏試圖展示的是描述性倫理:人們在倫理決策中的偏好,”論文作者之一埃德蒙•阿瓦德(Edmond Awad)對《邊緣》雜志表示。“但當涉及到規範性倫理(應該如何做)時,應該由專家來決定。”
數據還顯示,不同國家的倫理偏好也存在顯著差異。相關因素有許多,例如:地理(例如,歐洲和亞洲國家之間的差異)和文化(個人主義社會與集體主義社會的區別)。
“道德機器”中的一個示例場景:無人駕駛汽車應該撞行人還是障礙物?
文化如何影響道德偏好
“道德機器”的結果表明,人們的道德偏好會隨著某些分歧而變化。所有這些分歧都沒有改變某些核心原則(比如將多數人置于少數人之上),但也産生了不少地域性差異。
研究發現,在亞洲和中東國家,比如中國、日本和沙特阿拉伯,偏愛年輕人而不是長者的現象“遠沒有其余地區明顯”。與歐洲和北美受訪者相比,這些國家的人也相對不那麽在意是否要拯救高淨值的個體。
作者認爲這可能是地區間個人主義和集體主義的文化差異造成的。前者強調個人作爲獨立個體的特有價值,因此偏袒“個人價值更高的個體”。與之相反,對年輕人偏愛的減弱,可能是集體主義文化的結果,“這種文化強調對社區中長者的尊重。”
圖源:The Moral Machine experiment
這些差異表明,“地理和文化上的接近,可能會讓不同地區的人們在對機器倫理的共同偏好上趨同”。
然而,還有一些在地理層面之外的變異因素。例如,那些相對貧窮,人均GDP較低,公民機構較不成熟的國家的人,對遵守交通規則合法過馬路的人比對那些亂穿馬路的行人要仁慈得多。“大概是因爲在那些地區規則遵守程度較低,對違規行爲的懲罰較輕”而導致的對群衆對違法者更強烈的不滿。
作者強調,“道德機器”的結果絕不是對不同國家道德偏好的最終評估。首先,這個測試是自我選擇的,並不具有人類全體的客觀代表性。
其次,它的問題結構也忽略了許多細微差別。測試只給參與者提供了非黑即白的選項:殺死這些人或那些人。但在現實生活中,這些決定是受當下的實際情況影響的,是可以根據結果的嚴重程度來做出選擇的。(“如果我繞過這輛卡車,我將有更大的幾率減速並減少對那個行人的傷害,”等等。)
如何將道德寫進法律
那麽在這些問題上,我們離立法還有多遠?企業什麽時候開始爲無人駕駛汽車制定道德決策?
第二個問題的答案已經有了:企業正在做這件事情。不管被輸入的計算機算法是什麽,會導致怎樣的結果,這台汽車都會做出某種決定,並因此導致某種倫理後果。
粗略的偏好很可能已經被納入其中,即使相關公司不願公開談論它們。
早在2014年,谷歌X創始人塞巴斯蒂安•特倫(Sebastian Thrun)就曾表示,該公司的原型自動駕駛汽車在發生碰撞時,會選擇撞擊兩個物體中較小的一個。
2016年,谷歌的克裏斯•厄姆森(Chris Urmson)表示,該公司的汽車將“盡最大努力避免撞到容易受傷的道路使用者:騎自行車的人和行人”。同年,據報道,奔馳的一名經理表示,他們的自動駕駛汽車在發生事故時會優先考慮乘客的生命安全,不過該公司後來又否認了這一說辭。
公司不願意公開這些決定是可以理解的。一方面,自動駕駛系統還不夠成熟,它無法區分年輕人和老年人。分辨出松鼠和騎自行車的人已經是目前最先進的算法和傳感器的能力極限了。
此外,無論公司說他們優先考慮哪種生命,人還是動物,乘客還是行人,都會讓某些人感到不安。這就是爲什麽這些是道德困境:沒有簡單的答案。
歐洲政策研究中心(Centre for European Policy Studies)高級研究員安德裏亞•倫達(Andrea Renda)表示,私營企業在這些問題上做的工作最多。雖然私營企業與公衆需要參與這些辯論,但是“僅僅依靠自下而上的協商將是極其危險的”。他說,政府和專家將必須擔起重任,確保選擇尊重人權。
德國,是在這一議題上的先行者,是迄今爲止唯一一個就自動駕駛汽車的道德選擇題給出官方指導方針的國家。議員們在試圖解決電車難題的棘手問題時提出,所有人的生命都應該被賦予同等的價值,任何基于個人特征(如年齡或性別)的區別都應該被禁止。
但正如“道德機器”研究人員所指出的那樣,如果選擇人人平等的價值觀來做算法決策,它將違背公衆想要保護兒童多于成人的強烈偏好。如果政府真的出台禁止對任何生命有所偏好的政策,它將如何應對“一輛無人駕駛汽車在兩難境地選擇犧牲了兒童”時的千夫所指。
全人類都要交的答卷
阿瓦德認爲,這種沖突是“不可避免的”。但與賀建奎的“基因編輯嬰兒”被倫理討伐的一大原因一樣,“重要的是讓這些決定變得透明”。
他說,“要讓衆人知道正在做的是什麽。如果這一切都發生在幕後,汽車公司說’相信我們’,我認爲這是不可接受的。每個人都需要參與這些決定的形成過程。”
雖然自動駕駛技術仍有一段路要走,但在未來的某個時候,我們將必須做出這些決定。
然而,你能想象未來的某一天裏,谷歌或任何科技巨頭爲我們每一條生命都賦予了一個價值,然後在某個時刻犧牲某人來拯救他人嗎?你覺得這意味著什麽?
隨著無人駕駛汽車的出現,“電車難題”變得越加有趣和深奧。在未來的某一天,人類是否能交出一個滿意的答卷?
今日作者
·END·
圖片來源于網絡,若有侵權請告知,我們會刪除。