導讀:在智能駕駛、自動駕駛艱難的發(fā)展歷程中,要解決的遠不止芯片、傳感器、車聯(lián)網(wǎng)等技術(shù)性問題,還有更多涉及法律和道德倫理的選擇問題。自動駕駛?cè)嫫占?,理性層面的設(shè)計與感性層面的選擇,缺一不可。
在智能駕駛、自動駕駛艱難的發(fā)展歷程中,要解決的遠不止芯片、傳感器、車聯(lián)網(wǎng)等技術(shù)性問題,還有更多涉及法律和道德倫理的選擇問題。自動駕駛?cè)嫫占埃硇詫用娴脑O(shè)計與感性層面的選擇,缺一不可。
去年3月,一輛Uber自動駕駛汽車在亞利桑那州坦佩市的公共道路上與一名行人相撞,該行人在送往醫(yī)院后不治身亡。這是世界上首起被曝光的自動駕駛車輛在公共道路上撞擊行人并致死的事件。據(jù)悉,這次Uber事故中車輛裝配了64線激光雷達、多個攝像頭和雷達,該車輛的自動駕駛系統(tǒng)當時識別到了行人,但機器大腦“決定”不減速。有人猜測稱,該“決定”可能是因為系統(tǒng)算法認為如果減速可能會給駕駛員造成嚴重傷害。由此可以看出,即便自動駕駛汽車能夠解決目前面臨的所有技術(shù)難題,即便自動駕駛技術(shù)不會在運行過程出現(xiàn)紕漏,一旦自動駕駛汽車上路也必然會面臨一些無法完美解決的倫理難題——囚徒困境與電車難題——發(fā)生事故是必然的。對此,人工智能的“大腦”設(shè)計可能會陷入無盡的矛盾中。
在智能駕駛、自動駕駛艱難的發(fā)展歷程中,要解決的遠不止芯片、傳感器、車聯(lián)網(wǎng)等技術(shù)性問題,還有更多涉及法律和道德倫理的選擇問題。自動駕駛?cè)嫫占埃硇詫用娴脑O(shè)計與感性層面的選擇,缺一不可。
那么,“機器駕駛員”面臨未知的事故狀況如何權(quán)衡不同對象的生存幾率和生存價值?緊急狀況下優(yōu)先保護乘客還是路人?老人和年輕人的生命如何選擇?在設(shè)定機器事故算法時,依據(jù)和原則是什么?由誰來決定算法原則和依據(jù)?不同的決策有什么不同的后果?這些都屬于自動駕駛汽車事故算法的問題范疇。對此,汽車工程師、倫理學家以及各方學者眾說紛紜,借助經(jīng)典的思想實驗如電車難題、囚徒困境等呈現(xiàn)自動駕駛汽車可能遭遇的事故類型,分析其中涉及的倫理爭議,探析諸算法之間的優(yōu)劣對比。
決策者:自由模式還是強制模式
對于事故算法的決策者,討論的焦點是:從個人角度還是集體角度決定自動駕駛算法的選擇。前者認為每一位司機或乘客都有權(quán)對自己所乘坐的汽車進行倫理設(shè)定;后者主張由全社會集體來強制決定事故算法的倫理設(shè)定。
康提薩、拉吉亞諾和薩爾托爾旗幟鮮明地為個人自由選擇模式辯護。他們認為,當遭遇不可避免的事故時,自動駕駛汽車進行何種倫理選擇應該由使用者或乘客做出,使用者或乘客作為事故的直接主體,有權(quán)做出結(jié)果導向性選擇。但緊急事故發(fā)生時,人類無法在短時間內(nèi)做出理智抉擇,只能依靠本能反應,因此實際來說,自由模式的事故算法決策權(quán)可操作性不強。
哥格爾和繆勒認為個人自由選擇事故算法會帶來囚徒困境,最終造成交通事故不降反升的后果,只有政府介入進行強制性的倫理設(shè)定,以集體利益為導向,大部分群體利益最大化后才有利于大眾完全接受自動駕駛。他們指出,政府應該給自動駕駛汽車生產(chǎn)商引入新的行業(yè)標準,即最大化安全、最小化傷害——功利主義式的自動駕駛汽車。不管是乘客還是車主都沒有決策權(quán),因為在汽車出廠前就已內(nèi)設(shè)事故算法。從維護社會利益最大化角度,由最能代表大多數(shù)人利益的群體來決定自動駕駛的事故算法。
然而,無論是個人化還是強制性的集體倫理設(shè)定都面臨相當多且頗具挑戰(zhàn)性的異議。
算法依據(jù):優(yōu)先保護
在具體的算法依據(jù)問題上,討論主要圍繞以下幾個方面進行:乘客優(yōu)先,還是行人或其他利益相關(guān)者優(yōu)先?弱勢群體(老人、小孩、婦女/乞丐)優(yōu)先,還是優(yōu)勢群體(壯年男性/社會精英)優(yōu)先?多數(shù)人優(yōu)先還是少數(shù)人優(yōu)先?筆者認為以上不同的社會群體,可以依據(jù)場景角色來劃分:一種是按照事故中角色進行優(yōu)先選擇,另一種是根據(jù)社會角色的差異進行優(yōu)先選擇。按照事故中角色進行優(yōu)先選擇的事故算法又可分為功利主義的事故算法和自保主義的事故算法,大多數(shù)人認為功利主義的事故算法更為道德,但市場調(diào)查卻顯示消費者更愿意購買置入了自保算法而非功利主義算法的自動駕駛汽車。而按照社會角色的不同進行優(yōu)先選擇的事故算法則面臨了要將人劃分為三六九等以及如何劃分的質(zhì)疑與困惑。
筆者觀點
2016年,麻省理工學院媒體實驗室的研究人員啟動了一項實驗。他們建立了一個網(wǎng)站,了解人們希望無人駕駛汽車有怎樣的行動模式,在網(wǎng)站中任何人都可以體驗到多種不同的無人駕駛汽車場景。兩年后,研究人員發(fā)表在《自然》雜志上的一項研究表明,政治、經(jīng)濟、文化、歷史等差異都會影響人們對機器倫理選擇的看法。但該研究還發(fā)現(xiàn),世界各地的人趨向于在三個方面達成一致:優(yōu)先保護人類而非動物、優(yōu)先保護年輕人而非老人、保護盡可能多的人。這些見解可以為機器倫理的國際準則提供基礎(chǔ)——研究人員寫道,當這些“危及生命的兩難困境出現(xiàn)時”,必須要有相關(guān)的國際準則,那些討論不應該局限于工程師和政策制定者,畢竟那些問題會影響到每一個人。
2018年,德國為自動駕駛汽車制定了首個倫理規(guī)則。該規(guī)則提到,相比對動物或財產(chǎn)造成的傷害,系統(tǒng)必須最優(yōu)先考慮人類安全;如果事故不可避免,禁止任何基于年齡、性別、種族、身體特征或其它區(qū)別的歧視;對于道德上模糊的事件,人類必須重新獲得控制權(quán)。
面對那些虛構(gòu)的關(guān)于自動駕駛汽車事故的思想實驗,每個道德健全的理性人都會自發(fā)地就“我們該怎么做”形成信念。然而某些調(diào)查數(shù)據(jù)顯示,我們的這種直覺是如此地不統(tǒng)一也不唯一:人們普遍認為擁有功利主義式事故算法的自動駕駛汽車最具道德性,但卻鮮有人想購買置入了此種算法汽車。這種矛盾的心理和做法使得研究者們更傾向于理想的道德選擇來設(shè)置事故算法。而所謂理想的道德選擇又有其不能普遍化的理論假設(shè)、依賴某些成定勢的倫理直覺。在虛擬的思想實驗中,可以用理想化的道德選擇做指導,但現(xiàn)實的駕駛過程會面臨許多不能被解決的沖突和困境,在這種困境中,不論作不作為、哪種作為,都無法出現(xiàn)“最優(yōu)決策”?,F(xiàn)有的不同道德原則間的沖突、道德決策的復雜性以及人類道德判斷的情境化導致并非所有的道德和法律規(guī)則都適用于具體的事故情況,具體到乘客個人也會有不同的選擇,筆者認為我們應該綜合考慮多種因素,利用多種能力,分析各種不同狀況,尊重利益的主體相關(guān)者——乘客的自我選擇,即道德約束式事前尊重、法律限制式事后懲罰。