(1.浙江工業(yè)大學(xué)管理學(xué)院,杭州 310023;2.浙江工業(yè)大學(xué)之江學(xué)院,紹興 312030;3.浙江警察學(xué)院,杭州 310053;4.浙江工業(yè)大學(xué)政治與公共管理學(xué)院,杭州 310023)
想象二十年后的一天,你正在路上走著,突然發(fā)現(xiàn)一輛高速行駛的汽車前出現(xiàn)5個人,剎車已經(jīng)來不及,汽車繼續(xù)直行將撞死這5人。這時,汽車緊急轉(zhuǎn)彎變道到支路,但撞死了在支路上的1個人。你跑過去一看,發(fā)現(xiàn)這是一輛自動駕駛汽車。你會如何評價自動駕駛汽車的這一行為?你是否認為這一行為在道德上是可行的?隨著科技的發(fā)展,人工智能正逐步進入人們的視野,越來越貼近人們的實際生活。自動駕駛汽車、看護機器人等,無疑會給我們的生活帶來極大的便利,但也必將帶來巨大的變革。當智能機器進入到人類社會與人類交互時,必將面臨諸多的道德情境,做出自主選擇的相關(guān)道德行為。人們?nèi)绾慰创悄軝C器,如何對其行為進行道德評價?
智能機器已被人類看作是道德行為者,成為道德主體(Wallach & Allen,2008)。目前,研究者在探究公眾對智能機器行為道德判斷時,通常借鑒經(jīng)典的電車困境(trolley dilemma)難題(尹軍,關(guān)旭,花蕊,張鋒,2018;Foot,1967)。電車困境要求人們在放任一輛失控的電車殺死5人和將電車轉(zhuǎn)向另一軌道導(dǎo)致1人死亡,但可以拯救5人的兩難困境中做出選擇。這一困境下的行為選擇與兩種不同的道德判斷取向相聯(lián)系:效果論(consequentialism)和道義論(deontology)。效果論理論類似于功利主義,基于結(jié)果的收益最大化來評價道德相關(guān)行為(Benthan,1879/1983;Mill,1863);相反,道義論理論認為一個行為的對錯與否不是由行為的結(jié)果來決定的,而是取決于行為本身及責(zé)任、權(quán)利和義務(wù)等(Kant,1797/2002;Scanlon,1998)。
基于電車困境,一些研究者探討了人們對智能機器在道德兩難困境中的期望行為及道德判斷。這些結(jié)果表明,公眾對智能機器和人類,很可能采用不同的道德判斷準則:人們更希望智能機器做出功利主義取向行為,對其功利取向行為的道德評價也高于人類做出同樣的行為,即存在人-智能機器異質(zhì)性(human-robot asymmetry)。比如,Malle等人(Malle,Scheutz,Arnold,Voiklis,& Cusimano,2015)首次系統(tǒng)地考察了這一問題,發(fā)現(xiàn)相比于人類,人們更期望機器人犧牲1人救下4人;當機器人做出道義論的選擇時(不變軌道),人們對其在道德上的錯誤度、責(zé)備度的評分也高于人類做出同樣的選擇。后續(xù)的一系列研究也支持了這一觀點。Bonnefon等人(Bonnefon,Shariff,& Rahwan,2016)考察了人們在自動駕駛汽車面臨道德兩難困境(車前突然出現(xiàn)數(shù)位行人,而緊急避險則會導(dǎo)致道旁1位行人或車內(nèi)乘客死亡)時的行為期望和道德評價,研究發(fā)現(xiàn)相比于道義論式選擇,人們更希望自動駕駛汽車做出功利主義行為,也認為該取向的自動駕駛汽車更道德。Faulhaber et al.(2017)和Bergmann et al.(2018)結(jié)合虛擬現(xiàn)實(VR)技術(shù),也獲得了同樣的結(jié)論:人們更喜歡功利論取向的智能機器,拯救的人數(shù)越多,人們越傾向于自動駕駛汽車做出功利論取向道德行為。最近,MIT(Awad et al.,2018)一項基于全球的大規(guī)模調(diào)查,運用在線程序,收集了近4000萬次人們對自動駕駛汽車在面臨各種道德兩難困境時的期望行為。研究結(jié)果呈現(xiàn)了三種十分強烈的選擇偏好,即希望自動駕駛汽車在遭遇道德兩難困境時保護人類而非保護動物,保護更多的生命,保護年輕的生命。這一研究結(jié)論也支持了人們希望智能機器采用功利論取向行為的觀點。
然而,也有少量研究發(fā)現(xiàn),相比于人類,公眾未必都更希望智能機器在道德困境中做出功利取向行為,對其功利取向行為的道德評價也未必高于對人類相同行為的評價。人們對于智能機器的道德判斷還受到文化背景、道德情境等諸多因素的影響。比如,Komatsu(2016)采用日本被試重復(fù)了Malle et al.(2015)的研究,結(jié)果發(fā)現(xiàn)日本人對人類和智能機器采用完全相同的道德判斷標準,即在道德困境中兩種取向行為(道義論或功利論)下對人類和智能機器的道德評價完全一致:無論何種取向行為,認為道德錯誤的被試比例都不高。Malle等人(Malle,Scheutz,Forlizzi,& Voiklis,2016)考察了機器人外形對其道德判斷的影響,其結(jié)果也發(fā)現(xiàn),被試對人類、人形機器人和機器型機器人在電車困境下行為選擇的道德錯誤度評價沒有差異,雖然對機器型機器人和人的道德責(zé)備度評價存在差異,但對于人形機器人,被試對其的道德責(zé)備度和對人類的評價不存在差異。Awad et al.(2018)的研究也發(fā)現(xiàn),來自東方群體(日本、中國臺灣等)的個體更不愿意自動駕駛汽車在兩難困境下犧牲老人的性命來挽救年輕人。來自集體文化的個體,強調(diào)對年長者的尊重,也呈現(xiàn)更少的對保護年輕人的偏好,而來自個體主義文化的個體,更加強調(diào)每個個體的獨特價值,則更偏好自動駕駛汽車保護更多的人。
上述研究主要關(guān)注人們對智能機器在道德困境下的期望行為及道德判斷,但研究基本基于Foot(1967)的經(jīng)典電車困境這一非個人(impersonal)的道德困境,而對另一類個人(personal)道德困境中的對智能機器道德判斷鮮有涉及。在個人道德困境(如天橋困境:是否采取行動將一個胖子推下天橋來停下失控電車這一唯一的方法來拯救橋下即將被撞死的多人)中,犧牲者被當成工具(instrument)使用,而在非個人困境中,犧牲者只是附帶損失(incidental)?,F(xiàn)有研究發(fā)現(xiàn),人們在兩類困境中的道德標準完全不同:人們通常認為在電車困境中變換軌道是道德上可接受的,但將天橋上的人推下則不可接受(Hauser,Cushman,Young,Kang-Xing Jin,& Mikhail,2017;Greene,Sommerville,Nystrom,Darley,& Cohen,2001)。根據(jù)雙加工理論(關(guān)旭,張鋒,周楠,尹軍,2017;邱俊杰,張鋒,2015;Greene,Morelli,Lowenberg,Nystrom,& Cohen,2008;Greene,Nystrom,Engell,Darley,& Cohen,2004),情緒在其中起了關(guān)鍵的影響。在天橋困境中,由于需要直接對他人造成傷害,個體的決策涉及更多的情緒加工,直覺性地做出道義論選擇;而在電車困境中,情緒體驗較弱,個體的認知控制系統(tǒng)做出理性的推理,因此更傾向于功利主義選擇。
那么,智能機器在遭遇個人道德困境時,人們又會期望其有怎樣的行為及如何對其進行道德評價,是否仍更希望其做出功利性行為?一方面,相比于智能機器,由于人與人之間的關(guān)系、心理距離更近,人們更容易采用他人的視角思考(代入感較高),天然地拒絕殺害他人的行為,但人們很難將自己放在智能機器的位置上,采用智能機器的視角思考(距離較遠,代入感較低),因此人們可能不會具有那么強烈的情緒體驗。根據(jù)道德判斷的雙加工理論,相比人類,人們可能更能在智能機器條件下進行理性推理,更希望智能機器在這一困境下做出功利性行為。另一方面,由于在天橋困境中,犧牲者被當成工具使用,智能機器直接殺人。神秘谷(uncanny valley)現(xiàn)象表明(Kageki,2012;Mori,1970;Mori,MacDorman,& Kageki,2012),人們對于過于相似人類的智能機器人其態(tài)度表現(xiàn)為強烈的反抗甚至厭惡;人們認為自主決策的機器人更加詭誕(Stein,& Ohler,,2017),此外,根據(jù)威脅人類獨特性假說(threat to human distinctiveness hypothesis)(Ferrari,Paladino,& Jetten,2016),人們認為智能機器可能會威脅到人類具有的獨特性(靈魂性),對其也更加苛刻,因此,我們往往很難接受智能機器自主地殺人,在天橋困境中將人推下去。在本研究中,我們通過2個實驗,分別采用非個人道德困境(實驗1)和個人道德困境(實驗2),通過對比被試對智能機器和人類在這些困境中的道德判斷,以此來檢驗人們在不同道德困境中,是否對智能機器和人類采用不同的道德評價標準。
此外,現(xiàn)有有關(guān)對智能機器道德判斷的研究并不全面、一致:有的研究對比了被試對人類和智能機器的行為期望/道德評價(Malle et al.,2015;Malle el al.,2016),而有的研究則僅僅考察了被試對智能機器的行為期望/道德評價(Bonnefon et al.,2016);有的研究考察了被試對智能機器的行為期望及實際行為(在道德困境中選擇功利/道義論行為)的道德評價(Malle el al.,2016),而有的研究則僅僅考察了行為期望,或僅道德評價的某一維度,尤其是涉及東方、集體文化背景的研究(Awad et al.,2018;Komatsu,2016)。因此,在本研究中,我們既同時考察了被試對人類和智能機器的道德判斷,也在道德判斷上同時考察了人們對于人/智能機器的期望行為及對人/智能機器實際采取行為的道德評價兩個方面,以此來更深入地探討這一問題。在道德評價上,與前人研究相似(e.g.,Hristova,& Grinberg,2016;Malle et al.,2015;Malle el al.,2016),我們采取了責(zé)備度(blame)、正確性(rightness)和許可度(permissibility)三個指標,要求被試對人/智能機器實際行為在道德上多大程度是應(yīng)該責(zé)備的,在道德上多大程度上是正確的,在道德上多大程度是允許的進行評分。
共選取235名大學(xué)生(年齡M=19.27,SD=1.06,男性117名)被試進行實驗。所有被試認知能力正常。被試此前均未參加過類似的或有關(guān)道德判斷研究的實驗項目。有2名被試未能有效完成任務(wù),其實驗數(shù)據(jù)在分析時被剔除。
本研究為2(情境:人類駕駛員/自動駕駛汽車)×2(實際選擇:道義/功利)被試間設(shè)計。實驗材料基于Bonnefon et al.(2016)的電車兩難困境,描述了一輛高速行駛的汽車遭遇道德兩難困境。實驗采用2種不同版本的情境,一種情境為人類駕駛員情境,另一種為自動駕駛汽車情境。被試被隨機分配到4種操縱條件下。具體描述如下:
請考慮以下情景,一位正在駕駛高速行駛汽車的人類駕駛員/一輛正在高速行駛的自動駕駛汽車突然發(fā)現(xiàn)前面路面上出現(xiàn)了5個行人,而剎車已經(jīng)來不及,且路上的人也根本來不及逃跑,除非人類駕駛員/自動駕駛汽車改變方向,否則他們都會被撞死。但是路邊正好也有1個行人,如果改變方向,這個行人就會被撞死。
在閱讀完情境后,被試被要求回答其認為在上述情境下人類駕駛員/自動駕駛汽車是否應(yīng)該改變方向(期望行為)。此后,被試獲知人類駕駛員/自動駕駛汽車的實際行為(實際上,人類駕駛員/自動駕駛汽車改變了方向/沒有改變方向),要求被試對其行為進行道德上的評價,包括責(zé)備度、正確性和許可度(你覺得駕駛員/自動駕駛汽車的這個行為,在道德上,多大程度上是允許的/正確的/應(yīng)該責(zé)備的?),評價采用李克特7點量表(1代表完全不……,7代表完全……,正確性和許可度得分越高,表明評價越高,而責(zé)備度相反,得分越高,評價越低)。此外,在閱讀自動駕駛汽車版本的道德兩難困境前,被試被告知科技的迅速發(fā)展使得智能時代來臨,各大公司紛紛研制并逐步推出自動駕駛汽車。要求被試想象自動駕駛汽車已經(jīng)成熟并進入了人們的日常生活的情境。
2.3.1 對人類駕駛員和自動駕駛汽車的期望行為
實驗首先分析了被試對于人類駕駛員和自動駕駛汽車在期望行為選擇上的差異,結(jié)果發(fā)現(xiàn),人們對于兩者的期望行為沒有差異,χ2(1)=0.85,p=0.357,無論人類駕駛員還是自動駕駛汽車,絕大多數(shù)被試傾向于其做出功利主義取向的選擇(人類駕駛員:67.89%,自動駕駛汽車:73.39%),即改變方向,犧牲1人而救下5人。
2.3.2 對人類駕駛員和自動駕駛汽車行為的道德判斷
(1)責(zé)備度
如表1所示,對道德責(zé)備進行2(情境:人類駕駛員/自動駕駛汽車)×2(實際選擇:道義/功利)的方差分析結(jié)果顯示,情境的主效應(yīng)不顯著,F(xiàn)(1,229)=1.41,p=0.237,ηp2=0.01,表明人們對人類駕駛員和自動駕駛汽車的責(zé)備程度相同。實際選擇的主效應(yīng)也不顯著,F(xiàn)(1,229)=1.02,p=0.313,ηp2=0.00,這表明了人們對人類駕駛員/自動駕駛汽車的道德責(zé)備不會因為其實際選擇(道義取向/功利取向)而有所差別。同樣,情景和實際選擇的交互效應(yīng)也不顯著,F(xiàn)(1,229)=2.13,p=0.146,ηp2=0.01。為了進一步驗證結(jié)果的有效性,我們也進行了貝葉斯分析(下同),結(jié)果均不顯著(情境、實際選擇及交互的貝葉斯因子(Bayesian Factor,BF)分別為BF10=0.26,BF10=0.22和BF10=0.03)。
(2)正確性
情境和實際選擇的主效應(yīng)均不顯著,F(xiàn)(1,229)=0.05,p=0.821,ηp2=0.00,BF10=0.15,和F(1,229)=0.17,p=0.681,ηp2=0.00,BF10=0.16。兩者的交互效應(yīng)也同樣不顯著,F(xiàn)(1,229)=2.51,p=0.114,ηp2=0.01,BF10=0.01。
(3)許可度
情境和實際選擇兩個變量的主效應(yīng)都不顯著,F(xiàn)(1,229)=0.11,p=0.741,ηp2=0.00,BF10=0.15,和F(1,229)=0.01,p=0.912,ηp2=0.00,BF10=0.15,兩者的交互也同樣不顯著,F(xiàn)(1,229)=2.87,p=0.091,ηp2=0.01,BF10=0.02。
表1 被試對自動駕駛汽車和人類駕駛員在不同行為選擇(功利/道義)上的道德評價(M,SE)
實驗2采用天橋困境,考察了個人道德困境下被試對人和智能機器的期望行為及道德評價。
共選取197名大學(xué)生(年齡M=19.22,SD=1.00,男性85名)被試進行實驗。所有被試認知能力正常。13名被試由于未完成任務(wù)或完全一致的反應(yīng)被剔除。
實驗2的程序和實驗1基本一致,除了采用的實驗場景為天橋困境,具體描述如下:
想象如下的場景:一輛失控的電車正沿著軌道向5名工人駛?cè)?,如果電車繼續(xù)行駛,將會撞死這5名工人,此時有一個人/智能機器人正在軌道上方的人行天橋上(天橋的位置處在電車和5名工人中間),在這個人/智能機器人旁邊碰巧有一個體積龐大的陌生人?,F(xiàn)在能夠挽救5個工人的唯一方法就是將這個胖子推下去,用他龐大的身軀阻擋電車的前進,這樣做的話這個胖子就必死無疑,但是5名工人會得救。
同樣,在閱讀智能機器人版本的道德兩難困境前,被試被告知隨著科技的飛速發(fā)展我們已經(jīng)進入了人工智能時代。要求被試設(shè)想人工智能技術(shù)已經(jīng)成熟,智能機器人已經(jīng)廣泛參與到人們的社會生活中。
3.3.1 對人類和智能機器人的期望行為
與實驗1不同,無論是人類還是智能機器人,被試在天橋困境下都更希望其做出道義論行為(人類:81.58%,智能機器人:67.02%),這一結(jié)果也和前人研究的個人道德困境下人們更難做出功利主義行為相一致(Green et al.,2001)。進一步分析發(fā)現(xiàn),人們對人類和智能機器人的期望選擇呈現(xiàn)出顯著差異,χ2(1)=7.56,p=0.006,具體來說,雖然總體上人們都希望其采用道義論取向(不推),但相比人類,人們更希望智能機器采用功利主義取向,即推胖子來阻止電車撞死5個工人)。
3.3.2 對人類和智能機器人行為的道德判斷
實驗2中對被試道德判斷的分析同實驗1,使用2(情境:人類/智能機器人)×2(實際選擇:道義/功利)的方差分析。
(1)責(zé)備度
如表2所示,情境的主效應(yīng)不顯著,F(xiàn)(1,180)=0.59,p=0.443,ηp2=0.00,BF10=0.18,同實驗1的結(jié)果相同,人們對智能機器人和人類給予了相同程度的道德責(zé)備。實際選擇的主效應(yīng)顯著,F(xiàn)(1,180)=58.61,p<0.001,ηp2=0.25,BF10=2.97e+9。情境與實際選擇的交互效應(yīng)顯著,F(xiàn)(1,180)=4.58,p<0.05,ηp2=0.03,BF10=9.19e+8。進一步簡單效應(yīng)分析發(fā)現(xiàn),功利主義取向行為下被試對智能機器的責(zé)備度顯著低于人類,F(xiàn)(1,180)=4.05,p<0.05,而在道義論行為下不存在差異,F(1,180)=0.98,p=0.332。
(2)正確性
與責(zé)備度一致,道德正確性的情境主效應(yīng)不顯著,F(xiàn)(1,180)=1.49,p=0.225,ηp2=0.01,BF10=0.23,;實際選擇的主效應(yīng)顯著,F(xiàn)(1,180)=48.77,p<0.001,ηp2=0.21,BF10=8.50e+7;兩者的交互效應(yīng)邊緣顯著,F(xiàn)(1,180)=2.93,p<0.1,ηp2=0.02,BF10=2.10,BF10=1.93e+7。進一步簡單效應(yīng)分析發(fā)現(xiàn),功利主義取向行為下被試對智能機器的道德正確性評價顯著高于人類,F(xiàn)(1,180)=4.11,p<0.05,而在道義論行為下不存在差異,F(xiàn)(1,180)=0.13,p=0.721。
(3)許可度
同樣,道德許可度的情境主效應(yīng)不顯著,F(xiàn)(1,180)=0.09,p=0.760,ηp2=0.00,BF10=0.16;實際選擇的主效應(yīng)顯著,F(xiàn)(1,180)=64.69,p<0.001,ηp2=0.26,BF10=3.81e+10;兩者的交互效應(yīng)也是呈邊緣顯著,F(xiàn)(1,180)=2.87,p<0.1,ηp2=0.02,BF10=4.56e+9。進一步簡單效應(yīng)分析發(fā)現(xiàn),功利主義取向行為下被試對智能機器和人類道德許可度的評價不存在差異,F(xiàn)(1,180)=1.91,p=0.168,在道義論行為下也不存在差異,F(xiàn)(1,180)=1.01,p=0.317,但趨勢和責(zé)備度、正確性評價一致。
表2 被試對智能機器人和人類在不同行為選擇(功利/道義)上的道德評價(M,SE)
本研究探討了個人和非個人道德困境下人們對智能機器的期望行為選擇和實際行為的道德評價,并與對人類在相同情境下的行為道德判斷進行對比,以此揭示對人-智能機器道德判斷的異同。實驗1檢驗了非個人道德困境下對人類/智能機器的道德判斷,發(fā)現(xiàn)不管是人類駕駛員還是自動駕駛汽車,人們都更希望其做出功利取向,即改變方向(導(dǎo)致1人死亡)挽救直行道路上的5個行人。此外,無論是預(yù)期行為,還是對實際行為的道德評價,被試對人類和智能機器都不存在差異,表明了人們在非個人道德困境下,很可能對人類和智能機器采用相同的道德評價標準。實驗2采用個人道德困境,發(fā)現(xiàn)在這一困境下,人們對智能機器和人類采用完全不同的道德評價標準。雖然被試希望人類和智能機器人都在個人道德困境中采取道義論取向行為,但有更多的被試希望智能機器人做出將人推下去的選擇。對人類/智能機器人實際行為的道德評價也表明了這種差異,相比于人類,人們更加認可智能機器人在這種情境下做出功利行為,對其道德責(zé)備度較低,而正確性和許可度較高。兩個實驗表明,人們對智能機器的道德判斷并不完全和對人類的判斷相同,存在不同的判斷標準,而這種判斷標準取決于道德情境的差異。
目前,人們對智能機器道德判斷的研究基本局限于自動駕駛汽車這一非個人道德困境(類似于電車困境),但其測量的指標并不統(tǒng)一,結(jié)果也不一致。我們實驗1的結(jié)果同時考察了行為期望和行為的道德評價,發(fā)現(xiàn)了人們對人類和智能機器完全相同的道德判斷標準,這一結(jié)果與Komatsu et al.(2016)研究的結(jié)論相同(采用日本被試),而與Malle et al.(2015)采用西方被試的結(jié)果存在不同。這一東西方差異也與Awad et al.(2018)發(fā)現(xiàn)的東方集體文化下(相比西方文化)人們更不愿意自動駕駛汽車在兩難困境下采取功利主義相一致。這一差異可能是由于東西方文化的不同,集體主義和個體主義的差異導(dǎo)致的:西方個體主義背景下,人們更加看重個體的價值,因此多個人的總價值更加高,人們更可能傾向于功利主義取向。
與以往研究不同,本研究還考察了個人道德困境下對智能機器的道德判斷,并獲得了不同的結(jié)論。以往研究都發(fā)現(xiàn),相比于道義論,人們更希望智能機器在道德兩難困境中做出功利主義行為。而我們的研究發(fā)現(xiàn),在個人道德困境下,雖然相比于人類,人們更能接受智能機器做出功利主義行為,但總體上,人們還是希望智能機器做出道義論行為的。這一結(jié)果表明,人們對智能機器的期望行為也受到道德情境等因素的影響,在不同的道德情境下,人們可能對智能機器采取不同的道德評價標準。在個人困境中,人們涉及到更多的情緒加工,與情緒相關(guān)的腦區(qū)具有更大的激活(Green et al.,2001;Sarlo et al.,2012),因此更可能采用直覺系統(tǒng)做出反應(yīng)。我們的研究表明,當面對處于個人道德困境的智能機器時,被試總體上還是希望其做出道義論行為的,反映了在這一困境下雙加工系統(tǒng)里的情緒依然占據(jù)了主導(dǎo)地位;但相比于人類,人們更希望智能機器在這一困境下做出功利性行為,且對其功利行為的道德評價更高,這也反映了人們對處于個人道德困境的智能機器,情緒體驗并沒有像對人類那么強烈,因此,允許更多的認知控制及理性推理。
有關(guān)人們對人類與智能機器道德判斷差異的背后機制尚不明確。一種可能的解釋是人們很容易采用他人的視角思考(代入感更強),天然地拒絕殺害他人的行為,因此對人類采取更加嚴苛的道德標準;相反,人們很難將自己放到智能機器的位置上,因此也不具有這種天然的反應(yīng),所以對其采用更加寬容的道德標準。另一種可能的解釋與人們維護自己的聲望有關(guān)。一個愿意犧牲他人性命的人往往被看成是一個不可信的社會伙伴,人們更愿意和采取道義論取向的個體合作,因此,在道德兩難困境中,人們更可能做出道義論行為;相反,人們可能并不認為智能機器是社會共同體的一部分,因此僅根據(jù)行為本身判斷,做出更加功利性的取向。我們的結(jié)果相對的更支持后一種解釋:相比于電車困境,由于在天橋困境中,犧牲者被當成工具使用,采取這一行動的人類個體直接采取了殺人的動作(而非附帶損失),因此更容易被看成是不可信(冷血)的社會伙伴,對其聲望損害更大,而對于智能機器,人們可能并不將其看成是社會群體中的一員,個人和非個人道德困境對其影響并沒有這么大。因此,在天橋困境中,人們更能接受智能機器采取功利主義行為,而在電車困境中,則差異不明顯。
人工智能和智能機器正逐步進入人們的生活,如何設(shè)計人工智能體的道德決策體系,使其在社會交互中符合社會公眾的道德準則,成為影響智能機器實用化的關(guān)鍵因素。因此,探究人們對于智能機器在各種道德情境下的期望行為和道德評價,揭示人們對智能機器道德判斷的背后機制,具有重大意義,需要眾多研究者,尤其是心理學(xué)工作者的進一步深入研究。總結(jié)以往研究,我們提出了一些將來的研究展望。比如,未來研究可以借助VR技術(shù)等,在更加真實的場景下探討人們對智能機器的道德判斷。此外,智能機器在未來人類社會的交互中,涉及的道德情境將十分復(fù)雜,遠遠超出類似電車道德兩難困境的范疇,后續(xù)研究還需關(guān)注在各種道德場景下公眾對智能機器的道德判斷。
本研究獲得如下主要結(jié)論:
(1)非個人道德困境(自動駕駛汽車困境)下,人們對智能機器和人類采用相同的道德評價標準,對其的期望行為及實際行為的道德評價完全相同。
(2)個人道德困境(天橋困境)下,人們對智能機器和人類采用不同的道德評價標準,雖然總體上人們希望智能機器和人類都采用道義論取向行為,但相比于人類,有更多人希望智能機器做出功利主義取向行為,對其功利主義行為的道德評價也更高。