陳齊平,魏佳成,鐘陳志鵬,羅玉峰,王 亮
華東交通大學(xué) 機(jī)電與車輛工程學(xué)院,南昌 330013
21 世紀(jì)是智能科學(xué)的時(shí)代,隨著智能科學(xué)研究不斷進(jìn)步和機(jī)器智能水平不斷提升,未來(lái)智能機(jī)器將在大部分領(lǐng)域代替人們工作[1-2]。雖然智能機(jī)器的發(fā)展可以為人們提供便利的服務(wù),幫助提高工作效率和解決復(fù)雜工況下的難題等,但同時(shí)也會(huì)帶來(lái)許多倫理道德問(wèn)題[3-4],這些倫理問(wèn)題能否得到解決是未來(lái)智能機(jī)器普及應(yīng)用的關(guān)鍵。
蘇令銀認(rèn)為人們不需要也不可能把倫理嵌入人工智能機(jī)器,但需要對(duì)智能機(jī)器的倫理選擇實(shí)施各方面的監(jiān)管[5],包括人工智能選擇的法律規(guī)制、技術(shù)監(jiān)管、倫理建模和程序正義等方面,目前各方面均存在一定缺陷,無(wú)法達(dá)標(biāo)。蘇令銀還認(rèn)為,隨著相關(guān)技術(shù)的成熟,無(wú)人駕駛汽車的安全性可能會(huì)比人類駕駛更高,這是由于無(wú)人駕駛汽車存在倫理機(jī)器人的指導(dǎo)。Grodzinsky等人[6]認(rèn)為智能機(jī)器始終離不開(kāi)人類的設(shè)計(jì),無(wú)論機(jī)器中虛擬狀態(tài)還是實(shí)際的對(duì)應(yīng)物,均與創(chuàng)造者有一定關(guān)系,即智能機(jī)器的倫理主體本質(zhì)上就是創(chuàng)造者的拓展,因此創(chuàng)造者可能會(huì)限制智能機(jī)器的倫理地位,這也是現(xiàn)今智能機(jī)器倫理決策發(fā)展的局限,因此對(duì)智能機(jī)器倫理決策設(shè)計(jì)的研究具有重要意義。
目前,智能機(jī)器的研究主要是在模仿人類的感覺(jué)、知覺(jué)、學(xué)習(xí)、記憶和語(yǔ)言等認(rèn)知神經(jīng)功能[7]。關(guān)于智能機(jī)器倫理方面的研究主要基于人類道德決策機(jī)制等研究展開(kāi),并通過(guò)在哲學(xué)、心理學(xué)和神經(jīng)學(xué)等方面的研究發(fā)現(xiàn),人類的認(rèn)識(shí)、情緒、社會(huì)認(rèn)識(shí)、情感信息和動(dòng)機(jī)等因素都會(huì)影響人類的道德決策[8-10]。為使智能機(jī)器可以做出符合倫理道德的決策,當(dāng)前研究主要從規(guī)則推理和基于腦神經(jīng)科學(xué)等方向來(lái)進(jìn)行機(jī)器倫理決策的設(shè)計(jì)。
基于規(guī)則推理是機(jī)器根據(jù)預(yù)先設(shè)定倫理決策原則來(lái)進(jìn)行推理決策。該方法采用的是一種理性決策設(shè)計(jì)方式,具有較強(qiáng)的邏輯性和規(guī)則性。根據(jù)確定規(guī)則進(jìn)行推理使得智能機(jī)器可以快速地做出決策,且其倫理決策具有較強(qiáng)的解釋性和透明性。
Bringsjord 等人[11]通過(guò)分析機(jī)器人三原則的不足,總結(jié)了兩種基本機(jī)器決策原則:(1)機(jī)器只做允許的動(dòng)作;(2)機(jī)器在做強(qiáng)制性動(dòng)作時(shí)會(huì)受到其他可用動(dòng)作的制約。在此基礎(chǔ)上,還提出了一種基于決策原則的工程倫理決策的設(shè)計(jì)方法,該方法利用命題演算和謂詞演算等邏輯推理形式實(shí)現(xiàn)機(jī)器倫理決策。
Anderson 等人設(shè)計(jì)了一種倫理決策顧問(wèn)系統(tǒng)(MedEthEx)[12]用以解決醫(yī)療機(jī)器護(hù)理中涉及人機(jī)交互倫理問(wèn)題,MedEthEx 決策系統(tǒng)結(jié)構(gòu)如圖1 所示。該系統(tǒng)主要復(fù)現(xiàn)了Beauchamp 和Childress 的生物醫(yī)學(xué)倫理原則。通過(guò)機(jī)器學(xué)習(xí)技術(shù)在困境案例中提取醫(yī)學(xué)倫理原則,使得護(hù)理機(jī)器在面對(duì)類似困境情況時(shí)根據(jù)得到的倫理規(guī)則做出相應(yīng)的決策。
Fig.1 MedEthEx decision structure diagram圖1 MedEthEx決策結(jié)構(gòu)圖
Fig.2 Ethical consultant system Jeremy and W.D.圖2 倫理顧問(wèn)系統(tǒng)Jeremy和W.D.
Anderson 等人[13]通過(guò)對(duì)機(jī)器倫理原理等分析進(jìn)行機(jī)器倫理研究,認(rèn)為在決策時(shí)考慮機(jī)器倫理因素將提高決策性能。如圖2(a)和圖2(b)所示[13],他們按照功力主義原則和義務(wù)主義原則分別開(kāi)發(fā)了兩種倫理顧問(wèn)系統(tǒng)Jeremy 和W.D.,并進(jìn)一步證明了由倫理決策原則指導(dǎo)的決策系統(tǒng)在倫理困境下更易做出倫理決策。Anderson 等人還提出一種可以確保自主系統(tǒng)倫理行為的CPB(case-supported principle-based behavior)范式。該范式的實(shí)現(xiàn)是由倫理學(xué)家在實(shí)際倫理案例中得出統(tǒng)一的倫理原則,進(jìn)而自主系統(tǒng)在該原則的指導(dǎo)下做出決策。該方法保證了原則的準(zhǔn)確性并驗(yàn)證了案例的可解釋性。
McLaren 基于案例推理設(shè)計(jì)了兩種倫理計(jì)算系統(tǒng)[14],并采用了決疑術(shù)方法進(jìn)行推理決策。一種系統(tǒng)是Truth-Teller(McLaren 寫(xiě)的第一個(gè)倫理推理程序)利用決疑術(shù)理論比較決策困境的異同點(diǎn);另一種系統(tǒng)是SIROCCO(system for intelligent retrieval of operationalized cases and codes,McLaren 寫(xiě)的第二個(gè)倫理推理程序)使用計(jì)算模型實(shí)現(xiàn)決疑術(shù)推理,并利用通用原則來(lái)進(jìn)行決策。McLaren B 認(rèn)為這兩種計(jì)算系統(tǒng)可以較合理地解決倫理困境,為人們解決倫理困境難題提供一個(gè)倫理助手。
Fig.3 Ethical decision rule framework of combat machine圖3 作戰(zhàn)機(jī)器倫理決策規(guī)則框架
Arkin為實(shí)現(xiàn)倫理控制和推理系統(tǒng)提出了一種包含基礎(chǔ)、動(dòng)機(jī)、理論和設(shè)計(jì)等元素的規(guī)則框架[15],并在戰(zhàn)爭(zhēng)法律和管理規(guī)范等限制下規(guī)范危險(xiǎn)行為。作戰(zhàn)機(jī)器倫理決策規(guī)則框架如圖3所示[15],該框架是一種基于協(xié)商/反應(yīng)式機(jī)器設(shè)計(jì)框架來(lái)實(shí)現(xiàn)的,以LOW(laws of war)和ROE(rules of engagement)等戰(zhàn)爭(zhēng)規(guī)則為倫理決策原則,采用案例推理的方式設(shè)計(jì)一種戰(zhàn)場(chǎng)機(jī)器倫理決策系統(tǒng)。該方法分別從倫理行為抑制、倫理決策設(shè)計(jì)、利用效應(yīng)函數(shù)適應(yīng)非道德行為和協(xié)助操作者分配最終責(zé)任方面的識(shí)別和建議機(jī)制四方面提出了具體解決方案。
Wynsberghe提出一種以醫(yī)療護(hù)理為核心原則的價(jià)值敏感設(shè)計(jì)CCVSD(care‐centered value sensitive design)方法[16]來(lái)研究護(hù)理機(jī)器的倫理問(wèn)題。在現(xiàn)有原型的基礎(chǔ)上,設(shè)計(jì)了一種新型的患者尿液采集和檢測(cè)護(hù)理機(jī)器人。整個(gè)設(shè)計(jì)過(guò)程通過(guò)整合醫(yī)療護(hù)理倫理需求,按照預(yù)定方案流程循序漸進(jìn)實(shí)現(xiàn)倫理機(jī)器設(shè)計(jì)。
基于規(guī)則推理來(lái)設(shè)計(jì)的優(yōu)點(diǎn)在于機(jī)器的倫理決策可預(yù)見(jiàn),可以為機(jī)器決策提供一種安全的保障,但對(duì)工況的適應(yīng)性較差。人類的決策規(guī)則受到地域、文化和個(gè)人信仰等因素的影響,有時(shí)對(duì)于同一種情況的決策會(huì)不同甚至相反。因此僅用一種決策規(guī)則來(lái)實(shí)現(xiàn)機(jī)器在面對(duì)復(fù)雜多變的環(huán)境時(shí)做出決策會(huì)存在較大的偏差。
基于學(xué)習(xí)算法是利用機(jī)器學(xué)習(xí)等算法模型模仿人腦決策時(shí)神經(jīng)運(yùn)行機(jī)制來(lái)實(shí)現(xiàn)機(jī)器決策設(shè)計(jì)的方法[17-19]。主要原理是機(jī)器對(duì)環(huán)境的不斷學(xué)習(xí)從而獲得決策經(jīng)驗(yàn),實(shí)際應(yīng)用中是通過(guò)對(duì)人類決策數(shù)據(jù)的學(xué)習(xí),應(yīng)用神經(jīng)網(wǎng)絡(luò)或貝葉斯學(xué)習(xí)等機(jī)器學(xué)習(xí)方法得到人類倫理決策規(guī)律。
Armstrong[20]使用貝葉斯理論構(gòu)建一種通過(guò)效用函數(shù)來(lái)進(jìn)行智能體的決策設(shè)計(jì)模型。其效用函數(shù)是效用值、該效用值正確率及在對(duì)應(yīng)環(huán)境選擇該效用函數(shù)的概率的加權(quán)組合,通過(guò)選擇最大效用函數(shù)值來(lái)選擇最優(yōu)效用價(jià)值原則進(jìn)行決策。通過(guò)在倫理決策困境環(huán)境下的實(shí)驗(yàn)結(jié)果驗(yàn)證了效用函數(shù)決策設(shè)計(jì)方法的可行性。
與此類似的方法,有Dewey 也通過(guò)構(gòu)建效用函數(shù)的方法設(shè)計(jì)倫理決策[21],不同的是Dewey使用了強(qiáng)化學(xué)習(xí)方法。還有Wu等人[22]利用強(qiáng)化學(xué)習(xí)建立倫理決策函數(shù),并綜合考慮了法律和道德規(guī)范等因素的影響。另外Abel等人也提出使用強(qiáng)化學(xué)習(xí)來(lái)構(gòu)建智能體的倫理框架實(shí)現(xiàn)通用性倫理決策[23],該研究定義了一個(gè)倫理學(xué)習(xí)者模型,在具體實(shí)驗(yàn)中測(cè)試了方法的靈活性和穩(wěn)定性。
Dancy[24]提出不使用提取道德原則的方法,通過(guò)案例分類的方法。Guarini[25]依據(jù)該研究思路提出采用神經(jīng)網(wǎng)絡(luò)建立分類模型,對(duì)道德決策案例進(jìn)行分類。該方法有別于傳統(tǒng)研究思路,利用模式識(shí)別方法實(shí)現(xiàn)倫理決策。研究測(cè)試結(jié)果并未達(dá)到預(yù)期的效果,后期將通過(guò)更豐富的數(shù)據(jù)集或其他模式識(shí)別方法獲得更優(yōu)分類模型。
Honarvar 等人基于BDI-Agent(beliefs,desires,intentions)模型利用神經(jīng)網(wǎng)絡(luò)分類方法設(shè)計(jì)了倫理決策框架[26],并考慮相關(guān)倫理因素進(jìn)行倫理行為評(píng)估。相比Guarini 的方法,該方法通用性更強(qiáng)。從研究結(jié)果表明該網(wǎng)絡(luò)可以對(duì)案例進(jìn)行準(zhǔn)確響應(yīng),且訓(xùn)練數(shù)據(jù)越豐富,準(zhǔn)確度越高。
Rekabdar 等人也采用人工神經(jīng)網(wǎng)絡(luò)分類方法來(lái)進(jìn)行倫理決策[27]。該方法利用人工神經(jīng)網(wǎng)絡(luò)對(duì)大量倫理數(shù)據(jù)集進(jìn)行訓(xùn)練。采用多數(shù)投票的方法將神經(jīng)網(wǎng)絡(luò)的決策進(jìn)行組合,做出最終的識(shí)別決策,每一個(gè)神經(jīng)網(wǎng)絡(luò)都是通過(guò)多層隱藏的MLP(multi-layer perceptron)來(lái)實(shí)現(xiàn)。對(duì)比實(shí)驗(yàn)結(jié)果,該模型的倫理決策性能優(yōu)于其他分類決策模型。
基于學(xué)習(xí)算法設(shè)計(jì)相比規(guī)則推理適應(yīng)性更廣。雖然通過(guò)神經(jīng)網(wǎng)絡(luò)等方法可以快速得到?jīng)Q策規(guī)則,但由于其規(guī)則的透明性和解釋性較差,使得該倫理設(shè)計(jì)缺少安全保障。
隨著人們對(duì)于人腦的探索研究,腦科學(xué)研究有不斷的新突破,利用計(jì)算模型模擬腦認(rèn)知結(jié)構(gòu)和機(jī)制會(huì)是智能機(jī)器研究的重要方向[28-30]。模擬人類倫理決策的腦認(rèn)知來(lái)實(shí)現(xiàn)機(jī)器倫理設(shè)計(jì)也成為一種重要設(shè)計(jì)方法,其主要挑戰(zhàn)在于腦認(rèn)知計(jì)算模型的正確構(gòu)建。
Briggs 等人提出一種基于DIARC/ADE(distributed integrated affect/Analog devices energy)組合認(rèn)知結(jié)構(gòu)實(shí)現(xiàn)指令拒絕和解釋機(jī)制的機(jī)器倫理決策方法[31]。圖4 所示為DIARC/ADE組合認(rèn)知結(jié)構(gòu)[31]。該組合認(rèn)知結(jié)構(gòu)最早由Schermerhorn和Kramer等人分別提出,其中DIARC 是一種綜合情感、反思、認(rèn)知的分布式架構(gòu),ADE 是一種具有用于動(dòng)態(tài)、可靠、故障覆蓋、遠(yuǎn)程訪問(wèn)和分布式計(jì)算等功能的體系框架。在人為干預(yù)機(jī)器行為決策時(shí),機(jī)器可能拒絕人類指令并給出拒絕的理由解釋。當(dāng)人為對(duì)其解釋進(jìn)行進(jìn)一步回應(yīng)說(shuō)明后,機(jī)器會(huì)判斷是否繼續(xù)服從指令。該方法在一定程度上設(shè)計(jì)了一種能讓機(jī)器自我判斷的決策框架。
Fig.4 DIARC/ADE composite cognitive structure圖4 DIARC/ADE組合認(rèn)知結(jié)構(gòu)
Clore等人提出一種OCC(Ortony,Clore,Collins)情感理論來(lái)研究影響價(jià)值觀的因素[32],該理論包括三種價(jià)值觀元素,目標(biāo)、標(biāo)準(zhǔn)和態(tài)度,以及三種影響因素,事件、行為和對(duì)象。Clore等人認(rèn)為所有的行為和表達(dá)都與認(rèn)知情感表達(dá)有關(guān),并提出了22 種情感類型,將情感認(rèn)知的研究成果應(yīng)用到人工智能決策研究中。OCC理論模型為認(rèn)知神經(jīng)科學(xué)和倫理決策研究提供了一種新的研究方法。
Franklin 等人提出一種基于GWT 腦認(rèn)知結(jié)構(gòu)理論的LIDA(learning intelligent distribution agent)模型[33-35],模型如圖5所示。它既是一種腦認(rèn)知模型,也是一種計(jì)算模型[33]。LIDA模型組成主要分為感知階段、理解階段和行為階段,并且每個(gè)階段分別設(shè)計(jì)了對(duì)應(yīng)的子系統(tǒng)。子系統(tǒng)可以實(shí)現(xiàn)包括感知、知覺(jué)、意識(shí)、學(xué)習(xí)、計(jì)劃?rùn)C(jī)制和行為網(wǎng)絡(luò)等功能。通過(guò)該模型可以對(duì)決策行為的產(chǎn)生和人類情感是如何影響人類的決策機(jī)制等方面進(jìn)行深入的解釋。Wallach和Allen等人[35]認(rèn)為L(zhǎng)IDA有助于了解人類的意識(shí)與道德判斷之間的關(guān)系,從而模仿設(shè)計(jì)機(jī)器的道德倫理判斷機(jī)制。相比于OCC等其他認(rèn)知模型,LIDA結(jié)構(gòu)具有更強(qiáng)的學(xué)習(xí)能力、更合理的認(rèn)知循環(huán)結(jié)構(gòu)并且綜合感覺(jué)和情感等因素的影響。
人類具有豐富的認(rèn)知功能,并且認(rèn)知與決策之間具有密切聯(lián)系,對(duì)認(rèn)知的研究將有助于人類倫理決策及機(jī)器倫理決策等方面的研究。目前機(jī)器認(rèn)知結(jié)構(gòu)模型可以實(shí)現(xiàn)簡(jiǎn)單的認(rèn)知功能,若要實(shí)現(xiàn)更高級(jí)的情感、思維等認(rèn)知功能,還需要對(duì)腦認(rèn)知模型進(jìn)行更深入的研究。
機(jī)器倫理問(wèn)題中兩個(gè)主體為人與機(jī)器,如何處理人與機(jī)器間的關(guān)系也是機(jī)器倫理研究的重要難題。有學(xué)者從人與機(jī)器之間互動(dòng)關(guān)系的角度研究機(jī)器倫理。Coeckelbergh[36]認(rèn)為可以從人機(jī)關(guān)系的角度進(jìn)行機(jī)器倫理研究,并強(qiáng)調(diào)機(jī)器的外在行為表現(xiàn)會(huì)體現(xiàn)機(jī)器道德倫理。其主要研究機(jī)器是否可以表現(xiàn)出符合倫理道德的行為或?qū)θ祟愑欣牡赖滦袨?。從目前設(shè)計(jì)的角度來(lái)看,關(guān)系論的進(jìn)路更加貼近工程設(shè)計(jì)。
Rysewyk等人[37]提出了一種機(jī)器倫理設(shè)計(jì)理論,它融合了“自上而下”理論決策規(guī)范和“自下而上”計(jì)算決策模式。該混合倫理設(shè)計(jì)在一臺(tái)醫(yī)療機(jī)器上進(jìn)行了測(cè)試,模擬實(shí)現(xiàn)了專業(yè)技術(shù)人員的臨床醫(yī)學(xué)倫理行為。在6個(gè)臨床醫(yī)學(xué)模擬實(shí)驗(yàn)中,機(jī)器的決策輸出與人類醫(yī)學(xué)專業(yè)人員的行為匹配度較高。該醫(yī)學(xué)倫理設(shè)計(jì)模式為機(jī)器倫理研究的進(jìn)一步發(fā)展提供了平臺(tái)。
Fig.5 LIDA model based on GWT brain cognitive structure theory圖5 基于GWT腦認(rèn)知結(jié)構(gòu)理論的LIDA模型
Rzepka等人針對(duì)醫(yī)療護(hù)理問(wèn)題提出一種基于大量案例數(shù)據(jù)分析的設(shè)計(jì)方法[38]。與單一分析設(shè)計(jì)方法不一樣,該方法是通過(guò)自底向上設(shè)計(jì)結(jié)合自頂向下的決策效用計(jì)算,以確保為特定用戶提供最佳的醫(yī)療服務(wù)效果,并解決醫(yī)療護(hù)理中的倫理困境難題。
國(guó)內(nèi)外越來(lái)越多的學(xué)者對(duì)倫理決策設(shè)計(jì)方法進(jìn)行深入研究,本文選出幾種具有代表性的重要方法進(jìn)行對(duì)比,如表1所示。
由表1可知,幾種重要倫理決策設(shè)計(jì)方法都存在各自的優(yōu)缺點(diǎn),具體介紹如下:
(1)倫理決策顧問(wèn)系統(tǒng):該系統(tǒng)可作為一個(gè)多方面應(yīng)用的平臺(tái),在其基礎(chǔ)上可以進(jìn)行不同方面的改變,從而可應(yīng)用于多個(gè)領(lǐng)域;但它具有一定的主觀性,因?yàn)橄到y(tǒng)是從原始輸入數(shù)據(jù)、環(huán)境中感應(yīng)得到的數(shù)據(jù)和用戶提供的數(shù)據(jù)來(lái)進(jìn)行計(jì)算并做出相應(yīng)的決策行動(dòng)。
Table 1 Comparisons of ethical decision design methods表1 倫理決策設(shè)計(jì)方法對(duì)比
(2)倫理決策規(guī)則框架:該框架提供了動(dòng)機(jī)、哲學(xué)、形式、代表性要求、架構(gòu)設(shè)計(jì)標(biāo)準(zhǔn)、建議和測(cè)試場(chǎng)景,以設(shè)計(jì)和構(gòu)建一個(gè)能夠在道德前提下使用致命力量的自主機(jī)器人系統(tǒng),功能強(qiáng)大且滿足人類道德要求;但其含有多個(gè)組成模塊,交互結(jié)構(gòu)復(fù)雜,不易構(gòu)建,且難以在其基礎(chǔ)上做出較大改進(jìn)。
(3)DIARC/ADE 組合認(rèn)知結(jié)構(gòu):該結(jié)構(gòu)擁有自主判斷功能,可對(duì)外界干預(yù)進(jìn)行檢測(cè),判斷是否接受外界干預(yù),如拒絕,則會(huì)給出拒絕的理由,因此其具有自主性和高可靠性;但為了完善結(jié)構(gòu)的自主性和可靠性,需要進(jìn)行大量系統(tǒng)、開(kāi)放的場(chǎng)景測(cè)試,工作量很大,因此對(duì)該結(jié)構(gòu)進(jìn)行更新改進(jìn)也比較困難。
(4)LIDA 模型:該模型是一種基于認(rèn)知心理學(xué)和認(rèn)知神經(jīng)科學(xué)的概念計(jì)算模型,可模擬人類認(rèn)知和意識(shí),學(xué)習(xí)和認(rèn)知能力可比肩人類,該模型還能通過(guò)提示感知聯(lián)想記憶、空間記憶、短暫的情景記憶和聲明性記憶四種不同的記憶方式對(duì)學(xué)習(xí)內(nèi)容進(jìn)行記憶;但相比于人類,該模型自主性較差,還需對(duì)其自主學(xué)習(xí)功能進(jìn)行完善。
隨著未來(lái)機(jī)器的決策越來(lái)越豐富,人機(jī)關(guān)系的研究也變得越來(lái)越重要,在一定程度上會(huì)影響機(jī)器倫理決策。混合倫理決策設(shè)計(jì)結(jié)合了規(guī)則推理的穩(wěn)定性和機(jī)器學(xué)習(xí)等方法的靈活性等優(yōu)勢(shì),可為機(jī)器提供更符合實(shí)際的倫理決策安全保障。
新技術(shù)的興起都會(huì)存在倫理問(wèn)題,隨著無(wú)人駕駛技術(shù)的發(fā)展,專家學(xué)者對(duì)無(wú)人駕駛倫理進(jìn)行了研究。有些學(xué)者針對(duì)無(wú)人駕駛倫理特點(diǎn)從不同方面進(jìn)行了研究,有些學(xué)者提出利用不同方法建立倫理決策框架和針對(duì)倫理決策評(píng)估的工具。在無(wú)人駕駛倫理研究理論和實(shí)踐等方面奠定了研究基礎(chǔ)。
Moolayil[39]認(rèn)為無(wú)人駕駛電車問(wèn)題主要是無(wú)人駕駛汽車事故中應(yīng)該保護(hù)誰(shuí)和責(zé)任的劃分等方面的問(wèn)題,其研究從道德規(guī)范、經(jīng)濟(jì)和法律等方面提出了關(guān)于無(wú)人駕駛事故的責(zé)任劃分等問(wèn)題的解決方案。
Goodall[40]認(rèn)為實(shí)際中無(wú)人駕駛汽車的倫理問(wèn)題關(guān)鍵在于無(wú)人駕駛汽車如何分配風(fēng)險(xiǎn),并且認(rèn)為需要對(duì)無(wú)人駕駛風(fēng)險(xiǎn)決策進(jìn)行評(píng)估。他提出九種倫理行為評(píng)判準(zhǔn)則,并對(duì)當(dāng)前道德決策模型進(jìn)行分析研究。
Bonnefon 等人[41]通過(guò)測(cè)試發(fā)現(xiàn)用戶更愿意接受保護(hù)乘客的無(wú)人駕駛汽車,而不是功利性原則設(shè)計(jì)的無(wú)人駕駛汽車。研究認(rèn)為設(shè)計(jì)倫理道德算法是非常艱難的工作。Applin[42]認(rèn)為當(dāng)前無(wú)人駕駛技術(shù)發(fā)展的主要難點(diǎn)是設(shè)計(jì)無(wú)人駕駛倫理決策算法和定義倫理行為。
Bergmann 等人[43]通過(guò)實(shí)驗(yàn)研究發(fā)現(xiàn),實(shí)驗(yàn)參與者較多愿意犧牲自己拯救他人,當(dāng)存在年齡因素影響時(shí),參與者會(huì)更愿意保護(hù)更多的生命。他們認(rèn)為該實(shí)驗(yàn)僅為研究的起點(diǎn),最終倫理問(wèn)題的解決應(yīng)在社會(huì)認(rèn)同和道德上達(dá)成一種平衡。
Edmond等人針對(duì)于無(wú)人駕駛道德決策設(shè)計(jì)了一個(gè)在線實(shí)驗(yàn)網(wǎng)站——Moral Machine[44],如圖6所示為該網(wǎng)站的實(shí)驗(yàn)界面[44]。該研究主要為了探索人類對(duì)于解決無(wú)人駕駛倫理決策困境方案的傾向。研究分別對(duì)實(shí)驗(yàn)數(shù)據(jù)分析得出全球道德偏好、個(gè)體決策偏好差異、決策差異國(guó)家集群和制度文化對(duì)決策的影響等決策規(guī)律。Edmond 還對(duì)在線測(cè)試數(shù)據(jù)進(jìn)行進(jìn)一步分析,提出一種通用性的自主道德決策方案。該方法利用機(jī)器學(xué)習(xí)方法計(jì)算社會(huì)選擇偏向,有效地聚合社會(huì)倫理選擇偏好,并通過(guò)測(cè)試驗(yàn)證該方法的有效性。
Fig.6 Moral machine圖6 道德機(jī)器
McBride提出通過(guò)ACTIVE倫理決策框架[45]設(shè)計(jì)無(wú)人駕駛倫理決策,該框架主要考慮加強(qiáng)自治、協(xié)作和價(jià)值等方面來(lái)設(shè)計(jì),該模型要求無(wú)人駕駛汽車和環(huán)境有更多的交互。
Goodall[46]通過(guò)調(diào)查無(wú)人駕駛車輛的碰撞事故,分析得出無(wú)人駕駛車輛無(wú)法避免碰撞的發(fā)生,無(wú)人駕駛碰撞前的決策存在道德成分和暫無(wú)實(shí)現(xiàn)人類道德原則的算法設(shè)計(jì)方法。研究提出一種三階段式倫理碰撞算法,方法主要包括理性決策、人工智能和自然語(yǔ)言三方面,但該方法還處于理論階段。
Menon 等人[47]認(rèn)為無(wú)人駕駛倫理研究不僅限于“電車問(wèn)題”,還包括風(fēng)險(xiǎn)/利益權(quán)衡、知情、風(fēng)險(xiǎn)責(zé)任和系統(tǒng)風(fēng)險(xiǎn)緩解等方面。他們提出了一種方法確定無(wú)人駕駛決策行為的特征,并考慮了在開(kāi)發(fā)過(guò)程中所做的決策如何影響無(wú)人駕駛倫理行為。Millar[48]認(rèn)為許多通用的倫理決策理論要求可應(yīng)用到倫理決策設(shè)計(jì)中,并基于五個(gè)評(píng)估規(guī)范設(shè)計(jì)了一種倫理評(píng)估工具,為評(píng)估機(jī)器人和無(wú)人駕駛汽車的倫理決策提供了有效方法。Dennis 等人提出一種倫理行為決策的理論框架[49],當(dāng)一個(gè)理性智能體執(zhí)行給定的倫理決策策略時(shí),該智能體會(huì)選擇最優(yōu)置信度的行為。
Gerdes 等人[50]認(rèn)為無(wú)人駕駛倫理決策并非由數(shù)據(jù)統(tǒng)計(jì)分析來(lái)確定,應(yīng)由社會(huì)規(guī)則和道德綜合確定。Sütfeld 等人[51]認(rèn)為無(wú)人駕駛倫理決策與人類倫理原則應(yīng)一致,他們利用VR技術(shù)建立沉浸式駕駛決策困境場(chǎng)景對(duì)人類進(jìn)行道德測(cè)試,相關(guān)測(cè)試界面如圖7所示。通過(guò)對(duì)數(shù)據(jù)的分析得到一種一維生命價(jià)值模型,并分析了決策時(shí)間壓力對(duì)倫理決策的影響。
目前,無(wú)人駕駛倫理決策研究主要處于初期理論階段。未來(lái)隨著無(wú)人駕駛感知技術(shù)、控制技術(shù)和先進(jìn)計(jì)算技術(shù)等領(lǐng)域的發(fā)展,及車聯(lián)網(wǎng)通信等技術(shù)的進(jìn)步,將促進(jìn)無(wú)人駕駛倫理決策有更廣泛、更深入的研究。
目前,機(jī)器倫理決策實(shí)踐設(shè)計(jì)主要從規(guī)則推理、學(xué)習(xí)算法和腦認(rèn)知結(jié)構(gòu)模仿等方面展開(kāi),且已經(jīng)取得了一定成果。
基于規(guī)則推理的機(jī)器倫理決策設(shè)計(jì)由于其邏輯可解釋性強(qiáng),在不同機(jī)器應(yīng)用領(lǐng)域間的移植性好,且規(guī)則透明使得決策穩(wěn)定性好,可接受度高,因此該設(shè)計(jì)方法得到較廣泛的應(yīng)用。為使得無(wú)人駕駛倫理決策設(shè)計(jì)在實(shí)際中實(shí)現(xiàn)落地應(yīng)用,通過(guò)規(guī)則設(shè)計(jì)會(huì)增加用戶對(duì)倫理決策的信任度?;谝?guī)則推理設(shè)計(jì)的主要挑戰(zhàn)是如何選擇合理的決策規(guī)則,由于規(guī)則存在一定的局限性會(huì)使得最終設(shè)計(jì)對(duì)于實(shí)際工況的適應(yīng)性較差。通過(guò)對(duì)國(guó)內(nèi)外基于規(guī)則推理和基于神經(jīng)科學(xué)兩種不同的倫理決策設(shè)計(jì)實(shí)現(xiàn)方式的研究,總結(jié)出兩種實(shí)現(xiàn)方式的優(yōu)缺點(diǎn),對(duì)比如表2所示。
Fig.7 Ethical decision-making research of driverless vehicles based on VR technology圖7 基于VR技術(shù)的無(wú)人駕駛倫理決策研究
Table 2 Comparisons of two realizations表2 兩種實(shí)現(xiàn)方式對(duì)比
人工智能技術(shù)的發(fā)展受到了腦科學(xué)研究的啟發(fā),尤其基于神經(jīng)連接主義發(fā)展的深度學(xué)習(xí)和深度強(qiáng)化學(xué)習(xí)等機(jī)器學(xué)習(xí)方法,以及腦認(rèn)知結(jié)構(gòu)方面的深入探索研究。相比規(guī)則推理設(shè)計(jì),基于腦科學(xué)倫理設(shè)計(jì)方法的靈活性更強(qiáng),對(duì)工況的適應(yīng)性好。由于數(shù)據(jù)模型的“黑箱現(xiàn)象”使得倫理決策存在一定的決策風(fēng)險(xiǎn),未來(lái)有待進(jìn)一步研究。
混合倫理決策設(shè)計(jì)是一種較被認(rèn)可的方法,且已應(yīng)用到實(shí)際生活中。該方法實(shí)現(xiàn)了規(guī)則設(shè)計(jì)和機(jī)器學(xué)習(xí)等兩種方法間優(yōu)勢(shì)的互補(bǔ),綜合提高了機(jī)器倫理決策對(duì)工況的適應(yīng)性和穩(wěn)定性等決策性能。未來(lái)將會(huì)是倫理設(shè)計(jì)的重點(diǎn)研究方法。
目前,學(xué)者從各方面對(duì)機(jī)器倫理決策設(shè)計(jì)進(jìn)行了廣泛的研究,但關(guān)于機(jī)器倫理決策研究中還有諸多難點(diǎn)有待解決。
(1)機(jī)器倫理道德地位的確立
隨著機(jī)器的自主程度越來(lái)越高,未來(lái)的機(jī)器將會(huì)代替人們做大部分的工作。機(jī)器變得越來(lái)越像人類,從某種層面上來(lái)說(shuō)以人類為中心的社會(huì)倫理模式受到潛在的沖擊。在機(jī)器智能化發(fā)展的同時(shí),它的道德倫理地位應(yīng)該是怎樣的,它是否要為決策行為擔(dān)負(fù)相關(guān)法律責(zé)任等。目前,有學(xué)者認(rèn)為機(jī)器可以作為自動(dòng)機(jī)動(dòng)攻擊系統(tǒng)(automatic maneuvering attack system,AMAS),有學(xué)者則認(rèn)為機(jī)器暫無(wú)法承擔(dān)責(zé)任。對(duì)于機(jī)器的倫理地位暫無(wú)確定標(biāo)準(zhǔn),但這是機(jī)器倫理研究的一個(gè)重要前提,因此將是未來(lái)研究的難點(diǎn)之一。
(2)普適機(jī)器倫理決策
未來(lái)機(jī)器廣泛的應(yīng)用使得需要面對(duì)復(fù)雜多變的決策場(chǎng)景,這要求機(jī)器在這些情況下都可以實(shí)現(xiàn)安全決策。目前,通過(guò)規(guī)則推理設(shè)計(jì)的主要挑戰(zhàn)在于規(guī)則對(duì)工況的適應(yīng)性不夠,通過(guò)學(xué)習(xí)算法等方法的設(shè)計(jì)則需要完整、準(zhǔn)確的數(shù)據(jù)集進(jìn)行訓(xùn)練,且混合設(shè)計(jì)也會(huì)受到其缺點(diǎn)的限制。因此,機(jī)器能否在所有工況下都能做出符合倫理的決策也將會(huì)是另一個(gè)挑戰(zhàn)。
(3)機(jī)器倫理決策評(píng)估
機(jī)器的發(fā)展應(yīng)用主要是為了更好地協(xié)助人類工作,在復(fù)雜的實(shí)際工作中提高效率。隨著機(jī)器在各個(gè)領(lǐng)域的發(fā)展和普及,它們最終將代替人類的大部分工作,并具有自主行使決策的權(quán)利。如無(wú)人駕駛技術(shù)的最終發(fā)展,將解放人類駕駛員的雙手,依靠駕駛腦來(lái)決策控制駕駛車輛。但是人們?nèi)绾涡湃螜C(jī)器的決策,或者如何評(píng)估機(jī)器的決策是合理的,這是未來(lái)機(jī)器倫理決策設(shè)計(jì)的又一難點(diǎn)。
隨著計(jì)算科學(xué)的飛速發(fā)展,以及傳統(tǒng)機(jī)器倫理決策設(shè)計(jì)方法的局限性日益凸顯,同時(shí)通過(guò)學(xué)習(xí)算法模擬人類決策的方法被漸漸應(yīng)用到機(jī)器倫理設(shè)計(jì)中。隨著對(duì)腦認(rèn)知結(jié)構(gòu)的探索,通過(guò)構(gòu)建腦認(rèn)知計(jì)算模型實(shí)現(xiàn)機(jī)器倫理決策的方法越來(lái)越受到重視。未來(lái)對(duì)于機(jī)器倫理決策設(shè)計(jì)的研究將會(huì)更加深入,本文認(rèn)為未來(lái)主要研究方向包括:
(1)將人類道德規(guī)范應(yīng)用到機(jī)器倫理決策設(shè)計(jì)
將人類的道德規(guī)范應(yīng)用到機(jī)器倫理決策設(shè)計(jì)中,利用了規(guī)則推理決策邏輯性強(qiáng)、穩(wěn)定性高等優(yōu)勢(shì)。同時(shí)機(jī)器依據(jù)人類道德規(guī)范做出決策會(huì)增加人類對(duì)機(jī)器倫理決策的接受度和信任度。其研究的重點(diǎn)會(huì)在如何選擇人類倫理的通用道德規(guī)范作為機(jī)器倫理決策設(shè)計(jì)準(zhǔn)則。
(2)運(yùn)用機(jī)器學(xué)習(xí)實(shí)現(xiàn)倫理決策設(shè)計(jì)
人工智能技術(shù)的發(fā)展得益于腦科學(xué)的研究,隨著神經(jīng)科學(xué)和腦認(rèn)知科學(xué)的進(jìn)一步研究,通過(guò)機(jī)器學(xué)習(xí)模擬真實(shí)人類做出決策有望變成現(xiàn)實(shí)?;跈C(jī)器學(xué)習(xí)等學(xué)習(xí)算法的機(jī)器倫理設(shè)計(jì)具有對(duì)工況適應(yīng)性強(qiáng),且計(jì)算力強(qiáng),迭代更新快等優(yōu)勢(shì)。通過(guò)結(jié)合人類倫理的通用道德規(guī)范,未來(lái)有望在人類決策的基礎(chǔ)上實(shí)現(xiàn)擴(kuò)展決策,為解決倫理決策困境提供方案。
(3)利用法律及行業(yè)標(biāo)準(zhǔn)規(guī)范實(shí)現(xiàn)機(jī)器倫理決策設(shè)計(jì)
通過(guò)法律等進(jìn)一步規(guī)范機(jī)器倫理決策設(shè)計(jì),在一定程度上也是認(rèn)可機(jī)器倫理決策的合法性,且在專業(yè)技術(shù)方面如何評(píng)估倫理決策都有待進(jìn)一步研究。目前,德國(guó)已通過(guò)了自動(dòng)駕駛的首部法律條例,其中包括無(wú)人駕駛倫理決策設(shè)計(jì)的規(guī)范。未來(lái)關(guān)于制定機(jī)器倫理設(shè)計(jì)研究的法律及行業(yè)標(biāo)準(zhǔn)將會(huì)是重要研究方向。