王瑞良
現(xiàn)實(shí)悲劇
作為一部頗有現(xiàn)實(shí)意義的電視劇,《紙牌屋》反映了當(dāng)今社會(huì)的某些真實(shí)問(wèn)題。如今,美軍已經(jīng)大量使用能夠遠(yuǎn)程遙控、實(shí)施自動(dòng)攻擊的無(wú)人機(jī),但也因此頻發(fā)殃及無(wú)辜的慘劇。在阿富汗戰(zhàn)爭(zhēng)中,美軍無(wú)人機(jī)每消滅1名恐怖分子,就會(huì)有50名無(wú)辜者連帶喪生。同時(shí),許多歐盟國(guó)家也在研發(fā)可以自主行動(dòng)的戰(zhàn)場(chǎng)機(jī)器人(俗稱(chēng)“殺人機(jī)器人”),這種武器雖然還未問(wèn)世,但相關(guān)技術(shù)已經(jīng)非常成熟。不久前,聯(lián)合國(guó)安理會(huì)根據(jù)《特定常規(guī)武器公約》,呼吁各國(guó)中止這類(lèi)機(jī)器人的研發(fā)和應(yīng)用,并希望大家能夠永久性地禁止開(kāi)發(fā)具備獨(dú)立殺人決策權(quán)的武器系統(tǒng)。
對(duì)這些鋼鐵機(jī)器而言,它們根本不知道什么是法律和道德,它們也無(wú)法對(duì)自己的行為負(fù)責(zé)——它可以判斷對(duì)方是人還是機(jī)器,但卻無(wú)法識(shí)別對(duì)方是士兵還是平民。士兵可以用常識(shí)判斷眼前的女子,究竟是身藏炸藥還是身懷六甲,但機(jī)器人根本就沒(méi)有這個(gè)能力。它們甚至?xí)`傷已喪失戰(zhàn)斗意志或能力的傷員和準(zhǔn)備投降的士兵。
聯(lián)合國(guó)人權(quán)理事會(huì)特別報(bào)告員克里斯托弗·海因斯(Christopher Hines)說(shuō)道:“這種機(jī)器人無(wú)法遵守國(guó)際人權(quán)法和人道法,如果各國(guó)軍隊(duì)將‘殺人機(jī)器人’常規(guī)化,或是恐怖分子利用它們?nèi)〈詺⑹揭u擊,那就如同打開(kāi)了現(xiàn)代的‘潘多拉魔盒’,后果不堪設(shè)想。而且,把是否殺害人類(lèi)的判斷權(quán)托給機(jī)器更是‘道義責(zé)任的缺失’?!?/p>
道德僵尸
其實(shí),海因斯的擔(dān)憂(yōu)不無(wú)道理,“殺人機(jī)器人”正從由人類(lèi)遠(yuǎn)程遙控,向由計(jì)算機(jī)軟件和傳感器裝置控制發(fā)展。未來(lái),它們很有可能可以全自動(dòng)執(zhí)行識(shí)別敵人、判斷敵情和殺死敵人等任務(wù)。那么,有沒(méi)有辦法通過(guò)計(jì)算機(jī)程序的設(shè)計(jì),讓機(jī)器人具有道德觀念和法律意識(shí)呢?又或是給機(jī)器人頒發(fā)一個(gè)“行動(dòng)執(zhí)照”,將它的所作所為限定在一個(gè)合法的范疇之內(nèi)呢?
這些問(wèn)題激發(fā)了一批頂尖科學(xué)家的靈感,有人已進(jìn)行了相關(guān)試驗(yàn)。英國(guó)布里斯托爾機(jī)器人實(shí)驗(yàn)室的專(zhuān)家艾倫·溫菲爾德(Alan Winfield)及其同事,為機(jī)器人設(shè)計(jì)了這樣一個(gè)程序——阻止其他擬人機(jī)器人掉進(jìn)洞里。該程序的設(shè)計(jì)原理,源于美國(guó)著名科幻小說(shuō)家艾薩克·阿西莫夫(Isaac Asimov)提出的機(jī)器人學(xué)三定律之一——機(jī)器人不得傷害人類(lèi),或坐視人類(lèi)受到傷害。
試驗(yàn)一開(kāi)始,機(jī)器人還能順利完成任務(wù):當(dāng)擬人機(jī)器人向洞口移動(dòng)時(shí),機(jī)器人會(huì)沖上去將其推開(kāi),防止其掉進(jìn)洞里。隨后,研究人員又添加了一個(gè)擬人機(jī)器人,兩個(gè)擬人機(jī)器人同時(shí)向洞口移動(dòng),救人機(jī)器人則要被迫做出選擇。有時(shí),其中一個(gè)“人”會(huì)被成功解救,而另一個(gè)“人”則會(huì)掉進(jìn)洞里;有時(shí),機(jī)器人甚至?xí)胪瑫r(shí)救出兩個(gè)“人”。不過(guò)機(jī)器人在33次的測(cè)試中,有14次因?yàn)樵诰饶囊粋€(gè)“人”的問(wèn)題上不知所措而浪費(fèi)了時(shí)間,結(jié)果導(dǎo)致兩個(gè)“人”都掉進(jìn)了洞里。2014年9月2日,在英國(guó)伯明翰召開(kāi)的“邁向自主機(jī)器人系統(tǒng)”會(huì)議上,研究人員將這項(xiàng)實(shí)驗(yàn)的結(jié)果公開(kāi)展示,并引起了世人的高度關(guān)注。
溫菲爾德說(shuō):“雖然根據(jù)程序設(shè)定,救人機(jī)器人是可以對(duì)他人施救的,但它根本不理解這種行為背后的真正原因。實(shí)際上,它就是一具‘道德僵尸’——只知道根據(jù)程序指令行動(dòng),完成任務(wù),僅此而已。我曾經(jīng)不確定機(jī)器人能否做出道德倫理選擇,經(jīng)過(guò)這一系列實(shí)驗(yàn),我仍然不知道答案?!?/p>
人類(lèi)選擇
溫菲爾德所思考的問(wèn)題對(duì)于所有人來(lái)說(shuō),都具有非常重要的意義。隨著機(jī)器人日益融入人們的生活,這一問(wèn)題更加需要明確的答案。
以無(wú)人駕駛汽車(chē)為例,當(dāng)它有一天要在保全車(chē)內(nèi)人員安全還是行人安全之間做出權(quán)衡時(shí),你認(rèn)為它會(huì)怎么選擇呢?或許,連它自己都會(huì)不知所措。
雖然目前要解決這個(gè)問(wèn)題還非常困難(這也是無(wú)人駕駛汽車(chē)至今都無(wú)法大規(guī)模正式上路的主要原因),但某些為軍事戰(zhàn)爭(zhēng)設(shè)計(jì)的機(jī)器人,或許能夠?yàn)槲覀兲峁┮粋€(gè)初步答案。美國(guó)佐治亞理工學(xué)院(Georgia Institute of Technology)的計(jì)算機(jī)專(zhuān)家羅納德·阿金(Ronald Akin),專(zhuān)門(mén)為一個(gè)名為“道德監(jiān)督員”的軍事機(jī)器人研制了一套運(yùn)算法則。在模擬戰(zhàn)斗測(cè)試中,它可以幫助機(jī)器人在戰(zhàn)場(chǎng)上做出明智的抉擇,例如在學(xué)校和醫(yī)院等戰(zhàn)爭(zhēng)條例規(guī)定的受保護(hù)區(qū)附近不動(dòng)用武器,且盡量減少人員傷亡。
不過(guò),這道選擇題還是相對(duì)簡(jiǎn)單的,如果遇到更加復(fù)雜的情況,結(jié)果往往會(huì)大不一樣。例如,在打擊“伊斯蘭國(guó)”極端恐怖組織的戰(zhàn)斗中,美軍的無(wú)人機(jī)只能對(duì)其陣地實(shí)施有效轟炸,但當(dāng)對(duì)方士兵融入當(dāng)?shù)仄矫裰泻?,無(wú)人機(jī)就無(wú)所施措了。
目前,盡管在國(guó)際社會(huì)上禁止研發(fā)這類(lèi)“殺人機(jī)器人”的呼聲很高,但也有支持者認(rèn)為,它們能更大程度地減少戰(zhàn)場(chǎng)上信息不對(duì)稱(chēng)的情況,更加精確地打擊目標(biāo),使用這種技術(shù)可以有效減少傷亡、挽救生命。
任何戰(zhàn)爭(zhēng)武器都是可怕的,如果有什么武器不由人操控那就更恐怖了。而且,要讓機(jī)器人做出正確的道德倫理選擇,也不是一朝一夕能夠做到的,這涉及到一系列極其尖端復(fù)雜的人工智能技術(shù)。可以想象,在未來(lái)的某一時(shí)刻,戰(zhàn)場(chǎng)上一定會(huì)出現(xiàn)為數(shù)不少的“殺人機(jī)器人”,但面對(duì)它們,人類(lèi)其實(shí)還有一個(gè)更好的選擇——和平!