文=劉英團
書名:《道德機器:如何讓機器人明辨是非》
現(xiàn)代科技的每一次跨越,總會引發(fā)人們對社會倫理道德的憂慮。隨著機器人越來越智能和普遍,自動化機器終將在不可預知的情形下做出生死攸關(guān)的決定,從而具備——或至少表面上具備——道德主體資格。
科幻小說作家艾薩克·阿西莫夫(Isaac Asimov)在短篇小說《環(huán)舞》(Runaround)中提出了“機器人三大法則”(包括“機器人不可以傷害人類,或看到一個人將受到傷害而不作為”“機器人必須服從人類的命令,除非這些命令與第一項法則矛盾”以及“在不違反第一、第二項法則的前提下,機器人必須保護自身生存”),被幾十篇故事和小說所借用。但是,這些保護性設計或者內(nèi)置的道德法則能框住擁有獨立思考能力的機器人嗎?人們對于把自己的生命和福祉交給忽視倫理的系統(tǒng)會感到放心嗎?著名倫理學家、耶魯大學生物倫理學跨學科中心主管溫德爾·瓦拉赫(Wendell Wallach)和國際知名認知科學哲學家,美國印第安納大學布盧明頓分校教務長、講席教授、斯坦福哲學百科(SEP)副主編科林·艾倫(Colin Allen)認為,機器道德關(guān)乎人類的決策行為。他們在《道德機器:如何讓機器人明辨是非》中指出,不要把責任推給機器,“我們必須更加堅守人類的價值觀和倫理?!?/p>
我們置身于一個豐富多彩的世界,也生活在一個困惑和焦慮的時代?!叭祟悰Q策者會因為沒有掌握全部相關(guān)信息或沒有考慮到所有偶發(fā)事件而做出糟糕的選擇,所以也許只有在一場未預料到的災難發(fā)生之后,人類才會發(fā)現(xiàn)他們所依賴的(軟硬件)機器人的不完善?!闭缱髡咚?,在未來,可能會出現(xiàn)一些無人駕駛汽車需要做出選擇的場合—選哪條路,誰會受到傷害,或誰會處于受傷害的風險里?我們應該對汽車進行什么樣的道德規(guī)范?我們當然有理由擔心,我們也許不能完全理解為什么機器人做出了某個特別的決定。但是,我們需要確保機器人不會吸收和加重我們的偏頗之處。因為不管我們喜歡與否,機器人就在我們的身邊,“到2030年,自動卡車、飛行汽車和個人機器人將隨處可見”(斯坦福大學《2030年的人工智能與生活》報告),包括交通、醫(yī)療、教育、金融和就業(yè)等各個領(lǐng)域,人工智能正以人們意想不到的方式融入人類社會。那么,研究人員怎樣設計一臺機器人才能使它在面對“兩難之選”時作出正確的反應呢?
“機器需要講道德,”這是英國皇家標準協(xié)會(BSI)最新標準《機器人和機器系統(tǒng)的倫理設計和應用指南》(BS8611)的硬性規(guī)定。現(xiàn)代科技的每一次跨越,總會引發(fā)人們對社會倫理道德的憂慮。隨著機器人越來越智能和普遍,自動化機器終將在不可預知的情形下做出生死攸關(guān)的決定,從而具備—或至少表面上具備—道德主體資格?!鞍柗ü贰痹趯闹袘?zhàn)勝了李世石和柯潔,“一個純凈、純粹自我學習的AlphaGo Master是最強的,對于AlphaGo Master的自我進步來講,人類太多余了”(柯潔語),就像一只螞蟻永遠無法阻止我們一樣,人類想阻止人工智能的想法已經(jīng)不可能了。那么,如果有一天AI的能力超過人類,是否會反過來統(tǒng)治人類呢?包括霍金、馬斯克在內(nèi)的科技巨人都曾警示,“人類不應低估人工智能發(fā)展可能帶來的嚴重后果?!甭槭±砉W院情感計算研究組主任羅薩琳德·皮卡德(Rosatlind Picard)教授認為,“機器越自由,就越需要道德準則?!痹凇兜赖聶C器:如何讓機器人明辨是非》一書中,作者通過強調(diào)兩個維度—針對道德相關(guān)事實的自主性維度和敏感性維度,給出一個關(guān)于日趨復雜的AMAs(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。
機器的智能化正在逐步深入到生活領(lǐng)域:客機自動降落,列車無人駕駛,沒有方向盤、剎車和駕駛座位的無人駕駛的汽車正在緊張的測試中。但是,機器人之“人”終究不是人類之“人”,“如果人們不確定機器會做什么,他們會害怕機器人的……如果我們能分析并證明它們的行為原因,就更可能克服信任問題?!庇锲执髮W計算機科學家邁克爾·費希爾(Michael Fisher)和英國西部大學艾倫·溫菲爾德(Alan Winfield)教授共同做的一項政府資助的項目證明“道德機器程序的結(jié)果總是可知”的?!霸诋斍暗募夹g(shù)水平下,我們不能‘譴責’機器人。機器人尚未達到為自己的決策負責的水平。”薩塞克斯大學人工智能專家布萊·惠特比(Blay Whitby)認為,即使最低限度的道德機器人也是有用的。來自國際計算機科學家團隊的一項新研究著手開發(fā)一種新型的博弈算法—其可以依靠協(xié)作和妥協(xié)等特性來進行博弈,而且研究人員已經(jīng)發(fā)現(xiàn),機器已經(jīng)可以比人類更好地部署這些特性。作者認為,隨著機器變得更加復雜,一種“功能性道德”在技術(shù)上變得可能,它可以使機器自身有能力來接近并響應道德挑戰(zhàn)。
現(xiàn)代科技推動了人類社會進步,希望我們的結(jié)局不會像電影《黑客帝國》(The Matrix)里那樣—機器徹底推翻了人類的統(tǒng)治,人類的肉體被養(yǎng)殖,精神存活在網(wǎng)絡構(gòu)建的虛擬世界里—“人類迫切需要確保機器人的設計符合道德規(guī)范”,以維護人類的社會價值觀和社會倫理道德。在《道德機器:如何讓機器人明辨是非》中,作者不但很自然地導入“人類是否想要計算機做道德決策”,還將注意力轉(zhuǎn)向道德決策的具體執(zhí)行上。在作品中,作者以生動的案例勾勒出科學家和工程師必須向彼此所提供的東西,并詳細地描述了設計AMAs的自上而下式進路和自下而上式或發(fā)展的一個基本框架。其中,不僅討論了基于規(guī)則和基于責任的倫理學概念的可計算性與可實踐性,還論證了AMAs的不同程序化進路的優(yōu)勢和劣勢,然后以一種哲學和認知的復雜、周密的方式為工程AMAs做鋪墊,“至于未來的機器人是不是‘真的’道德主體,這無關(guān)緊要。我們有可能設計、建造出能夠考量法律和道德因素而去實施決策的系統(tǒng)……”