□ 文/劉言
我們置身于一個豐富多彩的世界,也生活在一個困惑和焦慮的時代?,F(xiàn)代科技的每一次跨越,總會引發(fā)人們對社會倫理道德的憂慮。就像一只螞蟻永遠無法阻止我們前進一樣,人類想阻止人工智能的想法也已經不可能了。人工智能正以人們意想不到的方式融入人類社會。“人類決策者會因為沒有掌握全部相關信息或沒有考慮到所有偶發(fā)事件而做出糟糕的選擇,所以也許只有在一場未預料到的災難發(fā)生之后,人類才會發(fā)現(xiàn)他們所依賴的(軟硬件)機器人的不完善。”
著名倫理學家、耶魯大學生物倫理學跨學科中心主管溫德爾·瓦拉赫與國際知名認知科學哲學家、美國印第安納大學教授科林·艾倫認為,機器道德關乎人類的決策行為。他們在《道德機器:如何讓機器人明辨是非》一書中指出,不要把責任推給機器,“我們必須更加堅守人類的價值觀和倫理”,我們需要確保機器人不會吸收和加重我們的偏頗之處。
“機器需要講道德,”這是英國皇家標準協(xié)會最新標準《機器人和機器系統(tǒng)的倫理設計和應用指南》(BS8611)的硬性規(guī)定。隨著機器人越來越智能和普遍,自動化機器終將在不可預知的情形下做出生死攸關的決定,從而具備—或至少表面上具備—道德主體資格。那么,如果有一天AI的能力超過人類,是否會反過來統(tǒng)治人類呢?包括霍金、馬斯克在內的科技巨人都曾警示,“人類不應低估人工智能發(fā)展可能帶來的嚴重后果?!?“機器越自由,就越需要道德準則?!痹诒緯校髡咄ㄟ^強調兩個維度—針對道德相關事實的自主性維度和敏感性維度,給出一個關于日趨復雜的AMAs(人工道德智能體)軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。
機器的智能化正在逐步深入到生活領域,但是,機器人之“人”終究不是人類之“人”。“在當前的技術水平下,我們不能‘譴責’機器人。機器人尚未達到為自己的決策負責的水平。”但作者認為,隨著機器變得更加復雜,一種“功能性道德”在技術上變得可能,它可以使機器自身有能力來接近并響應道德挑戰(zhàn)。
現(xiàn)代科技推動了人類社會進步,希望我們的結局不會像電影《黑客帝國》里那樣—機器徹底推翻了人類的統(tǒng)治,人類的肉體被養(yǎng)殖,精神存活在網(wǎng)絡構建的虛擬世界里—“人類迫切需要確保機器人的設計符合道德規(guī)范”,以維護人類的社會價值觀和社會倫理道德。在本書中,作者不但很自然地導入“人類是否想要計算機做道德決策”,還將注意力轉向道德決策的具體執(zhí)行上。在作品中,作者以生動的案例勾勒出科學家和工程師必須向彼此所提供的東西,并詳細地描述了設計AMAs的自上而下式進路和自下而上式或發(fā)展的一個基本框架。其中,不僅討論了基于規(guī)則和基于責任的倫理學概念的可計算性與可實踐性,還論證了AMAs的不同程序化進路的優(yōu)勢和劣勢,然后以一種哲學和認知的復雜、周密的方式為工程AMAs做鋪墊,“至于未來的機器人是不是‘真的’道德主體,這無關緊要。(作者堅信)我們有可能設計、建造出能夠考量法律和道德因素而去實施決策的系統(tǒng)……”