[摘要]發(fā)展可信人工智能,確保人工智能的安全、可靠、可控,是實現(xiàn)人機和諧的重要內(nèi)容。可信人工智能的發(fā)展要堅持科技向善的原則,在推動人工智能技術(shù)共同體建設(shè)的基礎(chǔ)上,確保人工智能技術(shù)的可解釋性。實現(xiàn)可信人工智能的關(guān)鍵是技術(shù)的安全性和可控性,從邏輯視角出發(fā),現(xiàn)代邏輯作為規(guī)則驅(qū)動的人工智能技術(shù),基于明確的因果規(guī)則,在發(fā)展可信人工智能技術(shù)中具有明顯的可解釋優(yōu)勢。應(yīng)充分發(fā)揮邏輯的驅(qū)動作用,將現(xiàn)代邏輯的推理機制應(yīng)用于人工智能的推理系統(tǒng),通過實現(xiàn)技術(shù)的交叉融合,積極探尋新時代背景下人機和諧發(fā)展的可能甚至法則,尋求人類和可信人工智能融合發(fā)展的多元路徑,使智能體系統(tǒng)能夠在開放的時態(tài)和動態(tài)環(huán)境中實現(xiàn)完美刻畫,確保人工智能技術(shù)的可信可控。
[關(guān)鍵詞]可信人工智能;邏輯視角;可解釋;規(guī)范邏輯
[作者簡介]付芳,南開大學(xué)哲學(xué)院博士生,河南財經(jīng)政法大學(xué)副教授。
人工智能已經(jīng)全面融入人類的生產(chǎn)生活,成為推動社會發(fā)展的重要力量。人工智能技術(shù)作為一把雙刃劍,在推動社會進步的同時,也帶來一定的風(fēng)險和挑戰(zhàn)。針對人工智能的發(fā)展所帶來的人機信任危機,2017年11月,何積豐院士在香山科學(xué)會議上首次提出可信人工智能(Trustworthy AI)的概念,其研究范疇涵蓋人工智能技術(shù)和應(yīng)用的可解釋性、安全性和公平性等問題,為我國發(fā)展可信人工智能指明了方向。
一、為什么要發(fā)展可信人工智能
1.人工智能技術(shù)的信任危機
人工智能是主要研究用于模擬和擴展人的智能的理論和方法、技術(shù)和應(yīng)用系統(tǒng)的一門新的科學(xué),發(fā)展人工智能技術(shù)是為了更好地造福人類。隨著人工智能技術(shù)融入人類社會的程度不斷加深,人工智能在為人類社會帶來發(fā)展機遇的同時,也給人類的生產(chǎn)生活帶來了一定的風(fēng)險和挑戰(zhàn),其在現(xiàn)實應(yīng)用中出現(xiàn)的不可解釋、安全性、公平性等問題,以及人們對人工智能未來發(fā)展的擔(dān)憂,使人們對可信人工智能技術(shù)充滿期待。目前,以深度學(xué)習(xí)為核心的人工智能算法遇到瓶頸,其存在的不可解釋、安全性等信任問題,很大程度上影響了人工智能技術(shù)的更新與推廣。人工智能技術(shù)存在利用3D面具合成照片進而破解人臉識別系統(tǒng)的問題、Uber自動駕駛汽車在行駛中未能及時識別而導(dǎo)致行人死亡等算法安全引發(fā)的風(fēng)險問題、黑箱模型導(dǎo)致的算法不透明問題、學(xué)習(xí)算法的結(jié)果受可能存在偏見歧視的訓(xùn)練數(shù)據(jù)影響而導(dǎo)致的智能決策偏見問題、人工智能在復(fù)雜情形下的智能決策引發(fā)的事故頻發(fā)且難以用現(xiàn)行法規(guī)界定事故的責(zé)任歸屬問題以及數(shù)據(jù)泄露導(dǎo)致的個人隱私安全問題等,這些人工智能技術(shù)在發(fā)展過程中出現(xiàn)的不可信任問題,迫切要求人類開展對可信人工智能的研究,以使人工智能技術(shù)能夠建立在可信任的基礎(chǔ)上,推動人機和諧發(fā)展。
2.技術(shù)發(fā)展推動對可信人工智能的需求
隨著人工智能技術(shù)的進化,智能系統(tǒng)的算法和算力水平得到大幅提升,人工智能技術(shù)給人們的生產(chǎn)生活方式帶來革命性變化,推動人類社會進入智能時代。智能科技推動社會發(fā)展的作用是巨大的,與此同時,其雙刃劍效應(yīng)日益凸顯,美國科學(xué)哲學(xué)家馬克斯·W.瓦托夫斯基(Marx W.Wartofsky)指出:“一方面知道科學(xué)是理性和人類文化的最高成就,另一方面又害怕科學(xué)業(yè)已變成一種發(fā)展得超出人類的控制的不道德和無人性的工具,一架吞噬著它面前的一切的沒有靈魂的兇殘機器。”[1](9)當(dāng)前,人工智能技術(shù)的“不確定性”威脅著社會的安全與穩(wěn)定,由神經(jīng)網(wǎng)絡(luò)算法主導(dǎo)的人工智能技術(shù)的不可追溯以及人工智能“算法黑箱”的不可跟蹤等問題,使人工智能在技術(shù)應(yīng)用中產(chǎn)生了信任危機,人們對可信人工智能的發(fā)展充滿期待,迫切希望擁有可信任的人工智能技術(shù),以更好地為人類服務(wù)。2018年10月,習(xí)近平總書記提出:“要加強人工智能發(fā)展的潛在風(fēng)險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控?!盵2]2019年6月,二十國集團(Group of 20,簡稱G20)提出要堅持以人為本、發(fā)展可信人工智能的“G20人工智能原則”,并得到國際社會的普遍認同。2019年10月,京東集團在烏鎮(zhèn)舉辦的世界互聯(lián)網(wǎng)大會上首次提出踐行“可信賴人工智能”的六大維度。同時,國內(nèi)第一本《可信人工智能白皮書》于2021年7月發(fā)布,提出了可信人工智能的發(fā)展框架,從實現(xiàn)可控可靠、可解釋性、公平性和隱私保護等方面提出可信人工智能的發(fā)展路徑。人工智能技術(shù)的發(fā)展推動人類社會進入智能化時代,與此同時,人工智能技術(shù)的廣泛應(yīng)用以及人們對人機和諧的追求不斷推動可信人工智能技術(shù)的發(fā)展。
3.可信人工智能的技術(shù)選擇
愛因斯坦提出,任何科學(xué)工作“都是從世界的合理性和可理解性這種堅定的信念出發(fā)的”[3](409-410)。在人工智能的研究中,符號主義、聯(lián)結(jié)主義和行為主義是其主要的技術(shù)路線,人工智能的三大技術(shù)路線,在不同時期明確了人工智能技術(shù)的發(fā)展方向,并在不同領(lǐng)域?qū)崿F(xiàn)了人工智能的技術(shù)進化。我們所熟知的阿爾法圍棋(AlphaGo)是聯(lián)結(jié)主義和行為主義相結(jié)合的技術(shù)路線,是深度學(xué)習(xí)和強化學(xué)習(xí)的結(jié)合體,其中深度學(xué)習(xí)屬于聯(lián)結(jié)主義,強化學(xué)習(xí)屬于行為主義,但是由深度神經(jīng)網(wǎng)絡(luò)主導(dǎo)的人工智能技術(shù)存在算法的不可跟蹤、“算法黑箱”等缺點,成為制約聯(lián)結(jié)主義人工智能發(fā)展的瓶頸。在人工智能的三大技術(shù)路線中,符號主義是最有利于發(fā)展可信人工智能的技術(shù)路線,其基于明確的因果規(guī)則,能夠由結(jié)論回溯找出相應(yīng)的原因,最大的優(yōu)勢在于具有可解釋性,這一特點正契合可信人工智能發(fā)展的技術(shù)需要。當(dāng)然,隨著技術(shù)的交叉融合,單一的技術(shù)路線很難適應(yīng)復(fù)雜的應(yīng)用需求,如何實現(xiàn)邏輯技術(shù)的可解釋優(yōu)勢與聯(lián)結(jié)主義和行為主義技術(shù)路線的交叉融合,是可信人工智能發(fā)展的迫切需求。
二、可信人工智能的發(fā)展策略
要發(fā)展可信人工智能,實現(xiàn)人工智能的安全、可靠、可控,須將發(fā)展策略貫穿在制度建設(shè)、技術(shù)保障、監(jiān)督反饋等全環(huán)節(jié),在堅持科技向善原則的基礎(chǔ)上,積極推動人工智能技術(shù)共同體建設(shè),充分利用現(xiàn)代邏輯技術(shù)的可解釋優(yōu)勢,確保人工智能技術(shù)的安全可信。
1.堅持科技向善的原則
縱觀人類社會的科技發(fā)展史,新技術(shù)特別是機器的出現(xiàn)通常會帶來兩種結(jié)果:一是大幅提升生產(chǎn)效率和提高生產(chǎn)力水平,這是技術(shù)發(fā)展的目的所在;二是生產(chǎn)效率的提升造成短期內(nèi)大量產(chǎn)業(yè)工人的失業(yè),這是技術(shù)革命必然導(dǎo)致的結(jié)果。人工智能技術(shù)的出現(xiàn)遵循同樣的發(fā)展規(guī)律。隨著人工智能的迅猛發(fā)展以及在應(yīng)用中的技術(shù)優(yōu)勢,人類社會的智能化程度不斷加深,同時,智能技術(shù)的發(fā)展代替了大量的人類勞動,引起對人工智能技術(shù)取代人類勞動的擔(dān)憂。在筆者看來,人類應(yīng)堅持科技向善的原則,使人工智能技術(shù)的發(fā)展具有安全性和可信任性,進而實現(xiàn)人機和諧發(fā)展。隨著社會的變化和技術(shù)的更迭,人類的適應(yīng)性特征總能依據(jù)環(huán)境的變化而作出相應(yīng)改變,同時,歷次對人類具有深遠影響的技術(shù)革命都是雙刃劍,它們在積極推動人類社會發(fā)展的同時,也會帶來一定的負面影響。在此過程中,我們更應(yīng)該看到技術(shù)革命的積極作用,人工智能技術(shù)越發(fā)展,其智能水平越高,智能機器逐步代替人的體力勞動和腦力勞動,必將給人類的生產(chǎn)生活方式帶來新的革命性變化。控制論專家諾伯特·維納(Norbert Wiener)認為,技術(shù)可以幫助人類發(fā)展,創(chuàng)造更公正的社會,但前提是人類必須控制技術(shù)[4](19-20)。對人工智能技術(shù)而言,堅持科技向善的原則,就是要推動可信人工智能的發(fā)展,確保人工智能在制度保障、技術(shù)研發(fā)、現(xiàn)實應(yīng)用等環(huán)節(jié)具備可信任的要求,實現(xiàn)人工智能的安全、可靠、可控,推動人類借助技術(shù)的力量實現(xiàn)自身解放和全面發(fā)展。
2.推動人工智能技術(shù)共同體建設(shè)
進入21世紀(jì),世界各國成為利益相關(guān)的命運共同體,要發(fā)展可信人工智能技術(shù),應(yīng)積極推動人工智能技術(shù)共同體建設(shè)??尚湃斯ぶ悄艿募夹g(shù)創(chuàng)新與現(xiàn)實應(yīng)用,要與世界先進科技的發(fā)展同步,堅持合作共贏,注重國際合作和技術(shù)共享。為積極推動可信人工智能的發(fā)展,應(yīng)在制度建設(shè)、體制機制、技術(shù)保障、算法安全等方面規(guī)范人工智能技術(shù)發(fā)展的標(biāo)準(zhǔn)和要求,確保能夠全方位推動可信人工智能的發(fā)展。美國國防高級研究計劃局提出可解釋的人工智能計劃,以積極應(yīng)對人工智能技術(shù)發(fā)展中的不可信任風(fēng)險和挑戰(zhàn)。2018年,歐盟發(fā)布《可信人工智能倫理指南草案》,強調(diào)人工智能的技術(shù)健壯性和倫理規(guī)范性,提出可信人工智能的發(fā)展框架、發(fā)展要求以及用于實現(xiàn)的技術(shù)和非技術(shù)性方法,并設(shè)計出一套相關(guān)的評估清單。2019年6月,我國發(fā)布《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》,要求人工智能技術(shù)發(fā)展須遵循安全可控、尊重隱私、共擔(dān)責(zé)任等原則,逐步實現(xiàn)人工智能的可信賴、可追溯和可監(jiān)督,不斷提升人工智能系統(tǒng)的可解釋性、可靠性和可控性,在推動人工智能技術(shù)共同體的建設(shè)中提升我國的可信人工智能技術(shù)水平,發(fā)展負責(zé)任的人工智能。因此,從人工智能技術(shù)共同體建設(shè)的角度出發(fā),我國發(fā)展可信人工智能技術(shù),需要融合世界各國先進的技術(shù)指標(biāo)和規(guī)范機制,堅持可信人工智能技術(shù)符合尊重人類自主、防止傷害、公平和可解釋性等基本的可信原則,確保技術(shù)安全可靠且符合普遍的倫理規(guī)范,推動可信人工智能技術(shù)標(biāo)準(zhǔn)的規(guī)范化和國際化。
3.確保人工智能技術(shù)的可解釋性
目前,智能系統(tǒng)尚且不能離開人類的技術(shù)干預(yù)進行自主思維,需要按照人類設(shè)計的程序作出相應(yīng)的智能行為和決策。為推動人機和諧發(fā)展,人類需要在技術(shù)發(fā)展過程中加強對未來人工智能系統(tǒng)的風(fēng)險控制,發(fā)展可信人工智能,確保人工智能技術(shù)的安全和可解釋性,做到智能系統(tǒng)的可靠可控、信息透明、技術(shù)可解釋以及數(shù)據(jù)保護等,使技術(shù)具有穩(wěn)定性、可解釋性、公平性等可信任特征,以更好地為人類服務(wù)。應(yīng)將技術(shù)的可解釋性作為技術(shù)可信的重要標(biāo)準(zhǔn),運用符號主義的技術(shù)路線或者將邏輯學(xué)工具融入聯(lián)結(jié)主義和行為主義的技術(shù)路線當(dāng)中,以提高技術(shù)的可解釋水平。目前的法律專家系統(tǒng)等規(guī)范技術(shù)比較完善,應(yīng)在此基礎(chǔ)上將規(guī)范技術(shù)運用到現(xiàn)有的智能系統(tǒng)中。隨著智能技術(shù)的更新和發(fā)展,技術(shù)能夠創(chuàng)造出違背人類意志而使人類難以接受的智能體,為防止類似的災(zāi)難發(fā)生,應(yīng)充分發(fā)展和利用道義邏輯、時態(tài)邏輯、認知邏輯等邏輯工具,積極發(fā)展人工智能道德技術(shù),正如MIT的情感計算研究專家羅莎琳德·皮卡德(Rosatind Picard)所指出的:“機器越自由,就越需要道德準(zhǔn)則?!盵5](18)歐美學(xué)界從20世紀(jì)70年代開始的技術(shù)哲學(xué)的倫理轉(zhuǎn)向,將道德價值融入技術(shù)設(shè)計成為技術(shù)哲學(xué)的一個重要內(nèi)容,進而實現(xiàn)技術(shù)與道德的有機融合。在可信人工智能的技術(shù)設(shè)計中,使智能系統(tǒng)按照正確方式作出智能行為和決策,可以從道德角度對智能系統(tǒng)的行為和決策進行規(guī)范與限制。維貝克提出將技術(shù)道德化,他認為應(yīng)把“技術(shù)作為道德行動者”[6](50-55),這為可信人工智能的技術(shù)設(shè)計提供了一種全新進路。為人工智能體設(shè)置道德規(guī)則,并以技術(shù)的方式嵌入智能系統(tǒng),通過有效的技術(shù)規(guī)范智能體的行為和決策,做到智能行為和決策的可信、可控。在已有的技術(shù)應(yīng)用中,從人-機互動研究中產(chǎn)生的價值敏感設(shè)計進路,是一種以理論為基礎(chǔ)的技術(shù)設(shè)計進路,通過有原則性利用各種技術(shù)體現(xiàn)人類的倫理價值,可以有效消除技術(shù)設(shè)計與倫理道德之間的隔閡,實現(xiàn)技術(shù)的規(guī)范化。
三、可信人工智能的邏輯驅(qū)動
人工智能科學(xué)與現(xiàn)代邏輯聯(lián)系緊密,計算機和人工智能的產(chǎn)生得益于現(xiàn)代邏輯的驅(qū)動,同時現(xiàn)代邏輯作為規(guī)則驅(qū)動的人工智能技術(shù),基于明確的因果規(guī)則,具有明顯的可解釋優(yōu)勢,是推動可信人工智能發(fā)展的主要技術(shù)路線之一,可確保人工智能技術(shù)的安全和可信。
1.發(fā)揮邏輯的可解釋作用
人工智能的產(chǎn)生得益于邏輯的驅(qū)動,“在人工智能的起源中,邏輯學(xué)是人工智能發(fā)展的動力;在未來,邏輯學(xué)依然是人工智能發(fā)展不可或缺的動力引擎”[7](89)。邏輯系統(tǒng)基于明確的因果規(guī)則,具有可解釋性和可追溯性等優(yōu)點,建立在符號主義基礎(chǔ)上的人工智能算法將會在可信人工智能發(fā)展中發(fā)揮積極作用。何積豐指出:“如果依賴人工智能技術(shù)作決策的話,應(yīng)當(dāng)保證決策是可解釋的,而且不能具備過高的安全風(fēng)險?!盵8](4)在人工智能的技術(shù)路線中,符號主義是一種基于邏輯推理的智能模擬方法,也被稱作規(guī)則驅(qū)動的人工智能技術(shù),這種進路包括決策樹、貝葉斯推理等典型算法模型。與人類思維相比,符號主義技術(shù)路線強調(diào)運用概念和語言表達對世界的理解,其構(gòu)建基于明確的因果規(guī)則,具有較好的可解釋性,可以通過檢測輸入的特定指標(biāo)變化對輸出結(jié)果產(chǎn)生的影響,實現(xiàn)智能系統(tǒng)的可驗證性,符號主義技術(shù)路線是發(fā)展可信人工智能最具優(yōu)勢的技術(shù)路線。
推理在智能系統(tǒng)的知識學(xué)習(xí)和世界理解中發(fā)揮著重要的作用,在人工智能系統(tǒng)的智能推理中,取得較大進展的主要有常識推理、因果推理、關(guān)系推理和直覺推理四種推理方式,人工智能中的常識推理、因果推理和關(guān)系推理,主要借鑒人的邏輯推理方式,其中因果推理包括演繹推理和歸納推理,而人工智能的直覺推理主要受人的直覺推理的啟發(fā)。在建構(gòu)人工智能算法的模型時,人工智能要實現(xiàn)智能強大并具備技術(shù)的可解釋性,需要智能機器模擬人的推理機制和建模世界,使智能系統(tǒng)具有依據(jù)學(xué)習(xí)到的知識和觀察到的現(xiàn)象進行推理的能力,進而作出可解釋的智能決策和行為。邏輯的形式化是人工智能形式化的基礎(chǔ),環(huán)環(huán)相接的變換序列很容易在機器上實現(xiàn),因此,人工智能的形式化主要是依據(jù)邏輯系統(tǒng)的形式化進行定義,由數(shù)據(jù)集和指令集構(gòu)成可執(zhí)行程序,當(dāng)實現(xiàn)了任務(wù)或問題的形式化,人工智能便可以依據(jù)執(zhí)行程序完成任務(wù)或者解決問題。形式化并非把指令在內(nèi)的一切實現(xiàn)數(shù)字化,而是通過編碼把數(shù)字在內(nèi)的一切變成符號。具體來講,形式化通過建立某種算法,并由計算機程序執(zhí)行,因此,從某種意義上說,形式化的界限即是人工智能的界限。隨著傳統(tǒng)邏輯在人工智能技術(shù)中的應(yīng)用和發(fā)展,在其基礎(chǔ)上發(fā)展出了計算邏輯。計算邏輯在形式上同時滿足邏輯和計算,它采用符號邏輯的技術(shù),建立其數(shù)學(xué)和計算的基礎(chǔ),是邏輯程序設(shè)計的主要驅(qū)動。在應(yīng)用上,哲學(xué)家蘇珊·安德森(Suson Anderson)和計算機專家邁克爾·安德森(Michael Anderson)設(shè)計的醫(yī)療倫理專家系統(tǒng)MedEthEx能夠進行初步的道德推理;他們設(shè)計的智能系統(tǒng)“源于案例的基于規(guī)則的行為范式”(Case-Supported Principle-Based Behavior Paradigm),主要應(yīng)用于機器人醫(yī)療護理領(lǐng)域,對智能系統(tǒng)的決策和行為進行倫理約束和限制,增強了人工智能系統(tǒng)的安全性和可信程度。
2.發(fā)展規(guī)范邏輯
現(xiàn)代邏輯中的可能世界語義學(xué)理論,是邏輯學(xué)家克里普克根據(jù)萊布尼茨“可能世界”的思想提出的,它適用于模態(tài)邏輯、道義邏輯、時態(tài)邏輯等多種邏輯學(xué)分支。道義邏輯中的“可能世界”,被認為是在法律和道德上的理想的世界,每個理想世界中的真命題,是人們應(yīng)該共同遵守的行為規(guī)范和倫理準(zhǔn)則。在可信人工智能的技術(shù)設(shè)計中,將人類遵守的法律和倫理以技術(shù)的方式融入人工智能系統(tǒng)的設(shè)計中,使人工智能系統(tǒng)的智能行為和決策能夠識別法律和倫理影響,進而遵守人類社會的法律和倫理規(guī)則,因此,人工智能道德的技術(shù)設(shè)計為可信人工智能技術(shù)的發(fā)展提供了全新進路。在運用道義邏輯等邏輯學(xué)工具開展人工智能系統(tǒng)的技術(shù)設(shè)計中,將行為類型與行為代碼建立聯(lián)系,智能系統(tǒng)通過參照形式化的行為規(guī)范進行智能計算,并依據(jù)交互信息作出最佳的規(guī)范行為和決策。例如,使用道義邏輯、歸納邏輯、信念邏輯或行動邏輯,對信息交互過程中保護個人隱私的允許、禁止等規(guī)范行為進行描述和推理。
在可信人工智能系統(tǒng)的技術(shù)設(shè)計中,邏輯進路通過對定理證明方法的理解應(yīng)用于導(dǎo)出公式,具有一定的可解釋優(yōu)勢。運用道義邏輯工具編寫程序構(gòu)建規(guī)范系統(tǒng),主要是構(gòu)建、刻畫與職責(zé)義務(wù)相關(guān)的概念和關(guān)系的邏輯系統(tǒng),在道義邏輯系統(tǒng)進行邏輯推理時,運用道義算子刻畫可能出現(xiàn)的情況,并使用一些新算子的規(guī)則進行運算表達。智能系統(tǒng)推斷出智能體應(yīng)該執(zhí)行哪種行為代碼,進而選擇與行為代碼相對應(yīng)的行為類型,作出相應(yīng)的智能行為和決策。在現(xiàn)實場景中,規(guī)范理論與道義邏輯相對應(yīng),除基本的邏輯系統(tǒng),需要對不同智能體在不同情形下的具體義務(wù)進行刻畫,規(guī)范理論不同,所指定的義務(wù)也不相同。將規(guī)范邏輯的推理機制應(yīng)用于人工智能的推理系統(tǒng)時,規(guī)范理論許諾一個全面的解決方案,規(guī)范準(zhǔn)則和要求通過自然語言得以清晰表達和刻畫,并被轉(zhuǎn)化為行為代碼嵌入智能系統(tǒng)?;谝?guī)則的系統(tǒng)被刻畫為形式系統(tǒng),推理機制從公理的小集合中通過多種組合推導(dǎo)出新的規(guī)則,規(guī)則用來確定智能系統(tǒng)的規(guī)范行為代碼是允許、禁止還是中立的,以此決定智能體的規(guī)范行為和決策。通常來說,規(guī)范準(zhǔn)則和要求需要有一套相應(yīng)的規(guī)則列表,每一組規(guī)則列表可以依據(jù)倫理理論、康德的道德律令、現(xiàn)行的法律或道德標(biāo)準(zhǔn)等,也可以結(jié)合技術(shù)人員的設(shè)計目標(biāo)和智能系統(tǒng)的具體應(yīng)用。規(guī)則列表可以轉(zhuǎn)換為算法,是一種需要明確規(guī)定允許、禁止還是中立的所有行為類型的任意集合,它可以是規(guī)則集合中的任一個規(guī)則元素,也可以是幾個規(guī)則元素的結(jié)合。
技術(shù)的安全性和可控性是實現(xiàn)可信人工智能的關(guān)鍵因素,斯圖爾特·羅素等人提出“人工智能必須做我們希望它們做的事”[9](106)。因此,要從技術(shù)層面實現(xiàn)可信人工智能,技術(shù)人員須從智能系統(tǒng)的證實性、有效性、安全性、可控性等方面保證人工智能的穩(wěn)健性。所謂證實性即正確地構(gòu)建系統(tǒng),證明系統(tǒng)滿足某些預(yù)期的形式屬性;有效性即構(gòu)建正確的系統(tǒng),確保滿足形式要求的系統(tǒng)不會產(chǎn)生超出預(yù)期的行為及后果;安全性即是要防止非授權(quán)人對智能機器的蓄意操控;可控性即要求預(yù)期任務(wù)能夠在人工智能系統(tǒng)運作時控制該系統(tǒng)。在此基礎(chǔ)上,技術(shù)設(shè)計要增強人工智能算法的透明性和可信度,并在技術(shù)應(yīng)用的整個過程中體現(xiàn)出人性化設(shè)計。
運用邏輯工具開展可信人工智能的技術(shù)設(shè)計,通常采取自上而下的進路??档碌牧x務(wù)論為自上而下進路應(yīng)用于人工智能道德提供了一種方案。這種進路主要基于一組既定規(guī)則來定義行為的道德性,在既定規(guī)則允許的情況下,人工智能系統(tǒng)才能采取某種行動。正如法律專家系統(tǒng)的技術(shù)路線,采取理論驅(qū)動的自上而下的進路對人工智能道德的程序設(shè)計同樣是一種有效的技術(shù)方式。在人工智能系統(tǒng)的設(shè)計中,預(yù)設(shè)的規(guī)范準(zhǔn)則、規(guī)則列表以及智能系統(tǒng)所執(zhí)行的規(guī)范行為和決策都是可預(yù)知的,通過行為代碼所刻畫的規(guī)范概念和關(guān)系,也能夠依據(jù)規(guī)則執(zhí)行相應(yīng)的行為和決策,因此,其安全性和可信度可以得到較好保障。發(fā)展可信任和負責(zé)任的人工智能,應(yīng)采取具有較強可解釋優(yōu)勢的自上而下進路,進而使人工智能的規(guī)范行為和決策與人類保持一致,確保人工智能的安全、可靠、可控。
在現(xiàn)實應(yīng)用中,采用自上而下的技術(shù)進路設(shè)計可信人工智能系統(tǒng),需要在理論研究和現(xiàn)實應(yīng)用中實現(xiàn)技術(shù)進化。以法律人工智能的應(yīng)用為例,人工智能在運用形式化表征的法律語言和數(shù)據(jù)方面具有強大推理能力,在基礎(chǔ)法律知識咨詢、司法數(shù)據(jù)提取與數(shù)據(jù)結(jié)構(gòu)化、法律文本分析等事務(wù)性或技術(shù)性的應(yīng)用方面,智能系統(tǒng)能夠按照數(shù)字邏輯規(guī)則進行推演,其推演能力隨算法和算力的加強而同步增強。法律人工智能是由感知智能到認知智能,再形成法律決策的技術(shù)機理過程。感知智能主要包含語音、圖像的識別與合成等智能化處理技術(shù),主要模擬人類的語言表達與聽覺、視覺的感知能力,屬于初階智能,其法律應(yīng)用主要有庭審語音的轉(zhuǎn)錄、圖像證據(jù)的識別等。認知智能主要包括自然語言表達、邏輯推理、語義理解和自主學(xué)習(xí)等高階智能,其主要在法律知識表達、法律文本分析、法律推理和法律論證等領(lǐng)域得以應(yīng)用。因此,將法律人工智能技術(shù)應(yīng)用于法律實踐,通過法律數(shù)據(jù)庫和知識庫構(gòu)建法律支撐層,運用智能語音識別、圖像識別與合成等感知技術(shù)構(gòu)建技術(shù)支撐層,利用認知技術(shù)對具體的法律任務(wù)生成司法應(yīng)用層,進而使法律人工智能技術(shù)在法律審判、訴服、管理和執(zhí)行等智能過程中得到應(yīng)用。在法律推理和法律論證中,形式理性具有主導(dǎo)作用,體現(xiàn)在司法推理和論證的具體過程中,法律人工智能技術(shù)中的形式理性引導(dǎo)智能系統(tǒng)進行法律推理和論證,表征法律實踐中的法律形式理性。通過邏輯符號對法律規(guī)范具有的邏輯構(gòu)造進行形式化處理,從一般的法律命題推演出具體的法律結(jié)論,使法律規(guī)范具有數(shù)學(xué)演算和法律解釋的形式特征。
運用規(guī)范邏輯等邏輯工具開展可信人工智能系統(tǒng)的技術(shù)設(shè)計,能夠很大程度上實現(xiàn)技術(shù)的安全、可信,但是在技術(shù)設(shè)計和現(xiàn)實應(yīng)用中也存在著一定的困難。首先,以符合可信任標(biāo)準(zhǔn)的規(guī)范理論為依據(jù)設(shè)計智能系統(tǒng),使其智能行為和決策能夠遵守規(guī)范理論的約束和限制,然而在面對復(fù)雜場景或者開放情形時,兩個或更多規(guī)范理論會出現(xiàn)規(guī)范沖突的情形,迫切需要從理論選擇以及技術(shù)設(shè)計上給出現(xiàn)實場景下決策生成時的無沖突規(guī)則。其次,智能系統(tǒng)運行的重要環(huán)節(jié)是建立行為類型和行為代碼的聯(lián)系,規(guī)范行為類型包含對行為的規(guī)范性概念和關(guān)系的有效界定,特別是對不同用途和目標(biāo)的智能系統(tǒng)設(shè)計,需要設(shè)計不同的行為類型集和相應(yīng)的規(guī)則列表,但是,規(guī)范行為類型和規(guī)則列表的清晰性,尤其在系統(tǒng)應(yīng)用中的執(zhí)行環(huán)節(jié),其相應(yīng)的行為代碼存在一對多映射的不清晰解釋,使得系統(tǒng)在程序執(zhí)行時面臨多種執(zhí)行結(jié)果或者無法執(zhí)行的結(jié)果,需要在系統(tǒng)設(shè)計時綜合運用偏好邏輯、非單調(diào)邏輯等邏輯工具予以解決。最后,在現(xiàn)實場景和開放情形下,可信人工智能系統(tǒng)要實現(xiàn)完美刻畫,需要隨著時間變化和場景改變而不斷更新,因此,智能系統(tǒng)中嵌入固定的行為代碼很難適應(yīng)智能體在動態(tài)環(huán)境中的交互,需要新的邏輯工具實現(xiàn)時態(tài)和動態(tài)環(huán)境中的完美刻畫,同時,實現(xiàn)符號主義、聯(lián)結(jié)主義和行為主義等技術(shù)路線的交叉融合將是未來可信人工智能研究的一個重要方向。
3.實現(xiàn)技術(shù)的交叉融合
從人工智能的現(xiàn)實應(yīng)用和未來發(fā)展趨勢來看,單一的技術(shù)路線已經(jīng)無法滿足人工智能技術(shù)對現(xiàn)實的應(yīng)用需求,多學(xué)派、多學(xué)科的交叉融合才能推動未來人工智能的進化和發(fā)展。人工智能的三大技術(shù)路線各具優(yōu)勢,目前基于神經(jīng)網(wǎng)絡(luò)間的連接機制和學(xué)習(xí)算法的聯(lián)結(jié)主義,因具有較強算力和較高的計算效率而頗受歡迎。發(fā)展可信人工智能技術(shù),人工智能系統(tǒng)的技術(shù)設(shè)計主要是在數(shù)據(jù)、機制、供應(yīng)鏈方面的中毒攻擊、對抗攻擊和后門攻擊,通過加入擾動和分布式模型訓(xùn)練而進行的基于差分隱私和聯(lián)邦學(xué)習(xí)隱私保護方法相結(jié)合的隱私保護技術(shù)設(shè)計以及體現(xiàn)個體公平性和群體公平性的技術(shù)設(shè)計,等等。然而,模型復(fù)現(xiàn)困難、復(fù)雜黑盒模型難以解釋等基于深度學(xué)習(xí)的可解釋性增強技術(shù)很難取得技術(shù)上的突破,其面臨著無法解釋系統(tǒng)所作出的結(jié)果的風(fēng)險,使得可信人工智能的技術(shù)設(shè)計逐步由單一技術(shù)路線向混合技術(shù)路線發(fā)展。
從人工智能的可解釋性角度出發(fā),發(fā)揮符號主義、聯(lián)結(jié)主義和行為主義三大技術(shù)路線的優(yōu)勢,推動融合發(fā)展,實現(xiàn)優(yōu)勢互補,將是未來可信人工智能研究值得探索的方向?;诳山忉尩目尚湃斯ぶ悄芟到y(tǒng)的建構(gòu),需要預(yù)設(shè)系統(tǒng)出現(xiàn)的給定行為,并能夠?qū)o定行為提供相應(yīng)的解釋,同時對對抗性情境進行限制。我國的第三代人工智能技術(shù),正是綜合運用知識、算法、數(shù)據(jù)、算力等技術(shù)手段,致力于解決由聯(lián)結(jié)主義技術(shù)路線帶來的不可解釋問題,進而實現(xiàn)未來人工智能技術(shù)的安全、可靠、可信。同時,為應(yīng)對人工智能技術(shù)的可解釋性訴求,使算法具備可解釋性,歐盟發(fā)布《通用數(shù)據(jù)保護條例》(GDPR),提出當(dāng)數(shù)據(jù)主體對決策過程和結(jié)果不滿意時,可以采取人工干預(yù)的方式對相關(guān)數(shù)據(jù)進行解釋。對智能系統(tǒng)進行可解釋性研究,檢測并糾正訓(xùn)練數(shù)據(jù)集中的偏差,同時通過對抗性干擾以促進模型的魯棒性,可以確認變量的意義以及確保模型推理中存在的潛在真實因果關(guān)系。
隨著人們對可信人工智能技術(shù)的追求,以符號主義為主的技術(shù)路線將促進人工智能技術(shù)和現(xiàn)代邏輯學(xué)的深度融合,推動現(xiàn)代邏輯學(xué)研究向廣度和深度發(fā)展。以歸納邏輯程序設(shè)計(ILP)為代表的計算邏輯[10],嘗試模擬人類的意識情感、思維和心理意圖等,是符號主義和聯(lián)結(jié)主義結(jié)合的產(chǎn)物,為建構(gòu)在復(fù)雜情況下的可信智能體系統(tǒng)的設(shè)計探索了一條有意義的路徑。安德森等人提出一種以案例為支撐、以原則為基礎(chǔ)的CPB行為范式,作為解決復(fù)雜情形時的抽象方法,其通過從大量案例中抽象出某個或者某些原則,決定最為可取的規(guī)范行動,用以指導(dǎo)智能系統(tǒng)采取下一步的行動。這種行為范式使用歸納邏輯的編程技術(shù),通過構(gòu)建一套道德困境的框架,發(fā)現(xiàn)滿足道德偏好的原則,并表征出用以證實和使用道德偏好原則的概念框架。對滿足道德偏好的原則要表述清楚,對選擇某一行為而不選擇另一種行為具有可解釋性,同時可以證明系統(tǒng)行為的正確性。
結(jié)語
可信人工智能技術(shù)的發(fā)展,應(yīng)基于可解釋的技術(shù)追求,堅持科技引領(lǐng),充分利用和發(fā)展規(guī)范邏輯、時態(tài)邏輯、動態(tài)邏輯、偏好邏輯等現(xiàn)代邏輯工具,并將邏輯的演繹推理和歸納推理功能與現(xiàn)行的技術(shù)路線實現(xiàn)交叉融合,增強技術(shù)的安全性和可解釋性,確保人工智能技術(shù)的安全、可靠、可控。同時,要關(guān)注技術(shù)的人文價值和社會價值,確保人工智能與人類的倫理對齊,在推動人工智能技術(shù)共同體發(fā)展的基礎(chǔ)上,積極尋求人類和可信人工智能融合發(fā)展的多元路徑,以人工智能技術(shù)的約束和限制機制推動可信人工智能的穩(wěn)步發(fā)展,積極探尋新時代背景下人機和諧發(fā)展的可能甚至法則。
[參考文獻]
[1]M.W.瓦托夫斯基.科學(xué)思想的概念基礎(chǔ)[M].范岱年,吳忠,金吾倫,等譯.2版.北京:求實出版社,1989.
[2]習(xí)近平.加強領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實基礎(chǔ)推動我國新一代人工智能健康發(fā)展[N].光明日報,2018-11-01(1).
[3]愛因斯坦.愛因斯坦文集:第1卷[M].許良英,李寶恒,趙中立,等編譯.北京:商務(wù)印書館,2010.
[4]CAVALIER R J. Impact of the Internet on Our Moral Lives[M].Albany,NY:State University of New York Press,2005.
[5]溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,主譯.北京:北京大學(xué)出版社,2017.
[6]VERBEEK P. Moralizing Technology:Understanding and Designing the Morality of Things[M].Chicago:Univer? sity of Chicago Press. 2011.
[7]陳曉華,杜國平.邏輯的引擎:人工智能的動力[J].河南社會科學(xué),2020,28(5).
[8]何積豐.智能制造與安全可信人工智能[J].信息安全與通信保密,2020(12).
[9]RUSSELL S,DEWEY D,TEGMARK M. Research Priorities for Robust and Beneficial Artificial Intelligence[J].AI Magazine,2015,36(4).
[10]KOWALSKI R. Computational Logic and Human Thinking:How to be Artificially Intelligent[M].Cambridge,UK:Cambridge University Press,2013.
(責(zé)任編輯:孫保學(xué))