劉寶杰,姜 惠
(曲阜師范大學 馬克思主義學院,山東 曲阜 273165)
文森特·穆勒(Vincent C.Müller)是埃因霍溫理工大學(TU/e)的技術哲學教授,利茲大學的大學研究員和倫敦的Alan Turing 研究所的圖靈研究員,以及歐洲認知系統(tǒng)學會和“倫理,法律和社會經(jīng)濟問題”euRobotics 專題組主席。近年來,穆勒發(fā)表了40 余篇學術論文,并編輯出版了16 本著作,內(nèi)容涉及AI 和認知科學哲學、計算哲學、語言哲學、應用倫理學等方面。近年來,其研究聚焦于心靈、語言與計算哲學以及信息與計算倫理。
當前,新一輪科技革命正蓄勢待發(fā),各國紛紛進行顛覆性技術創(chuàng)新以搶占先機。從國際大環(huán)境看,顛覆性技術創(chuàng)新聚焦于一些關鍵領域,人工智能便是其中之一。當人工智能的研究人員去探索人工智能時,他們認為從哲學角度審視人工智能,是發(fā)展人工智能的必要一環(huán),穆勒也表明人工智能哲學將對人工智能的發(fā)展發(fā)揮指導作用。基于人工智能哲學的發(fā)展現(xiàn)狀,穆勒指出,人工智能哲學實際上已經(jīng)發(fā)生了一些新變化,并且主要體現(xiàn)在兩個方面,即:人工智能與認知科學相分離以及人工智能的長期風險在哲學研究中日益受到關注[1]2。
關于人工智能與認知科學的關系研究。在傳統(tǒng)觀點中,人工智能與認知科學之間恰似一枚硬幣的兩面。20 世紀80 年代,約翰·豪格蘭德(John Haugeland)提出了“有效的老式人工智能”(GOFAI),認為對符號表征的句法處理足以實現(xiàn)智能。[2]2如果認知是基于符號表征的計算過程,那么計算可以被認知科學發(fā)現(xiàn),然后由人工計算系統(tǒng)中的人工智能實現(xiàn)。[1]2在GOFAI 之后,穆勒指出,現(xiàn)在認知不再必須作為算法符號處理而存在,認知科學涉及“具身化理論”“動態(tài)理論”等,并且它趨向于尋找自己的發(fā)展道路,而不再附屬于人工智能。
關于人工智能長期風險的哲學分析。人工智能作為顛覆性技術,其應用和發(fā)展必然會對社會產(chǎn)生多樣的顛覆性影響,其中,人工智能所帶來的長期風險更是在哲學研究中引起廣泛關注。在這里,長期風險主要包含兩方面的理解。一方面,人工智能的應用使人類當前正面對著一系列風險挑戰(zhàn),這些現(xiàn)有的風險對人類的影響時間較久,就此而言,人工智能的風險是長期的。另一方面,人工智能的發(fā)展使人類未來將面臨新的風險挑戰(zhàn)。盡管一些人工智能在現(xiàn)實應用中并未完全暴露出其風險,但由于新興技術尚不完善,隨著人工智能的發(fā)展,新的風險將接續(xù)出現(xiàn),這也意味著人工智能的風險是長期風險??傊?,穆勒認識到人工智能風險的長期性,綜合考量人工智能的現(xiàn)有風險與潛在風險。
穆勒指出,當前人工智能哲學新發(fā)展中的一個主要變化就是,由于人工智能和認知科學的發(fā)展,人工智能與認知科學的關系呈現(xiàn)新變化。同時,穆勒認為,我們?nèi)绾慰创斯ぶ悄艿陌l(fā)展前景、如何看待人工智能與認知科學的新關系,這取決于我們?nèi)绾慰创约褐圃斓募夹g產(chǎn)品和人類自身,因為這些問題涉及技術功能和人類認知。因此,當我們重新審視二者之間的關系時,這在一定程度上意味著重新審視技術產(chǎn)品與人類之間的關系。[3]68
傳統(tǒng)的“計算主義者”認為,認知是對表征的計算,它可以在任何自然的或人工的計算系統(tǒng)中進行。[3]68認知科學通過其理論應用發(fā)現(xiàn)了自然的認知系統(tǒng)是如何工作的,而人工智能的工程學科則測試了認知科學的假設并將其用于發(fā)展人工認知系統(tǒng)的過程中。[1]2在這種傳統(tǒng)觀點中,人工智能和認知科學具有共同假設的哲學分析,二者相互聯(lián)系,這一觀點引起了人們對人工智能的哲學和理論探索興趣。但就目前來看,這一舊共識的大多數(shù)觀點都受到了強烈的沖擊:[3]68計算是數(shù)字化的;表征對于計算至關重要;有生命或是無生命主體間的區(qū)別已無關緊要;等等。
就人工智能發(fā)展歷程來說,在經(jīng)過1967 年至20 世紀70 年代初期的蕭條停滯期后,人工智能不斷走向蓬勃發(fā)展。此外,加上認知科學在當前的新發(fā)展,這兩方面的因素使穆勒認為“當前的人工智能似乎已經(jīng)終結了同認知科學間的特殊關系”[4]102,二者不再緊密結合。當前,穆勒指出認知主義找到了撤退和重組的方法,特別是當它涉及人工智能或人工認知系統(tǒng)的論題時,穆勒還特別以人工通用智能進行說明:如果我們一開始就假設智能主體是在給定的環(huán)境中通過選擇正確行為來實現(xiàn)其目標的主體,那么更智能的主體可以在更多的環(huán)境中實現(xiàn)其目標——這一考量提供了智能的一般衡量標準。[5]47因此,可以通過機器學習技法(machine-learning techniques)來實現(xiàn)人工通用智能,機器學習技法實質(zhì)上就是在給定某些輸入集的情況下優(yōu)化輸出。盡管原始模型中有類似于智能主體具有無限計算能力這樣的不真實的假設,仍然有大量項目意欲創(chuàng)建智能主體。在這里,穆勒指出了“行動選擇”問題(Problems of“Action-Selection”),具體而言,智能主體解決了“行動選擇”問題即“接下來我應該做什么”的問題,這是“建模-計劃-行動”的結果,也就是基于主體的認知主義的結果。但在穆勒看來,當前許多智能主體根本不進行“行動選擇”,例如耦合具身化系統(tǒng)中的被動動態(tài)助行器(the passive dynamic walker),它是一種不需要任何電子控制設備就可以行走的微型機器人,其行走取決于行走的路表狀況和助行器的機械參數(shù),并不需要助行器做出“行動選擇”,這就與認知主義并無關聯(lián)。而且,在對人工認知系統(tǒng)的探討中,穆勒對經(jīng)驗論題、實踐工程論題和概念論題做出判斷:具身認知的經(jīng)驗論題完全為真,實踐工程論題基本為真,而概念論題可能為假。[5]48這三個論題在邏輯上是各自獨立的,就此而言,人工智能與認知科學是相互獨立的。
此外,在對瑪格麗特·博登(Margaret Boden)《機器思維:認知科學的歷史》(Minds as Machine:A history of cognitive science)一書的書評中,穆勒更是直言:“認知科學死了,認知科學萬歲!”[6]124在穆勒看來,認知科學摒棄了原有的發(fā)展模式,逐漸開辟出新的發(fā)展路徑,它以認知心理學為主要形式,并與人工智能分離,而人工智能也已成為一門成功的工程學科,在很大程度上沒有任何關于認知的探索[6]124。
穆勒認為當前人工智能哲學的另一個主要新變化就是,人工智能哲學日益重視對人工智能的長期風險研究,并且穆勒也做出大量分析。其中,穆勒分別從就業(yè)、隱私和軍事等方面指出,人工智能使人類面臨著失業(yè)風險、隱私風險和安全風險。
人工智能可能激化未來全球范圍內(nèi)的失業(yè)問題。人工智能對就業(yè)的影響,一方面,人工智能會提供新的就業(yè)機會,另一方面,人工智能又會使勞動者失業(yè)。在人工智能對失業(yè)的影響這一問題上,盡管人們對此持悲觀、中立和樂觀三種態(tài)度,但三方都認為人工智能會造成大批勞動者失業(yè)。在穆勒看來,其一,由于人工智能的發(fā)展,智能機器人進入生產(chǎn)和生活領域,不斷排擠勞動者。例如,在健康護理行業(yè)中,護理機器人代替了大量的人類護理人員。其二,由于顛覆性技術是能夠破壞和替代現(xiàn)有技術的全新技術,其發(fā)展和應用必然需要新的技能,在人工智能領域內(nèi),勞動者若不按人工智能的技術新要求提高勞動水平,就將不幸成為失業(yè)者。其三,工業(yè)自動化取代了人的自然力,數(shù)字自動化取代了人的思想或信息處理,由于人工智能使信息技能自動化,目前勞動力市場上出現(xiàn)了“工作兩極分化”或就業(yè)結構“啞鈴狀”:高技能的技術性工作需求量大、工資高,低技能的服務性工作需求量大、工資低,但中等技能要求的工作(即絕大多數(shù)工作),由于具有相對可預測性且有固定規(guī)則,因此最有可能被自動化所取代,從事這些工作的勞動者大多會失業(yè)。穆勒總結道:“人工智能最終是否會導致失業(yè),取決于技術發(fā)展和社會反應?!保?]10隨著人工智能的發(fā)展,擺脫時間與空間的局限,人工智能在未來可能會加劇全球范圍內(nèi)的失業(yè)問題,因此說,人類面臨著失業(yè)風險。
人工智能增加了對個人進行數(shù)據(jù)收集和利用信息操縱行為的可能性。隨著新興技術的發(fā)展,人們的生活愈發(fā)信息化、數(shù)字化。一般來說,目前的數(shù)據(jù)都以數(shù)字化方式進行收集和儲存,后經(jīng)傳感技術轉(zhuǎn)化為新的信息和數(shù)據(jù)。例如,人臉識別系統(tǒng)借助大數(shù)據(jù)分析和人工智能算法,通過對照片或監(jiān)控系統(tǒng)中的人臉進行識別,從而實現(xiàn)對個人信息的搜索和分析。因此,從這個角度來說,人工智能極大地增加了數(shù)據(jù)收集、數(shù)據(jù)分析和監(jiān)視的可能性。而當前,越來越多的商業(yè)企業(yè)開始利用人工智能的這一效應,對顧客的信息進行訪問,以實現(xiàn)自己的經(jīng)濟利益。此外,“監(jiān)視中的人工智能問題不僅涉及對數(shù)據(jù)的收集和關注的方向,還包括使用信息來操縱行為”[7]6。雖然操縱行為由來已久,但在基于大數(shù)據(jù)分析的人工智能系統(tǒng)中,操縱行為有了新的發(fā)展。由于國家、企業(yè)和私人個體對個人信息和數(shù)據(jù)的掌握,用戶很容易受到欺騙,進而阻礙自主理性的行為選擇??傊?,人工智能及其應用在很大程度上對人類進行監(jiān)視,個人面臨著隱私風險。
人工智能在軍事中的應用使得安全風險增加。其一,借用斯派洛(Rob Sparrow)所假設的案例:機載自動武器系統(tǒng)在人工智能的指導下,仍會有意轟炸已表明投降意愿的敵軍。[8]304穆勒指出,人工智能應用于戰(zhàn)爭之中,戰(zhàn)爭機理隨之發(fā)生變化,存在各種不確定因素。同時人工智能尚未成熟,存在著較高的誤判概率,軍事安全得不到保障。其二,自主武器的使用,可能提高戰(zhàn)爭爆發(fā)概率和戰(zhàn)爭破壞程度。就小范圍的影響而言,一架裝載爆炸物的小型無人機就能夠搜索、識別、追殺一個部隊的人類。那么能夠自動識別和攻擊目標的常規(guī)巡航導彈,會在更大范圍內(nèi)造成破壞,特別是在人口稠密的地區(qū),人們的生命安全受到更大的威脅。其三,由于各國政治力量和人工智能發(fā)展水平不同,一方可以不受懲罰地攻擊另一方的不對稱性沖突已經(jīng)存在。這種不對稱性沖突,無論是發(fā)生概率抑或是破壞程度都較之以前有所提高,特別是對被攻擊一方而言,人民的生命安全受到威脅?!翱梢哉f,主要的威脅不是在常規(guī)戰(zhàn)爭中使用此類武器,而是在非對稱沖突中或由包括罪犯在內(nèi)的非國家機構使用。”[7]12
坐在沙發(fā)上的周澤贍無聊地換著電視頻道。換到播《動物世界》的頻道時,周澤贍停下了按鍵的手指,抱肩看起電視來,眼神卻沒有聚焦到屏幕上。周澤贍坐到靠近桌子的座機前,熟練地撥著號碼。
作為顛覆性技術的人工智能無疑給社會帶來新的發(fā)展和變革,其中,穆勒著重對人工智能及其發(fā)展所帶來的風險挑戰(zhàn)進行分析。以人工智能對就業(yè)、隱私和安全的消極效應分析為例,穆勒揭示了人工智能所帶來的社會問題、倫理問題和安全問題。
由于人工智能給人們的日常生活帶來許多威脅,不少人都主張禁止使用人工智能,特別是在致命自主武器系統(tǒng)(LAWS)這一領域,人們普遍反對人工智能的應用。不同的是,穆勒提出了“調(diào)節(jié)規(guī)范、而非禁止”[8]321的口號。針對人工智能所帶來的問題與挑戰(zhàn),穆勒強調(diào)各國政府和國際組織有責任規(guī)范人工智能及其應用,通過政策引導推進人工智能的健康發(fā)展及合理應用。
盡管已經(jīng)認識到政策制定的重要性,但穆勒同時指出,政策的實際制定及執(zhí)行存有一定難度,人工智能政策很有可能與經(jīng)濟政策等相矛盾。在政策制定時,一個重要的現(xiàn)實影響因素就在于政策制定的對象以及主體的構成。例如政府往往傾向于將決策委托給專家,而非更深入地吸收社會相關利益者,[7]4這就可能導致在政策指導后的人工智能仍然可能引起民眾反抗。因此,以“負責任創(chuàng)新”(RRI)的研究口號為鑒,像人工智能此類顛覆性技術的政策制定要充分考量社會相關利益者的情緒和建議。此外,穆勒強調(diào),在政策制定時應將法律和倫理分開考量,因為我們通常認為這兩方面在邏輯上是獨立的:某些特定合法行為仍然可能是不合倫理的,而某些特定合乎倫理的行為仍然可能是非法的。[9]138政策或規(guī)則同樣如此,如果我們接受了倫理規(guī)范,也并不意味著存在或應該存在法律規(guī)則,反之亦然。就此而言,在制定人工智能的相關政策時,穆勒建議采取法律和倫理分析兩個步驟。例如,基于人工智能在軍事領域中的風險分析,穆勒以LAWS 為例,對規(guī)范人工智能提出系列政策建議。
基于法律考量的LAWS 政策。一是建立國際LAWS 技術標準機構。LAWS 對國際人道法相稱原則的遵守首先應出于道德和政治判斷,然后再以技術規(guī)范表示。同時,全球技術發(fā)展的現(xiàn)實又要求建立國際標準機構來建立和維護這些規(guī)范。二是建立國家LAWS 技術標準和許可機構。建立國內(nèi)技術規(guī)范標準,并將國家或超國家監(jiān)管機構合并,使這些機構負責發(fā)放許可證并管理生產(chǎn)商。三是將戰(zhàn)爭罪行的法律條文擴展到LAWS 的非法使用。在建立國際和國家標準機構后,就需要法律約束來強制遵守。同時,法律應該擴展到LAWS 的非法使用,在這里,非法使用包括:部署不合標準的LAWS、使用不合標準的LAWS、故意不當或嚴重過失使用LAWS。四是與常規(guī)戰(zhàn)爭相比,LAWS 效應更優(yōu)時才允許被部署。當LAWS 符合國際人道法的相稱原則,且在戰(zhàn)爭中給人民帶來的風險小于常規(guī)戰(zhàn)爭給人民帶來的風險時,才可部署LAWS。五是僅在有令人信服的軍事理由時才允許使用LAWS 進行殺戮。由四可知,只有符合國際人道法,才可部署LAWS,而要在戰(zhàn)爭中使用LAWS,則需有令人信服的軍事理由。[10]3總之,穆勒基于法律維度的人工智能政策建議,兼顧了國內(nèi)國際的考量,包含了法律的制定完善與遵守。
基于倫理考量的LAWS 政策。就戰(zhàn)爭中是否可使用LAWS 這一問題上,大多數(shù)人持反對態(tài)度,也有基于結果論的人持支持態(tài)度。而穆勒基于正義戰(zhàn)爭理論所假定的權利的非總體結構,在倫理維度表明了LAWS 使用的允許性。[8]302在這里,穆勒引入了“容忍度”(tolerance level)的規(guī)范性概念,它實際指的是倫理上要求的技術的可靠性程度。在實踐中,容忍度通常與一個系統(tǒng)執(zhí)行其功能的特定條件相關,[8]307并且設定容忍度需要解決風險倫理的一系列問題。在以上規(guī)定之下,穆勒做出論述:在LAWS 中,殺手機器人的可靠性是針對各個任務分別定義的,因此,殺手機器人應當是以充分的可靠性來執(zhí)行其功能的工程系統(tǒng)。[8]310在設計殺手機器人時,容忍度的要求之一就是需要定義殺手機器人僅在攻擊合適的目標時應達到的可靠性程度,而在倫理方面最重要的關注點就在于攻擊目標的選擇。殺手機器人若在目標選擇時出現(xiàn)了偏差,就可能導致嚴重的后果,即無辜的人在這場戰(zhàn)爭中受到攻擊。因此,穆勒建議,必須首先確定LAWS 的容忍度,并且僅在經(jīng)過全面的測試和檢查之后才能使用LAWS。
總之,穆勒對人工智能的政策建議是針對人工智能的風險而提出,目的是盡可能通過政策引導來減少人工智能所帶來的風險。
在穆勒看來,目前關于人工智能未來的討論主要存在三個方向:[3]68-69一是基于技術進步,人工智能將實現(xiàn)新發(fā)展,這一方向與機器超越人類智能的“奇點”概念相關。二是未來人工智能將拋棄傳統(tǒng)形象,特別是通過拒絕表征、強調(diào)主體的具身化以及對屬性的“出現(xiàn)”。三是人工智能在其他領域獲取新發(fā)展。一種方法是從神經(jīng)科學開始,著力于動力學系統(tǒng),并試圖在認知系統(tǒng)中比經(jīng)典認知科學建模更多的基本工程。其他方法則是顛覆“主體”的概念,并在更廣泛的系統(tǒng)中發(fā)現(xiàn)智能。三個方向的討論都體現(xiàn)著人工智能不斷革新發(fā)展的趨勢,并且穆勒認為人工智能取得的大部分進步,都可以歸因于速度更快的處理器和更大的存儲量。
面對未來“超級智能”的風險,應該怎樣對待“超級智能”?對此,穆勒又分析了“控制超級智能”的問題[7]17:從狹義上講,“控制問題”是指一旦人工智能系統(tǒng)變?yōu)椤俺壷悄堋?,那么我們?nèi)祟悜撊绾卫^續(xù)控制它。這里涉及,我們應將其限制在各種“盒子”內(nèi),還是應對其某些方面做出硬性規(guī)定,抑或是防止它忽略人類意圖······?從廣義上講,“控制問題”是指我們?nèi)绾尾拍艽_保人工智能系統(tǒng)對人類而言是積極意義上的系統(tǒng),這時常被稱為超級智能的“價值對齊”(value alignment),后來梅內(nèi)爾(Hadfield Menell)將其正式定義為“協(xié)同反向強化學習”(cooperative inverse reinforcement learning)??刂瞥壷悄艿碾y易程度很大程度上取決于從人類控制的系統(tǒng)到超級智能系統(tǒng)的發(fā)展速度,這引起了人們對具有自我完善能力的系統(tǒng)的特別關注。穆勒還認識到,未來超級系統(tǒng)極有可能會產(chǎn)生人類無法預料的負面效應,這對“控制超級智能”而言是一個極大挑戰(zhàn)。而且更糟的是,當人工智能超過人類的智能水平,“這似乎暗示著,即使我們對它有了豐富的認識,但它仍然是深不可測、不可控制的”[12]300。
近年來,穆勒將研究視點聚焦于顛覆性技術(尤以人工智能為重點),并取得了豐碩的研究成果。他在人工智能哲學上的貢獻主要在于:首先,針對當前人工智能哲學發(fā)生的新變化,穆勒對其中兩個主要變化進行了分析。其一,隨著人工智能與認知科學的發(fā)展,穆勒指出二者逐漸分離,不再是一枚硬幣的兩面。其二,人工智能的風險在哲學研究中日益受到關注,對于此問題,穆勒主要分析了人工智能給人類帶來的失業(yè)風險、隱私風險和安全風險。繼而,穆勒基于對人工智能風險的分析,主張對人工智能進行政策干預以實現(xiàn)人工智能的健康發(fā)展。其中,穆勒強調(diào)政策規(guī)范應充分考慮社會相關利益者的情緒和建議并將法律維度和倫理維度分開考量。其后,穆勒對人工智能的未來發(fā)展進行展望,指出人工智能在發(fā)展的同時也將給人類帶來風險,穆勒對此的態(tài)度為“控制超級智能”。但同時他也認識到,實際上,“控制超級智能”對人類來說也是一項挑戰(zhàn)??傊吕諏θ斯ぶ悄苷軐W的研究已經(jīng)呈現(xiàn)出清晰的邏輯進路。
然而,縱觀穆勒對人工智能的哲學研究,穆勒尚未從價值維度對人工智能的發(fā)展目標做出規(guī)范,如穆勒的研究并未涉及人工智能是否可發(fā)展成為具有人性化、公平性、安全性等價值的人工智能。在人工智能給人類帶來巨大風險挑戰(zhàn)的情況下,建構什么樣的人工智能實際上是人工智能哲學中的必要一問,在一定意義上也是人工智能研究的出發(fā)點和落腳點。對待這一問題,除了基于人工智能技術本身,更應該從公眾、政府、國際社會等角度去探索人工智能的建構方向,使人工智能造福人類。此外,在穆勒的現(xiàn)有研究成果中,也存在可待商榷之處。
在人工智能的政策規(guī)范問題中,穆勒強調(diào)在政策制定時應將法律和倫理分開考量。誠然,人們通常認為法律和倫理各自具有獨立性,但這樣的政策在引導人工智能的發(fā)展時,法律和倫理間的矛盾沖突并未得到根本解決,因為當一項人工智能技術在基于法律考量的政策引導下進行應用時,它仍有違背倫理的可能性,反之亦然。因此,無論是在人工智能的哲學研究中,還是在人工智能的實際應用中,我們需要去探索如何盡可能地使人工智能政策實現(xiàn)法律與倫理的有機結合。
關于人工智能的未來發(fā)展,根據(jù)穆勒的調(diào)查問卷結果,被調(diào)查者基本上對人工智能的發(fā)展持樂觀態(tài)度。這主要體現(xiàn)在,一是人們基本認為人工智能未來會發(fā)展為“超級智能”,只不過在實現(xiàn)時間上存在著不同看法,二是僅有30%左右的被調(diào)查者認為人工智能的未來發(fā)展對人類將產(chǎn)生“壞”或“極壞”的影響。針對這一調(diào)查問卷及結果,需要認識到的是,穆勒設置的調(diào)查對象是550 位人工智能及相關領域的專家,這使得該調(diào)查具有一定的專業(yè)性,但同時也使得基于該調(diào)查的研究缺乏一定的完整性,特別是忽視了群眾、決策者等人的多樣化態(tài)度。從這一角度講,穆勒基于該調(diào)查所做的研究具有較強的人工智能專業(yè)性,但同時也具有一定的狹隘性。此外,穆勒提出要“控制超級智能”,并強調(diào)這對人類而言也是一種挑戰(zhàn),而在當前穆勒還未進一步說明如何“控制超級智能”的問題。因此,在筆者看來,穆勒未來可就“控制超級智能”做出進一步研究,以完善當前論題。