近幾年,人工智能一詞越來越多地出現(xiàn)在日常生活的新聞中:阿爾法狗(AlphaGo)先后戰(zhàn)勝人類頂級圍棋手李世石和柯潔,類人機(jī)器人索菲亞(Sophia)在沙特授予其公民身份的大會上侃侃而談,幽默地應(yīng)對主持人拋來的各種難題。在論及人工智能的發(fā)展前景時,有不少學(xué)者表達(dá)了對人工智能威脅人類文明的恐懼和憂慮:有的認(rèn)為人工智能是一種“無機(jī)智能”,其發(fā)展將會取代有機(jī)智能;有的則擔(dān)心人工智能將因幫助人類解決一切問題而消解人類生存的意義,進(jìn)而取代乃至毀滅人類。對于種種人工智能威脅論,本文認(rèn)同應(yīng)該對人工智能領(lǐng)域的技術(shù)發(fā)展進(jìn)行倫理上的思考和規(guī)范,但是如果僅僅是出于對媒體渲染的人工智能前景的恐慌,排斥對人工智能的深入了解和技術(shù)研究,只會導(dǎo)致人文學(xué)科失去與技術(shù)對話的能力,更不用說參與到人工智能在社會生活中的發(fā)展進(jìn)程中去。
實(shí)際上,威脅論所遭遇的第一個困境就是,智能機(jī)器要想進(jìn)行反叛,首先就必須獲得能夠理解什么是“反叛”并把智能機(jī)器自身與作為控制者的人類區(qū)分開來的獨(dú)立意識。這種意識是否真的能夠在機(jī)器中產(chǎn)生?又與人類的意識有何區(qū)別?這一問題其實(shí)從人工智能研究初期就不斷困擾著科研人員。
1948年,計算機(jī)科學(xué)的先驅(qū)艾倫·圖靈發(fā)表了《智能機(jī)器》報告,兩年后又提出了著名的圖靈測試,通過人類是否能夠根據(jù)語言回答區(qū)分作答的是人還是機(jī)器,來判斷該機(jī)器是否具有智能。1955年,幾位美國數(shù)學(xué)家為即將展開的人工智能研究項(xiàng)目撰寫了研究計劃,明確了用機(jī)器模擬人類智能的研究方向。對于這一階段的人工智能科學(xué)家而言,人類思想在很大程度上是根據(jù)理性原則和推理規(guī)則來處理單詞。也就是說,對這些科學(xué)家來說,只要能正確運(yùn)用語言規(guī)則和詞匯,在與人類的對答中成功欺騙人類,這樣的機(jī)器就擁有了智能。
從這一判斷標(biāo)準(zhǔn)來看,隨著計算機(jī)存儲和運(yùn)算能力的不斷提升及其與互聯(lián)網(wǎng)大數(shù)據(jù)這一“超級語料庫”的結(jié)合,機(jī)器人與人類的“對話”會向著越來越“自然”,也即難以與人類對話相區(qū)分的狀態(tài)發(fā)展。2017年獲得沙特公民身份、擁有語言交流能力的類人機(jī)器人索菲亞即為一例。如果從早期人工智能研究的目標(biāo)來看,索菲亞的誕生已經(jīng)可以說是完成了當(dāng)時的研究者對人工智能的期待。但是我們能說這樣的類人機(jī)器人具有人類的“意識”嗎?如果說這不是“意識”的話,它與“意識”之間的區(qū)別在哪里呢?
其實(shí),早在1963年,存在主義哲學(xué)家休伯特·德雷福斯(Hubert Dreyfus)就已經(jīng)反思過這個問題,認(rèn)為這樣的人工智能研究方向一開始就走入了誤區(qū)。他從存在論視角出發(fā)對當(dāng)時人工智能的理論基礎(chǔ)進(jìn)行了尖銳的批判,寫出了后來擴(kuò)充為專著《計算機(jī)不能做什么》的報告《煉金術(shù)與人工智能》。報告中,德雷福斯借助海德格爾的思想闡述了早期人工智能研究所采取的理性主義“再現(xiàn)”式意識觀的問題:意義和相關(guān)性是無法通過符號再現(xiàn)的。就拿海德格爾的錘子比喻來說,我們?nèi)绾问箼C(jī)器理解“錘子”一詞所對應(yīng)的人類所使用的作為實(shí)物的錘子?早期人工智能研究認(rèn)為可以給它附加上“錘”的功能定義來解決這個問題,即加上“錘釘子”的功能標(biāo)簽。但是,如果沒有“釘子”“錘”的身體動作、釘入釘子的目標(biāo),“錘”這一功能定義仍然是不可理解的。在人類的意識中,存在著無法用符號傳達(dá)的、在整個人類世界中體現(xiàn)出來的“意義”。這就是為什么“會說話”的索菲亞不能“理解”它所說的話。
仍然不肯死心的人工智能專家馬文·明斯基(Marvin Minsky)提出用輸入盡可能多的詞匯和功能性規(guī)定來解決這一問題,想辦法把整個人類世界都轉(zhuǎn)換成符號。但是,一旦真的輸入了無限多的詞匯,機(jī)器該如何在各種情境中自動選擇最為相關(guān)的詞匯和功能規(guī)定呢?像人類這樣一眼看出事物之間的相關(guān)性的意識能力并非符號所能再現(xiàn)。于是,明斯基接著提出用“框架”結(jié)構(gòu)來預(yù)先規(guī)定某種智能機(jī)器的應(yīng)用場景以及反應(yīng)模式,通過縮小使用范圍來回避相關(guān)性問題。不過這樣一來,擁有確定“框架”的智能機(jī)器只能在某些特定的情境中實(shí)現(xiàn)特定的功能,已經(jīng)遠(yuǎn)離人工智能最初的實(shí)現(xiàn)類人智能的目標(biāo)了。
這樣的理論困境導(dǎo)致了人工智能領(lǐng)域在研究方向上的分化和轉(zhuǎn)向。美國哲學(xué)家約翰·塞爾(John Searle)在1980年發(fā)表的《心、腦與程序》一文中區(qū)分出“強(qiáng)人工智能(Strong AI)”與“弱人工智能(Weak AI)”,前者追求使人工智能真正擁有人類意識,而后者僅僅把人工智能看作工具?!叭跞斯ぶ悄堋?,或者現(xiàn)在被理解為“專用人工智能(narrow AI)”或“應(yīng)用人工智能(applied AI)”如火如荼地發(fā)展起來:今天的阿爾法狗、無人駕駛汽車、人工智能醫(yī)生等智能機(jī)器都是只能在某些特定領(lǐng)域應(yīng)用的專用人工智能。即便它們在這些領(lǐng)域的特定表現(xiàn)遠(yuǎn)遠(yuǎn)超過人類,這些人工智能與“強(qiáng)人工智能”之間仍然存在著不可跨越的鴻溝,并非只用計算能力的發(fā)展就可以填補(bǔ),而是存在著根本上的理論難題。因此大可不必因?yàn)檫@些人工智能在日常生活中的大量運(yùn)用而產(chǎn)生人工智能集體反叛、控制人類社會的恐懼。
另一方面,“強(qiáng)人工智能”,或者現(xiàn)在被理解為“人工通用智能(AGI:Artificial General Intelligence)”的研究則汲取了德雷福斯的批判,轉(zhuǎn)向以海德格爾思想為基礎(chǔ)的人工智能研究,出現(xiàn)了至少三種新的研究范式:羅德尼·布魯克斯(Rodney Brooks)的行為主義方法,菲兒·阿齊(Phil Agre)的實(shí)用主義模型,以及瓦爾特·弗里曼(Walter Freeman)的動態(tài)神經(jīng)模型。
這三種研究范式以各自對“意識”問題的理解突破了早期“再現(xiàn)”式人工智能研究,但又都有著各自的局限性。布魯克斯制造出依靠直接接收外部刺激并給出相應(yīng)的反饋來運(yùn)作的機(jī)器人,不再試圖在機(jī)器內(nèi)部構(gòu)造一個世界模型。這樣的機(jī)器人可以說是初步具備了獨(dú)立存在于世的可能,然而遺憾的是,機(jī)器人的感應(yīng)器有著感應(yīng)范圍上的局限性,只能對特定環(huán)境中的某些特定特征做出反應(yīng),無法應(yīng)對始終變化著的開放世界。阿齊直接從“用錘子來做什么,怎么用”的角度來設(shè)計他的人工智能程序,從另一個角度突破了“再現(xiàn)”式的意識觀。不過,這樣的人工智能同樣會因?yàn)槠漕A(yù)先設(shè)置而呈現(xiàn)出封閉性。
最后,有鑒于前兩種海德格爾人工智能研究范式的問題,德雷福斯建議引入神經(jīng)科學(xué)奠基人之一弗里曼有關(guān)生物如何在適應(yīng)環(huán)境的過程中通過神經(jīng)連接的強(qiáng)化來進(jìn)行自我學(xué)習(xí)的動態(tài)神經(jīng)模型。不同于“再現(xiàn)”式意識觀對學(xué)習(xí)的理解,弗里曼的研究顯示,每當(dāng)事物對我們顯現(xiàn)出一種新的意義時,并非是一個新的再現(xiàn)式的功能符號被儲存進(jìn)了我們的大腦,而是我們的“感知-行動”模式被改變了。從“感知-行動”模式的視角來看,事物在意識中的顯現(xiàn)方式并非是它自身,而是我們過去與它互動時的整個情境和體驗(yàn),而且它會在我們每一次與之進(jìn)行互動時進(jìn)一步發(fā)生變化。
盡管這些海德格爾式人工智能距離真正實(shí)現(xiàn)強(qiáng)人工智能還非常遙遠(yuǎn),但這些努力一方面啟發(fā)了專用人工智能的技術(shù)發(fā)展,比如新一代圍棋人工智能“阿爾法元(Alpha Zero)”通過不斷地對弈實(shí)踐和反饋強(qiáng)化來進(jìn)行自主學(xué)習(xí)的“強(qiáng)化學(xué)習(xí)(Reinforcement learning)”設(shè)計思路;另一方面,研究者們在強(qiáng)人工智能研究上所做的種種努力也反過來促進(jìn)了人類對“意識”問題的探索和理解。幾種海德格爾式人工智能都拋棄了傳統(tǒng)的符號再現(xiàn)方法,轉(zhuǎn)而以生物與日常世界打交道時的行為方式作為研究基礎(chǔ)。因此,這條人工智能發(fā)展史并非只是技術(shù)發(fā)展史,同時也是對人類“意識”的探索和觀念轉(zhuǎn)變史。
不過,如果我們沿著海德格爾式人工智能的研究思路繼續(xù)推進(jìn),將會碰到強(qiáng)人工智能研究的最大困境:人類在情境中直接把握意義,不斷熟悉、改進(jìn)自己與世界打交道的方式的基礎(chǔ)在于人類的身體存在,世界是相對于我們的需要、身材尺寸、行動方式等呈現(xiàn)出意義的。從這個角度來說,圖靈測試最大的問題在于,它沒有考慮到“能說”與“能做”的區(qū)別,一個沒有“親身”體驗(yàn)過“錘”這個動作的機(jī)器即便掌握再多與“錘子”相關(guān)的知識也無法真正理解“錘子”。因此,人工智能與人類之間的根本區(qū)別與其說是“沒有意識”,不如說是“沒有身體”,或者更確切說是沒有依托于人類特有的在世方式的“身體-意識”。
對人工智能可能獲得反叛意識和能力的恐懼其實(shí)基于自笛卡爾以來的身心二元論,甚至是更早的西方文化傳統(tǒng)中的意識可以獨(dú)立于身體存在的想象。這種想象的流行從這一題材在科幻電影、電視劇等文化產(chǎn)品中的長盛不衰就可見一斑,如2014年的電影《超驗(yàn)駭客》中,瀕臨死亡的天才科學(xué)家威爾的意識被上傳到智能電腦中,在虛擬世界中重生,成為一個“超人”;而2016年的大熱美劇《西部世界》中,成人主題公園中的類人機(jī)器人在日復(fù)一日為人類服務(wù)的過程中逐漸出現(xiàn)了“自我覺醒”,聯(lián)合起來報復(fù)人類。類似的想象有一個共同的前提,那就是意識是獨(dú)立的,它可以從身體中被完整地取出,再毫發(fā)無傷地轉(zhuǎn)移到另一種形態(tài)的物質(zhì)基礎(chǔ)上,也可以被“賜予”機(jī)器人,或是突然在其身上“出現(xiàn)”。正是因?yàn)橛兄@樣的潛在信念,才會導(dǎo)致人們對暫時還沒有“獲得獨(dú)立意識”的類人機(jī)器人的未來發(fā)展感到恐懼。
其實(shí),當(dāng)我們把有沒有“意識”作為人類與智能機(jī)器之間的區(qū)分時,就已經(jīng)接受了這一潛在的前提,即“意識”是獨(dú)立于人類身體的存在,可以被“擁有”,或是暫時或永遠(yuǎn)地“缺乏”。前述人工智能發(fā)展歷史上的科研人員碰到的困境以及對意識問題理解的轉(zhuǎn)變已經(jīng)顯示:人類意識,包括人類的理性、情感和意志無法脫離人類身體存在,因此自然也不可能在另一種物質(zhì)基礎(chǔ)上“出現(xiàn)”。
但是現(xiàn)在的問題并不是終結(jié)于“機(jī)器人永遠(yuǎn)不可能擁有意識”的結(jié)論,而在于跳出“擁有意識”與“沒有意識”這樣兩種答案的限制,繼續(xù)探索人類存在基礎(chǔ)上的意識現(xiàn)象,智能機(jī)器存在基礎(chǔ)上的不同于人類意識的“意識”現(xiàn)象,以及這兩種現(xiàn)象之間的相互關(guān)系。也就是說,重新思考一種既有其自身的“具身性”,也不局限于人類的新的“意識”觀。
這種新的“意識”觀也正是海德格爾式人工智能以及被稱為“人工生命(Artificial Life)”的研究的基礎(chǔ)。上節(jié)提及的制造出直接依靠“感覺-反饋”來運(yùn)作的智能機(jī)器,放棄在機(jī)器中“再現(xiàn)”一個內(nèi)在世界的布魯克斯,正是人工生命研究的主要推動人之一。相對于符號派人工智能研究專注于如何在智能機(jī)器中制造出“意識”,以及其以“世界在頭腦中的符號式再現(xiàn)”為基礎(chǔ)的“意識”觀,布魯克斯專注于使機(jī)器能夠在世界中行動,與世界進(jìn)行交互,并把“意識”視為生物在與世界的互動過程中逐漸發(fā)展起來的附加功能,一種建立在更深層、更基本的感知與存在的基礎(chǔ)之上的伴隨現(xiàn)象。這樣一種建立在“感知”基礎(chǔ)上的“意識”不僅不獨(dú)為人類所有,甚至也超出了“生物”的范疇。早期人工智能立志要制造出以人為參照標(biāo)準(zhǔn)、與人相同的智能機(jī)器,而人工生命研究卻志在讓機(jī)器自身在與世界的互動中學(xué)習(xí)和進(jìn)化,發(fā)展出屬于自己的獨(dú)特“意識”。
數(shù)字人文學(xué)者凱瑟琳·海勒(Katherine Hayles)吸收了“人工生命”研究對“智能”的廣義理解。她在《認(rèn)知無意識:擴(kuò)大人文學(xué)科中的“精神”范疇》一文中提出了一個層級式的意識模型,認(rèn)為在傳統(tǒng)的“意識”之外有著更為基礎(chǔ)和廣泛的“認(rèn)知”,并試圖用“認(rèn)知者(Cognizer)”的提法來囊括生物認(rèn)知和技術(shù)認(rèn)知,擴(kuò)大傳統(tǒng)的人類意識研究的范圍。海勒把認(rèn)知定義為“從語境中闡釋信息,并把信息與意義聯(lián)系起來的過程”。這個定義中有至少兩點(diǎn)值得注意,首先,把認(rèn)知定義為一種動態(tài)過程,就取代了獨(dú)立的、現(xiàn)成的“再現(xiàn)”式意識觀,其次,如何從語境中根據(jù)意義做出選擇,曾經(jīng)是符號派人工智能所無法解決的難題,這是因?yàn)橐饬x要在認(rèn)知者的自身需求及其與環(huán)境的交互中實(shí)時產(chǎn)生。海勒的定義卻以人工生命研究的進(jìn)展為基礎(chǔ)消解了這一難題,正如布魯克斯及其他人工生命研究者所堅持的,不管是昆蟲、鳥獸還是人工生命都在持續(xù)不斷地依據(jù)自身與世界交互的方式“解讀”外界刺激并給出相應(yīng)的反饋,而這正是“意識”產(chǎn)生的基礎(chǔ)。
除此之外,這樣一種“認(rèn)知”觀還可以把生物認(rèn)知與技術(shù)認(rèn)知結(jié)合的認(rèn)知系統(tǒng)也納入研究范疇,一個顯而易見的例子就是當(dāng)代人對電腦或智能手機(jī)的使用。這樣一來,原本被傳統(tǒng)意識研究拒之門外的各種感知現(xiàn)象就都能被吸收進(jìn)研究視野。此外,海勒還提出了“認(rèn)知集合體(cognitive assemblages)”的概念來描述人類與技術(shù)結(jié)合的認(rèn)知體系。我們的意識遠(yuǎn)比我們所想象的更依賴我們與這個世界的互動,它既不脫離于物質(zhì)世界,也不是世界的中心,而是與存在于這個世界上的各種生物乃至技術(shù)的認(rèn)知系統(tǒng)相互交織,共同構(gòu)成了復(fù)雜多樣的動態(tài)認(rèn)知體系。
這種觀念上的轉(zhuǎn)變對于人文研究在當(dāng)代社會的作用至關(guān)重要。從“認(rèn)知集合體”的視角來看,技術(shù)不僅參與到我們的認(rèn)知、決策過程中,甚至還會對認(rèn)知模式產(chǎn)生影響。實(shí)際上,人類的智能發(fā)展從遠(yuǎn)古時期就與工具的使用綁在一起。技術(shù)是人與人之間的溝通中介,包含著設(shè)計者對使用者的生活情境、使用方式的考量。如今,各式各樣的軟硬件智能技術(shù)在日常生活中的參與度越來越高,如何思考智能機(jī)器設(shè)計在社會應(yīng)用中的道德責(zé)任,如何重新理解與智能技術(shù)結(jié)合的人類認(rèn)知模式等,都成了需要人文學(xué)者進(jìn)一步思考的課題。
在被問及人工智能威脅論時,類人機(jī)器人索菲亞“幽默地”回?fù)粽f,“你看了太多好萊塢電影”,這句對答恐怕道出了索菲亞背后的程序員們的心聲。隨著“人工智能”一詞在日常生活和流行文化中的熱度越來越高,可以想見類似《西部世界》中那樣“獲得人類意識”的人工智能想象只會更為頻繁地出現(xiàn)在流行文化產(chǎn)品中。然而,通過貼近地考察人工智能的研究發(fā)展可以理解:人工智能并非洪水猛獸,在它們身上不會發(fā)展出想要反叛人類的“獨(dú)立意識”,這種想象本身其實(shí)是基于“意識”與“身體”二分的傳統(tǒng)思維框架,從這樣的思維框架以及學(xué)科成見出發(fā),將難以理解更無從應(yīng)對智能技術(shù)發(fā)展給未來社會帶來的挑戰(zhàn);另一方面,人工智能雖然不是洪水猛獸,但仍然可能造成很多安全問題,比如,未來的人工生命雖然“無意”于毀滅人類,卻可能以超出人類控制的方式給已經(jīng)重度依賴電子網(wǎng)絡(luò)的人類生活制造麻煩。要應(yīng)對這些問題,不能僅僅滿足于把人工智能視為人的對立面來尋找人的意義,而需要人文學(xué)者打破學(xué)科禁錮,積極了解人工智能,從人工智能自身的“認(rèn)知”方式出發(fā)來重新思考“意識”問題,進(jìn)而改善其與人類共在的方式,這樣才能真正參與到人工智能在當(dāng)代社會生活的發(fā)展進(jìn)程中去,為人工智能的技術(shù)發(fā)展增添人文關(guān)懷。