孫永丹 鄧輝文
([1]西南大學(xué)邏輯與智能研究中心 重慶 400715;[2]西南大學(xué)計算機(jī)與信息科學(xué)學(xué)院 重慶 400715)
毫無疑問,當(dāng)前最火的人工智能技術(shù)當(dāng)屬深度學(xué)習(xí)。然而正當(dāng)深度學(xué)習(xí)技術(shù)幾乎等同于人工智能之時,對于深度學(xué)習(xí)的批評也不絕于耳。這些批評中,比較著名的有UCLA教授朱松純批評深度學(xué)習(xí)技術(shù)是“大數(shù)據(jù)、小任務(wù)”,紐約大學(xué)教授馬庫斯(Gary Marcus)不僅批評深度學(xué)習(xí),更提出發(fā)展強(qiáng)大人工智能的四個步驟,清華大學(xué)人工智能研究院院長張鈸教授則提出需要超越深度學(xué)習(xí),打造第三代人工智能。
那么,深度學(xué)習(xí)有沒有前景,未來人工智能應(yīng)該如何發(fā)展,這就是本文試圖解決的問題。本文立足于對深度學(xué)習(xí)的反思,從哲學(xué)角度探討未來人工智能應(yīng)該如何發(fā)展,需要解決何種問題。
盡管人工智能是一個工程性很強(qiáng)的科學(xué),但是同樣需要人文科學(xué),特別是哲學(xué)的參與。筆者的觀點主要有以下三點:
人工智能——這一新概念是約翰·麥卡錫(JohnMcCarthy)1956年首先提出的,提出的目的是為了讓機(jī)器擁有人類的智能。但是這需要回答一個根本性的問題,那就是人類智能的本質(zhì)是什么?
對于人類智能的本質(zhì),這是一個眾說紛紜,難以形成共識的問題。比如,圖靈獎得主Yann Le Cun與美國工程院院士Jeff Hawkins認(rèn)為是預(yù)測力,而美國天普大學(xué)計算機(jī)與信息科學(xué)系教授王培認(rèn)為是對環(huán)境的適應(yīng)力,此外,還有的學(xué)者認(rèn)為是推理能力、學(xué)習(xí)能力、抽象能力等等。正因為對智能本質(zhì)難以形成共識,因此讓人工智能擁有人類智能的哪一個方面,人類智能中的哪一個能力,這成了一個不確定性的問題。
如果你認(rèn)為人類智能的本質(zhì)是大腦,那么你的研究路徑就是去研究人類大腦是如何工作的,并通過大數(shù)據(jù)去訓(xùn)練出一個神經(jīng)元網(wǎng)絡(luò),這就是深度學(xué)習(xí),也就是聯(lián)結(jié)主義的思路;如果你認(rèn)為人類智能的本質(zhì)是推理與判斷,那么你的研究路徑就是去研究知識表征與邏輯推理,并通過知識庫與推理規(guī)則去建構(gòu)一個公理系統(tǒng),這就是符號主義的思路。
人工智能研究有幾千種不同的技術(shù)路線,但絕大部分技術(shù)路線可歸結(jié)為這兩種人工智能經(jīng)典思路,每一種思路之下的人工智能技術(shù)路線都遵循相同的基本原理,也面臨相同的局限性。復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾認(rèn)為,正因為人工智能研究對象的不確定性,人工智能需要對其它學(xué)科具有很強(qiáng)的包容性,而哲學(xué)正是一個對其它學(xué)科極具包容性的學(xué)科,因此,從包容度來講,需要從哲學(xué)視角來討論人工智能。
這些年有很多專家在不同層面反思深度學(xué)習(xí),根據(jù)筆者的梳理,主要有兩個層次:一個是工程學(xué)層次,主要從數(shù)理建模層次反思,比如有中國科技大學(xué)計算機(jī)學(xué)院教授陳小平,以及清華大學(xué)計算機(jī)系教授的張鈸院士等。
另外一層則是哲學(xué)層次,主要從認(rèn)知科學(xué)與哲學(xué)層次反思,比如有澳大利亞哲學(xué)家查爾莫斯(DavidChalmers)與美國認(rèn)知科學(xué)家侯世達(dá)(DouglasHofstadter)、馬庫斯,以及復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾等等。
總體來看,這兩種層面的反思各有利弊:工程學(xué)層次的反思,均有正在進(jìn)行的研究項目作為支撐,因此操作性強(qiáng),但是難以擺脫就事論事,頭疼醫(yī)頭,腳疼醫(yī)腳的弊端。而哲學(xué)層面的反思,優(yōu)點是跳出人工智能視角分析人工智能,并從深厚的哲學(xué)中吸取思想,因此非常具有前瞻性,可以一眼看出某一人工智能路徑的哲學(xué)預(yù)設(shè),并判斷其發(fā)展前景,同時也能在人工智能發(fā)展陷入低谷時給一些啟示與指導(dǎo)。筆者的建議是,對深度學(xué)習(xí)的反思,一方面固然要立足于哲學(xué)視角,另一方面也要立足于工程學(xué)視角,只有把這兩種視角相互融合,我們的反思才具有前瞻性與可操作性。
反思深度學(xué)習(xí),不能僅僅站在深度學(xué)習(xí)的視角就事論事,而應(yīng)該站在整個人工智能研究的角度來反思。如何實現(xiàn)人工智能,當(dāng)前有兩種基本觀點:
2.1.1 符號主義
符號主義(Symbolicism)立足于符號的邏輯推理,盡管在證明數(shù)學(xué)定理領(lǐng)域取得了巨大成績,但符號主義也存在明顯的局限性,主要局限有三條:其一是封閉性問題。目前已有的方法只能解決完全信息和結(jié)構(gòu)化環(huán)境下的確定性問題,而人類的決策等都是在信息不完全和非結(jié)構(gòu)化環(huán)境下完成的。其二是表征問題?,F(xiàn)實世界是一個高度模糊、不確定的世界,而符號表征需要確定與精確,這一矛盾根本難以協(xié)調(diào)。其三是常識問題。常識如何獲取、表達(dá)和推理對于符號主義是一個巨大的難題。
2.1.2 聯(lián)結(jié)主義
聯(lián)接主義(Connectionism)本質(zhì)上模擬人類的大腦,通過大量數(shù)據(jù)來訓(xùn)練和調(diào)整神經(jīng)網(wǎng)絡(luò),從而得到一個新模型。聯(lián)結(jié)主義的優(yōu)勢在于,繞開了符號主義難以處理的表征與建模問題,在數(shù)據(jù)充足,并且有較高質(zhì)量的前提下,能夠在圖像分類識別、下圍棋等領(lǐng)域的表現(xiàn)超過人類,這是在近年來聯(lián)結(jié)主義受到青睞的重要原因。然而,聯(lián)結(jié)主義也面臨諸多困境,遭受到很多批評。對聯(lián)結(jié)主義的批評主要有以下三類:第一是魯棒性?,F(xiàn)有深度學(xué)習(xí)方法的有效性對數(shù)據(jù)的數(shù)量與質(zhì)量又非常高的要求,一旦出現(xiàn)異常問題時,其有效性將大幅度下降,因此深度學(xué)習(xí)具有脆弱性與不安全性。第二是深度學(xué)習(xí)的“黑箱”性質(zhì)。也就是深度學(xué)習(xí)不能被理解;第三是對大數(shù)據(jù)的依賴。與三十年前相比,深度學(xué)習(xí)現(xiàn)代人工神經(jīng)網(wǎng)絡(luò)并沒有本質(zhì)上的進(jìn)步,之所以發(fā)展如此之快的原因,一方面是大數(shù)據(jù)的飛速發(fā)展,另一方面是計算機(jī)算力的指數(shù)級增加。
當(dāng)前兩種范式的人工智能,分別將智能的本質(zhì)理解為符號推理與經(jīng)驗學(xué)習(xí),從而開創(chuàng)了符號主義與聯(lián)結(jié)主義——兩種不同的研究路徑。
2.2.1 符號主義背后的哲學(xué)預(yù)設(shè)
符號主義繼承了發(fā)源于古希臘的理性主義。這種思維在科學(xué)史上有諸多代表性學(xué)者和成就,如亞里士多德的公理化邏輯、萊布尼茲和牛頓的數(shù)學(xué)分析、羅素的邏輯主義思想等等。
2.2.2 聯(lián)結(jié)主義背后的哲學(xué)預(yù)設(shè)
建立在人工神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上的聯(lián)結(jié)主義人工智能則跟經(jīng)驗主義相關(guān)聯(lián)。典型代表是深度學(xué)習(xí),深度學(xué)習(xí)來源于神經(jīng)網(wǎng)絡(luò),而神經(jīng)網(wǎng)絡(luò)是一種模仿人腦神經(jīng)結(jié)構(gòu)與功能的信息處理系統(tǒng)。當(dāng)人工智能通過無監(jiān)督學(xué)習(xí)積累海量的數(shù)據(jù)后,通過海量的訓(xùn)練讓目標(biāo)函數(shù)取得最優(yōu)值來建立模型,這個模型就通過經(jīng)驗數(shù)據(jù)的學(xué)習(xí)具有一定的智能水平。
人工智能在模擬人類智能時,不管是理性主義的哲學(xué)預(yù)設(shè),還是經(jīng)驗主義的哲學(xué)預(yù)設(shè),歸根到底都是認(rèn)識論問題。那么,人工智能認(rèn)識論與人工智能研究路徑,這兩者是什么關(guān)系呢?筆者的觀點是,這兩者是相互支持、相互驗證、相互促進(jìn)的。人工智能研究要取得突破性進(jìn)展,不僅需要技術(shù)上的突破,也需要認(rèn)識論調(diào)和與突破。
認(rèn)識論的歷史,幾乎就是理性主義與經(jīng)驗主義相互論戰(zhàn)的歷史。雙方論戰(zhàn)幾百年之久,直到康德(ImmanuelKant,1724—1804)的出現(xiàn)。康德在《純粹理性批判》中提出了一套調(diào)和經(jīng)驗論和唯理論的思想。澳大利亞哲學(xué)家查爾莫斯(David Chalmers)與美國認(rèn)知科學(xué)家侯世達(dá)(Douglas Hofstadter)等人聯(lián)合撰寫的論文《高階知覺、表征和類比——對于人工智能方法論的批評》就頗有參考價值。
文章結(jié)尾部分有一段評論直接和康德相關(guān):
兩百年前,康德提出概念和知覺之間存在著一種密切的聯(lián)系:
沒有知覺的概念是空的。人工智能的研究常常試圖在忽略感知的情況下為概念建模。但正如我們所見,高級知覺過程是人類認(rèn)知能力的核心。沒有建立適當(dāng)表征的過程,認(rèn)知就無法成功。
沒有概念的知覺是盲目的。我們對任何給定情況的感知都受到來自概念層面的持續(xù)自上而下的影響的引導(dǎo)。如果沒有這種概念的影響,由這種感知產(chǎn)生的表征將是僵化的,不靈活的,無法適應(yīng)許多不同的上下文提供的問題。
事實上,不管是阿爾法狗的成功,還是馬庫斯提出的強(qiáng)大人工智能系統(tǒng),基本上遵循了康德的思路,也就是將概念與知覺聯(lián)系起來,將理性主義與經(jīng)驗主義調(diào)合起來,具體到人工智能領(lǐng)域,就是將符號主義與聯(lián)結(jié)主義調(diào)和起來。
根據(jù)阿爾法狗團(tuán)隊在《自然》(Nature)上發(fā)表的論文,可以發(fā)現(xiàn)阿爾法狗采用了符號建模,這是標(biāo)準(zhǔn)的符號主義路徑,另一方面,阿爾法狗的問題求解采用的不是邏輯推理,而采用聯(lián)結(jié)主義的路徑。
這兩者是如何根據(jù)康德哲學(xué)實現(xiàn)調(diào)和的呢?人類首先通過建立模型與算法給予阿爾法狗基本的“先驗知識”,這些先驗知識主要是下棋的基本規(guī)則。然后,阿爾法狗通過學(xué)習(xí)人類的棋譜,或者是自己博弈來積累大量的經(jīng)驗數(shù)據(jù)。最后,通過先驗知識來處理、加工這些經(jīng)驗數(shù)據(jù),形成自己可以理解的知識,然后用來與人類下棋。并且這些知識也可以作為下一個階段的先驗知識處理下一階段經(jīng)驗數(shù)據(jù),從而導(dǎo)致阿爾法狗的下棋能力螺旋式提升??偠灾瑳]有先驗知識,阿爾法狗接觸到的僅僅是一些支離破碎的經(jīng)驗數(shù)據(jù),根本難以形成知識與智能;但僅有先驗知識,沒有經(jīng)驗數(shù)據(jù),那阿爾法狗的智能永遠(yuǎn)禁錮在初始原點,學(xué)習(xí)能力難以提升。正是先驗知識與經(jīng)驗數(shù)據(jù)的融合,正是理性主義與經(jīng)驗主義的融合,造就了阿爾法狗智能的強(qiáng)大。
盡管阿爾法狗在圍棋、視頻游戲等任務(wù)上獲得了極大的成功,但是這些任務(wù)從本質(zhì)上是高度數(shù)理化的虛擬場景,這個場景中邊界是可控的、規(guī)則是明確的,同時可以低成本地得到大量的數(shù)據(jù),這固然便利了人工智能工程師建構(gòu)模型、設(shè)計算法,卻與康德的本意相悖,康德提到的“可感知世界”,那不僅是一個能夠認(rèn)識與理解的世界,也是一個充滿不確定性與模糊性的自然世界。而康德的這一思想,似乎被現(xiàn)在絕大多數(shù)人工智能專家刻意忽視。
為什么康德的思想被刻意忽視呢?根源在于理解“可感知世界”對于人工智能太難了。根據(jù)陳小平教授觀點,人工智能涉及的三層空間:現(xiàn)實層、數(shù)據(jù)層和知識層。其中,現(xiàn)實層就是人類的現(xiàn)實世界,這是非常復(fù)雜、模糊和不確定性的世界。中間層是數(shù)據(jù)層,其數(shù)據(jù)是通過包括人工采集和機(jī)器感知從現(xiàn)實層收集的。在現(xiàn)實層和數(shù)據(jù)層上,經(jīng)過人工建模,或者通過人工智能無監(jiān)督學(xué)習(xí),就可以成為人工智能的知識。符號主義算法只能在知識層運行,而聯(lián)結(jié)主義算法只能在數(shù)據(jù)層運行。而阿爾法狗的算法則在這兩個層面上運行。
因此,未來要打造更加強(qiáng)大的人工智能,有兩個繞不開的挑戰(zhàn):
3.3.1 人工智能能不能理解知識與數(shù)據(jù)在現(xiàn)實層的含義
解決辦法是從“句法與數(shù)據(jù)”到“語義性與意向性”。所謂語義性,就是人類智能所涉及到的符號有意義、指稱和真值條件等特征。所謂意向性,就是有對外在事態(tài)的關(guān)于性(aboutness)或指向性,就是有對它物的知道和意識,有對自身的超越性,而不致停留于純符號的形式轉(zhuǎn)換。從語義學(xué)的角度來看,有意向性就是有語義性。
不管是符號主義還是聯(lián)結(jié)主義,均沒有意向性。對于符號主義來說,知識構(gòu)建的空間本質(zhì)上是人工標(biāo)注的,高度精確與抽象的符號世界。在符號世界中,現(xiàn)實層的“對象”和“關(guān)系”等用符號表示,但符號本身只有語形,沒有語義。對于聯(lián)結(jié)主義來說,這個問題更嚴(yán)重,因為深度學(xué)習(xí)不僅只能學(xué)到?jīng)]有明確語義的“局部片段”,這些片段還不具備可組合性,不能用來歸納與推理,因此深度學(xué)習(xí)不僅不明白“物體”的“內(nèi)在語義”,還不能通過加工、整理“局部片段”得出新的知識。
如何解決呢?根據(jù)認(rèn)知科學(xué)、人工智能和自然語言處理(NLP)專家尼倫伯格(SergeiNirenburg)的觀點,可以建立本體論構(gòu)架,要表征的符號與數(shù)據(jù)的意義作本體論的定位,也就是說,說明這些符號與數(shù)據(jù)屬于哪一類存在,其特點、性質(zhì)與邊界條件是什么。建立了本體論框架,在這種靜態(tài)知識資源上就可以不斷生成各種含有意義表征的動態(tài)知識資源。動態(tài)的知識資源是在應(yīng)用所提出的任務(wù)、要求的基礎(chǔ)上所產(chǎn)生的新知識。
3.3.2 人工智能為什么要理解理解知識與數(shù)據(jù)在現(xiàn)實層的含義
人類為什么要認(rèn)識世界?因為要生存,所以要認(rèn)識所處的環(huán)境,了解這些環(huán)境中哪些對自己有利,哪些做自己有害,如何利用環(huán)境求得生存。這就是人類的生存與進(jìn)化法則。但目前人工智能即便解決了第一個問題,那么依然存在的挑戰(zhàn)是,如何認(rèn)識自己,如何有自己的目標(biāo)。
不管符號主義還是聯(lián)結(jié)主義均沒有自己的目標(biāo)。符號主義的解決辦法是通過知識表征與刻畫。最典型的符號主義系統(tǒng)是“專家系統(tǒng)”。專家系統(tǒng)顯然已經(jīng)預(yù)設(shè)了設(shè)計目標(biāo)——如一個關(guān)于醫(yī)療診斷的專家系統(tǒng)顯然已經(jīng)預(yù)設(shè)了“治療病患”這樣的目標(biāo)。但問題在于,這一目標(biāo)依然是人類“強(qiáng)加”給人工智能的,而非人工智能自己的目標(biāo)。與符號人工智能相比,基于聯(lián)接主義或深度學(xué)習(xí)技術(shù)的人工智能,離“自主產(chǎn)生目標(biāo)”這一目標(biāo)更遠(yuǎn)。因為此類人工智能需要大量的訓(xùn)練數(shù)據(jù),而訓(xùn)練數(shù)據(jù)很容易受到人類給其設(shè)定的偏好函數(shù)影響,因此,從本質(zhì)上看,深度學(xué)習(xí)的人工智能形成的目標(biāo)也是人類“強(qiáng)加”的。
現(xiàn)實層是一個不確定性、模糊的世界,人類在實現(xiàn)目標(biāo)的過程中,面臨短期目標(biāo)與長期目標(biāo)、手段與目標(biāo)、堅持與妥協(xié)等等相互沖突目標(biāo)的權(quán)衡,正是這樣權(quán)衡,才是智能的真正體現(xiàn),也增強(qiáng)了人類的適應(yīng)能力。而對于人工智能來說,這些相互沖突的目標(biāo)如何刻畫,偏好函數(shù)如何設(shè)計,均是巨大挑戰(zhàn)。并且只要人工智能的目標(biāo),不是自己主動形成的,而是人類“強(qiáng)加”的,那么人工智能將永遠(yuǎn)處于人類“工具”的角色,永遠(yuǎn)難以成為對自己行為負(fù)責(zé)的智能主體。