張勤
如果將達(dá)特茅斯會(huì)議作為人工智能(AI)誕生的標(biāo)志的話,我正好與AI 同歲。但是,迄今為止,國際上對AI 是什么仍眾說紛紜。比較有共識(shí)的似乎是對AI 的代際劃分,即第一代AI 是基于知識(shí)的,第二代AI 是基于數(shù)據(jù)的。而現(xiàn)在,大家正在開啟對第三代或新一代AI 的研究。但要弄清楚新一代AI 的特征,首先必須搞清楚第一代和第二代AI 存在的問題。
我認(rèn)為,第一代AI 之所以不夠成功,主要問題有三個(gè):第一,其知識(shí)是以規(guī)則的形式表達(dá)的,因而是碎片化的,盡管有一套格式,但很難說是一個(gè)嚴(yán)謹(jǐn)?shù)目茖W(xué)體系,更像是一種實(shí)用技術(shù)。然而,沒有嚴(yán)謹(jǐn)?shù)目茖W(xué)理論支撐的技術(shù)是走不遠(yuǎn)的。第二,缺乏嚴(yán)謹(jǐn)?shù)牟淮_定性表達(dá)和推理算法?,F(xiàn)實(shí)世界絕大多數(shù)都有不確定性,只有證明數(shù)學(xué)定理等少數(shù)情況無不確定性。顯然,沒有嚴(yán)謹(jǐn)?shù)奶幚聿淮_定性的算法限制了第一代AI 的應(yīng)用。第三,追求通用AI(AGI),將目標(biāo)定得過于寬泛,要求其像人一樣能夠?qū)W習(xí)、識(shí)別、分析、歸納、推理、感知等,是不現(xiàn)實(shí)的。
第二代AI基于大數(shù)據(jù)機(jī)器學(xué)習(xí),能夠有效應(yīng)對不確定性,其代表是深度學(xué)習(xí)(DL)模型。主要問題也有三個(gè):第一,由于DL 的本質(zhì)是數(shù)據(jù)擬合,模型缺乏可解釋性。對很多應(yīng)用而言,沒有可解釋性就難以可信和應(yīng)用。例如疾病診斷,要綜合患者的癥狀、體征、實(shí)驗(yàn)室檢查、影像學(xué)檢查,以及性別、年齡、病史等各種信息,根據(jù)彼此的關(guān)系才能下診斷結(jié)論,而且結(jié)論只能由作為用戶的醫(yī)生下,由醫(yī)生承擔(dān)責(zé)任,否則會(huì)出現(xiàn)很多法律問題。這就需要AI 可解釋,包括計(jì)算結(jié)果可解釋(怎么算出來的)、計(jì)算模型可解釋(能理解)、計(jì)算方法可解釋(物理意義清晰)。然而數(shù)據(jù)擬合是一種黑箱方法,從原理上就不具備可解釋性。第二,依賴數(shù)據(jù)獨(dú)立同分布假設(shè)。這里的同分布不僅指訓(xùn)練集與測試集之間,而且指訓(xùn)練和測試集與真實(shí)應(yīng)用場景之間,都要同分布。但很多情況不符合這一假設(shè)。例如基層醫(yī)療機(jī)構(gòu)診病的數(shù)據(jù)樣本空間與用于DL 模型訓(xùn)練和測試的數(shù)據(jù)集(三甲醫(yī)院病歷)的樣本空間就不同,導(dǎo)致泛化問題。第三,與第一代AI 一樣,追求AGI,想用一個(gè)模型解決所有問題,但結(jié)果往往不佳。事實(shí)上,由于開放式問題的模式不可窮盡,總有擬合不到的。這就為其應(yīng)用懸了一把達(dá)摩克利斯之劍。這也是當(dāng)前自動(dòng)駕駛所面臨的困境。至于數(shù)據(jù)獲取難、清洗加工難、保護(hù)隱私難、數(shù)據(jù)產(chǎn)權(quán)難、訓(xùn)練能耗大等非技術(shù)問題,就不在這里討論了。
事實(shí)上,計(jì)算機(jī)只能執(zhí)行人事先設(shè)定的程序(包括算法和數(shù)據(jù)),不具有真正意義上的智能,至少目前如此。就某個(gè)具體問題而言,用人設(shè)定的計(jì)算機(jī)程序來代替人解決問題是完全可能的,并且其表現(xiàn)往往超過人(例如AlphaGo 戰(zhàn)勝李世石)。一旦應(yīng)用超越了事先設(shè)定的計(jì)算機(jī)程序所要解決的問題的邊界(例如用AlphaGo 下以前沒有見過的半個(gè)棋盤或兩倍棋盤的圍棋),就很難保證AI 仍有上佳表現(xiàn),但人卻可以舉一反三。在當(dāng)前人們對生物腦知之甚少的情況下,在尚未解決自我意識(shí)是什么和怎樣產(chǎn)生的情況下,用計(jì)算機(jī)模擬人這樣的生物腦很難,因?yàn)橐M的對象是什么不清楚。一個(gè)顯著的區(qū)別是:人能夠通過自我意識(shí)理解事物,而計(jì)算機(jī)沒有自我意識(shí),也理解不了事物(缺少理解主體)。從這個(gè)意義上講,學(xué)習(xí)(Learning)這個(gè)詞用在計(jì)算機(jī)上是不恰當(dāng)?shù)摹M合(Fitting)更準(zhǔn)確,但不夠吸睛。
我的看法是:當(dāng)前AI 應(yīng)著力研究兩個(gè)領(lǐng)域:第一,研究生物腦的工作機(jī)理,這主要是醫(yī)學(xué)和生物學(xué)的事情,以及相關(guān)學(xué)科的事情(例如生物電鏡)。第二,研究能解決具體問題的AI 模型,無論其基于知識(shí)還是基于數(shù)據(jù),不一味追求AGI。不同領(lǐng)域有不同需求,從而適用不同模型。例如人臉識(shí)別,無所謂可解釋還是黑箱,即使有一定錯(cuò)誤率也問題不大,這時(shí)用深度學(xué)習(xí)模型就很好。當(dāng)然還要在現(xiàn)有基礎(chǔ)上精進(jìn)。對于診?。ú恢皇强雌蚣膊『Y查)和工業(yè)系統(tǒng)故障診斷來說,沒有可解釋性的模型是不可信,因而也不宜用的;基于知識(shí)的模型(當(dāng)然要系統(tǒng)化和具備處理不確定性的能力)才是可信和可用的,大數(shù)據(jù)學(xué)習(xí)并非必由之路。事實(shí)上,核電站幾乎沒有可供學(xué)習(xí)的故障數(shù)據(jù),但要求AI 能夠診斷從來沒有出現(xiàn)過的故障。對核電站操作員的要求也相同,所以這一要求并不過分。
歸納一下:新一代AI 要有可解釋性,不依賴或少依賴數(shù)據(jù)獨(dú)立同分布,知識(shí)應(yīng)系統(tǒng)化,能夠處理不確定性,基于數(shù)據(jù)或知識(shí)或兩者均可,但未必通用。
我對AI 的定義是:AI 是一門科學(xué)技術(shù),將由人類智能解決的問題轉(zhuǎn)化為由人造機(jī)器來解決。這里首先要明確所解決的問題是不是智能問題。如果是,且由機(jī)器來解決,就是AI。適合于解決本領(lǐng)域智能問題的模型就是強(qiáng)AI 模型,與其是否通用無關(guān)。