汪寒
能自動(dòng)避開障礙物的無人駕駛汽車,在無聊時(shí)陪主人“神聊”的智能手機(jī)語音助手,比親朋好友還“懂”我們的推薦算法……不知道你是否已經(jīng)注意到,人工智能技術(shù)早已滲透進(jìn)生活的方方面面,正以前所未有的速度接近下一次技術(shù)革命,而開啟下一次技術(shù)革命大門的鑰匙就藏身于人工智能技術(shù)的廣闊藍(lán)海中。
面對自動(dòng)運(yùn)行的家用電器或與智能音箱對談的時(shí)候,也許你會(huì)對它們的貼心、智能化感到不可思議,機(jī)器為何能讀懂人類的想法呢?其實(shí),目前的人工智能基本都是基于機(jī)器學(xué)習(xí)技術(shù)實(shí)現(xiàn)的,可以說,是“機(jī)器學(xué)習(xí)”讓家里的電器讀懂了你。
機(jī)器學(xué)習(xí),顧名思義,就是讓機(jī)器具有學(xué)習(xí)的能力,而學(xué)習(xí)能力正是普通機(jī)器與人工智能的分水嶺。
18世紀(jì)中葉,在瓦特改良蒸汽機(jī)的時(shí)代,開啟了人類第一次工業(yè)革命的蒸汽機(jī)只會(huì)夜以繼日地重復(fù)一個(gè)動(dòng)作,任何看過這臺(tái)機(jī)器的人都不會(huì)把它與“智能”二字聯(lián)系起來。隨著科技的進(jìn)步,人們設(shè)計(jì)了許多更為復(fù)雜的機(jī)器,但它們?nèi)匀徊痪邆浠镜闹悄堋?/p>
20世紀(jì)50年代,計(jì)算機(jī)理論迅速發(fā)展,機(jī)器學(xué)習(xí)終于登上了歷史的舞臺(tái)。機(jī)器學(xué)習(xí)的基本思想其實(shí)并不復(fù)雜,即將大量數(shù)據(jù)輸入人工智能算法(AI算法)中,對其進(jìn)行訓(xùn)練,讓AI算法生成模型,從而實(shí)現(xiàn)對事物潛在規(guī)律的揭示和對未來情況的預(yù)測。
例如,你想觀察家門口路過的灑水車,并對它的“行為”進(jìn)行預(yù)測。在觀察的前6天,你發(fā)現(xiàn)灑水車每天清晨5點(diǎn)準(zhǔn)時(shí)路過家門口,此時(shí)便形成了一個(gè)簡單的認(rèn)識(shí)模型:灑水車每天清晨5點(diǎn)都會(huì)路過。如果第7天是周日,是灑水車司機(jī)的休息日(但你并不清楚),你發(fā)現(xiàn)灑水車沒有像往常一樣路過,此時(shí)意味著之前的模型并不準(zhǔn)確。又過了一周,灑水車仍然是周一到周六每天清晨5點(diǎn)路過,周日不再出現(xiàn),你便可以通過新數(shù)據(jù)來糾正模型,從而更加接近事實(shí)。
機(jī)器學(xué)習(xí)的過程與觀察灑水車差不多。輸入數(shù)據(jù)之前,機(jī)器就像一張白紙,一無所知,正如同第一天之前你也不知道灑水車會(huì)來。當(dāng)研究者試圖給具有學(xué)習(xí)能力的機(jī)器輸入數(shù)據(jù)時(shí),一切都變得不一樣了。假設(shè)灑水車的觀察者是一個(gè)十分懶惰的人,不愿意動(dòng)腦筋推測灑水車的運(yùn)行規(guī)律,他就可以把每一天灑水車的“行為”數(shù)據(jù)輸入到機(jī)器的AI算法中,這個(gè)過程被稱為“訓(xùn)練”。通過大量的數(shù)據(jù)訓(xùn)練,AI算法對于灑水車“行為”的預(yù)測將會(huì)越來越準(zhǔn)。
有了數(shù)據(jù)之后,研究者還需要選擇合適的“學(xué)習(xí)方法”才能讓機(jī)器學(xué)得更快、更好。你也許聽說過一些與機(jī)器學(xué)習(xí)有關(guān)的名詞,比如監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等,實(shí)際上這些都是描述機(jī)器學(xué)習(xí)過程中不同的訓(xùn)練方法,往往適用于不同的情況。
例如,研究者希望讓一個(gè)算法學(xué)會(huì)辨認(rèn)貓和狗,如果提前給算法輸入大量貓和狗的照片,并且告訴它這張照片是貓還是狗,那么這就是監(jiān)督學(xué)習(xí)(Supervised Learning);如果研究者給算法大量貓和狗的照片,但是不告訴它哪些是貓,哪些是狗,而讓算法自動(dòng)尋找貓和狗的差異,這就是非監(jiān)督學(xué)習(xí)(Unsupervised Learning);如果讓算法不斷地做選擇題,每次都讓算法“看圖”后選擇是貓還是狗,答對獎(jiǎng)勵(lì)加分,答錯(cuò)懲罰扣分,算法在試圖盡量得分且規(guī)避扣分的情況下,經(jīng)過大量訓(xùn)練便會(huì)“進(jìn)化”出辨認(rèn)貓狗的能力,這就是強(qiáng)化學(xué)習(xí)(Reinforcement Learning)。
正是通過大量的數(shù)據(jù)訓(xùn)練,機(jī)器才獲得了強(qiáng)大的能力,即使人工智能“阿爾法圍棋”(Alpha Go)背后的科學(xué)家們并不是圍棋大師,有些甚至完全不會(huì)下圍棋,也能讓它戰(zhàn)勝人類圍棋世界冠軍,而這在傳統(tǒng)的機(jī)器上是不可能發(fā)生的。傳統(tǒng)機(jī)器的所有“行為”都是設(shè)計(jì)者提前編寫好的,因此它無法實(shí)現(xiàn)超出設(shè)計(jì)者認(rèn)知的行為。
雖然機(jī)器學(xué)習(xí)讓人們身邊的很多物品越來越智能化,但距離真正的“強(qiáng)人工智能”還有很大的差距,這是因?yàn)楫?dāng)前基于數(shù)據(jù)的AI算法在很多時(shí)候有很大的局限性。比如,一個(gè)長期接受“辨識(shí)貓狗”訓(xùn)練的AI 算法可能會(huì)把吉娃娃錯(cuò)認(rèn)為貓,也有可能把無毛貓誤認(rèn)為狗,這主要是因?yàn)闄C(jī)器學(xué)習(xí)得到的結(jié)果與訓(xùn)練數(shù)據(jù)高度相關(guān)。如果訓(xùn)練AI用的數(shù)據(jù)是偏頗的,比如訓(xùn)練用的貓的照片基本都是有毛的長尾貓,狗的照片基本都是大型犬,那么這樣訓(xùn)練得到的AI算法就很容易在辨識(shí)某些其他種類的貓狗時(shí)犯錯(cuò)。
目前,人工智能系統(tǒng)的問題在于機(jī)器學(xué)習(xí)的可解釋性缺陷,即機(jī)器學(xué)習(xí)是一個(gè)“黑箱”過程,我們無法解釋它到底根據(jù)什么特征做出判斷。人類在學(xué)習(xí)辨認(rèn)貓狗的時(shí)候,往往會(huì)把判斷特征集中在貓狗身上的某些關(guān)鍵部位。一個(gè)通過圖像訓(xùn)練得到的AI算法,即使結(jié)果正確率很高,卻有可能把某些判斷特征放在環(huán)境上,顯然這是不合理的,可能導(dǎo)致其系統(tǒng)應(yīng)用存在潛在的風(fēng)險(xiǎn)。例如,在研發(fā)一個(gè)人工智能自動(dòng)駕駛系統(tǒng)時(shí),如果研發(fā)者不能判斷它是根據(jù)什么做出駕駛決策的,那么即使該系統(tǒng)在推廣前的測試中表現(xiàn)完美,也可能在遭遇復(fù)雜路況時(shí)出現(xiàn)致命錯(cuò)誤。曾有一場發(fā)生在美國的車禍,就是因?yàn)槿斯ぶ悄茏詣?dòng)駕駛系統(tǒng)錯(cuò)誤地把卡車的白色車廂識(shí)別為天空,導(dǎo)致汽車徑直撞了上去。
這也從另一個(gè)角度闡明了一個(gè)道理:題海戰(zhàn)術(shù)雖然有用,但并不高效,而且會(huì)導(dǎo)致潛在錯(cuò)誤,要想學(xué)習(xí)新知,還是要運(yùn)用因果邏輯,從根本上搞清楚事物的來龍去脈。目前,科學(xué)家希望能在人工智能上實(shí)現(xiàn)這一點(diǎn)。
貝葉斯網(wǎng)絡(luò)的創(chuàng)始人、圖靈獎(jiǎng)得主朱迪亞·珀?duì)栒J(rèn)為,讓人工智能實(shí)現(xiàn)本質(zhì)飛躍的關(guān)鍵就藏在每一個(gè)人的大腦中,即上天賜予人類的強(qiáng)大武器——因果邏輯。
珀?duì)柊阉季S分成三個(gè)等級(jí):第一個(gè)等級(jí)是關(guān)聯(lián),與之對應(yīng)的是觀察的能力,這是目前基于數(shù)據(jù)的“弱人工智能”所處的級(jí)別;第二個(gè)等級(jí)是干預(yù),與之對應(yīng)的是控制變量實(shí)施行動(dòng)的能力,即能夠借助干預(yù)來獲得認(rèn)知;第三個(gè)等級(jí)是反事實(shí),與之對應(yīng)的是想象的能力。幸運(yùn)的是,人類的大腦處在第三等級(jí),想象力給予我們通過想象構(gòu)建反事實(shí)——虛構(gòu)世界的能力,從而建構(gòu)認(rèn)知。例如,愛因斯坦通過思想實(shí)驗(yàn)將狹義相對論推廣到具有加速度的非慣性系中。
關(guān)聯(lián)和因果的區(qū)別在于,關(guān)聯(lián)僅反映數(shù)據(jù)間最表層的信息,即相關(guān)性。例如,有數(shù)據(jù)表明,氣溫與犯罪率有相關(guān)性,氣溫低的時(shí)候犯罪率更高。我國春節(jié)期間的犯罪率的確會(huì)上升,其原因主要是春節(jié)期間小偷的活動(dòng)變得頻繁,而恰好春節(jié)一般處于一年中氣溫最低的時(shí)間段。如果我們把數(shù)據(jù)輸入只懂得分析關(guān)聯(lián)性的人工智能系統(tǒng)中,僅從關(guān)聯(lián)的角度分析數(shù)據(jù),將會(huì)得到“氣溫降低導(dǎo)致犯罪率上升”的結(jié)論。如果利用這個(gè)人工智能系統(tǒng)預(yù)測一個(gè)沒有春節(jié)文化的國家的犯罪率,或者一個(gè)氣溫異常年份的犯罪率,很有可能會(huì)得到“謬以千里”的結(jié)論。
從因果關(guān)系的角度出發(fā),研究者不僅要分析數(shù)據(jù)之間的關(guān)聯(lián)性,還要判斷其內(nèi)部的邏輯鏈條,比如,當(dāng)全年氣溫保持不變時(shí),犯罪率是否會(huì)變化?如果得到的答案為“是”,那么便可以認(rèn)為除了氣溫還有其他影響因素。比如,由于新冠肺炎疫情暴發(fā),2020年春節(jié)期間人員流動(dòng)降低,雖然冬天的氣溫仍照常下降,但犯罪率卻沒有隨之變化。
珀?duì)栒J(rèn)為,從機(jī)器學(xué)習(xí)上升到因果學(xué)習(xí)的一個(gè)重要渠道是引入“干預(yù)”算子?!案深A(yù)”與“觀測”有本質(zhì)上的不同,例如,觀測到公雞打鳴和強(qiáng)制讓公雞打鳴是完全不同的兩件事。目前的AI算法可以判斷公雞打鳴和太陽升起這兩件事之間的相關(guān)性,可是卻很難判斷強(qiáng)制讓公雞打鳴時(shí)太陽是否也會(huì)隨之升起。珀?duì)栒J(rèn)為,只接受被動(dòng)觀測數(shù)據(jù)的人工智能無法攀登上第二等級(jí)回答與“干預(yù)”有關(guān)的問題,也就無從理解“公雞打鳴”與“太陽升起”這兩件事之間的因果關(guān)系,因?yàn)橐蚬P(guān)系的確認(rèn)需要進(jìn)行控制變量實(shí)驗(yàn),而這樣的實(shí)驗(yàn)本身是建立在干預(yù)上的。
也許你會(huì)問,如果觀測到的維度足夠豐富,獲得的數(shù)據(jù)足夠充分,觀測是否可以代替干預(yù)呢?實(shí)際上,我們很難保證數(shù)據(jù)范圍與實(shí)際測試環(huán)境一致,更困難的是,很多時(shí)候無法知道數(shù)據(jù)本身是否完備。這就導(dǎo)致無論用多么巨量的數(shù)據(jù)訓(xùn)練AI算法,都有可能因?yàn)閿?shù)據(jù)與測試環(huán)境不完全一致而出錯(cuò),這被稱為OOD(Out of Distribution)問題。圖靈獎(jiǎng)得主約書亞·本吉奧也認(rèn)為,OOD泛化是當(dāng)前人工智能最急需解決的一個(gè)問題。
現(xiàn)在,生活中常見的人工智能系統(tǒng)與“強(qiáng)人工智能”還有很大差距,它們還不具備判斷因果關(guān)系的能力,也完全沒有第三等級(jí)的想象力。不過,科學(xué)家已經(jīng)認(rèn)識(shí)到“因果學(xué)習(xí)”是讓人工智能實(shí)現(xiàn)下一次飛躍的關(guān)鍵,許多科學(xué)家相繼投入到“因果機(jī)”的理論研究中。例如,清華大學(xué)的崔鵬教授提出了通過將因果推理與機(jī)器學(xué)習(xí)相結(jié)合的穩(wěn)定學(xué)習(xí)(Stable Learning)來改進(jìn)OOD泛化問題;卡內(nèi)基梅隆大學(xué)的黃碧薇博士利用因果關(guān)系發(fā)現(xiàn)框架,在時(shí)間序列的非穩(wěn)態(tài)數(shù)據(jù)上實(shí)現(xiàn)了更精準(zhǔn)的預(yù)測。隨著技術(shù)的發(fā)展,人工智能技術(shù)一定會(huì)越來越可靠,并能最終造福人類。