Douglas+Heaven
我們已經(jīng)創(chuàng)造了一種全新的智能形式,盡管沒有人能夠看透它如何思考、如何推理。
瑞克·拉希德(Rick Rashid)這么緊張是有原因的。他在中國(guó)的天津邁上講臺(tái),面對(duì)2000名研究者和學(xué)生,要發(fā)表演講。問題在于,他不會(huì)講中文,而他的翻譯以前糟糕的水平,似乎注定了這次的尷尬。
“我們希望,幾年之內(nèi),我們能夠打破人們之間的語言障礙”。這位微軟研究院的高級(jí)副總裁對(duì)聽眾們說。令人緊張的兩秒鐘停頓之后,翻譯的聲音從擴(kuò)音器里傳了出來。拉希德繼續(xù)說:“我個(gè)人相信,這會(huì)讓世界變得更加美好?!蓖nD,然后又是中文翻譯。
他笑了。聽眾對(duì)他的每一句話都報(bào)以掌聲。有些人甚至流下了眼淚。
這種看上去似乎過于熱情的反應(yīng)是可以理解的:拉希德的翻譯太不容易了。每句話都被理解,并被翻譯得天衣無縫。令人印象最深的一點(diǎn)在于這位翻譯并非人類。
曾幾何時(shí),執(zhí)行這樣的任務(wù)遠(yuǎn)超最復(fù)雜的人工智能的能力,而且并不是因?yàn)槿藗儧]有為此付出努力。多年以來,人工智能領(lǐng)域被那些旨在復(fù)制人類意識(shí)功能的宏大計(jì)劃統(tǒng)治著。我們夢(mèng)想著擁有一臺(tái)機(jī)器,能夠理解我們、識(shí)別我們,幫助我們做出決定。近幾年來,我們已經(jīng)實(shí)現(xiàn)了這些目標(biāo),然而實(shí)現(xiàn)的方式,是先行者不曾想象的。
如此說來,我們已經(jīng)研究出了復(fù)制人類思想的方法了嗎?還差得遠(yuǎn)呢。相反,實(shí)現(xiàn)這些目標(biāo)的方法,與我們最初的愿望大相徑庭。人工智能在你周圍無處不在,它的成功可以歸因于大數(shù)據(jù)和統(tǒng)計(jì)學(xué),也就是利用海量信息執(zhí)行復(fù)雜計(jì)算。我們已經(jīng)創(chuàng)造出了意識(shí),只不過它們與我們的意識(shí)相去甚遠(yuǎn)。它們的推理過程,對(duì)人類來說深不可測(cè)——這一進(jìn)展所預(yù)示的前景,正在引起人們的關(guān)注。既然我們正在愈加依賴這種新型智能,我們或許需要改變自己的思維方式去適應(yīng)它。
復(fù)制思維
半個(gè)多世紀(jì)以前,研究者列出了一系列目標(biāo),是我們向具備人類智能的機(jī)器挺進(jìn)時(shí)必須要達(dá)成的。英國(guó)布里斯托爾大學(xué)的尼洛·克里斯蒂亞尼尼(Nello Cristianini)說:“從20世紀(jì)50年代開始,我們就有了一張待辦事宜的清單?!彼鴮戇^人工智能研究歷史和演化方面的著作。
清單上的很多項(xiàng)目可以追溯到1958年在英國(guó)特丁頓召開的思想過程機(jī)械化會(huì)議。參與那次會(huì)議的,不僅有計(jì)算機(jī)科學(xué)家,還有物理學(xué)家、生理學(xué)家和心理學(xué)家。按照我們的樣子建造思考機(jī)器的前景,令這些人全都激動(dòng)萬分。他們一致認(rèn)為,智能的特征應(yīng)該包括對(duì)理解話語、翻譯語言、識(shí)別圖像以及模仿人類決策的能力。
然而時(shí)間在流逝,那張清單卻絲毫沒有變短。很多研究者試圖以邏輯公理為根基,使用程序化的規(guī)則來模擬人類思考。他們以為,只要?jiǎng)?chuàng)建足夠多的規(guī)則就能成功。但事實(shí)證明,這太難了。幾十年過去了,人工智能研究成果寥寥,資金告罄。
那么,究竟是什么發(fā)生了改變呢?“我們并沒有找到智能的解決方案,”克里斯蒂亞尼尼說,“我們算是放棄了。”然而,這便是突破。“一旦我們放棄制造精神和心理特性的嘗試,成功之道便開始出現(xiàn)在眼前了。”
說白了,他們放棄了預(yù)編程的規(guī)則,而是投向了機(jī)器學(xué)習(xí)的懷抱。利用這種技術(shù),計(jì)算機(jī)教會(huì)自己從數(shù)據(jù)中建立模式。有了足夠大的信息量,你就能讓機(jī)器學(xué)會(huì)做看上去有智能的事情,別管是理解話語、翻譯語言,還是識(shí)別人臉。英國(guó)劍橋微軟研究院的克里斯·畢肖普(Chris Bishop)打了個(gè)比方:“你堆積足夠多的磚塊,然后退上幾步,就能看到一座房子。”
這種方法的原理大概是這樣的。很多最成功的機(jī)器學(xué)習(xí)系統(tǒng),依據(jù)的都是貝葉斯統(tǒng)計(jì),這種數(shù)學(xué)框架能讓我們測(cè)算可能性。根據(jù)給定情境以及先前在類似情境中觀察到的關(guān)聯(lián)數(shù)據(jù),貝葉斯統(tǒng)計(jì)能夠給出出現(xiàn)某個(gè)結(jié)果的可能性數(shù)值。
比如,我們想讓人工智能回答一個(gè)簡(jiǎn)單問題:貓吃什么?;谝?guī)則的方法要從零開始,采取有邏輯的步驟,建立一個(gè)關(guān)于貓及其飲食習(xí)慣的數(shù)據(jù)庫(kù)。采用機(jī)器學(xué)習(xí)技術(shù),你只需要不加選擇地輸入數(shù)據(jù)——互聯(lián)網(wǎng)搜索、社交網(wǎng)絡(luò)、食譜書籍等。通過計(jì)算特定詞匯出現(xiàn)的頻率以及概念之間如何彼此關(guān)聯(lián),系統(tǒng)便建立了一個(gè)統(tǒng)計(jì)模型,能夠估計(jì)貓喜歡某些食物的可能性。
當(dāng)然,機(jī)器學(xué)習(xí)所依賴的算法已經(jīng)出現(xiàn)多年。新鮮之處在于,現(xiàn)在我們有了足夠的數(shù)據(jù),讓這種技術(shù)大顯神威。
就以翻譯語言為例。20世紀(jì)末,
IBM將加拿大國(guó)會(huì)生成的英法雙語文檔輸入計(jì)算機(jī),利用機(jī)器學(xué)習(xí)技術(shù)教它在這兩種語言之間互譯。那些文檔就像羅塞塔石碑一樣,包含了幾百萬被寫成兩種語言版本的例句。
IBM的系統(tǒng)辨別出兩種語言單詞和短語之間的關(guān)聯(lián),并將這種關(guān)聯(lián)應(yīng)用于新的翻譯任務(wù)。結(jié)果卻滿是錯(cuò)誤。他們需要更多的數(shù)據(jù)。“這時(shí)谷歌跟了上來,差不多輸入了整個(gè)互聯(lián)網(wǎng)?!庇?guó)牛津大學(xué)互聯(lián)網(wǎng)學(xué)院的維克托·邁爾-舍恩伯格(Viktor Mayer-Sch?nberger)說道。
和IBM一樣,谷歌在翻譯領(lǐng)域所做的努力,一開始也是發(fā)展算法,在多語言文獻(xiàn)之間交互參考。然而,研究者開始意識(shí)到,如果翻譯器學(xué)習(xí)了說俄語、法語和韓語的人們實(shí)際的講話方式,翻譯質(zhì)量將有很大提高。
谷歌轉(zhuǎn)向了被它索引過的龐大網(wǎng)絡(luò)。這張網(wǎng)絡(luò)正在朝豪爾赫·路易斯·博爾赫斯(Jorge Luis Borges)1941年的短篇小說《巴別圖書館》中那座假想的圖書館迅速演進(jìn)。小說中的圖書館收藏的書籍,囊括了所有可能的詞語組合。假設(shè)谷歌翻譯器正試圖將英語翻譯成法語,它便可以將它最初的嘗試與互聯(lián)網(wǎng)上用法語寫就的每一個(gè)句子作比較。邁爾-舍恩伯格用翻譯“l(fā)ight”一詞來舉例:表示光照時(shí),要翻譯成法語詞“l(fā)umière”,表示重量時(shí),則要翻譯成“l(fā)éger”。谷歌翻譯器自己學(xué)會(huì)了如何做出與法國(guó)人一致的選擇。
除了大量詞序的相對(duì)頻率,谷歌翻譯器以及拉希德使用的微軟翻譯器,對(duì)語言可謂一無所知。這些人工智能無非是一個(gè)詞接一個(gè)詞地計(jì)算接下來出現(xiàn)什么詞的可能性。對(duì)它們而言,這只是個(gè)概率問題而已。endprint
這些基本原理多少顯得有些直來直去。當(dāng)巨量數(shù)據(jù)中產(chǎn)生海量關(guān)聯(lián)時(shí),事情就復(fù)雜了。比如,谷歌的自動(dòng)駕駛汽車,為了對(duì)周圍環(huán)境作出預(yù)測(cè),每秒鐘要收集差不多1GB的數(shù)據(jù)。亞馬遜這么善于誘導(dǎo)人們購(gòu)買更多的商品,是因?yàn)樗龀鐾扑]所依據(jù)的基礎(chǔ),乃是幾百萬其他購(gòu)買行為中的幾十億關(guān)聯(lián)關(guān)系。
大者為王
翻譯拉希德的演講,展現(xiàn)了統(tǒng)計(jì)人工智能可以有多么強(qiáng)大——不僅要猜測(cè)他說了什么,思考該怎么翻譯,還要判斷這句中文由他說出來是什么效果。“這些系統(tǒng)的表現(xiàn)并非神跡,”畢肖普說,“但僅僅是探究一下巨量數(shù)據(jù)的統(tǒng)計(jì)信息,就能取得這么大的成就,我們常常為此感到驚訝?!?/p>
這些智能算法正開始影響生活的每一個(gè)方面。就在拉希德演講一個(gè)月之后,荷蘭國(guó)家法證科學(xué)研究所就雇了一套名叫波拿巴(Bonaparte)的機(jī)器學(xué)習(xí)系統(tǒng),輔助他們尋找一名已經(jīng)潛逃了13年的謀殺犯罪嫌疑人。波拿巴能夠分析和比對(duì)大量DNA樣本,這個(gè)工作由人工來做的話將非常耗時(shí)。保險(xiǎn)和信用行業(yè)也在擁抱機(jī)器學(xué)習(xí),部署這種算法為個(gè)人建立風(fēng)險(xiǎn)評(píng)估簡(jiǎn)況。醫(yī)學(xué)界也在利用統(tǒng)計(jì)人工智能,篩選大得令人類無法分析的基因數(shù)據(jù)庫(kù)。IBM公司的沃森(Watson)甚至能夠診斷疾病。
“大數(shù)據(jù)分析能夠發(fā)現(xiàn)被我們遺漏的事情,”邁爾-舍恩伯格說,“它對(duì)我們的了解,比我們自己還要深刻。但它也需要一種迥然不同的思考方式?!?/p>
在人工智能發(fā)展早期,“可解釋性”被賦予了很高的價(jià)值。當(dāng)機(jī)器做出選擇時(shí),人類能夠追查到原因。然而,如今,那些由數(shù)據(jù)驅(qū)動(dòng)的人工意識(shí)所做的推理,是對(duì)巨量數(shù)據(jù)點(diǎn)進(jìn)行高度復(fù)雜的統(tǒng)計(jì)分析。換句話說,為了得到“是什么”,我們放棄了“為什么”。
就算一位高超的技師能夠搞懂其中的數(shù)學(xué)過程,可能也沒有什么意義。畢肖普說,那并不會(huì)揭示為什么系統(tǒng)會(huì)做出某個(gè)決定,因?yàn)檫@個(gè)決定并不是經(jīng)由人類能夠解讀的一系列規(guī)則而得出的。他認(rèn)為,為了得到有用的系統(tǒng),這是個(gè)可以接受的取舍。早期的人工意識(shí)或許是透明的,但它們都失敗了。“你可以得到一個(gè)解釋,但那是對(duì)錯(cuò)誤預(yù)測(cè)的解釋。”一些人對(duì)這種轉(zhuǎn)變提出了批評(píng),但畢肖普和其他一些人主張,是時(shí)候放棄對(duì)人類解釋的期待了。
“可解釋性是一種社會(huì)契約,”克里斯蒂亞尼尼說,“過去我們認(rèn)為它很重要,現(xiàn)在我們認(rèn)為它不重要?!?/p>
英國(guó)布里斯托爾大學(xué)的彼得·弗拉赫(Peter Flach)試圖向他計(jì)算機(jī)科學(xué)專業(yè)的學(xué)生,講授這種從根本上不同的思維方式。編程講究絕對(duì),機(jī)器學(xué)習(xí)分析的卻是不確定程度。他認(rèn)為,我們應(yīng)當(dāng)更習(xí)慣懷疑。比如,亞馬遜的人工智能推薦了一本書,這究竟是機(jī)器學(xué)習(xí)的結(jié)果,還是亞馬遜有一些書不好賣?再比如,亞馬遜可能會(huì)告訴你,和你差不多的人購(gòu)買了它所展示的書,它所說的“和你差不多的人”以及“與此差不多的書”究竟是什么意思?
“也許,在某種程度上,我們終將不得不信任機(jī)器,即便我們無法完全理解它?!备ダ照f。
危險(xiǎn)在于,我們不再提出問題。我們會(huì)習(xí)慣于在不經(jīng)意間由機(jī)器替我們做出決定嗎?由于智能機(jī)器已經(jīng)開始針對(duì)抵押申請(qǐng)、醫(yī)療診斷,甚至你是否有罪,做出神秘莫測(cè)的決斷,我們押在人工智能上的賭注更大了。
比如在醫(yī)療方面,如果一套機(jī)器學(xué)習(xí)系統(tǒng)認(rèn)為,你在未來幾年中將開始酗酒,會(huì)怎么樣?醫(yī)生可以據(jù)此拒絕給你施行器官移植手術(shù)嗎?如果沒人了解結(jié)論從何而來,便很難討論你的病情。一些人可能會(huì)信任人工智能甚于其他。“人們太愿意接受算法發(fā)現(xiàn)的事情,”弗拉赫說,“連計(jì)算機(jī)都說‘不了。而這正是問題所在?!?/p>
此時(shí)此刻,某個(gè)地方,可能有一部智能系統(tǒng)正在判斷你是什么樣的人以及將成為什么樣的人。看看發(fā)生在美國(guó)哈佛大學(xué)拉坦婭·司維尼(Latanya Sweeney)身上的事情吧。有一天,她驚訝地發(fā)現(xiàn),她的谷歌搜索結(jié)果附帶的廣告問道“你被逮捕過嗎?”白人同學(xué)的搜索結(jié)果中卻沒有這條廣告。這件事促成了一項(xiàng)研究,表明谷歌搜索背后的機(jī)器學(xué)習(xí)系統(tǒng),無意中成了種族主義者。在深不可測(cè)、浩如煙海的關(guān)聯(lián)當(dāng)中,跟犯罪記錄相關(guān)的廣告與黑人慣常使用的名字被聯(lián)系了起來。
“人工智能會(huì)遇到很多倫理困境,”邁爾-舍恩伯格說。很多人已經(jīng)對(duì)大數(shù)據(jù)時(shí)代的隱私問題表達(dá)了關(guān)切。 “說實(shí)話,相對(duì)于隱私,我更擔(dān)心統(tǒng)計(jì)預(yù)測(cè)遭到濫用?!?/p>
為了探索人工智能的世界,我們有必要改變自己對(duì)于人工智能是什么的想法。我們已經(jīng)建造的標(biāo)志性智能系統(tǒng),既不下象棋,也不謀求推翻人類的統(tǒng)治??死锼沟賮喣崮嵴f,“它們跟HAL 9000不一樣?!彼鼈円呀?jīng)不再僅僅在線上陪我們打發(fā)時(shí)間,或者慫恿我們?nèi)ベI更多的東西,而是能夠在我們自己意識(shí)到之前預(yù)測(cè)出我們的行為。我們避不開它們。因此,相處的訣竅在于,承認(rèn)我們沒有辦法知道這些選擇因何作出,而是要正確看待人工智能給出的這些選擇:它們是建議,是數(shù)學(xué)上的可能性。這些選擇的背后,不存在什么神諭。
當(dāng)人們夢(mèng)想著以自己為藍(lán)本建造人工智能時(shí),他們向往的或許是,有朝一日能夠以平等的身份,與這些會(huì)思考的機(jī)器相遇。然而,我們最終得到的人工智能卻是異類,是一種我們之前不曾遭遇過的智能形式。(來源:果殼網(wǎng),2013-09-07)endprint