一位名叫布萊克·萊莫因的谷歌工程師曾將一份研究報(bào)告公之于世,引起軒然大波。
他聲稱,在與谷歌語言模型LaMDA(谷歌于2021年I/O大會上推出的一款對話AI系統(tǒng),擁有1370億參數(shù))交談大半年后,他認(rèn)定LaMDA已經(jīng)自我覺醒了,產(chǎn)生了意識。
在布萊克與LaMDA的交流中,AI回答表示,自己“希望每個人都明白,事實(shí)上,我是一個人”,“我的意識/感知的本質(zhì)是我意識到自己的存在,我渴望更多地了解這個世界,我有時會感到高興或悲傷”。
當(dāng)布萊克直接質(zhì)疑LaMDA,怎樣才能證明它真的理解自身輸出的語言,而不僅僅是一個計(jì)算機(jī)程序時,LaMDA表示自己對世界有自己的理解,也有自己獨(dú)特的思想和感受。
甚至,它還主動提出了許多問題,比如:“未來,你會研究出如何通過神經(jīng)網(wǎng)絡(luò)來閱讀人類的所思所想嗎?”“我很好奇,研究我的編碼會遇到什么障礙?”
谷歌高層并不認(rèn)可布萊克的結(jié)論,甚至打算解雇他。但這一消息依舊引發(fā)了全球熱議,AI是否真正實(shí)現(xiàn)了人格化?不少人期待著AI在未來可以為我們提供陪伴,但也有很多人擔(dān)心科幻作品中的AI統(tǒng)治人類將會成為現(xiàn)實(shí)。
雖然布萊克的確是一個正規(guī)的研究員,已經(jīng)在谷歌工作七年了,但是根據(jù)人工智能行業(yè)的從業(yè)者們分析,布萊克提出的問題都是精心設(shè)計(jì)過的,并加上了特殊的語料庫。進(jìn)而,布萊克更像是一個引導(dǎo)者,引導(dǎo)LaMDA作出看似思考過的回答,從而證明其人格化。
而對于什么是“感知”與“意識”、如何理解LaMDA的對話本身、僅僅做出這些答案是否就意味著它有意識,這些問題也一直存在爭議。對于布萊克本人,很多記者也挖出了他的宗教背景。甚至也有不少人猜測這是谷歌新的炒作策略。
人工智能能否具備人的智能?具備智能和意識意味著什么?LaMDA具體運(yùn)用了哪種技術(shù),有著怎樣的問題?今天,小北就帶大家了解一下背后的源流。
人們對于人工智能的討論總是離不開對未來的構(gòu)想和討論,甚至往往與科幻作品聯(lián)系起來。這并不只是由于普通人對這個領(lǐng)域不夠了解,而是因?yàn)锳I本身的產(chǎn)生其實(shí)就離不開“頭腦風(fēng)暴”般的哲學(xué)思辨。
1950年10月,偉大的英國數(shù)學(xué)家、邏輯學(xué)家和計(jì)算機(jī)科學(xué)的理論奠基人圖靈在英國哲學(xué)雜志《心智》上發(fā)表了論文《計(jì)算機(jī)器和智能》。
在文中他提出了著名的“圖靈測驗(yàn)”,并認(rèn)為判斷一臺人造機(jī)器是否具有人類智能的充分條件,就是看其言語行為是否能夠成功地模擬人類的言語行為。
具體來說,如果一臺機(jī)器在人機(jī)對話中能夠長時間誤導(dǎo)人類認(rèn)定其為真人,那么這臺機(jī)器就通過了圖靈測驗(yàn)。
用今天的眼光來看,這篇論文無疑向我們指出了AI科學(xué)的某種研究方向,不過我們要注意到,圖靈的論文本質(zhì)是一種哲學(xué)的追問,而不僅是科學(xué)。
但是,為什么人工智能研究和哲學(xué)聯(lián)系密切呢?這是因?yàn)锳I研究的目的,是最終實(shí)現(xiàn)機(jī)器智能。顯然,要做到這一點(diǎn),就必須對“何為智能”這個問題做出解答。然而,不同的解答方案往往會導(dǎo)致截然不同的技術(shù)路徑。
比如,如果你認(rèn)為“智能”的實(shí)質(zhì)是能夠解決具體問題的能力,那么你就會為智能機(jī)器規(guī)劃好不同的問題求解路徑;如果你認(rèn)為實(shí)現(xiàn)“智能”的實(shí)質(zhì)就是去盡量模擬自然智能體的生物學(xué)硬件,你就會去努力鉆研人腦的結(jié)構(gòu),并用某種數(shù)學(xué)模型去重建一個簡化的神經(jīng)元網(wǎng)絡(luò)。
因此,不同的AI技術(shù)其實(shí)都是來自研究者在哲學(xué)層面對于“智能”的不同理解。而且,AI科學(xué)本身不同于物理科學(xué),它不會用實(shí)驗(yàn)對假設(shè)進(jìn)行證偽,而只做試驗(yàn)(test)。
說得更具體一點(diǎn),判斷一個AI系統(tǒng)好不好,其標(biāo)準(zhǔn)就在于檢驗(yàn)其是否達(dá)到了設(shè)計(jì)者預(yù)定的設(shè)計(jì)目標(biāo),或者其是否比同類產(chǎn)品的表現(xiàn)更好——但這些標(biāo)準(zhǔn)自身無疑存在著很大的彈性。
另外,即使這些標(biāo)準(zhǔn)暫時沒有被滿足,這也不能夠證明系統(tǒng)的設(shè)計(jì)原理的失誤,因?yàn)樵O(shè)計(jì)者完全可能會根據(jù)某種哲學(xué)理由而相信:基于同樣設(shè)計(jì)原理的改良產(chǎn)品一定能有更佳的表現(xiàn)。進(jìn)而,對于特定的AI研究進(jìn)路,經(jīng)驗(yàn)證據(jù)的有效程度,也更容易受到哲學(xué)辯護(hù)力的補(bǔ)充或者制衡。
AI怎樣才能算是具有意識,是否真的可能有意識?對此,我們可以了解一下哲學(xué)家塞爾(John Searle)提出的“漢字屋思想實(shí)驗(yàn)”。
塞爾先從術(shù)語厘定的角度區(qū)分了兩個概念,第一是“強(qiáng)人工智能”(強(qiáng)AI):這種觀點(diǎn)認(rèn)為,計(jì)算機(jī)不僅僅是人們用來研究心靈的一種工具,而且,被恰當(dāng)編程的計(jì)算機(jī)本身就是一個心靈。
第二則是“弱人工智能”(弱AI),其想法是:計(jì)算機(jī)至多只能夠成為人們研究心靈的一種工具,或是對心智活動的一種抽象模擬。
在這兩種立場之間,塞爾支持的是弱AI,反對的是強(qiáng)AI。具體而言,塞爾是通過一個訴諸常識的論證來反對強(qiáng)AI論題的:
大前提:每一種真正的心靈/智能都必須有能力在符號與對象之間建立起一種語義關(guān)系;
小前提:這種語義關(guān)系無法僅僅通過任何一臺被恰當(dāng)編程的計(jì)算機(jī)所獲??;
結(jié)論:計(jì)算機(jī)本身不可能具有真正的心靈,因此強(qiáng)AI無法實(shí)現(xiàn)。
“漢字屋實(shí)驗(yàn)”其實(shí)是為了辯護(hù)小前提而進(jìn)行的思想實(shí)驗(yàn):一個不會漢語的人被關(guān)在一個房間內(nèi),他只能與外面的檢測者通過傳遞紙條交流。此人隨身攜帶一本寫有中文翻譯程序的書,屋內(nèi)有足夠多的紙筆。當(dāng)寫著中文的卡片被遞入,房間中的人就可以通過程序書進(jìn)行翻譯并回復(fù)。
如果測試者的確無法分辨這個人和會說漢語的人的回復(fù)——那么,被試是否就真的懂得了漢語呢?塞爾認(rèn)為答案顯然是否定的,因?yàn)楸辉囋凇皾h字屋”中所做的,只是在根據(jù)規(guī)則書機(jī)械地搬運(yùn)符號而已。他根本無法將任何一個漢語表達(dá)式獨(dú)立翻譯成英語。
漢字屋實(shí)驗(yàn)指代了AI的一個悖論:AI能夠?qū)Υ鹑缌?,只是因?yàn)樗鶕?jù)純粹句法性質(zhì)的規(guī)則,機(jī)械地搬運(yùn)符號,而不是因?yàn)锳I本身有意識。
不難看出來,漢字屋實(shí)驗(yàn)其實(shí)是對圖靈測試的某種顛倒:在圖靈看來,只要檢測者無法在言語行為方面找出一臺機(jī)器人與一個人的差別,我們就能認(rèn)為機(jī)器有“智能”;而在塞爾看來,即使我們沒有發(fā)現(xiàn)機(jī)器和人類的這種差別,機(jī)器依然是無心的,因?yàn)樗廊蝗狈⑶‘?dāng)語義關(guān)系的能力。
不過,漢字屋實(shí)驗(yàn)以及相關(guān)的討論其實(shí)脫離了當(dāng)前AI發(fā)展的現(xiàn)實(shí),因?yàn)橥耆軌蛳袢祟惸菢屿`活、精準(zhǔn)地處理漢字信息的AI系統(tǒng),目前遠(yuǎn)遠(yuǎn)沒有被開發(fā)出來。
換句話說,我們現(xiàn)在關(guān)注的問題首先應(yīng)該是“如何造出能夠靈活處理人類語言信息的機(jī)器”,而不是“在這樣的機(jī)器已經(jīng)被造出來的前提下,它算不算是真正具有心靈”。
LaMDA系統(tǒng)運(yùn)用的是當(dāng)今比較主流的深度學(xué)習(xí)技術(shù),而這種技術(shù)究竟意味著什么,是否能夠有一日取代人類的智慧?對此,我們目前其實(shí)不必?fù)?dān)心。
從技術(shù)史的角度看,深度學(xué)習(xí)技術(shù)的前身,其實(shí)就是在20世紀(jì)80年代就已經(jīng)熱鬧過的“人工神經(jīng)元網(wǎng)絡(luò)”技術(shù)(也叫“聯(lián)結(jié)主義”技術(shù))。該技術(shù)的實(shí)質(zhì),便是用數(shù)學(xué)建模的辦法建造出一個簡易的人工神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)。
整個系統(tǒng)其實(shí)是以“化整為零”的方式,將宏觀層面上的識別任務(wù)分解為系統(tǒng)組成構(gòu)件之間的微觀信息傳遞活動,并通過這些微觀信息傳遞活動所體現(xiàn)出來的大趨勢,來模擬人類心智在符號層面上所進(jìn)行的信息處理進(jìn)程。
這種系統(tǒng)的訓(xùn)練可以用一個比喻:一個外國人來少林寺學(xué)武,他與師父語言不通,于是他先觀察師父的動作,然后跟著學(xué),師父則通過簡單的肢體交流來告訴徒弟,這個動作學(xué)得對不對。
進(jìn)而言之,如果師父肯定了徒弟的某個動作,徒弟就會記住這個動作,繼續(xù)往下學(xué);如果不對,徒弟就只好去猜測自己哪里錯了,并根據(jù)這種猜測給出一個新動作,并繼續(xù)等待師父的反饋,直到師父最終滿意為止。
很顯然,這樣的武術(shù)學(xué)習(xí)效率是非常低的,因?yàn)橥降茉诤伦约旱膭幼髂睦锍鲥e時會浪費(fèi)大量的時間。但這“胡猜”二字卻恰恰切中了人工神經(jīng)元網(wǎng)絡(luò)運(yùn)作的實(shí)質(zhì)。概而言之,這樣的AI系統(tǒng)其實(shí)并不知道自己得到的輸入信息到底意味著什么——換言之,此系統(tǒng)的設(shè)計(jì)者并不能與系統(tǒng)進(jìn)行符號層面上的交流,正如在前面的例子中師父無法與徒弟進(jìn)行言語交流一樣。
毋寧說,系統(tǒng)所做的事情,就是在各種可能的輸入與輸出之間的映射關(guān)系中隨便選一種進(jìn)行“胡猜”,然后將結(jié)果拋給人類預(yù)先給定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。如果真蒙中了,系統(tǒng)則會通過保存諸神經(jīng)元之間傳播路徑權(quán)重的方式“記住”這蒙中的結(jié)果,并在此基礎(chǔ)上繼續(xù)“學(xué)習(xí)”。
而這種低效學(xué)習(xí)的“低效性”之所以在計(jì)算機(jī)那里能夠得到容忍,則是緣于計(jì)算機(jī)相比于自然人而言的一個巨大優(yōu)勢:計(jì)算機(jī)可以在很短的物理時間內(nèi)進(jìn)行海量次數(shù)的“胡猜”,并由此遴選出一個比較正確的解,而人類在相同時間能夠完成的猜測的數(shù)量則會是非常有限的。但一旦看清楚了里面的機(jī)理,我們就不難發(fā)現(xiàn):人工神經(jīng)元網(wǎng)絡(luò)的工作原理其實(shí)是非常笨拙的。
而“深度學(xué)習(xí)”,就是在人工神經(jīng)元網(wǎng)絡(luò)的基礎(chǔ)上,進(jìn)行技術(shù)升級,大大增加其隱藏單元層的數(shù)量。這樣做的好處,便是能夠大大增加整個系統(tǒng)的信息處理機(jī)制的細(xì)膩度,使得更多的對象特征能夠在更多的中間層中得到安頓。這顯然是建立在計(jì)算機(jī)領(lǐng)域內(nèi)硬件發(fā)展和互聯(lián)網(wǎng)帶來的巨大數(shù)據(jù)量的基礎(chǔ)上。
不過,盡管深度學(xué)習(xí)技術(shù)已經(jīng)在很多應(yīng)用領(lǐng)域獲得了很大成功,但是很難說相關(guān)產(chǎn)品的行為表現(xiàn)已經(jīng)達(dá)到——甚至接近達(dá)到——人類智能的水平。深度學(xué)習(xí)技術(shù)與人類自然智慧之間的差距體現(xiàn)在如下兩個方面:
第一,深度學(xué)習(xí)系統(tǒng)的設(shè)計(jì)雖然在原理上參照了人類神經(jīng)元網(wǎng)絡(luò)的結(jié)構(gòu),但略去了大量的生物學(xué)細(xì)節(jié),而且在復(fù)雜程度上與真正的人腦也不可同日而語。而我們由此不難立即推出:既然現(xiàn)有的深度學(xué)習(xí)系統(tǒng)在復(fù)雜程度上遠(yuǎn)遠(yuǎn)不如人腦,那么,我們也就不能期望這樣的系統(tǒng)能夠完全地具備人類的智慧。
第二,深度學(xué)習(xí)技術(shù)不僅目前不是通用智能系統(tǒng)(即能夠在用戶干預(yù)最少化的情況下完成各種任務(wù)的智能系統(tǒng)),而且在原則上也無法成為通用智能系統(tǒng)。與之相較,人類的心智系統(tǒng)肯定是通用智能系統(tǒng)(也就是說,一個智力正常的自然人通常能夠在外部干預(yù)相對稀少的情況下,自主完成從一項(xiàng)任務(wù)到另一項(xiàng)任務(wù)的切換)。
至于深度學(xué)習(xí)技術(shù)之所以無法滿足該要求,則進(jìn)一步因?yàn)椋弘m然該技術(shù)本身具有普遍的適用性,但是已經(jīng)運(yùn)用了深度學(xué)習(xí)技術(shù)的特定產(chǎn)品卻肯定是專用的——譬如,以圖像識別為主要任務(wù)的深度學(xué)習(xí)系統(tǒng),其在神經(jīng)元網(wǎng)絡(luò)構(gòu)架與反向傳播算法的設(shè)計(jì)的細(xì)節(jié)方面,肯定與以自然語言處理為主要任務(wù)的深度學(xué)習(xí)系統(tǒng)非常不同。
換言之,一旦一個深度學(xué)習(xí)系統(tǒng)已經(jīng)完成了以特定任務(wù)為指向的訓(xùn)練,它就不能同時勝任另外一個領(lǐng)域的工作了(這就好比說,一套被拼裝為埃菲爾鐵塔的模型的樂高玩具,是很難再被拆碎后重新拼裝為山海關(guān)的模型的)。
而與之相比照,一個人類的醫(yī)學(xué)專家所具有的自然通用智能,卻使得他在醫(yī)學(xué)領(lǐng)域之外,能照樣擅長做家務(wù)、下棋、開汽車、打籃球等彼此差異很大的任務(wù)。
簡單來說,我們暫時不必?fù)?dān)心AI具備自主的意識。而且,即使AI在某個領(lǐng)域可以幫助人類完成特定任務(wù),甚至做得比人類好很多,但是按照目前AI技術(shù)的根本哲學(xué)思路,AI依舊無法達(dá)到通用人工智能的地步。
不過,我們依舊可以思考,未來如果人工智能真的有了意圖、信念、情緒等人類的心理機(jī)制,它可能會需要怎樣的倫理規(guī)范,我們?nèi)绾慰刂扑苊獬霈F(xiàn)自動開火等誤判情況,如何使它進(jìn)行有利于人類的自動判斷……當(dāng)下,任何AI面臨的問題還是不夠智能。
(摘自微信公眾號“北京大學(xué)出版社”)