宋茜
近日,Google Research舉辦了一個關(guān)于深度學(xué)習(xí)概念理解的在線研討會。這次的在線研討會有一個演講特別引人注目,就是哥倫比亞大學(xué)計算機科學(xué)教授Christos Papadimitriou關(guān)于“大腦中的文字表征”的演講。
Papadimitriou在演講中討論了隨著我們對大腦信息處理機制理解的增多,我們將能夠開發(fā)更強健的算法、更好地理解和參與對話。他展示了一個簡單有效的模型,解釋了大腦不同區(qū)域如何相互溝通來解決認(rèn)知問題。
Papadimitriou把與觀眾“交流”這件事描述為是“世界上最偉大的奇跡之一”。
大腦將結(jié)構(gòu)化的知識轉(zhuǎn)換成電波,通過不同的媒介傳輸?shù)铰犝叩亩?,然后再由大腦處理并轉(zhuǎn)換成結(jié)構(gòu)化的知識?!昂翢o疑問,所有這些都發(fā)生在棘波、神經(jīng)元和突觸上。但是怎么實現(xiàn)的呢?這是一個巨大的問題。我相信,未來10年對于如何實現(xiàn)這一目標(biāo)的細(xì)節(jié),我們將會有更好的辦法?!?/p>
大腦中神經(jīng)元的集合
認(rèn)知和神經(jīng)科學(xué)家們正試圖弄清楚大腦中的神經(jīng)活動是如何轉(zhuǎn)化為語言、數(shù)學(xué)、邏輯、推理、計劃和其他功能。如果科學(xué)家們能夠成功地用數(shù)學(xué)模型來描述大腦的運作,那么他們將打開一扇新的大門,創(chuàng)造出能夠模仿人類思維的人工智能系統(tǒng)。
許多研究集中在單個神經(jīng)元的活動,直到幾十年前,科學(xué)家們還認(rèn)為單個神經(jīng)元對應(yīng)著單個的想法。最流行的例子是“祖母細(xì)胞”理論,該理論聲稱,每當(dāng)你看到祖母時,大腦中就有一個神經(jīng)元會達(dá)到峰值。
最近的一些發(fā)現(xiàn)駁斥了這種說法,并證明了每個概念與大量的神經(jīng)元都有關(guān)聯(lián),而且神經(jīng)元與不同概念之間可能存在重疊。這些腦細(xì)胞群被稱為“集合體”,Papadimitriou將其描述為“一組高度連接、穩(wěn)定的神經(jīng)元,它們代表著某種東西:一個詞、一個想法或一個物體等。”
神經(jīng)科學(xué)家GyrgyBuzsáki將集合體描述為“大腦的字母表”。
大腦的數(shù)學(xué)模型
為了更好地理解集合體的作用,Papadimitriou提出了一個被稱為“互動循環(huán)網(wǎng)”的大腦數(shù)學(xué)模型,根據(jù)這個模型,大腦被劃分為有限數(shù)量的區(qū)域,每個區(qū)域包含數(shù)百萬個神經(jīng)元。
每個區(qū)域都有遞歸,這意味著神經(jīng)元之間相互作用,每個區(qū)域都與其他幾個區(qū)域有聯(lián)系,這些區(qū)域間的連接可以被激發(fā)或被抑制。這個模型提供了隨機性、可塑性和抑制性。
隨機性意味著每個大腦區(qū)域的神經(jīng)元是隨機連接的,而且,不同的區(qū)域之間有著隨機的聯(lián)系。
可塑性使神經(jīng)元和區(qū)域之間的連接能夠通過經(jīng)驗和訓(xùn)練進(jìn)行調(diào)整。
抑制性意味著,在任何時刻,有限數(shù)量的神經(jīng)元處于興奮狀態(tài)。
Papadimitriou將其描述為一個基于“生命的三種主要力量”的非常簡單的數(shù)學(xué)模型。
與來自不同學(xué)術(shù)機構(gòu)的科學(xué)家一起,Papadimitriou在2020年發(fā)表在《美國國家科學(xué)院院刊(PNAS)》的一篇論文中詳細(xì)闡述了這個模型。
集合體是模型的關(guān)鍵組成部分,并且支持科學(xué)家們所說的“集合演算”,即一組能夠處理、存儲和檢索信息的操作?!斑@些操作不是憑空而來的,我相信這些操作是真的,我們可以通過數(shù)學(xué)證明和模擬驗證這些操作符合真實的行為這些操作符合(在大腦中)觀察到的行為?!?/p>
Papadimitriou和他的同事們假設(shè)集合和集合演算是解釋大腦認(rèn)知功能(如推理、計劃、語言)的正確模型。Papadimitriou表示,大部分的認(rèn)知能力都符合這個要求。
基于集合演算的自然語言處理
為了測試他們的思維模型,Papadimitriou和同事構(gòu)建了一個自然語言處理系統(tǒng),該系統(tǒng)使用集合演算來分析英語句子。實際上,他們試圖創(chuàng)造一個人工智能系統(tǒng),模擬大腦中存放與詞匯和語言理解相對應(yīng)的集合的區(qū)域?!皩嶋H情況是,如果一系列單詞在LEX中激發(fā)了這些集合,那么這個引擎將生成一個句子的解析?!盤apadimitriou介紹說。
該系統(tǒng)專門通過模擬神經(jīng)元spike來工作(就像大腦一樣),這些spike是由集合演算操作引起的,這些神經(jīng)元集合體對應(yīng)于內(nèi)側(cè)顳葉、Wernicke和Broca區(qū)域,這3個區(qū)域是大腦中高度參與語言處理的區(qū)域。
該模型接收一系列單詞并生成一個語法樹,實驗表明,就神經(jīng)元spike的速度和頻率而言,他們的模型活動與大腦中發(fā)生的活動非常接近。
人工智能模型仍然非常初級,缺少語言的許多重要部分,Papadimitriou承認(rèn)這一點。研究人員正在制定計劃,填補存在的語言空白。他們相信,所有這些部分都可以用集合演算加以補充,這個假設(shè)需要通過時間的檢驗。
“這是語言的神經(jīng)基礎(chǔ)嗎?是不是生來就有這樣一個東西存在于我們的大腦左半邊?”Papadimitriou問道。關(guān)于語言在人腦中是如何工作的,以及它與其他認(rèn)知功能之間的關(guān)系,仍然存在許多問題。但是Papadimitriou相信集合模型使我們更接近理解這些功能,同時回答剩余的問題。語言分析只是測試集合演算理論的一種方法。Papadimitriou和他的合作者們正在研究其他的應(yīng)用,包括學(xué)習(xí)和計劃,就像小孩子做的那樣。
Papadimitriou說:“我們的假設(shè)是,集合演算或類似的東西填補了邏輯存取賬單,換句話說,這是我們大腦計算方式的一個有用的抽象概念?!?/p>