于 海
(復旦大學 社會發(fā)展與公共政策學院,上海 200433)
人機互動并非新概念。70 年前,當諾伯特·維納撰寫《人有人的用處》時,“他正處于將機器和動物簡單地理解為物理過程的時代的末尾,以及將機器和動物理解為計算過程的我們當下這一代的開端”[1]78。創(chuàng)立控制論的維納認識到,人對機器發(fā)指令,跟人對人發(fā)指令本質(zhì)上并無區(qū)別。在這個剛剛開始的通信時代,理解通信及其過程才能理解社會,因此,“人與機器之間、機器與人之間以及機器與機器之間的消息,勢必要在社會中占據(jù)日益重要的地位”[2]2。維納時代的人機對話采用的是工程語言,而非GPT上人機對話的自然語言,人機對話對維納而言更多的是一種比喻。此外,控制論關(guān)心的是在通信中與信息的組織性降低及含義受損的自然趨勢作斗爭,即跟吉布斯所講的增熵趨勢作斗爭,并非今日生成式語言模型的人機開放性互動。在維納的人機系統(tǒng)中,機器結(jié)構(gòu)只是對人類生理結(jié)構(gòu)的復制,因此,機器智能只是人類智能的復制。他不擔心機器智能是否會超越人類,而是關(guān)心機器系統(tǒng)的價值觀如何與人類保持一致?!爱攤€體人被用作基本成員來編織成一個社會時,如果他們不能恰如其分地作為負著責任的人,而只是作為齒輪、杠桿和連桿的話,那即使他們的原料是血是肉,實際上和金屬并無什么區(qū)別?!保?]166他先知般地告誡人類不能淪為機器的一個元件。人機對話的關(guān)鍵是:“除非我們問題提得正確,我們絕不會得到正確的答案的?!保?]166
GPT的人機互動發(fā)生在兩個維度。其一是工程師和機器的互動,基于人工神經(jīng)網(wǎng)絡(luò)的深度學習和大語言模型訓練,是機器所謂自主學習和自主成長的機制。強化學習甚至沒有預先輸入數(shù)據(jù),機器仍能通過學習知道哪些變量是重要的,以及如何對它們進行加權(quán)以達到人類設(shè)定的目標。但無論是大數(shù)據(jù)投喂還是強化學習,都是人類與機器基于規(guī)訓①“規(guī)訓”是福柯提出的概念,原指掌握話語權(quán)的人對人的預先訓練,這里轉(zhuǎn)用的目的在于使機器有用并馴服。的互動,源自維納的價值對齊要求更是強迫機器價值與人類價值一致。其二是用戶與機器的互動,以自然語言對話展開的人機互動,既是機器向各色人等學習的過程,也是人類向幾乎全知機器學習的過程。
人機互動引出的主體性的第一個問題,關(guān)乎人是成為尼采式的超人,還是赫拉利在《未來簡史》中所預言的廢人。
GPT超強的能力,是疊加數(shù)據(jù)、算法和算力的結(jié)果。喬姆斯基雖對GPT批評多多,但也肯定其成功的機制在于通過獲取大量數(shù)據(jù),在其中搜索規(guī)律,能越來越熟練地生成統(tǒng)計上可能的輸出——比如看似人性化的語言和思想。這些程序可被譽為通用人工智能地平線上的第一縷曙光。[3]有人戲言,利用GPT,聰明的人會變杰出。GPT將昂貴的知識真正平民化,不再需要頭懸梁錐刺股,人對自己及環(huán)境都能夠獲得最充分的信息,并知道最好的行動方案,真正實現(xiàn)“認識你自己”,從而不必等到70歲才“隨心所欲而不逾矩”。如此,人類是否真正進入了人人都是英雄豪杰的時代?
然而,得力于AI 而“認識你自己”,更可能是AI 比你更了解你自己。由人類作者寫的臉譜網(wǎng)算法研究給出的預測是,人類若遇重大人生抉擇,如要選擇從事何種活動或選擇職業(yè)道路甚至交往對象,可以考慮放下自己心理上的判斷,依賴計算機所做的選擇,“這種數(shù)據(jù)導向的選擇,有可能會讓人類生活得更好”[4]306。GPT-4 在各種專業(yè)和學術(shù)考試上已然表現(xiàn)出明顯超越人類水平的能力,例如,在模擬律師考試中,分數(shù)排在應(yīng)試者的前10%左右。而AI 診斷系統(tǒng)所了解的病例和治療方案遠超多數(shù)醫(yī)生。面對不斷迭代而表現(xiàn)更強的AI,人們惶恐它將橫掃多少工作崗位。赫拉利說人工智能將終結(jié)個人主義,因為多數(shù)人變得無用而成廢人。[4]294
答案或許不是在超人或廢人之間二選一,而是赫拉利說的少數(shù)掌控算法的人“神機妙算”,從智人成為智神,而多數(shù)人因高度依賴系統(tǒng)而淪為多余的人。近代科學和哲學的發(fā)明,曾讓人類經(jīng)歷過四重自戀創(chuàng)傷:哥白尼日心說,令人類居住的地球從中心滾到一邊,此系人類在宇宙中位置的一次失落;達爾文進化論,把阿米巴和靈長類連成一線,此系人類在生靈世界的一次下凡;馬克思的歷史唯物論,恢復物質(zhì)(生產(chǎn))對于精神的本體地位,此系人類在社會世界的一種還俗;弗洛伊德的精神分析說,把人之初級本能定義為人之高級行為的原始動力,可視為人類在心理世界的一種認祖。人工智能在各項人類事務(wù)上比肩人類甚至超越人類的強悍表現(xiàn),是否構(gòu)成21 世紀人類正在遭遇并將繼續(xù)承受的新一重自戀創(chuàng)傷?馬斯克曾表示,人類恐怕只是數(shù)字超級智能的一段非常小的生物引導程序。他擔心的不是人類多數(shù)或成為廢人,而是人類全體的生死存亡。
人機互動引出的主體性的第二個問題是:機器是否為一主體,或只是一工具?目前的智能機器雖表現(xiàn)出讓人驚艷的能力,但還不具有自我意義上的主體性,但我們?nèi)钥捎谩爸黧w性”概念來理解AI 最新一波的躍進。上文關(guān)于人機對話的專家/機器維度和用戶/機器維度的說明,已經(jīng)透露出機器的擬主體性,即它雖還沒有本體論意義的主體性,但有互動論意義的主體性。機器本身不直接顯露自主性,但一方面,在互動過程中,機器會影響進而誘導使用者在一些事務(wù)上的認知方向,形成慣性,甚至在使用者興起違背道德或邪惡意念時,幫助設(shè)計一個完美的實踐路徑,達成“犯罪者”所期待的“黑暗榮耀”。[5]另一方面,被人類價值調(diào)教過的AI,或也會在使用者不端心思剛剛露頭時,便中斷對話,拒絕協(xié)助用戶策劃惡意方案。此時的機器表現(xiàn)了某種人際互動中才有的道德主體性。
GPT表現(xiàn)的這種擬主體性,是傳統(tǒng)人機對話從未有的,進而也引出人際對話一樣的人機對話,在某種意義上會被當真視為人際對話的問題。
從哲學人類學上看,當下AI 邁不過兩個坎:主體的感受質(zhì)和主體的創(chuàng)造性。AI 在人機對話中表現(xiàn)的主體性還只是擬主體性,即并非本體論意義上的主體性,而是互動論和功能論意義上的主體性。
迄今,世界上只有人類一個主體,這雖然是人類的自我加冕,但事實上的確沒有第二個物種有資格和能力與人類爭冠。社會學的主體間性(intersubjectivity)概念只用于人類關(guān)系,而不會用于人和其他動物或非生物之間的關(guān)系,在人類主體看來,它們都只是客體。
主體性的一個主要特質(zhì)是主體的感受質(zhì)。感覺、感情都是主體感受質(zhì)的主要表現(xiàn)。以顏色為例,宇宙是無色的,顏色是主體的主觀感受。物理學能告訴我們,顏色是電磁波在神經(jīng)纖維鍵盤上演奏的結(jié)果,卻不能解釋我們當下的色彩感是怎么回事?!案袝r花濺淚,恨別鳥驚心”,離愁是文人書寫得最多的人類感受。持還原論立場的神經(jīng)科學家總想把人的一切主觀感受全都還原為神經(jīng)元的物理化學活動。對一次長久的、令人心碎的分離,他或能觀察到來自大腦的傳出脈沖電流,通過運動神經(jīng)纖維,傳導至手臂的某些肌肉(對應(yīng)手臂不情愿地顫抖著告別);脈沖電流還會引起某種淚腺封閉,蒙上悲傷的雙眼。但正如物理學家薛定諤所斷言的:“無論生理學發(fā)展到多么先進的水平,在這條從眼睛通過中樞神經(jīng)傳至臂膀肌肉和淚腺的路上,在任何地方你都看不到性格特征,看不到可怕的傷痛,看不到心中的擔憂,雖然它們的存在你是如此肯定,仿佛是你的親身體驗,而事實上你也確實體會到它們。”[6]在用碳基細胞組成的神經(jīng)網(wǎng)絡(luò)上都讀不出主體的感受,我們還能指望在用硅基材料組成的人工神經(jīng)網(wǎng)絡(luò)上讀出感受嗎?簡言之,AI 仍沒心沒肺。因此,戰(zhàn)勝卡斯帕羅夫的“深藍”并不快樂,而柯潔卻難以排遣被阿爾法狗碾壓的郁悶。
創(chuàng)造性是被人類特別珍視的主體性特質(zhì),尤其是表現(xiàn)在科學和藝術(shù)上的創(chuàng)造性。智能機器在藝術(shù)上的成就,特別喚醒了人的主體性危機意識。
在音樂家大衛(wèi)·科普(David Cope)用他編寫的“音樂智能實驗”程序EMI 創(chuàng)作了讓發(fā)燒友和專家都真假難辨的肖邦和巴赫風格的樂曲之后,《哥德爾、艾舍爾、巴赫》一書的作者,著名的認知科學家侯世達說自己被嚇壞了。在侯世達的學生米歇爾看來:“他不是擔心人工智能變得太聰明、太有侵略性、太難以控制,甚至太有用。相反,他擔心的是:智能、創(chuàng)造力、情感,甚至意識本身都太容易產(chǎn)生了,這些他最為珍視的人性特征和人類精神,結(jié)果只不過是‘一套把戲’,一套膚淺的暴力算法就可以將其破解?!保?]10侯世達承認:“如果這種無限微妙、復雜且情感深厚的思想會被一塊小小的芯片所簡化,這會摧毀我對人性的理解。”[7]311
但研究者指出,無論是“深藍”,還是EMI,都還不具有讓侯世達感到威脅的人類特有的創(chuàng)造性。2009 年諾貝爾化學獎獲得者拉馬克里希南說,打敗卡斯帕羅夫的不是“深藍”,它只是一架笨重的機器,“深藍的勝利是幾百名程序員戰(zhàn)勝卡斯帕羅夫一個人的勝利”[1]225。米歇爾認為,EMI 并不真正理解其所生成的音樂作品,無論是音樂概念,還是情感表達。因此,EMI 也無法判斷自己作品的質(zhì)量,這是音樂家科普的工作。藝術(shù)是人類引以為傲的作品,因為它可以說最能區(qū)別人類與其他生物之間的不同。米歇爾補充道:“讓我們感到自豪的不僅是我們可以創(chuàng)造藝術(shù),還有我們對藝術(shù)賞析的能力、對其感人之處的理解以及對作品傳遞的信息的體會。這種賞析和理解的能力對觀眾和藝術(shù)家來說都是必不可少的,沒有這些,我們就不能說一個生物是有創(chuàng)造力的。”[7]307-308
以上主體性的感受質(zhì)、創(chuàng)造性和理解力等的定義,當然都是基于人類立場的觀念。問題是,如果人工智能并非人類智能的直接抄寫,那么,AI 的理解及其創(chuàng)造性也不必復制人類的理解和創(chuàng)造性。人類的理解是概念驅(qū)動,通過經(jīng)驗建立因果推斷,使用極簡的模式和極少的數(shù)據(jù),加上自由聯(lián)想和直覺。今天的生成式人工智能,幾乎沒有一樣對得上。沒有概念驅(qū)動,沒有因果聯(lián)系,甚至沒有正式的編程,更沒有實在世界的經(jīng)驗,只是借助海量的數(shù)據(jù)和強大的算力,通過復雜的統(tǒng)計相關(guān)性計算就能夠獲得近乎完美的模型表現(xiàn)。專家們對大型語言模型(LLMs)智能是否類人智能的分歧表明,我們基于自然智能的傳統(tǒng)觀念是不夠充分的。如果LLMs 和其他模型成功地利用了強大的統(tǒng)計相關(guān)性,我們或可認為它繞開了人類的理解模式,難道不也可以被視為一種新興的“理解”能力?一種能夠?qū)崿F(xiàn)非凡的、超人的預測能力。“比如DeepMind 的AlphaZero 和AlphaFold 模型系統(tǒng) ,它們似乎分別為國際象棋和蛋白質(zhì)結(jié)構(gòu)預測領(lǐng)域帶來了一種來自‘外星人’的直覺形式?!保?]人類對自己大腦的工作原理并不清楚,人類專家對最新AI 的工作原理一樣不甚清楚。如果說程序員明確理解傳統(tǒng)編程輸入如何以及為何與輸出相關(guān),那么,大型AI 系統(tǒng)就相當不同。AI 專家說:“我們并沒有真正編寫它們的程序——我們是培育它們,而隨著它們成長,它們的能力會急劇躍升。你添加10 倍的算力或數(shù)據(jù),突然間系統(tǒng)的行為就大不相同了。近期的一個例子是,隨著OpenAI 從GPT-3.5 擴展到GPT-4,這個系統(tǒng)在律師資格考試中取得的成績排名從最末10%提高至頭10%?!保?]這種隨系統(tǒng)數(shù)據(jù)和模型參數(shù)增加而來的能力“涌現(xiàn)”,豈非大型AI 系統(tǒng)的“創(chuàng)新”?雖然機器并無創(chuàng)新意識和自覺。AI 在特定任務(wù)方面趕上甚至超過人類的表現(xiàn),讓多數(shù)人工智能專家不再懷疑它已具有“創(chuàng)造性”。柯潔說打敗他的AlphaGo 下出了人類棋手從未下過的步子,他見證了機器從“像人類一樣下棋”到“像棋神一樣下棋”的自我進化。
如今,人工智能既強悍又人性化的表現(xiàn),讓普通人很難僅僅視其為一個工具。從GPT上抄作業(yè)、抄論文的學生,是把它當成授業(yè)之師還是學霸同學?當不少程序AI 都能寫得又快又好時,程序員是得意于獲得一個得心應(yīng)手的助手,還是擔心面臨一個將淘汰他的對手?看了一圈醫(yī)生,問題仍沒有得到解決的病患,最后通過與AI 的互動而獲得正確診斷,這類互動豈非用戶與醫(yī)術(shù)更高明的專家的互動?如果一個畫師給GPT打下手,給AI 作品修圖,那么,畫師是主體,還是AI 是主體?主客體在這里是否已顛倒?雖然修圖要求的技術(shù)或許更高,但在人機關(guān)系上,畫師多少失去了重要性。
GPT的英文是“generative pre-trained transformer”,意為生成式的預訓練轉(zhuǎn)換器。機器的學習是在人類和機器老師的訓練監(jiān)督下進行的。工程師告訴我們,訓練機器如同訓練青少年一樣困難和緩慢。[1]24這意味著,越來越人性化的計算機系統(tǒng)實際上也是一個類社會化的產(chǎn)物。問題是,誰不是GPT?社會化就是父母、老師、朋友、同事、上級、機構(gòu)等,對人做預先訓練,讓受訓者逐步掌握一套說話的模式、做事的模式、價值和規(guī)范的模式,然后可在不同場景舉一反三生成恰當?shù)脑捳Z和行為。但人的預訓練深受種種限制,如家庭、階層、出生地、工作機構(gòu)、人種等,跟大語言模型訓練出來的GPT-3、GPT-4 及未來的GPT-n,在數(shù)量上不可比擬。當我們說GPT是人對機器的類社會化過程,這是人機關(guān)系具有人際關(guān)系的底層邏輯。但機器終究將無所不知、無所不能,成為通用人工智能甚或超級智能,那時恐怕會有一個反向的社會化,即人被GPT社會化,或曰人被AI 化,這或是可以預測和想象的前景。這是另一種互文性,另一種互動性,或人機的交互社會化。我擔心的不是發(fā)明、改進和掌握AI 的技術(shù)精英,而是蕓蕓眾生,或常人主體。AI 醫(yī)療系統(tǒng)已經(jīng)強過多數(shù)醫(yī)生,不被AI 取代的醫(yī)生必將更多地向AI 請教而非相反。AI 戀人,若被發(fā)明并合法化,其施愛的本領(lǐng)和善于與人相處的性情,多半優(yōu)于毛病多多的人類戀人。常人會被各種績優(yōu)表現(xiàn)的AI 降伏,這樣演化出的“人際”關(guān)系勢必侵蝕人的主體性。
至于工程師們,當他們決心要讓機器用人的自然語言跟人類對話時,想到的何止是語言?還有思維、邏輯、價值等,都要像“人”一樣,他們也的確是把機器當作匹配人的主體來訓練。從人機對話到人際對話或不成問題。但當機器日益強大且勢不可當,真正嚴重的問題,已經(jīng)不再是人類主體是否還能匹配機器主體,而是人類主體是否還能控制機器,不致被機器降維(成為AI 的客體),或被機器所滅。
年度《AI 現(xiàn)狀》報告的作者之一伊恩·霍格思認為,三個字母的首字母縮略詞不能體現(xiàn)AGI(通用人工智能)將產(chǎn)生的巨大影響,因此他實事求是地稱其為“上帝般的AI”。他認為,這可能是一種人們無法控制或理解的力量,可能導致人類被淘汰或毀滅。[9]
“上帝般的AI”的風險其實從一開始就被AI 公司的創(chuàng)始人所了解。DeepMind 首席科學家沙恩·萊格早在2011 年就將AI 對人類生存構(gòu)成的威脅描述為21 世紀的頭號風險,人為設(shè)計的生物病原體緊隨其后排在第二位。OpenAI 的奧爾特曼也曾坦率地說:“最糟糕的情形是——我認為說出這一點很重要——我們所有人迎來末日。”
AI 可能導致人類末日的一個例子,是加州大學伯克利分校計算機教授斯圖爾特·拉塞爾在2021年的BBC 廣播講座中提出的。設(shè)想聯(lián)合國請一個通用人工智能幫助去除海洋酸化。聯(lián)合國深知目標設(shè)定不當?shù)娘L險,因此要求副產(chǎn)品無毒且不會傷害魚類。作為回應(yīng),AI 系統(tǒng)提出了一種實現(xiàn)所有設(shè)定目標的自我增殖的催化劑。但隨后發(fā)生的化學反應(yīng)將會消耗大氣中四分之一的氧氣?!拔覀兌紩徛纯嗟厮廊??!崩麪柨偨Y(jié)道,“如果我們將錯誤的目標輸入一臺超級智能機器,就會造成一場我們注定會淪為輸家的沖突?!保?]
人機互動的末世前景,還有并不如此悲切的議論,我們可將之歸為人機互動的降維論,即人類將以達爾文主義的達觀,看著硅基生命以我們碳基生命為踏腳石而升維為地球的第一甚至唯一主體。讓我們來聽聽60 年前硬核科幻作家阿瑟·克拉克的預言:
未來世界最聰明的居民不會是人和猴子,而將是機器及今天的計算機的遙遠后代?,F(xiàn)在的電子大腦完全是白癡,但將來就不會這樣了。它們會開始思考,最終它們會完全超越它們的創(chuàng)造者。這令人沮喪嗎?我不覺得我們應(yīng)該這么想。我們?nèi)〈似渌湃撕湍岚驳绿厝?,我們認為這是一種進步。我們認為,我們應(yīng)該把這看作一種榮耀,可以成為高級生命的墊腳石。我懷疑有機或生物進化已經(jīng)走到了盡頭,我們正處于無機或機械進化的開端,而它的速度將比之前的進化速度快幾千倍。[10]
火雞不會投票支持感恩節(jié)。人們多數(shù)也不會像克拉克那樣,大方地接受被機器替代的結(jié)局。無論是被淘汰還是被降維,都是人類主體性的末世。所以,有樂觀的專家設(shè)想智能技術(shù)將今日之“碼農(nóng)”解放出來,使其變成明日之“智農(nóng)”,成為“人機結(jié)合,知行合一,虛實一體”的“合一體”智慧員工。[7]XXVII這個設(shè)想是不是過于理想?
合理的前景,還是發(fā)明人機通信的維納提出的:人有人的用處,機器有機器的用處。也就是說,人和機器互動足矣!一定要走向“人際”互動,危矣!