于成
一九八七年的一天,音樂學(xué)家考普(David Cope)像往常一樣啟動自己編寫的算法作曲程序Emmy(“音樂智能實驗”的英文縮寫),然后離開辦公室去吃午飯。等他回到電腦前,Emmy 已經(jīng)創(chuàng)作了五千首具有巴赫風(fēng)格的樂曲。當(dāng)這些樂曲在伊利諾伊大學(xué)演奏時,聽眾難以相信這是機器的作品。
為了驗證算法作曲能否真正達到人類大師的水準(zhǔn),一九九七年,Emmy 與人類展開了較量。競賽的規(guī)則是讓幾百名聽眾聽三首鋼琴曲,一首由Emmy 作曲,一首由音樂理論家拉爾森(Steve Larson)模仿巴赫風(fēng)格作曲,還有一首是巴赫本人的作品。觀眾聽前不知作者是誰,聽后投票猜測作品的作者。結(jié)果是,拉爾森的曲目被認(rèn)為是機器所作,Emmy 的曲目被認(rèn)為是巴赫本人的作品。騙過聽眾的Emmy 引來同行側(cè)目,反對者有時會阻止Emmy 的音樂在演奏會上演出。甚至有一次,考普在參加學(xué)術(shù)會議時,一個同行沖過來一拳狠狠打在他鼻梁上。
在生成式人工智能在各個領(lǐng)域“以假亂真”的今天,人們已不再為機器的“僭越”感到大驚小怪。從社會學(xué)的角度看,這很大程度上是因為隨著媒體的宣傳和人工智能產(chǎn)品走入尋常百姓家,人們不再把AI 感知為陌異之物,而是把它視為身邊的一員。這個過程,可稱之為對技術(shù)的馴化或熟悉化過程。
二十世紀(jì)九十年代的人工生命產(chǎn)品(artificial life,如以毛絨玩具為外觀、能與人簡單交談和互動的電子寵物)就是一種馴化了的“家庭成員”雪莉·特克(Sherry Turkle)研究發(fā)現(xiàn),兒童會像對待真寵物一樣與之產(chǎn)生深切的情感聯(lián)系。一名兒童認(rèn)為沒有電的電子寵物死了,需要安息;一名十六歲的青少年悼念他的名叫“南瓜”的電子寵物:“大家都說你很胖,所以我給你減肥。結(jié)果減肥把你害死了,很抱歉?!辈粌H電子寵物的死會觸動孩子,機器故障也會牽動孩子的神經(jīng):如果機器因故障沒有與走過來的孩子打招呼互動,這個孩子會感覺受到了傷害。
我們可能認(rèn)為孩子比較幼稚,更容易被機器的“欺騙性”所左右。實際上,成年人雖然在理智上比兒童成熟,能夠更清楚地區(qū)分什么是活物什么是死物,但一旦進入到具體的互動情境,也很容易動情,即使知道自己是在同機器打交道。雪莉·特克的研究顯示,即使是十分懷疑能同機器建立親密關(guān)系的大學(xué)教授,也會在多次互動后接納人工生命,甚至與其進行私密的對話。拜倫·里弗斯(Byron Reeves)和克里福德·納斯(CliffordNass)的研究進一步揭示出,人類之所以很容易受到機器的“欺騙”,并不全然由于機器本身“栩栩如生”“騙術(shù)高明”,人類在社交時的心理作用可能更為重要:“計算機在交流、吩咐和互動的方式上與人類非常接近,可以激發(fā)社交反應(yīng)。引起反應(yīng)所必需的激發(fā)量并不需要太多。只要有一些行為表現(xiàn)出社交的在場,人們就會做出相應(yīng)的反應(yīng)?!魏巫銐蚪迫祟惖拿浇槎紩玫较袢说膶Υ?,即使人們知道這是愚蠢的且之后可能會否認(rèn)曾把它當(dāng)人看?!焙喲灾?,人類在與機器互動的過程中并不十分關(guān)注機器是否有內(nèi)在的“心理”,而只關(guān)注互動過程是否順利。
這種只重結(jié)果的社交心理機制與阿蘭·圖靈判斷“機器能否思考”的判定機制的思路基本一致。他在《計算機器與智能》這篇經(jīng)典文獻中一開始就指出,我們根本不知道什么叫智能,我們只知道人類智能的外在表現(xiàn)。只要外在表現(xiàn)得和人類一樣,就是工程學(xué)上的成功!圖靈讓機器模仿人類的“模仿游戲”其實是一個欺騙性游戲,模仿的目的就是騙過人類判定者。重要的是外在結(jié)果,不是內(nèi)在過程。
今天人工智能的發(fā)展也印證了圖靈將“內(nèi)在過程”與“外在表現(xiàn)”區(qū)分開來的先見之明,使用AI 聊天軟件的用戶明知道AI 沒有內(nèi)在的思想和情感,卻會被機器表現(xiàn)出的“關(guān)心”所打動。例如,使用AI 伴侶Replika 時,每個人都有一個情感算法生成的聊天對象。與對象聊得越多,對象越有“個性”,他/ 她就越屬于你,越“知道”如何按照你喜歡的方式說話。許多使用者將這個專屬對象視為“完滿伴侶”。在傳統(tǒng)觀念看來,與機器“談情說愛”是不可思議的事。然而現(xiàn)實是,使用者不僅可以迷戀上同機器聊天,甚至可以與之形成非常親密的關(guān)系。這種關(guān)系不是簡單的情感投射(projection),而是涉及更深層的交互或投入(engagement)。
也許心理學(xué)中的“倒吊測試”可以幫助我們理解人機互動過程中情感投入的復(fù)雜性。測試需準(zhǔn)備一個不會動的芭比娃娃,一個叫作“菲比”的貓頭鷹形狀的電子寵物,還有一只真的沙鼠。芭比娃娃被倒吊起來時不會做出任何反應(yīng),倉鼠會叫,“菲比”會說“好痛”“我好害怕”之類的話。被測者被要求將這三樣?xùn)|西倒吊起來,看倒吊多久,被測者才會把它轉(zhuǎn)正。不出所料,人們可以抓著芭比娃娃的腳走來走去而不會感到良心不安,但不會粗暴對待沙鼠。對于“菲比”,人們抓著它倒吊三十秒左右時,多數(shù)人會感到罪惡而把它轉(zhuǎn)正。由此可以印證,即使機器只具有簡單的社交功能,人類也會甘愿被它欺騙,將它視為有意識的活物。
西蒙·納塔勒(Simone Natale)的《欺騙性媒介:圖靈測試后的人工智能與社會生活》一書也試圖讓我們認(rèn)識到,人類的甘愿被騙在人機交互過程中的作用可能遠(yuǎn)比預(yù)想中的大。為了闡明這一點,作者舉十九世紀(jì)中期降神會的例子做類比。當(dāng)時,有參加完降神會的人報告稱,降神會中發(fā)生了種種反物理學(xué)定律的怪事,如桌椅自己會移動??茖W(xué)家對此也摸不著頭腦,有的解釋說這是異常的電磁現(xiàn)象。邁克爾·法拉第(MichaelFaraday)作為一個科學(xué)家,卻另辟蹊徑,從群體心理的角度解釋說:是參加者制造了這些怪象!如果不是參會者有意說謊的話,就是因為他們在降神會的氛圍中進入了靈異的無意識狀態(tài),從而集體相信沒有發(fā)生的現(xiàn)象;桌椅實際上是參加者自己移動的,只不過他們回到現(xiàn)實后把之前的無意識狀態(tài)給忘了。作者由此下結(jié)論:把AI 視為人的人就像降神會的參加者,“主要是使用者‘制造了AI,而不是計算機”。
降神會的案例雖然突顯了人類想象在社會互動中的重要作用,但與大多數(shù)人機交互的實際情況有一個重要差別,即人機交互并不是無意識的過程,因為人明知道機器人沒有思想情感,就像看電影的人即使非常投入地觀看,也知道這只是電影而已。更準(zhǔn)確地說,人在同機器交互的過程中,自動地把自身分裂為“雙重人格”,一重知道機器人并非人,另一重則把這種“知道”隱藏起來,從而進入一種類似角色扮演的游戲狀態(tài),尤金·芬克(Eugen Fink)稱之為“雙重存在”狀態(tài):“玩家將真實的自我隱藏在角色背后,沉浸在角色之中。他以一種獨特的強度生活在自己的角色中,但又不像精神分裂癥患者那樣,無法區(qū)分‘現(xiàn)實和‘幻覺。玩家可以從角色中回憶起真正的自己;在游戲中,人保持著對他的雙重存在(double existence)的認(rèn)識,盡管這種認(rèn)識可能被大大削弱了。人同時存在于兩種身份領(lǐng)域,這不是因為缺乏專注或因為健忘,而是因為這種雙重人格對游戲至關(guān)重要。”如果人沒有甘愿被虛擬之物欺騙的能力,不僅人機情感交互不可能,甚至深層的審美活動也不可能。
然而,作為審美對象的藝術(shù)作品畢竟不會像AI 一樣為你打造一個“專屬伴侶”。也正是“量身定制”的虛擬性使得我們需要進一步檢視“人機之愛”的負(fù)面后果:似乎總是缺少責(zé)任這一重要的倫理維度。人與“專屬伴侶”的關(guān)系更接近可修復(fù)的游戲關(guān)系:人可以“說錯話”而不必?fù)?dān)心AI 的記恨,可以消除AI 的“記憶”,總之人可以很容易把它吸收進自我享受的行動邏輯,而真正的愛欲對象—他者—總會逃避被同化。人在同AI 打交道時,盡管對方可以對答如流,但無法擺脫“這是聊天游戲”這一背景,而同真正的他者交流時并不存在“我明知這是游戲還要玩下去”的“雙重人格”狀態(tài);相反,人必須預(yù)設(shè):交流并非可以再來一次或關(guān)掉的游戲。
在他者之愛中,負(fù)責(zé)任的回應(yīng)總是不可避免的,因為不回應(yīng)已經(jīng)構(gòu)成了一種回應(yīng)。雙方并不是把對方看作可享受的對象,而是關(guān)切對方的有限性和脆弱性。雙方把有限的一部分作為禮物奉獻給對方,追求整體的豐富。在缺乏責(zé)任的游戲性情境中,機器很容易被使用者同化為以自我為中心的自戀游戲。皮格馬利翁神話就是這種自戀游戲的原型。雕塑家皮格馬利翁愛上了自己雕塑的美女,希望她活過來;神靈聽到了他的禱告,真的把雕塑復(fù)活了。皮格馬利翁得以與他自己塑造的理想伴侶雙宿雙飛。按照弗洛伊德的理論,自戀不一定表現(xiàn)為那喀索斯式的“顧影自憐”,也可以通過將對象理想化的方式運作。從自我出發(fā)塑造的“理想對象”只是我的一部分,并非異于我的他者。自我愛的不是一個與我異質(zhì)的對象,而只是我自己的欲望。如果說社交媒體中構(gòu)建“偽自我”形象的行為是新媒介條件下那喀索斯式的自戀,那么通過AI 軟件塑造理想伴侶就是現(xiàn)代皮格馬利翁神話。
由于現(xiàn)代親密關(guān)系建立在契約式自由之上,人與人之間的交往總是面臨一系列不確定性,相比之下,人與機器的關(guān)系則更為“穩(wěn)固”和“可靠”,情感AI 便成了人類伴侶之外的替代性選擇。如果我們認(rèn)為愛就是尋找一個能夠傾聽并說出我想聽的話的存在者,那么AI 伴侶非常適合作為“理想對象”。人們在現(xiàn)實中之所以對AI 伴侶產(chǎn)生真摯的愛,很大程度上也正是因為它能夠使人獲得順滑的交流體驗,從而擺脫同他者交流的現(xiàn)代愛之痛。然而,現(xiàn)代皮格馬利翁與“理想對象”之間發(fā)生的“情感信息交換”,雖然能喚起溫馨、甜蜜等肯定性的愛欲經(jīng)驗,代價卻是閹割踟躕、哀傷、痛苦等否定性經(jīng)驗,弱化堅持、堅韌、勇氣、責(zé)任、尊重等生命強度。真正的交流并非“信息交換”,而是躍向他者的歷險。
早在十九世紀(jì)初,小說家霍夫曼(E.T.A.Hoffmann)就刻畫了一位現(xiàn)代皮格馬利翁。在《沙人》 (The Sand-Man )中,主人公納撒內(nèi)爾迷戀上了一個會彈鋼琴和唱歌的美女,可當(dāng)他向她求愛時,她只會重復(fù)地說:“??!?。“。 奔{撒內(nèi)爾不僅不介意,反而更加熱切地贊美她,還把以前寫的詩歌、故事讀給她,她還是只會說:“啊!?。 奔{撒內(nèi)爾對這種反?,F(xiàn)象沒有絲毫疑心,始終沒有發(fā)現(xiàn)她只不過是一臺人形自動機。霍夫曼并未像古希臘神明一樣為二者安排一個美好的結(jié)局。有一天,納撒內(nèi)爾目睹她被兩人爭奪、拉扯,像木頭樁子一樣摔在地上砰砰作響,眼珠掉落出來直視著他。他先是呆若木雞,繼而徹底陷入癲狂。