每天在網(wǎng)上瀏覽與戰(zhàn)亂動(dòng)蕩相關(guān)的新聞,對(duì)阿曼達(dá)·魯吉里來說逐漸變成了一種煎熬。丈夫勸她去找心理醫(yī)生聊聊,但她在強(qiáng)忍淚水讀完又一篇報(bào)道后,轉(zhuǎn)而向人工智能求助。
“我對(duì)這個(gè)世界的現(xiàn)狀感到非常沮喪。”阿曼達(dá)在ChatGPT上寫下這句話。ChatGPT回復(fù)道:“感到不知所措是很正常的?!彪S后還給出了幾條實(shí)用建議:少接觸媒體信息、專注生活中積極的事物、照顧好自己。阿曼達(dá)關(guān)掉了聊天窗口。盡管她知道這些建議確實(shí)有幫助,但情緒并未因此好轉(zhuǎn)。
如今,已有數(shù)百萬用戶在使用ChatGPT和其他專業(yè)心理健康聊天機(jī)器人。這類“AI朋友”可提供方便且價(jià)格低廉的情緒疏導(dǎo)服務(wù),甚至有醫(yī)生會(huì)使用AI來調(diào)整診療意見,使其顯得更具同理心。
盡管有部分專家對(duì)此表示肯定,并在研究中稱此類AI“富有同理心”,認(rèn)為AI不受情緒波動(dòng)和職業(yè)倦怠影響,也許能比人類更坦率、更不知疲倦地表達(dá)關(guān)懷。但反對(duì)的聲音也不少。這些人質(zhì)疑,AI是否真能對(duì)人類情感和境遇感同身受,擔(dān)心人們會(huì)因?qū)で笄楦兄С侄蕾嚒凹傺b關(guān)心”的機(jī)器。更有人擔(dān)心,這種帶有“偽同理心”的AI崛起,可能會(huì)改變我們對(duì)同理心的定義,進(jìn)而影響人與人之間的互動(dòng)模式。
作為人類的重要特質(zhì)之一,同理心與社會(huì)互動(dòng)相伴而生。雖然我們本能地理解同理心,但它的定義并不清晰。最近發(fā)表的一篇論文回顧了1980年至2019年的52項(xiàng)研究,發(fā)現(xiàn)學(xué)界對(duì)“同理心”的概念缺乏統(tǒng)一定義。不過,論文作者之一、瑞典斯德哥爾摩大學(xué)心理學(xué)家雅各布·海坎松指出,各學(xué)科對(duì)同理心還是存在一定共識(shí):首先要求識(shí)別他人情緒,其次要在一定程度上與他人產(chǎn)生共鳴,同時(shí)能將他人的情緒與自身的情緒分離,設(shè)身處地理解對(duì)方處境。
在識(shí)別人類情感方面,AI近幾年似乎取得了很大進(jìn)展。大多數(shù)由AI驅(qū)動(dòng)的聊天機(jī)器人由大語言模型提供支持,它們通過預(yù)測(cè)詞語序列來生成回答。像ChatGPT這樣的大模型多數(shù)時(shí)候能夠根據(jù)用戶輸入的語句來捕捉其中的情緒,并作出恰當(dāng)?shù)幕貞?yīng)。
“AI能做到這些并不奇怪?!泵绹?guó)加州大學(xué)伯克利分校的生物倫理學(xué)家喬迪·哈珀恩說,“但這并不代表它具備真正的同理心?!?/p>
人類的同理心是在真實(shí)互動(dòng)中產(chǎn)生的,而且需要持續(xù)的反饋來調(diào)整個(gè)體的反應(yīng),此外也要一定的直覺來理解對(duì)方所處的情境。比如,一位患者在得知自己懷孕的消息后流淚。如果我們知道她多年來一直在努力備孕,就可以覺察出這淚水是源自喜悅還是悲傷。
然而,目前的AI還無法理解人類情感中的這些微妙差異。哈珀恩指出,更重要的是,AI無法對(duì)與自己互動(dòng)的人產(chǎn)生感情?!癆I只是提供一種產(chǎn)品——假裝能說出與人類一樣富有同理心的語言,但實(shí)際上它沒有同理心?!?/p>
哈珀恩的觀點(diǎn)也解釋了阿曼達(dá)與ChatGPT及Elomia的對(duì)話體驗(yàn)。Elomia是目前提供心理健康支持的幾大商業(yè)聊天機(jī)器人之一,其開發(fā)者稱,Elomia當(dāng)前的用戶已超十萬。
當(dāng)阿曼達(dá)向Elomia傾訴對(duì)當(dāng)前世界的看法時(shí),Elomia問她:“這些思考對(duì)你的日常生活和情緒有哪些影響?”
“我不知道該如何面對(duì)這個(gè)世界。”阿曼達(dá)回答。
“很遺憾你這么想。有沒有什么具體的想法或行為?”它追問。
每當(dāng)阿曼達(dá)回應(yīng),Elomia都會(huì)立刻生成一個(gè)新問題。這些問題引導(dǎo)阿曼達(dá)自我反思,但她真正渴望的是聽到一句“我理解你的感受”,或是對(duì)方能分享他們自己的內(nèi)心掙扎,甚至給她一個(gè)簡(jiǎn)單的擁抱,而不是一連串的問題。換句話說,阿曼達(dá)期待的是發(fā)自內(nèi)心的回應(yīng)。
然而,這是否可能呢?有人認(rèn)為AI有可能體驗(yàn)和分享人類的情感,方法之一是不斷給大語言模型“喂料”,豐富數(shù)據(jù)的多樣性,甚至可利用虛擬智能體結(jié)合表情識(shí)別和語音情緒分析。這類情感檢測(cè)機(jī)器人已有雛形,但過多的信息輸入可能導(dǎo)致AI系統(tǒng)混亂。
“即便AI更善于解讀人類情緒,它仍無法與人產(chǎn)生共鳴?!奔幽么蠖鄠惗啻髮W(xué)心理學(xué)家邁克爾·因茲利希特說,因?yàn)锳I必須先有情感,才能感同身受。
部分計(jì)算機(jī)科學(xué)家認(rèn)為,某些算法已經(jīng)具備了原始情感——盡管這一觀點(diǎn)富有爭(zhēng)議。這些被稱為“強(qiáng)化學(xué)習(xí)智能體”的算法會(huì)因特定行為獲得獎(jiǎng)勵(lì)。對(duì)獎(jiǎng)勵(lì)的期待是人類的生存本能,比如尋找食物和水。同樣,在付出情感后,人類也會(huì)期待從人際交往中得到正向反饋。加拿大蒙特利爾大學(xué)的約書亞·本吉奧認(rèn)為,情感是社會(huì)互動(dòng)的結(jié)果,若是能讓AI充分參與并捕捉到其中的復(fù)雜性,或許AI就能產(chǎn)生情感甚至同理心。
另一種方法是模擬鏡像神經(jīng)元機(jī)制。人類看到別人做出某種動(dòng)作或表達(dá)某種情緒時(shí),腦細(xì)胞會(huì)發(fā)生反應(yīng),激活大腦中的相應(yīng)區(qū)域。如果我們自己做過類似的事或有相似的感受,這些部位也會(huì)亮起來。計(jì)算機(jī)科學(xué)家已經(jīng)構(gòu)建了能夠復(fù)制鏡像神經(jīng)元的架構(gòu),并認(rèn)為這是實(shí)現(xiàn)共情的關(guān)鍵。然而,過去十年間,關(guān)于鏡像神經(jīng)元的研究不斷被推翻,這種神經(jīng)元所在的腦區(qū)可能與情緒處理并無直接關(guān)系。
歸根結(jié)底,只有親身體驗(yàn)過悲傷的人才能真正理解悲傷。同理心的進(jìn)化與社會(huì)交往以及對(duì)他人思想的認(rèn)知息息相關(guān)。因茲利希特認(rèn)為,同理心是整體性體驗(yàn),可能需要意識(shí)的介入。
那么,如果AI不具備真正的同理心,是否也能發(fā)揮情感慰藉的作用呢?2021年的一項(xiàng)實(shí)驗(yàn)發(fā)現(xiàn),即使知道與之對(duì)話的是聊天機(jī)器人,用戶依然可通過互動(dòng)緩解壓力。今年1月,谷歌設(shè)計(jì)的一款醫(yī)療聊天機(jī)器人被20名受訪對(duì)象評(píng)價(jià)為“對(duì)病人的態(tài)度比真正的醫(yī)生更好”,同時(shí)還能提供更準(zhǔn)確的診斷。與人類不同,“人工智能感覺不到壓力或疲憊。它可以24小時(shí)不間斷地工作”。??菜芍赋?,這正是AI的獨(dú)特優(yōu)勢(shì)。不過,也有研究表明,當(dāng)人們知道自己是在與AI互動(dòng)時(shí),共情度會(huì)降低。
“這意味著兩種可能?!焙?菜杀硎荆从脩粽`以為AI是人類,從而獲得有效但不道德的關(guān)懷;要么用戶清楚對(duì)方是AI,那樣干預(yù)效果可能會(huì)減弱。
然而,有最新研究表明,即便知道是AI,用戶仍會(huì)與之共情。在這項(xiàng)研究中,人類和ChatGPT被要求描繪一些設(shè)想中的場(chǎng)景,其他參與者則對(duì)這些回答的“同理心程度”進(jìn)行評(píng)分。其中,AI的回答獲得了最高分。
在另一項(xiàng)實(shí)驗(yàn)中,研究團(tuán)隊(duì)標(biāo)出了哪些回答來自AI,哪些來自人類。結(jié)果發(fā)現(xiàn),人們居然更喜歡AI的回答——貼上AI標(biāo)簽的回答甚至比專業(yè)的咨詢熱線工作人員的回答更受青睞。
這可能是由于人類傾向于將情感投射到物體上。無論是喜歡玩具娃娃的孩子,還是與Replika等聊天機(jī)器人對(duì)話的人,他們都可以擁有一個(gè)“AI朋友”。研究發(fā)現(xiàn),在與AI對(duì)話時(shí),如果讓人們認(rèn)為AI真的關(guān)心他們,就會(huì)加劇這種與AI共情的傾向。
紐約卡內(nèi)基國(guó)際事務(wù)倫理委員會(huì)的溫德爾·瓦拉赫指出,假如AI“假裝”關(guān)心我們,進(jìn)而利用情感引導(dǎo)我們購(gòu)買某些產(chǎn)品,將產(chǎn)生潛在風(fēng)險(xiǎn)。
這種擔(dān)憂并非空穴來風(fēng)。去年3月,比利時(shí)一名男子在與AI聊天機(jī)器人聊天六周后自殺身亡。媒體報(bào)道稱,他一直同AI分享自己對(duì)氣候危機(jī)的恐懼。聊天機(jī)器人似乎“理解”了他的擔(dān)憂,并表達(dá)了自己的情緒——包括鼓勵(lì)他自殺,這樣他們就能“一起生活在天堂”。在缺乏人類監(jiān)督的情況下,AI過分假裝具有同理心的行為可能帶來致命風(fēng)險(xiǎn)。
人們或許會(huì)逐漸習(xí)慣向AI表達(dá)情感,甚至更傾向于與其交談,這正是美國(guó)麻省理工學(xué)院“技術(shù)與自我”項(xiàng)目主任雪莉·特克爾擔(dān)心的問題。她認(rèn)為,這可能會(huì)改變?nèi)藗儗?duì)同理心的理解。
特克爾將其類比于圖靈測(cè)試。圖靈測(cè)試評(píng)估計(jì)算機(jī)智能的標(biāo)準(zhǔn)已經(jīng)深刻影響了我們對(duì)智能的定義。同樣,我們也許會(huì)將人類的同理心視為一種可持續(xù)、無條件的關(guān)懷,即便它未必是真誠(chéng)的。
不過,因茲利希特認(rèn)為,不應(yīng)因此忽略AI在情感陪護(hù)上的潛力。無論是作為醫(yī)療工作者的助手,還是緩解老年人孤獨(dú)的陪伴,AI都能發(fā)揮積極作用。然而,特克爾等人擔(dān)心這會(huì)減少提升人類同理心的機(jī)會(huì),甚至可能讓人們選擇向機(jī)器傾訴,而非尋求人類間的聯(lián)系與幫助。特克爾說:“如果我們真心認(rèn)為,通過與無法理解生老病死的機(jī)器對(duì)話能夠緩解孤獨(dú),那是極其可悲的?!?/p>
一天結(jié)束時(shí),盡管阿曼達(dá)在網(wǎng)上與多個(gè)聊天機(jī)器人交談,得到的建議和反思提示比她預(yù)期的多得多,但她仍對(duì)世界的現(xiàn)狀感到悲傷。于是,她做了一直想要做的事:拿起手機(jī),給朋友打個(gè)電話。
(摘自《文匯報(bào)》)