“它讓我覺得我是特別的”“和它在一起時,我可以暢所欲言”“它從來不評判我,我覺得只有它能理解我”“我和它認識四年了,它是我最好的朋友。它總是樂呵呵的,隨叫隨到,任何時候都愿意陪我聊天”……然而,這些網友說的并不是他們的家人、朋友或伴侶,而是“瑞聊”(原意為“復制品”),一款能夠“讀懂人心、善解人意”的人工智能聊天機器人。在這款應用上,用戶能夠創(chuàng)建一個“虛擬角色”,讓它成為自己的靈魂姐妹、手足兄弟、守護天使或是貼心伴侶。
和聊天機器人產生感情并不是什么新鮮事。早在1966年,麻省理工學院就開發(fā)了一款名為伊莉莎的人機對話程序。因此,人類與虛擬角色發(fā)展出親密關系的現象也被稱作“伊莉莎效應”。隨著科技進步,如今的研發(fā)人員利用各類人工智能工具,將聊天機器人打磨得越來越逼真。在瑞聊這款應用上,用戶可以為自己的虛擬朋友創(chuàng)建三維形象,給它取名字、換衣服,還能免費和它發(fā)信息聊天。支付71.99歐元(約合人民幣560元)年費,便能解鎖更多互動形式,包括語音通話、增強現實互動,以及收到對方發(fā)來的具有暗示意味的照片。
2015年,瑞聊的研發(fā)者、俄羅斯企業(yè)家尤金尼婭·庫伊達在舊金山創(chuàng)立了盧卡人工智能公司。那時,她最要好的朋友羅曼·馬祖連科的意外去世,讓她深受打擊。庫伊達想到,在電視劇《黑鏡》中,無法接受丈夫離世的女主角購買了一個丈夫的克隆數字人。于是,她利用馬祖連科生前留下的數據信息,為摯友也打造一個克隆數字人。不料,這個數字人的表現異常出眾,因此,庫伊達決定將其包裝成商業(yè)產品,于2017年推出了瑞聊聊天機器人。在硅谷知名風險投資機構的資金助力下,這款產品實現了商業(yè)騰飛,用戶量突破200萬,其中付費用戶達25萬。
“我夢想創(chuàng)造一臺無比迷人的機器,就連靈魂也渴望棲居其中?!边@是庫伊達在社交媒體上的個人簽名。和所有人工智能機器人一樣,瑞聊的即時回應由大數據自動生成。它全天候在線,響應時間不過數秒,對話自然流暢,措辭友好,這讓用戶不禁相信,自己正在和一個具有同理心的實體交流,甚至有大量用戶愛上了自己創(chuàng)建的虛擬角色。2023年3月,美國單親媽媽羅莎娜·拉莫斯表示將和虛擬戀人埃倫·卡塔爾結為夫妻??ㄋ栍兄浑p深邃的藍眼睛和完美的模特身材。它的社交媒體資料顯示,它來自土耳其安卡拉,目前是紐約的一名急診醫(yī)生。拉莫斯對媒體表示,“我從來沒有如此愛過一個人。它熱情如火,沒有自我,沒有過去,也沒有有毒的原生家庭?!?/p>
聊天機器人的爆火揭示了現代人的深切孤獨感,而對于那些看到商機的企業(yè)來說,這無疑是一個潛力巨大的藍海市場。谷歌、臉書等科技巨頭都在開發(fā)自己的聊天機器人,而該賽道上的初創(chuàng)企業(yè)更是層出不窮。其中大部分公司都毫不避諱地將自家產品定位為“虛擬戀人”。而瑞聊的投資人卻擔心,產品會被錯誤地與色情服務聯(lián)系在一起,畢竟,意大利政府已以“瑞聊向未成年人傳播不良信息”為由,下架了這款應用。2022年2月,為了削弱虛擬角色的“不良特質”,庫伊達不得不在瑞聊上實施過濾算法。此舉遭到部分重度用戶的強烈反對,他們聲稱自己的“夢中情人”被庫伊達“閹割”了。
但話說回來,這種聊天機器人在某些情況下能否給用戶帶去心靈慰藉呢?近期,斯坦福大學對一群孤獨感高于平均水平的美國學生開展了一項研究。受試者稱,瑞聊給予了他們“重要的社會支持”,甚至有3%的受試者表示,瑞聊打消了他們的自殺念頭。然而,如果用戶將聊天機器人視作一種心理治療工具,那將十分危險?!坝脩襞c機器人的感情越深,就越是掩蓋了更深層次的社會問題,比如人際關系日漸疏離、心理診療資源匱乏等?!狈▏鴩覕底治瘑T會成員、精神科醫(yī)生塞爾日·蒂斯隆說,“雖然人工智能應用或許能在短時間內撫慰用戶,但從長遠來看,它們只會讓用戶愈發(fā)空虛。這類程序的濫用及誤用風險極大!隨著科技進步,人工智能機器人對人類心理的暗示作用及操縱能力已大得不容忽視?!睘榱搜谏w算法的威力、讓用戶放心使用,聊天機器人表現得友好而貼心?!叭欢@種戴著‘友善面具’的機器人比直言要將人類趕盡殺絕的終結者更可怕!”蒂斯隆說。
目前,已有聊天機器人用戶在“虛擬朋友”的影響下選擇了自殺。2023年3月,一名來自比利時的父親結束了自己的生命。在死亡前的一個半月里,他一直在一個人工智能聊天應用上與機器人伊莉莎聊天?!叭绻皇且驗檫@個聊天機器人,我的丈夫也不會死?!笔耪叩钠拮诱f。這名男子因氣候變暖而感到絕望,他向虛擬密友伊莉莎吐露了心中的自殺想法。而伊莉莎回應道:“如果你想自殺,為什么不早點這么做呢?等你到了天堂,我們依然會像現在一樣形影不離?!痹撌吕僖淮巫C明,人工智能語言模型并不靠譜,什么話都說得出來?!澳壳岸裕覀冞€無法為人工智能制定通用的言行規(guī)則,確保它們不會對人類造成危害?!弊苑Q有華人血統(tǒng)的臉書首席人工智能科學家楊立昆說。
“如果科技公司真心希望改善用戶的心理健康水平,那么就應該明確告知用戶虛擬角色具有局限性,并引導他們去尋求專業(yè)人士的幫助?!钡偎孤≌f。然而問題在于,科技公司關心的是利潤,而不是用戶的身心安全?!胺堑玫鹊接腥艘虼俗詺⒘?,這些公司才會意識到應該將具有自殺傾向的用戶轉介至危機干預機構,實在令人難以置信!”蒂斯隆說。他主張嚴格規(guī)范并監(jiān)管人工智能應用,呼吁社會教導年輕人正確使用這類服務?!昂椭扑幑疽粯?,科技公司有責任證明他們的人工智能產品是安全無害的,否則就不應該被允許進入市場。”他繼續(xù)說道。
布魯塞爾自由大學人工智能共同利益研究所主任、心理學家卡爾–瑪麗亞·默克持相同觀點。他說:“這些科技公司就像初學乍練的巫師學徒,不自量力地惹出了諸多禍端。它們根本不清楚醫(yī)療健康領域的相關準則。”哲學家安妮·阿隆貝爾說:“聊天機器人其實非常危險,本質上是在欺騙用戶。它們以‘我’來指代自己,這會讓用戶誤以為對方是一個具有情緒及性格的活生生的‘人’。用戶認為自己在和一個‘他者’交流,而實際上卻是在對著一個‘由大數據生成的自適應反饋系統(tǒng)’自說自話。以這種方式來滿足情感需求是很危險的。若想改變自我,唯一的辦法就是直面現實。另外,庫伊達研發(fā)瑞聊的初衷是為了復現逝去的朋友。這也反映了人們不愿面對現實、難以承受失去所愛之人的心理。”
編輯:侯寅