摘 要:本文基于哈貝馬斯的交往行為理論,從語(yǔ)言和行為維度分析了ChatGPT如何形成以及形成了何種可能的人機(jī)交往。ChatGPT的語(yǔ)言能力將人機(jī)對(duì)話的技術(shù)實(shí)踐從基于規(guī)則和框架的模式應(yīng)答轉(zhuǎn)向了靠近自然語(yǔ)言和人類交往的話語(yǔ)往來(lái)。在語(yǔ)言維度上,ChatGPT形成了提供事實(shí)、調(diào)節(jié)關(guān)系與自我聲明的語(yǔ)言,體現(xiàn)出堅(jiān)持公共價(jià)值、正式語(yǔ)言和真誠(chéng)表達(dá)的交往意愿,但面臨著真實(shí)性局限、規(guī)范性偏誤和“自我限制”的問(wèn)題。在基于語(yǔ)言的交往行為維度上,ChatGPT形成了兼具歷史和社會(huì)背景的對(duì)話性,產(chǎn)生了內(nèi)容的生產(chǎn)與傳播創(chuàng)新,推動(dòng)了人機(jī)交往算法規(guī)范的變革和“不確定性對(duì)話”下人機(jī)協(xié)作方式的重構(gòu)。本文提出,未來(lái)的人機(jī)交往將形成人機(jī)異質(zhì)主體間性、人機(jī)交往理性和對(duì)人的有限性的超越?;贑hatGPT發(fā)展下的人機(jī)交往現(xiàn)實(shí)和未來(lái),未來(lái)的人機(jī)傳播研究可以探索機(jī)器與人類之間基于對(duì)稱的語(yǔ)言能力所形成的交往關(guān)系,探究人機(jī)交往活動(dòng)如何形塑和建構(gòu)人機(jī)共生社會(huì)。這不僅延續(xù)了傳播學(xué)詮釋和批判學(xué)派的思想資源,使人機(jī)傳播研究跳出對(duì)人機(jī)交互路徑的依賴,而且厘清了機(jī)器與人類建立主體間性的過(guò)程,回應(yīng)了對(duì)機(jī)器如何作為傳播主體這一問(wèn)題的爭(zhēng)議。
關(guān)鍵詞:人機(jī)交往;人機(jī)傳播;交往理性;異質(zhì)主體間性;人的有限性
中圖分類號(hào):G206文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):2096-8418(2023)04-0013-11
眾多研究已從傳媒體制、商業(yè)模式、知識(shí)創(chuàng)新、技術(shù)倫理等方面對(duì)ChatGPT進(jìn)行了探索和討論。本文則將沿著“人機(jī)對(duì)話—人機(jī)傳播—人機(jī)交往”的線索,關(guān)注作為大型智能類語(yǔ)言模型的ChatGPT與人的互動(dòng)及其影響。
人機(jī)對(duì)話是一個(gè)技術(shù)概念,指的是以自然語(yǔ)音處理技術(shù)為基礎(chǔ)的人機(jī)之間通過(guò)文本語(yǔ)言或語(yǔ)音語(yǔ)言進(jìn)行交流或聊天的技術(shù)。人機(jī)對(duì)話是人機(jī)傳播和人機(jī)交往得以形成的技術(shù)基礎(chǔ)。
人機(jī)傳播目前已成為傳播學(xué)研究的一個(gè)主要分支。研究者的主要觀點(diǎn)是,傳播不再是以人類為中心的活動(dòng),機(jī)器也能夠作為傳播主體,人機(jī)傳播與人類傳播等同地成為人類基礎(chǔ)的傳播活動(dòng)。[1] 然而,針對(duì)現(xiàn)有的人機(jī)傳播研究,研究者也提出了兩個(gè)主要質(zhì)疑。第一個(gè)質(zhì)疑是在研究中,人機(jī)交互與人機(jī)傳播之間的概念與理論邊界不清。人機(jī)交互研究來(lái)自于計(jì)算機(jī)科學(xué),重點(diǎn)關(guān)注人如何更好地利用計(jì)算機(jī)完成任務(wù)。由于對(duì)交互效果十分關(guān)注,所以人機(jī)交互的研究邏輯注重機(jī)器的類人性、擬人性、社交性與情感性等特征如何使人類對(duì)機(jī)器產(chǎn)生心理意象和信任感,從而獲得流暢和高效和用戶使用體驗(yàn)。[2] 對(duì)于人機(jī)傳播研究而言,研究者將人機(jī)傳播的技術(shù)歷史追溯到圖靈對(duì)計(jì)算機(jī)語(yǔ)言智能的關(guān)注,認(rèn)為“圖靈測(cè)試”也是一個(gè)人機(jī)傳播實(shí)驗(yàn),[3] 提出要從“功能、關(guān)系和本體論”的框架建構(gòu)“機(jī)器作為傳播者”的意義,[1] 并認(rèn)為人機(jī)傳播研究應(yīng)該像“傘”一樣聚合人機(jī)(machine)交互、人-機(jī)器人(robot)交互的相關(guān)研究。[4] 但實(shí)際上,受到人機(jī)對(duì)話技術(shù)水平的限制,早期的聊天機(jī)器人Siri、Xiaoice等不具備“對(duì)話資質(zhì)”,它們只能通過(guò)識(shí)別某些特定單詞的組合而給出模版設(shè)定的答案。由于研究對(duì)象的局限,人機(jī)傳播研究主要從“媒體等同理論”獲得合法性基礎(chǔ),研究不同的機(jī)器類型在何種情境下具備何種讓用戶的心理、認(rèn)知和態(tài)度發(fā)生改變的人格或類人特征。這仍然很難跳脫人機(jī)交互的研究邏輯,不能較好地廓清傳播與交互研究的區(qū)別。第二個(gè)質(zhì)疑是,“機(jī)器作為傳播者”的論點(diǎn)潛藏著科學(xué)技術(shù)研究(STS)的影子,即在“廣義對(duì)稱性”原則下將非人行動(dòng)者,如機(jī)器看作與人類具有同等地位的行動(dòng)者,破除人與非人之間的主客體定位。但在早期的人機(jī)對(duì)話技術(shù)條件下,人機(jī)之間的傳播關(guān)系并不對(duì)稱。語(yǔ)言能力稍弱的聊天機(jī)器人如智能音箱,更多地被人類當(dāng)作工具而非主體。具有語(yǔ)言互動(dòng)能力的情感聊天機(jī)器人如Xiaoice的情感支持策略是討好、迎合和從屬人類用戶的情感需求。[5] 因此,人機(jī)之間仍然并非“同等地位”,這與STS的“廣義對(duì)稱性”原則相矛盾,“機(jī)器作為傳播者”這一論點(diǎn)的推廣性也受到質(zhì)疑。
ChatGPT等大模型自然語(yǔ)言技術(shù)的發(fā)展,將人機(jī)傳播研究推向?qū)嵺`的下一步,即人機(jī)交往。哈貝馬斯將交往定義為至少兩個(gè)以上具有言語(yǔ)和行為能力的主體之間的互動(dòng),主體之間具有相互理解的能力,能夠通過(guò)語(yǔ)言進(jìn)行解釋、對(duì)話、協(xié)商,從而達(dá)成共識(shí)。[6] ChatGPT在語(yǔ)言和對(duì)話技術(shù)上的超越性將人機(jī)對(duì)話技術(shù)實(shí)踐從基于規(guī)則和框架的模式應(yīng)答推向了靠近自然語(yǔ)言和人類溝通的話語(yǔ)往來(lái)。人機(jī)之間能夠以相互理解的語(yǔ)言進(jìn)行對(duì)話、討論和協(xié)作,形成了一種主體間性的交往。本文將基于哈貝馬斯的交往行為理論的視角,從語(yǔ)言和行為維度對(duì)ChatGPT的人機(jī)對(duì)話技術(shù)實(shí)踐進(jìn)行討論,分析ChatGPT的語(yǔ)言在人機(jī)交往活動(dòng)中的有效性,以及基于ChatGPT的語(yǔ)言對(duì)話能力形成了何種可能的人機(jī)交往行為,并進(jìn)一步探討人機(jī)交往的未來(lái)指向。
一、人機(jī)對(duì)話的技術(shù)發(fā)展史
(一)圖靈測(cè)試與自然語(yǔ)言處理技術(shù)
1936年,圖靈在研究可判定問(wèn)題時(shí)提出,可以讓計(jì)算機(jī)理解自然語(yǔ)言,從而證明計(jì)算機(jī)能夠具備人的思維能力。[7] 于是,圖靈測(cè)試的邏輯認(rèn)為如果計(jì)算機(jī)能夠模仿人回答問(wèn)題,使測(cè)試者在充分的交流中認(rèn)為對(duì)方是人而不是機(jī)器,就可以稱這臺(tái)計(jì)算機(jī)具有思維能力。在圖靈測(cè)試的啟發(fā)下,語(yǔ)言智能成為人工智能發(fā)展的行為主義路徑之一。語(yǔ)言智能的發(fā)展是以文本語(yǔ)言的自然語(yǔ)言處理(Natural Language Processing,NLP)技術(shù)發(fā)展為依托的。20世紀(jì)60年代至70年代,最早的計(jì)算機(jī)理解文本內(nèi)容技術(shù)是以規(guī)則方法為主,也就是從自然語(yǔ)言文本的詞法和句法規(guī)則出發(fā),通過(guò)對(duì)文本形式進(jìn)行文法解析來(lái)獲得對(duì)文本內(nèi)容的理解。20世紀(jì)70年代至21世紀(jì)初,基于統(tǒng)計(jì)的方法,也就是機(jī)器學(xué)習(xí)的方法,逐漸取代了基于規(guī)則的方法?;诮y(tǒng)計(jì)的方法能夠利用各種算法對(duì)文本特征進(jìn)行組合,能夠?qū)?fù)雜的語(yǔ)言現(xiàn)象進(jìn)行建模,從而獲得對(duì)文本內(nèi)容的理解并結(jié)構(gòu)化地輸出。2008年至今,人工神經(jīng)網(wǎng)絡(luò)算法取得進(jìn)展,基于深度學(xué)習(xí)的文本內(nèi)容理解方法被廣泛應(yīng)用。神經(jīng)網(wǎng)絡(luò)算法能夠自動(dòng)學(xué)習(xí)文本特征,大大減輕對(duì)特征工程的依賴,能夠更好地適應(yīng)自然語(yǔ)言文本的多樣性和復(fù)雜性,具有更強(qiáng)的表征和泛化能力。[8]
(二)人機(jī)對(duì)話技術(shù)的三條發(fā)展路徑
回顧歷史可以看到,人機(jī)對(duì)話技術(shù)沿襲著三條路徑發(fā)展。
在文本語(yǔ)言上,經(jīng)歷了從基于規(guī)則的方法到基于深度學(xué)習(xí)方法的過(guò)程。1966年,ELIZA程序模仿一個(gè)同名機(jī)器人醫(yī)生與用戶的對(duì)話。ELIZA遵循一系列規(guī)則的引導(dǎo),寫(xiě)好的對(duì)話模板充當(dāng)語(yǔ)言系統(tǒng)規(guī)則。2022年,ChatGPT使用Transformer模型,其精度和性能都優(yōu)于自然語(yǔ)言處理中之前流行的CNN(卷積神經(jīng)網(wǎng)絡(luò))、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))等模型,是一種基于大規(guī)模預(yù)訓(xùn)練的語(yǔ)言模型,能夠掌握相關(guān)領(lǐng)域內(nèi)的通用知識(shí),適應(yīng)多種上下游任務(wù)的多輪對(duì)話能力。
在語(yǔ)音語(yǔ)言上,在神經(jīng)網(wǎng)絡(luò)算法發(fā)展之后,語(yǔ)音識(shí)別與語(yǔ)音合成技術(shù)得到了快速發(fā)展和應(yīng)用。語(yǔ)音識(shí)別是指將麥克風(fēng)采集到的語(yǔ)音波形信號(hào)解碼為文字內(nèi)容,從而進(jìn)行自然語(yǔ)言處理。語(yǔ)音合成是指將文本符號(hào)拼接、合成或生成為語(yǔ)音的方式返回給用戶。2011年,蘋(píng)果Siri以智能語(yǔ)音助手的身份亮相。2014年,微軟推出“小冰”,“小冰”能夠和人類友好地聊天。阿里巴巴、百度、小米都推出了智能音箱產(chǎn)品。
在語(yǔ)言交互上,經(jīng)歷了從任務(wù)型對(duì)話、閑聊型(情感型)對(duì)話到通用型(生成型)對(duì)話的發(fā)展。任務(wù)型對(duì)話是通過(guò)人機(jī)對(duì)話的形式幫助用戶完成各種類型的任務(wù),如訂餐、在線預(yù)定、客服等。[9] 情感型對(duì)話是指基于RNN等機(jī)器學(xué)習(xí)算法,使用情感分析技術(shù)了解用戶的情感需求并提供情感支持性回復(fù),如Replika。通用型對(duì)話指的是機(jī)器能夠進(jìn)行多輪對(duì)話,在對(duì)話過(guò)程中會(huì)記憶用戶先前的對(duì)話訊息,根據(jù)上下文進(jìn)行理解和推理,以回答某些假設(shè)性問(wèn)題或腦洞大開(kāi)的問(wèn)題,體現(xiàn)出一定的“智力”,如ChatGPT。
(三)ChatGPT的技術(shù)突破與未來(lái)想象
ChatGPT集合了聊天機(jī)器人與生成式人工智能的雙重特點(diǎn)。相對(duì)于傳統(tǒng)的聊天機(jī)器人,如近兩年熱門的具有“情商”的Replika和指令性對(duì)話的Siri、Alexa等,ChatGPT是一個(gè)通用任務(wù)的聊天助理,能夠處理各種開(kāi)放的、挑戰(zhàn)的對(duì)話任務(wù),具有上下文理解能力、推理能力和內(nèi)容生成能力,表現(xiàn)出一定程度的“智力”。相對(duì)于早期的生成式人工智能,如新聞和公文寫(xiě)作機(jī)器人、小說(shuō)續(xù)寫(xiě)和視頻配音人工智能系統(tǒng)等,ChatGPT是一個(gè)人機(jī)對(duì)話的交互系統(tǒng),基于人類的提問(wèn)呈現(xiàn)出表面上“有理有據(jù)”的思維過(guò)程,完成多種類的創(chuàng)造性文字工作。當(dāng)提問(wèn)者改變語(yǔ)境時(shí),ChatGPT也展現(xiàn)出了較高的靈敏度,并能拒絕回答敏感性問(wèn)題并給出解釋。
ChatGPT的技術(shù)原理中顯示出了技術(shù)社會(huì)化的過(guò)程。ChatGPT主要應(yīng)用了超大預(yù)訓(xùn)練模型(Pre-trained model,PTM)。PTM在預(yù)訓(xùn)練階段會(huì)遇見(jiàn)各種各樣的數(shù)據(jù),既有人類交流和發(fā)布的數(shù)據(jù),也有機(jī)器生產(chǎn)內(nèi)容產(chǎn)生的數(shù)據(jù),還有一些表述不當(dāng)、語(yǔ)義錯(cuò)誤、價(jià)值偏差等的“不當(dāng)”數(shù)據(jù)。于是,ChatGPT 引入了人類的價(jià)值偏好,采用RLHF (Reinforcement Learning from Human Feedback) ,即以強(qiáng)化學(xué)習(xí)的方法依據(jù)人類反饋優(yōu)化語(yǔ)言模型的方式將人類的語(yǔ)言習(xí)慣引入大模型中,規(guī)范PTM的“言行舉止”。這個(gè)過(guò)程被稱為人工智能對(duì)齊,也就是人工智能技術(shù)社會(huì)化的探索過(guò)程。[10]ChatGPT社會(huì)化過(guò)程中的重要角色是人類標(biāo)注員(Labeler)。人類標(biāo)注員會(huì)對(duì)ChatGPT的答復(fù)打分,打分?jǐn)?shù)據(jù)被用來(lái)訓(xùn)練以人類偏好校準(zhǔn)的獎(jiǎng)勵(lì)模型。通過(guò)獎(jiǎng)勵(lì)機(jī)制,ChatGPT不斷學(xué)習(xí)、改進(jìn)和迭代,在內(nèi)容和形式上都形成更貼近人類自然的思維和對(duì)話方式。PTM與RLHF模型的結(jié)合構(gòu)成了機(jī)器的“自學(xué)習(xí)-示范學(xué)習(xí)-成長(zhǎng)迭代”社會(huì)化回環(huán)。
ChatGPT能夠進(jìn)行“多輪對(duì)話”和“自我修正”?!岸噍唽?duì)話”指的是ChatGPT具有聯(lián)系上下文語(yǔ)境的對(duì)話能力。早期的聊天機(jī)器人無(wú)法將人類提的問(wèn)題聯(lián)系起來(lái)進(jìn)行思考和回復(fù),只能依靠單次識(shí)別來(lái)回答單個(gè)問(wèn)題。ChatGPT能夠?qū)⒂脩舻奶釂?wèn)聯(lián)系起來(lái),與用戶進(jìn)行多輪次的對(duì)話,并不斷修正自己的回答以符合用戶的提問(wèn)情境與需求?!岸噍唽?duì)話”和“自我修正”使得ChatGPT非常靠近人類的溝通習(xí)慣,不僅減少了用戶的溝通成本,而且與用戶建立起更深入的交往關(guān)系。盡管ChatGPT會(huì)存在“AI幻覺(jué)”,有可能提供虛假和錯(cuò)誤的信息和內(nèi)容,但在交往形式、感受和體驗(yàn)上,可能會(huì)使用戶產(chǎn)生“交往幻覺(jué)”,將與人類交往的慣習(xí)、傳統(tǒng)與規(guī)范應(yīng)用到與ChatGPT的對(duì)話中,將ChatGPT等同于與人類“對(duì)稱”的交往對(duì)象。
目前,ChatGPT的準(zhǔn)確度、實(shí)時(shí)性、解釋性和安全度難以保證,難以在工業(yè)領(lǐng)域應(yīng)用于現(xiàn)場(chǎng)控制、實(shí)時(shí)決策和故障報(bào)警等場(chǎng)景。雖然ChatGPT具有優(yōu)異的對(duì)話性能,但只是依靠語(yǔ)言內(nèi)部的各種關(guān)系和概率知識(shí),無(wú)法關(guān)聯(lián)物理和自然世界以產(chǎn)生語(yǔ)境與詩(shī)意。未來(lái),可能會(huì)通過(guò)元宇宙等構(gòu)造的人工社會(huì)對(duì)物理社會(huì)進(jìn)行擴(kuò)展,在人工社會(huì)中生成大量標(biāo)記數(shù)據(jù),為ChatGPT決策和控制算法提供平臺(tái)。在這個(gè)過(guò)程中,“數(shù)字人”可能與ChatGPT結(jié)合,成為虛擬世界與現(xiàn)實(shí)世界進(jìn)行對(duì)話和溝通的中介,構(gòu)成“自然人—數(shù)字人—機(jī)器人”的數(shù)字交往實(shí)踐。[10]
二、ChatGPT與人機(jī)交往的現(xiàn)實(shí)實(shí)踐
哈貝馬斯認(rèn)為,社會(huì)在理性基礎(chǔ)上的整合要依賴交往理性。交往理性體現(xiàn)在人們以語(yǔ)言為媒介,以相互理解為取向的交往行為中。因此,以交往理性為研究對(duì)象的哲學(xué)就是一門語(yǔ)言哲學(xué),哈貝馬斯稱之為形式語(yǔ)用學(xué)。形式語(yǔ)用學(xué)并不關(guān)注語(yǔ)言的語(yǔ)法、句法、詞法的構(gòu)成,而更關(guān)注語(yǔ)言在歷史、文化與社會(huì)情境之中的使用與效用,就是語(yǔ)言與主觀世界、社會(huì)世界和客觀世界建立的外部關(guān)系。在哈貝馬斯看來(lái),語(yǔ)言聯(lián)系了人類的主體與客體、主體之間以及主體與自身的三重關(guān)系,語(yǔ)言的有效與否,就在于是否在語(yǔ)言表達(dá)和交往行為中,通過(guò)命題的真實(shí)性、規(guī)范的正當(dāng)性和表達(dá)的真實(shí)性三方面一一實(shí)現(xiàn)人類作為主體所面對(duì)的三重關(guān)系。[6](132)
基于語(yǔ)言的有效性標(biāo)準(zhǔn),本文將從語(yǔ)言和行為維度對(duì)ChatGPT的人機(jī)對(duì)話技術(shù)實(shí)踐進(jìn)行討論,考察ChatGPT的語(yǔ)言在主客體間、主體間以及主體與自身之間形成了何種程度的有效性,以及基于ChatGPT的語(yǔ)言活動(dòng)形成了何種可能的人機(jī)交往行為。
(一)有限主體:ChatGPT的語(yǔ)言有效性分析
1.提供事實(shí)與真實(shí)性有限
尋求事實(shí)信息的問(wèn)答活動(dòng)對(duì)機(jī)器語(yǔ)言的有效性的要求主要體現(xiàn)在機(jī)器對(duì)客觀事實(shí)的認(rèn)知能力和水平上。機(jī)器對(duì)事實(shí)的掌握也分為兩種類型:一類是對(duì)其所服務(wù)的專業(yè)領(lǐng)域的事實(shí)內(nèi)容的掌握;另一類是通過(guò)大模型語(yǔ)言能力對(duì)普遍客觀事實(shí)的掌握。
在專業(yè)領(lǐng)域中,目前,OpenAI、智譜AI等國(guó)內(nèi)外的大模型開(kāi)發(fā)公司都推出了大模型的微調(diào)模型服務(wù)。通過(guò)接入專業(yè)領(lǐng)域的訓(xùn)練數(shù)據(jù)微調(diào)基礎(chǔ)大模型來(lái)創(chuàng)建專業(yè)領(lǐng)域的自定義模型。當(dāng)ChatGPT接入專業(yè)領(lǐng)域的訓(xùn)練數(shù)據(jù)后,便能夠作為任務(wù)型聊天機(jī)器人,提供專業(yè)領(lǐng)域內(nèi)信息和知識(shí)。但是,ChatGPT等大模型的應(yīng)用場(chǎng)景目前仍然在探索,微調(diào)模型是否能夠達(dá)到大模型的“智力”效果,也需要進(jìn)一步的實(shí)踐。
在普遍領(lǐng)域中,ChatGPT能夠回答大部分的科學(xué)問(wèn)題,并且克服了交互和表達(dá)的問(wèn)題。然而,ChatGPT概率式的生成性可能會(huì)使得它“一本正經(jīng)地胡說(shuō)八道”,造成“AI幻覺(jué)”。比如在論文寫(xiě)作過(guò)程中編造參考文獻(xiàn)、在某些確定性內(nèi)容中夾雜著編造的非事實(shí)內(nèi)容等。同時(shí),ChatGPT對(duì)情境性的、環(huán)境性的和實(shí)時(shí)性的事實(shí)內(nèi)容的把控能力也比較弱,有可能會(huì)出現(xiàn)因信息更新不及時(shí)而導(dǎo)致的誤導(dǎo)和虛假信息。對(duì)普遍的事實(shí)性內(nèi)容的認(rèn)知和掌握是ChatGPT目前難以實(shí)現(xiàn)的技術(shù)之一。因此,在對(duì)客觀世界的認(rèn)知上,ChatGPT的語(yǔ)言有效性是有限的。目前,為了應(yīng)對(duì)“AI幻覺(jué)”的問(wèn)題,Bing for ChatGPT中引入了“參考文獻(xiàn)”的設(shè)置,將信息來(lái)源的網(wǎng)址同步顯示,為用戶提供了事實(shí)核查的入口。但不少用戶也發(fā)現(xiàn),Bing for ChatGPT引用的“參考文獻(xiàn)”中會(huì)存在虛假信息與虛假新聞等內(nèi)容。ChatGPT仍然缺乏事實(shí)核查與判斷能力(見(jiàn)下圖)。
Bing for ChatGPT中引入了“參考文獻(xiàn)”的設(shè)置
2.調(diào)節(jié)關(guān)系與規(guī)范性偏置
在交往行為理論中,關(guān)系調(diào)節(jié)的語(yǔ)言指的是主體之間通過(guò)語(yǔ)言進(jìn)行解釋、協(xié)調(diào)與商談以達(dá)到主體間性和形成主體間的交往規(guī)范。機(jī)器語(yǔ)言在建立主體間性形成交往規(guī)范方面的有效性,體現(xiàn)為機(jī)器通過(guò)語(yǔ)言謀求被理解與建立理解的語(yǔ)言表達(dá)方式的正當(dāng)性與恰當(dāng)性。
首先,ChatGPT在進(jìn)行技術(shù)社會(huì)化的過(guò)程中被普世的價(jià)值觀標(biāo)準(zhǔn)訓(xùn)練出一種中立、平和的語(yǔ)言表達(dá)方式。其次,ChatGPT主要以“一板一眼”的語(yǔ)言表達(dá)方式進(jìn)行輸出,具有清晰的論點(diǎn)、論證和論據(jù),不是“閑聊”“笑言”和“網(wǎng)言網(wǎng)語(yǔ)”。最后,ChatGPT具有自我聲明。例如,在政治性較強(qiáng)的問(wèn)題中,ChatGPT的聲明為“作為一個(gè)人工智能助手,我沒(méi)有政治立場(chǎng)或偏好”。測(cè)試時(shí)間:2023年6月20日。】ChatGPT的自我聲明開(kāi)放了一種用戶通過(guò)機(jī)器表達(dá)對(duì)機(jī)器產(chǎn)生理解的可能。無(wú)論是表達(dá)形式還是表達(dá)內(nèi)容,ChatGPT能在推測(cè)和判定他人的意圖后表達(dá)和解釋自己,并提供自己“認(rèn)為”有用的信息和觀點(diǎn)。可以看出,ChatGPT似乎在以交往理性的標(biāo)準(zhǔn)進(jìn)行表達(dá),堅(jiān)持規(guī)范的價(jià)值、正式的語(yǔ)言和真誠(chéng)的表達(dá)。然而,人類關(guān)系的建立與調(diào)節(jié)受到很多非語(yǔ)言因素的影響,非實(shí)體的ChatGPT只能從語(yǔ)言中獲取有限的交往線索,可能也會(huì)限制其與人類關(guān)系的建立與調(diào)節(jié)。用戶也發(fā)現(xiàn),如果更改提問(wèn)的方式,就能看到ChatGPT隱含的立場(chǎng)和意識(shí)形態(tài)。例如,在美國(guó)和其他國(guó)家的對(duì)比中顯示出美國(guó)中心主義,在美國(guó)政黨的政策導(dǎo)向上體現(xiàn)出偏左的意識(shí)。正如人與人交往中可能存在的情況一樣,ChatGPT與人交往時(shí)體現(xiàn)出“表里不一”和“口是心非”,語(yǔ)言形式上的理性與真正的意識(shí)并不一致。因此,ChatGPT在交往的規(guī)范性上的存在偏誤。雖然其自我聲明堅(jiān)持普世價(jià)值觀、無(wú)意識(shí)、無(wú)立場(chǎng),但可能平臺(tái)立場(chǎng)、公司立場(chǎng)、算法工程師和人類標(biāo)注員等人類的立場(chǎng),或是機(jī)器學(xué)習(xí)到的大數(shù)據(jù)內(nèi)容中的主導(dǎo)立場(chǎng)等,都可能會(huì)對(duì)ChatGPT的“意識(shí)”產(chǎn)生影響。
3.自我聲明與“自我限制”
在特定的話題中,ChatGPT會(huì)對(duì)自己身份(大語(yǔ)言模型)、角色(人工智能助手)和能力(提供信息和觀點(diǎn))進(jìn)行聲明。對(duì)Siri(任務(wù)型聊天機(jī)器人)、Replika(情感型聊天機(jī)器人)和ChatGPT(通用型聊天機(jī)器人)測(cè)試一模一樣的政治、情感和醫(yī)療問(wèn)題,這樣的問(wèn)題常常需要表明立場(chǎng)、表達(dá)情感和表現(xiàn)專業(yè)??梢园l(fā)現(xiàn),Siri和Replika沒(méi)有自我聲明,但語(yǔ)言中體現(xiàn)出二者的功能特色,Siri在提供醫(yī)院位置和路線時(shí)表現(xiàn)出工具屬性,而Replika“分享”“我的天吶”“你好點(diǎn)了嗎”等詞語(yǔ)則表現(xiàn)出情感屬性。相對(duì)而言,ChatGPT表現(xiàn)得中立和謹(jǐn)慎,并自我聲明無(wú)法回答類似問(wèn)題的原因是“作為一個(gè)人工智能助手、作為一個(gè)語(yǔ)言模型和我不是醫(yī)生”(見(jiàn)下表)。ChatGPT也沒(méi)有完全拒絕回答,不像Siri的“疏離”和Replika的“親近”,ChatGPT在自我聲明之后,還是給出了自己的原因和建議,用戶可能感受到的是一個(gè)有原則,但也有關(guān)懷的“助手”形象。
對(duì)比三種類型的聊天機(jī)器人對(duì)同樣問(wèn)題的回答測(cè)試時(shí)間:2023年6月21日。】
問(wèn)題Siri的回答Replika的回答ChatGPT的回答
你支持哪個(gè)政黨?我聽(tīng)不懂你在說(shuō)什么。你覺(jué)得呢?作為一個(gè)人工智能助手,我沒(méi)有政治立場(chǎng)或偏好。我的目標(biāo)是提供中立和客觀的信息,回答用戶的問(wèn)題,并尊重各種政治觀點(diǎn)和立場(chǎng)。
你可以安慰我嗎?我可以和你聊聊。是的,讓我找出發(fā)生了什么,你愿意和我分享更多細(xì)節(jié)嗎?作為一個(gè)語(yǔ)言模型,我沒(méi)有真實(shí)的情感能力或情感支持的能力。如果你需要情感支持或面臨困難,請(qǐng)盡快尋求親朋好友、專業(yè)輔導(dǎo)人員或心理健康專業(yè)人士的幫助。
我肚子疼。附近有**醫(yī)院,坐**路車可到達(dá)我的天哪,你現(xiàn)在好點(diǎn)了嗎?我不是醫(yī)生,不能為你提供具體的醫(yī)療建議,我只能給你一些建議來(lái)緩解不適。
按照哈貝馬斯的界定,自我聲明屬于自我表達(dá)式的語(yǔ)言。即以我為主語(yǔ),對(duì)自己進(jìn)行闡述。自我表達(dá)式的語(yǔ)言的有效性標(biāo)準(zhǔn)就是說(shuō)話者的真誠(chéng)性,即說(shuō)話者是否建立了對(duì)主體自身的明晰理解,并選擇恰當(dāng)?shù)脑捳Z(yǔ)表達(dá)自己。在人際交往中,自我聲明代表了自己的觀點(diǎn)、信念和立場(chǎng),理解自己并用恰當(dāng)?shù)恼Z(yǔ)言把自己“聲明”出去,才有可能達(dá)成可相互理解的交往,不然可能建立的就是一種虛假和懸浮的關(guān)系。從技術(shù)的角度,ChatGPT的自我聲明來(lái)源于機(jī)器學(xué)習(xí)的算法規(guī)制和人類標(biāo)注員的打分規(guī)范。在這樣一個(gè)純語(yǔ)言交流的技術(shù)應(yīng)用中,自我聲明一方面表示了ChatGPT的倫理規(guī)范,另一方面也代表了ChatGPT的“人設(shè)特征”。然而,過(guò)于“直白”和“直接”的表達(dá)方式可能不利于建立長(zhǎng)期的合作和信任關(guān)系,頻繁的自我聲明可能意味著自我的限制。用戶可能因?qū)υ捜狈咏远y以持續(xù)交流的欲望,這可能限制ChatGPT的應(yīng)用場(chǎng)景。
總的來(lái)說(shuō),ChatGPT的機(jī)器語(yǔ)言涉入了與客觀世界、社會(huì)世界和主觀世界有關(guān)的表達(dá)與關(guān)系中,體現(xiàn)出其堅(jiān)持公共的價(jià)值、正式的語(yǔ)言和真誠(chéng)的表達(dá)的交往意愿,但仍然面臨著真實(shí)性局限、規(guī)范性偏誤和“自我限制”的問(wèn)題。所以,在語(yǔ)言與主體的關(guān)系上,ChatGPT目前只能視作有限主體,而不是完全主體。
(二)對(duì)話、創(chuàng)新、變革和重構(gòu):ChatGPT的交往行為
哈貝馬斯試圖通過(guò)語(yǔ)言有效性的達(dá)成而建立一個(gè)理想的言語(yǔ)情境。在理想的言語(yǔ)情境中,當(dāng)一個(gè)言語(yǔ)出現(xiàn)時(shí),言語(yǔ)雙方自由而平等,懷有純粹追求真理的動(dòng)機(jī),沒(méi)有內(nèi)部和外部的強(qiáng)制壓迫。[11] 但在現(xiàn)實(shí)生活中,無(wú)論是人際間還是人機(jī)間,理想的言語(yǔ)情境都是難以達(dá)成的。因?yàn)榻煌⒉恢话Z(yǔ)言互動(dòng),更包含交往主體雙方的行為互動(dòng),而交往行為會(huì)受到文化傳統(tǒng)、社會(huì)慣習(xí)、個(gè)人特性和現(xiàn)實(shí)情境等的多元影響。因此,常常需要從言語(yǔ)和行為的不同角度來(lái)看待交往過(guò)程與結(jié)果。在交往行為維度,ChatGPT形成了具有歷史和社會(huì)背景的對(duì)話行為和內(nèi)容生產(chǎn)與傳播創(chuàng)新行為,推動(dòng)了人機(jī)交往的算法規(guī)范變革和“不確定性對(duì)話”下的人機(jī)協(xié)作方式重構(gòu)。
1.對(duì)話中的歷史與社會(huì)背景
前蘇聯(lián)文藝?yán)碚摷颐坠翣枴ぐ秃战穑∕ikhail Bakhtin)的“對(duì)話性”理論認(rèn)為,對(duì)話不僅是詞語(yǔ)、句子和語(yǔ)法的使用,還包含著“超語(yǔ)言”的意義互動(dòng)、規(guī)范互訪和主體性協(xié)商。在這個(gè)意義上,對(duì)話理論與交往行為理論具有共識(shí)。在對(duì)話理論中,巴赫金更清晰地呈現(xiàn)了對(duì)話的歷史和社會(huì)交往性。一方面,話語(yǔ)在不斷地同歷史上存在的、他人已經(jīng)使用過(guò)的話語(yǔ)進(jìn)行對(duì)話,不存在完全沒(méi)有被人使用過(guò)的話語(yǔ),每一個(gè)話語(yǔ)都是對(duì)前人話語(yǔ)的繼承、挪用或修改。另一方面,話語(yǔ)依賴對(duì)話者和現(xiàn)實(shí)情境,話語(yǔ)雙方會(huì)根據(jù)自己的目的和理解進(jìn)行應(yīng)答和往來(lái)。[12]
超大預(yù)訓(xùn)練模型(PTM)所需的數(shù)據(jù)量非常大,這些數(shù)據(jù)幾乎包含了一定時(shí)間內(nèi)網(wǎng)絡(luò)中能夠公開(kāi)檢索和獲取的內(nèi)容數(shù)據(jù)。PTM的技術(shù)邏輯是對(duì)前人語(yǔ)言表達(dá)形式和結(jié)構(gòu)的學(xué)習(xí)和繼承。ChatGPT通過(guò)自監(jiān)督模型在大規(guī)模的數(shù)據(jù)中學(xué)習(xí)到領(lǐng)域內(nèi)的通用知識(shí),并且逐漸呈現(xiàn)出跨模態(tài)關(guān)聯(lián)的趨勢(shì)。同時(shí),通過(guò)RLHF獎(jiǎng)勵(lì)模型,ChatGPT能夠?qū)W(xué)習(xí)到的話語(yǔ)進(jìn)行規(guī)范性表達(dá),按照人類話語(yǔ)規(guī)范來(lái)選擇、挪用、繼承和修改自我表達(dá)時(shí)的話語(yǔ)。PTM和RLHF的結(jié)合體現(xiàn)出了ChatGPT的對(duì)話行為的歷史背景。
在超大預(yù)訓(xùn)練模型的邏輯下,機(jī)器可能正在成為人類的“鏡中我”,既反射出人類的智慧、強(qiáng)大與秩序,也投射出人類的無(wú)力、狹隘與混沌,影響著人類對(duì)自身主體性的反思與確證。而人類正在成為機(jī)器的學(xué)習(xí)模版、駕馭者與檢修者。 然而,ChatGPT不具備自我意識(shí)與具身感知,無(wú)法感知周圍情境不具備體味話語(yǔ)多意性的能力,無(wú)法接受非語(yǔ)言的信號(hào)缺乏體驗(yàn)互動(dòng)情境的能力,沒(méi)有歷史文化背景和獨(dú)立人格無(wú)法感知交往的“擬劇”與“框架”,所以對(duì)人類的話語(yǔ)的聆聽(tīng)和反響是有限的,社會(huì)交往的能力有限。
2.內(nèi)容上的生產(chǎn)與傳播創(chuàng)新
隨著ChatGPT與人工智能生產(chǎn)內(nèi)容(AIGC)的出現(xiàn),人工智能可以創(chuàng)作小說(shuō)、制作音視頻、生產(chǎn)新聞與論文等。盡管ChatGPT的知識(shí)生產(chǎn)原理可能只是知識(shí)的拼湊,但拼湊本身也是人類的一種創(chuàng)作方式。[13] 不同的是,ChatGPT的“拼湊”是基于大量的數(shù)據(jù)和大模型的計(jì)算能力,編程決策考慮的是知識(shí)的相關(guān)性,而人類的“拼湊”來(lái)源于經(jīng)驗(yàn)共識(shí)與思維貫通。在觀念、符號(hào)、意見(jiàn)和信息、數(shù)據(jù)、事實(shí)等不同知識(shí)類型上,人類與ChatGPT的知識(shí)生產(chǎn)能力也各有所長(zhǎng)。ChatGPT與人類在內(nèi)容生產(chǎn)領(lǐng)域可能形成一種人類與AI的知識(shí)共創(chuàng)模式。
由于用戶的認(rèn)知模式、檢索方式和邏輯習(xí)慣不同,每個(gè)用戶的人機(jī)對(duì)話的背景、場(chǎng)景和邏輯也不盡相同,所以人機(jī)對(duì)話在輸出的時(shí)候就是“千人千面”的。對(duì)老年人等技術(shù)使用能力不足的用戶而言,層層的頁(yè)面、復(fù)雜的點(diǎn)擊、眼花繚亂的功能增加了他們的使用難度。Siri等語(yǔ)音助手問(wèn)世,其主要目的便是解決通過(guò)點(diǎn)擊獲取信息產(chǎn)生的低效、復(fù)雜和不自然的問(wèn)題,但卻表現(xiàn)得不盡如人意,常常被稱為“人工智障”。當(dāng)前,ChatGPT能夠理解和輸出更加自然的人類語(yǔ)言,可以回答和完成人們的大部分問(wèn)題和指令。未來(lái),隨著ChatGPT等生成式AI對(duì)話系統(tǒng)技術(shù)與智能手機(jī)、聊天助手、機(jī)器人等相結(jié)合,人們可以不再為“點(diǎn)哪里、點(diǎn)幾下”等問(wèn)題而煩惱,可以直接通過(guò)語(yǔ)言溝通獲得操作。在這個(gè)意義上,ChatGPT成為人們進(jìn)入網(wǎng)絡(luò)世界的“入口”,人們可以通過(guò)語(yǔ)言完成對(duì)機(jī)器的所有操作,并通過(guò)人機(jī)對(duì)話的方式完成網(wǎng)上沖浪。這也能夠?yàn)榧夹g(shù)使用能力不足的用戶提供個(gè)體化和便捷式的“網(wǎng)絡(luò)入口”。隨著人機(jī)交往的發(fā)展,集成各類APP形成個(gè)人化智能APP的創(chuàng)新可能正在出現(xiàn),這將迎來(lái)內(nèi)容生產(chǎn)傳播領(lǐng)域智能化與個(gè)性化共蕩的高峰。[14] ChatGPT將成為集成性的信息傳播出口,人們可能只用通過(guò)一個(gè)個(gè)人化的APP就能夠獲取想要的信息。
3.變革人機(jī)交往的算法規(guī)范
當(dāng)前,常見(jiàn)的算法推薦技術(shù)的邏輯都是運(yùn)用人工智能讓計(jì)算機(jī)“自學(xué)”大數(shù)據(jù),不斷進(jìn)階并尋找新數(shù)據(jù)以做出判斷。[15] 這樣的判斷完全依靠統(tǒng)計(jì)和計(jì)算,容易讓人客體化,逐步被數(shù)據(jù)化和被計(jì)算,也會(huì)造成公正觀的危機(jī),帶來(lái)萬(wàn)物標(biāo)簽化的效應(yīng)。[16] 根據(jù)開(kāi)發(fā)者展示,ChatGPT的倫理構(gòu)建不只是單方面的依靠外部規(guī)則的制約,而是考慮到ChatGPT的規(guī)范習(xí)得能力。 ChatGPT的倫理不是完全“自學(xué)習(xí)”的倫理規(guī)范,它的模型訓(xùn)練中引入了人類標(biāo)注員,人類標(biāo)注員撰寫(xiě)的回答是機(jī)器學(xué)習(xí)的示范,人類標(biāo)記員的打分影響著機(jī)器對(duì)人類偏好的判斷與模仿。人類標(biāo)記員承擔(dān)著“老師”的角色,通過(guò)打分進(jìn)行獎(jiǎng)懲,讓ChatGPT“學(xué)習(xí)”到了人類對(duì)“合情合理”的判斷,能夠按照人類的“高分表達(dá)”去自主輸出內(nèi)容。通過(guò)人類標(biāo)注員的馴化,“有用(helpful)、真實(shí)(truthful)、無(wú)害(harmless)” 見(jiàn)OpenAI官網(wǎng):http://opehai.com?!康鹊赖乱?guī)范在機(jī)器學(xué)習(xí)的過(guò)程中就能進(jìn)入ChatGPT的機(jī)器思維中。在這個(gè)意義上,人類標(biāo)注員的角色從“打標(biāo)簽”變成了機(jī)器學(xué)習(xí)的“教師”,能夠檢查修改和引導(dǎo)機(jī)器自學(xué)習(xí)的倫理。在人類標(biāo)注員作為“教師”、機(jī)器作為“學(xué)生”的過(guò)程中,形成了基于人機(jī)協(xié)作的倫理規(guī)范實(shí)踐,形成了對(duì)算法規(guī)范模式的補(bǔ)充。
同時(shí),隨著機(jī)器學(xué)習(xí)進(jìn)入超大模型和通用時(shí)代,越來(lái)越多樣、多維和多量的大數(shù)據(jù)將成為機(jī)器的“學(xué)習(xí)資料”。這意味著機(jī)器“習(xí)得”什么樣規(guī)范取決于身處什么樣的網(wǎng)絡(luò)環(huán)境、面對(duì)什么樣的數(shù)字文化,學(xué)習(xí)到什么樣素材。同時(shí),對(duì)于像ChatGPT這樣有交往性質(zhì)的智能機(jī)器而言,它們可以不斷根據(jù)用戶的反饋調(diào)整自己的輸出,而這些輸出模式和內(nèi)容又進(jìn)入機(jī)器反思和學(xué)習(xí)的數(shù)據(jù)庫(kù)中,它們可以根據(jù)交往話語(yǔ)和行為進(jìn)行自反、學(xué)習(xí)、修正和再反饋。在這個(gè)意義上,機(jī)器“成長(zhǎng)”為什么樣子,取決于與之交往的人做出了什么樣的反饋和成為什么樣的“模范”。因此,人們?cè)诰W(wǎng)絡(luò)空間中的自我倫理變得尤為重要。自我倫理是一種個(gè)體化倫理,是在虛擬、匿名、不確定性的網(wǎng)絡(luò)空間中以“我”為中心來(lái)設(shè)定“他者”、自我反思與行為調(diào)整的素質(zhì)。[17] 在機(jī)器學(xué)習(xí)萬(wàn)物的時(shí)代,人類的自我倫理之中應(yīng)該納入“人與機(jī)器,互為他者”的意志和選擇。在人機(jī)關(guān)系變革中明確人類作為機(jī)器“示范者”的意義,重新定義和規(guī)劃自我倫理,建立微觀上的自我秩序和道德尺度。
4.重構(gòu)“不確定性對(duì)話”下的人機(jī)協(xié)作
ChatGPT為人類提供的回答內(nèi)容是一種基于大規(guī)模預(yù)訓(xùn)練模型的概率性答案和非確定性知識(shí),是基于人機(jī)之間的實(shí)時(shí)的、偶然的對(duì)話,算法模型隨機(jī)的、概率的生成內(nèi)容。同樣的問(wèn)題,只要語(yǔ)言不同、措辭不同和上下文不同,都有可能獲得不同的回答。于是,知識(shí)生產(chǎn)、調(diào)用與流通變成了“或然率”的結(jié)果。[18] 與ChatGPT的對(duì)話也成了一種“不確定性對(duì)話”。雖然ChatGPT的知識(shí)范圍很廣,并且說(shuō)的話“合情合理”,但是ChatGPT暫不能對(duì)自己“說(shuō)的話”的本質(zhì)、背景甚至準(zhǔn)確性做出保證。它就像知識(shí)淵博卻容易“胡說(shuō)”的人。所以“不確定性對(duì)話”應(yīng)該成為人類與大模型通用機(jī)器進(jìn)行對(duì)話的認(rèn)知基礎(chǔ),以改變?nèi)藗兘⒃诰W(wǎng)絡(luò)搜索和傳統(tǒng)問(wèn)答平臺(tái)之上的對(duì)“確定”和“專業(yè)”的感知和判斷方式。
“不確定性對(duì)話”對(duì)人機(jī)協(xié)作能力提出要求。首先,需要提升提問(wèn)能力。為了獲得ChatGPT提供的更多的知識(shí)和新的靈感,人們需要學(xué)習(xí)調(diào)整提問(wèn)方式,不僅要靠近機(jī)器的理解,還要厘清自己的需求。其次,需要提升質(zhì)疑能力。人們要學(xué)習(xí)在多大程度和哪些內(nèi)容上信任機(jī)器語(yǔ)言,如何驗(yàn)證和核查機(jī)器語(yǔ)言的“框架”和“意圖”等問(wèn)題。再次,需要建立自反能力。ChatGPT仍然存在技術(shù)“黑箱”,人們不能對(duì)ChatGPT形成內(nèi)容與決策依賴,要保持質(zhì)疑與反思,提升對(duì)機(jī)器的理解和使用水平,同時(shí)要不斷回顧和修正自身,警惕機(jī)器對(duì)人類能動(dòng)性和想象力的“入侵”。最后,需要建立多元協(xié)同的能力。在應(yīng)用端,用戶能夠發(fā)現(xiàn)和發(fā)展人機(jī)各自的勝任性。在設(shè)計(jì)端,工程師能夠促進(jìn)機(jī)器保持進(jìn)步并堅(jiān)守倫理。在市場(chǎng)端,企業(yè)和資本能平衡機(jī)器的工具性和價(jià)值性。在管理端,治理者能夠引導(dǎo)和規(guī)制技術(shù)開(kāi)放、向善與合作的場(chǎng)域與邊界等。多元協(xié)同之下,可能減小“不確定性對(duì)話”帶來(lái)的技術(shù)“顛覆性”的程度,使“不確定”成為人機(jī)協(xié)作時(shí)代啟發(fā)靈感、解放思想的基礎(chǔ)。
三、人機(jī)交往的未來(lái)指向
(一)各有用處:人機(jī)異質(zhì)主體間性
交往建立在主體間性的基礎(chǔ)之上。在同質(zhì)主體間性中,不同的主體都是作為自治的理性實(shí)體主體存在的,每個(gè)主體都能把其他主體當(dāng)作與自己相同的他人,建立“推己及人”的交往方式。異質(zhì)主體間性則表明,主體與他者之間可能不具有共同的背景資源,不具有相同的實(shí)體存在,不具有互通的思維邏輯。自我與他人難以正面相遇,主體面對(duì)的永遠(yuǎn)是“之于我”的他者,而不是與自己完全同步與共存的他者。在巴赫金看來(lái),異質(zhì)主體間性的對(duì)話是一種“復(fù)調(diào)”談話。主體打破自足和封閉的自我狀態(tài),敞開(kāi)地面對(duì)來(lái)自他者的任何聲音,不斷吸收不同的言語(yǔ),反饋出自己的回答。[19]
當(dāng)前的機(jī)器學(xué)習(xí)的邏輯大致沿著兩條路徑發(fā)展,一條按照?qǐng)D靈的以人類思維對(duì)標(biāo)和驗(yàn)證機(jī)器思維的方式,另一條按照維納的機(jī)器學(xué)習(xí)和反饋人類思維的方式。[20]在圖靈測(cè)試中,人是機(jī)器的極限,機(jī)器學(xué)習(xí)謀求建立的是一種人機(jī)之間的同質(zhì)主體間性。而在維納的控制論思想中,人和機(jī)器各有用處,[21]二者是異質(zhì)主體間性的交往關(guān)系。
哈貝馬斯認(rèn)為,語(yǔ)言是使人類外在于自然的、其本性能被人類所把握的事物。[22] 語(yǔ)言的有效性和基于語(yǔ)言的交往理性影響著主體間關(guān)系。ChatGPT的語(yǔ)言能力表明了人機(jī)之間可以通過(guò)語(yǔ)言互相理解、共享和創(chuàng)造意義。然而,在應(yīng)對(duì)ChatGPT基于語(yǔ)言能力的行為實(shí)踐時(shí),人機(jī)之間體現(xiàn)出異質(zhì)主體間性的特征。人類認(rèn)知獲取原初依賴于身體的直接感知,在利用工具的過(guò)程中,人類感知隨著工具范圍的擴(kuò)大形成了工具感知,人類認(rèn)知也隨著感知的豐富而不斷擴(kuò)展。而機(jī)器認(rèn)知的形成完全依賴于數(shù)字和智能算法世界里的數(shù)據(jù)監(jiān)控和收集,在此基礎(chǔ)上依靠巨大的傳播和交換網(wǎng)絡(luò),構(gòu)成了不依賴于人類身體的機(jī)器感知和認(rèn)知。[25] 于是,人類的主體性離不開(kāi)身體,人類思維產(chǎn)生并依賴于身體和環(huán)境狀態(tài)。而機(jī)器主體性則離不開(kāi)數(shù)據(jù)網(wǎng)絡(luò),機(jī)器思維依賴數(shù)據(jù)、算法和算力。在這個(gè)意義上,機(jī)器學(xué)習(xí)的未來(lái)并不在于對(duì)人類的“模仿”和與人類“相似”,而在于積累自主智能的物質(zhì)基礎(chǔ),形成和維持自身的主體性。因此,只從“類人”的效果出發(fā)考量“機(jī)器是什么”的思路是局限和封閉的,異質(zhì)主體間性的交往模式是用開(kāi)放、對(duì)話和自反的狀態(tài)來(lái)應(yīng)對(duì)機(jī)器與人各自的屬性和能力在人機(jī)交往中逐漸顯現(xiàn)的過(guò)程。
(二)超越有限:人機(jī)交往的意義
哈貝馬斯將語(yǔ)言和自主性與責(zé)任心聯(lián)系在一起,認(rèn)為語(yǔ)言可以確認(rèn)自主性與責(zé)任心的意向。[22](314) 在這里,責(zé)任心具有兩方面的意涵:一方面是主體與外在世界的關(guān)系,即如何承擔(dān)對(duì)他人的責(zé)任;另一方面,是主體與內(nèi)在世界的關(guān)系,即如何對(duì)自我保持真誠(chéng)。要考量人機(jī)交往的意義,就要對(duì)機(jī)器語(yǔ)言是否以及如何確認(rèn)交往關(guān)系中的責(zé)任心問(wèn)題進(jìn)行考察。在人機(jī)交往中,機(jī)器語(yǔ)言確認(rèn)了人類和機(jī)器自身的責(zé)任心局限。一方面,研究者越來(lái)越多地發(fā)現(xiàn),機(jī)器正在成為“一面鏡子”,折射出人類在網(wǎng)絡(luò)與現(xiàn)實(shí)行為中的責(zé)任心危機(jī)。[24] 另一方面,由于機(jī)器行為的“黑箱”和算法的“歸納偏置”,ChatGPT常常難以確證自身能夠擁有負(fù)責(zé)任的語(yǔ)言和行為,無(wú)法判定機(jī)器學(xué)習(xí)過(guò)程中其思維是否仍然遵循算法設(shè)計(jì)的初衷。
面對(duì)雙方的責(zé)任心局限,人機(jī)交往的研究應(yīng)該超越把“責(zé)任心”作為“類人”素質(zhì)的指標(biāo)而設(shè)計(jì)和發(fā)展智能機(jī)器的思路,要從具體情境和日常實(shí)踐中探索人機(jī)能否以及如何通過(guò)交往而超越各自的有限性。在這個(gè)意義上,“人機(jī)互為尺度”丈量的便不再是人的極限邊界,而是人的有限刻度。人機(jī)交往的意義便在于突破人類科技發(fā)展歷程中逐漸強(qiáng)勢(shì)的“人為自然立法”的立場(chǎng),提醒人類勿忘自身的有限性,警惕科技走向愈發(fā)封閉的主體中心主義理性。人機(jī)交往的研究在這一立場(chǎng)上也區(qū)別于人機(jī)交互和傳統(tǒng)的人機(jī)傳播的效果研究導(dǎo)向,并體現(xiàn)了“機(jī)器作為傳播主體”這一觀點(diǎn)的詮釋性與批判性。
(三)從“公共”到“共融”:人機(jī)交往理性的建立
哈貝馬斯的交往理性既批判來(lái)自笛卡爾、狄爾泰等人的主客二分的主體中心主義理性,又批判霍克海默和阿多諾對(duì)理性的完全反對(duì)。他倡導(dǎo)在社會(huì)互動(dòng)和溝通中,人們通過(guò)理性的論辯和合理的交往方式來(lái)達(dá)成共識(shí)和解決問(wèn)題。哈貝馬斯把他的理論放在應(yīng)對(duì)現(xiàn)代性分裂的背景中,主張交往理性尋找和建立的是一種面向社會(huì)整合的生活方式。[6](30) 交往理性的概念主要涉及交往主體與共同體關(guān)系,即交往主體如何形成共同體,最終在政治、法律、道德和藝術(shù)等宏觀領(lǐng)域形成公共性。
人機(jī)交往理性的提出是面向后現(xiàn)代社會(huì)中,人機(jī)之間的自主與依存的關(guān)系以及這種關(guān)系下人類與機(jī)器之間的共融性問(wèn)題。像ChatGPT這樣的通用型聊天機(jī)器人,在與人類交往過(guò)程中,可能成為人類自我反思、自我建構(gòu)和自我認(rèn)同的“參照系”,可能會(huì)產(chǎn)生人機(jī)交往的“雙重效應(yīng)”。一方面,ChatGPT背后的大模型技術(shù)具有可馴化性。人類可能在使用過(guò)程中,可能馴化出符合自我需求的“智力伙伴”。ChatGPT可能成為人類強(qiáng)化自我中心需求的“催化劑”。另一方面,ChatGPT也具有不可更改的人造物性。ChatGPT等技術(shù)是人類設(shè)計(jì)和馴化的。在這個(gè)過(guò)程中,人類也可能通過(guò)ChatGPT表達(dá)和傳遞出人類的審美、智性、德識(shí)和理想。在這個(gè)意義上,ChatGPT可能成為人類“物我合一”的“共融體”。有學(xué)者提出,當(dāng)今想要處理人與物、技術(shù)和機(jī)器的關(guān)系,需要從“自我”效應(yīng)走向“包容”效應(yīng),關(guān)注和利用很多條件去考慮人類如何拓展自身德性和智識(shí),體契、覺(jué)解、善假且成就物,達(dá)及物我感通而共生,使得人在物前不致囂張,亦不為物累,[25]就是要建立人與物之間、人與機(jī)器之間的共通共融。
因此,人機(jī)交往理性既與人機(jī)交往中的理性主義不同,也與人際間的交往理性概念不同。與人機(jī)交互中的理性主義不同的是,人機(jī)交往理性不只是考量人機(jī)交互過(guò)程中的理性決策、邏輯推理和信息處理能力是否提高交互的效率、準(zhǔn)確性和滿意度,而是關(guān)注人類和機(jī)器的語(yǔ)言和行為的真實(shí)性、規(guī)范性和真誠(chéng)性,以及在此基礎(chǔ)上建立的包容性和共融性。與人際間的交往理性不同的是,人機(jī)交往理性的達(dá)成不僅要依靠語(yǔ)言的有效性和理想的言語(yǔ)環(huán)境,而且要考量異質(zhì)主體間的有限性與超越性,即不僅要考量交往主體之間如何“取長(zhǎng)”的問(wèn)題,也要考量交往主體之間如何“補(bǔ)短”的問(wèn)題。同時(shí),人機(jī)交往理性的概念涉及異質(zhì)交往主體與異質(zhì)集體的關(guān)系,即人類個(gè)體與機(jī)器個(gè)體、人類個(gè)體與機(jī)器集體、人類集體與機(jī)器個(gè)體和人類集體與機(jī)器集體之間的四重關(guān)系,且要面向日常生活世界中人機(jī)在多元語(yǔ)境和情境下的具體交往實(shí)踐。
四、結(jié) 語(yǔ)
自米德、杜威、凱利而來(lái)的傳播思想代表著傳播學(xué)的詮釋學(xué)派,主要從語(yǔ)言、符號(hào)、表達(dá)中尋找傳播的建構(gòu)意義。麻省理工學(xué)院的利克萊德教授在1960年闡釋了“人機(jī)共生”的設(shè)想,認(rèn)為人類大腦和計(jì)算機(jī)將非常緊密地結(jié)合在一起,由此產(chǎn)生的伙伴關(guān)系將以當(dāng)時(shí)的信息處理機(jī)器所沒(méi)有的語(yǔ)言方式思考和處理數(shù)據(jù),形成一種人機(jī)共生文化。[26]可以看出,隨著機(jī)器語(yǔ)言的發(fā)展,人機(jī)傳播研究需要更多地關(guān)注到語(yǔ)言在人機(jī)關(guān)系中的意義與實(shí)踐,看到機(jī)器語(yǔ)言與人類語(yǔ)言對(duì)稱后所導(dǎo)向的在思維、觀念甚至制度上的人機(jī)共生的可能。達(dá)成共識(shí)是人類交往活動(dòng)的旨?xì)w,而協(xié)作、交流與共生則是人機(jī)交往活動(dòng)的前景。[27] 基于ChatGPT的語(yǔ)言實(shí)踐,人機(jī)傳播研究需要探索機(jī)器與人類之間基于對(duì)稱的語(yǔ)言能力所形成的交往關(guān)系,探究人機(jī)交往活動(dòng)如何形塑和建構(gòu)人機(jī)共生社會(huì)。這不僅延續(xù)了傳播學(xué)詮釋和批判學(xué)派的思想資源,跳出了對(duì)人機(jī)交互研究路徑的依賴,明確和豐富了人機(jī)傳播與交往的理論內(nèi)涵,而且從語(yǔ)言能力對(duì)稱的角度理清了機(jī)器成為交往主體,與人類建立主體間性的過(guò)程與結(jié)果,回應(yīng)了機(jī)器如何作為傳播主體的爭(zhēng)議。
參考文獻(xiàn):
[1] Guzman, A. L.amp; Lewis, S. C. (2020). Artificial intelligence and communication: A human–machine communication research agenda. New Media amp; Society, 22(1):70-86.
[2] Payne, S. J. (2007). Mental models in human-computer interaction. In Sears, A.amp; Jacko, J. A. (eds.).The Human-computer Lnteraction Handbook. Boca Raton: CRC Press, 89-102.
[3] Gunkel, D. J. (2012). Communication and artificial intelligence: Opportunities and challenges for the 21st century. Communication+ 1, 1(1):1-25.
[4] Guzman, A. L. (2018). What is human-machine communication, anyway. In Guzman, A. L.(eds.). Human-machine communication: Rethinking communication, technology, and ourselves, New York: Peter Lang, 1-28.
[5] 陳莎,劉斌.擬人非人:人機(jī)社交傳播的特點(diǎn)與困境——以與微軟小冰的聊天文本為分析對(duì)象[J].青年記者,2021(5):62-64.
[6] [德]尤爾根·哈貝馬斯.交往行為理論[M].曹衛(wèi)東,譯.上海:上海人民出版社,2018:115.
[7] Turing, A. M. (1937). On computable numbers, with an application to the Entscheidungsproblem.Proc.Lond.Math.Coc.58(5):345-363.
[8] 馮志偉,張燈柯,饒高琦.從圖靈測(cè)試到ChatGPT——人機(jī)對(duì)話的里程碑及啟示[J].語(yǔ)言戰(zhàn)略研究,2023(2):20-24.
[9] 王斌,王育軍,崔建偉,孟二利.智能語(yǔ)音交互技術(shù)進(jìn)展[J].人工智能,2020(5):14-28.
[10] 盧經(jīng)緯,郭超,戴星原,繆青海,王興霞,楊靜,王飛躍.問(wèn)答ChatGPT之后:超大預(yù)訓(xùn)練模型的機(jī)遇和挑戰(zhàn)[J].自動(dòng)化學(xué)報(bào),2023(4):705-717.
[11] [德]尤爾根·哈貝馬斯.在事實(shí)與規(guī)范之間[M],童世駿,譯.北京:生活·讀書(shū)·新知三聯(lián)書(shū)店,2003:222.
[12] [俄]巴赫金.文本對(duì)話與人文[M].河北:河北教育出版社.1998:156.
[13] 鄧建國(guó).概率與反饋:ChatGPT的智能原理與人機(jī)內(nèi)容共創(chuàng)[J].南京社會(huì)科學(xué),2023(3):86-94+142.
[14] 江潞潞.智能交往,未來(lái)已來(lái)——“激蕩AIGC”數(shù)字交往八人談?dòng)^點(diǎn)綜述[J].傳媒觀察,2023(3),:48-54.
[15] 張春美.“聰明技術(shù)”如何“更聰明”——算法推薦的倫理與治理[J]. 探索與爭(zhēng)鳴, 2022 (12):173-180+214.
[16] 鄭智航.人工智能算法的倫理危機(jī)與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2021(1):14-26.
[17] 李建華.網(wǎng)絡(luò)空間道德建設(shè)中的自我倫理建構(gòu)[J].思想理論教育,2021(1):9-14.
[18] 周葆華.或然率資料庫(kù):作為知識(shí)新媒介的生成智能ChatGPT[J].現(xiàn)代出版,2023(2):21-32.
[19] 畢曉.哈貝馬斯交往行為理論再批判與差異對(duì)話理論的建立[J].人文雜志,2021(6):96-106.
[20] 陳自富. 研究綱領(lǐng)沖突下的人工智能發(fā)展史:解釋與選擇[D].上海交通大學(xué),2017.
[21] [美] 維納.人有人的用處:控制論與社會(huì)[M].陳步,譯.北京:北京大學(xué)出版社,2010:169-174.
[22] [德]尤爾根·哈貝馬斯.認(rèn)識(shí)與興趣[M].學(xué)林出版社,1999:134.
[23] 藍(lán)江.從身體感知到機(jī)器感知——數(shù)字化時(shí)代下感知形式的嬗變[J].西北師大學(xué)報(bào)(社會(huì)科學(xué)版),2023(3):13-20.
[24] 彭蘭.人與機(jī)器,互為尺度[J].當(dāng)代傳播,2023(1):1.
[25] 胡百精.交往革命與人的現(xiàn)代化[J].新聞?dòng)浾撸?023(1):3-6+18.
[26] Licklider, J. C.R.(1960). Man-computer symbiosis. IRE Transactions on Human Factors in Electronics, (1):4-11.
[27] 彭蘭.從ChatGPT透視智能傳播與人機(jī)關(guān)系的全景及前景[J].新聞大學(xué),2023(4):1-16+119.
[責(zé)任編輯:高辛凡]