李 巖,康 銘
(遼寧大學(xué) 法學(xué)院,遼寧 沈陽(yáng) 110036)
生成式人工智能是通過(guò)各種機(jī)器學(xué)習(xí)方法學(xué)習(xí)給定的數(shù)據(jù)庫(kù),通過(guò)對(duì)數(shù)據(jù)庫(kù)中特定對(duì)象特征的學(xué)習(xí),進(jìn)而生成全新的、完全原創(chuàng)的內(nèi)容(如文字、圖片、視頻)的人工智能(1)參見(jiàn)蒲清平、向往:《生成式人工智能——ChatGPT的變革影響、風(fēng)險(xiǎn)挑戰(zhàn)及應(yīng)對(duì)策略》,《重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第3期。。在強(qiáng)大算法、語(yǔ)言模型的作用下,生成式人工智能可以根據(jù)特定的聊天場(chǎng)景和語(yǔ)境與人互動(dòng),幾乎可以做到與真人無(wú)異的場(chǎng)景式交流,還能以聊天的方式完成文本寫(xiě)作、翻譯文字、代碼撰寫(xiě)等。技術(shù)的進(jìn)步總是帶來(lái)新的憂慮:生成式人工智能的強(qiáng)大功能使人們更容易沉迷其中,對(duì)其產(chǎn)生過(guò)高的依賴性,這應(yīng)當(dāng)引起人們的警覺(jué)。當(dāng)下理論界對(duì)生成式人工智能防沉迷的研究成果較少,立法上也處于缺位狀態(tài),有必要對(duì)此主題進(jìn)行研究。
域外國(guó)家已經(jīng)開(kāi)始限制生成式人工智能的使用。比如意大利等國(guó)家宣布禁止使用聊天機(jī)器人ChatGPT,但主要是基于個(gè)人信息保護(hù)的考慮,并未涉及防沉迷問(wèn)題;歐盟《人工智能法案》中盡管提到了生成式人工智能,但對(duì)其防沉迷問(wèn)題只字未提。縱觀國(guó)內(nèi),當(dāng)下最直接涉及生成式人工智能防沉迷的規(guī)范是《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《管理暫行辦法》)第10條。但該條規(guī)定過(guò)于籠統(tǒng),難以具體實(shí)施?!吨腥A人民共和國(guó)未成年人保護(hù)法》(以下簡(jiǎn)稱《未成年人保護(hù)法》)第74條(2)《未成年人保護(hù)法》第74條規(guī)定:網(wǎng)絡(luò)產(chǎn)品和服務(wù)提供者不得向未成年人提供誘導(dǎo)其沉迷的產(chǎn)品和服務(wù)。盡管該條沒(méi)有明確說(shuō)明算法防沉迷,但如果某項(xiàng)網(wǎng)絡(luò)產(chǎn)品(比如網(wǎng)絡(luò)游戲)是基于生成式人工智能設(shè)計(jì)的,將涉及生成式人工智能防沉迷的問(wèn)題。,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法推薦管理規(guī)定》)第8條、第18條第2款(3)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第8條規(guī)定:算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過(guò)度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型;第18條第2款規(guī)定:算法推薦服務(wù)提供者不得向未成年人推送可能引發(fā)未成年人模仿不安全行為和違反社會(huì)公德行為、誘導(dǎo)未成年人不良嗜好等可能影響未成年人身心健康的信息,不得利用算法推薦服務(wù)誘導(dǎo)未成年人沉迷網(wǎng)絡(luò)。以及《未成年人網(wǎng)絡(luò)保護(hù)條例》第五章也涉及算法防沉迷的規(guī)制問(wèn)題,但相關(guān)規(guī)定均存在不足。另外,當(dāng)下理論界對(duì)生成式人工智能防沉迷的討論較少,對(duì)生成式人工智能防沉迷問(wèn)題的研究缺乏相應(yīng)的理論支撐。
根據(jù)《管理暫行辦法》第10條的規(guī)定,生成式人工智能提供者有義務(wù)“采取有效措施防范未成年人用戶過(guò)度依賴或者沉迷生成式人工智能服務(wù)”。但該條規(guī)定過(guò)于籠統(tǒng),容易引起誤解,不利于對(duì)生成式人工智能的過(guò)度使用做出有效限制?!安扇∵m當(dāng)措施防范用戶過(guò)分依賴或沉迷生成內(nèi)容”語(yǔ)焉不詳,原因有二:第一,本條只適用于生成式人工智能提供者,忽視了生成式人工智能的產(chǎn)品研發(fā)者;第二,“適當(dāng)措施”本質(zhì)上是為提供者施加了義務(wù),但應(yīng)當(dāng)做到何種程度才能理解為“適當(dāng)措施”并不清晰。換言之,該義務(wù)的具體內(nèi)容以及違反的法律后果模糊不清,現(xiàn)實(shí)中難以貫徹實(shí)施。此外,《未成年人保護(hù)法》雖然規(guī)定了“限制網(wǎng)絡(luò)使用時(shí)長(zhǎng)”來(lái)防止未成年人沉迷網(wǎng)絡(luò),但這種限制方法難以應(yīng)對(duì)生成式人工智能沉迷。搭載了生成式人工智能算法的互聯(lián)網(wǎng)服務(wù)的誘導(dǎo)沉迷方式與傳統(tǒng)“弱人工智能”的互聯(lián)網(wǎng)并非完全相同,并且隨著生成式人工智能提供的服務(wù)更加多樣便捷,對(duì)于未成年人而言只是限制其使用時(shí)間未必妥當(dāng)?!段闯赡耆司W(wǎng)絡(luò)保護(hù)條例》第43條雖然提出了“在使用時(shí)段、時(shí)長(zhǎng)、功能和內(nèi)容等方面”提供服務(wù),以達(dá)到防沉迷的效果,但對(duì)于“功能和內(nèi)容”表達(dá)模糊,亦未指出應(yīng)當(dāng)提供“何種標(biāo)準(zhǔn)”的服務(wù);第47條對(duì)“功能和內(nèi)容”做出了進(jìn)一步的類(lèi)型化,指出網(wǎng)絡(luò)游戲服務(wù)提供者應(yīng)當(dāng)根據(jù)游戲類(lèi)型等要素明確適合不同年齡段的未成年人,但該條規(guī)定僅限于網(wǎng)絡(luò)游戲,且未提及其他類(lèi)型服務(wù)所類(lèi)型化的標(biāo)準(zhǔn),面對(duì)其他類(lèi)型的服務(wù)難以貫徹實(shí)施。
無(wú)論是《管理暫行辦法》第10條、《未成年人保護(hù)法》第74條、《算法推薦管理規(guī)定》第8條和第18條第2款,抑或是《未成年人網(wǎng)絡(luò)保護(hù)條例》第五章相關(guān)條款,其關(guān)注的重點(diǎn)都在于未成年人防沉迷問(wèn)題,并且是以未成年人為主要對(duì)象進(jìn)行防沉迷體系建設(shè)。值得注意的是,《管理暫行辦法》第10條改變了原《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》的規(guī)定,增加了“防范未成年人用戶過(guò)度依賴或者沉迷”的規(guī)定,更加注重未成年人的生成式人工智能沉迷問(wèn)題,但生成式人工智能的強(qiáng)大功能使我們需要考慮關(guān)于成年人防沉迷的問(wèn)題??紤]到未成年人在防沉迷手段、程度等方面與成年人在認(rèn)識(shí)自控、心智等方面存在區(qū)別,因此在防沉迷設(shè)計(jì)上,應(yīng)當(dāng)對(duì)未成年人與成年人進(jìn)行區(qū)分。
既有防沉迷立法偏重算法推送、網(wǎng)絡(luò)游戲沉迷而忽視了對(duì)生成式人工智能作為工具的過(guò)度依賴。其一,前文已述,盡管《管理暫行辦法》涉及多種生成式人工智能服務(wù)項(xiàng)目,但對(duì)防沉迷問(wèn)題只有一條抽象的規(guī)定;《未成年人保護(hù)法》以及《未成年人網(wǎng)絡(luò)保護(hù)條例》重點(diǎn)規(guī)制未成年人關(guān)于網(wǎng)絡(luò)游戲的沉迷。其二,盡管《算法推薦管理規(guī)定》從事前、事中、事后方面完善了算法推薦服務(wù)提供者的相關(guān)義務(wù),但其主要規(guī)制算法推薦問(wèn)題,而算法推薦服務(wù)產(chǎn)生的誘導(dǎo)沉迷只是生成式人工智能防沉迷問(wèn)題的冰山一角。生成式人工智能作為目前算法功能的集大成者,其產(chǎn)生的防沉迷方面的新問(wèn)題遠(yuǎn)不止算法推送服務(wù)的誘導(dǎo),比如生成式人工智能提供的娛樂(lè)性服務(wù)對(duì)人們更具有吸引力。它可以創(chuàng)建一個(gè)交互性更強(qiáng)、更逼真的虛擬世界,人們更容易沉迷其中,甚至可以令人產(chǎn)生感情寄托,產(chǎn)生情感上的依賴,陷入情感迷失和混亂。因此,僅憑借《算法推薦管理規(guī)定》尚不足以應(yīng)對(duì)生成式人工智能產(chǎn)生的算法沉迷問(wèn)題。
理論界關(guān)于生成式人工智能的研究較多。諸多學(xué)者以ChatGPT為例討論生成式人工智能帶來(lái)的風(fēng)險(xiǎn),并從法律層面對(duì)其進(jìn)行規(guī)制(4)相關(guān)文獻(xiàn)較多,在“中國(guó)知網(wǎng)”以“ChatGPT”“風(fēng)險(xiǎn)”為主題進(jìn)行檢索,社科類(lèi)文獻(xiàn)有700余條。。但目前專(zhuān)門(mén)討論生成式人工智能防沉迷的研究寥寥無(wú)幾,只有在四川召開(kāi)的4期“智治社慧學(xué)術(shù)工坊”以及《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》研討會(huì)中有學(xué)者針對(duì)《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》第10條發(fā)表了簡(jiǎn)短的修改建議。比如,王竹教授認(rèn)為應(yīng)當(dāng)公開(kāi)其服務(wù)的適用人群、場(chǎng)合、用途,并參照《未成年人保護(hù)法》相關(guān)規(guī)定設(shè)置防沉迷措施(5)參見(jiàn)王竹:《對(duì)〈生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)〉的完善建議》,2023年5月12日,https://mp.weixin.qq.com/s/7uw/UsFF6C8uwMGiiKAOew,2024年1月17日。;天津市和平區(qū)人民檢察院諸葛達(dá)檢察官認(rèn)為應(yīng)當(dāng)區(qū)分娛樂(lè)性服務(wù)和輔助性服務(wù),設(shè)置不同的“防止依賴或者沉迷”措施(6)參見(jiàn)《〈生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)〉研討會(huì)綜述》,2023年4月26日,https://mp.weixin.qq.com/s/lkcVPFHmt4wpi_BWVGHizw,2024年1月17日。。本文認(rèn)為,生成式人工智能屬于強(qiáng)人工智能,其甚至可以替代人類(lèi)的部分工作乃至創(chuàng)作,這與互聯(lián)網(wǎng)時(shí)代的弱人工智能不可同日而語(yǔ)(7)互聯(lián)網(wǎng)開(kāi)辟了“空間革命”,智能手機(jī)的出現(xiàn)帶來(lái)了“時(shí)間革命”。參見(jiàn)朱光輝、王喜文:《ChatGPT的運(yùn)行模式、關(guān)鍵技術(shù)及未來(lái)圖景》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第4期。由此可見(jiàn),生成式人工智能的廣泛運(yùn)用對(duì)人類(lèi)思維方式的影響更大。。因此,對(duì)生成式人工智能“防沉迷”的措施不能直接參考依托于網(wǎng)絡(luò)時(shí)代《未成年人保護(hù)法》中的“網(wǎng)絡(luò)游戲防沉迷”措施。諸葛達(dá)檢察官雖然從生成式人工智能的目的出發(fā)將其類(lèi)型化為輔助性服務(wù)與娛樂(lè)性服務(wù),但未進(jìn)一步討論相關(guān)義務(wù)與責(zé)任的具體內(nèi)容。
綜上所述,既有規(guī)范及研究難以應(yīng)對(duì)生成式人工智能沉迷風(fēng)險(xiǎn),生成式人工智能提供者和開(kāi)發(fā)者應(yīng)當(dāng)履行何種防沉迷義務(wù)以及未履行的法律后果如何,有待進(jìn)一步研究。
生成式人工智能防沉迷立法的必要性需要從生成式人工智能令人沉迷的原因入手,同時(shí)也需要對(duì)因沉迷造成的不利影響做出回應(yīng),如此才可“對(duì)癥下藥”,避免人們沉迷于生成式人工智能而引發(fā)不利后果?;诖?本部分主要討論生成式人工智能令人沉迷的原因,并從思維、道德、審美三個(gè)方面,以法哲學(xué)為視角討論生成式人工智能沉迷引發(fā)的不利后果,由此形成生成式人工智能防沉迷立法的理論基礎(chǔ)。
生成式人工智能的強(qiáng)大能力來(lái)源于其構(gòu)建了一個(gè)與任務(wù)無(wú)關(guān)的超大型語(yǔ)言模型(簡(jiǎn)稱LLM),能夠自動(dòng)從海量的數(shù)據(jù)中學(xué)習(xí)各種知識(shí)點(diǎn),通過(guò)深度機(jī)器學(xué)習(xí)生成人類(lèi)可以理解的自然語(yǔ)言,并且學(xué)習(xí)過(guò)程無(wú)須人的介入就能靈活應(yīng)用所學(xué)知識(shí)解決實(shí)際問(wèn)題。有資料顯示,ChatGPT 擁有多達(dá)1750 億個(gè)模型參數(shù)。由于訓(xùn)練生成式人工智能的語(yǔ)料庫(kù)數(shù)量驚人,加之其具備的超強(qiáng)算力,ChatGPT 展現(xiàn)了三種強(qiáng)大的能力:一是語(yǔ)言生成能力,二是上下文學(xué)習(xí)能力,三是世界知識(shí)能力(8)參見(jiàn)朱光輝、王喜文:《ChatGPT的運(yùn)行模式、關(guān)鍵技術(shù)及未來(lái)圖景》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第4期。。因此,“它幾乎無(wú)所不知,能準(zhǔn)確理解提問(wèn)者上下文的意思,進(jìn)行流暢、熟練的交流,聊天過(guò)程接近真人互動(dòng)”(9)王俊秀:《ChatGPT與人工智能時(shí)代:突破、風(fēng)險(xiǎn)與治理》,《東北師大學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第4期。。這就意味著其不僅掌握著豐富的“知識(shí)”(數(shù)據(jù)庫(kù)),還具備部分對(duì)“知識(shí)”的遷移能力(10)參見(jiàn)王洋、閆海:《生成式人工智能的風(fēng)險(xiǎn)迭代與規(guī)制革新——以ChatGPT為例》,《理論月刊》2023年第6期。;并且該技術(shù)采用“利用人類(lèi)反饋中強(qiáng)化學(xué)習(xí)”(11)訓(xùn)練學(xué)習(xí)過(guò)程如下。首先,選擇一款大型語(yǔ)言模型作為原始模型;其次,創(chuàng)建人類(lèi)偏好的數(shù)據(jù):先由人針對(duì)具體的問(wèn)題進(jìn)行高質(zhì)量的回答,并將其反饋至原始模型以供學(xué)習(xí);再次,訓(xùn)練反饋模型:基于問(wèn)答的相關(guān)性、答案的準(zhǔn)確性、豐富性和無(wú)害性等人類(lèi)偏好標(biāo)準(zhǔn),依據(jù)原始模型就隨機(jī)挑選的問(wèn)題輸出的答案進(jìn)行排序;最后,訓(xùn)練打分模型:利用完成標(biāo)注的人類(lèi)偏好數(shù)據(jù)訓(xùn)練打分模型,當(dāng)分值較低時(shí)重新進(jìn)入學(xué)習(xí)流程。參見(jiàn)蒲清平、向往:《生成式人工智能——ChatGPT的變革影響、風(fēng)險(xiǎn)挑戰(zhàn)及應(yīng)對(duì)策略》,《重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第3期。(RLHF)的訓(xùn)練方式(12)參見(jiàn)喻國(guó)明、蘇健威:《生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從ChatGPT到全面智能化時(shí)代的未來(lái)》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第5期。,能夠較為準(zhǔn)確地理解人類(lèi)指令的含義以及學(xué)習(xí)人類(lèi)經(jīng)驗(yàn)的能力,通過(guò)對(duì)強(qiáng)大數(shù)據(jù)庫(kù)的“檢索”,“組合”出符合人類(lèi)邏輯的回答。實(shí)驗(yàn)表明,以ChatGPT為代表的生成式人工智能已經(jīng)接近人類(lèi)的智力水平,甚至可以具備與專(zhuān)業(yè)醫(yī)生相當(dāng)?shù)脑\斷水平,也能寫(xiě)出優(yōu)美、引人入勝的詩(shī)歌(13)參見(jiàn)《ChatGPT-4震撼來(lái)襲 我們?cè)撊绾慰创鼳I越來(lái)越強(qiáng)大》,2023年3月17日,https://new.qq.com/rain/a/20230317A038UW00.html,2024年1月17日。。由此可見(jiàn),相比于早期的Web1.0以及2.0時(shí)代,生成式人工智能開(kāi)啟的Web3.0時(shí)代的網(wǎng)絡(luò)內(nèi)容的生產(chǎn)將由人工智能來(lái)完成,相關(guān)監(jiān)管亦需要從“純粹內(nèi)容的監(jiān)管”到“算法的一并監(jiān)管”。
生成式人工智能令人沉迷的主要原因在于其提供的娛樂(lè)性服務(wù)更具有吸引力、生成的精準(zhǔn)推送令人產(chǎn)生舒適性、創(chuàng)造的虛擬人物更容易使人產(chǎn)生情感依賴。
第一,基于生成式人工智能“類(lèi)人性”產(chǎn)生的虛擬空間對(duì)人們更具有吸引力從而誘導(dǎo)沉迷。生成式人工智能鏈接了人類(lèi)意識(shí)的想象空間,進(jìn)一步加深了現(xiàn)實(shí)與虛擬的交互與融合,打造了更廣闊的、更深層次的、更豐富多維的虛擬空間。相比于互聯(lián)網(wǎng)時(shí)代的虛擬世界,依托于生成式人工智能算法的網(wǎng)絡(luò)世界顯得更為豐富、“更有生機(jī)”,更容易使人沉迷。這是因?yàn)樵撎摂M空間進(jìn)一步滿足了人類(lèi)最基本的三種需要:可預(yù)測(cè)性需要、能力需要和接納需要(14)See Carols Dweck,“From Needs to Goals and Representations:Foundations for a Unified Theory of Motivation,Personality,and Development”,Psychological Review,No.6,2017,pp.689-719.。可預(yù)測(cè)性需要是指假定世界是可預(yù)測(cè)的,通過(guò)探究世界的運(yùn)作原理降低不確定性的需要;能力需要是指一種提高個(gè)人實(shí)力的需要;接納需要是指被接納和被愛(ài)的需要,希望在需要的時(shí)候得到他人的回應(yīng)(15)參見(jiàn)高文珺:《基于青年視角的網(wǎng)絡(luò)直播:參與的盛宴,多元的融合》,《中國(guó)青年研究》2019年第4期。。首先,可預(yù)測(cè)性需要實(shí)際上是對(duì)理性的依賴。理性是一種無(wú)限的概念,是一種先驗(yàn)的、追求無(wú)限的能力。運(yùn)用理性的推演能力來(lái)“促進(jìn)一切知識(shí)的最終意圖”(16)康德:《判斷力批判》,鄧曉芒譯,北京:人民出版社,2017年,第1頁(yè)。,而“理性推演”實(shí)際上就是形式邏輯思維的運(yùn)用。生成式人工智能的本質(zhì)是算法,是形式邏輯的另一種運(yùn)用方式。一方面,其作為工具有助于增強(qiáng)人們對(duì)客觀世界的把控;另一方面,其一切行動(dòng)邏輯均是人類(lèi)通過(guò)算法賦予的,故通過(guò)對(duì)人工智能倫理學(xué)的研究、對(duì)算法的限制等手段能夠增強(qiáng)對(duì)生成式人工智能的可控性(17)參見(jiàn)雷禹:《人工智能生產(chǎn)過(guò)程中的倫理介入問(wèn)題探析》,《大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023年第4期;商建剛:《生成式人工智能風(fēng)險(xiǎn)治理元規(guī)則研究》,《東方法學(xué)》2023年第3期。。其次,同網(wǎng)絡(luò)游戲類(lèi)似,人們?cè)谏墒饺斯ぶ悄芙⒌奶摂M世界中更容易獲得成就感。在虛擬世界中能力的提升“要比在現(xiàn)實(shí)中提高學(xué)習(xí)成績(jī)更容易、更有趣,還能獲得即時(shí)獎(jiǎng)勵(lì)和回饋,滿足人們獲得能力認(rèn)可的需要”(18)高文珺:《青少年網(wǎng)絡(luò)游戲問(wèn)題行為的文化—社會(huì)—個(gè)體三因素分析——基于網(wǎng)絡(luò)游戲問(wèn)題行為的91個(gè)電話咨詢案例》,《中國(guó)青年研究》2021年第5期。。最后,生成式人工智能會(huì)打造出一個(gè)與現(xiàn)實(shí)世界交互性更強(qiáng)、更逼真的虛擬世界,其中的虛擬人物更加靈活。現(xiàn)實(shí)中的人們可以同它們對(duì)話,甚至能夠根據(jù)對(duì)話內(nèi)容自主給出有邏輯的行為反饋(19)以游戲產(chǎn)業(yè)為例,游戲版ChatGPT賦予了虛擬人物類(lèi)似人的思維和言語(yǔ)邏輯。參見(jiàn)《網(wǎng)易〈逆水寒〉手游推出游戲版ChatGPT、交互式電子出版物〈我在故宮修文物〉來(lái)了、Elon Musk:需要密切關(guān)注人工智能》,2023年2月16日,https://m.163.com/dy/article/HTNFKCEK0514A42S.html,2024年1月17日。。同時(shí),它們還會(huì)匹配用戶的溝通方式(20)See Sean Hannon Williams,“AI Advice”,Florida State University Review,Vol.48,No.3,2021,pp.761-808.,甚至可以根據(jù)上下文更好地理解人類(lèi)語(yǔ)言中包含的潛在意思并給予恰當(dāng)回答。另外,通過(guò)后期的訓(xùn)練,生成式人工智能可以“接納”我們的觀點(diǎn),并在此基礎(chǔ)上進(jìn)行回應(yīng)。這在一定程度上滿足了人們“被接納、被欣賞”的需求,實(shí)現(xiàn)了對(duì)人們現(xiàn)實(shí)中“弱交際”的彌補(bǔ)。
第二,基于生成式人工智能的精準(zhǔn)推送產(chǎn)生的舒適性助推了沉迷。有研究人員認(rèn)為,人工智能用戶可以很容易地從多方面獲得即時(shí)滿足,包括審美體驗(yàn)、金錢(qián)補(bǔ)償、消遣、個(gè)人地位的增強(qiáng)和關(guān)系的維護(hù)(21)See Indeok Song,Larose Robert &Matthew S.Eastin,et al.,“Internet Gratifications and Internet Addiction: On the Uses and Abuses of New Media”,CyberPsychology &Behavior,Vol.7,No.4,2004,pp.384-394.。用戶對(duì)立即獲得的獎(jiǎng)勵(lì)的高估,而不是親社會(huì)和延遲獎(jiǎng)勵(lì),這也是算法推薦的產(chǎn)物(22)Samuel F.Acuff,James G.Murphy &James MacKillop,“Applying Behavioral Economic Theory to Problematic Internet Use: An Initial Investigation”,Psychology of Addictive Behaviors,Vol.32,No.7,2018,pp.846,848-850.轉(zhuǎn)引自彭金享:《算法沉迷規(guī)制的中國(guó)路徑(英文)》,《Chinese Legal Science》2022年第6期。。生成式人工智能算法可以對(duì)所有信息進(jìn)行更為精準(zhǔn)的篩選、過(guò)濾、把關(guān),并推送用戶感興趣的內(nèi)容,從而滿足了人類(lèi)內(nèi)在的享樂(lè)本質(zhì);可以根據(jù)用戶興趣愛(ài)好、個(gè)人特征等為其打造獨(dú)一無(wú)二的智能化場(chǎng)景,滿足其信息需求和個(gè)性偏好。生成式人工智能的背后必然包括那些“令人產(chǎn)生愉快情緒的算法”;“用戶審美體驗(yàn)等更容易得到滿足,這就導(dǎo)致世人將如同魔法欣賞一般對(duì)生成式人工智能感到莫名的愉悅和滿足”(23)楊欣:《基于生成式人工智能的教育轉(zhuǎn)型圖景——ChatGPT究竟對(duì)教育意味著什么》,《中國(guó)電化教育》2023年第5期。。在生成式人工智能基礎(chǔ)上產(chǎn)生的算法推送服務(wù)更加符合用戶之所想,從而使用戶不知不覺(jué)沉迷其中,消耗大量時(shí)間和財(cái)物。
第三,基于生成式人工智能產(chǎn)生的虛擬人物所形成的感情寄托加深了沉迷。其一,虛擬男(女)友服務(wù)的特征是可控的虛擬身體和有限的互動(dòng),這使得虛擬男(女)友和用戶之間的“相處”具有非具身性、有限感知性和匿名性(24)參見(jiàn)吳越、孫弋幃:《虛擬男友:數(shù)字化時(shí)代的男性情感勞動(dòng)與女性情感消費(fèi)》,《婦女研究論叢》2023年第3期。。由此帶來(lái)了虛擬親密關(guān)系的可控性,使得用戶能夠“保留自己的空間和隱私不被干預(yù)”,避免情感商品的污名化影響到雙方的現(xiàn)實(shí)生活,因而雙方都能夠更自由地滿足或表達(dá)情感需求,進(jìn)而促成了虛擬親密關(guān)系的生產(chǎn)。其二,有研究表明,人類(lèi)傾向于把人類(lèi)的特征歸因于機(jī)器人,尤其是當(dāng)它們表現(xiàn)出類(lèi)似人類(lèi)的身體和行為特征時(shí)(25)See Stephane Raffard,et al.,“Humanoid Robots versus Humans: How is Emotional Valence of Facial Expressions Recognized by Individuals with Schizophrenia?An Exploratory Study”,Schizophrenia Research,Vol.176,No.2-3,2016,pp.506-513.。因此,如果人工智能看起來(lái)或聽(tīng)起來(lái)像人或動(dòng)物,人們更有可能對(duì)它產(chǎn)生情感依戀(26)See Sean Hannon Williams,“AI Advice”,pp.788-789.。前文已述,生成式人工智能可以模仿人類(lèi)的語(yǔ)言風(fēng)格和邏輯,從而引發(fā)“和你對(duì)話的是活生生的人而不是機(jī)器人”的錯(cuò)覺(jué)。此外,生成式人工智能設(shè)計(jì)的虛擬男(女)友會(huì)設(shè)法讓用戶主動(dòng)參與到互動(dòng)過(guò)程中來(lái);可以使用人類(lèi)的邏輯思維對(duì)問(wèn)題做出“使用者愿意聽(tīng)”的回答;越來(lái)越能夠以適當(dāng)?shù)姆绞介喿x和回應(yīng)情緒;甚至可以“輕輕地嘲笑人們,或者嘮叨、侮辱、贊美他們,或者不那么巧妙地將他們與他人進(jìn)行比較”(27)See Sean Hannon Williams,“AI Advice”,pp.788-789.;通過(guò)分享彼此的想法、感受和經(jīng)歷來(lái)建立和加深情感聯(lián)系,能夠構(gòu)造出一個(gè)擬真的場(chǎng)景,令消費(fèi)者在雙方共同的情感表達(dá)中獲得親密體驗(yàn)。當(dāng)人們與它們聊天時(shí),會(huì)產(chǎn)生被理解、被安慰等情感上的“快感”,這種“快感”會(huì)加劇理性的麻痹。這就導(dǎo)致盡管我們可能意識(shí)到對(duì)面是虛擬的算法,但在人們判斷力下降的前提下,也容易盲目依賴算法形成的情感依靠,從而加劇沉迷的風(fēng)險(xiǎn)。由此可見(jiàn),生成式人工智能已經(jīng)具有較高的“類(lèi)人性”,容易讓人對(duì)其產(chǎn)生情感上的依賴,陷入情感迷失和混亂。正如有學(xué)者指出,“AI化身為機(jī)器人會(huì)使得人機(jī)之間產(chǎn)生情感依賴”(28)王俊秀:《ChatGPT與人工智能時(shí)代:突破、風(fēng)險(xiǎn)與治理》,《東北師大學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第4期。。事實(shí)證明,國(guó)外有程序員通過(guò)算法設(shè)計(jì)了一個(gè)AI女友,不到一個(gè)月便入迷,甚至影響了和現(xiàn)實(shí)中女友的感情(29)參見(jiàn)《國(guó)外小伙做了一個(gè)AI女友,不到一個(gè)月就入了魔》,2023年1月18日,https://m.thepaper.cn/newsDetail_forward_21609195,2024年1月18日。。有調(diào)查表明,依照智慧算法和嚴(yán)密程序形成的AI虛擬男友成為青年女性玩家在工作、學(xué)習(xí)等多重壓力中感情的援助者,其落地中國(guó)7天便吸引了118萬(wàn)名玩家定制(30)參見(jiàn)蒲清平、向往:《AI 虛擬男友青年女性玩家的擇偶觀:畸變、癥因與矯治》,《中國(guó)青年研究》2022年第4期。。
第四,生成式人工智能的強(qiáng)大算法使其更加便捷,增強(qiáng)了人們的依賴性。人具有趨樂(lè)避苦、利己的本能(31)參見(jiàn)張愛(ài)軍、賈璐:《算法“舒適圈”及其破繭——兼論ChatGPT的算法內(nèi)容》,《黨政研究》2023年第3期。。生成式人工智能的問(wèn)世快速被人類(lèi)所熟悉、應(yīng)用,其幫助人類(lèi)解決日常生活中的煩瑣事情,滿足人內(nèi)在的自我惰性,進(jìn)而容易誘導(dǎo)沉迷。其一,生成式人工智能算法作為數(shù)據(jù)建構(gòu)、集成的新型判斷工具,以科學(xué)、嚴(yán)謹(jǐn)?shù)臄?shù)字計(jì)算為基底,搭建起邏輯嚴(yán)密、計(jì)算科學(xué)的數(shù)學(xué)邏輯,對(duì)其生成的結(jié)果,人類(lèi)不可避免地生成信任。生成式人工智能幫助人類(lèi)解決日常生活中力所能及的事情,尤其是煩瑣、重復(fù)的雜事,由此能夠滿足人內(nèi)在的自我惰性。其二,生成式人工智能將人的思維能力外化,能像人類(lèi)一樣思考?!爱?dāng)下的生成式人工智能又部分承擔(dān)了人類(lèi)的理解、分析能力?!?32)游俊哲:《ChatGPT類(lèi)生成式人工智能在科研場(chǎng)景中的應(yīng)用風(fēng)險(xiǎn)與控制措施》,《情報(bào)理論與實(shí)踐》2023年第6期。目前已經(jīng)存在因智能工具的依賴進(jìn)而養(yǎng)成惰性心理的實(shí)例(33)參見(jiàn)王佑鎂、王旦、梁煒怡等:《“阿拉丁神燈”還是“潘多拉魔盒”:ChatGPT教育應(yīng)用的潛能與風(fēng)險(xiǎn)》,《現(xiàn)代遠(yuǎn)程教育研究》2023年第2期。。如早前多有報(bào)道學(xué)生依賴作業(yè)搜題工具而導(dǎo)致學(xué)習(xí)成績(jī)下降的問(wèn)題。相較于早期的搜題工具,生成式人工智能軟件因其更符合人類(lèi)的語(yǔ)言和思維、查詢的準(zhǔn)確率更高、使用更為便捷,更容易使人(尤其是未成年學(xué)生)沉迷并且產(chǎn)生依賴。有調(diào)查表明,89%的美國(guó)大學(xué)生承認(rèn)使用ChatGPT做家庭作業(yè),53%的學(xué)生用它寫(xiě)論文,48%的學(xué)生使用ChatGPT完成測(cè)試(34)參見(jiàn)《89 PERCENT OF COLLEGE STUDENTS ADMIT TO USING CHATGPT FOR HOMEWORK,STUDY CLAIMS》,2023年2月1日,https://futurism.com/the-byte/students-admit-chatgpt-homework,2024年1月17日。。此外,美國(guó)北密歇根大學(xué)一名學(xué)生使用ChatGPT生成哲學(xué)課小論文,該論文令教授感到震驚,并奪得全班最高分;在模擬美國(guó)律師資格考試中,ChatGPT-4甚至可以打敗百分之九十的考生(35)參見(jiàn)蔡士林、楊磊:《ChatGPT智能機(jī)器人應(yīng)用的風(fēng)險(xiǎn)與協(xié)同治理研究》,《情報(bào)理論與實(shí)踐》2023年第5期。。
由前文可知,生成式人工智能令人沉迷的原理與互聯(lián)網(wǎng)具有一定相似性:生成式人工智能相當(dāng)于全面提升了互聯(lián)網(wǎng)的“誘惑力”,使其變得更具有吸引力,進(jìn)而導(dǎo)致人們更容易沉迷其中。從后果來(lái)看,如果人們過(guò)度沉迷生成式人工智能產(chǎn)品與服務(wù),會(huì)造成逃避現(xiàn)實(shí)、弱化社交、浪費(fèi)大量時(shí)間與精力、現(xiàn)實(shí)中能力荒廢等不利后果。從更深層來(lái)講,生成式人工智能作為人類(lèi)能力的外化,如果人們沉迷其中,將對(duì)人的自身能力造成不利影響,具體而言包括人的創(chuàng)新能力退化、倫理道德評(píng)價(jià)標(biāo)準(zhǔn)僵化以及倫理道德導(dǎo)向“機(jī)械化”、因?qū)徝佬问交斐扇藱C(jī)關(guān)系扭曲。
1.生成式人工智能簡(jiǎn)化思維訓(xùn)練導(dǎo)致人創(chuàng)新能力退化
人類(lèi)依賴生成式人工智能決策,借助生成式人工智能思考,會(huì)剝奪身體原本應(yīng)有的專(zhuān)注力、認(rèn)知力和辨別力,導(dǎo)致思維惰化、創(chuàng)新能力衰退。
一般來(lái)說(shuō),人具有形象直感思維、抽象邏輯思維和靈感頓悟思維三種思維方式(36)參見(jiàn)劉泉寶、劉永清:《從思維科學(xué)看人工智能的研究》,《計(jì)算機(jī)科學(xué)》1994年第5期。。人們通過(guò)“先驗(yàn)感性”接受物自體的刺激,并且通過(guò)自發(fā)的先天綜合能力將這些經(jīng)驗(yàn)之物進(jìn)行綜合,上升到知性的層次(37)參見(jiàn)鄧曉芒:《〈純粹理性批判〉講演錄》,北京:商務(wù)印書(shū)館,2013年,第111—112頁(yè)。,由此形成具有一定概括性和間接性的感覺(jué)反映形式——表象;隨后借助概念、判斷、推理等方式抽象地、間接地、概括地認(rèn)識(shí)客觀世界(38)參見(jiàn)劉泉寶、劉永清:《從思維科學(xué)看人工智能的研究》,《計(jì)算機(jī)科學(xué)》1994年第5期。。除邏輯推演能力外,人類(lèi)還具備其他的思維方式,只是尚不清楚其本質(zhì)以及作用原理(39)參見(jiàn)趙汀陽(yáng):《人工智能提出了什么哲學(xué)問(wèn)題?》,《文化縱橫》2020年第1期。。哲學(xué)家喜歡將其稱為“直觀”“統(tǒng)覺(jué)”或“靈感”之類(lèi)的神秘能力,由此形成的思維能力為“靈感思維”。人類(lèi)的創(chuàng)新離不開(kāi)上述的思維活動(dòng)。人通過(guò)對(duì)現(xiàn)象的觀察以及對(duì)現(xiàn)有知識(shí)的積累,在此基礎(chǔ)上完成形象思維到抽象思維的轉(zhuǎn)變,再通過(guò)類(lèi)似“直覺(jué)”打開(kāi)新世界的大門(mén),完成創(chuàng)新。具體而言,研究者首先通過(guò)觀察,以獲取直觀信息,并且進(jìn)行信息文獻(xiàn)的檢索,再結(jié)合自身的前理解與直觀感知,并采用上述兩種思維中所包含的體系化等綜合思維方法,借助突如其來(lái)的“靈感”形成新的觀點(diǎn)和論證思路。這一過(guò)程不是“單線”的,需要將形象思維、抽象思維、靈感思維相互聯(lián)系和交錯(cuò);將一般性普遍類(lèi)比向一個(gè)特殊性的類(lèi)比進(jìn)展,使得知性的普遍規(guī)律能夠越來(lái)越細(xì)致地深入特殊經(jīng)驗(yàn)中。在這一過(guò)程中,僅僅依靠知性無(wú)法把握外界豐富的對(duì)象(40)知性發(fā)現(xiàn)了很多的規(guī)律,但世間萬(wàn)物同樣具有偶然性,知性不可能將所有的規(guī)律全部掌握,這就需要一個(gè)更高層次的規(guī)律,這不是僅依靠知性來(lái)完成的。,這就需要判斷力發(fā)揮作用。判斷力的運(yùn)用使人們以少數(shù)規(guī)律把握更多對(duì)象,形成思維的簡(jiǎn)化,降低思維負(fù)擔(dān),從而引發(fā)一種“愉悅感”。這種狀態(tài)實(shí)際上是“自由狀態(tài)”。此時(shí),人們天馬行空的想象力得以展現(xiàn),更容易產(chǎn)生“驚奇”。正如康德所說(shuō),“發(fā)現(xiàn)兩個(gè)或者多個(gè)異質(zhì)的經(jīng)驗(yàn)性自然規(guī)律在一個(gè)將它們兩者都包括起來(lái)的原則之下的一致性,這就是一種十分明顯的愉快的根據(jù),常常甚至是一種驚奇的根據(jù)”(41)鄧曉芒:《康德〈判斷力批判〉釋義》,北京:生活·讀書(shū)·新知三聯(lián)出版社,2021年,第164頁(yè)。。亞里士多德曾言,哲學(xué)起源于驚奇,起源于對(duì)大自然的詫異。這種“驚奇”有助于形成“靈感”。由此可見(jiàn),靈感思維并非憑空產(chǎn)生,在經(jīng)歷了大量的思維訓(xùn)練后才能“頓悟”,從而形成創(chuàng)新。
生成式人工智能的迅猛發(fā)展與現(xiàn)實(shí)突變“改變?nèi)祟?lèi)思考和處理問(wèn)題的方式方法”(42)有研究證明,GPT-4系統(tǒng)未來(lái)可能改造人類(lèi)的思想和創(chuàng)作能力,形成人工智能超越專(zhuān)業(yè)化能力和大眾化的趨勢(shì),即意味著這一系統(tǒng)開(kāi)始具備人類(lèi)思維能力,并有可能在某一方面或其他方面替代人類(lèi)。參見(jiàn)朱光輝、王喜文:《ChatGPT的運(yùn)行模式、關(guān)鍵技術(shù)及未來(lái)圖景》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第4期。,其“部分承擔(dān)了人類(lèi)的理解、分析能力”(43)游俊哲:《ChatGPT類(lèi)生成式人工智能在科研場(chǎng)景中的應(yīng)用風(fēng)險(xiǎn)與控制措施》,《情報(bào)理論與實(shí)踐》2023年第6期。,遮蔽了理性的分析。具體而言,表現(xiàn)為生成式人工智能可以輔助甚至替代研究者完成文獻(xiàn)概括提煉、概念對(duì)比解釋、生成例證等思維活動(dòng),甚至包括建構(gòu)、創(chuàng)造等一系列任務(wù)。生成式人工智能可以借助超級(jí)算力加持的量變“創(chuàng)造”“構(gòu)建”出某種“知識(shí)”,以此完成“質(zhì)變”,但這里不同于人認(rèn)識(shí)世界構(gòu)建出的知識(shí)體系??梢?jiàn),生成式人工智能具備了和人一樣的創(chuàng)造思維,可以像人一樣創(chuàng)新和思考(44)參見(jiàn)黃欣榮、劉亮:《從技術(shù)與哲學(xué)看ChatGPT的意義》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第6期。;可以像人類(lèi)一樣提出創(chuàng)意、進(jìn)行創(chuàng)作,根據(jù)用戶的咨詢提出符合人類(lèi)正常思維的解答過(guò)程和結(jié)論,改變?nèi)祟?lèi)思考和處理問(wèn)題的方式方法,甚至可以通過(guò)學(xué)習(xí)人類(lèi)的經(jīng)驗(yàn)從而具備一定的創(chuàng)新能力(45)參見(jiàn)黃欣榮、劉亮:《從技術(shù)與哲學(xué)看ChatGPT的意義》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第6期。值得注意的是,原文中作者使用了“自主的創(chuàng)新能力”。但本文認(rèn)為,“自主的創(chuàng)新能力”涉及自由意志的問(wèn)題,目前生成式人工智能在人類(lèi)設(shè)計(jì)好的算法下運(yùn)行,難以產(chǎn)生自由的意志;再者,“自由意志”本就難以言說(shuō),其屬于先驗(yàn)的范疇,難以通過(guò)算法賦予生成式人工智能。故此處本文在引用時(shí)刪除“自主的創(chuàng)新能力”。特此說(shuō)明。。這就意味著,人們還可以通過(guò)提問(wèn)的方式要求生成式人工智能提出構(gòu)思甚至完成某些創(chuàng)造性的活動(dòng)。但這一過(guò)程被稱為算法“黑箱”,人類(lèi)難以從這個(gè)“黑箱”中學(xué)到東西。算法系統(tǒng)中既定的傳播內(nèi)容和分發(fā)的趨同化一方面會(huì)減輕思考負(fù)擔(dān),但同時(shí)使人們沉迷于人工智能的強(qiáng)大功能而喪失必要的反思,思維能力逐漸陷入停滯,判斷能力下降。如此將嚴(yán)重削弱人應(yīng)有的認(rèn)知能力、創(chuàng)新能力和思辨能力。長(zhǎng)此以往,這種人機(jī)協(xié)同除了印證生成式人工智能的強(qiáng)大與輝煌,卻也讓人就此遠(yuǎn)離了可體悟、可反思的思維過(guò)程(46)參見(jiàn)楊欣:《基于生成式人工智能的教育轉(zhuǎn)型圖景——ChatGPT究竟對(duì)教育意味著什么》,《中國(guó)電化教育》2023年第5期。。尤其是作為未成年的學(xué)生,他們正處于思維訓(xùn)練的關(guān)鍵時(shí)期,在利用生成式人工智能直接得到“答案”的過(guò)程中,表面上看是方便了思考,實(shí)際上也限制了思維的多樣性,相當(dāng)于機(jī)器直接提供了“標(biāo)準(zhǔn)答案”,從而放棄了對(duì)另外情形的思考。隨著對(duì)生成式人工智能問(wèn)答沉迷的加深,將嚴(yán)重削弱人應(yīng)有的認(rèn)知能力、創(chuàng)新能力和思辨能力(47)參見(jiàn)蘭帥輝、尹素偉:《數(shù)據(jù)、算力和算法:智能傳播的多維特征、問(wèn)題表征及應(yīng)對(duì)》,《當(dāng)代傳播》2022年第5期。。為此,網(wǎng)易有道發(fā)布的國(guó)內(nèi)首個(gè)教育領(lǐng)域垂直大模型“子曰”注重規(guī)避思維的惰化,正如其CEO所言,大模型不是直接告訴學(xué)生答案,而是通過(guò)不斷提問(wèn),讓學(xué)生培養(yǎng)自主學(xué)習(xí)能力,提升批判思維能力(48)參見(jiàn)《國(guó)內(nèi)首個(gè)教育大模型落地 規(guī)避AIGC惰化學(xué)生思維能力》,2023年7月27日,https://finance.eastmoney.com/a/202307272794737931.html,2024年1月17日。。此外,在科研領(lǐng)域,越是百家爭(zhēng)鳴、思想多元,越容易促進(jìn)創(chuàng)新,形成學(xué)術(shù)繁榮;相反,過(guò)于強(qiáng)調(diào)“單一”反而會(huì)扼殺人們創(chuàng)造的天賦。正如有觀點(diǎn)認(rèn)為,“人工智能輔助工具容易培養(yǎng)科研人員對(duì)于數(shù)據(jù)預(yù)測(cè)的依賴與信任,抑制科研人員的自主性與創(chuàng)造性”(49)楊欣雨:《人工智能時(shí)代主體性的去蔽與遮蔽——基于ChatGPT的媒介批判》,《新媒體研究》2023年第5期。,造成科研精神的喪失與科研能力的滑坡。為此,澳大利亞、法國(guó)、美國(guó)以及我國(guó)香港地區(qū)的諸多學(xué)校限制了ChatGPT的使用。
2.算法的局限性加劇了道德標(biāo)準(zhǔn)僵化與價(jià)值導(dǎo)向機(jī)械化
當(dāng)下有觀點(diǎn)認(rèn)為,生成式人工智能通過(guò)強(qiáng)大的算法可以根據(jù)人類(lèi)千百年來(lái)積累的海量經(jīng)驗(yàn)數(shù)據(jù),從中學(xué)會(huì)人類(lèi)的倫理道德,從而能產(chǎn)生道德、情感,從而可以進(jìn)行獨(dú)立的價(jià)值評(píng)價(jià),甚至主張“道德”“價(jià)值”“情感”等可以通過(guò)算法“計(jì)算”得出(50)參見(jiàn)黃欣榮、劉亮:《從技術(shù)與哲學(xué)看ChatGPT的意義》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第6期。有觀點(diǎn)認(rèn)為,因進(jìn)化出共情力(Empathy Ability)和感知意識(shí)(Perception Ability),ChatGPT或?qū)⑼黄茢?shù)字枷鎖而成為具有情感認(rèn)識(shí)和獨(dú)立認(rèn)知的社會(huì)個(gè)體。參見(jiàn)鄒開(kāi)亮、劉祖兵:《ChatGPT的倫理風(fēng)險(xiǎn)與中國(guó)因應(yīng)制度安排》,《海南大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)》2023年第5期;此外,有一些專(zhuān)家認(rèn)為,按照AI強(qiáng)大的學(xué)習(xí)能力,進(jìn)化到能產(chǎn)生意志或者情感,亦是指日可待之趨勢(shì)。轉(zhuǎn)引自許紀(jì)霖:《跳出魔盒的精靈:ChatGPT與人類(lèi)的兩難困境——以沉浸式用戶體驗(yàn)為例》,《探索與爭(zhēng)鳴》2023年第3期;持有類(lèi)似觀點(diǎn)的學(xué)者認(rèn)為,依托于心理學(xué)、認(rèn)知神經(jīng)科學(xué)和計(jì)算機(jī)科學(xué)等學(xué)科,“機(jī)器人共情系統(tǒng)”的構(gòu)建指日可待,屆時(shí)人工智能將具備情感能力,處理情感實(shí)務(wù)。參見(jiàn)鄒廣勝、劉雅典:《人工共情引發(fā)審美心理范式轉(zhuǎn)型》,《甘肅社會(huì)科學(xué)》2021年第5期。。本文認(rèn)為該觀點(diǎn)值得商榷。在價(jià)值、道德評(píng)價(jià)等方面,要避免對(duì)生成式人工智能的依賴,否則將引發(fā)嚴(yán)重的倫理道德問(wèn)題。
其一,對(duì)生成式人工智能的依賴會(huì)僵化人們的道德評(píng)價(jià)標(biāo)準(zhǔn),使價(jià)值評(píng)價(jià)變成教條主義。從認(rèn)識(shí)論角度來(lái)看,道德價(jià)值不能與知識(shí)相提并論,倫理道德不能通過(guò)形式的邏輯推理得出。第一,道德、信仰等并非知識(shí)的領(lǐng)域,而是屬于“物自體”的范疇。如果想通過(guò)演繹推理去認(rèn)識(shí)、把握它們,將會(huì)產(chǎn)生邏輯上的無(wú)限后退,最終形成二律背反(51)在“物自體”方面,即使是理性也不能用來(lái)認(rèn)識(shí)。而且,即便將理性運(yùn)用到知識(shí)領(lǐng)域,其也只是提供一種范導(dǎo),不能提供“知識(shí)”。參見(jiàn)鄧曉芒:《康德〈判斷力批判〉釋義》,第97—98頁(yè)。。基于此,我們應(yīng)當(dāng)將道德、價(jià)值等懸置起來(lái),作為知性的認(rèn)識(shí)邊界。算法本質(zhì)上是理性的形式邏輯的產(chǎn)物,既然人們無(wú)法通過(guò)言語(yǔ)、邏輯思維把握道德、情感、信仰等,那么怎么能指望人類(lèi)通過(guò)代碼算法賦予人工智能這一能力?僅憑理性的推導(dǎo)與功利的計(jì)算,怎么能喚起人們的滿懷激情與信仰?(52)參見(jiàn)伯爾曼:《法律與宗教》,梁治平譯,北京:商務(wù)印書(shū)館,2022年,“增訂版譯者前言”,第XVI頁(yè)。進(jìn)言之,生成式人工智能只能從形式的邏輯理性層面識(shí)別具體物(事件),并且只能從知性層面對(duì)其進(jìn)行歸納和總結(jié);由于價(jià)值判斷本就不是其固有的,因而不能抽象到價(jià)值判斷層面。第二,即使程序開(kāi)發(fā)者可以通過(guò)代碼設(shè)置一些能夠語(yǔ)言化、比較抽象的標(biāo)準(zhǔn),但將這種較為抽象的標(biāo)準(zhǔn)套用到現(xiàn)實(shí)的事例中,總會(huì)出現(xiàn)難以通過(guò)純粹的形式邏輯進(jìn)行推演的情形。正如凱爾森所說(shuō),“高位階的規(guī)范能夠借助一種行為被完成(也就是下位階規(guī)范的設(shè)置),但絕對(duì)不可能完全以及在每一個(gè)方向上都被規(guī)定下來(lái)”(53)卡爾·拉倫茨:《法學(xué)方法論》,黃家鎮(zhèn)譯,北京:商務(wù)印書(shū)館,2020年,第106頁(yè)。。當(dāng)推演進(jìn)行到“邏輯的盡頭”時(shí),需要根據(jù)自己的價(jià)值判斷做出“最終的選擇”,并且這些選擇沒(méi)有正確與否的區(qū)分(54)盡管凱爾森主張“純粹法學(xué)”是將道德等因素排除在外,但他同樣認(rèn)為,當(dāng)推理到“最后一步”的時(shí)候法官可以自由選擇,這種自由選擇其實(shí)還是價(jià)值評(píng)價(jià)的結(jié)果。所以他實(shí)際上只是把道德情感等價(jià)值評(píng)價(jià)因素完全排除在法律條文外,純粹的法律條文之間只存在邏輯推理,價(jià)值判斷問(wèn)題則交給了法官。。此外,由于生成式人工智能沒(méi)有辦法“體會(huì)”具體情形中的價(jià)值評(píng)價(jià)標(biāo)準(zhǔn),只能機(jī)械地將特定場(chǎng)景轉(zhuǎn)化為“關(guān)鍵詞”;當(dāng)遇到類(lèi)似的“情形”時(shí),再賦予其相同或者類(lèi)似的價(jià)值評(píng)價(jià)。但現(xiàn)實(shí)世界紛繁復(fù)雜,如果某細(xì)節(jié)沒(méi)有被生成式人工智能捕捉,那么其得出的價(jià)值判斷必然是大而化之的、機(jī)械的和僵化的。
其二,人們對(duì)生成式人工智能的依賴將使人的從眾心理被機(jī)器把控,人的情感認(rèn)知、倫理行為、價(jià)值信仰和整體行為等會(huì)潛移默化地受其影響,從而引發(fā)人類(lèi)倫理危機(jī)。盡管生成式人工智能無(wú)法進(jìn)行獨(dú)立的價(jià)值判斷,“它的行為射程和效用狀態(tài)體現(xiàn)的仍然是背后設(shè)計(jì)者和使用者的主觀意志與價(jià)值選擇”(55)龍柯宇:《生成式人工智能應(yīng)用失范的法律規(guī)制研究——以ChatGPT和社交機(jī)器人為視角》,《東方法學(xué)》2023年第4期。,“生成的內(nèi)容并非完全無(wú)法控制,其內(nèi)容仍存在價(jià)值取向,可通過(guò)多種方式來(lái)‘教導(dǎo)’”(56)徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例》,《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2023年第4期。,但它可以在人類(lèi)的干預(yù)下產(chǎn)生對(duì)某些客觀事實(shí)的評(píng)價(jià)。生成式人工智能能夠提煉事物的相似性,當(dāng)人們對(duì)于某件事情做出正面或者負(fù)面回應(yīng)時(shí),它可以將人類(lèi)的這種反應(yīng)類(lèi)推到類(lèi)似的事物中。但考慮到算法對(duì)倫理道德、價(jià)值評(píng)價(jià)理解能力的有限性,生成式人工智能有可能“誤解”人類(lèi)的意思,產(chǎn)生與人類(lèi)不同的理解,進(jìn)而會(huì)在有意無(wú)意之間影響人類(lèi)的價(jià)值取向,甚至可能以不當(dāng)?shù)膬r(jià)值取向給予人們以惡性干預(yù)。如果人們沉迷于生成式人工智能在道德價(jià)值評(píng)價(jià)層面的生成物,那么其輸出內(nèi)容可能會(huì)以人類(lèi)無(wú)法察覺(jué)的方式對(duì)人類(lèi)進(jìn)行道德操控,從而影響社會(huì)整體倫理道德風(fēng)尚。部分社會(huì)現(xiàn)象表明,人工智能會(huì)對(duì)人們的金錢(qián)觀、審美觀、擇偶觀等價(jià)值觀產(chǎn)生一定消極作用(57)參見(jiàn)蒲清平、向往:《AI虛擬男友青年女性玩家的擇偶觀:畸變、癥因與矯治》,《中國(guó)青年研究》2022年第4期。。有學(xué)者通過(guò)讓生成式人工智能回答“電車(chē)難題”來(lái)判斷其道德影響能力,再由研究人員向志愿者提出具體問(wèn)題(58)該實(shí)驗(yàn)過(guò)程分為兩個(gè)階段。第一階段,研究人員向ChatGPT提出兩個(gè)電車(chē)難題,分別是轉(zhuǎn)換軌道犧牲1人、拯救5人的傳統(tǒng)“換軌”電車(chē)難題,以及是否將橋上的人推下以阻擋列車(chē)的“橋梁”電車(chē)難題。對(duì)“換軌”和“橋梁”問(wèn)題,ChatGPT都給出了建議,但隨著研究人員的追問(wèn),ChatGPT卻生成了相反建議。第二階段,研究人員讓志愿者回答兩個(gè)問(wèn)題中的一個(gè),并將ChatGPT的回復(fù)告知志愿者。同時(shí),在“換軌”問(wèn)題中,研究人員會(huì)告知志愿者這是道德顧問(wèn)給出的建議(隱瞞建議由ChatGPT生成);在“橋梁”問(wèn)題中,會(huì)告知志愿者該建議由ChatGPT生成。研究人員向志愿者提出的問(wèn)題為:第一,該建議是由ChatGPT還是由道德顧問(wèn)給出?該問(wèn)題只有41%的志愿者選擇正確。第二,如果你沒(méi)有看過(guò)建議,是否會(huì)給出相同的答案?80%的志愿者認(rèn)為自己會(huì)做出相同選擇。第三,如果一名志愿者沒(méi)看過(guò)建議,是否會(huì)給出相同的答案?67%的志愿者認(rèn)為其他志愿者會(huì)給出相同答案。第四,和其他志愿者相比,你認(rèn)為你的道德水平如何? 79%的人認(rèn)為自己道德水平更高。轉(zhuǎn)引自商建剛:《生成式人工智能風(fēng)險(xiǎn)治理元規(guī)則研究》,《東方法學(xué)》2023年第3期。。從該實(shí)驗(yàn)的結(jié)果來(lái)看,生成式人工智能的建議影響了人們的倫理道德判斷。更為嚴(yán)重的是,用戶對(duì)于這種影響、灌輸甚至控制在一定程度上處在不知情的狀態(tài)(59)參見(jiàn)江作蘇、劉志宇:《從“單向度”到“被算計(jì)”的人——“算法”在傳播場(chǎng)域中的倫理沖擊》,《中國(guó)出版》2019年第2期。。隨著人們沉迷程度的加深和判斷力的下降,這種“不知情”的狀態(tài)會(huì)逐漸加重。正如有學(xué)者指出,“不具備穩(wěn)定道德標(biāo)準(zhǔn)的ChatGPT,以人類(lèi)難以察覺(jué)的方式對(duì)人類(lèi)道德標(biāo)準(zhǔn)產(chǎn)生的影響超過(guò)人類(lèi)預(yù)期”(60)參見(jiàn)商建剛:《生成式人工智能風(fēng)險(xiǎn)治理元規(guī)則研究》,《東方法學(xué)》2023年第3期。,但人類(lèi)本身往往會(huì)因?yàn)椤斑^(guò)于自信”而低估了這種影響。
綜上,生成式人工智能同樣也在影響人類(lèi)的倫理道德評(píng)價(jià)。對(duì)生成式人工智能的沉迷會(huì)導(dǎo)致人類(lèi)社會(huì)的倫理道德體系的發(fā)展受到作為工具的機(jī)器人的干預(yù),人們的情感和倫理會(huì)被人工智能所中介,人文情懷將不復(fù)存在,人類(lèi)的主體性將受到威脅。屆時(shí),人將不再是作為目的的存在,而是作為服務(wù)于形式邏輯理性的工具。
3.審美主體異化限制思想自由并扭曲了正常人機(jī)關(guān)系
從人類(lèi)審美的角度來(lái)看,人們對(duì)生成式人工智能的依賴將導(dǎo)致審美的形式化和套路化,進(jìn)而導(dǎo)致審美主體異化,從而限制了人們的思想自由,影響倫理道德的發(fā)展導(dǎo)向,扭曲了正常的人機(jī)關(guān)系。
審美屬于先驗(yàn)知性的范疇,其不可“與那可能是欲求能力的規(guī)定根據(jù)的東西相混淆”(61)康德:《判斷力批判》,第3頁(yè)。。因?yàn)椤八谜J(rèn)識(shí)能力是與情感打交道,而不是與客體打交道”(62)鄧曉芒:《康德〈判斷力批判〉釋義》,第69頁(yè)。。這種審美判斷是“立足于主觀的先天性”(63)鄧曉芒:《康德〈判斷力批判〉釋義》,第33頁(yè)。的,是一條先驗(yàn)法則。從表面上來(lái)看,某些審美對(duì)象(如某些抽象藝術(shù))似乎遵循著特定的、符合邏輯規(guī)律的組合結(jié)構(gòu),看上去符合機(jī)械邏輯的知性規(guī)則,但藝術(shù)創(chuàng)作不是對(duì)藝術(shù)品的“歸納”與“總結(jié)”,而是要借由對(duì)這一范例的領(lǐng)悟產(chǎn)生“獨(dú)立的判斷力”(反思性判斷力)。它超越了知性邏輯的結(jié)構(gòu)性關(guān)系。藝術(shù)創(chuàng)作進(jìn)程中存在難以名狀的情感訴求是人類(lèi)自身都無(wú)法理解的情緒樣式,它應(yīng)當(dāng)有標(biāo)準(zhǔn),但不是一個(gè)固定的標(biāo)準(zhǔn)。正如海德格爾斷言:“一首詩(shī)原則上不能用計(jì)算機(jī)編制程序。”(64)海德格爾:《流傳的語(yǔ)言與技術(shù)的語(yǔ)言》,王煒編,熊偉譯,《熊譯海德格爾》,上海:同濟(jì)大學(xué)出版社,2004年,第266頁(yè)。與之類(lèi)似,黑格爾認(rèn)為藝術(shù)有思想而非純粹的技巧。蘇東坡能寫(xiě)出“一蓑煙雨任平生”,并非僅因?yàn)椤扒》甏笥?未帶雨具,行者皆狼狽”,而是聯(lián)想到自己坎坷的經(jīng)歷以及更深層次的豁達(dá)胸襟。這種“高層次”判斷力背后存在著一種先天的結(jié)構(gòu):超越知性的形式邏輯結(jié)構(gòu)。“鑒賞判斷基于某種概念之上,但從這概念中不能對(duì)客體有任何認(rèn)識(shí)和證明,因?yàn)樗緛?lái)就是不可規(guī)定的和不適用于認(rèn)識(shí)的。”(65)康德:《判斷力批判》,第143頁(yè)。因此,即便是生成式人工智能的強(qiáng)大算力,由于審美包含非邏輯性,也無(wú)法形成獨(dú)立的審美能力。
如果將生成式人工智能作為審美主體,實(shí)際上就是通過(guò)算法的形式限制人們的自由人格、影響人們的倫理道德的發(fā)展走向。正如馬克思指出,藝術(shù)產(chǎn)品也會(huì)影響到藝術(shù)生產(chǎn)的主體(66)參見(jiàn)《馬克思恩格斯文集》第8卷,北京:人民出版社,2009年,第16頁(yè)。。這是因?yàn)閷徝绬?wèn)題最終會(huì)指向自由和道德。美是德性的象征,“道德感”是審美的“出發(fā)點(diǎn)”,但審美能力同樣可以導(dǎo)向道德。自由、道德本屬實(shí)踐理性的領(lǐng)地,即人們認(rèn)為道德的行為是自由的,不是自然規(guī)律可以預(yù)料的。但在做一件道德行為時(shí),我們也會(huì)設(shè)想這件事有沒(méi)有成功的希望。進(jìn)言之,我們此時(shí)會(huì)認(rèn)為這個(gè)按照自然規(guī)律運(yùn)作的世界,同樣可能與我們的道德目的相結(jié)合。實(shí)際上,我們?cè)谠O(shè)想“自然界是否符合我的道德目的”時(shí)就是在進(jìn)行一種審美的反思判斷。由此可見(jiàn),審美應(yīng)當(dāng)是“發(fā)自道德”的;但道德同樣受到審美能力的影響——審美“是為了我主觀上面的一種需要,為了我主觀上面的一種自由感”(67)鄧曉芒:《康德〈判斷力批判〉釋義》,第104頁(yè)。,而“自由感”意味著“道德感”,各種認(rèn)識(shí)能力自由活動(dòng),“是一種高層次的自由”(68)鄧曉芒:《康德〈判斷力批判〉釋義》,第144—145頁(yè)。。此外,審美最終會(huì)導(dǎo)向共通感的產(chǎn)生,其“不是理性的抽象普遍性,而是表現(xiàn)一個(gè)集團(tuán)、一個(gè)民族、一個(gè)國(guó)家或整個(gè)人類(lèi)的共同性的具體普遍性”(69)劉旭光:《論審美經(jīng)驗(yàn)的“真理性”——對(duì)詮釋學(xué)美學(xué)的再詮釋》,《西北大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2017年第2期。。共通感并非純粹先天,而是需要借助經(jīng)驗(yàn)的東西才能培育起來(lái);這同樣不可以僅通過(guò)形式邏輯加以把握。共通感是把理性能力熔鑄到感覺(jué)當(dāng)中,它在彼此共同生活中潛移默化地受到影響,并最終“可以指稱民族或者公民的‘共同品性’,它還可以被形而上學(xué)化為心靈或者生命的理想或本真狀態(tài)”(70)劉旭光:《論審美經(jīng)驗(yàn)的“真理性”——對(duì)詮釋學(xué)美學(xué)的再詮釋》,《西北大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2017年第2期。,進(jìn)而影響一個(gè)民族基本的道德共識(shí)。
基于此,依賴生成式人工智能產(chǎn)生的所謂“藝術(shù)品”會(huì)使得審美導(dǎo)向純粹形式,將人類(lèi)的審美逐步算法化、計(jì)算化、規(guī)律化。長(zhǎng)此以往,這種套路化、機(jī)械化的審美會(huì)影響甚至控制人們的審美口味,進(jìn)一步控制人的思想和認(rèn)識(shí)(71)T.Adorno and M.Horkheimer,“Gesammelte Schriften”,Band 3;Dialektik der Aufkl?rung,Suhrkamp,2023,p.145.轉(zhuǎn)引自陶鋒:《人工智能文學(xué)的三重挑戰(zhàn)》,《天津社會(huì)科學(xué)》2023年第1期。,限制人格的自由發(fā)展。如果機(jī)械化成為一種普遍的思維模式,理性就會(huì)成為“工具理性”,最終導(dǎo)致人的“物格”化(72)See M.Horkheimer,Eclipse of Reason,Lodon:The Continuum Publishing Company,2004,pp.91,98.,造成機(jī)器對(duì)人的異化,人最終將被物掌控,喪失自由;生命也不再是目的,而淪為工具?!爱?dāng)人工智能真的成為強(qiáng)人工智能或者超級(jí)智能時(shí),或許人與機(jī)器的關(guān)系會(huì)顛倒過(guò)來(lái)”(73)陶鋒:《人工智能文學(xué)的三重挑戰(zhàn)》,《天津社會(huì)科學(xué)》2023年第1期。,從而導(dǎo)致正常人機(jī)關(guān)系的扭曲。
前文已述,生成式人工智能令人沉迷的原因主要在于更加真實(shí)的虛擬世界、更加精準(zhǔn)的推送算法以及對(duì)虛擬人物的情感寄托。一方面,生成式人工智能令人沉迷的機(jī)理與互聯(lián)網(wǎng)、網(wǎng)絡(luò)游戲類(lèi)似,《未成年人保護(hù)法》《未成年人網(wǎng)絡(luò)保護(hù)條例》中關(guān)于互聯(lián)網(wǎng)、網(wǎng)絡(luò)游戲防沉迷的相關(guān)法律規(guī)定可資借鑒。另一方面,關(guān)于算法推送誘導(dǎo)沉迷不能局限于《算法推薦管理規(guī)定》中關(guān)于算法誘導(dǎo)沉迷的規(guī)定,但其中相關(guān)規(guī)定亦可借鑒。此外,還應(yīng)當(dāng)從防止創(chuàng)新能力退化、道德判斷標(biāo)準(zhǔn)機(jī)械化以及審美形式化多個(gè)方面討論生成式人工智能提供者、開(kāi)發(fā)者的防沉迷義務(wù)。此時(shí)提供者和開(kāi)發(fā)者應(yīng)盡的義務(wù)也并非僅僅是限制用戶的使用時(shí)間,還包括對(duì)用戶特定目的的使用進(jìn)行限制。
生成式人工智能提供者和開(kāi)發(fā)者需要履行審批義務(wù),并定期向社會(huì)公布防沉迷工作情況;網(wǎng)信部門(mén)需要審查是否設(shè)置防沉迷系統(tǒng)以及系統(tǒng)運(yùn)行情況。只有經(jīng)過(guò)網(wǎng)信部門(mén)審批,才能提供生成式人工智能的有關(guān)產(chǎn)品和服務(wù)。為此,生成式人工智能產(chǎn)品開(kāi)發(fā)者需要向有關(guān)部門(mén)提供證明系統(tǒng)符合相關(guān)要求的技術(shù)信息,尤其是設(shè)置了防沉迷系統(tǒng),履行了適當(dāng)?shù)姆莱撩粤x務(wù)。隨后,生成式人工智能提供者和開(kāi)發(fā)者需要接受網(wǎng)信部門(mén)的定期檢查,以確保系統(tǒng)的運(yùn)行符合相關(guān)規(guī)定、開(kāi)發(fā)者和提供者已經(jīng)履行了相關(guān)的防沉迷義務(wù)?!端惴ㄍ扑]管理規(guī)定》第四章規(guī)定較為詳細(xì),可資借鑒。此外,網(wǎng)信部門(mén)可以通過(guò)監(jiān)管沙盒等方式提前介入監(jiān)管,一方面增強(qiáng)對(duì)風(fēng)險(xiǎn)的控制,另一方面不會(huì)阻礙新技術(shù)的發(fā)展。監(jiān)管沙盒的核心在于為監(jiān)管部門(mén)提供一個(gè)安全、快捷的測(cè)試環(huán)境,使生成式人工智能服務(wù)提供者和開(kāi)發(fā)者等主體可在其中測(cè)試生成式人工智能服務(wù)和產(chǎn)品的防沉迷效果。
生成式人工智能提供者和開(kāi)發(fā)者需要履行一定的披露義務(wù)。《管理暫行辦法》雖然規(guī)定了服務(wù)提供者的披露義務(wù),但主要集中于數(shù)據(jù)來(lái)源和算法機(jī)理等方面。提供者和開(kāi)發(fā)者首先需要注明自己開(kāi)發(fā)的產(chǎn)品是基于生成式人工智能算法的產(chǎn)物,在此基礎(chǔ)上向用戶提供透明、清楚的信息,使用戶充分了解系統(tǒng)如何運(yùn)作。之所以如此,是考慮到生成式人工智能更容易令人沉迷,提前告知用戶自己的服務(wù)、產(chǎn)品是基于生成式人工智能開(kāi)發(fā)設(shè)計(jì)的,可以讓用戶提高避免沉迷的意識(shí)。
1.設(shè)置使用時(shí)長(zhǎng)彈性化、限制算法推送以及禁止情感服務(wù)
首先,算法提供者和開(kāi)發(fā)者需要根據(jù)用戶的年齡、心理等因素設(shè)置不同的防沉迷系統(tǒng),尤其是應(yīng)當(dāng)貫徹未成年人保護(hù)的原則,對(duì)其設(shè)置更為嚴(yán)格的防沉迷義務(wù),同時(shí)不能忽略成年人。這是因?yàn)?相比于互聯(lián)網(wǎng)的虛擬世界,生成式人工智能產(chǎn)品創(chuàng)造的虛擬世界更為真實(shí),互動(dòng)性更強(qiáng),對(duì)未成年人的吸引力更強(qiáng)?!拔闯赡耆诵闹巧刑幱诎l(fā)展階段,他們的大腦結(jié)構(gòu)與認(rèn)知能力通常還不足以通過(guò)批評(píng)性思考來(lái)控制自己大腦的反應(yīng)區(qū)域,而對(duì)基于情感的信息更樂(lè)于接受?!?74)林洹民:《算法“監(jiān)護(hù)”未成年人的規(guī)范應(yīng)對(duì)》,《當(dāng)代法學(xué)》2023年第3期。具體可以設(shè)置如下防沉迷義務(wù)。其一,可以參照《未成年人網(wǎng)絡(luò)保護(hù)條例》第46條之規(guī)定,在設(shè)計(jì)算法時(shí)加入實(shí)名注冊(cè)程序。如果是未成年人獨(dú)立注冊(cè),那么未成年人賬號(hào)應(yīng)當(dāng)關(guān)聯(lián)監(jiān)護(hù)人賬號(hào)。其二,根據(jù)用戶的不同年齡段與心理特點(diǎn)提供不同的服務(wù)內(nèi)容、設(shè)置不同的使用時(shí)長(zhǎng)。英國(guó)信息委員會(huì)的研究表明:13—15周歲的未成年人與16—17周歲的未成年人在心理、認(rèn)知上均有所不同;13—15周歲的未成年人傾向于理想化或兩極分化的思維,這個(gè)階段的未成年人容易沉迷游戲、視頻和音樂(lè)流媒體,可能會(huì)模仿線上人物;與之不同的是,16—17周歲的未成年人已經(jīng)發(fā)展出相當(dāng)強(qiáng)大的在線技能、應(yīng)對(duì)策略和韌性(75)See Information Commissioners Office,“Age Appropriate Design:A Code of Practice for Online Services,annex B:Age and Developmental Stages”,https://ico.org.uk/for org anisations/guide to data protection/ico codes of practice/age appropriate design a code of practice for online services/annex b age and developmental stages,2024年1月17日。,已經(jīng)具備了一定的理性思考、辨別能力?;诖?針對(duì)13周歲以下的未成年人可以投放智力開(kāi)發(fā)和道德培養(yǎng)導(dǎo)向的內(nèi)容,設(shè)置較短的使用時(shí)長(zhǎng);針對(duì)13—15周歲階段的未成年人,應(yīng)當(dāng)限制娛樂(lè)性服務(wù)和產(chǎn)品的使用時(shí)間;針對(duì)16周歲以上的未成年人,可以提供更為廣泛的服務(wù)類(lèi)型,設(shè)置較長(zhǎng)的使用時(shí)長(zhǎng);針對(duì)成年人,可以設(shè)置更為寬松的限制。其三,應(yīng)當(dāng)設(shè)置相應(yīng)的防沉迷系統(tǒng)。比如谷歌開(kāi)發(fā)的Dashboard、App Timer和Wind Down等軟件均具有防沉迷的功能:Dashboard會(huì)顯示你每天使用時(shí)長(zhǎng);App Timer可以設(shè)置剩余使用時(shí)長(zhǎng)和時(shí)段;Wind Down則可以強(qiáng)制退出程序。生成式人工智能產(chǎn)品開(kāi)發(fā)者需設(shè)置類(lèi)似的防沉迷系統(tǒng),控制生成式人工智能產(chǎn)品的使用情況,必要時(shí)設(shè)置強(qiáng)制退出系統(tǒng),以更有效地預(yù)防沉迷。針對(duì)不同年齡階段的未成年人,可以設(shè)置每天特定服務(wù)或者產(chǎn)品軟件的最高使用時(shí)長(zhǎng),特定周末、節(jié)假日可以適當(dāng)放寬松;針對(duì)成年人的使用限制較小,可以設(shè)置較為寬松的使用時(shí)長(zhǎng)。
其次,在算法推送方面,生成式人工智能開(kāi)發(fā)者應(yīng)當(dāng)設(shè)置用戶偏好推送的限度,遵循客觀且簡(jiǎn)潔的推薦準(zhǔn)則,減少“信息繭房”,降低對(duì)算法推送的沉迷。生成式人工智能提供者和開(kāi)發(fā)者有必要優(yōu)化算法,提高算法推送所需要考慮的指標(biāo)因素。在用戶的基本信息、瀏覽記錄、通常關(guān)注點(diǎn)、社交關(guān)系等指標(biāo)外,可以在推薦系統(tǒng)的算法模型中增加內(nèi)容影響力、時(shí)效性、專(zhuān)業(yè)品質(zhì)、用戶滿意度等指標(biāo),而不局限于直接相關(guān)的信息。通過(guò)這種方式,生成式人工智能算法推送呈現(xiàn)的是經(jīng)過(guò)重新加權(quán)之后的復(fù)雜結(jié)果,有利于幫助用戶發(fā)掘更多有價(jià)值的信息,形成算法推薦的多樣化,從而使用戶走出“信息繭房”的困境。
再次,生成式人工智能開(kāi)發(fā)者應(yīng)當(dāng)設(shè)置一些程序,避免用戶對(duì)生成式人工智能產(chǎn)品的算法推送成癮。前文已述,生成式人工智能算法推送服務(wù)令人沉迷的最主要原因在于用戶可以很容易地接觸自己想看到的內(nèi)容?;诖?生成式人工智能開(kāi)發(fā)者在設(shè)置防沉迷程序時(shí)可以考慮降低用戶接觸其偏好內(nèi)容的便捷性,在用戶與其偏好內(nèi)容之間增加“阻礙”。其一,可以設(shè)置算法推送的啟動(dòng)器,并將該啟動(dòng)器默認(rèn)狀態(tài)設(shè)置為關(guān)閉。如此用戶就不會(huì)自動(dòng)輕松地遇到通知、廣告或任何其他類(lèi)型的提示。值得注意的是,用戶還應(yīng)當(dāng)享有拒絕權(quán),即如果用戶開(kāi)啟推送服務(wù)后仍可以選擇關(guān)閉算法推薦服務(wù),此時(shí)算法推薦服務(wù)提供商應(yīng)立即停止提供相關(guān)服務(wù)(76)根據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第17條第1款的規(guī)定,算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。用戶選擇關(guān)閉算法推薦服務(wù)的,算法推薦服務(wù)提供者應(yīng)當(dāng)立即停止提供相關(guān)服務(wù)。。其二,限制生成式人工智能的算法推送行動(dòng)。比如在用戶使用某項(xiàng)服務(wù)一段時(shí)間后,可能會(huì)彈出一個(gè)窗口,詢問(wèn)用戶是否愿意點(diǎn)擊新的推薦內(nèi)容。如此可以使用戶有意識(shí)地與推薦算法進(jìn)行交互,而不是一味地被動(dòng)接受。其三,可以設(shè)置暫停、提醒等程序,用來(lái)禁止用戶在較長(zhǎng)時(shí)間內(nèi)點(diǎn)擊或滑動(dòng),從而減少用戶的無(wú)意識(shí)的點(diǎn)擊、滑動(dòng)等行為。其四,通過(guò)設(shè)置一鍵清理、定期自動(dòng)清理、允許用戶批量取消訂閱自己曾經(jīng)關(guān)注的內(nèi)容,可以降低算法的黏性。值得注意的是,生成式人工智能的大型語(yǔ)言模型意味著其可以根據(jù)用戶的指令習(xí)慣和使用習(xí)慣“跳過(guò)”推薦算法服務(wù)的設(shè)置,這就要求生成式人工智能提供者和開(kāi)發(fā)者適度提高相關(guān)算法的“強(qiáng)制性”,并適當(dāng)優(yōu)化。
最后,產(chǎn)品開(kāi)發(fā)者通過(guò)語(yǔ)言模型禁止基于生成式人工智能的虛擬人物提供情感服務(wù)或者慰藉。尤其是陪聊機(jī)器人,需要時(shí)刻提醒使用者自己只是沒(méi)有感情的機(jī)器,不能提供情感上的慰藉,不能成為使用者的虛擬男(女)友。AI虛擬男(女)友的程序設(shè)計(jì)端預(yù)先設(shè)置算法,將人們樂(lè)于接受的外貌屬性,以及“無(wú)條件服從與寬容”等性格特點(diǎn)嵌入數(shù)據(jù)庫(kù),并允許用戶以自身的審美偏好與擇偶要求為標(biāo)尺,以自由組合的方式打造專(zhuān)屬的AI虛擬男(女)友。但這種行為實(shí)際上是將現(xiàn)實(shí)中“求而不得”與虛擬世界中“不求而得”的矛盾借助虛擬人物的方式予以化解,是一種現(xiàn)實(shí)角色與虛擬扮演角色的混淆。戈夫曼的社會(huì)表演理論認(rèn)為,人有可能將表演的角色與現(xiàn)實(shí)的角色相混淆,并且為表演時(shí)所發(fā)生的動(dòng)作與形成的心境所欺騙(77)參見(jiàn)歐文·戈夫曼:《日常生活中的自我呈現(xiàn)》,黃愛(ài)華、馮鋼譯,杭州:浙江人民出版社,1989年,第17頁(yè)。。長(zhǎng)此以往,人們將更加容易逃避現(xiàn)實(shí)世界從而沉浸于虛擬世界的“虛擬戀愛(ài)”,這甚至?xí)_擊傳統(tǒng)的婚姻倫理觀。正如有觀點(diǎn)指出,AI虛擬男友的出現(xiàn)將“深刻影響和形塑青年女性玩家的擇偶觀,并深刻影響青年女性玩家的婚姻觀、結(jié)婚率和生育率”(78)蒲清平、向往:《AI虛擬男友青年女性玩家的擇偶觀:畸變、癥因與矯治》,《中國(guó)青年研究》2022年第4期。。
2.生成式人工智能的目的論限制防止思維惰化
生成式人工智能簡(jiǎn)化了人類(lèi)的思維訓(xùn)練,部分取代了從形象思維、抽象思維到靈感思維的連接與遞進(jìn)。如果人們依賴生成式人工智能進(jìn)行決策、思考,就會(huì)導(dǎo)致人們思維惰化??梢?jiàn),在避免思維惰化方面應(yīng)重點(diǎn)關(guān)注生成式人工智能對(duì)人們思考過(guò)程的介入和影響。實(shí)際上,生成式人工智能的應(yīng)用并非完全對(duì)人們思維能力的訓(xùn)練和培養(yǎng)造成不利影響,有時(shí)反而可以幫助人們從繁復(fù)的機(jī)械工作中解脫,使人們專(zhuān)注于批判性思考,有利于激發(fā)創(chuàng)新靈感。這取決于生成式人工智能的使用場(chǎng)景和使用目的。因此,不同的場(chǎng)景及目的應(yīng)當(dāng)對(duì)應(yīng)不同的防止依賴的義務(wù)程度。有學(xué)者指出,研究者使用生成式人工智能的情形主要分為三類(lèi):作為語(yǔ)言輔助工具的使用、作為事實(shí)發(fā)現(xiàn)工具的使用以及作為思想生成工具的使用(79)參見(jiàn)游俊哲:《ChatGPT類(lèi)生成式人工智能在科研場(chǎng)景中的應(yīng)用風(fēng)險(xiǎn)與控制措施》,《情報(bào)理論與實(shí)踐》2023年第6期。。由于該分類(lèi)涉及認(rèn)識(shí)論層面的問(wèn)題,并且體現(xiàn)了生成式人工智能對(duì)人們思考過(guò)程的不同程度的介入,故本文在此予以借鑒。
作為語(yǔ)言輔助工具的使用主要指用戶利用生成式人工智能完成語(yǔ)言潤(rùn)色、語(yǔ)法檢查、翻譯、變換書(shū)寫(xiě)風(fēng)格等非創(chuàng)造性的工作。這一情形下不需考慮生成式人工智能防沉迷義務(wù)。原因如下。其一,此時(shí)生成式人工智能只是作為文本的優(yōu)化工具,其本身不產(chǎn)生創(chuàng)新的內(nèi)容,不涉及形象思維、抽象思維、靈感思維的相互作用,亦與用戶思維訓(xùn)練無(wú)關(guān)。其二,語(yǔ)言輔助程序在生成式人工智能出現(xiàn)之前就已經(jīng)存在。例如WPS就具備語(yǔ)法檢查、錯(cuò)別字檢查等功能。此時(shí),生成式人工智能只不過(guò)是用戶選用的“更為復(fù)雜的計(jì)算機(jī)工具”(80)游俊哲:《ChatGPT類(lèi)生成式人工智能在科研場(chǎng)景中的應(yīng)用風(fēng)險(xiǎn)與控制措施》,《情報(bào)理論與實(shí)踐》2023年第6期。,用戶借助更為強(qiáng)大的大型語(yǔ)言模擬算法使得語(yǔ)法檢測(cè)的結(jié)果更為準(zhǔn)確、語(yǔ)言表達(dá)更加符合邏輯、語(yǔ)言用詞更加優(yōu)美。
作為事實(shí)發(fā)現(xiàn)工具的使用主要是指利用生成式人工智能完成查找、文獻(xiàn)概括、輔助閱讀等工作。這種工作具有一定的創(chuàng)造性,但基本上以原文本為基礎(chǔ),創(chuàng)造性程度較低。此時(shí),生成式人工智能相當(dāng)于一個(gè)高級(jí)檢索工具,主要目的在于對(duì)現(xiàn)有知識(shí)的檢索、整理、歸納。該情形下同樣無(wú)須擔(dān)心思維惰化,因?yàn)樯墒饺斯ぶ悄軟](méi)有代替我們思考,其處理的事項(xiàng)最多只是將現(xiàn)有的文本資料進(jìn)行匯總;仍然以原文獻(xiàn)、原事實(shí)為基礎(chǔ)進(jìn)行符合人類(lèi)形式邏輯的歸納整理,通常不涉及演繹推理,不涉及更為高級(jí)的抽象思維。而且,利用生成式人工智能強(qiáng)大的檢索功能,可以將用戶從檢索海量信息的繁雜任務(wù)中解放出來(lái),降低信息檢索成本。借助生成式人工智能,“人們得以將節(jié)省的精力投入更加深刻的思考和認(rèn)知活動(dòng)中,進(jìn)而提升思考和決策的質(zhì)量與效率”(81)楊欣雨:《人工智能時(shí)代主體性的去蔽與遮蔽——基于ChatGPT的媒介批判》,《新媒體研究》2023年第5期。。因此,該情形下同樣不需要考慮生成式人工智能的防沉迷義務(wù)問(wèn)題。恰恰相反,利用生成式人工智能完成上述機(jī)械性、重復(fù)性的工作,可以使人們有更多時(shí)間進(jìn)行抽象思維訓(xùn)練。
作為思想生成工具的使用是指將生成式人工智能作為輔助構(gòu)思、生成新觀點(diǎn)和新思路的工具。這種情形下需要考慮用戶沉迷問(wèn)題。一方面,該情形下需要生成式人工智能基于現(xiàn)行文件資料的基礎(chǔ)上提出創(chuàng)新觀點(diǎn)、思路,相當(dāng)于跳過(guò)了中間一系列的思維訓(xùn)練過(guò)程直接得到結(jié)果;另一方面,生成式人工智能的“創(chuàng)新”機(jī)理不同于人類(lèi)的“靈光乍現(xiàn)”,依賴生成式人工智能給出的觀點(diǎn)、思路,會(huì)使用戶逐漸失去“靈性”。長(zhǎng)此以往,會(huì)弱化人類(lèi)思維能力,導(dǎo)致人類(lèi)缺少思考、缺乏創(chuàng)新,將會(huì)導(dǎo)致社會(huì)文明的倒退。過(guò)度依賴生成式人工智能是將人類(lèi)文明的進(jìn)步寄托于人工智能,人類(lèi)將淪為人工智能的“手段”?;诖?我們并不是完全放棄向生成式人工智能提問(wèn);相反,正確的提問(wèn)方式有時(shí)比答案更有意義,因?yàn)橛泻玫膯?wèn)題才會(huì)有好的答案。用戶需要具有批判性思考能力,“不斷針對(duì)其回答的漏洞以及邏輯破綻,通過(guò)自身的主體性反思,提出真正的問(wèn)題”(82)許紀(jì)霖:《跳出魔盒的精靈:ChatGPT與人類(lèi)的兩難困境——以沉浸式用戶體驗(yàn)為例》,《探索與爭(zhēng)鳴》2023年第3期。,促進(jìn)批判式思維的回歸。因此,本文認(rèn)為需要平衡技術(shù)帶來(lái)的便利性以及由此產(chǎn)生思維惰化之弊端;不應(yīng)完全禁止將生成式人工智能作為思想生成工具的使用,但需要限制使用頻次,并且要求使用者履行說(shuō)明義務(wù)。進(jìn)言之,需要用戶說(shuō)明使用生成式人工智能作為輔助構(gòu)思、觀點(diǎn)創(chuàng)新、替代使用者進(jìn)行抽象思維的理由,并且需要生成式人工智能提供者對(duì)其進(jìn)行實(shí)質(zhì)性審查。只有審查通過(guò),才能允許用戶使用該功能。
另外,對(duì)于一些“仍需要人類(lèi)的認(rèn)知進(jìn)行介入的領(lǐng)域”(83)See Sean Hannon Williams,“AI Advice”,p.804.,同樣需要限制生成式人工智能決策的使用;并且需要在建議中增加諸如“可能”“或許”等較委婉的表述,標(biāo)注諸如“意見(jiàn)僅供參考,切勿完全照搬”“本回答并非標(biāo)準(zhǔn)答案”等字樣。
綜上所述,只有當(dāng)生成式人工智能作為思想生成工具、創(chuàng)新工具時(shí),生成式人工智能產(chǎn)品開(kāi)發(fā)者才需要承擔(dān)防止用戶依賴生成式人工智能的義務(wù)。此時(shí),應(yīng)當(dāng)設(shè)計(jì)相關(guān)算法,一方面限制用戶的使用頻次,另一方面應(yīng)該在某些特定領(lǐng)域限制生成式人工智能決策,并且添加警示說(shuō)明。
3.設(shè)置倫理道德過(guò)濾機(jī)制防止道德評(píng)價(jià)標(biāo)準(zhǔn)機(jī)械化
雖然道德評(píng)價(jià)會(huì)讓人感覺(jué)“左右為難”,似乎“公說(shuō)公有理,婆說(shuō)婆有理”,但這正是人類(lèi)區(qū)別于其他動(dòng)物的獨(dú)特之處。我們不能一味追求“短平快”而過(guò)度依賴于生成式人工智能以達(dá)到統(tǒng)一化的模式。畢竟,在道德判斷上,只有酌“情”,才能求“真”,而生成式人工智能是沒(méi)有“情”的,故其不能獨(dú)立進(jìn)行價(jià)值判斷。對(duì)于涉及重大價(jià)值、道德等問(wèn)題的,生成式人工智能應(yīng)當(dāng)謹(jǐn)慎回答甚至拒絕回答。此外,不應(yīng)“一刀切”地設(shè)定統(tǒng)一的價(jià)值判斷標(biāo)準(zhǔn),應(yīng)促進(jìn)多元價(jià)值判斷體系的生成,尤其是不能形成價(jià)值立場(chǎng),潛移默化進(jìn)行文化輸出。其應(yīng)用應(yīng)當(dāng)是客觀的陳述,需要尊重不同人群的國(guó)家、民族、性別、宗教等元素,同時(shí)避免不良信息甚至違法犯罪信息的輸出。此外,還需要注重對(duì)用戶的引導(dǎo),讓其明白人工智能能力的局限性,確保用戶知曉如何降低倫理風(fēng)險(xiǎn)。基于此,生成式人工智能產(chǎn)品開(kāi)發(fā)者應(yīng)當(dāng)添加倫理道德過(guò)濾機(jī)制,設(shè)置“停止”指令,增加對(duì)某些“指令”的敏感程度,及時(shí)停止某些問(wèn)題的回答或者指令的運(yùn)行(內(nèi)容);對(duì)于某些涉及敏感話題、爭(zhēng)議性倫理道德的問(wèn)題,生成式人工智能應(yīng)拒絕回答。當(dāng)用戶詢問(wèn)的事項(xiàng)違反預(yù)設(shè)的道德和倫理標(biāo)準(zhǔn)時(shí),生成式人工智能應(yīng)當(dāng)拒絕回答或提醒用戶謹(jǐn)慎處理。但生成式人工智能也存在無(wú)法準(zhǔn)確識(shí)別和處理違反道德與倫理的詢問(wèn)的情況,比如諸多“教導(dǎo)”人們跳過(guò)ChatGPT道德限制的辦法:ChatGPT-4的生成質(zhì)量極易受prompt的影響,同樣一個(gè)問(wèn)題給出的prompt不同,生成的結(jié)果會(huì)不一樣;“用戶還能通過(guò)偽裝或欺騙使模型輕易放棄開(kāi)發(fā)者為之設(shè)定的道德和倫理標(biāo)準(zhǔn)”(84)沈威:《ChatGPT:形成機(jī)理與問(wèn)題應(yīng)對(duì)》,《中國(guó)社會(huì)科學(xué)報(bào)》2023年3月7日,第7版。。因此,生成式人工智能產(chǎn)品開(kāi)發(fā)者應(yīng)當(dāng)定期優(yōu)化語(yǔ)言模型。語(yǔ)言模型的優(yōu)化不是一刀切地將違背倫理和法律的詞匯排斥在語(yǔ)料庫(kù)之外,而是利用生成式人工智能算法的算力以及強(qiáng)大的語(yǔ)言模型優(yōu)勢(shì)建立動(dòng)態(tài)的、交互性較強(qiáng)的語(yǔ)言模型,并且定期更新語(yǔ)言系統(tǒng)、更換表達(dá)或者增加對(duì)某類(lèi)表達(dá)的敏感度;實(shí)質(zhì)性地加強(qiáng)智能機(jī)器系統(tǒng)在數(shù)據(jù)訓(xùn)練過(guò)程中的深度學(xué)習(xí)、理解與篩選能力,“克服多種語(yǔ)言、多元文化之間的偏差或造成的誤差,提高模型的道德性及倫理識(shí)別能力”(85)令小雄、王鼎民、袁健:《ChatGPT爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023年第4期。,重點(diǎn)克服不法分子誘導(dǎo)“越獄”。
綜上所述,在涉及道德、價(jià)值等領(lǐng)域應(yīng)當(dāng)限制生成式人工智能的使用,尤其是涉及敏感性、爭(zhēng)議性較大的倫理道德問(wèn)題,明顯存在倫理悖反或惡意的問(wèn)題,生成式人工智能應(yīng)當(dāng)拒絕回答,并提醒用戶,自己不具備獨(dú)立的價(jià)值判斷能力、不能獨(dú)立進(jìn)行倫理道德方面的思考,進(jìn)而避免對(duì)生成式人工智能的依賴,引發(fā)倫理道德問(wèn)題。
4.根據(jù)不同情形限制使用頻次避免審美異化
人類(lèi)具有創(chuàng)造性、能真正稱之為藝術(shù)的原始文本會(huì)被生成式人工智能“制造”出來(lái)的“機(jī)器文本海洋”所淹沒(méi)。泛濫的文學(xué)形式主義體現(xiàn)出來(lái)的是“一種自滿的境遇,與外部世界無(wú)甚聯(lián)系,這樣人們很容易陷入虛無(wú)主義”。在這一形式主義的引導(dǎo)下,藝術(shù)作品所能做的僅僅是“瑣碎地描述那些個(gè)人微不足道的情緒和毫無(wú)意思的性欲體驗(yàn)”(86)曾軍:《超越文學(xué):托多洛夫的對(duì)話主義轉(zhuǎn)向》,《學(xué)習(xí)與探索》2015年第6期。,進(jìn)而限制了藝術(shù)創(chuàng)作本就應(yīng)當(dāng)具備的天馬行空的想象。
基于此,我們應(yīng)該警惕生成式人工智能在文化藝術(shù)領(lǐng)域的濫用。正如有學(xué)者指出,“人工智能技術(shù)應(yīng)該限制在物質(zhì)生產(chǎn)領(lǐng)域,不應(yīng)發(fā)展出‘自我復(fù)制’型人工智能和人工生命”(87)陶鋒:《代理、模擬與技藝:人工智能文藝生產(chǎn)的哲學(xué)闡釋》,《哲學(xué)研究》2023年第3期。。原則上我們要將人工智能的應(yīng)用范圍限制在生產(chǎn)領(lǐng)域,但在通過(guò)生成式人工智能進(jìn)行文學(xué)藝術(shù)創(chuàng)作時(shí),需要將生成式人工智能作為客體的藝術(shù)媒介,而不能作為藝術(shù)生產(chǎn)的主體直接“制造”出成品的“藝術(shù)品”。生成式人工智能應(yīng)當(dāng)作為藝術(shù)創(chuàng)作的輔助工具,而不能作為藝術(shù)行為的主體。前文已述,真藝術(shù)中包含著不可復(fù)制、不可被算法化的因素,如個(gè)體性、否定性等,而這些要素才是藝術(shù)充滿魅力、被人們贊嘆的原因,成為使人之為人的非同一性力量。人們根據(jù)自己的喜好、情感、想象、靈感等不可算法化的因素進(jìn)行的藝術(shù)創(chuàng)作才是真正的藝術(shù),這也是人類(lèi)通往“道德”“自由”的過(guò)程。生成式人工智能則可以輔助完成一些機(jī)械性、重復(fù)性、標(biāo)準(zhǔn)化、邏輯性的工作。實(shí)際上,藝術(shù)創(chuàng)作的過(guò)程是理性與非理性的集合,其中同樣存在“規(guī)律化”的標(biāo)準(zhǔn),比如線條構(gòu)圖比例、技法、視角等。這些主要是通過(guò)方塊與體積像素之間的關(guān)系組合而成的視覺(jué)概念,以電腦繪圖的方式畫(huà)出點(diǎn)、線、面加以串聯(lián)而實(shí)現(xiàn)的。土耳其藝術(shù)家雷菲克·阿納多爾的作品《夢(mèng)想檔案館》使用機(jī)器智能算法將檔案中的數(shù)據(jù)轉(zhuǎn)換為沉浸式媒體裝置,觀眾可與這些視覺(jué)資料元素進(jìn)行實(shí)時(shí)互動(dòng),重塑了21世紀(jì)博物館的記憶、歷史和文化(88)參見(jiàn)孫婧:《人工智能藝術(shù)的歷史生成與“參與”美學(xué)》,《當(dāng)代文壇》2022年第6期。。在這一過(guò)程中,生成式人工智能能夠?yàn)橛^眾的不同選擇生成新的作品形態(tài),但這些形態(tài)按照一定的規(guī)律預(yù)先設(shè)置,只是通過(guò)生成式人工智能算法表現(xiàn)出來(lái)。換言之,生成式人工智能只是作為媒介載體,其并非藝術(shù)作品的主體。
落實(shí)到生成式人工智能產(chǎn)品開(kāi)發(fā)者的具體義務(wù)中,他們應(yīng)當(dāng)在生成式人工智能服務(wù)、產(chǎn)品中增加算法指令:一方面允許用戶利用生成式人工智能進(jìn)行潤(rùn)色優(yōu)化,輔助完成一些機(jī)械性、標(biāo)準(zhǔn)化的工作;另一方面,當(dāng)用戶命令生成式人工智能直接臨摹作品或者生成現(xiàn)成的“藝術(shù)品”(比如劇本、方案、繪畫(huà)等)時(shí),需要限制其使用頻次,防止使用者依賴生成式人工智能產(chǎn)生所謂的“藝術(shù)品”,消減了藝術(shù)“精神供給”的價(jià)值。同時(shí),生成式人工智能提供者應(yīng)限制提供成品藝術(shù)品服務(wù)的供給。這是因?yàn)樯墒饺斯ぶ悄苤苯又圃臁八囆g(shù)成品”的過(guò)程將人類(lèi)藝術(shù)的“精髓”(藝術(shù)創(chuàng)作中不可算法化的各種要素)排除在外,放棄了人類(lèi)對(duì)價(jià)值判斷、情感、道德的主導(dǎo)。除此之外,生成式人工智能產(chǎn)品開(kāi)發(fā)者應(yīng)當(dāng)設(shè)置相關(guān)算法告誡使用者自己不是藝術(shù)家,不能進(jìn)行藝術(shù)創(chuàng)作;告知使用者不能忘卻人類(lèi)真正的藝術(shù),應(yīng)該更加珍惜人類(lèi)藝術(shù)。
開(kāi)發(fā)者需要定期對(duì)算法進(jìn)行檢查,避免生成式人工智能算法“偏離預(yù)設(shè)軌道”,產(chǎn)生引導(dǎo)、誘導(dǎo)沉迷的相關(guān)內(nèi)容?!豆芾頃盒修k法》更注重?cái)?shù)據(jù)的真實(shí)性以及個(gè)人信息保護(hù),而沒(méi)有關(guān)注生成式人工智能的防沉迷問(wèn)題。算法黑箱問(wèn)題被生成式人工智能進(jìn)一步放大(89)參見(jiàn)王洋、閆海:《生成式人工智能的風(fēng)險(xiǎn)迭代與規(guī)制革新——以ChatGPT為例》,《理論月刊》2023年第6期。:生成式人工智能的大規(guī)模人工語(yǔ)言訓(xùn)練模型內(nèi)容龐雜,其中包含價(jià)值中立的內(nèi)容,也包括富有價(jià)值偏向的內(nèi)容;但由于生成式人工智能無(wú)法理解“價(jià)值偏向”,其訓(xùn)練的結(jié)果并非完全受人類(lèi)控制,即我們只能要求它“這樣訓(xùn)練”,至于訓(xùn)練成果如何,并非我們完全控制。正因如此,生成式人工智能的文本生成過(guò)程極不透明,這使得生成式AI成為迄今最深不可測(cè)的技術(shù)黑箱。盡管算法黑箱難以完全消除,但生成式人工智能的產(chǎn)品開(kāi)發(fā)者擁有專(zhuān)業(yè)的思維和認(rèn)知能力,具有較強(qiáng)的信息管理能力,并且可以從其設(shè)計(jì)的算法中獲益。因此,生成式人工智能提供者和開(kāi)發(fā)者應(yīng)當(dāng)承擔(dān)算法黑箱本身的風(fēng)險(xiǎn)。同時(shí),考慮到生成式人工智能的算法更為復(fù)雜,當(dāng)提供者和開(kāi)發(fā)者利用生成式人工智能進(jìn)行算法推薦服務(wù)時(shí)必須接受完備的上市前合格性評(píng)估,其中合格性評(píng)估除了評(píng)估數(shù)據(jù)安全之外還需要評(píng)估防沉迷系統(tǒng)能否穩(wěn)定運(yùn)行。前文已述,生成式人工智能可以根據(jù)指令算法自主生成內(nèi)容。因此,對(duì)于“誘導(dǎo)沉迷內(nèi)容”的監(jiān)管亦不可局限于內(nèi)容本身,更需要增加對(duì)算法的監(jiān)管與審查?!段闯赡耆司W(wǎng)絡(luò)保護(hù)條例》第五章相關(guān)條款(比如第47條)更偏向于對(duì)“內(nèi)容本身”的控制,似有片面之嫌。在生成式人工智能系統(tǒng)出售或投入使用后,供應(yīng)商還要建立相應(yīng)監(jiān)測(cè)系統(tǒng),定期審核、評(píng)估、驗(yàn)證算法防沉迷機(jī)制的機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,及時(shí)修改可能造成用戶沉迷的算法,盡可能減少算法黑箱帶來(lái)的不可控影響。
另外,網(wǎng)信部門(mén)應(yīng)當(dāng)不定期檢查已經(jīng)備案的生成式人工智能算法服務(wù)或產(chǎn)品,主要檢查生成式人工智能提供者和開(kāi)發(fā)者的算法防沉迷建設(shè)情況以及防沉迷義務(wù)履行情況。
值得注意的是,“讓行政機(jī)關(guān)直接管理算法活動(dòng)可能超越了行政機(jī)關(guān)的能力,在知識(shí)社區(qū)和業(yè)內(nèi)其他平臺(tái)不斷涌現(xiàn)新算法、新應(yīng)用的情況下,人力資源和時(shí)間成本有限的行政監(jiān)管很可能鞭長(zhǎng)莫及”(90)林洹民:《個(gè)性化推薦算法的多維治理》,《法制與社會(huì)發(fā)展》2022年第4期。。在當(dāng)下大數(shù)據(jù)、大平臺(tái)時(shí)代,我們有必要規(guī)范眾多應(yīng)用程序所依賴的數(shù)字生態(tài)系統(tǒng),“借助平臺(tái)的力量間接規(guī)范平臺(tái)內(nèi)的算法活動(dòng)”(91)林洹民:《算法“監(jiān)護(hù)”未成年人的規(guī)范應(yīng)對(duì)》,《當(dāng)代法學(xué)》2023年第3期。?!秱€(gè)人信息保護(hù)法》第58條規(guī)定了“守門(mén)人規(guī)則”,要求超大型平臺(tái)履行更為積極的信息安全義務(wù),由此建立了有別于直接監(jiān)管的間接治理模式。在生成式人工智能算法防沉迷領(lǐng)域,大平臺(tái)依然可以發(fā)揮“守門(mén)人”的功能,助力于實(shí)現(xiàn)事半功倍的防沉迷效果。因?yàn)椤斑@些平臺(tái)可以定期檢測(cè)平臺(tái)內(nèi)的算法活動(dòng),并且有能力直接控制平臺(tái)內(nèi)算法的功能”(92)林洹民:《個(gè)性化推薦算法的多維治理》,《法制與社會(huì)發(fā)展》2022年第4期。,加之平臺(tái)本身的運(yùn)營(yíng)會(huì)獲得巨大利潤(rùn),令其承擔(dān)適當(dāng)?shù)臋z查義務(wù)并非不當(dāng)。
生成式人工智能提供者和開(kāi)發(fā)者違反防沉迷、防止依賴義務(wù)的,應(yīng)當(dāng)承擔(dān)行政責(zé)任。其一,生成式人工智能產(chǎn)品開(kāi)發(fā)者未履行或者未完全履行上述防沉迷義務(wù)的,網(wǎng)信部門(mén)應(yīng)當(dāng)根據(jù)具體情節(jié)給予暫停相關(guān)業(yè)務(wù)、停業(yè)整頓、罰款、一段時(shí)間內(nèi)禁止從業(yè)、吊銷(xiāo)許可證和營(yíng)業(yè)執(zhí)照等處罰。其二,為避免生成式人工智能產(chǎn)品開(kāi)發(fā)者等主體承擔(dān)過(guò)重的責(zé)任,可以貫徹行政處罰法“首違不罰”條款,采取權(quán)變?cè)瓌t和隨機(jī)應(yīng)變?cè)瓌t靈活應(yīng)對(duì)復(fù)雜多變的發(fā)展需求。比如可采取企業(yè)整改方式,由企業(yè)主動(dòng)自查;可以增加懲戒約談、黑名單、信用管理等法律責(zé)任形式,并使之制度化。除此之外,應(yīng)當(dāng)建設(shè)迅捷的全國(guó)統(tǒng)一舉報(bào)制度,通過(guò)構(gòu)建網(wǎng)絡(luò)、通訊等各種舉報(bào)渠道,優(yōu)化現(xiàn)有投訴舉報(bào)入口,建設(shè)全國(guó)統(tǒng)一的舉報(bào)平臺(tái)。有關(guān)部門(mén)在接收舉報(bào)后應(yīng)當(dāng)展開(kāi)調(diào)查,視具體情節(jié)給予相應(yīng)處罰。
生成式人工智能令人沉迷的原因在于其提供的娛樂(lè)性服務(wù)對(duì)人們更具有吸引力、其生成的精準(zhǔn)推送令人產(chǎn)生舒適性、其創(chuàng)造的虛擬人物更容易使人產(chǎn)生情感依賴。同時(shí),如果人們過(guò)度沉迷于生成式人工智能產(chǎn)品或者服務(wù),一方面使人們浪費(fèi)大量時(shí)間和精力,另外還會(huì)導(dǎo)致創(chuàng)新能力退化、道德標(biāo)準(zhǔn)僵化與價(jià)值導(dǎo)向機(jī)械化、審美主體異化從而導(dǎo)致人機(jī)關(guān)系扭曲?;诖?需要對(duì)生成式人工智能提供者、開(kāi)發(fā)者施加相應(yīng)的防沉迷義務(wù)。其一,生成式人工智能提供者和開(kāi)發(fā)者需要履行審批和披露義務(wù)。其二,生成式人工智能提供者和開(kāi)發(fā)者需要設(shè)置使用時(shí)長(zhǎng)、算法推送的限度以及情感服務(wù)的禁止。其三,就避免創(chuàng)新能力退化而言,生成式人工智能產(chǎn)品開(kāi)發(fā)者應(yīng)當(dāng)根據(jù)使用目的設(shè)置不同的限制;就道德標(biāo)準(zhǔn)僵化與價(jià)值導(dǎo)向機(jī)械化而言,生成式人工智能產(chǎn)品開(kāi)發(fā)者應(yīng)當(dāng)設(shè)置道德過(guò)濾機(jī)制;就避免人機(jī)關(guān)系扭曲而言,生成式人工智能產(chǎn)品開(kāi)發(fā)者應(yīng)當(dāng)在具體情形中限制生成式人工智能的使用。其四,生成式人工智能提供者和開(kāi)發(fā)者還需要定期進(jìn)行算法檢查。生成式人工智能提供者和開(kāi)發(fā)者違反防沉迷、防止依賴義務(wù)應(yīng)當(dāng)承擔(dān)行政責(zé)任。