王鵬濤 徐潤婕
由美國人工智能實驗室OpenAI研發(fā)的生成型預訓練聊天機器人ChatGPT(Chat Generative Pre-trained Transformer)于2022年底蓬勃興起,被視為繼2016年出現(xiàn)的AlphaGo之后又一項重大的人工智能技術(shù)創(chuàng)新。ChatGPT是人工智能生成內(nèi)容(Artificial Intelligence Generated Content, AIGC)技術(shù)的產(chǎn)品形態(tài)之一,本質(zhì)上是基于神經(jīng)網(wǎng)絡的自然語言處理(Natural Language Processing, NLP)模型,相較于前人工智能產(chǎn)品擁有更豐富的知識儲備和更高超的語言交互能力,在文本生成、圖像生成、代碼開發(fā)等內(nèi)容生產(chǎn)領(lǐng)域表現(xiàn)出色,一定程度上能媲美人類智能。毫無疑問,從事知識生產(chǎn)與傳播活動的出版業(yè)將不可避免地被卷入這場洪流,尤其是AIGC技術(shù)將以創(chuàng)作者身份介入學術(shù)知識生產(chǎn)活動,科研人員不再是唯一的學術(shù)知識創(chuàng)造者。技術(shù)本身及其參與內(nèi)容生產(chǎn)過程中的諸多不確定性因素的加入致使學術(shù)出版新場景超出既有信任機制的調(diào)控范圍,伺機泛濫的非理性行為威脅著公平公正的學術(shù)秩序,嚴重損害其對學術(shù)共同體的約束與激勵效能,極可能引發(fā)更大范圍且更深層次的學術(shù)混亂,良性運作的學術(shù)生態(tài)隨時面臨崩塌風險。為推動學術(shù)出版智能化變革成功落地,除廣泛布局AIGC技術(shù)介入的場景之外,更需要及時筑牢行業(yè)重塑的基石,即保證AIGC技術(shù)介入知識生產(chǎn)活動后的學術(shù)出版物繼續(xù)得到學術(shù)共同體的信任。
AIGC技術(shù)憑借強大的內(nèi)容創(chuàng)作本領(lǐng)在學術(shù)知識生產(chǎn)活動中大有可為,本研究基于學術(shù)知識生產(chǎn)周期視角剖析AIGC技術(shù)介入的具體場景,以驗證二者的耦合性。
據(jù)美國科學基金會(National Science Foundation,NSF)統(tǒng)計,科研人員查找和消化科技資源的時間在全部科研時間中占比高達51%[1]。受科研人員生理條件、語言能力與科研工具等的限制,他們在科技資源獲取與分析的準確性、完整性與及時性等方面面臨嚴峻考驗。AIGC技術(shù)或?qū)⑷〈貜托怨ぷ?,大幅提升科研效能。一方面,它根?jù)用戶發(fā)出的指令跨語言和跨數(shù)據(jù)庫地檢索相關(guān)文獻,將最大范圍內(nèi)的代表性文獻進行匯總和整理后呈現(xiàn)在用戶面前。另一方面,基于海量關(guān)聯(lián)的文獻數(shù)據(jù),AIGC技術(shù)可以捕捉文本序列中的依賴關(guān)系,進一步理解和分析文本內(nèi)容,根據(jù)任務要求自動生成簡潔且連貫的文本摘要、文獻綜述或研究大綱,為下游科研任務提供充分支持[2]。
萬物互聯(lián)情境下的大數(shù)據(jù)已然成為科學研究與真實世界之間的擬態(tài)環(huán)境,科研人員試圖通過挖掘海量數(shù)據(jù)背后隱藏的規(guī)律來揭示事物間的復雜關(guān)系,數(shù)據(jù)密集型科研范式已經(jīng)來臨。AIGC技術(shù)擅長快速完成數(shù)據(jù)建模、分析與可視化,識別人類難以察覺的趨勢并作出精準預測,有效拓展科研人員在“數(shù)據(jù)洪流”下的研究能力。不僅如此,AIGC將催生科學研究第五范式——科學智能范式(AI for Science)[3]。機器不再滿足于科研輔助角色,而是以“智能科學家”身份完成對科學問題的提出、論證以及結(jié)果整合與呈現(xiàn)全過程,尤其為自然科學研究帶來顛覆性變革[4]。
AIGC技術(shù)的啟發(fā)性內(nèi)容生成能力對人文社科影響深遠。在知識推理上,AIGC技術(shù)能夠模擬人腦思維方式并持續(xù)優(yōu)化“思維”能力,通過思維鏈(Chain-of-Thought, CoT)完成一系列復雜推理任務[5]。人們只需提供推理的前提和目的,它就能生產(chǎn)單詞與單詞之間邏輯一致的文本內(nèi)容,高度還原客觀知識本身。在知識表達上,AIGC技術(shù)能夠基于推理過程連貫地表達學術(shù)觀點,通過解讀人類模塊化撰稿的各種特征,模仿不同科研人員內(nèi)容創(chuàng)作的句子結(jié)構(gòu)、表達習慣等進行續(xù)寫,或根據(jù)不同期刊風格對論文進行改寫和潤色。
學術(shù)出版是由科研人員、編輯甚至智能機器共同參與的知識生產(chǎn)與傳播活動,必然依賴“信任”驅(qū)動。當代社會系統(tǒng)理論的創(chuàng)始人Luhmann認為,信任是社會復雜性的簡化機制[6]30,人們在面臨復雜社會中各種行為后果的不確定性時,通過信任或不信任來簡化行為選擇過程,“信任”意味著人們能夠意識到并接受不確定性帶來的風險。而AIGC介入學術(shù)知識生產(chǎn)帶來新的不確定性因素致使學術(shù)共同體信任風險增長或轉(zhuǎn)向,干擾現(xiàn)有信任機制作用效度,因而人們通常選擇持有“懷疑”或“不信任”的態(tài)度以規(guī)避風險。事實上,人們對一系列人工智能技術(shù)影響的認知并不樂觀,世界頂級公關(guān)公司Edelman發(fā)布的2020年信任度調(diào)查報告顯示,全球受訪者中僅44%認為人工智能的影響是積極的[7]。由于“信任”是風險性與收益性的統(tǒng)一體,學術(shù)共同體在放棄“信任”的同時也將失去諸多收益與機會,甚至導致行業(yè)因無法進行改造和升級而面臨發(fā)展困境[8]。鑒于此,學術(shù)出版界有必要審視因AIGC技術(shù)介入學術(shù)知識生產(chǎn)活動而產(chǎn)生的信任危機以明確信任機制重塑的方向。
AIGC具備算據(jù)、算法和算力三要素,它在算力上的突破無可厚非,但算據(jù)和算法上的局限性致使學術(shù)共同體對其結(jié)果的可靠性產(chǎn)生懷疑。
(1)由算據(jù)和算法引發(fā)的結(jié)果準確性、科學性和倫理性風險
AIGC訓練數(shù)據(jù)的真實性與全面性直接決定內(nèi)容生產(chǎn)結(jié)果的準確性,缺乏準確度的內(nèi)容不足以成為“知識”。當大量未經(jīng)審核的數(shù)據(jù)被“投喂”給AIGC算法,或其并未針對某一領(lǐng)域的數(shù)據(jù)進行訓練時,它極有可能針對該領(lǐng)域的問題捏造出看似完整卻無可信信源的回答。例如,現(xiàn)階段ChatGPT的訓練數(shù)據(jù)截至2021年,它暫不能為關(guān)于2022年及之后的問題提供精準答案。另一方面,AIGC的深度學習算法能夠自動確定系統(tǒng)參數(shù)并實現(xiàn)動態(tài)運行,其內(nèi)部運作流程是一個不可理解的“黑箱”[9],人類暫無法窺探、干預和驗證內(nèi)容生產(chǎn)過程,結(jié)果的科學性實難令學術(shù)共同體信服。
AIGC算據(jù)與算法的“人工物”屬性,表明它將不可避免地繼承人類有意或無意灌輸?shù)膬r值理念,進而可能形成對某群體或個人的算法偏見或算法歧視,其內(nèi)容生產(chǎn)結(jié)果的客觀性難以獲得學術(shù)共同體認同。這些偏見一部分來源于算法設計者在模型開發(fā)階段注入的主觀意識和權(quán)力關(guān)系,另一部分來自涵蓋落后社會觀念、病毒性歧視[10]或范疇化的輸入數(shù)據(jù)、學習數(shù)據(jù)和交互數(shù)據(jù)。
(2)人工智能的知識創(chuàng)造與創(chuàng)新能力存疑
相較于新聞、小說、視頻腳本等,學術(shù)出版對內(nèi)容創(chuàng)新性有更嚴格的要求。人類知識生產(chǎn)活動正是知識創(chuàng)新的過程,英國社會學家Gibbons提出人類知識生產(chǎn)的兩種模式:一種是進行高度抽象化學術(shù)探討的“洪堡模式”,另一種是致力于解決社會現(xiàn)實問題的“后洪堡模式”[11]。二者都是基于對先驗知識的理解并通過思考、直覺、聯(lián)想、頓悟等多種邏輯和非邏輯方式進行的批判性創(chuàng)新,其發(fā)展方向受社會價值觀指引,后者甚至強調(diào)知識要為實踐服務以實現(xiàn)其價值。然而,AIGC內(nèi)容生產(chǎn)是基于知識庫和邏輯規(guī)則進行的“知識計算”,它難以參透知識深層次的因果性關(guān)系,缺乏扎根于實踐環(huán)境對知識的多維理解,且極有可能脫離道德約束,生產(chǎn)結(jié)果的創(chuàng)新性、向善性與可應用性尚不可知[12-13]。
(1)人機“準社會交往”關(guān)系中科研人員理性的流失
AIGC技術(shù)憑借類人化特性在學術(shù)知識生產(chǎn)中被視為超越單純工具屬性的“合作者”,科研人員極可能對其產(chǎn)生依戀并形成基于想象的人際關(guān)系,這在心理學界被稱為“準社會交往”(Para-social Interaction,PSI)[14]。這種關(guān)系一定程度上抑制科研人員理性的發(fā)揮,來自人和機器的“盲目意志與行為”具有可乘之機。一是科研人員可能過度依賴AIGC進行論文寫作甚至邏輯分析,學術(shù)共同體不易從雜糅的內(nèi)容中清楚地分辨各部分內(nèi)容的真正創(chuàng)作者,從而對科研人員實際貢獻度產(chǎn)生懷疑。二是由于AIGC暫不受倫理道德的約束,獨立思考能力日益弱化的科研人員容易在不自知的情況下被誘導從事惡性行為。
(2)責任界限模糊致使各主體行為缺乏有效約束
傳統(tǒng)學術(shù)出版活動中,科研人員作為單一的知識生產(chǎn)主體,是科研活動的主要貢獻者和責任承擔者。然而,對于即將出現(xiàn)的“合作”局面,目前并沒有明晰的歸責方案。AIGC技術(shù)雖有近乎人類智能的內(nèi)容生產(chǎn)本領(lǐng),卻沒有物理實體屬性,且不具備獨立辨識和自控的能力,目前還未被認定為“作者”,更不能對自身行為負責。AIGC內(nèi)容生產(chǎn)行為的實施是其研發(fā)者、使用者等多主體共同作用的結(jié)果,任意一方都不愿承擔全部責任甚至可能相互推卸責任。若科研人員能夠無限制地使用AIGC技術(shù),又不用為行為后果負責,他們很可能縱容其幫助自己開展投機利己活動,嚴重危害學術(shù)出版的穩(wěn)定健康發(fā)展。
傳統(tǒng)學術(shù)交流局限于以會晤、信件等方式在“熟人”小團體內(nèi)進行,學術(shù)共同體基于內(nèi)部特定聯(lián)系建立點對點信任。隨著印刷媒介等因素推動學術(shù)出版規(guī)模擴張,學術(shù)交流拓展至“陌生人”群體,“差序格局”致使僅憑內(nèi)部關(guān)系建立的信任難以為繼,轉(zhuǎn)而借助以制度為基礎(chǔ)的外部關(guān)系鞏固信任。制度信任是當前學術(shù)出版信任的支柱,但制度的先天缺陷與后天實施偏差使其原本就存在信任危機,并隨AIGC介入而愈發(fā)尖銳。
(1)AIGC加劇學術(shù)出版中心化制度的權(quán)威消解
學術(shù)出版制度信任集中體現(xiàn)于同行評議這一“學術(shù)守門”制度,它在科研人員、編輯與評審專家之間建立信任,使其相信通過評議的學術(shù)成果是嚴謹且有意義的[15],但該制度的靈活性與專業(yè)性現(xiàn)已受到挑戰(zhàn)。得益于AIGC,研究者不僅有精力創(chuàng)造更多具備時效性和突破性的成果,還得以在學科交叉和細分的非傳統(tǒng)領(lǐng)域深化創(chuàng)新。然而,同行評議更青睞保守研究,這在一定程度上遏制AIGC使用者對科研突破的追求[16];同時,精準識別能勝任創(chuàng)新領(lǐng)域?qū)徃迦蝿盏摹靶⊥小备永щy,評議實施主客體的適配性低將引發(fā)學術(shù)共同體對結(jié)果權(quán)威性的質(zhì)疑。
(2)AIGC放大封閉性制度下的學術(shù)出版公平隱患
現(xiàn)行同行評議主要采用單一線性審稿模式,科研人員、編輯、評審專家等多方因信息不對稱而不具備平衡的出版話語權(quán),該弊端隨AIGC介入而愈加凸顯。科研人員利用AIGC開展研究,無形中加大評審專家對數(shù)據(jù)處理和操作細節(jié)的理解與評判難度,且評審過程并不透明,科研人員因不能知悉和監(jiān)督評議過程而處于被動地位,評審偏差、主觀偏見、權(quán)力尋租等現(xiàn)象極可能肆意滋長。由于制度信任結(jié)構(gòu)要求學術(shù)共同體讓渡部分自由和權(quán)力,當中心化制度的干涉程度高并且無法針對AIGC介入行為有效發(fā)揮信任保障職能時,就會造成學術(shù)共同體制度信任的缺失。
AIGC正在革新學術(shù)知識生產(chǎn)活動,根植于前知識生產(chǎn)范式的學術(shù)出版信任面臨重重危機,學術(shù)出版界呼喚新的信任機制登場。新的學術(shù)出版信任應以何為置信基礎(chǔ)?本文基于“摩爾定律”和張權(quán)的觀點認為,技術(shù)的更新迭代在一定程度上實現(xiàn)對困境的自我突破,以技術(shù)進步為基礎(chǔ)置予信任成為新技術(shù)背景下學術(shù)出版信任機制重構(gòu)的突破口[17]。再者,技術(shù)發(fā)展與其所處的社會系統(tǒng)緊密相連,并且實質(zhì)上反映“人”的思維和行動,技術(shù)自身并不能消弭由其引發(fā)的所有不確定性,學術(shù)出版界必然要從社會系統(tǒng)與人類的本質(zhì)屬性出發(fā)實現(xiàn)對風險的防控。因此,本文將建構(gòu)技術(shù)信任、制度信任與人際信任三維協(xié)同的學術(shù)出版信任機制體系。
Davis提出的技術(shù)接受模型(Technology Acceptance Model, TAM)將感知有用性和感知易用性視為用戶接受新技術(shù)的決定性因素[18],適用于分析互聯(lián)網(wǎng)技術(shù)的用戶接受程度。與之不同,人工智能技術(shù)愈發(fā)智能化、自動化與個性化,一定程度上消解傳統(tǒng)互聯(lián)網(wǎng)技術(shù)面臨的易用性問題[19],但也致使新的不確定性產(chǎn)生,最為典型的是由機器能動性增強引發(fā)的一系列倫理問題?;诖?,Choung等[20]提出人工智能信任的兩個關(guān)鍵維度:功能性信任和類人性信任。AIGC介入下的學術(shù)出版技術(shù)信任同樣包含這雙重維度。
具體來看,功能性信任是指AIGC技術(shù)在學術(shù)出版領(lǐng)域的可用性、幫助性、可靠性與可知性等。可用性指技術(shù)能夠切實提升知識生產(chǎn)效率;幫助性則指的是算法做出的決策符合科研人員的真正需求,技術(shù)的幫助性會直接影響學術(shù)共同體對算法可用性的感知,使技術(shù)介入的知識成果與學術(shù)共同體期望一致;可靠性是指技術(shù)產(chǎn)品安全且穩(wěn)定,能夠在一段時間內(nèi)無故障地運行;可知性是指算法能向用戶解釋決策過程和結(jié)果客觀性的程度,即這個結(jié)果是為何及如何被算法提供的[21],由此提升學術(shù)共同體對技術(shù)的熟悉程度,并增強其對自動化的人工智能技術(shù)的可控性。類人性信任則是指AIGC算法應被賦予社會道德與學術(shù)倫理等相關(guān)特性,如隱私保護、學術(shù)誠信與避免偏見等。
面臨AIGC帶來的產(chǎn)業(yè)變革,學術(shù)出版環(huán)境在一段時間內(nèi)表現(xiàn)出的不穩(wěn)定性使學術(shù)共同體對自身的認同連續(xù)性及所處環(huán)境的恒常性喪失信心,強烈的不安全感使其對智能技術(shù)產(chǎn)生排斥反應。技術(shù)引發(fā)的所有不確定性并不能被技術(shù)及其有關(guān)的“人”完美化解,必須依靠“其他不依賴于人格因素的建立信任的方式”[6]61。規(guī)范化與模式化的外在性制度使各方行為具有更大的可預測性,強化學術(shù)共同體的“本體安全感”,保障技術(shù)信任的有效實施。
Zucker將制度信任劃分為第三方認證和由第三者保存附帶條件委付蓋印的契約兩種形式,第一種形式用許可證、執(zhí)照、規(guī)范性文件等方式來認定可信任行為,第二種形式通常在商業(yè)活動中為交易雙方提供獲得預期結(jié)果的保證[22]?;诖?,McKnight等提出制度信任的結(jié)構(gòu)保證和情境規(guī)范兩個維度,前者涵蓋由Zucker提出的兩種制度信任形式,后者則是通過慣例、習慣、規(guī)則等方式有效防范風險[23]。隨后,Pavlou等提出促進條件維度,即關(guān)于過程和結(jié)果的共同標準、價值追求等內(nèi)在規(guī)范性機制[22]。在學術(shù)出版領(lǐng)域,制度信任同樣包含結(jié)構(gòu)保證、情境規(guī)范和促進條件三個維度,表現(xiàn)為同行評議、出版合同、學術(shù)誠信規(guī)范等具體形式。同時,治理型技術(shù)的嵌入將最大限度克服制度信任存在的弊端,例如將區(qū)塊鏈技術(shù)應用于同行評議,削弱非技術(shù)信任對人類主觀意志的高度依賴,以客觀信任系統(tǒng)規(guī)制各主體行為[24]。由此,學術(shù)共同體逐步提升“本體性安全感”,進而接納AIGC更廣泛地參與到學術(shù)出版活動中。
包括AIGC在內(nèi)的一切技術(shù)都是人類為增強自身環(huán)境適應能力而創(chuàng)造的工具,不可避免地反映著人類特有的意識形態(tài)。換言之,技術(shù)承載著“那些設計、接收和維持技術(shù)的人的價值觀與世界觀、聰明與愚蠢、傾向與既得利益”[25]。因此,AIGC技術(shù)信任從根本上來看是人對人的信任,是對AIGC技術(shù)設計者、開發(fā)者、運營者、使用者、監(jiān)督者、管理者甚至潛在破壞者的信賴[26]。制度信任本質(zhì)上是硬性的“他律”,其根本目的是將外在約束內(nèi)化為人類的“自律”意識,使技術(shù)信任、制度信任回歸人際信任。
學術(shù)出版領(lǐng)域內(nèi)科研人員、編輯、審稿專家等業(yè)務主體之間的人際信任由認知型信任和情感型信任構(gòu)成,其間信任的形成有賴于各方在交互過程中捕獲的特征信息,包括專業(yè)學識、科研能力、個體特征等。以AIGC為代表的一系列新興技術(shù)正在構(gòu)造一個學術(shù)共同體廣泛關(guān)聯(lián)與高頻互動的線上虛擬空間,逐步瓦解傳統(tǒng)信息流通過程中存在的時空局限與制度壁壘,個體之間得以實現(xiàn)更加流暢且透明的交流與互動。在技術(shù)信任與制度信任融合形成保障機制的基礎(chǔ)上,學術(shù)共同體成員對AIGC技術(shù)及有關(guān)主體的認知從封閉走向開放,社會資本隨之不斷累積,“陌生人”之間產(chǎn)生更加主動且積極的信任態(tài)度與合作意識[24]。
基于外部性視角,AIGC技術(shù)本身及其有關(guān)主體行為的不確定性具有不同程度的負外部性,威脅學術(shù)共同體內(nèi)其他主體的安全、穩(wěn)定與健康發(fā)展。重構(gòu)學術(shù)出版信任機制應最大程度降低學術(shù)共同體面臨的負外部性風險。降低負外部性的有效途徑是讓外部性內(nèi)部化,即通過制度安排使各主體行為產(chǎn)生的社會收益或社會成本內(nèi)化為私人收益或私人成本,例如經(jīng)濟學家Coase提出“產(chǎn)權(quán)理論”,有效解決經(jīng)濟主體活動的外部不經(jīng)濟問題。學術(shù)出版領(lǐng)域可以通過類似于產(chǎn)權(quán)制度的“責任”安排形式將AIGC介入行為的外部性風險內(nèi)部化,進而降低學術(shù)共同體面臨的不確定性以重塑行業(yè)信任。在實踐層面,歐盟政策委員會“地平線2020框架計劃”提出“責任式創(chuàng)新”(Responsible Innovation, RI),其實質(zhì)是在技術(shù)創(chuàng)新與社會建構(gòu)過程中進行風險預測、過程評估與動態(tài)響應,融入責任要素以實現(xiàn)技術(shù)發(fā)展前后的風險分散,降低技術(shù)的潛在負外部性[27]。該范式為建立AIGC技術(shù)介入下的學術(shù)出版信任機制提供有效指引。
學術(shù)出版信任機制需要多元主體協(xié)同構(gòu)建。微觀上,作為技術(shù)使用者的科研人員是AIGC嵌入知識生產(chǎn)過程的責任主體,但并不代表全部責任應該由科研人員單一主體承擔,該過程的利益相關(guān)者均需為此行為負責。宏觀上,學術(shù)出版信任機制本質(zhì)上是學術(shù)出版不同環(huán)節(jié)主體價值支點的總和,學術(shù)共同體信任重塑是一項貫穿于知識生產(chǎn)與傳播活動的系統(tǒng)工程,單純依靠科研人員的努力無法建構(gòu)全局性的信任格局?;诖耍疚奶岢鲆浴柏熑捂湣狈妒綄崿F(xiàn)學術(shù)出版信任機制構(gòu)建主體的關(guān)聯(lián)與協(xié)同(見圖1),其中包括AIGC技術(shù)研發(fā)者、科研人員、出版機構(gòu)、內(nèi)容聚合商、圖書館等。此外,各責任主體都是社會系統(tǒng)的重要組成部分,其間協(xié)調(diào)互動離不開立法機構(gòu)、執(zhí)法機構(gòu)、司法機構(gòu)、行業(yè)協(xié)會等治理性機構(gòu)在秩序系統(tǒng)與規(guī)則體系層面發(fā)揮作用。
圖1 學術(shù)出版信任機制構(gòu)建的理論維度與實踐維度Fig.1 The Theoretical and Practical Dimensions of Constructing Trust Mechanism in Academic Publishing
(1)責任鏈上游:AIGC技術(shù)的研發(fā)、創(chuàng)新與維護
AIGC嵌入知識生產(chǎn)將學術(shù)出版責任鏈上游由科研人員的知識生產(chǎn)環(huán)節(jié)延伸至技術(shù)研發(fā)者的技術(shù)開發(fā)階段。AIGC開展知識生產(chǎn)活動有賴于充分的語料支持,不斷提升用于訓練的語料規(guī)模和質(zhì)量是算法模型優(yōu)化的基礎(chǔ)。學術(shù)出版機構(gòu)等文獻情報機構(gòu)長期扮演知識資源集成者角色,積累海量經(jīng)過嚴格審核的論文、專著、會議、專利、標準等高質(zhì)量人類知識[28],并且已實現(xiàn)大量內(nèi)容的數(shù)字化與結(jié)構(gòu)化轉(zhuǎn)型。技術(shù)研發(fā)者應與文獻情報機構(gòu)合作開展數(shù)據(jù)的規(guī)范性檢驗與算法訓練,由此推出針對學術(shù)知識生產(chǎn)的專業(yè)版技術(shù)產(chǎn)品。AlphaFold算法基于美國Brookhaven國家實驗室創(chuàng)建的蛋白質(zhì)數(shù)據(jù)庫(Protein Data Bank, PDB),實現(xiàn)在蛋白質(zhì)結(jié)構(gòu)預測中的巨大突破,是技術(shù)研發(fā)者利用文獻情報資源的成功案例。
在確保技術(shù)產(chǎn)品從事知識生產(chǎn)的可用性與幫助性的基礎(chǔ)上,技術(shù)研發(fā)者要協(xié)助學術(shù)共同體理解算法:機器在想什么,為什么這樣想。直接公開算法源代碼和參數(shù)的做法雖然實現(xiàn)算法透明化,但難以有效支持用戶理解極其復雜的算法決策過程。使用可解釋性AI(Explainable Artificial Intelligence, XAI)是向用戶解釋算法輸出結(jié)果與過程合理性的有效途徑[29]。在實踐中,美國國防高級研究計劃局(Defense Advanced Research Projects Agency, DARPA)于2016年啟動XAI五年計劃,致力于研發(fā)更完善的可解釋算法模型,借助用戶界面(UI)等人機交互技術(shù)為用戶提供更加完備的算法解釋方案。
為防止AIGC技術(shù)對學術(shù)共同體造成傷害,技術(shù)研發(fā)者首先要從算法開發(fā)源頭杜絕偏見、歧視和侵權(quán)行為。在數(shù)據(jù)方面,采取重采樣等技術(shù)手段消除數(shù)據(jù)偏見并盡可能稀釋算法模型誤用風險,切實保護用戶隱私和信息安全,及時配置完整的隱私政策和用戶協(xié)議;在技術(shù)方面,組織一批來自多領(lǐng)域、具備高素質(zhì)與正確道德觀的研發(fā)團隊,并將零信任計算技術(shù)融入技術(shù)產(chǎn)品,實現(xiàn)數(shù)據(jù)計算全流程可追溯、可查詢,從而避免主觀因素干擾和人為操縱等造成的不公正現(xiàn)象。其次,通過人機回圈技術(shù)等手段保障學術(shù)共同體的最優(yōu)決策權(quán),即當算法遇到道德倫理等無法獲得最優(yōu)解的問題時,向科研人員尋求幫助以優(yōu)化計算過程[30]??蒲腥藛T并不是總能做出最公正的決定,技術(shù)研發(fā)者要在保護隱私的基礎(chǔ)上認證用戶身份,實時監(jiān)測用戶行為,確保算法使用行為可追責。最后,AIGC數(shù)據(jù)風險重在用戶個人信息相關(guān)的通信內(nèi)容泄露以及模型數(shù)據(jù)庫的反向溯源,技術(shù)研發(fā)者應自覺承擔軟硬件安全維護義務,有針對性地制定安全風險防范與應對措施以抵御惡意軟件、黑客等侵害。
技術(shù)研發(fā)者還應采取合理的干預措施來防止下游對AIGC技術(shù)的濫用,一種普遍的形式是使用數(shù)字水印。該工具使用密碼學方法,將統(tǒng)計模式、代碼嵌入單詞甚至標點符號的揀選過程,服務于內(nèi)容來源的識別與證明[31]。目前,OpenAI已公開水印工具研發(fā)計劃并且取得初步成功,未來將實現(xiàn)人類讀者無法辨別卻能經(jīng)過系統(tǒng)檢測的理想“水印”,基于服務器端的水印技術(shù)的推廣還有賴于各大文本生成系統(tǒng)提供商通力合作。不可否認,完全杜絕AIGC技術(shù)濫用仍需借助其他措施。例如,2021年成立的內(nèi)容來源和真實性聯(lián)盟(Coalition for Content Provenance and Authenticity,C2PA)為常見的資產(chǎn)類型(包括圖像、視頻、音頻和文檔)和格式制定統(tǒng)一的內(nèi)容來源規(guī)范,出版機構(gòu)、創(chuàng)作者和消費者等群體能夠基于內(nèi)容系統(tǒng)跟蹤在線內(nèi)容的起源和演變,由此進行內(nèi)容的可信度驗證[32]。
(2)責任鏈中游:學術(shù)知識生產(chǎn)活動中AIGC技術(shù)的使用
科研人員在與AIGC技術(shù)交互的過程中引導其參與學術(shù)創(chuàng)作,直接影響知識產(chǎn)品質(zhì)量與算法自主學習過程,理應成為責任鏈一員。學術(shù)出版界通常依靠傳統(tǒng)慣例和榮譽制度等規(guī)范科研人員行為,而如今知識生產(chǎn)活動中人工智能技術(shù)的不合理使用也將被納入科研失范范疇,科研人員使用AIGC技術(shù)的義務與責任邊界應得到明確界定,以維護學術(shù)界的公信力。
科研人員的義務和責任不限于:在技術(shù)使用之前,充分評估技術(shù)與研究場景的適配性;在使用過程中,核實算據(jù)是否合乎道德和法律、清晰且可追溯,杜絕任何抄襲、造假等不端行為,以高度警惕心和判斷力深入分析、解釋和驗證計算結(jié)果,并按照規(guī)范的格式在公開發(fā)表的成果中準確標明參考文獻,充分披露使用的技術(shù)及其細節(jié),包括可能存在的不足和偏差。科研機構(gòu)作為科研人員行為查處的“第一責任主體”,應當對其進行教育、監(jiān)督和違規(guī)懲處。如今,科學發(fā)展已進入以社會發(fā)展為價值導向的“后學院時代”,默頓范式下以求知為旨歸的科學探索模式式微,“利益驅(qū)動”逐漸成為科研人員開展知識生產(chǎn)的重要動力之一,配套的內(nèi)外部監(jiān)督與治理機制成為學術(shù)共同體信任的必要手段。
(3)責任鏈下游:AIGC技術(shù)介入的學術(shù)知識生產(chǎn)成果的審核與傳播
學術(shù)出版機構(gòu)自成立之日起就被賦予知識生產(chǎn)與傳播活動中的“把關(guān)”責任,學術(shù)共同體傾向于對經(jīng)由學術(shù)出版機構(gòu)審查的知識成果給予高度信任。然而,當前許多學術(shù)出版機構(gòu)對人工智能技術(shù)參與知識生產(chǎn)持消極態(tài)度,例如國際權(quán)威期刊《科學》(Science)明確規(guī)定由ChatGPT(或其他人工智能工具)生成的文本、數(shù)字、圖像或圖形等不能在作品中使用。事實上,AIGC等人工智能技術(shù)應用于知識生產(chǎn)并非“百害而無一利”,單純的“禁止使用”并不是學術(shù)界應對技術(shù)變革的長遠之策,學術(shù)出版機構(gòu)理應創(chuàng)新審核機制和傳播方式以推進人機共生進程。
首先是審核環(huán)節(jié)由“事后審核”拓展為“事前審核+事后審核”。學術(shù)出版機構(gòu)以往是在知識生產(chǎn)后開展對成果的評審,取得質(zhì)量認證的知識產(chǎn)品成為后續(xù)研究的知識基礎(chǔ),因而傳統(tǒng)學術(shù)知識生產(chǎn)實質(zhì)上是在學術(shù)出版機構(gòu)對流通性知識質(zhì)量嚴格把控的基礎(chǔ)上開展的。同樣地,學術(shù)出版機構(gòu)可以參與技術(shù)建構(gòu)過程以打造更加完備的技術(shù)與數(shù)據(jù)基礎(chǔ)。如此,學術(shù)出版機構(gòu)能夠協(xié)助技術(shù)的場景化改造以提升其知識生產(chǎn)專業(yè)度,并在互動過程中消除原本因技術(shù)工具超出干預范圍而產(chǎn)生的恐懼和懷疑。其次,審核方式的技術(shù)化與協(xié)同化升級,尤其體現(xiàn)于“事后審核”階段。學術(shù)出版機構(gòu)有必要及時對接針對AIGC內(nèi)容生產(chǎn)的甄別性技術(shù),例如谷歌開發(fā)的用于檢測并標記偽造或經(jīng)篡改的數(shù)字內(nèi)容的工具“Reality Defender”[33],使知識產(chǎn)品的“人類創(chuàng)作性檢測”如同“重復率檢測”一樣普遍和精準。當然,技術(shù)暫時無法與人類的情感和價值判斷能力匹敵,人類在審核過程中的決定性地位必須得到強化,未來的審核方式極可能朝“技術(shù)初審+專家復審+主編終審”的復合型審核演變。同時,出版機構(gòu)有必要運用區(qū)塊鏈技術(shù)將永久公開且不可篡改的審核記錄添加至評審專家和編輯的個人信息身份池,以便對審核工作進行肯定和監(jiān)督。此外,審核內(nèi)容應由最終的文字成果溯源至實驗階段的原始數(shù)據(jù)或材料,借助智能工具對實驗過程進行復現(xiàn)檢查[34],從而確保科研人員對知識生產(chǎn)過程的高度掌控。
學術(shù)出版機構(gòu)應積極發(fā)揮在學術(shù)共同體信任中的橋梁作用。與作者交互時,出版機構(gòu)應對各種情況進行合理注意與必要提醒,在出版合同中尤其強調(diào)作者使用AIGC等智能技術(shù)應盡的責任和義務,比如參考文獻核實義務、數(shù)據(jù)可重復性檢測義務,并采取質(zhì)詢、警告、“拉黑”等策略處理不端行為。與讀者交互時,出版機構(gòu)應聯(lián)合內(nèi)容聚合商、圖書館等下游機構(gòu),通過單獨的數(shù)據(jù)集合理公開知識生產(chǎn)的必要性數(shù)據(jù),允許讀者監(jiān)督和反饋,并對人工智能參與的知識產(chǎn)品進行特別標注,保證讀者對其中技術(shù)參與程度與具體工作的知曉權(quán),幫助讀者做出是否信任該成果的獨立判斷。
(4)責任鏈治理:法律、政策和行業(yè)規(guī)范的規(guī)制
源自學術(shù)共同體內(nèi)外部環(huán)境的一系列治理機制同樣重要,其目的是通過責難和懲罰等手段督促知識生產(chǎn)中的智能技術(shù)使用行為更具可信性。
第一,制定《人工智能法》以確保責任治理有法可依,厘清智能技術(shù)有關(guān)行為主體的權(quán)利與責任,以此建立精準問責機制與風險防控機制。人工智能技術(shù)產(chǎn)品應憑借其智能化程度而具備不同類型的法律身份,以ChatGPT為代表的AIGC技術(shù)產(chǎn)品能夠進行一定程度的邏輯推理與意思表示,在硬件設備支持下對人類生活造成實際影響,但它無法為自身行為承擔責任,因而確立其法律地位時,既需要打破“人”與“物”二元對立,又不能將其置于與自然人或法人同等的地位,而應界定為一種特殊的、有限的法律人格。財產(chǎn)是責任承擔的基礎(chǔ),AIGC技術(shù)產(chǎn)品應當在設計者與開發(fā)者的幫助下?lián)碛歇毩⒌你y行賬戶和保險基金賬戶,獲取一定比例的內(nèi)容生產(chǎn)收益,當技術(shù)本身不穩(wěn)定引發(fā)侵權(quán)行為需要賠償時,優(yōu)先使用技術(shù)產(chǎn)品自身擁有的財產(chǎn)[35]。借鑒“公司法人人格否認制度”對股東濫用公司法人人格實施不正當行為追究無限責任的規(guī)定,采用“刺破人工智能面紗”原則對AIGC技術(shù)實際控制人的行為予以規(guī)范,即根據(jù)算法模型、訓練素材和輸入內(nèi)容等在侵權(quán)行為中的作用比重劃定各方責任[36]。為應對潛在風險事件,《歐盟機器人民事法律規(guī)則》中推行的類似于機動車風險轉(zhuǎn)移的人工智能強制責任保險制度和賠償基金制度應得到進一步規(guī)范和推廣[37],即要求AIGC技術(shù)產(chǎn)品在投入使用之前必須投保責任險,當保險人不具有賠償能力時,由賠償基金承擔此任,以有效保障風險事件受害者的合法權(quán)益。
第二,從執(zhí)法層面實行對學術(shù)出版領(lǐng)域AIGC技術(shù)有關(guān)主體的監(jiān)懲聯(lián)動機制。由工業(yè)和信息化部、國家發(fā)展和改革委員會、國家新聞出版署等部門牽頭統(tǒng)一人工智能行業(yè)標準,以登記備案方式賦予AIGC技術(shù)產(chǎn)品唯一編號,綁定設計者與開發(fā)者等關(guān)鍵信息,從而呼應其特殊法律主體身份。同時,設立人工智能系統(tǒng)執(zhí)法與監(jiān)管機構(gòu),聯(lián)合國家新聞出版署對AIGC知識生產(chǎn)活動進行監(jiān)督。在不侵犯學術(shù)自由邊界的前提下,合理運用罰款、暫停發(fā)表資格、限制學術(shù)活動等措施對不當行為實施主體進行警示。以數(shù)據(jù)安全領(lǐng)域為例,歐盟發(fā)布《通用數(shù)據(jù)保護法案》,并設立專門的數(shù)據(jù)保護機構(gòu)作為監(jiān)管機構(gòu),對OpenAI等企業(yè)具有天價處罰權(quán)以督促其滿足數(shù)據(jù)合規(guī)要求[38],我國2023年組建的國家數(shù)據(jù)局也應發(fā)力推動數(shù)據(jù)的合規(guī)性、開放性和可利用性建設,協(xié)助監(jiān)管機構(gòu)履行職能。
第三,在司法層面完善涉及AIGC技術(shù)及其作品的案件審判機制,其關(guān)鍵在于法官在充分理解糾紛生成邏輯基礎(chǔ)上進行價值衡量并作出公正判決。然而,技術(shù)與法律之間的專業(yè)壁壘致使法官難以準確把握糾紛邏輯,借鑒出版機構(gòu)對學術(shù)作品的審查思路,司法機關(guān)可以在保障自身審判權(quán)的前提下,引入專業(yè)人才與專業(yè)技術(shù)優(yōu)化審判體系與審判能力?!睹袷略V訟法》提出“專家輔助人制度”,即由當事人申請、經(jīng)法院準許,在特定領(lǐng)域有專門知識的人出庭輔助當事人對訴爭案件事實中的專業(yè)問題提出意見[39]。該制度適用于由AIGC介入知識生產(chǎn)引發(fā)的案件處理,但必須提升可操作性。例如,經(jīng)政府機構(gòu)備案,相關(guān)行業(yè)協(xié)會聯(lián)合建立專家輔助人才庫,篩選出精通出版、法律與人工智能技術(shù)知識的專家,承認其以輔助人身份出庭的資格;再如規(guī)范專家證言采信標準以評判專家意見可用性,將意見采納率添加至專家信息庫,以便對專家行為進行監(jiān)督和激勵。司法機關(guān)自身應積極向智能司法轉(zhuǎn)型,利用技術(shù)優(yōu)勢提升案件審理的客觀性、公正性與效率性,確保各種糾紛能夠得到有效解決。
第四,在學術(shù)出版行業(yè)層面成立倫理委員會,完善學術(shù)倫理的自治性規(guī)范機制。2019年我國成立新一代人工智能治理專業(yè)委員會,并于2021年發(fā)布《新一代人工智能倫理規(guī)范》,旨在解決與人工智能發(fā)展相伴而生的諸多倫理問題。如今智能技術(shù)對學術(shù)領(lǐng)域的沖擊程度空前,學術(shù)出版界應在國家新聞出版署帶頭下建設行業(yè)領(lǐng)域的人工智能技術(shù)倫理委員會,加快明確針對AIGC技術(shù)的倫理準則,并推動學術(shù)共同體在頻繁交互中持續(xù)提升親密性和表現(xiàn)的可見性,以同行自治方式推進負責任的智能技術(shù)使用行為。
學術(shù)知識生產(chǎn)信任危機已成為全球性議題。早在2007年,美國和歐洲聯(lián)合舉辦以“科研誠信:培育負責任的科學研究”為主題的世界性會議,旨在建立更加可信的全球性學術(shù)出版環(huán)境。以ChatGPT為代表的AIGC浪潮下,中國應積極拓展與各國的合作伙伴關(guān)系,協(xié)商打造高標準、國際化的法律、政策與行業(yè)規(guī)范,共同解決一些跨國界問題,推進人工智能技術(shù)最大程度增進全人類福祉。
人工智能技術(shù)的價值不會停留于技術(shù)本身的動態(tài)優(yōu)化,其核心在于為特定場景帶來實實在在的改造和升級。本研究基于AIGC技術(shù)與學術(shù)知識生產(chǎn)的耦合性分析,針對AIGC介入知識生產(chǎn)活動引發(fā)的信任危機,從技術(shù)信任、人際信任和制度信任三維度重塑學術(shù)出版信任機制理論模型,圍繞“責任鏈”探索技術(shù)研發(fā)者、科研人員、學術(shù)出版機構(gòu)、行業(yè)協(xié)會、政府等主體參與信任機制構(gòu)建的實踐進路,以期學術(shù)出版業(yè)更加從容地面對智能變革風險,積極推進智能技術(shù)在學術(shù)出版各環(huán)節(jié)的有效應用。
本研究存在如下不足:一是僅著眼于學術(shù)知識生產(chǎn)環(huán)節(jié),對智能技術(shù)介入知識成果發(fā)表、傳播與評價等活動引發(fā)的信任問題關(guān)注不夠;二是缺少對信任機制中各要素關(guān)系的實證分析,各主體實踐路徑的可行性與系統(tǒng)性有待進一步驗證。因此,后續(xù)研究可以重點關(guān)注以下問題:一方面,深入學術(shù)出版各環(huán)節(jié)探究技術(shù)介入導致的信任風險與機制變遷,逐步建立智能時代全局性的學術(shù)出版信任體系。無論人工智能嵌入學術(shù)出版哪個環(huán)節(jié),數(shù)據(jù)安全風險防范都應成為信任建設的首要任務。目前清華大學、騰訊研究院已開展相關(guān)研討,將AIGC數(shù)據(jù)合規(guī)性建設提上日程。聚焦學術(shù)出版,研究者應把握學術(shù)出版數(shù)據(jù)合規(guī)性建構(gòu)的模型框架,基于挑戰(zhàn)與機遇的評估探索各主體參與數(shù)據(jù)合規(guī)建設的有效途徑,尤其關(guān)注文獻情報機構(gòu)應如何開展數(shù)據(jù)管理、檢測和事故處理等具體工作,為學術(shù)出版信任重建保駕護航。另一方面,持續(xù)跟蹤學術(shù)出版信任建設動向,對技術(shù)、制度和人際層面的信任機制實施效果展開量化研究與實證分析,力圖為政產(chǎn)學研各界共同打造全新的學術(shù)出版信任格局探尋更加完備的方案,迎接智能參與學術(shù)出版時代的到來。
作者貢獻說明
王鵬濤:確定選題,設計研究思路,論文修改及定稿;
徐潤婕:完善研究方案,起草論文。