【摘要】我國人工智能治理雖有不少研究,但也遇到不少問題,如何突破?先運用人工智能進行文獻分析厘清了問題,再通過路徑創(chuàng)新和反向研究兩方面,深入探討人工智能治理研究的未來發(fā)展方向,即研究范式的創(chuàng)新。
【關鍵詞】人工智能;治理研究;范式創(chuàng)新
近年來,我國人工智能有了很大的發(fā)展,隨之而來也顯露出不少問題,甚至出現(xiàn)弊端和亂象,因此人工智能的治理日顯重要,相關的研究也應運而生。然而,無論是治理還是研究都存在滯后和不足,因此,有必要深入分析人工智能治理研究存在的主要問題,進而找到解決問題的思路和辦法。
一、研究現(xiàn)狀與問題提出
依托人工智能進行科學研究已逐步成為新趨勢,本研究也嘗試使用AI對這一研究進行文獻綜述。本研究在對國內人工智能治理核心文獻進行AIGC主題分析的基礎上,再對文獻進行分析。為此,本文設計了我國人工智能治理研究熱點主題分析框架(如圖1)。我們選用四種AIGC模型進行研究問題輸入和數(shù)據(jù)輸入,初步提取和分析了我國人工智能治理的研究主題,該過程包括設計AI提示詞、模型選擇、數(shù)據(jù)輸入、主題析出等主要步驟。由于AIGC在處理復雜語義時仍然存在一定的缺陷,僅用AIGC進行主題挖掘和解讀,尚存局限。因此,本研究在其基礎上,構建CiteSpace分析框架,架設從主題選擇到關鍵詞聚類的分析路徑,對核心文獻進行聚類分析。最后,通過對兩者的文獻內容進行分析,凝練、歸納、廓清、薈萃熱點主題的觀點圖景。
本研究依據(jù)圖1分析框架,借助四款人工智能工具,選擇“直接提問”和“數(shù)據(jù)輸入+提問”的輸入策略,讓AIGC分析“我國人工智能治理”的研究主題。主要步驟:第一步,選擇適合的AI提問框架,本文根據(jù)現(xiàn)有的提問框架,設計了較為簡易的“RAE”提問框架,即角色、行動和期望。第二步,將知網導出的文獻數(shù)據(jù)進行轉換格式后,“喂”入大模型;然后,由AI總結分析給定數(shù)據(jù)的研究主題。其中針對同一問題,KIMI和ChatGPT響應時間最快,但質量輸出較好的是文心一言。較為欣喜的是,ChatGPT、訊飛星火和文心一言對外部數(shù)據(jù)的讀取和識別較好,生成了與直接問題基本一致的主題,且ChatGPT在讀取和響應方面效率最高,而KIMI因字數(shù)限制只讀取了28%的內容。各平臺研究主題結果詳見表1。
我們發(fā)現(xiàn)人工智能治理研究熱點主要集中在六個方面:數(shù)智治理、國家治理、社會治理、法律治理、倫理治理和治理模式(詳見表2),這些研究為我國人工智能治理的進一步研究提供了一定的借鑒價值。但已有研究皆以理論研究、框架構建、路徑分析等為主,缺乏有效的實證研究與評價工具,且學科領域較為單一,以文科類為主,而理工科研究卻較少涉及人工智能治理。其實,這也是傳統(tǒng)文科研究的通病,通過跨學科研究的協(xié)同創(chuàng)新會對此有所改進。另一個制約研究的障礙恐怕在路徑依賴、研究方法等方面,甚至我們對現(xiàn)有的研究范式是否適配人工智能治理研究的發(fā)展存疑。
二、擺脫路徑依賴,實現(xiàn)治理創(chuàng)新
人工智能技術發(fā)展很快,其應用中出現(xiàn)的問題并不是一下子能顯露出來,致使相對應的治理便顯得滯后了。但人工智能治理不能采用“先發(fā)展后治理”的模式,這樣會后患無窮,學者們紛紛提出治理的新思路和新原則,“推進生成式人工智能治理安全與發(fā)展的平衡。生成式人工智能發(fā)展的治理取向,應在發(fā)展中保護、在保護中發(fā)展,在堅守技術安全秩序的同時調動市場活力。一方面,應聯(lián)合科技企業(yè)、高校和專家學者對生成式人工智能進行系統(tǒng)性研究和監(jiān)管,制定公共政策分類保護數(shù)據(jù),確保技術創(chuàng)新在獲取數(shù)據(jù)的同時不侵犯個人權利或損害國家安全。另一方面,應構建社會多主體參與的分級治理框架?!盵1]“基于敏捷治理的全面性、適應性與靈活性,我國生成式人工智能治理應秉持包容審慎的監(jiān)管理念,依據(jù)模型產業(yè)架構,形成‘基礎模型—專業(yè)模型—服務應用’的全面性治理格局;劃分已知與未知風險,構建事前預防與事后應對相結合的適應性治理機制;綜合運用技術、法律等靈活性治理工具,實現(xiàn)生成式人工智能治理范式革新,促進科技向上向善發(fā)展?!盵2]還有專家采用后視鏡、社會實驗等方法對人工智能治理提出種種解決方案。
有學者基于人工智能的內容生態(tài)提出治理建設和倫理框架?!盎谌斯ぶ悄苌蓛热莸纳鷳B(tài)構成,經過對數(shù)據(jù)來源、算法嵌入、平臺集成、用戶反饋四個維度風險派生路徑的分析,發(fā)現(xiàn)存在著披露未許可、虛假、偏見放大、偏差隱藏、被惡意使用、不道德取利、理性致癮、小概率驚恐八類風險;進一步對AI嵌入內容生成的產生原理及作用機理進行解構與深化,提取出風險治理的隱私保護、說明責任、公平無歧視性、透明可解釋性、防第三方侵害、政府責任、人類控制、增進人類價值八項原則;并推演出了開展AI數(shù)據(jù)的鏡像審查治理、促進算法和內容的同步治理、推動生成內容的對象治理轉向智能平臺的生態(tài)治理、實施內容生成和渠道推廣的風險共擔治理四方面的建議,建構起人工智能生成內容的系統(tǒng)倫理框架?!盵3]問題是這些框架和建議能否落地,成效如何?還需要實踐檢驗。
近年來,荷蘭技術哲學界涌現(xiàn)出了一種預判性技術倫理思潮,將目光聚焦于技術生命發(fā)展過程的早期階段,強調將倫理治理前置,在新技術誕生前的基礎知識積累和技術研發(fā)階段就通過了解技術的內在機制和工作原理,前瞻性地識別和闡釋該技術應用后可能產生的倫理問題,從而及時調整技術設計或采取其他應對措施。[4]預判性技術倫理突破了傳統(tǒng)上將機器和技術視為無倫理屬性工具的觀點,認為機器和技術不僅是我們實現(xiàn)目的的手段,而且是能夠影響社會關系和倫理關系的重要行動者。[5]也就是說,把算法、大語言模型、生成式AIGC等機器和技術作為治理的主體。
借鑒預判性技術倫理思想,我國學者對AIGC的倫理問題提出相應的治理策略,即“從‘組建多元化技術評估團隊’‘結合國情確定倫理分析框架’‘研發(fā)期設定價值觀與反饋機制’‘厘清責任主體與協(xié)同治理’這四個維度,提出了治理AIGC內生性和外源性倫理風險的一些可操作性建議和方法”[6]。
由此可見,針對我國人工智能治理在治理建設、治理范式、治理主體以及治理策略上都形成一定的路徑依賴,治理研究要通過路徑創(chuàng)新來實現(xiàn)理論突破和治理創(chuàng)新。過去,我們的治理策略從“先發(fā)展后治理”轉向“邊發(fā)展邊治理”,現(xiàn)在我們還要進行預判性的技術治理,力求做到邊發(fā)展邊預研邊治理,在人工智能倫理治理上先走一步,即不謀全局,不足以謀一域;不謀一世,不足以謀一時。
傳統(tǒng)的社會治理和研究范式是建立在人類中心主義之上的,即“以人為本”。但如今我們還要考慮能否把機器和技術看作新的治理主體。最近十年,新媒介領域最為深刻的變化便是AI進入并形成新的傳播秩序。那么,我們就要考慮一個問題:AI是傳播主體嗎?學者別君華認為:“AI與人實際構成他異關系,成為新傳播秩序中的傳播主體。人機傳播為傳播研究突破人類中心主義的本體論限度提供了可能的進路,亦為傳播觀念的間性論轉向提供了有力的起點。”[7]由此可推斷出,在新的人類中心主義本體論中“人機合一與共生”的雙主體正成為人工智能治理的新主體。
面對新的治理主體,我們恐怕需要拓展研究新視角新思路。
三、以人工智能治理人工智能
近年來,美國學者凱瑟琳·海勒以信息論和控制論為理論基礎,對信息媒介、計算機網絡、人工智能、虛擬現(xiàn)實等引發(fā)的問題進行了深入研究,其后人類傳播觀念深刻地影響著這一領域的研究。海勒認為,“后人類的主體作為一種物質與信息相混合的獨立實體,重構了身體的邊界,導致‘電子人’作為后人類傳播新主體的出現(xiàn),并重新界定了傳播研究中的‘虛擬性’與‘物質性’問題。海勒的后人類理論中所蘊含的傳播觀念,為智能時代的傳播研究開拓了一種新視角”[8]?;贑hatGPT、AIGC的智能傳播引發(fā)了更多社會治理問題,需要傳播學與哲學、倫理學、社會學等相關學科協(xié)作的跨學科研究,同時需要拓展新的研究視角和研究維度。
人工智能發(fā)展雖然帶來許多問題和弊端,需要不斷治理,但我們更要看到人工智能本身所具有的技術優(yōu)勢和巨大潛能。能否反過來用人工智能進行人工智能治理呢?即“以其人之道,還治其人之身”?這里的“人”是指人工智能,事實證明反向治理是可行的。其實,本文的文獻分析就是用人工智能來研究人工智能治理研究。
抗日戰(zhàn)爭時期,日軍使用莫比烏斯函數(shù)對電文進行加密,這是一種極其難破譯的加密方法。但我國著名數(shù)學家華羅庚用高超的數(shù)學思維找到了破譯密鑰,他用莫比烏斯反函數(shù)成功破譯了日軍密碼,由此為抗戰(zhàn)勝利作出了杰出貢獻。
在互聯(lián)網上,網絡語言規(guī)范治理是互聯(lián)網內容生態(tài)治理的重要一環(huán)。譚天和司崢鳴在《基于深度學習的網絡語言規(guī)范智能把關模式》一文中對人工智能用于治理研究進行了深入探討?!皯萌斯ぶ悄芗夹g建立智能規(guī)范模式的探索,為網絡語言規(guī)范治理提供一種新的思路與手段。基于深度學習的網絡語言規(guī)范智能把關模式能夠更好地為互聯(lián)網治理和網絡語言規(guī)范服務。”[9]人工智能治理再難也能找到治理它的辦法,把人工智能廣泛應用在其治理上應該大有可為。
在算法治理方面,研究主要從算法技術、算法向善、算法監(jiān)督進行展開。算法技術涉及人工智能、大數(shù)據(jù)、機器學習等技術,逐步從早期的“程序驅動”走向“數(shù)據(jù)驅動”,其自動化學習型、生成型特征給人類帶來了期待與不確定性。為此,算法治理模型的構建需覆蓋從設計、應用到評估的全流程,即形成技術生產、算法嵌入、系統(tǒng)運轉、風險評估和治理路徑的體系[10]。而且,還需從社會科學的源頭來駕馭算法使其向善[11],優(yōu)化算法在治理目標、主體、對象、手段和模式上的異化[12],建立合理的算法問責、治理平臺、行業(yè)規(guī)范和提高主體的認知能力[13],從算法治理的“力度—精度—深度—廣度”聚合中國特色的算法監(jiān)管政策[14],最大程度發(fā)揮算法的正面效應。然而,目前算法治理還存在一些問題,如平臺算法的不公開,這也讓我們對人工智能應用的黑箱難以展開反向治理,因此,有些還需要立法來解決,也就是技術治理與法律治理并舉。有鑒于此,基于逆向思維的反向治理、基于系統(tǒng)思維的綜合治理、基于非線性思維的混沌治理,都是人工智能治理所探索出來的新的技術手段和治理方式。算法治理、倫理治理和國家治理如何綜合應用,這就需要系統(tǒng)研究。
此外,還有一個技術治理的時機問題。英國技術哲學家大衛(wèi)·科林格里奇在《技術的社會控制》(1980)中指出,一項技術如果因為擔心不良后果而過早實施控制,那么技術很可能就難以爆發(fā);但是,如果控制過晚,已經成為整個經濟和社會結構的一部分,就可能走向失控,再來解決不良問題就會變得昂貴、困難和耗時間,甚至難以或不能改變。[15]這種技術控制的兩難困境,就是所謂的科林格里奇困境(Collingridge's Dilemma)。走出困境的路徑就在于找到治理的平衡點,有學者認為時機的把握應在探索“先發(fā)展,再治理”和“邊發(fā)展,邊管理”兩種節(jié)奏的靈活組合。[16]我們認為治理研究,還必須從技術開發(fā)自主權、意識形態(tài)主導權、國際傳播主動權等方面進行綜合考量。
人工智能治理研究的思路和方法的改變,實際上涉及研究范式的改變,需要研究范式的創(chuàng)新。
四、新問題多學科研究需要范式創(chuàng)新
近年來,以ChatGPT為代表的生成式人工智能迅速發(fā)展,給人工智能治理帶來新問題和新挑戰(zhàn)?!吧墒饺斯ぶ悄芨淖兞藬?shù)字社會的生產架構,向既有的技術治理體系提出挑戰(zhàn)?!盵17]
2023年5月14日,由北京師范大學新聞傳播學院主辦,清華大學新聞與傳播學院新媒體研究中心、《國際新聞界》雜志協(xié)辦的“ChatGPT啟示會”,匯集來自清華大學、北京大學、中國人民大學、北京師范大學等知名院校的二十余名專家學者,圍繞“大語言模型下信息生產與流通領域的問題”“大語言模型下倫理法規(guī)領域的問題”“大語言模型下文化領域的問題”三個議題展開了深入廣泛的研討。會后,北京師范大學新媒體研究中心團隊將會議中所提到的66個研究問題進行了歸納、整理,并按照李克特五分量表制成問卷發(fā)放到參與討論的學者群和計算傳播學者群打分。[18]
我們高興地看到,專家學者通過集體攻關給人工智能研究提出了問題清單,但我們也看到這些專家學者均來自新聞傳播學,而在當今研究生成式人工智能治理的研究者來自各個學科,尤以法學為甚。其實對于人工智能治理這項社會治理,除了新聞傳播學、社會學、管理學和倫理學的研究外,法學研究舉足輕重。因為,人工智能治理既需要法理層面的研判,也需要法律層面的執(zhí)行。例如針對生成式人工智能的法律定位與分層治理,中國政法大學的張凌寒教授就提出這樣的解決方案:“應構建‘基礎模型—專業(yè)模型—服務應用’的分層治理體系,在不同的層次適配不同的規(guī)制思路與工具。在基礎模型層以發(fā)展為導向,將其作為數(shù)字社會新型基礎設施設置法律制度;在專業(yè)模型層以審慎包容為理念,進行分級分類并設置合理避風港規(guī)則;在服務應用層實施敏捷治理,建立合理容錯制度?!盵19]這種分層治理方式既有契合底層邏輯的基礎治理,又有靈活敏捷的應用治理。
推而論之,生成式人工智能治理研究光靠新聞傳播學界單打獨斗是不行的,它需要學科支援和多學科的協(xié)同作戰(zhàn)。當今,“在全球人工智能治理的主流范式中,歐盟形成了基于風險的治理范式,我國構建了基于主體的治理范式,美國采用了基于應用的治理范式。三種治理范式均形成于傳統(tǒng)人工智能的‘1.0時代’,與展現(xiàn)通用潛能的新一代人工智能難以充分適配,并在不同維度凸顯治理局限”[20]。因此,要把人工智能治理研究范式推進到“2.0時代”,我們需要從路徑創(chuàng)新、思維創(chuàng)新以及多學科協(xié)同創(chuàng)新等多方面進行治理研究的創(chuàng)新,而這些創(chuàng)新構建了新的研究范式。對于新聞傳播學而言,能否取得更大的研究成果,就取決于它的學科整合能力和問題引導能力。
托馬斯·庫恩在他的《科學革命的結構》一書中提出了科學發(fā)展過程中的范式理論。他認為科學發(fā)展的模式是由一個常規(guī)科學傳統(tǒng)轉變到另一個常規(guī)科學傳統(tǒng),兩個傳統(tǒng)之間的變化即是范式(paradigm)的轉換。這種范式轉換也只可以叫作“范式創(chuàng)新”。當人工智能治理研究遇到新問題,需要多個相關學科支援的時候,那么原來的單一學科的研究范式,比如傳統(tǒng)的新聞傳播學研究范式恐怕就不能適應了。因此,需要進行范式轉換,比如我們應用新聞傳播學和計算機科學來進行交叉研究,那么就要把這兩個學科的研究范式進行融合和轉換,形成一種新的研究范式,這就是范式創(chuàng)新。只有采用新的范式,人工智能治理的研究才能打開新的思路,找到新的方向和方法,從而找到一條更好的研究路徑,獲得更大的理論突破和研究成果。
參考文獻:
[1]方彪.審慎應對生成式人工智能新發(fā)展[N].中國社會科學報,2023-08-21(004).
[2]張凌寒,于琳.從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新[J].電子政務,2023(9):2-13.
[3]謝梅,王世龍.ChatGPT出圈后人工智能生成內容的風險類型及其治理[J].新聞界,2023(8):51-60.
[4]胡兵,鐘思悅.荷蘭預判性技術倫理思潮對AIGC治理的啟示[J].青年記者,2024(2):48-54.
[5]黃陽坤,陳昌鳳.“眾智連接”的愿景與“硅基寡頭”的隱憂:ChatGPT的知識功能與人類的知識危機[J].現(xiàn)代出版,2023(12):20.
[6]胡兵,鐘思悅.荷蘭預判性技術倫理思潮對AIGC治理的啟示[J].青年記者,2024(2):48-54.
[7]別君華.AI是傳播主體嗎?人機傳播的興起及超越傳播本體論的限度[J].全球傳媒學刊,2024(3):57-73.
[8]鄭奕,連水興.智能時代的信息控制、電子人與媒介物質性:論凱瑟琳·海勒的后人類傳播觀念[J].福建師范大學學報(哲學社會科學版),2022(4):111-117.
[9]譚天,司崢鳴.基于深度學習的網絡語言規(guī)范智能把關模式[J].青年記者,2021(15):19-21.
[10]鄺巖,許曉東.算法治理研究述評:演進脈絡分析與理論體系構建[J].情報雜志,2023,42(3):158-166.
[11]周旅軍,呂鵬.“向善”且“為善”:人工智能時代的算法治理與社會科學的源頭參與[J].求索,2022(1):135-142.
[12]曾雄,梁正,張輝.歐美算法治理實踐的新發(fā)展與我國算法綜合治理框架的構建[J].電子政務,2022(7):67-75.
[13]陳思.算法治理:智能社會技術異化的風險及應對[J].湖北大學學報(哲學社會科學版),2020,47(1):158-165.
[14]張濤,韋曉霞.我國算法治理政策法規(guī)內容及框架分析[J].現(xiàn)代情報,2023,43(9):98-110.
[15]Collingridge,D.Thesocialcontroloftechnology[M].London:FrancesPinter,1980.
[16]鐘祥銘,方興東,顧燁燁.ChatGPT的治理挑戰(zhàn)與對策研究:智能傳播的“科林格里奇困境”與突破路徑[J].傳媒觀察,2023(3):25-35.
[17]張凌寒.生成式人工智能的法律定位與分層治理[J].現(xiàn)代法學,2023(4):126-141.
[18]張爾坤,張一瀟.ChatGPT啟示:大語言模型時代傳播學研究新問題[J].國際新聞界,2023(6):174-176.
[19]張凌寒.生成式人工智能的法律定位與分層治理[J].現(xiàn)代法學,2023(4):126-141.
[20]張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學,2023(3):108-123.
作者簡介:譚天,廣州華商學院未來媒體研究院院長(廣州 511300),暨南大學新聞與傳播學院教授(廣州 510632);劉樹林,廣州華商學院傳播與傳媒學院講師(廣州 511300)。
編校:王 謙