郭佳楠 陳婉瑩
1.鄭州工商學院馬克思主義學院,河南,鄭州,450000;2.中國人民大學數(shù)字人文研究中心,北京,100872;3.周口師范學院馬克思主義學院,河南,周口,466001
2022年11月20日,美國人工智能研究公司OpenAI 發(fā)布了人工智能應用軟件—ChatGPT,再次引發(fā)了人們對人工智能的關注和討論熱潮。近年來生成式人工智能(Generative Artificial Intelligence,簡稱GAI)技術快速發(fā)展,同時在人類生活和生產(chǎn)領域中得到廣泛應用,該技術涵蓋了創(chuàng)意產(chǎn)業(yè)、醫(yī)療保健、虛擬現(xiàn)實、藝術和文化創(chuàng)作等多個領域,為各行各業(yè)帶來了更多的創(chuàng)新,并由此產(chǎn)生了巨大的社會經(jīng)濟價值。
著名技術哲學家馬丁·海德格爾(Martin Heidegger)對現(xiàn)代技術有著很深的憂慮,在他看來,如果把技術當作某種中性的東西,我們就容易聽任技術的擺布。[1]因此,面對迅速迭代的技術沖擊和充滿不確定性的未來,我們不僅要關注能用ChatGPT 及其類似軟件做些什么,還要警惕它們可能會對我們做些什么,既要深刻理解生成式人工智能技術的內(nèi)涵與運行機理,還要看到它的技術暗面與潛在風險,并思考如何適應與應對新的技術環(huán)境與生存境遇。這也正是本文關切的本質(zhì)問題。
生成式人工智能技術是指基于生成對抗網(wǎng)絡、大型預訓練模型等人工智能的技術方法,通過對已有數(shù)據(jù)的學習和識別,以適當?shù)姆夯芰ι上嚓P內(nèi)容的技術。其具體內(nèi)涵是“自回歸(autoregressive)”,方式是“預訓練(pretrain)+提示(prompt)”,在語言生成上比此前谷歌開發(fā)的BERT 模型更具優(yōu)勢。生成式人工智能的“神奇”來源于深度學習、生成式預訓練和Transformer 模型架構,通過自回歸的方式來預測生成符合自然語言規(guī)律的文本。目前ChatGPT 已經(jīng)可以輕松完成自然語言處理(NLP)領域的絕大部分任務,同時在計算機視覺、圖形學習等領域也頗具發(fā)展?jié)摿?。[2]總體而言,生成式人工智能技術對于人類社會、人工智能的意義是里程碑式的。短期來看生成式人工智能技術改變了基礎的生產(chǎn)力工具,中期來看將會改變社會的生產(chǎn)關系,長期來看將促使整個社會生產(chǎn)力發(fā)生質(zhì)的突破,在這樣的生產(chǎn)力工具、生產(chǎn)關系、生產(chǎn)力變革中,生產(chǎn)要素—數(shù)據(jù)價值將被極度放大。
生成式人工智能技術的基礎是機器學習模型,特別是它非常依賴于深度學習算法和神經(jīng)網(wǎng)絡模型,這些模型通過大量的訓練數(shù)據(jù)來理解其中的模式和規(guī)律。生成式人工智能技術的核心思想是利用人工智能算法生成具有一定創(chuàng)意和質(zhì)量的內(nèi)容。通過訓練模型和大量數(shù)據(jù)的學習,生成式人工智能技術可以根據(jù)輸入的條件或指導,生成與之相關的內(nèi)容。從計算智能、感知智能再到認知智能的進階發(fā)展來看,生成式人工智能技術通過單個大規(guī)模數(shù)據(jù)的學習訓練,令AI 具備了多個不同領域的知識,只需要對模型進行適當?shù)恼{(diào)整修正,就能完成真實場景的任務,為人類社會打開了認知智能的大門。具體而言,生成式人工智能技術的基本運行特征包括:其一,具備通用性而非只在特定場景的應用性。其二,能夠進行新穎的、類似于人類的輸出,而不僅僅是描述或解釋現(xiàn)有信息。其三,可以理解多種形式的信息,同時也可以解讀自然語言、圖像、視頻并作出響應??傊墒饺斯ぶ悄芗夹g的出現(xiàn)和其目前展現(xiàn)的強大且特有的運行特征,無疑宣告了強人工智能技術時代已經(jīng)到來。[3]
此外,生成式人工智能技術不僅能夠充分利用現(xiàn)有的數(shù)據(jù),而且更注重創(chuàng)造新的、富有創(chuàng)意的數(shù)據(jù)。其運行原理是在學習的基礎上分析理解數(shù)據(jù),進一步生成具有相似特征的新數(shù)據(jù),同時廣泛應用于圖像、文本、音頻等多領域。生成式人工智能技術之所以能夠迅猛發(fā)展,與其獨特的運行機理及其現(xiàn)有的技術基礎密不可分:其一,目前各種生成算法已經(jīng)取得突破性創(chuàng)新,技術運行模式已從分析式AI 發(fā)展為生成式AI;其二,預訓練模型即通常所說的大模型引發(fā)了生成式人工智能技術能力的質(zhì)變;其三,多模態(tài)AI 技術得到長足發(fā)展,進而實現(xiàn)AI 革命。[4]也正是這些技術變化,使得生成式人工智能技術與傳統(tǒng)人工智能或簡單神經(jīng)網(wǎng)絡學習技術之間產(chǎn)生了巨大的鴻溝,即前者具備自生成內(nèi)容的能力,可以實現(xiàn)閉環(huán)式學習體系的構建,通過從海量數(shù)據(jù)信息中自己學習要素,生成全新的、原創(chuàng)的專業(yè)知識內(nèi)容或產(chǎn)品,并能持續(xù)提高自身學習能力,真正打破了以往人們熟悉的“專業(yè)知識壁壘”。而傳統(tǒng)人工智能或簡單神經(jīng)網(wǎng)絡學習技術則往往只能根據(jù)訓練數(shù)據(jù)進行決策和推斷,缺乏像人類一樣的“常識”,無法真正實現(xiàn)智能化。
首先,生成式人工智能技術的廣泛運用會侵擾社會意識形態(tài)防線。一方面,隨著生成式人工智能技術的不斷發(fā)展,在網(wǎng)絡中添加任何新應用程序都會產(chǎn)生新的漏洞,這些漏洞可能會被用來訪問網(wǎng)絡中的其他區(qū)域,并在意識形態(tài)領域造成多樣性的威脅與挑戰(zhàn)。此外,生成式人工智能應用程序還帶來了獨特的意識形態(tài)的風險,因為它們包含復雜的算法,使開發(fā)人員很難識別安全缺陷。
另一方面,生成式人工智能技術的發(fā)展還不夠成熟,使得人們無法理解其軟件開發(fā)的復雜細微差別,這使其代碼很容易被不法分子利用,對當前的社會意識形態(tài)進行攻擊。在評估GitHub Copilot 生成的代碼安全性的研究中發(fā)現(xiàn),近40%的頂級生成式人工智能技術都會導致代碼漏洞,這些漏洞的產(chǎn)生通常會瓦解公眾對視覺文本的信任,使曾經(jīng)“有圖有真相”的時代一去不復返,真相變得更加難以確證[5],社會信任危機日益凸顯。這種真?zhèn)坞y辨的境況與別有用心勢力的以假亂真的行徑相結(jié)合,令意識形態(tài)風險趨于復雜化。
其次,生成式人工智能技術會對人們的思維方式造成根本性沖擊,從而稀釋人類的獨立思考能力。應該說,生成式人工智能技術對人類獨立思考能力的威脅并不新鮮,尤其是生成式人工智能技術工具可對某一問題提供快速響應,使得人們可能放棄以往對某一個問題的批判性反思,從而轉(zhuǎn)向依賴于生成式人工智能技術所提供的答案,從而為用戶決策行為節(jié)約時間而提高效率。[6]這樣一來,生成式人工智能技術將會通過增加控制和操縱人的機會,進一步強化對人類批判性思維與獨立思考能力的削弱,并使人類不再嘗試自己獨立思考和寫作,最終逐漸失去批判性思維的鍛煉機會。
再次,生成式人工智能技術還會危害社會價值觀的塑造。生成式人工智能是當今最熱門的人工智能技術發(fā)展領域之一,它破解了許多以前被認為是不可能解決的難題,并為人們提供了無數(shù)的便利和前所未有的機遇。但是,隨著它不斷發(fā)展和應用,生成式人工智能技術在對人類的價值觀及其邏輯塑造層面也可能會帶來一些危害。[7]例如,生成式人工智能技術可以學習和重復模仿人類行為,以便完成特定的任務。然而,在某些情況下,如果生成式人工智能技術被設計成需要迎合特定的價值觀或意圖,那么生成式人工智能系統(tǒng)就可能會被嵌入并執(zhí)行這種錯誤的價值觀,并進一步擴大這種錯誤價值觀所帶來的負面影響。此外,雖然生成式人工智能技術具有強大的數(shù)據(jù)訓練與文本生成功能,但是仍然會忽略信息與社會主流價值以及社會發(fā)展需求之間的內(nèi)在聯(lián)系,使得網(wǎng)絡上出現(xiàn)大量迎合受眾偏好但缺乏內(nèi)涵的信息,從而可能讓使用者超越其價值理性的邏輯取向,做出違背正確社會價值的選擇。[8]
隨著新興生成式人工智能技術的發(fā)展,一旦存在多個數(shù)據(jù)與信息來源,在現(xiàn)代社交媒體中就很容易產(chǎn)生沖擊人類價值體系的錯誤與虛假信息。生成式人工智能技術在其數(shù)據(jù)與算法設計和應用的過程中,很可能會產(chǎn)生一些錯誤數(shù)據(jù)甚至虛假信息,也就是說,如果生成式人工智能技術可以用來欺騙公眾,將某些危險的輸入指令或信息錯誤地分類為安全,那么使用該人工智能技術的應用程序就可以執(zhí)行這些惡意的指令,甚至繞過安全控制系統(tǒng),從而為帶有惡意指令或信息的軟件提供更高的訪問權限。在這種情況下,這些信息很可能對用戶的自主性產(chǎn)生負面影響,從而削弱人們以往對科學知識以及真理的信任,甚至對正確的人類價值體系造成沖擊。
此外,在生成式人工智能技術設計與使用過程中,責任主體模糊也會對知識產(chǎn)權、數(shù)據(jù)合規(guī)與信息保護造成威脅。也就是說,當人們與任何生成式人工智能技術程序共享自己的個人信息或公司信息時,他們一開始會本能地相信該程序?qū)⒇撠熑蔚靥幚磉@些信息,并針對網(wǎng)絡攻擊采取強有力的保護措施。然而,在使用生成式人工智能技術工具時,我們可能會無意中分享比我們想象更多的信息內(nèi)容。同時,生成式人工智能技術應用程序還會對用戶數(shù)據(jù)進行任意瀏覽,進而導致人們無法分清相關數(shù)據(jù)泄露的責任主體是誰,這使得在如何收集、使用和轉(zhuǎn)儲數(shù)據(jù)方面缺乏適當?shù)谋O(jiān)控程序,這種情況會對知識產(chǎn)權與個人合法信息的保護造成嚴重威脅。
最后,生成式人工智能技術中存在的數(shù)字鴻溝會沖擊組織體系的正常運行,從而加劇社會不平等。生成式人工智能技術在一些行業(yè)中的使用可能會進一步?jīng)_擊原有的組織框架,干擾其原本的組織運行體系,從而造成原有組織機構的解構,進一步加劇組織成員收入不平等,最終導致富人越來越富,窮人越來越窮。例如,AI 在金融領域中的使用可能會導致一些族群或地區(qū)的金融組織機構的運行受到歧視性干擾,進而引發(fā)模糊責任邊界的問題。[9]除此之外,AI 也可能會導致數(shù)據(jù)壟斷的情況發(fā)生,并使少數(shù)大型公司和政府機構牢牢掌握市場優(yōu)勢,從而排斥其他競爭者。
首先,在生成式人工智能技術治理層面,相關政治決策者對該技術全新的內(nèi)容和知識生產(chǎn)方式的認知缺失,會加劇政府對該技術進行治理的風險。由于其本身技術設計與應用的復雜性,生成式人工智能技術和深度學習模型的內(nèi)部運行原理可能很難被人們所理解,即使對于那些直接使用該技術的人來說也是如此。這導致人工智能得出結(jié)論的方式和原因缺乏透明度,致使關于“生成式人工智能技術算法使用哪些數(shù)據(jù),或者為什么它們可能做出有偏見或不安全的決策”的問題缺乏解釋,進而引發(fā)人們對這種不確定性問題的擔憂[10],這在很大程度上就加劇了政府技術治理的難度與風險,尤其對政府相關部門如何處理由生成式人工智能技術引發(fā)的新難題提出了挑戰(zhàn)。
其次,生成式人工智能技術訓練數(shù)據(jù)的持續(xù)擴張還會引發(fā)政府治理的安全風險。隨著生成式人工智能技術生成的圖像和視頻、人工智能變聲器以及深度偽造信息越來越多地滲透到當今的政治和社會領域,使得媒體和新聞中信息的真實性變得越來越不可信,因為這些技術可以輕松創(chuàng)建逼真的照片、視頻、音頻,或?qū)F(xiàn)有圖片或視頻中的一個人物的圖像替換為另一個人物的圖像。[11]有鑒于此,不良行為者很可能用新的途徑來分享錯誤信息或進行戰(zhàn)爭宣傳,從而構建噩夢般的敘事場景,這使得政府部門在進行社會治理過程中面對了更多的安全風險與挑戰(zhàn),尤其是在規(guī)制與監(jiān)督生成式人工智能技術設計與應用層面需要構建更為系統(tǒng)的體制機制來加以應對。
最后,生成式人工智能技術大模型的生成物形式各異,從政府治理層面而言,這會引發(fā)政府治理中前所未見的新問題。應該說,對這些新的生成物形式的社會操縱是生成式人工智能技術給政府治理帶來的新挑戰(zhàn)。尤其是隨著西方政客們依靠平臺來宣傳自己的觀點,人們對新問題的恐懼已經(jīng)成為現(xiàn)實,例如,小費迪南德·馬科斯(Ferdinand·Marcos Jr.)在菲律賓2022年大選期間率領著一支“TikTok 巨魔大軍”,來奪取年輕菲律賓人的選票。實際上,這里關于TikTok 的事件只是個別政客操控基于人工智能算法的社交媒體平臺的例子之一,可以看出這種人為的操控提前在用戶的提要中填充了有助于實現(xiàn)其政治利益的信息內(nèi)容。[12]在當代社會治理中,政府如何應對這類行為,以及某些算法未能過濾掉有害和不準確內(nèi)容的現(xiàn)實,引發(fā)了人們對政府治理能力的擔憂。
1.政治決策面臨新風險
首先,政治決策機制重塑。生成式人工智能技術在智能方面的進步如此之快,以至于它可能會變得有知覺,并可能以惡意的方式超越人類的控制。在這種情況下,大模型憑借其無與倫比的信息收集處理能力,配合先進的算法,處理信息后給出的決策建議在相當程度上具有整合性和便利性,將不可避免地導致以往政治決策機制的變革。
其次,政治決策忽視偏好問題。生成式人工智能畢竟只是一種技術,在收集信息時只是出于單純的收集目的。盡管大模型處理海量數(shù)據(jù)資源,且模型靈敏度會依靠日后訓練與數(shù)據(jù)填補而提升,但政治決策對象畢竟是具備情感偏好的生命體,他們所喜好的政策未必就是最符合程序計算的政策。這就出現(xiàn)了一個極困難的問題—人工智能系統(tǒng)可能始終無法完全理解政治決策對象的情感訴求。
最后,政治信任降低的風險。大模型深度學習模型進入政治生活后,無論是政治決策者抑或是政治訴求表達者均可利用該模型從事政治活動。在這種情況下,人工智能聊天機器人或在線人工智能面部過濾器可能會訪問并收集政治決策者的用戶數(shù)據(jù)—但它會在哪里使用、如何使用這些數(shù)據(jù),越來越多的數(shù)據(jù)讓人們難以判斷什么是重要的,什么是有意義的。[13]生成式人工智能技術系統(tǒng)通常會收集個人數(shù)據(jù)來定制用戶體驗或幫助訓練正在使用的人工智能模型(特別是免費的人工智能工具),當被提供給人工智能系統(tǒng)時,數(shù)據(jù)甚至可能被認為對其他用戶來說是不安全的,進而導致政治決策者與訴求表達者的雙向信任危機。
2.輿論傳播面臨新挑戰(zhàn)
第一,錯誤信息和觀點對公眾輿論的潛在引導。生成式人工智能技術的算法和數(shù)據(jù)具有魯棒性、透明度、可解釋性、可靠性欠缺等問題,盡管“大數(shù)據(jù)+海量參數(shù)+大算力”提升了模型的總體擬人表現(xiàn),但它畢竟不是像人一樣理解與思考問題,有時無法從事實上區(qū)分信息的真實性,難以識別數(shù)據(jù)隱含的偏見和毒性,從而產(chǎn)生虛假的、誤導性的或低質(zhì)量的結(jié)果。這些錯誤和偏見往往會影響人的政治判斷和政治選擇,甚至隱蔽地塑造和誤導公眾輿論,沖擊主流價值和觀念。
第二,大語言模型可能弱化國家闡釋權。國家闡釋權代表了國家在引導社會輿論、宣揚社會思想方面的權威性,是國家軟實力的重要組成部分。隨著大模型全面嵌入社會并參與某些重大概念與事件的解釋,由于其普及性和便利性,可能使社會公眾習慣于第一時間尋求大模型解釋路徑。這種先入為主性疊加以及大模型輸出系統(tǒng)的高度擬人化與完備化,將嚴重削弱官方解釋的說服力,削弱國家闡釋的權威性。
第三,大語言模型可能淪為意識形態(tài)武器。生成式人工智能技術在算力、算法、數(shù)據(jù)等方面的高門檻容易導致少數(shù)國家的技術壟斷,可能被當作意識形態(tài)戰(zhàn)爭或顏色革命的工具,從而加速虛假意識形態(tài)的生產(chǎn)與傳播。[14]一國可針對他國公眾心理弱點來供給帶有政治目的與本國意識形態(tài)偏好的內(nèi)容產(chǎn)品,進而影響目標國公眾的政治判斷和政治選擇,間接把控政治走向,對目標國意識形態(tài)安全陣地進行隱形滲透。
3.技術監(jiān)管難度增大
在關于生成式人工智能技術的監(jiān)管層面,一方面監(jiān)管需求與監(jiān)管能力之間存在差距。隨著生成式人工智能技術的逐漸發(fā)展,其輸出錯誤或具備隱晦意識形態(tài)宣傳的話語表述,在大多數(shù)情況下難以為非專業(yè)人士所識別。如果政府部門無法及時對網(wǎng)絡環(huán)境進行正確監(jiān)管、對錯誤信息進行分辨處理,這種由于監(jiān)管缺口而在公眾間廣泛傳播的錯誤信息可能造成嚴重的意識形態(tài)風險。
另一方面,隨著生成式人工智能技術已經(jīng)逐漸滲透到人們生活的各個領域,技術壟斷正在侵蝕國家治理能力。生成式人工智能技術的產(chǎn)生、發(fā)展和普及都離不開專業(yè)的科技企業(yè)參與,特別是科技巨頭。盡管這些企業(yè)也在以委托治理的方式參與國家治理目標的實現(xiàn),但大語言模型必需的算法、算力、數(shù)據(jù)三大數(shù)字要素卻被少數(shù)頭部科技企業(yè)掌握,由于其先行優(yōu)勢會進一步擴大規(guī)模效應,這些企業(yè)必然會形成技術壟斷趨勢。走向寡頭化的科技巨無霸可能會憑借算法權力和運作效率模糊國家的權力邊界,甚至帶來“國家空心化”的危險。
首先,嵌入式道德算法無力過濾基礎文本數(shù)據(jù)的價值偏見。生成式人工智能體無法具備個體意志,也無法擁有倫理決策能力,但是它可以通過對人類主體在道德選擇和倫理決策等方面的學習與模擬擁有對“道德”的理解,而生成式人工智能體對道德模擬的實現(xiàn)依賴于人工智能專家們所運用的嵌入式道德算法,反映的其實是算法設計者的行動目標和價值體現(xiàn)。嵌入式道德算法屬于生成式人工智能技術算法體系中尚不完備、亟須完善的算法程式,因其運算過程主要是通過模仿而非創(chuàng)造,導致這一程式無法脫離設計開發(fā)者而成為具有完備道德的機器智能體,也無法通過對基礎文本數(shù)據(jù)的篩選過濾來判斷內(nèi)容本身的價值屬性,更無法有意識的抵制偏見,所以在一定程度上會不可避免地擴大價值偏見。
其次,獎勵算法放大算法設計者的隱性價值偏見。生成式人工智能技術究其本質(zhì)仍是以人類為主導,按其構想創(chuàng)造而來的產(chǎn)物,歸根到底是為人類服務的,在其算法的設計開發(fā)過程中,處處都包含著算法設計者的偏見,這些偏見既包括顯性偏見,也包含著開發(fā)者的隱性偏見。人是一切社會關系的總和,算法設計者同樣無法逃離社會關系,在認識世界與改造世界的活動過程中,在社會關系和認知體系的局限下,毫無疑問會產(chǎn)生這樣或那樣的價值偏見,而這些價值偏見也在無意識中被帶入到算法世界。而獎勵算法實質(zhì)上是一種差別對待系統(tǒng),通過類似于“貼標簽”的舉動,使得那些不易察覺的隱性價值偏見無處不在。
再次,算法設計者的偏見影響算法輸出的準確性。算法不是憑空產(chǎn)生的,而是人類行為的產(chǎn)物,是受到人類支配供給人類使用的人造物,算法設計者的意識滲透在算法模型設計的每一步,算法設計者的固有偏見也阻礙算法程序自覺摒棄偏見,使其不能成為一種完全公正、客觀的技術。無論是在開發(fā)算法技術、界定問題范疇,還是在選擇目標變量的環(huán)節(jié),都存在著算法設計者的認知差異與思維偏見,這些偏見會時刻影響算法程序在生產(chǎn)內(nèi)容和輸出內(nèi)容過程中的客觀、公正立場,進而傳播孤立、片面甚至是與客觀事實完全背離的信息,影響信息判斷的準確性,導致大眾對于信息的認知出現(xiàn)偏差乃至偏見。
最后,RLHF1 重復訓練基礎語言模型,強化算法偏見。ChatGPT 采用RLHF 重復訓練基礎語言模型,大量的人類與機器交換提問者及回答者身份的人機互動訓練,使得ChatGPT 這樣的生成式人工智能逐漸具備評斷生成答案的能力,而在算法系統(tǒng)與用戶的不斷交互互動中,ChatGPT 通過循環(huán)往復的強化學習來掌握用戶偏好,因其在向周圍環(huán)境學習時無法準確判斷數(shù)據(jù)的取舍與對錯、無法保障訓練算法的原始數(shù)據(jù)的客觀性,從而導致其存在被惡意使用的風險。[15]ChatGPT還會產(chǎn)生互動偏見與數(shù)據(jù)導向的錯誤的價值觀,在人機互動過程中不斷吸取乃至復制隱含其中的各種價值偏見,進而在內(nèi)容生成時創(chuàng)造出更多的偏見。隨著RLHF 訓練模式周而復始的進行,ChatGPT 甚至可能會成為邪惡勢力輸出自身觀點的傳聲筒與擴音器。
首先,從技術與政治的互動關系來看,算法政治偏見影響世界建構的基本方式。一般而言,“選擇偏見、受數(shù)據(jù)影響的算法,很可能會導致人們過于放大某一族群或群組數(shù)據(jù)的社會影響,從而使該算法對其有利,但代價是犧牲其他群體的合法利益”。[16]在這種負面影響下,算法在嵌入一些政治觀點后,很容易對人們的生活方式進行重塑,這就導致人們操控世界的自主性受到嚴重的負面影響,甚至對以往真理性或真實性的世界建構造成危害。而這種危害往往會造成與生成式人工智能技術有關的利益相關群體之間的沖突,進而促致群體間個體的不信任。
其次,算法間接成為西方國家靶向干預他國意識形態(tài)的技術工具。ChatGPT 的誕生標志著算法技術的新起點,也展示了其發(fā)展的全新可能。但是,ChatGPT 所具有的算法與數(shù)據(jù)低透明性,使其對輿論影響的客觀性存疑。持有偏見的西方國家利用ChatGPT 所具有的高度擬人化與使用便利化,通過算法霸權掩蓋其真實面目,采用不同于傳統(tǒng)偏見形式的算法偏見干預他國意識形態(tài),甚至爭奪領導權。由于ChatGPT 被認為具備所謂的“公正、客觀”的特性,它可能會間接成為西方國家靶向干預他國意識形態(tài)的技術政治工具。當前,美國具有世界上最先進的生成式人工智能技術,它極有可能為了維護自身的霸權地位,利用算法霸權對其他國家進行意識形態(tài)布勢,威脅其他國家意識形態(tài)領導權的安全。
最后,算法逐漸成為西方國家輸出自身意識形態(tài)的重要媒介。ChatGPT 擁有深度學習的優(yōu)勢,一經(jīng)誕生,就憑借其數(shù)據(jù)分析能力與學習能力快速滲透到社會生活的方方面面之中,并因此產(chǎn)生了強大的影響力與控制力。在ChatGPT 爆火的今天,西方國家因其在復雜精密算法技術上的壟斷地位掌握著人工智能領域的絕對優(yōu)勢,一定意義上也實現(xiàn)了自身對話語權的壟斷。[17]以ChatGPT 為話語媒介,西方國家在人工智能領域繼續(xù)推進西式話語霸權。同時,隨著ChatGPT越來越多地受到西方國家算法設計者的民主觀念滲透,其在內(nèi)容生成與輸出上進一步表現(xiàn)出西方國家的意識形態(tài),在技術外衣的包裝之下,西方國家通過算法進一步推行受資本壟斷的話語霸權,通過制造傳播涵蓋偏見的信息影響大眾對于客觀事實的正確認知,以此實現(xiàn)自身的利益。
在數(shù)字分身、數(shù)字永生等概念層出不窮的當下,一方面人類的有限認知弱化了對自我價值的反思。在某種程度上,在算法技術的包裹下,人類獲得了更多便利的同時也被技術引導、支配行為進而被囚禁在算法監(jiān)獄中,每日接觸單一的信息,失去了自主選擇多樣化信息、自由拓寬視野的權利,被動成為信息投喂的接收者,變成算法世界中的烏合之眾,失去了人類個體的個性化,使得作為一個現(xiàn)實的人的主體地位不斷被消解,淪為算法的附庸,人的本質(zhì)被異化,人的有意識的活動被剝奪,使其沉浸在生成式人工智能技術的使用便利性之中,逐漸喪失獨立思考判斷能力和自主行動能力,從而不再探討自我價值,不再思考人的發(fā)展性,最終成為被動的服從者。
另一方面,生成式人工智能“替代性實踐”導致對主體身份的質(zhì)疑。生成式人工智能技術能夠通過對行為實踐的介入支配人們的全部社會生活,迫使人類在算法技術監(jiān)視之下,將其主體意識暴露在算法技術中,正如沉默的螺旋一樣,人類在無意識中進入自我控制、自我規(guī)訓的狀態(tài),不自覺地接受ChatGPT 等生成式人工智能的隱形規(guī)訓,難以控制地陷入其從屬地位,在此過程中ChatGPT 的權力邊界被混淆,人的主體身份被僭越,人與人工智能的關系發(fā)生顛倒,最終使得人類在對ChatGPT 的依賴中質(zhì)疑自身的主體性地位,導致主體性的集體沉默,接受資本主義意識形態(tài)的塑造。
生成式人工智能作為“第四次工業(yè)革命”浪潮下備受世界各國關注的技術產(chǎn)物,推動了各行各業(yè)數(shù)智化的變革。但與此同時,其所帶來的安全風險及社會治理問題也成為全人類所關注的焦點。黨的二十大報告中也強調(diào)全黨必須主動識變應變求變,主動防范化解風險。因此,及時有效地提出生成式人工智能技術的安全風險防范策略就成為未來人工智能治理的重中之重。本文將從加強黨的領導、政府參與、社會協(xié)同、法制保障四大方面,構建起具有負責任性、預見性的生成式人工智能技術安全風險的防范策略。
加強黨的領導,就是依托于黨的宗旨、性質(zhì)、政策等為生成式人工智能技術所存在的安全風險防范提供堅強的政治保障。因此,必須牢固樹立以人民為中心的技術安全風險防范理念。同時,需要深刻認識到人民是歷史的創(chuàng)造者,生成式人工智能技術的存在依舊是人民在認識世界、改造世界進程中的產(chǎn)物。中國共產(chǎn)黨始終堅持以人民為中心,黨的各項事業(yè)的發(fā)展也要落實在解決人民的操心事、煩心事上?;诖耍谠O計研發(fā)生成式人工智能技術時,要堅持以人民為中心,從為人民服務的理念出發(fā)。換言之,生成式人工智能技術的出現(xiàn)并不能僅考慮技術的先進與否,更需要考慮人民的實際所需,使得人工智能實現(xiàn)真正的便民化、利民化。
此外,還應該著力引導生成式人工智能技術在社會治理中的善智發(fā)展?!吧浦恰奔礊楦呙鞯摹⒘己玫娜斯ぶ悄?。此概念更加關注于生成式人工智能技術的價值目標,以增進人類的共同福祉為落腳點。發(fā)展安全、合道德的“善智”包含著生成式人工智能技術開發(fā)和應用的三大原則:不能傷害人;不應該歧視人;不應該“操縱”人。[18]中國共產(chǎn)黨作為中國各項事業(yè)的領導者,在發(fā)揮總攬全局、協(xié)調(diào)各方的政治功能上要力求引導生成式人工智能技術的善智發(fā)展,不僅要注重技術創(chuàng)新,而且也要在有效應用的過程中重視其價值標準的考量。
最后,大力提升生成式人工智能技術時代基層黨組織的組織動員能力。中國共產(chǎn)黨作為馬克思主義的政黨,一直保持著加強自我管理,進行自我革命的優(yōu)良傳統(tǒng),也一直將基層黨組織建設視為一項重要戰(zhàn)略資源。針對生成式人工智能技術這樣的新生事物,更要重視基層黨組織的建設,夯實基層黨組織的基礎,為生成式人工智能的發(fā)展做好組織動員工作。因此,首先要在黨的領導下,優(yōu)化組織設置,擴大黨在人工智能領域的組織覆蓋,因地制宜的探索新型組織形式,增強基層黨組織的執(zhí)政能力;其次,完善生成式人工智能領域基層組織的運行機制,規(guī)范相關行業(yè)的黨委、黨支部建設,擴大研發(fā)人員中的黨員人數(shù),形成嚴密的上下貫通、執(zhí)行有力的基層組織體系。
黨的二十大報告提出,要加快建設數(shù)字中國。[19]這也意味著政府數(shù)字化轉(zhuǎn)型也即將提上日程。與此相對應的,生成式人工智能的技術發(fā)展也將為數(shù)字政府賦能。因此,未來政府應當承擔好自身肩負的治理責任,積極發(fā)揮政府在生成式人工智能技術安全風險防范中的主導作用。
第一,在生成式人工智能技術嵌入政府治理的過程中,應該秉持包容審慎的原則。新技術的產(chǎn)生必然帶來新的風險與挑戰(zhàn),生成式人工智能技術也同樣如此。也就是說,在政府治理中嵌入生成式人工智能技術依舊會面臨著信息泄露、數(shù)據(jù)存在偏差、技術處理不到位等問題。因此,秉持包容審慎的原則才能有效地發(fā)揮人工智能輔助政府治理的功能。在此過程中,要接受可能存在的誤區(qū)、有效地分析原因所在,而分析的目的在于通過政策制定者針對過往的開發(fā)活動,借助于公眾的使用反饋,查找自身所存在的缺陷,進行深刻且持續(xù)的自省,進而使新技術得到進一步的完善與提升。嵌入反思維度的重點在于強調(diào)生成式人工智能技術政策的公眾參與,依托于決策者對公眾滿意度的重視,進一步強化生成式人工智能技術政策制定者的社會責任感與道德使命感,以此來提升人工智能的社會價值。最后及時地開展后續(xù)問題的處理;同時,在政府治理中不能完全依賴于人工智能,還要以審慎的原則保留人工智能提供的數(shù)據(jù),做好備案工作。
第二,制定生成式人工智能時代技術安全風險防范的有效公共政策。生成式人工智能技術應該惠及公眾生活的方方面面,其中涉及人們公共生活中多方面多領域的利益。政府作為行政機關,有責任保障公眾的合理合法利益的實現(xiàn)。因此,如果政府想要發(fā)揮其正常的技術治理職能,那么就需要在制定并執(zhí)行公共政策的時候多方考慮可能存在的生成式人工智能技術安全風險,評估多方的利益訴求,進而實現(xiàn)技術效益最大化、服務最佳化。
第三,建立生成式人工智能嵌入技術安全風險防范的各項配套機制。生成式人工智能技術的發(fā)展與完善不僅在于技術的研發(fā)是否順利,而且也要考慮到市場的效益、成果的回報、社會的反響等方面的因素。同時,還要考量不同技術風險帶來的后果。因此,政府要建立各項相關的配套措施,如市場準入的標準、價格的管控、風險應急的機制,研究制定重點領域關鍵技術清單,建立風險預警指標體系和監(jiān)測預警機制,讓生成式人工智能技術在應用過程中更好地揚長避短。
第四,積極構建生成式人工智能技術嵌入政府治理的管理機制。一般而言,生成式人工智能技術具有實現(xiàn)效率最大化、信息處理便捷化等優(yōu)勢,這些優(yōu)勢將有助政府工作的開展與管理。可以說,將生成式人工智能技術引入政府治理的管理環(huán)節(jié),將有助于優(yōu)化政府工作模式,建構高效率的數(shù)字政府模式,如人口普查、土地普查等工作借助生成式人工智能技術開展將會省時省力,也有助于賦能政府的科學決策,建成智慧數(shù)字政府,如通過線上政府服務大廳的創(chuàng)建,滿足廣大人民群眾足不出戶就能辦理業(yè)務的需求。
第五,建立健全生成式人工智能技術嵌入政府治理的安全保障體系。社會安定、人民安全是國之大事,安全問題也是政府治理工作的題中要義。生成式人工智能技術在安全風險防范領域的研發(fā)與應用,將進一步改善社會治安,提升人民生活的幸福感。因此,建立健全生成式人工智能技術嵌入政府治理的安全保障體系將更有助于落實政府職責,完善政府治理。
生成式人工智能技術的研發(fā)及應用涉及整個社會,人人都可共享其發(fā)展成果,但人人也會受到其技術安全風險帶來的影響。因此,針對生成式人工智能技術的安全風險防范應該做到人人有責、人人負責,需要建立起共建共治共享的技術安全風險防范新格局。要打造生成式人工智能時代的技術安全風險防范共同體,即發(fā)展政府引導、企業(yè)研發(fā)、公眾監(jiān)督這樣的安全風險防范共同體才能多角度多主體地構建全面的防范體系。每個主體在各司其職的同時兼顧其他主體的有效需求,才能促進生成式人工智能技術向上發(fā)展,輔助好人們的生產(chǎn)與生活。要提高社會公眾參與智能化安全風險防范與治理的能力。社會公眾雖然不完全是生成式人工智能技術的主導研發(fā)者,但都享受到了該技術帶來的好處。社會公眾也有義務來為其安全風險防范與治理貢獻自己的一份力量,這就需要社會公眾增強安全風險防范的意識和提升安全風險治理的能力。生成式人工智能技術的相關產(chǎn)品最終是要投放到社會中的,參與社會各項事業(yè)的建設,使其能夠造福于公眾生活,因此,引導研發(fā)者與政策制定者、公眾一同探討生成式人工智能技術所產(chǎn)生的相關問題,更體現(xiàn)出治理生成式人工智能技術問題的包容性與民主性。力求通過多方集體審議,實現(xiàn)人工智能技術對人們追求更加美好生活的完美輔助,更好地檢測與評估該技術的使用效果及其對社會的效益。
另外,需要進一步完善共建共治共享的智能化安全風險防范制度。形成共建共治共享的生成式人工智能技術安全風險防范制度能有效實現(xiàn)該技術發(fā)展的良性循環(huán)。因此,這就需要改革社會組織管理制度,注重對生成式人工智能技術的設計主體進行培育與引導,調(diào)動起其參與安全風險防范活動的積極性與主動性;健全各類社會治理主體依法治理、有序參與機制,對于涉及的主體建立起相應的職能分工、利益協(xié)調(diào)、獎懲管理等制度,積極構建安全風險防范治理協(xié)同機制,鼓勵、引導社會組織、人民群眾參與進來,實現(xiàn)政府治理同社會以及居民自治的良性互動。
最后,積極構建各司其職且責任到位的防范機制。在應對生成式人工智能技術安全風險的過程中,不同責任主體應當建立起相應的防范機制,這些防范機制可以從政治、經(jīng)濟、法律等多個維度對其安全風險進行規(guī)制,同時在這些防范機制建構與運行的過程中,相關工作人員也應當做到各司其職,嚴格按照相關規(guī)范來約束自身的行為,在技術應用的過程中發(fā)揮監(jiān)督與監(jiān)管的職責。
法案天下,社會各項事務的有效開展都要以法律的準繩加以約束。生成式人工智能技術在促進社會發(fā)展的同時所帶來的風險挑戰(zhàn)也需要通過法律進行界定。尤其是在當前人工智能應用廣泛的時代,需要從不同的角度加強對其設計與應用的監(jiān)督與管理,尤其是從立法、司法、執(zhí)法的不同維度對生成式人工智能技術進行規(guī)制。
首先,努力樹立生成式人工智能時代中應對技術安全風險的法律思維。生成式人工智能技術是社會的產(chǎn)物,受制于社會法律的約束。因此,生成式人工智能技術的研發(fā)者、生產(chǎn)者及使用者都需要具有法律思維,要在合理合法的條件下規(guī)范使用人工智能,不能借助于其高科技手段來觸犯法律的底線。
其次,建立健全智能化社會中風險治理的法律規(guī)制體系。生成式人工智能作為一項新興技術,急需健全關于其社會風險治理的法律規(guī)制體系,當前我國也在積極推進生成式人工智能領域的相關立法工作,形成了多層級、多維度、軟法和硬法相結(jié)合的綜合治理體系。如國務院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,2019年國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能治理原則—發(fā)展負責任的人工智能》等相關文件,都為社會風險治理提供了法律保障。[20]
再次,促進生成式人工智能技術時代社會風險防范規(guī)則算法化。法律可以為生成式人工智能技術的社會風險治理提供強有力的保障,反過來生成式人工智能技術又同樣可以為法律的運作進行高效的賦能,進一步構建并完善人工智能的風險治理規(guī)范體系。[21]促進生成式人工智能技術時代社會風險防范規(guī)則的算法化,將有助于相關法律的操作更加智能化與便捷化,提升辦案效率。
最后,構建以公平正義為核心的智能社會法律秩序。社會的公平正義是人類社會始終如一的追求,生成式人工智能技術輔助下建成的智能化社會也同樣如此,構建以公平正義為核心的智能社會法律秩序是未來社會法律體系建設的必然準則。以公平正義來減少生成式人工智能技術的安全風險所帶來的社會不安,更有助于建立和諧有序的智能法治社會。
生成式人工智能大模型正在挑戰(zhàn)社會各個領域中傳統(tǒng)規(guī)則的科學性和合理性。面對ChatGPT 這類更高效、更便捷的生成式人工智能技術形態(tài),既不能放任該技術的失范應用,也不能因噎廢食。未來,生成式人工智能技術能否具有自主意識與自由意志,尚有待驗證。今后在應對生成式人工智能大模型的安全風險時,方案上應采取多元規(guī)制的思路,在已有算法規(guī)制框架的基礎上,制定出具有中國特色、現(xiàn)實可行的風險應對方案。