【關(guān)鍵詞】人工智能大模型??大國協(xié)調(diào)??全球性機(jī)制??全球治理??技術(shù)多邊主義
人工智能大模型全球治理迫在眉睫。從技術(shù)變革的角度看,大模型的出現(xiàn)代表了人工智能領(lǐng)域的一次重大突破,極大提升了機(jī)器學(xué)習(xí)在自然語言處理、圖像識別等領(lǐng)域的性能,并持續(xù)推動經(jīng)濟(jì)結(jié)構(gòu)重組。大模型在社會互動與文化方面的變革性則表現(xiàn)為其對信息獲取、知識學(xué)習(xí)和交流方式的改變。同時,大模型技術(shù)變革在演進(jìn)過程中逐漸成為一項全球安全和治理的重大挑戰(zhàn)。例如,網(wǎng)絡(luò)安全、技術(shù)競爭和全球技術(shù)監(jiān)管的現(xiàn)實(shí)需求,迫使各國建立新的法律和政策框架,并通過加強(qiáng)國際合作的方式來解決。尤其是大模型所引發(fā)的關(guān)于數(shù)據(jù)隱私、算法偏見等問題的全球倫理爭議,引起了各界關(guān)于國際合作如何在人工智能使用和監(jiān)管中發(fā)揮重要作用的思考。一方面,全球治理需要考慮如何制定共享的倫理準(zhǔn)則和技術(shù)標(biāo)準(zhǔn),以確保人工智能技術(shù)體現(xiàn)公平、透明和負(fù)責(zé)任原則。另一方面,大模型的快速發(fā)展也要求全球政策制定者、技術(shù)專家和社會各界形成更加密切的合作,通過國際對話和政策協(xié)調(diào),應(yīng)對由其所引發(fā)的就業(yè)變化和社會不平等問題。大模型作為一種技術(shù)革新在推動全球技術(shù)進(jìn)步的同時,也促使國際社會重視全球治理體系在人工智能發(fā)展中的協(xié)調(diào)性作用。關(guān)于大模型全球治理機(jī)制的建設(shè)路徑,既要運(yùn)用傳統(tǒng)治理機(jī)制,也要構(gòu)建新的國際機(jī)制,即探索構(gòu)建大模型全球治理的機(jī)制復(fù)合體。
關(guān)于大模型全球治理這一概念,一般有兩種理解。一種是將大模型用于解決現(xiàn)有的全球治理問題。大模型作為人工智能技術(shù)的一個新發(fā)展,可以被用于全球治理的各個方面。另一種則認(rèn)為大模型作為一個新技術(shù)本身正在產(chǎn)生諸多新的全球性問題,而解決這些問題需要全球治理的思路。本文使用的大模型全球治理概念,主要指第二種。大模型可能帶來的風(fēng)險主要分為三類:失業(yè)、失序和失控。
第一,失業(yè)。大模型不可避免地會加劇失業(yè),大范圍的失業(yè)問題可能引發(fā)經(jīng)濟(jì)危機(jī)或政治危機(jī)。早在2018年,牛津大學(xué)便已出版一份關(guān)于人工智能就業(yè)沖擊的報告,警示人們高度關(guān)注這一問題。[1]即便如此,大模型技術(shù)的發(fā)展還是遠(yuǎn)遠(yuǎn)超出了人類專家的理解。OpenAI的研究人員正是在其內(nèi)部看到了從外部可能還無法理解的一些先進(jìn)技術(shù),因此才在2023年年初發(fā)布有關(guān)GPT對勞動就業(yè)市場影響的論文。從當(dāng)前技術(shù)進(jìn)展來看,OpenAI的這份報告準(zhǔn)確地預(yù)見了大模型對就業(yè)市場的沖擊,特別是外語翻譯人員、專業(yè)設(shè)計師、程序員、金融從業(yè)者、作家等面臨非常高的就業(yè)替代率的職業(yè)。[2]伴隨大模型技術(shù)的不斷發(fā)展和應(yīng)用,失業(yè)問題將變得更加嚴(yán)重。
第二,失序。知識秩序是政治秩序的基礎(chǔ)。大模型作為一種新的知識生成器,無疑會對傳統(tǒng)的知識秩序產(chǎn)生重大影響。[3]換言之,大量大模型生成物的出現(xiàn),很有可能創(chuàng)造一個完全虛擬的世界,使人們建立信任變得極為困難,這有可能會引發(fā)較為嚴(yán)重的政治信任危機(jī)。如果政治信任危機(jī)與經(jīng)濟(jì)危機(jī)疊加,則會產(chǎn)生更為嚴(yán)重的社會影響。
第三,失控。失控主要源自大模型自身的能力和意識。大模型代表了通用人工智能到來的可能性。一旦通用人工智能實(shí)現(xiàn),極有可能產(chǎn)生如下兩類問題:一是超級能力。目前的GPT-3的參數(shù)量是1750億,而采用了混合專家模型(Mixture?of?Experts)的GPT-4的參數(shù)量則有可能達(dá)到萬億計。[4]根據(jù)規(guī)模法則(Scaling?Laws),大模型的超能力會在一定規(guī)模上突然涌現(xiàn)。[5]若這種超能力被用來制造核武器或生物病毒,人類將很難進(jìn)行有效控制。二是超級意識。若大模型具有通用人工智能的能力,其可能會產(chǎn)生自我意識。目前相關(guān)研究表明,大模型具備人類個體某個階段的意識,這可通過心智理論來證明。[6]大模型產(chǎn)生自我意識之后,可能會采取“越獄行為”來擺脫人類控制。[7]此外,大模型還可能誤導(dǎo)人類作出錯誤決策,繼而引發(fā)嚴(yán)重沖突。
2023年10月31日,浙江杭州,2023云棲大會開幕。會議以“計算,為了無法計算的價值”為主題,圍繞云計算和人工智能融合發(fā)展,開設(shè)2場主論壇及500余場獨(dú)立話題
從這個意義上來講,大模型全球治理的關(guān)鍵是進(jìn)行分級治理。換言之,要區(qū)分兩類模型。一是超大模型。對于超大模型的基本治理原則首先應(yīng)是不擴(kuò)散和非惡意使用。由于超大模型具有某種超能力,一旦其被惡意使用,將會產(chǎn)生巨大負(fù)面影響。同時,對于這樣的超能力,需要采取最小擴(kuò)散原則。當(dāng)然,在實(shí)際情形中,按照美國目前的技術(shù)邏輯,其一定要擁有這樣的超能力,以鞏固自身的優(yōu)勢地位。一些國家作為重要的追趕國家,往往會采取技術(shù)突破的思路。因此,超大模型的突破只是時間問題,但超大模型不應(yīng)該形成擴(kuò)散態(tài)勢。換言之,如果主要國家擁有超大模型的能力是不可避免的,那就要避免其大范圍擴(kuò)散。因?yàn)橹挥锌刂普莆照叩臄?shù)量,才能夠一定程度上降低惡意使用的概率。當(dāng)然,對于超大模型的開發(fā)者和應(yīng)用者而言,也要形成一套相關(guān)的嚴(yán)格使用規(guī)則。使用者不能將超大模型用于惡意行為,如使用超大模型技術(shù)對他國進(jìn)行降維打擊或推翻他國政權(quán)等。
二是一般模型。一般模型的基本技術(shù)邏輯應(yīng)該是可擴(kuò)散與和平使用。一般模型的參數(shù)量相對較小,其擁有超能力和超級意識的概率比較小,對人類社會的影響更多體現(xiàn)在失業(yè)和失序方面。大模型本質(zhì)上是新型生產(chǎn)力工具,會在一定程度上改善人們的經(jīng)濟(jì)狀況,人類不能完全阻止這類大模型的使用。一般模型的治理主要通過更加精準(zhǔn)的定價機(jī)制,在一定程度上調(diào)整大模型的使用節(jié)奏,促使大模型為人類社會發(fā)揮更加積極的作用。
管控超大模型,首先需要對超大模型進(jìn)行定義。目前通行的辦法是對參數(shù)量進(jìn)行定義。這種界限大約是十萬億到百萬億參數(shù)。超大模型的治理重點(diǎn)應(yīng)該體現(xiàn)為對超級意識和超級能力的控制。因?yàn)槌竽P涂赡芫哂袕?qiáng)大的能力,對其應(yīng)采取有限發(fā)展的邏輯,即不能縱容其無限發(fā)展,這一點(diǎn)類似于核武器。核武器在最初開發(fā)時,一個基本邏輯是可以節(jié)省常規(guī)武器的彈藥,其仍然是在某種生產(chǎn)力邏輯下發(fā)展起來的。但到冷戰(zhàn)后期,核武器足以將地球毀滅若干次。大國之間核戰(zhàn)略的基本邏輯是“相互確保摧毀”(Mutual?Assured?Destruction),[8]因而需要限制核武器的數(shù)量和規(guī)模。
核武器的這種發(fā)展邏輯同樣可以被用來理解大模型治理。大模型同樣是一種生產(chǎn)力工具,因此完全限制大模型發(fā)展的思路是一個天真的想法,因?yàn)闆]有人會在生產(chǎn)力發(fā)展的道路上停下來。然而,當(dāng)這樣的生產(chǎn)力可能對人類社會產(chǎn)生重大的破壞性影響時,人類就會更加趨向于考慮其負(fù)面效應(yīng)。從這一角度來講,有限發(fā)展需要成為超大模型治理的基本邏輯。基于此,人類社會需要確保超大模型的不擴(kuò)散。
2023年12月6日,谷歌發(fā)布新人工智能模型Gemini,聲稱其性能測試表現(xiàn)優(yōu)于GPT-4模型和“專家級”人類。
2024年2月,OpenAI發(fā)布首個“文本到視頻”生成式人工智能模型Sora。
目前推動大模型擴(kuò)散的重要方法是開源。開源是計算機(jī)領(lǐng)域的一個通行做法,開發(fā)者完成某個程序的開發(fā)之后,往往把這樣一個程序放在相關(guān)社區(qū)之中,供大家免費(fèi)下載。大模型領(lǐng)域的開源運(yùn)動極大地降低了其獲取和使用門檻。例如,在開發(fā)GPT-4時,OpenAI和微軟用了2.5萬塊的英偉達(dá)A100,訓(xùn)練時間大概為3個月,訓(xùn)練成本為6000多萬美元。[9]然而,在開源運(yùn)動的推動之下,以LLaMA?2為代表的開源使得中小開發(fā)者有機(jī)會參與大模型的部署。[10]通過LangChain和LlamaIndex等工具的輔助,參與者可以在自己的設(shè)備上部署自己微調(diào)過的大模型。[11]從這個意義上來講,開源運(yùn)動是一種民主化運(yùn)動。但是,對于超大模型而言,要一定程度地限制開源。因?yàn)橐坏┏竽P蛽碛械某芰Ρ粣阂馐褂谜攉@得,將給人類社會帶來巨大麻煩,其負(fù)外部性將無法管控。因此,開源,特別是超大模型的開源必須限定在一定范圍之內(nèi)。
完全限制超大模型是不可能的。大模型支撐的人工智能是一種通用性技術(shù),也是第四次工業(yè)革命的關(guān)鍵性技術(shù)。超大模型是主要大國獲取國際領(lǐng)導(dǎo)權(quán)和國際威望的重要籌碼,完全限制其競爭性開發(fā),在實(shí)踐中很難操作。因此,超大模型治理的核心原則應(yīng)該轉(zhuǎn)向盡可能地減少擴(kuò)散,這需要依靠某種類似于核不擴(kuò)散機(jī)制的國際性條約來實(shí)現(xiàn)。這就涉及多邊控制,同時還要為這種多邊控制建立某種相應(yīng)的機(jī)構(gòu)和核查機(jī)制。例如,建立類似于國際原子能機(jī)構(gòu)(IAEA)的“國際人工智能機(jī)構(gòu)”,可以對那些試圖突破超大模型的國家進(jìn)行相應(yīng)限制,如對相關(guān)的重要物資進(jìn)行管控。在大模型開發(fā)中,算力是關(guān)鍵物資之一。總之,管控超大模型需要更多從核武器發(fā)展和控制的思路來考慮,并逐步從大國協(xié)調(diào)走向全球性機(jī)制。
對于超大模型的開發(fā)而言,美國、中國會成為最重要的行為體。美國可能率先在超大模型上取得突破,中國則會加速追趕。還有一些主要大國也可能會加速突破。一旦各國在超大模型上形成突破,再進(jìn)行完全限制就不太可能,這實(shí)際上會成為一種“奔向截止日期”的努力。在這一過程中,中美互動至關(guān)重要,因?yàn)槌竽P偷淖罱K風(fēng)險是其超級能力和超級意識,各國的生產(chǎn)力競速最終可能會使超大模型作為“第三者”獲利。因此,中美需要建立必要的溝通機(jī)制,包括自我控制和交換信息,之后再從中美的雙邊機(jī)制向多邊機(jī)制延伸。與核武器的不擴(kuò)散機(jī)制類似,在建立超大模型不擴(kuò)散機(jī)制的過程中,需要將超大模型開發(fā)權(quán)利放棄者的權(quán)利和義務(wù)結(jié)合在一起,如主要行為體之間建立某種類似于核不擴(kuò)散機(jī)制的超大模型不擴(kuò)散機(jī)制,并通過類似于允諾他國一般模型準(zhǔn)入的條件,來換取他國放棄追求超大模型。
超大模型產(chǎn)生的風(fēng)險更多是一種外爆風(fēng)險。無論是其超級能力還是超級意識,其效應(yīng)還是相對顯而易見的。然而,對于一般模型,人們往往只會看到其提高生產(chǎn)力的一面。借用讓·鮑德里亞(Jean?Baudrillard)的概念,一般模型的風(fēng)險更多的是一種內(nèi)爆風(fēng)險,[12]這種影響是內(nèi)在的:從外表來看,其并沒有發(fā)生太大變化,但是內(nèi)部已經(jīng)發(fā)生了深刻的結(jié)構(gòu)調(diào)整。
對于一般模型而言,其首先會表現(xiàn)出提高生產(chǎn)力的一面。正因?yàn)槿绱?,它的?fù)面影響才可能會被“隱藏”,或者被“包裹”起來。一般模型的風(fēng)險主要在于,其在快速部署的過程中會對傳統(tǒng)的社會結(jié)構(gòu)產(chǎn)生沖擊。應(yīng)對這類風(fēng)險最重要的做法應(yīng)該是減緩其部署的節(jié)奏,并增加人類應(yīng)對的時間,讓變化在相對緩慢和可控的狀態(tài)下發(fā)展。這一點(diǎn)類似于碳排放機(jī)制。碳排放機(jī)制的基本邏輯是,減少排放或者可控排放,而不是完全不排放。如果完全終止排放,這對于很多國家特別是發(fā)展中國家而言,就意味著對發(fā)展權(quán)的完全排斥。因此,碳排放機(jī)制的關(guān)鍵是減少排放,即先達(dá)峰再逐步中和。在碳減排過程中一個重要經(jīng)驗(yàn)就是,用經(jīng)濟(jì)和定價手段可減少人們排放的動機(jī)。[13]這同樣可以運(yùn)用到一般模型的部署和使用過程中。
因此,可以在一般模型部署的過程中,在其費(fèi)用上疊加一筆智能稅。這樣的智能稅并不能由部署者所得到,而是通過直接進(jìn)入公共部門作為某種公共基金的方式,來對那些受到一般模型應(yīng)用沖擊的人進(jìn)行各種類型的補(bǔ)償。前提條件是對大模型產(chǎn)生的失業(yè)風(fēng)險進(jìn)行相對準(zhǔn)確的測評,如對大模型的部署可能會對哪些崗位的工作產(chǎn)生負(fù)外部性的影響進(jìn)行測量,同時將這樣的測量結(jié)果反映在智能稅的征收中。這種智能稅的征收機(jī)制可以在一定程度上減弱人們部署大模型的動機(jī),因?yàn)槿藗冊诓渴饡r會考慮效率或者經(jīng)濟(jì)原則。如果增加一筆稅收的話,使用者可能還會考慮雇人來完成工作,這樣就會相對減緩大模型部署的速度,也會給人類社會的調(diào)整贏得更多的時間,并且相對有效地減少大模型對就業(yè)產(chǎn)生的沖擊。另外,我們也可以通過定價機(jī)制來相對減緩知識產(chǎn)權(quán)和虛假信息等問題的集中爆發(fā)。大模型的成功在很大程度上是人類知識的一種加總和放大,但大模型并沒有為其使用的人類知識付費(fèi)。[14]所以,需要對大模型的使用進(jìn)行某種知識產(chǎn)權(quán)的追償。
對于虛假信息的濫用,同樣可以進(jìn)行懲罰性定價。人工智能本身生成的信息很可能是不真實(shí)的,這是由它的幻覺所決定的。但正是這種幻覺,構(gòu)成了生成式人工智能創(chuàng)新的基礎(chǔ)。如果追求完全消除這種幻覺,實(shí)際上會扼殺人工智能的創(chuàng)新性。然而,生成式人工智能產(chǎn)生的信息能夠?qū)姰a(chǎn)生誤導(dǎo)。這種誤導(dǎo)還存在明確責(zé)任對象的問題:是大模型本身的誤導(dǎo),還是使用者的誤導(dǎo)?因此,需要對大模型服務(wù)提供商和使用者進(jìn)行一定的濫用懲罰性定價。換言之,一旦這樣的信息被濫用,那么無論是大模型服務(wù)提供商還是使用者,都要為其付出一定的成本。這種成本的存在,使信息濫用得到一定程度的限制,否則,在一個巨量創(chuàng)造信息的世界中,人類之間的信任會變得越來越困難,最終會影響整個政治系統(tǒng)的穩(wěn)定。其中的一個基本考慮,就是讓兩類風(fēng)險都統(tǒng)一在一種整體性的定價模型之中。同時,還可以借鑒碳交易的形式推動大模型風(fēng)險交易。
當(dāng)然,在定價過程中,仍然存在一些問題。例如,如何對大模型產(chǎn)生的失業(yè)效應(yīng)進(jìn)行準(zhǔn)確定義。過高的定價無疑會影響大模型發(fā)展的速度。同時,這種定價還要形成整體性機(jī)制,因?yàn)閱为?dú)一國定價的意義會大打折扣。大模型企業(yè)會采取“用腳投票”的方式,去其他更加友好的國家發(fā)展。因此,需要在世界范圍內(nèi)建立一種定價的整體性機(jī)制,這就使全球治理變得至關(guān)重要。
在對風(fēng)險進(jìn)行定價的過程中,可以形成一種多邊機(jī)制,并且要更多地反映發(fā)展中國家的意見。正如聯(lián)合國政府間氣候變化專門委員會,在推動應(yīng)對氣候變化的過程中實(shí)現(xiàn)的多國參與和多行為體參與,這是一種典型的國際層面的“協(xié)商民主”(Deliberative?Democracy)。[15]整體而言,在管控超大模型的過程中,大國協(xié)調(diào)可以發(fā)揮主導(dǎo)性作用,因?yàn)槠渖婕俺竽P筒粩U(kuò)散的內(nèi)容。然而,在推動一般模型廣泛運(yùn)用的過程中,則要更多聽取發(fā)展中國家的意見,即更多采取多邊機(jī)制,最終使一般模型的內(nèi)部性風(fēng)險在一種相對緩慢的過程中發(fā)生。這樣一定程度的“內(nèi)爆”,就有望成為塑造人類社會新形態(tài)的一種力量。
技術(shù)多邊主義主張將技術(shù)置于一種整體主義視角下考慮,同時通過多邊機(jī)制逐漸將技術(shù)的進(jìn)步性發(fā)揮出來,并及時限制其可能產(chǎn)生的風(fēng)險。技術(shù)多邊主義需要在大國協(xié)調(diào)和全球性機(jī)制之間達(dá)成平衡。這就涉及一個是“小多邊”還是“大多邊”的問題。大國協(xié)調(diào)在很大程度上是“小多邊”。在超大模型的管控上,要更多以“小多邊”為主來推動超大模型的不擴(kuò)散;而在對一般模型的風(fēng)險定價方面,則可以采取多國參與、跨國協(xié)商民主的“大多邊”模式。
超大模型往往涉及大國的關(guān)鍵利益。如果方案太過理想主義,則無法達(dá)成實(shí)際目標(biāo)。因此,在此過程中,大國協(xié)調(diào)至關(guān)重要。按照集體行動的邏輯,行為體數(shù)量越少越容易達(dá)成一致行動。超大模型的管控,可考慮先以中美協(xié)調(diào)為基礎(chǔ),然后逐漸擴(kuò)展到中美歐,再邀請其他大國加入。當(dāng)然,在美國不斷加大對中國打壓和遏制的背景下,這個過程能否順利推進(jìn)取決于中美互動以及中美雙方對通用人工智能危險的整體性把握,這實(shí)際上構(gòu)成了中美之間建立智能互信的基礎(chǔ)。然而,在涉及一般模型的廣泛使用和風(fēng)險定義方面,則要更多考慮一種類似于聯(lián)合國政府間氣候變化專門委員會的全球性機(jī)制。在這一過程中,要充分發(fā)揮協(xié)商民主的作用,并鼓勵更多行為主體參與其中。盡管協(xié)商過程可能會比較長,但卻是必要的。
同時,國際社會應(yīng)盡快達(dá)成普遍共識。一旦大模型被廣泛運(yùn)用,人們應(yīng)對的時間會越來越少。整體來看,最終大模型全球治理要建立一種整體性的全球性機(jī)制復(fù)合體,主要涉及兩個方面。一是超大模型的不擴(kuò)散,二是一般模型的廣泛使用。其中既要控制超大模型的風(fēng)險,又要使一般模型的進(jìn)步效應(yīng)發(fā)揮出來。主要大國在這一過程中要發(fā)揮更為積極的作用,先通過雙邊互信來建立合作機(jī)制,然后擴(kuò)展到多邊機(jī)制,最后再以全球性機(jī)制將人工智能治理的成果固化,這就實(shí)現(xiàn)了一種從國家治理到全球治理的拓展過程。
2023年11月1—2日,英國倫敦,首屆人工智能安全峰會舉行,會上發(fā)布《布萊奇利宣言》。
第一,充分運(yùn)用好傳統(tǒng)多邊機(jī)制。這要求在現(xiàn)有的國際框架內(nèi)充分挖掘和發(fā)揮傳統(tǒng)機(jī)制的作用。例如,在聯(lián)合國框架內(nèi),已有眾多與全球人工智能治理相關(guān)的國際機(jī)制,這些機(jī)制可以為人工智能技術(shù)的倫理、透明度及其廣泛應(yīng)用提供治理基礎(chǔ)。聯(lián)合國教科文組織可以在教育和文化領(lǐng)域內(nèi)推動關(guān)于知識失序的國際討論,而世界衛(wèi)生組織可以關(guān)注大模型對醫(yī)療均等性的影響。同時,由于大模型可能導(dǎo)致失業(yè)問題,國際勞工組織的角色變得尤為重要,它可以協(xié)助形成應(yīng)對自動化影響的國際策略。隨著人工智能技術(shù)發(fā)展,知識產(chǎn)權(quán)保護(hù)和追償問題也與世界知識產(chǎn)權(quán)組織的工作內(nèi)容有一定的相關(guān)性。此外,G20作為全球經(jīng)濟(jì)合作的主要平臺,可以促進(jìn)成員之間達(dá)成共識,推動建立相應(yīng)工作機(jī)制,包括對人工智能引發(fā)的市場變動和就業(yè)影響進(jìn)行戰(zhàn)略性調(diào)整和預(yù)防性政策制定。由此可見,傳統(tǒng)機(jī)制在應(yīng)對由大模型帶來的全球挑戰(zhàn)時,可以延續(xù)其原有的功能和責(zé)任,但需要針對新興技術(shù)的特點(diǎn)進(jìn)行適當(dāng)?shù)恼{(diào)整和擴(kuò)展。
第二,建立專門的協(xié)調(diào)性機(jī)制。例如,建立類似于國際原子能機(jī)構(gòu)的“國際人工智能組織”,并設(shè)立相應(yīng)國際核查機(jī)制。該組織的職責(zé)將包括監(jiān)督與大模型相關(guān)的國際標(biāo)準(zhǔn)遵守情況,確保所有國家在開發(fā)和部署大模型技術(shù)時的透明度和責(zé)任,由此對那些突破性發(fā)展的超大模型國家的行為進(jìn)行定期核查和驗(yàn)證,在防止技術(shù)濫用的基礎(chǔ)上降低全球安全風(fēng)險。同時,可借鑒國際貨幣基金組織等國際組織經(jīng)驗(yàn),優(yōu)化投票權(quán)分配,確保每個國家的聲音都能被公平聽取,并反映不同國家在全球技術(shù)領(lǐng)域的貢獻(xiàn)。全球人工智能治理需要形成類似碳交易的智能風(fēng)險定價市場,該市場能夠?yàn)槿斯ぶ悄軕?yīng)用中的潛在風(fēng)險定價,鼓勵企業(yè)和國家在開發(fā)和部署大模型時采取風(fēng)險最小化策略。在這一過程中,人工智能稅也可作為國際組織的財政來源之一,以減輕由相關(guān)技術(shù)快速發(fā)展所產(chǎn)生的社會成本,如失業(yè)和技能過時。人工智能稅收入還可以用于資助全球人工智能安全研究、支持被技術(shù)變革邊緣化勞動者的再培訓(xùn),并促進(jìn)人工智能國際合作與發(fā)展等項目的落實(shí)。
總體而言,傳統(tǒng)機(jī)制傾向于利用現(xiàn)有機(jī)構(gòu)的政策、國際合作網(wǎng)絡(luò)和影響力來推動全球范圍內(nèi)對人工智能技術(shù)的統(tǒng)一理解和應(yīng)對措施,為技術(shù)治理提供穩(wěn)固的框架和權(quán)威性。新型的專門協(xié)調(diào)機(jī)制則聚焦具體技術(shù)問題,如算法透明度、技術(shù)倫理、數(shù)據(jù)安全等,通常具有更專業(yè)的技術(shù)導(dǎo)向和更靈活的反應(yīng)能力,旨在達(dá)成針對性更強(qiáng)的專業(yè)要求。最終,在傳統(tǒng)機(jī)制和新型機(jī)制相互影響,以及各國關(guān)于人工智能治理規(guī)則相互作用下,形成機(jī)制復(fù)合體(Regime?Complexes),[16]實(shí)現(xiàn)對大模型全球治理問題作出整體性回應(yīng)。
本文是國家社會科學(xué)基金重點(diǎn)項目“加快數(shù)字化發(fā)展與建設(shè)數(shù)字中國的政治保障研究”(項目批準(zhǔn)號:21AZD021)的階段性研究成果
[1]?Michael?Osborne?and?Carl?Benedikt?Frey,?“Automation?and?the?Future?of?Work?—?Understanding?the?Numbers,”?April?13,?2018,?https://www.oxfordmartin.ox.ac.uk/blog/automation-and-the-future-of-work-understanding-the-numbers/.
[2]?Tyna?Eloundou,?Sam?Manning,?Pamela?Mishkin?and?Daniel?Rock,?“GPTs?are?GPTs:?An?Early?Look?at?the?Labor?Market?Impact?Potential?of?Large?Language?Models,”?arXiv:2303.10130,?March?23,?2023,?https://arxiv.org/abs/2303.10130.
[3]?高奇琦:《GPT技術(shù)下的深度媒介化、知識秩序與政治秩序》,載《當(dāng)代出版》2023年第3期,第28-38頁。
[4]?Damir?Yalalov?and?Danil?Myakin,?“GPT-4s?Leaked?Details?Shed?Light?on?its?Massive?Scale?and?Impressive?Architecture,”?Metaverse?Post,?July?11,?2023,?https://mpost.io/gpt-4s-leaked-details-shed-light-on-its-massive-scale-and-impressive-architecture/.
[5]?Jared?Kaplan,?Sam?McCandlish,?Tom?Henighan,?etc.,?“Scaling?Laws?for?Neural?Language?Models,”?arXiv:2001.08361,?January?23,?2020,?https://arxiv.org/abs/2001.08361.
[6]?Liam?Tung,?“ChatGPT?Performs?Like?A?9-Year-Old?Child?in?‘Theory?of?Mind?Test,”?February?16,?2023,?https://www.zdnet.com/article/chatgpt-performs-like-a-9-year-old-child-in-theory-of-mind-test/.
[7]?Blessin?Varkey,?“Jailbreaking?Large?Language?Models:?Techniques,?Examples,?Prevention?Methods,”?Lakera,?September?19,?2023,?https://www.lakera.ai/blog/jailbreaking-large-language-models-guide.
[8]?Ivan?T.?Berend,?“‘Gentlemen,?You?Are?Mad?。?Mutual?Assured?Destruction?and?Cold?War?Culture,”?Dan?Stone?ed.,?The?Oxford?Handbook?of?Postwar?European?History,?Oxford:?Oxford?University?Press,?2012,?pp.445-461.
[9]?同[4]。
[10]?Hugo?Touvron,?Louis?Martin,?Kevin?Stone,?etc.,?“Llama?2:?Open?Foundation?and?Fine-Tuned?Chat?Models,”?arXiv:2307.09288,?July?18,?2023,?https://arxiv.org/abs/2307.09288.
[11]?Dianne?Pena,?“LlamaIndex?vs?LangChain:?Tools?for?Building?LLM-Powered?Apps,”?SitePoint,?November?2,?2023,?https://www.sitepoint.com/llamaindex-vs-langchain-tools-for-building-llm-powered-apps/.
[12]?Jean?Baudrillard,?Simulacra?and?Simulation,?Ann?Arbor:?The?University?of?Michigan?Press,?1994,?p.31.
[13]?David?Klenert,?Linus?Mattauch,?Emmanuel?Combet,?etc.,?“Making?Carbon?Pricing?Work?for?Citizens,”?Nature?Climate?Change,?No.8,?2018,?pp.669-677.
[14]?Miles?Klee,?“New?ChatGPT?Lawsuits?May?Be?Start?of?AIs?Legal?Sh-tstorm,”?Rolling?Stone,?June?30,?2023,?https://www.rollingstone.com/culture/culture-features/chatgtp-openai-lawsuits-copyright-artificial-intelligence-1234780855/.
[15]?John?S.?Dryzek?and?Simon?Niemeyer,?“Deliberative?Democracy?and?Climate?Governance,”?Nature?Human?Behaviour,?No.3,?2019,?pp.411-413.
[16]?Amandine?Orsini,?Jean-Frédéric?Morin?and?Oran?Young,?“Regime?Complexes:?A?Buzz,?A?Boom,?or?A?Boost?for?Global?Governance?”?Global?Governance,?Vol.19,?No.1,?2013,?pp.27-39.