甘鈞先
(浙江大學(xué) 馬克思主義學(xué)院,浙江 杭州 310058)
意圖是理解人類威脅的關(guān)鍵。根據(jù)意圖的強(qiáng)弱,人類安全威脅可以分為:無意圖威脅、弱意圖威脅和強(qiáng)意圖威脅。無意圖威脅主要包括環(huán)境災(zāi)難,如地震、海嘯、颶風(fēng)等,它們具有破壞性,但本身沒有表現(xiàn)出任何的意圖。弱意圖威脅主要包括特定動(dòng)物和病菌帶來的威脅,它們具有主動(dòng)攻擊人類的特性,但其意圖是一種生物學(xué)設(shè)定,表現(xiàn)為生存本能。強(qiáng)意圖威脅主要指人類自身的威脅,即人類個(gè)體或群體之間的相互威脅,比如不同民族、國(guó)家或文明之間的安全挑戰(zhàn)。
人類彼此的安全威脅是一種強(qiáng)意圖威脅。人類內(nèi)部敵意不僅與民族或國(guó)家生存有關(guān),也與權(quán)力、利益爭(zhēng)奪和觀念分歧相關(guān)。人類內(nèi)部敵意主要表現(xiàn)為主動(dòng)的敵意,并且不像某些生物攻擊人類的威脅一樣無法避免。人類可以心存善意,選擇合作、協(xié)調(diào)和包容,但某些族群或國(guó)家為了更大的利益,選擇排斥、打壓其他群體,從而構(gòu)成彼此的威脅。人類大多數(shù)安全困境,都是因?yàn)樵诮煌^程中產(chǎn)生敵意而引發(fā)的。
技術(shù)與敵意的結(jié)合強(qiáng)化了人類安全困境。技術(shù)是中性的,其本身并不具有威脅屬性,只有當(dāng)它與人類意圖結(jié)合在一起時(shí),才會(huì)表現(xiàn)出安全內(nèi)涵、表現(xiàn)出善惡。當(dāng)人類使用技術(shù)作為攻擊性武器時(shí),技術(shù)的惡就會(huì)展現(xiàn)出來。當(dāng)人類使用技術(shù)增進(jìn)人類福祉時(shí),技術(shù)的善就會(huì)表達(dá)出來。技術(shù)進(jìn)步是人類文明的重要成果,它提高了人類面對(duì)自然環(huán)境威脅的能力,但也會(huì)引起人類內(nèi)部對(duì)安全的憂慮,比如核能技術(shù)的運(yùn)用。技術(shù)本身并沒有任何意圖,它只是人類意圖的承載者。人工智能出現(xiàn)之前,人類所有技術(shù)都遵循這個(gè)邏輯。
人工智能是一項(xiàng)劃時(shí)代的技術(shù),它的出現(xiàn)改變了技術(shù)載體與意圖的關(guān)系。根據(jù)歷史經(jīng)驗(yàn),當(dāng)人類停止使用技術(shù)載體作為武器時(shí),技術(shù)載體就同時(shí)失去了意圖。只有人類和技術(shù)載體結(jié)合時(shí),技術(shù)載體才會(huì)顯示出意圖,但是人工智能改變了技術(shù)的中性特征。人工智能的目標(biāo)是讓機(jī)器擁有智能,也就是賦予機(jī)器以意圖。當(dāng)機(jī)器擁有類似于人類的意圖之后,人類即使改變了自己的意圖,或者終止了對(duì)機(jī)器的使用,人類意圖依然可以繼續(xù)存在于機(jī)器之中。人工智能可以將人類意圖延續(xù)下去,相當(dāng)于人類意圖在機(jī)器上實(shí)現(xiàn)了孿生,它并不需要機(jī)器進(jìn)化出“類人”生命意識(shí)就能夠?qū)崿F(xiàn)。本文將此現(xiàn)象視為人工智能的意圖孿生。
按照智能化水平,人工智能可以分為三個(gè)階段。第一階段是初級(jí)人工智能,機(jī)器依然被人類操控,被動(dòng)執(zhí)行人類給出的任務(wù)。第二階段是中級(jí)人工智能,機(jī)器被設(shè)定為脫離了人類控制之后依然可以自主執(zhí)行任務(wù)的自動(dòng)系統(tǒng)。中級(jí)人工智能具有一定程度上的環(huán)境適應(yīng)性,而不再是基于人類的程序設(shè)定,基本上實(shí)現(xiàn)了意圖孿生。第三階段是高級(jí)人工智能,擁有類似于人類的生命意識(shí),能夠擺脫人類的設(shè)定自主開展行動(dòng)。當(dāng)前,人工智能的發(fā)展水平仍然處于第一階段,它們是可以承載人類的意圖,但無法自主思考、自主選擇的機(jī)器,當(dāng)人類終止意圖或斷開電源時(shí),它們就不再執(zhí)行人類意圖。
人工智能在每一個(gè)發(fā)展階段都具有不同等級(jí)的風(fēng)險(xiǎn)。第一階段人工智能的風(fēng)險(xiǎn)在于,由于算法的不成熟或系統(tǒng)缺陷,它們可能錯(cuò)誤地執(zhí)行人類意圖從而帶來不可預(yù)期的災(zāi)難。第二階段人工智能可以基于神經(jīng)網(wǎng)絡(luò)在環(huán)境互動(dòng)中自主作出選擇,人類意圖通過智能機(jī)器得到持續(xù)執(zhí)行。它的風(fēng)險(xiǎn)在于,人類意圖復(fù)制或?qū)\生到機(jī)器上,這意味著人類可能失去對(duì)機(jī)器的控制。第三階段人工智能的風(fēng)險(xiǎn)在于,它最具威脅性,也最難實(shí)現(xiàn)對(duì)其的控制。它們擁有一定的自我意識(shí),也就是擁有了專屬機(jī)器的自我意圖。
當(dāng)前,神經(jīng)網(wǎng)絡(luò)技術(shù)的進(jìn)展顯示,人工智能也許很難獲得生命意識(shí),但很可能實(shí)現(xiàn)意圖孿生。人類生命意識(shí)的基礎(chǔ)是對(duì)世界的感受,而感受來自神經(jīng)元。人類感受是獨(dú)特的、相對(duì)的,它以每個(gè)人的神經(jīng)元系統(tǒng)為中介,集中表現(xiàn)為各類情感。人類情感(比如,饑餓、恐懼、喜悅、好奇等)是人類意圖或生命活動(dòng)的原始動(dòng)力。但與人類情感不同,人類思維并不直接建立在感受性之上,它是理性和邏輯的表達(dá),大腦的計(jì)算和推理在很大程度上并不依賴于情感。由于缺乏神經(jīng)元對(duì)世界的感受,意識(shí)和情感幾乎不可能被復(fù)制到機(jī)器系統(tǒng)上。但人類意圖跟人類情感不同,它的實(shí)現(xiàn)更多地受制于人類理性計(jì)算。人類意圖跟人類感受和理性的關(guān)系是:人類感受激發(fā)或驅(qū)動(dòng)人類的意圖,而人類理性策劃實(shí)現(xiàn)人類意圖的程序。因此,人類意圖的本質(zhì)是程序,實(shí)現(xiàn)人類意圖的過程是算法,它可以被復(fù)制或?qū)\生到機(jī)器上。讓機(jī)器產(chǎn)生意識(shí),如同讓機(jī)器獲得對(duì)世界的感受,目前看來幾乎很難實(shí)現(xiàn),但讓機(jī)器產(chǎn)生并實(shí)現(xiàn)意圖,如同讓機(jī)器進(jìn)行運(yùn)算活動(dòng),這在技術(shù)層面上是能夠?qū)崿F(xiàn)的。人類依靠自身意識(shí)對(duì)機(jī)器進(jìn)行原始的推動(dòng),賦予機(jī)器以人類意圖,即程序設(shè)計(jì),然后讓機(jī)器自動(dòng)執(zhí)行程序。這個(gè)過程就是人類意圖在機(jī)器上的孿生過程。
通過讓機(jī)器完全自主行動(dòng),人類意圖實(shí)現(xiàn)了延展。對(duì)第一階段人工智能來說,它們不具有或具有很弱的環(huán)境適應(yīng)性,無法對(duì)環(huán)境進(jìn)行即時(shí)回應(yīng),必須依靠人類進(jìn)行判斷,因而不具有主動(dòng)性。如,在軍事博弈中,它們無法自我選擇防守還是進(jìn)攻。對(duì)第二階段擁有孿生意圖的人工智能來說,它們可以依據(jù)內(nèi)置神經(jīng)網(wǎng)絡(luò)自動(dòng)識(shí)別、追蹤目標(biāo),自動(dòng)發(fā)起攻擊。一旦人工智能擁有孿生意圖之后,就意味著它們?cè)谝欢ǔ潭壬厦撾x了人類控制。意圖被賦予到機(jī)器上,即便人類放棄了意圖,但機(jī)器仍然可以繼續(xù)執(zhí)行先前的意圖。當(dāng)人工智能發(fā)展到這個(gè)階段之時(shí),就達(dá)到了庫茲韋爾和博斯特羅姆提出的“技術(shù)奇點(diǎn)”[1]。
任何一種實(shí)現(xiàn)了意圖孿生的武器系統(tǒng),當(dāng)它們自主激活、自主進(jìn)攻時(shí),被進(jìn)攻方都可能無法判斷威脅來源,從而導(dǎo)致混亂的攻擊和人類外交的失敗[2]。從人工智能的技術(shù)發(fā)展來看,盡管第三階段人工智能還不構(gòu)成現(xiàn)實(shí)威脅,但第二階段人工智能的威脅卻近在咫尺,尤其在軍事領(lǐng)域,無人武器的智能化程度正在得到不斷提升。正如非政府組織“禁止殺手機(jī)器人運(yùn)動(dòng)”所宣稱的,人類“正在逐步接近由機(jī)器決定殺死誰”。被譽(yù)為人工智能之父的杰弗里 ? 辛頓認(rèn)為,人類未來需要擔(dān)心的不是機(jī)器的智能化提升,而是殺手機(jī)器人[3]。辛頓的話表明,威脅人類的不是機(jī)器不斷提升的意識(shí),而是它們的意圖,尤其是人類孿生在它們身上的可實(shí)現(xiàn)的意圖。
人類意圖和孿生在機(jī)器上的意圖存在著本質(zhì)區(qū)別。人類意圖,無論是善意的還是敵意的,都基于人類對(duì)社會(huì)和自我的理解,它們會(huì)在社會(huì)互動(dòng)中不斷改變。比如,在世界近現(xiàn)代史中,英法德之間的善意和敵意經(jīng)過數(shù)次轉(zhuǎn)換。但人工智能并不是社會(huì)存在物,它們沒在社會(huì)環(huán)境之中,它們不理解善意與敵意的根源和意義,它們的意圖是程序的設(shè)定。無論是人類意識(shí)還是意圖,都指向外部實(shí)在的萬物,人類意識(shí)是對(duì)萬物的意識(shí),人類意圖也是對(duì)萬物的意圖。它們的根基是人類基于神經(jīng)元之上的對(duì)世界萬物的感受性。人類的價(jià)值觀、交互理解、意義領(lǐng)悟、生命覺醒、共情等都建立在人類對(duì)萬物的感受基礎(chǔ)之上。因此,人類智能是一種生命感受型智能,而人工智能本質(zhì)上是一種數(shù)據(jù)處理型智能。人工智能處理的是符號(hào)世界,即萬物的表征,而非外部實(shí)在的萬物。
人類意圖之所以能夠?qū)崿F(xiàn)轉(zhuǎn)變,是因?yàn)槿祟惸軌蚋惺艿綄?duì)方的意圖轉(zhuǎn)變或?qū)Ψ降那楦校鐐椿蚩謶值?,也因?yàn)槿祟惸軌驈纳X醒中重新審視原有意圖的價(jià)值。而孿生在機(jī)器上的意圖則沒有任何感受性,也就無法在萬物變化的過程中重置意圖。人類在經(jīng)歷了傷痛之后會(huì)改變意圖,比如,兩次世界大戰(zhàn)之后的歐洲改變了互為敵人的沖突狀態(tài)。人類意圖可以在對(duì)社會(huì)價(jià)值和生命意義的學(xué)習(xí)過程中得到動(dòng)態(tài)調(diào)整,但人工智能的學(xué)習(xí)只是數(shù)據(jù)處理、算力增強(qiáng)、算法提升等,無法實(shí)現(xiàn)價(jià)值和意義的重塑,因而無法實(shí)現(xiàn)從敵意到善意的意圖轉(zhuǎn)換。人類的意圖轉(zhuǎn)換是人類獲得和平的關(guān)鍵。盡管民用人工智能可以為人類社會(huì)帶來解放性的生產(chǎn)力,但軍用人工智能卻天然地具有惡意,孿生在武器上的人類意圖幫助人工智能武器維持了人類敵意。從這個(gè)角度來看,人工智能武器具有設(shè)計(jì)程序上的原罪。
人工智能的意圖孿生現(xiàn)象正在發(fā)生。一方面,從技術(shù)轉(zhuǎn)型來看,智能化是人類科技的未來趨勢(shì)。人類技術(shù)經(jīng)歷了石器、青銅器、鐵器和機(jī)器時(shí)代。人類科技進(jìn)步的核心邏輯是:人類繁瑣的生產(chǎn)活動(dòng)不斷地由工具輔助或交給工具來完成,提高生產(chǎn)效率的同時(shí),把人類自身從生產(chǎn)活動(dòng)中解放出來。迄今為止,人類的交通工具、通信工具和日常用具等大多實(shí)現(xiàn)了機(jī)械化。智能化是人類科技進(jìn)步的趨勢(shì),即人類讓機(jī)器直接從事人類不愿意從事的生產(chǎn)活動(dòng),尤其是危險(xiǎn)性系數(shù)很高的活動(dòng)。技術(shù)的演進(jìn)邏輯決定了人類必然發(fā)展全自主機(jī)器來代替人工勞動(dòng)。另一方面,從技術(shù)的迭代進(jìn)程來看,只有賦予機(jī)器以人類意圖,才能在更大程度上解放人類,因而全自主機(jī)器成為當(dāng)前人工智能的主要努力方向。人類無窮盡的創(chuàng)新渴望,使得技術(shù)本身看起來仿佛是有生命的。人工智能最初看起來并非革命性的技術(shù),但它具有進(jìn)化性[4],它能進(jìn)化出讓人驚嘆的模樣。當(dāng)前,生成式人工智能已經(jīng)可以自主生成圖像和文本,可以進(jìn)行人機(jī)對(duì)話,而“生產(chǎn)的深處指向創(chuàng)造”[5],即未來人工智能可以根據(jù)環(huán)境自主作出判斷和選擇。2023年8 月,馬斯克開發(fā)的FSD Beta V12 自動(dòng)駕駛系統(tǒng)可以依據(jù)神經(jīng)網(wǎng)絡(luò)對(duì)交通環(huán)境獨(dú)立作出創(chuàng)造性回應(yīng),擺脫了以前的程序設(shè)定和固定場(chǎng)景模擬。人工智能的孿生意圖隱藏在機(jī)器系統(tǒng)表達(dá)的自主性之中。隨著機(jī)器神經(jīng)網(wǎng)絡(luò)適應(yīng)性和自主性的增強(qiáng),人工智能的意圖孿生將會(huì)變成現(xiàn)實(shí)。
軍事活動(dòng)是人類意圖表現(xiàn)最為明確的領(lǐng)域,也是人類惡意最為集中的領(lǐng)域。人工智能軍事化,尤其是致命性全自主武器的開發(fā),恰恰是把最危險(xiǎn)的人類意圖孿生到機(jī)器上的人類實(shí)踐,因而給人類帶來的風(fēng)險(xiǎn)也最為緊迫。隨著Chat-GPT 的問世,越來越先進(jìn)的自然語言處理技術(shù)、圖像處理技術(shù)和人機(jī)互動(dòng)模型,以及越來越強(qiáng)大的算力平臺(tái)和算法優(yōu)化,使得人工智能從人機(jī)交互不斷向機(jī)器自主發(fā)展。當(dāng)機(jī)器獲得了一定程度的環(huán)境適應(yīng)性,人工智能就獲得了類似于人類的意圖或意向性。盡管這種意圖是人類構(gòu)建的,但它可以在無人的情況下繼續(xù)發(fā)揮主動(dòng)性,自主激發(fā)攻擊程序。一旦到達(dá)此臨界點(diǎn),即便人工智能永遠(yuǎn)無法獲得生命意識(shí),但馬斯克所預(yù)言的“人工智能魔鬼”就會(huì)被喚醒。
人類重大技術(shù)進(jìn)步常常被用于增進(jìn)軍事實(shí)力。獲取先進(jìn)技術(shù)及技術(shù)軍事化運(yùn)用是人類競(jìng)爭(zhēng)的重要?jiǎng)恿捅憩F(xiàn)形態(tài)。如,軍艦是輪船的軍事化運(yùn)用、戰(zhàn)車是汽車的軍事化運(yùn)用、戰(zhàn)斗機(jī)是飛機(jī)的軍事化運(yùn)用。同樣,增進(jìn)人類福利、把人類從繁重勞動(dòng)中解放出來的人工智能也會(huì)經(jīng)歷相應(yīng)的軍事化過程。人工智能正在為全球主要大國(guó)的海陸空多個(gè)作戰(zhàn)領(lǐng)域的武器賦能。這是否會(huì)帶來重大風(fēng)險(xiǎn),取決于國(guó)家之間的意圖,以及人工智能武器的意圖孿生程度。
近年來,全球主要大國(guó)都開始規(guī)劃本國(guó)的人工智能發(fā)展戰(zhàn)略,并迅速推進(jìn)其軍事化應(yīng)用。美國(guó)是推動(dòng)人工智能軍事化最早也最激進(jìn)的國(guó)家,同時(shí)也是在該領(lǐng)域擁有最強(qiáng)實(shí)力的國(guó)家。2015 年,美國(guó)國(guó)防部實(shí)施“第三次抵消戰(zhàn)略”,將人工智能與軍事創(chuàng)新相結(jié)合,以此繼續(xù)維持美國(guó)的全球霸權(quán)地位[6]。2016 年,美國(guó)國(guó)防部發(fā)布《為人工智能的未來做好準(zhǔn)備》和《國(guó)家人工智能研發(fā)戰(zhàn)略規(guī)劃》,積極推動(dòng)自主武器和半自主武器的研發(fā)。2017 年,美國(guó)國(guó)防部提出“算法戰(zhàn)”,并成立了“算法戰(zhàn)跨職能小組”[7]。2018 年,美國(guó)國(guó)防部發(fā)布《無人系統(tǒng)綜合路線圖2017-2042》,聚焦人機(jī)協(xié)作、互操作性及自主性,大力提升無人作戰(zhàn)平臺(tái)能力[8]。2019 年2月,美國(guó)國(guó)防部發(fā)布《2018 國(guó)防部人工智能戰(zhàn)略概要:利用人工智能促進(jìn)安全與繁榮》,提出通過產(chǎn)學(xué)研結(jié)合、與國(guó)際伙伴共同技術(shù)研發(fā)等方式提高美國(guó)人工智能軍事化水平[9]。2021 年6 月,美國(guó)國(guó)防部副部長(zhǎng)希克斯宣布推動(dòng)人工智能和數(shù)據(jù)加速計(jì)劃,推動(dòng)實(shí)現(xiàn)以人工智能為基礎(chǔ)的作戰(zhàn)模式“聯(lián)合全域指揮和控制”[10]。2018 年以來,美國(guó)海軍大力推動(dòng)“海上幽靈艦隊(duì)霸主”計(jì)劃,多次在太平洋軍事演習(xí)中使用無人艦艇。2023 年9 月,美國(guó)兩艘“幽靈艦隊(duì)”的無人艦艇“水手”號(hào)、“游騎兵”號(hào)出現(xiàn)在日本的橫須賀基地。美國(guó)使用無人武器系統(tǒng)的目標(biāo)是貫徹美軍的分布式作戰(zhàn)理念,試圖在海上以最小代價(jià)損害其他國(guó)家的海洋權(quán)益。
俄羅斯也是推動(dòng)人工智能軍事化的主要大國(guó)。針對(duì)美國(guó)的“第三次抵消戰(zhàn)略”,俄羅斯國(guó)防部制定了《2025 年先進(jìn)軍用機(jī)器人技術(shù)裝備研發(fā)專項(xiàng)綜合計(jì)劃》,提出了人工智能與軍事運(yùn)用的路線圖[11]。2016 年,俄羅斯政府發(fā)布《2025年前發(fā)展軍事科學(xué)綜合體構(gòu)想》,將無人自主技術(shù)作為俄羅斯軍事創(chuàng)新的重點(diǎn)。2019 年,俄羅斯政府制定《俄羅斯2030 年前國(guó)家人工智能發(fā)展戰(zhàn)略》,將人工智能武器裝備作為優(yōu)先發(fā)展事項(xiàng)之一[12]。俄羅斯的軍用人工智能戰(zhàn)略非常重視戰(zhàn)斗機(jī)器人。普京曾指出,“戰(zhàn)斗機(jī)器人系統(tǒng)可以從根本上改變俄羅斯軍隊(duì)的運(yùn)作方式。”[13]當(dāng)前,俄羅斯正大力研制“阿爾戈”“鈾-9”等陸戰(zhàn)機(jī)器人部隊(duì)和納米機(jī)器人系統(tǒng),以及“維塔茲”無人艦艇和“波塞冬”無人潛艇等[14]。俄烏沖突期間,俄羅斯更為重視無人機(jī)的使用,“牽牛星”“獵戶座”等無人機(jī)系統(tǒng)在戰(zhàn)場(chǎng)上得到了大規(guī)模的實(shí)踐和運(yùn)用。
英法日等大國(guó)也在積極推動(dòng)人工智能的軍事化運(yùn)用。2019 年1 月,英國(guó)國(guó)防部發(fā)布《國(guó)防領(lǐng)域信息技術(shù)變革計(jì)劃》,開始推動(dòng)人工智能在軍事領(lǐng)域的運(yùn)用。2022 年6 月,英國(guó)國(guó)防部發(fā)布《國(guó)防人工智能戰(zhàn)略》,為推動(dòng)該戰(zhàn)略的實(shí)施,英國(guó)國(guó)防科學(xué)技術(shù)實(shí)驗(yàn)室與人工智能研究院艾倫 ? 圖靈研究所等機(jī)構(gòu)聯(lián)合成立國(guó)防人工智能研究中心。2018 年3 月,法國(guó)國(guó)防部成立創(chuàng)新防務(wù)實(shí)驗(yàn)室,發(fā)布《戰(zhàn)斗機(jī)人機(jī)編組計(jì)劃》,開始利用人工智能集成更新武器系統(tǒng),并在其人工智能規(guī)劃中增加1 億歐元用于未來武器的創(chuàng)新研發(fā)[15]。2016 年,日本發(fā)布《防衛(wèi)技術(shù)戰(zhàn)略》,明確提出將人工智能技術(shù)與軍事創(chuàng)新結(jié)合起來,表達(dá)了其借助智能科技實(shí)現(xiàn)軍事力量跨越的野心[16]。
當(dāng)前,各國(guó)人工智能軍事化的主要目標(biāo)是發(fā)展各類無人系統(tǒng),如無人機(jī)、無人艦船、無人潛艇、無人航母等打擊平臺(tái)。一些代表性的無人作戰(zhàn)系統(tǒng)包括美國(guó)的RQ-4“全球鷹”戰(zhàn)略無人機(jī)和無人艦艇“海上獵手”、俄羅斯的“阿爾戈”陸戰(zhàn)機(jī)器人和“波塞冬”無人潛艇等。主要大國(guó)競(jìng)相推動(dòng)的人工智能軍事化戰(zhàn)略,正在構(gòu)成一場(chǎng)人工智能的軍備競(jìng)賽。美國(guó)國(guó)防部海軍部副部長(zhǎng)羅伯特 ? 沃克指出,一旦美國(guó)的競(jìng)爭(zhēng)對(duì)手將自主性賦予機(jī)器系統(tǒng),那么美國(guó)也將不得不采用對(duì)等的發(fā)展策略[17]。但是,一旦美國(guó)越來越激進(jìn)地發(fā)展人工智能武器,強(qiáng)化軍事霸權(quán),其他大國(guó)也不得不參與這場(chǎng)競(jìng)賽。人工智能軍備競(jìng)賽使得意圖孿生加速實(shí)現(xiàn),進(jìn)而給人類帶來真正的重大風(fēng)險(xiǎn)。
第一,人工智能軍事化將打破當(dāng)前的軍事平衡,不僅激發(fā)當(dāng)前大國(guó)之間的人工智能軍備競(jìng)賽,而且刺激小國(guó)將人工智能與大規(guī)模殺傷性武器研發(fā)相結(jié)合,以期實(shí)現(xiàn)非對(duì)稱性制衡。這兩種情況都將惡化當(dāng)前的全球安全局勢(shì)。人工智能建立在數(shù)學(xué)、物理學(xué)、計(jì)算機(jī)科學(xué)等基礎(chǔ)學(xué)科和強(qiáng)大的信息技術(shù)產(chǎn)業(yè)與芯片產(chǎn)業(yè)基礎(chǔ)之上,發(fā)展中國(guó)家的經(jīng)濟(jì)和教育基礎(chǔ)都相對(duì)薄弱,短期內(nèi)無法在科研領(lǐng)域取得較大進(jìn)展。當(dāng)前,積極推動(dòng)人工智能軍事化的大國(guó)在軍事力量上已經(jīng)遠(yuǎn)遠(yuǎn)超過那些無法獲得頂尖人工智能技術(shù)的國(guó)家。人工智能軍事化將拉大發(fā)達(dá)國(guó)家和發(fā)展中國(guó)家之間的經(jīng)濟(jì)差距和軍事差距,使得發(fā)展中國(guó)家在國(guó)際秩序中處于更加不利的地位。霸權(quán)國(guó)家對(duì)發(fā)展中國(guó)家的打壓將有增無減,進(jìn)而刺激發(fā)展中國(guó)家追求獲取非對(duì)稱性的軍事能力。對(duì)那些感到不安全的小國(guó)家來說,它們不僅存在著開發(fā)核武器的安全需求,也存在著開發(fā)人工智能武器系統(tǒng)的需求,還存在著將人工智能與核武器、生化武器等大規(guī)模殺傷性武器結(jié)合的需求。毫無疑問,無論何種武器領(lǐng)域的軍備競(jìng)賽,都將弱化國(guó)家之間的戰(zhàn)略信任,強(qiáng)化國(guó)際社會(huì)的敵意,從而給人類造成無法預(yù)期的后果。
第二,對(duì)于實(shí)現(xiàn)意圖孿生的人工智能武器來說,它可能脫離人類的控制。當(dāng)前,人工智能武器大體上屬于半自主武器,仍然需要人類控制,但發(fā)展全自主武器是軍用人工智能開發(fā)的必然邏輯。全自主武器就是無需人類控制的自主激活程序、自動(dòng)尋找和跟蹤目標(biāo)、自動(dòng)發(fā)動(dòng)攻擊的武器系統(tǒng)。人類對(duì)武器的控制主要體現(xiàn)在程序設(shè)計(jì)、程序激活、機(jī)器能源供應(yīng)、自動(dòng)攻擊等領(lǐng)域,其中,自動(dòng)尋找和跟蹤目標(biāo)在一定程度上已經(jīng)可以實(shí)現(xiàn)。全自主武器的關(guān)鍵是讓機(jī)器自動(dòng)獲取驅(qū)動(dòng)能源,如通過太陽能自動(dòng)激活機(jī)器,同時(shí)喚醒機(jī)器內(nèi)置的識(shí)別、跟蹤和攻擊程序。一旦機(jī)器實(shí)現(xiàn)了全自主行動(dòng),也就變成了意圖孿生的武器,就能夠脫離人類的控制。能夠自動(dòng)喚醒攻擊程序的全自主武器承載著人類的惡意,它將脫離人類控制,變成人類的夢(mèng)魘。此外,由于地理上的隱蔽性和不可及性,當(dāng)前人工智能軍事化的熱點(diǎn)區(qū)域在海洋,未來毫無疑問將深入到太空。深空和深海領(lǐng)域的軍用人工智能系統(tǒng)可能會(huì)給人類帶來重大風(fēng)險(xiǎn)。深空和深海本來就是人類難以控制的地理區(qū)域,但其恰恰又是人工智能實(shí)驗(yàn)的理想場(chǎng)所,從而可能變成最容易失控的區(qū)域。當(dāng)前,美國(guó)研制的無人武器系統(tǒng)主要聚焦于海洋,如無人航母、無人潛艇等。那些可以自動(dòng)激活攻擊程序的人工智能武器隱藏在深海、深空、虛擬空間和微型空間中,很容易脫離人類的控制。這些武器一旦脫離人類控制,人類如何搜尋這類具有隱蔽性和攻擊性的武器,以及如何再度控制或銷毀它們,將變成國(guó)際社會(huì)的巨大挑戰(zhàn)。
第三,實(shí)現(xiàn)意圖孿生的人工智能一旦被恐怖主義和極端勢(shì)力所掌握,他們將付出更小的成本發(fā)動(dòng)更大規(guī)模的恐怖襲擊??植婪肿尤绻@得了無人機(jī)、自主武器或殺手機(jī)器人等人工智能武器系統(tǒng),他們就會(huì)利用這些武器進(jìn)行大規(guī)模的自主殺戮[18]。如,2023 年10 月5 日,敘利亞霍姆斯軍事學(xué)院在舉行畢業(yè)典禮時(shí),遭到無人機(jī)的恐怖襲擊,造成重大傷亡。至今,沒有任何組織宣布為此負(fù)責(zé)??植婪肿影l(fā)動(dòng)恐怖襲擊的意圖是在民眾中制造恐慌,同時(shí)又試圖逃避追蹤。人工智能武器系統(tǒng)是恐怖分子實(shí)現(xiàn)邪惡意圖的“理想”工具。恐怖主義襲擊的人工智能化,避免了襲擊者與襲擊目標(biāo)的近距離接觸,增加了其隱蔽性和靈活性,也將使得國(guó)際社會(huì)追蹤及打擊恐怖主義變得更為艱難[19]。此外,恐怖勢(shì)力和極端勢(shì)力的威脅不只在于使用自主武器發(fā)動(dòng)襲擊,還在于它們將人工智能與致命性傳染病毒、生化武器等系統(tǒng)相結(jié)合,制造出更大的恐怖效應(yīng)。
傳統(tǒng)研究較為關(guān)注人工智能是否可以進(jìn)化出“類人”意識(shí),擔(dān)憂其取代人類,但人類安全的核心挑戰(zhàn)是人工智能的意圖選擇,而不是意識(shí)進(jìn)化。即使人工智能將來進(jìn)化出了超級(jí)意識(shí),如果它選擇向善的意圖,那么人工智能不是人類的威脅,而是人類的最佳伙伴。真正威脅人類的是人工智能意圖孿生帶來的不確定性。人類面臨的真正難題是被延伸到機(jī)器上的人類惡意能否被發(fā)現(xiàn)和阻止以及如何阻止。惡意是人類絕大多數(shù)威脅的根源,因此,全球人工智能治理需要聚焦人類的意圖管理和軍用人工智能的意圖孿生。
對(duì)軍用人工智能來說,它需要在兩個(gè)平行層級(jí)進(jìn)行意圖管理。一是國(guó)家之間的敵對(duì)意圖管理;二是意圖孿生之后的人工智能管理。這是人工智能治理與其他領(lǐng)域全球治理存在的差異。針對(duì)國(guó)家層面的敵意來說,它的治理思維類似于核武器治理,需要達(dá)成國(guó)際協(xié)議和國(guó)家之間協(xié)議,避免部署人工智能武器或全面削減人工智能武器,控制人工智能軍事武器的規(guī)模化使用等。針對(duì)意圖孿生的人工智能武器來說,它根源于科學(xué)問題,類似于全球氣候治理,需要更廣泛的科學(xué)發(fā)現(xiàn)作為證據(jù)支撐。氣候治理和人工智能治理,都要求科學(xué)介入政治。但人工智能治理的特殊性,意味著它與核軍控和氣候治理的路徑都將有所不同。
全球治理的前提是安全化,即該問題變成一個(gè)受到國(guó)際社會(huì)關(guān)注的安全議題。一個(gè)沒有得到合理安全化的領(lǐng)域,就不會(huì)生成有效的治理思路,也不會(huì)開展具體的行動(dòng)。特定問題的安全化,必須經(jīng)過安全話語傳播和安全機(jī)制建立的階段。安全話語的傳播可以讓民眾認(rèn)識(shí)到風(fēng)險(xiǎn),安全機(jī)制的建立則可以啟動(dòng)安全治理的實(shí)踐。當(dāng)前,全球人工智能治理在很大程度上圍繞智能技術(shù)帶來的社會(huì)影響而展開,多聚焦在算法倫理、數(shù)據(jù)使用和污染、信息安全、勞工規(guī)范等領(lǐng)域,很少觸及人工智能軍事化的管控。在軍用人工智能領(lǐng)域,安全話語供給明顯不足,民眾對(duì)人工智能軍事化和意圖孿生的威脅仍限于科幻層面,缺乏專業(yè)話語。同時(shí),國(guó)際層面的安全機(jī)制也沒有發(fā)揮應(yīng)有的作用,國(guó)家之間的安全機(jī)制仍然沒有得到構(gòu)建,針對(duì)人工智能軍事化的安全規(guī)范仍在討論之中?;谝陨洗嬖诘膯栴},當(dāng)前推動(dòng)人工智能軍事化的治理需要遵循從話語到機(jī)制、從科學(xué)到政治、從聯(lián)合國(guó)到主權(quán)國(guó)家的安全化路徑。
全球科學(xué)或知識(shí)共同體的合作,可以有效供給人工智能意圖孿生的安全話語。與氣候變暖一樣,人工智能軍事化的意圖孿生也處在一個(gè)模糊地帶,只有專業(yè)話語才能夠?qū)⑵淇茖W(xué)地安全化。專業(yè)話語比政治話語或常人話語更具有權(quán)威性和說服力,能夠?qū)⒆h題迅速安全化。例如,全球變暖需要?dú)夂驅(qū)<野l(fā)表專業(yè)的調(diào)查報(bào)告,解釋氣候變暖的形勢(shì)以及可能的危害。人工智能軍事化遵循同樣的邏輯。人工智能發(fā)展到意圖孿生的何種程度及其風(fēng)險(xiǎn),需要強(qiáng)大的專業(yè)解釋和預(yù)測(cè)。它屬于科學(xué)范疇,必須開展相關(guān)的科學(xué)辯論,需要全球頂尖科學(xué)家組成的知識(shí)共同體作出判斷??茖W(xué)家的集體認(rèn)知是人工智能軍事化治理的話語基礎(chǔ)。
鑒于安全話語的供給不足,國(guó)際社會(huì)應(yīng)該推動(dòng)在聯(lián)合國(guó)層面建立監(jiān)管人工智能技術(shù)前景的科學(xué)機(jī)構(gòu),其主要成員是全球人工智能領(lǐng)域的科學(xué)家。它的功能和職責(zé)是發(fā)表人工智能技術(shù)應(yīng)用的風(fēng)險(xiǎn)評(píng)估報(bào)告,尤其是人工智能意圖孿生的進(jìn)展情況和前景預(yù)測(cè)。人工智能技術(shù)拐點(diǎn)的態(tài)勢(shì)評(píng)估對(duì)其治理來說非常關(guān)鍵。一旦出現(xiàn)意圖孿生的情況,就意味著人工智能即將出現(xiàn)失控態(tài)勢(shì),也意味著需要更緊密的全球合作來應(yīng)對(duì)人工智能危機(jī)。此外,權(quán)威的態(tài)勢(shì)評(píng)估也是人工智能分級(jí)管控的前提。自主武器系統(tǒng)的分級(jí)管控有利于精準(zhǔn)控制軍用人工智能,鼓勵(lì)民用人工智能的發(fā)展,但人工智能的風(fēng)險(xiǎn)分級(jí)只有基于知識(shí)共同體的科學(xué)評(píng)估才具有合理性。
全球科學(xué)合作路徑的必要性還體現(xiàn)在科學(xué)家和技術(shù)人員可以及時(shí)發(fā)現(xiàn)人工智能意圖孿生的進(jìn)展情況及其風(fēng)險(xiǎn),及時(shí)采取行動(dòng)。人工智能的開發(fā)者基本上都是科學(xué)家和技術(shù)人員,他們的專業(yè)知識(shí)和職業(yè)道德在極大程度上影響著人工智能軍事化的治理進(jìn)程。他們對(duì)技術(shù)風(fēng)險(xiǎn)的敏感性和行動(dòng)力使其處于人工智能治理的最前沿。2015 年10 月,人類未來研究所發(fā)布了一封《邁向強(qiáng)大而有益的人工智能研究》的公開信,呼吁將人工智能研究用于增進(jìn)人類福祉。此公開信獲得了霍金、馬斯克、黃仁勛等人的支持,至今已有11 251 份簽名,其中大部分簽名者為人工智能領(lǐng)域的教授、專家或從業(yè)者。2017年9 月,馬斯克聯(lián)合116 名科學(xué)家致信聯(lián)合國(guó),呼吁禁止使用致命性自主武器[20]。2018 年3月,1 179 名從事人工智能科學(xué)的教授和專家,聯(lián)合3 100 多名谷歌公司員工發(fā)表公開信,反對(duì)谷歌公司繼續(xù)為美軍國(guó)防部Maven 項(xiàng)目提供服務(wù),同時(shí)承諾不開發(fā)、不生產(chǎn)自主武器,積極支持國(guó)際社會(huì)在禁止自主武器方面所作的努力[21]。自主武器本質(zhì)上就是實(shí)現(xiàn)了意圖孿生的武器。人工智能專家將目標(biāo)瞄準(zhǔn)自主武器,正是為了預(yù)防意圖孿生型武器的出現(xiàn)。
非政府組織等民間知識(shí)團(tuán)體也是推動(dòng)人工智能全球治理的重要組成部分,它們的積極活動(dòng)也能夠增加和傳播安全話語。它們的職能是喚醒民眾的安全意識(shí),進(jìn)而呼吁政府控制意圖孿生型武器的開發(fā)。2012 年10 月,在紐約成立的非政府組織“禁止殺手機(jī)器人運(yùn)動(dòng)”,其宗旨是“更少的自主,更多的人性”。該組織呼吁制定新的國(guó)際法禁止或約束自主武器的開發(fā)和使用。該組織目前在全球擁有180 多個(gè)分支機(jī)構(gòu),其目標(biāo)是宣傳研發(fā)和部署自主武器的危害性。他們的行動(dòng)正在全球?qū)用鎲拘衙癖姷陌踩庾R(shí)和對(duì)自主武器的警惕[22]。
《特定常規(guī)武器公約》締約國(guó)會(huì)議是當(dāng)前聯(lián)合國(guó)層面針對(duì)軍用人工智能的主要治理機(jī)制。2016 年,締約國(guó)會(huì)議設(shè)立了專家委員會(huì),迄今為止,舉行了6 次專家咨詢會(huì)議。締約國(guó)會(huì)議討論的焦點(diǎn)是自主武器,也就是實(shí)現(xiàn)了意圖孿生的武器。根據(jù)歷次會(huì)議的討論,各成員國(guó)達(dá)成的基本共識(shí)是:從自主武器的開發(fā)到使用,必須保證人類對(duì)自主武器的全過程控制和監(jiān)管[23]。聯(lián)合國(guó)人權(quán)理事會(huì)在自主武器控制中起到了推動(dòng)作用。理事會(huì)特別報(bào)告員邁納 ? 凱提交報(bào)告,建議全面禁止無需人類控制的自主武器系統(tǒng)[24]。上述事實(shí)表明,聯(lián)合國(guó)在阻止自主武器上達(dá)成了越來越多的共識(shí)。但是截至目前,由于美國(guó)等國(guó)家對(duì)全面禁止人工智能武器持猶豫或反對(duì)態(tài)度,國(guó)際社會(huì)暫時(shí)無法就軍用人工智能的研發(fā)和使用達(dá)成協(xié)議,也沒有制定相應(yīng)的國(guó)際法來約束軍用人工智能的開發(fā)。
鑒于當(dāng)前人工智能軍控機(jī)制的治理效能不足,而《特定常規(guī)武器公約》締約國(guó)會(huì)議、聯(lián)合國(guó)人權(quán)理事會(huì)和紅十字會(huì)等機(jī)構(gòu)都不是專門的人工智能軍控機(jī)構(gòu),因此,國(guó)際社會(huì)需要推動(dòng)在聯(lián)合國(guó)建立專門管控軍用人工智能的機(jī)構(gòu),協(xié)商制定監(jiān)管人工智能軍事化的綱領(lǐng)性文件。這種機(jī)制類似于核武器裁減機(jī)制。它必須區(qū)分人工智能民用和軍用的界線,鼓勵(lì)推動(dòng)民用人工智能,但約束其軍事化使用。當(dāng)前,各國(guó)正在積極探索人工智能的軍事化運(yùn)用,要想阻止這種趨勢(shì)非常艱難,但有必要讓各國(guó)的人工智能軍事化應(yīng)用處在相對(duì)透明公開的環(huán)境中,盡量將人工智能競(jìng)賽限制在民用領(lǐng)域,盡最大努力阻止自主武器的開發(fā)與部署。2023 年10 月18 日,中國(guó)政府發(fā)布《全球人工智能治理倡議》指出,人工智能治理攸關(guān)全人類命運(yùn),國(guó)際社會(huì)必須建立專門的國(guó)際機(jī)構(gòu)來監(jiān)管人工智能的軍事化使用[25]。
除了建立和完善針對(duì)軍用人工智能的治理機(jī)制,聯(lián)合國(guó)還需要更深層次地考慮人工智能軍備競(jìng)賽的意圖,防止軍事實(shí)力失衡引發(fā)的沖突和危機(jī)。一方面,人工智能軍備競(jìng)賽的根源與核武器開發(fā)一樣,都源于國(guó)家的安全防備。在不安全的國(guó)際社會(huì)中,國(guó)家對(duì)待彼此的意圖也會(huì)更多地趨于敵意,進(jìn)而增強(qiáng)自主武器的研發(fā)動(dòng)力。因此,人工智能的軍控機(jī)制需要綜合考慮地區(qū)安全環(huán)境,只有國(guó)家處于相對(duì)安全的環(huán)境中,才會(huì)弱化它們開發(fā)自主武器的動(dòng)力。對(duì)小國(guó)家來說,自主武器跟核武器一樣,都屬于非對(duì)稱型武器。如果處于不安全的狀態(tài)中,它們就會(huì)選擇開發(fā)自主武器以獲得軍事力量的平衡。基于此,聯(lián)合國(guó)軍控的思路是通過弱化國(guó)家之間的敵對(duì)意圖來阻止自主武器的開發(fā)和部署。聯(lián)合國(guó)軍控機(jī)制既要控制自主武器的研發(fā),也要控制核武器、導(dǎo)彈防御系統(tǒng)、太空武器等高精尖武器系統(tǒng)的部署,以防止地區(qū)軍事失衡帶來的人工智能武器開發(fā)浪潮。另一方面,聯(lián)合國(guó)軍控機(jī)構(gòu)需要與科學(xué)知識(shí)團(tuán)體緊密合作,嚴(yán)格評(píng)估自主武器的智能化程度,控制意圖孿生現(xiàn)象在武器系統(tǒng)上的實(shí)現(xiàn)。據(jù)此,聯(lián)合國(guó)軍控機(jī)構(gòu)需要嚴(yán)密監(jiān)控人工智能武器的資金鏈、產(chǎn)業(yè)鏈、供應(yīng)鏈和技術(shù)專家信息庫,防范自主武器被恐怖分子控制,同時(shí)建立對(duì)等的、針對(duì)所有國(guó)家的可持續(xù)核查機(jī)制,以及類似于氣候治理中的國(guó)家自主評(píng)估報(bào)告和行動(dòng)機(jī)制,以便聯(lián)合國(guó)在最大程度上掌握自主武器的發(fā)展動(dòng)向。
大國(guó)協(xié)商是國(guó)際治理的重要組成部分,尤其是在科學(xué)技術(shù)領(lǐng)域。頂尖科學(xué)技術(shù)一般掌握在大國(guó)手中,它們是科技進(jìn)步的主要推動(dòng)者,也是科技危險(xiǎn)的發(fā)現(xiàn)者。在核武器管控領(lǐng)域,美俄核軍控協(xié)議是國(guó)際核武器治理的重要支柱,人工智能的軍事管控亦是如此。當(dāng)前,全球監(jiān)管機(jī)制尚未建立,大國(guó)之間基于彼此意圖的相互溝通、自我監(jiān)督和相互約束極其重要。中美兩國(guó)協(xié)商達(dá)成人工智能協(xié)議,可以成為全球人工智能治理的基礎(chǔ),為其他大國(guó)加入治理機(jī)制發(fā)揮示范作用。正如前外交部副部長(zhǎng)傅瑩所言,中美兩國(guó)是在人工智能技術(shù)研究和應(yīng)用領(lǐng)域發(fā)展最快的國(guó)家,兩國(guó)需要加強(qiáng)協(xié)調(diào)與合作,尤其是討論通過國(guó)際法和規(guī)范開展對(duì)人工智能武器的監(jiān)管,鼓勵(lì)采取克制態(tài)度以限制對(duì)人工智能數(shù)據(jù)的軍事化濫用[26]。
2019 年2 月,中國(guó)科技部成立了國(guó)家新一代人工智能治理專業(yè)委員會(huì),專門負(fù)責(zé)人工智能的管理。2021 年12 月,中國(guó)向《特定常規(guī)武器公約》審議大會(huì)提交了《中國(guó)關(guān)于規(guī)范人工智能軍事應(yīng)用的立場(chǎng)文件》。該文件旗幟鮮明地指出,人工智能的軍事運(yùn)用應(yīng)該遵循以人為本、“智能向善”的倫理原則;呼吁各國(guó)不以謀求軍事優(yōu)勢(shì)為由開發(fā)人工智能技術(shù),確保人工智能武器系統(tǒng)永遠(yuǎn)處在人類控制之下;實(shí)施分級(jí)、分類管理,避免使用可能產(chǎn)生嚴(yán)重消極后果的不成熟技術(shù)[27]。2018 年,美國(guó)成立“人工智能特別委員會(huì)”“人工智能國(guó)家安全委員會(huì)”,負(fù)責(zé)監(jiān)管人工智能的開發(fā)與使用。2019 年,美國(guó)國(guó)防創(chuàng)新委員會(huì)發(fā)布的《人工智能原則:國(guó)防部人工智能應(yīng)用倫理的若干建議》指出,人工智能應(yīng)用必須遵守“負(fù)責(zé)、公平、可追蹤、可靠、可控”五條原則,同時(shí)必須嚴(yán)格測(cè)試和驗(yàn)證人工智能和核武器等高危武器的結(jié)合[28]。2018 年,歐盟成立人工智能監(jiān)管機(jī)構(gòu)“人工智能高級(jí)別專家組”,推動(dòng)出臺(tái)《人工智能法》[29],負(fù)責(zé)歐洲范圍內(nèi)人工智能治理政策的制定和實(shí)施。2019 年4 月,歐盟發(fā)布《可信賴的人工智能道德準(zhǔn)則》,討論全球人工智能軍事化運(yùn)用的可能風(fēng)險(xiǎn)[30]。目前,在主要西方大國(guó)中,美英等國(guó)家對(duì)克制使用自主武器仍顯猶豫,但法德兩國(guó)傾向于嚴(yán)厲禁止自主武器系統(tǒng)的開發(fā)[31]。
以上事實(shí)表明,全球主要大國(guó)在一定程度上愿意管控人工智能的軍事化使用。人工智能向善的本質(zhì)是人類意圖向善,各國(guó)對(duì)此具有基本的共識(shí),這意味著推動(dòng)制定軍用人工智能監(jiān)管協(xié)議具有現(xiàn)實(shí)基礎(chǔ)。中美等主要大國(guó)需要討論人工智能軍備競(jìng)賽的危害性,推動(dòng)簽署人工智能武器控制協(xié)議,尤其應(yīng)該深入探討深海、深空的自主武器部署,不僅要控制自主武器的研發(fā)進(jìn)度,及時(shí)評(píng)估自主武器的危險(xiǎn)程度,還應(yīng)及時(shí)預(yù)防人工智能與大規(guī)模殺傷性武器的結(jié)合。基于大國(guó)掌握軍用人工智能核心技術(shù)的事實(shí),大國(guó)之間應(yīng)該建立嚴(yán)密的防擴(kuò)散機(jī)制,防止人工智能技術(shù)的全球擴(kuò)散,阻止自主武器落入恐怖勢(shì)力和極端勢(shì)力手中。
當(dāng)前,軍用人工智能監(jiān)管還面臨霸權(quán)政治和冷戰(zhàn)思維的強(qiáng)大阻礙。美國(guó)為了維持自身霸權(quán)地位,對(duì)人工智能的軍事化持有極高熱情。美國(guó)前防長(zhǎng)埃斯珀明確指出,人工智能將改變未來戰(zhàn)爭(zhēng)形態(tài),美國(guó)必須贏得與中國(guó)和俄羅斯在人工智能領(lǐng)域的競(jìng)爭(zhēng)[32]。正是這種維持全球霸權(quán)地位的錯(cuò)誤意圖,使得美國(guó)很難真心誠(chéng)意地跟中國(guó)協(xié)商削減人工智能武器的部署?;谶@樣的安全困境,中國(guó)需要與其他發(fā)展中國(guó)家一起,以全球安全倡議為價(jià)值引領(lǐng),遵循安全不可分割的原則,既通過中美軍事對(duì)話來緩解彼此的意圖和信任困境,也通過全球安全對(duì)話來抵制美國(guó)的霸權(quán)意圖,從人類整體的角度出發(fā),緩解地區(qū)安全困境和中美安全困境,推動(dòng)構(gòu)建中美人工智能軍事化的監(jiān)管框架,并逐步接納其他大國(guó)共同商討制定針對(duì)人工智能軍事化的全球安全協(xié)議。
當(dāng)前,人工智能技術(shù)不斷更新迭代,全球主要大國(guó)圍繞人工智能的軍事化趨勢(shì)愈加明顯,人工智能意圖孿生變得更加可能,給人類未來帶來巨大的安全風(fēng)險(xiǎn)。據(jù)此,國(guó)際社會(huì)既要針對(duì)人工智能導(dǎo)致的軍事實(shí)力失衡展開談判和控制,也需要在科學(xué)層面上緊密關(guān)注人工智能意圖孿生的臨界點(diǎn)。人工智能軍事化的治理必須以人類共同安全為基本準(zhǔn)則,以人類命運(yùn)共同體為價(jià)值依歸,堅(jiān)持安全話語與安全機(jī)制結(jié)合、科學(xué)評(píng)估與政治合作結(jié)合、聯(lián)合國(guó)監(jiān)管與國(guó)家自律結(jié)合的多軌并行路徑,以核軍控和氣候治理的歷史經(jīng)驗(yàn)來指導(dǎo)大國(guó)之間的談判與協(xié)商,引領(lǐng)國(guó)際社會(huì)對(duì)人工智能軍事化的協(xié)同治理。