江天驕,復旦大學發(fā)展研究院金磚國家研究中心副主任
今年,以ChatGPT為代表的人工智能引爆了新一輪技術(shù)和產(chǎn)業(yè)革命。與此同時,一些智能武器裝備和輔助決策系統(tǒng)已經(jīng)在烏克蘭危機中大顯身手。國際社會長期對智能武器的失控風險、問責困境以及戰(zhàn)爭倫理問題憂心忡忡,聯(lián)合國自2013年就開始關(guān)注致命性自主武器系統(tǒng)(LAWS)并多次開展政府專家組磋商,雖達成了一些共識,但由于各方競爭激烈,短期內(nèi)締結(jié)多邊條約的難度較大。鑒于此,國際非政府組織和以科學家、法學家、行業(yè)專家以及智庫為代表的知識共同體正在通過自下而上的模式,逐步打造有關(guān)智能武器風險和法律規(guī)則標準的國際認知共同體,并通過廣泛的對話和交流機制不斷擴大同心圓,以吸納越來越多的國家學習并內(nèi)化相關(guān)規(guī)則。
國際非政府組織的努力方向大致可以分為兩類:一是全面禁止;二是分步控制。兩者并不是非此即彼的關(guān)系,而是在部分重疊的情況下各有側(cè)重。在第一類路徑中,“禁止殺手機器人運動”明確提出禁止研發(fā)人類無法有效控制的武器,這個提法已經(jīng)得到全球60多個國家(地區(qū))約130多個團體的支持。在2018年的“國際人工智能聯(lián)合會議”上,全球兩千多名科學家和企業(yè)家共同簽署了《致命性自主武器宣言》,承諾不參與相關(guān)武器系統(tǒng)的開發(fā)、研制、交易和使用。這些國際非政府組織主要要求全面禁止LAWS,并敦促《特定常規(guī)武器公約》(CCW)盡快就此達成國際條約。此外,谷歌、深智(Deepmind)、波士頓動力等企業(yè)員工紛紛以“不作惡”為由迫使公司退出美國國防部的智能武器項目。
第二類路徑在針對LAWS的問題上與第一類基本一致。但除了LAWS之外,還關(guān)注人工智能與武器系統(tǒng)、情報偵察、輔助決策、指揮控制等更加廣泛的軍事應用問題。因為如果缺乏足夠的高質(zhì)量訓練數(shù)據(jù)、數(shù)據(jù)被污染、算法本身的漏洞以及“算法黑箱”,抑或是真實戰(zhàn)場環(huán)境的錯綜復雜,都可能導致相關(guān)系統(tǒng)在實驗室和實際部署中出現(xiàn)巨大差異,甚至產(chǎn)生不可預估的后果,在現(xiàn)實中很可能引發(fā)沖突升級或造成人道主義災難。紅十字國際委員會(ICRC)早在2011年就開始關(guān)注相關(guān)系統(tǒng)的穩(wěn)健性和負責任問題,并要求各國盡快確立關(guān)于限制智能武器的國際標準,遵守國際人道法的相關(guān)規(guī)則。2019年清華大學戰(zhàn)略與安全研究中心與美國布魯金斯學會圍繞“人工智能與國際安全治理”開展了一系列二軌對話,聚焦如何設定智能武器的攻擊禁區(qū)及國際法監(jiān)管問題。
目前,主張對智能武器進行分步控制的方案已經(jīng)由早些年的原則共識向減少風險的具體規(guī)則和標準方向深入推進。其中,位于日內(nèi)瓦的“人道主義對話中心”和INHR智庫邀請了新美國安全中心、布魯金斯學會以及來自中國和歐洲的專家共同圍繞智能武器的設計開發(fā)、測試評估、部署使用、問責機制、建立信任和國際合作等方面,設計了一套測試、評估、驗證和核查(TEVV)風險管理框架。TEVV強調(diào)任何智能武器的部署都必須遵守國際人道法對于武器系統(tǒng)開展測試和評估的要求。由于智能武器獨有的穩(wěn)健性和負責任問題,測試和評估應不間斷地貫穿相關(guān)系統(tǒng)的全生命周期。TEVV進一步要求各國政府在開發(fā)智能武器時與國際民用標準相協(xié)調(diào),并將各國TEVV的原則和審查程序?qū)ν夤_,從而增加透明度,塑造負責任形象。TEVV還建議設立類似國際民航組織這樣的專業(yè)性機構(gòu)來分析搜集各國人工智能的故障案例,監(jiān)管智能武器發(fā)展的合規(guī)問題,并在一旦發(fā)生事故時能夠組織專業(yè)力量打開人工智能“黑箱”,判定責任,避免沖突升級。
在相關(guān)國際非政府組織的努力下,由全球多個國家、國際組織以及非政府組織參與的“軍事領(lǐng)域負責任使用人工智能”(REAIM)峰會發(fā)布了《軍事領(lǐng)域負責任使用人工智能行動倡議》成果文件。迫于國際非政府組織和科技企業(yè)的壓力,美國國防部也在今年更新了關(guān)于武器自主性的文件《國防部指令3000.09》,并提出將對智能武器系統(tǒng)開展類似TEVV的審查原則。但需要指出的是,美國對相關(guān)國際非政府組織提出的倡議往往采取合則用,不合則棄的態(tài)度,將對其有利的規(guī)則定義為“負責任行為”,而避免制定約束其霸權(quán)的國際條約。這將不利于國際社會推動人工智能國際規(guī)則的達成。