李 享,羅天宇
(清華大學 社會科學學院,北京 100084)
隨著對人工智能技術發(fā)展前景的認識更加明確,各國都開始謀求將其應用于軍事領域,以占領新的軍事技術制高點。在世界主要軍事大國之間,人工智能軍備競賽已從幕后走到了臺前,但由于新技術的不確定性、應用方式的不明確、應用效果的未知、國際規(guī)則尚未成熟等因素,人工智能的軍事應用也孕育著潛在的安全風險。為防范和化解相關風險,在現有國際法體系之上進一步探索規(guī)范人工智能軍事應用的途徑有著重要意義。
與以往大多數新興軍事技術不同,人工智能技術并不專屬于某個作戰(zhàn)空間或領域,而是能夠應用于各領域并提升武器裝備性能的一種技術,甚至可以改變現有戰(zhàn)爭形態(tài)。根據一些學者的分類,人工智能目前可以分為“弱人工智能”和“強人工智能”兩類,“弱人工智能”能夠借鑒人類的智能行為,以減輕人類智力勞動;“強人工智能”則是達到甚至超越人類智慧水平的人造物,具有心智和意識、能根據自己的意圖開展行動[1]。從目前來看,“強人工智能”的出現依然較為遙遠,但基于大數據和深度學習的計算機視覺、語音識別、自然語言處理等“弱人工智能”技術正在不斷地得到開發(fā)應用,因此本文僅討論“弱人工智能”的軍事應用問題。通過梳理現有文獻與案例可以發(fā)現,人工智能的軍事應用主要集中在情報與偵察、作戰(zhàn)決策與指揮控制、自主武器系統(tǒng)、訓練與演習、作戰(zhàn)支援與保障等領域。
在情報與偵察領域,由于人工智能在圖像、語音識別方面具有強大能力,其與各類傳感器的結合能夠大幅提升戰(zhàn)略與戰(zhàn)術偵察能力,提升衛(wèi)星照片判讀、光學/電子偵察、水聲探測識別的效率。例如,美國國防部2017年啟動了Maven項目,以實現計算機從視頻圖像中自主識別人員、車輛等目標,并計劃在后續(xù)將其集成在各類平臺上。當年12月,Maven項目的原型系統(tǒng)已經部署在美軍中央司令部和非洲司令部的轄區(qū)進行試驗,并在一周時間內使目標識別準確率從60%提升至80%[2]。盡管該項目曾因合作方谷歌的退出而受到影響,但目前仍在美國國防部的重點支持下平穩(wěn)推進。
在作戰(zhàn)決策與指揮控制領域,人工智能因具有出色的數據處理、系統(tǒng)集成、高性能計算能力,被視為輔助甚至替代決策者與指揮員的工具。美軍目前提出的“聯(lián)合全域指揮控制”(JADC2)“馬賽克戰(zhàn)”“忠誠僚機”“分布式殺傷”等概念對人工智能算法支持的任務規(guī)劃、態(tài)勢分析、作戰(zhàn)決策、指揮控制、通信傳輸提出了較高要求,以期加快決策速度并提高作戰(zhàn)效率,克服人力處理信息的局限性。
在自主武器系統(tǒng)領域,人工智能使得傳統(tǒng)的遙控式無人武器開始向不受人工干預的自主武器方向升級,這是目前人們關注人工智能軍事應用問題的焦點。目前關于自主武器還沒有公認的定義。美國國防部認為,自主武器系統(tǒng)指的是“一旦啟動,可以在不受操作人員干預下選擇目標并交戰(zhàn)的武器系統(tǒng),它也包括受到人類監(jiān)督的此種武器系統(tǒng)?!盵3]國際紅十字會也提出了類似的定義,并明確其應區(qū)別于自動武器/半自主武器①指由操作人員設定目標,在設定好的可控環(huán)境中嚴格執(zhí)行預編寫程序的武器系統(tǒng),如自動崗哨炮、末敏彈、艦載近防系統(tǒng)等。,以及遙控武器。也有一些學者從人機關系角度出發(fā),根據約翰·博伊德提出的OODA(觀察—判斷—決策—行動)循環(huán),將自主武器分為半自主武器、有監(jiān)督的自主武器和完全自主武器。從目前各國發(fā)展人工智能軍事應用的公開資料來看,自主武器無疑是重中之重。就包含半自主與完全自主的廣義范圍而言,目前各軍事大國正在研發(fā)或部署階段的此類武器已涵蓋了防空系統(tǒng)、主動防御系統(tǒng)、機器哨兵、制導彈藥、巡飛武器等。此外,還包括自主無人機、無人車輛、無人艦艇、戰(zhàn)斗機器人等主戰(zhàn)裝備,例如美國的MQ-9無人機、“海上獵手”無人船,俄羅斯的“天王星-9”戰(zhàn)斗機器人、“涅列赫塔”無人戰(zhàn)車、無人版T-14主戰(zhàn)坦克,以色列的“哈比”無人機,韓國的SGR-A1自動崗哨炮等。值得一提的是,除了常規(guī)武器,俄羅斯還專門研發(fā)了具有自主能力的戰(zhàn)略武器,如攜帶核彈頭的“波塞冬”(Poseidon)核動力無人潛航器。目前,上述一些裝備已經以集群編隊的方式進行了測試,甚至已被部署到戰(zhàn)場使用。
人工智能技術還在訓練與演習、作戰(zhàn)支援與保障領域得到廣泛應用。這里主要包括訓練模擬、計算機推演、網絡攻防、信息作戰(zhàn)、醫(yī)療救護、維修保障等用途。例如,美國國防高級研究計劃局(DARPA)正在推進“先進空戰(zhàn)演進”項目,以對人機協(xié)同作戰(zhàn)提供訓練;而在DARPA舉行的Alpha Dogfight人機空戰(zhàn)對抗模擬演習中,人工智能以5∶0的比分戰(zhàn)勝了美軍F-16飛行員[4]。
新軍事技術的出現往往對戰(zhàn)爭模式和交戰(zhàn)規(guī)則帶來巨大甚至顛覆性的影響,從而對已有的國際法體系帶來了挑戰(zhàn)。針對這個問題,1977年的《日內瓦公約第一附加議定書》在第36條“新武器”明確了各國應當承擔的國際義務,即“在研究、發(fā)展、取得或采用新的武器、作戰(zhàn)手段或方法時,締約一方有義務斷定,在某些或所有情況下,該新的武器、作戰(zhàn)手段或方法的使用是否為本議定書或適用于該締約一方的任何其它國際法規(guī)則所禁止?!比斯ぶ悄艿能娛聭卯斎灰矐裱@一條規(guī)定。
近年來,人們已普遍認識到致命自主性武器(LAWS)對國際人道主義法帶來的嚴峻挑戰(zhàn)。2016年中國政府向《特定常規(guī)武器公約》五審會提交了立場文件,呼吁從國際法層面對致命自主武器引發(fā)的人道主義問題進行規(guī)制。相關研究人員也就致命自主武器對國際人道主義法的區(qū)分原則、比例原則、責任歸屬等方面引發(fā)的問題展開了較為廣泛的討論。但是,在致命自主性武器與人道主義問題以外,更為廣泛的人工智能軍事應用還可能在武力使用合法性、國家主權、武器擴散方面對現有國際法造成挑戰(zhàn),由于其對國際安全與地區(qū)穩(wěn)定具有重要影響,需要引起國際社會的同等重視。
目前的國際法已對武力使用的合法性做出了嚴格規(guī)定。《聯(lián)合國憲章》第1章第2條第4款規(guī)定:“各會員國在其國際關系上不得使用威脅或武力,或以與聯(lián)合國宗旨不符之任何其他方法,侵害任何會員國或國家之領土完整或政治獨立。”這一條款禁止了武力的使用,并受到聯(lián)合國會員國的普遍認可,在法律層面上有強制約束力。但在普遍禁止之外,國際法還針對兩種例外情況授予了使用武力的合法性,根據《聯(lián)合國憲章》第7章第42條和第51條,這兩種例外分別是:(1)安理會授權以武力維持或恢復國際和平及安全;(2)會員國受武力攻擊時行使單獨或集體自衛(wèi)。從以往的經驗來看,由于使用武力的決策權一直牢牢地掌握在武器使用者的手中,新軍事技術本身幾乎不會對武力使用的合法性產生影響。但是,隨著人工智能開始逐漸被用在軍事決策領域,人類可能會有意或無意地將使用武力的決策權授予人工智能系統(tǒng)。相關研究者常常以蘇聯(lián)研發(fā)的“死手”(或稱為“周長”)系統(tǒng)①“死手”系統(tǒng)是一種半自動化的核武器指揮控制系統(tǒng),它能夠根據各類傳感器回傳的數據來判斷蘇聯(lián)是否遭到核攻擊,一旦失去了和外界的通信聯(lián)系,它會認為蘇聯(lián)領導層已經被“斬首”,并將核武器控制權交給掩體中的基層指揮人員。以及1983年“彼得洛夫事件”②1983年9月蘇聯(lián)的預警衛(wèi)星誤報美國對蘇聯(lián)發(fā)射核導彈,差點啟動了蘇聯(lián)的反擊程序并引發(fā)核戰(zhàn)爭,這場危機因基層軍官彼得洛夫的干預而被解除。引發(fā)的意外核戰(zhàn)爭危機為例,提醒人們自主化決策與指揮控制系統(tǒng)的安全風險。從國際法的角度來看,這種新的情況針對前面提到的武力使用的第二種合法例外——單獨或集體自衛(wèi)帶來了挑戰(zhàn)。對于人工智能的自主決策和指揮控制系統(tǒng)以及自主武器系統(tǒng)而言,在缺乏人工干預時,如何判斷自衛(wèi)的條件是一個較為困難的問題。目前的人工智能技術在可解釋性、認知能力方面仍較為薄弱,因此無法像受過訓練的人類一樣能夠對模糊不定與復雜多變的情況做出適當判斷。如果在邊境部署的自動崗哨武器,或在??昭策壍臒o人機或無人艦艇,因為算法引起的誤判或是系統(tǒng)故障而對他國人員或資產主動發(fā)起攻擊,將直接違反國際法關于武力使用的規(guī)定,而且這種違背使用者意圖的非法武力使用也難以找到明確的主體來承擔法律責任。此外,當應用于軍隊決策與指揮控制的人工智能系統(tǒng)出現這種情況時,除了會產生更嚴重的國際法后果外,還甚至會進一步引起意外性戰(zhàn)爭。
人工智能軍事應用對于受國際法保護的國家主權構成了侵蝕。與有人駕駛裝備相比,以無人機、無人潛航器為代表的一批人工智能無人系統(tǒng)具有小型化、隱身性能強的特點,以及無需人工操縱且能夠執(zhí)行長距離作業(yè),因此極為適合完成滲透偵察任務。由于這些特點能夠隱匿身份而降低外交敏感性,一些國家開始更加大膽地使用此類裝備執(zhí)行侵入性行動,這使得各國的領空和領海主權變得更加容易被侵蝕。
2015年8月,中國漁民在海南三亞市海岸打撈到國外無人潛航器;2016年12月,中國海軍在南海海域打撈到一艘美國無人潛航器,隨后移交美方;2019年6月,伊朗聲稱擊落了一架入侵領空的美國無人機,加劇了霍爾木茲海峽緊張局勢;2019年9月,位于沙特腹地的原油生產設施阿布凱克(Abqaiq)油田遭到18架無人機突襲,使該國原油產量受到重大損失。[5]對此美國宣稱無人機歸屬伊朗,但聯(lián)合國的調查報告表示無法確認攻擊者的身份。2020年,印度和巴基斯坦分別宣稱擊落了對方入侵本國領空的無人機。上述案例表明,在和平或危機時期,一些國家越來越傾向于使用無人系統(tǒng)執(zhí)行越境軍事行動,這對各國維護領土主權(主要是領空、領海)構成了威脅。
目前,對于軍用空中無人系統(tǒng)進入他國領空的問題,已有明確的國際法規(guī)范。《國際民用航空公約》第1部分第3條規(guī)定:“用于軍事、海關和警察部門的航空器,應認為是國家航空器?!薄耙痪喖s國的國家航空器,未經特別協(xié)定或其他方式的許可并遵照其中的規(guī)定,不得在另一締約國領土上空飛行或在此領土上降落”。該條約第8條針對“無人駕駛航空器”也做出了規(guī)定:“任何無人駕駛而能飛行的航空器,未經一締約國特許并遵照此項特許的條件,不得無人駕駛而在該國領土上空飛行?!边@兩條明確禁止了軍用空中無人系統(tǒng)在未經許可的情況下進入他國領空。
但是,關于軍用無人艦艇的航行問題卻出現了一些法律爭議。首先,目前的國際法對于軍用無人艦艇的屬性未做出明確規(guī)定?!堵?lián)合國海洋法公約》第29條規(guī)定:“‘軍艦’是指屬于一國武裝部隊、具備辨別軍艦國籍的外部標志、由該國政府正式委任并名列相應的現役名冊或類似名冊的軍官指揮和配備有服從正規(guī)武裝部隊紀律的船員的船舶?!庇捎谲娪脽o人艦艇不配備軍官與船員,且常常為了隱蔽身份而清除標識,其既不能被定義為軍艦,也不能被視為政府船舶,這種性質使其無法擁有上述兩種船只在公海不受其他國家管轄的豁免權。①《聯(lián)合國海洋法公約》第95、96條分別規(guī)定了公海上軍艦和政府非商業(yè)性服務的船舶的豁免權。在2016年南海無人潛航器事件中,美國聲稱其潛航器是一艘享有主權豁免的船只,并與日本公開質疑中國海軍打撈活動的合法性[6]。但是根據《聯(lián)合國海洋法公約》的上述規(guī)定,中國學者認為其并不享有主權豁免。其次,《聯(lián)合國海洋法公約》規(guī)定軍艦在他國領海的“無害通過權”不適用于軍用無人潛航器?!堵?lián)合國海洋法公約》第19條明確了違反“無害通過”的12種情形,包括“任何目的在于搜集情報使沿海國的防務或安全受損害的行為”和“進行研究或測量活動”,這兩種活動正是目前軍用無人潛航器的主要任務。另外,第20條規(guī)定“在領海內,潛水艇和其他潛水器,須在海面上航行并展示其旗幟?!?這一點是無人潛航器在偵察任務中難以做到的,更不用說一些國家為了避免承擔責任而故意隱藏其標識。因此,盡管美國軍艦常常以“無害通過權”為理由進入其他國家領海實施“自由航行計劃”,但使用軍用無人潛航器執(zhí)行這一任務無疑是違反現行國際法的。這些問題需要得到國際社會進一步的明確與重視。
隨著人工智能技術的發(fā)展,其研發(fā)成本將不斷降低,這有利于相關技術及產品的擴散。從現實情況來看,無人機、智能彈藥已經成為了國際軍貿市場的熱點產品,阿塞拜疆和亞美尼亞的武裝沖突進一步證明了這種武器的軍事價值。由于人工智能武器能夠高效殺傷敵人并能夠大幅減少本國人員傷亡,它可能會降低戰(zhàn)爭成本,從而降低戰(zhàn)爭門檻,促使國家更傾向于使用武力解決爭端;而這又可能會反過來促進人工智能武器系統(tǒng)的擴散,加劇各國軍備競賽,并破壞地區(qū)安全與穩(wěn)定。目前,國際社會已經形成了對核、生物、化學、導彈等大規(guī)模殺傷性武器擴散的管控機制,由于禁止擴散大規(guī)模殺傷性武器已經成為各國接受的規(guī)范,人工智能武器系統(tǒng)將主要以常規(guī)武器為平臺進行擴散,這對規(guī)范常規(guī)武器貿易的《武器貿易條約》將構成新的挑戰(zhàn)。
《武器貿易條約》作為首個聯(lián)合國框架下規(guī)范常規(guī)武器貿易活動的國際條約,為增強國際武器貿易透明度、打擊非法武器轉讓提供了具有法律效力的國際標準。該條約主要依靠各締約國完善國家管制制度,對武器出口的最終用戶和最終用途進行審查,以防止出口的武器被用于違反國際法的目的?!段淦髻Q易條約》要求各國禁止批準出口可能用于戰(zhàn)爭罪行、恐怖主義、有組織犯罪的8類武器裝備,包括坦克、裝甲戰(zhàn)車、大口徑大炮、戰(zhàn)斗機、攻擊直升機、戰(zhàn)艦、導彈與導彈發(fā)射器、輕小武器等,而這8類武器都可以作為人工智能武器系統(tǒng)的平臺。但是,由于人工智能技術的軍民兩用性質,可以作為插件存在的人工智能模塊尚未受到條約的重視,某些人工智能技術甚至能夠作為民用品出口,完全規(guī)避《武器貿易條約》對最終用途的約束,這有可能進一步強化相關武器的交易與濫用,導致此類武器或技術向恐怖主義或犯罪組織非法擴散。因此,如何規(guī)范武裝無人機、戰(zhàn)斗機器人等自主武器系統(tǒng)的轉讓,限制其擴散對地區(qū)安全穩(wěn)定與人道主義的負面影響,為現有常規(guī)武器貿易管控機制提出了新的問題。
當前,對人工智能軍事應用帶來的國際法挑戰(zhàn)較多的討論聚焦于人道主義問題,尤其是對致命性自主武器(LAWS)違反國際人道法對非作戰(zhàn)人員進行殺傷的問題。然而,人工智能作為一種變革性技術,其對國際法的挑戰(zhàn)本身具有更深層次的含義。如前文所提,人工智能技術對國際法的挑戰(zhàn)主要體現于兩個方面:一是變革技術的出現降低違反國際法的成本;二是核心議題涉及當前國際法所未能覆蓋的領域。因此,本文擬從這兩個層面討論完善相關國際法的途徑,討論如何提高相應國際法門檻、確立新的國際法規(guī)則。
具體而言,LAWS的應用以及戰(zhàn)略武器自主指揮控制系統(tǒng)的發(fā)展主要降低了國家違反國際法的成本,通過模糊責任主體、對國際法概念進行特定解釋可以讓部分國家在使用武力、侵犯他國主權等問題上擁有一定的“靈活性”,對此,本文認為應當在《特定常規(guī)武器公約》框架下規(guī)范LAWS的應用并禁止戰(zhàn)略武器自主指揮控制系統(tǒng)的應用,形成類似“核禁忌”的國際共識;而人工智能武器的貿易問題涉及的是國際法上的“灰色地帶”或者“空白地帶”。如果作為軍用品,無疑,其可以受到《武器貿易條約》的約束。但是,因為該技術軍民兩用之間界限的模糊(部分民用人工智能技術完全可以應用于軍事領域),完善《武器貿易條約》,重新對人工智能技術的軍事性質進行界定,進而限制作為武器模塊的人工智能技術的擴散成為當下國際法亟待解決之事。
3.1.1 推動管控LAWS的《特定常規(guī)武器公約》新議定書
對于LAWS而言,當前的發(fā)展仍然處于初步階段,且不存在完全脫離人控制的全自主武器,各國不具有緊迫的動力和意愿來限制LAWS。因此,想要馬上實現一份有約束力的法律文書是較為困難的。但是自2014年起,各國開始在《特定常規(guī)武器公約》框架下對LAWS問題進行討論,并已舉行了8次專家組會議。①包括3次非正式專家組會議和5次政府專家組會議。整理自《特定常規(guī)武器公約》致命性自主武器專家組報告。2018年,政府專家組在關于管控LAWS的指導原則中建議:“應確保根據適用的國際法在《特定常規(guī)武器公約》的框架內對發(fā)展、部署和使用任何新武器系統(tǒng)問責,包括使這類系統(tǒng)在人類指揮和控制的責任鏈中運作?!盵7]中國政府表示“支持在《特定常規(guī)武器公約》框架下,繼續(xù)深入討論‘致命性自主武器系統(tǒng)’問題,并談判達成國際法律文書”。[8]從現存《特定常規(guī)武器公約》的框架和實施效果來看,將LAWS納入管轄存在一定積極意義并具有高度可行性。
就公約本身而言,其設立之目標是制定新規(guī)則保護平民免受武裝沖突中武器使用的傷害(尤其是不斷迭代的新式武器),并且保護戰(zhàn)斗人員免受不必要的傷害。因此,公約現存的議定書中涵蓋了產生不可檢測碎片的武器、地雷餌雷、燃燒武器、激光致盲武器②其中,第五份議定書指向的是清理戰(zhàn)爭遺留的爆炸物。,這些武器的共同點在于反人道主義與過分殺傷,這點與限制LAWS的初衷是高度相似的。LAWS可能將殺傷范圍擴大至平民,同時,如果缺少人的干預,“濫用火力”現象將會成為常態(tài)。通過新議定書的形式將LAWS納入《特定常規(guī)武器公約》,不但符合公約保護人道主義的目的,也便于直接借助現有框架凝聚國際社會共識。而從《特定常規(guī)武器公約》實施的經驗來看,盡管履約基本依靠成員國的自我約束,但各項議定書對特定武器的限制在普遍程度上受到了國際社會認可,并形成了一定程度的國際規(guī)范,使得大部分國家在研發(fā)、部署和使用相關武器時都采取了較為謹慎的態(tài)度。因此,若能在《特定常規(guī)武器公約》下達成關于LAWS的新議定書,將有利于在法律層面上對LAWS的濫用進行約束。
3.1.2 嚴格禁止戰(zhàn)略武器自主指揮與控制系統(tǒng)的研發(fā)與使用
與LAWS相比,將人工智能技術應用于戰(zhàn)略武器的指揮與控制系統(tǒng)所帶來的是各國都難以承擔的“相互摧毀”的風險。蘇聯(lián)的“死手”系統(tǒng)可以看成是戰(zhàn)略武器自主指揮與控制系統(tǒng)的某種前身,但這類系統(tǒng)本質上是冷戰(zhàn)核軍備競賽高峰期的產物。在全球化的今天不應具有任何存在的價值。在這一問題上,美國軍方已有相關考慮,現任美國參謀長聯(lián)席會議副主席約翰·海頓(John Hyten)曾表示,一旦使用人工智能的計算機系統(tǒng)能夠全面運轉,五角大樓應考慮采取安全防范措施,確保人類而非機器掌控使用核武器的決策[9]。但是,即使是人類參與決策,人工干預也并不能完全避免類似系統(tǒng)出現事故性發(fā)射,而且難以防范外部網絡攻擊引發(fā)的系統(tǒng)失靈,因此應全面禁止研發(fā)和部署戰(zhàn)略武器自主指揮與控制系統(tǒng)。目前,還沒有國際條約對這種系統(tǒng)進行限制,相對可以借鑒的是《不擴散核武器條約》《禁止生物武器公約》和《禁止化學武器公約》。這三個條約所限制的都是國際社會公認應避免使用的武器,并具有嚴格的法律約束力和道德禁忌規(guī)范。由于后果的不可預測性以及意外事故的災難性,戰(zhàn)略武器的自主化性質較核武器擴散或持有、化學武器與生物武器的使用等行為可能更為惡劣。因此,在嚴格禁止相關系統(tǒng)的開發(fā)、部署和使用方面,大多數國家擁有共同的利益,所以有必要從國際法的層面對此進行討論并形成有約束力的規(guī)則。在此基礎上,還需要將其從法律層面擴展到道德禁忌層面,在國際社會形成拒絕使用此類武器的共識與規(guī)范,禁止賦予人工智能系統(tǒng)對戰(zhàn)略武器的指揮決策權限。
禁忌是促進軍備控制發(fā)展的重要因素,盡管在某些時候,禁忌可能并沒有馬上形成國際規(guī)約,但是其仍能通過無形壓力對國家與非國家行為體的行為作出限制[10]。而禁忌的形成部分依賴于宣傳的作用,因此,在明確國際法對相關系統(tǒng)發(fā)展的限制的同時,國際社會也應當注意對其可能帶來的災難性后果進行充分的討論。
相較于人工智能武器的使用,其擴散問題是當前國際法上的“灰色地帶”。這并不是說當前國際法沒有對武器貿易進行約束,只是人工智能武器的貿易與常規(guī)武器的貿易具有較大的差異,且這種差異暫時還未引起國際法層次的重視。
《武器貿易條約》目前的監(jiān)管對象是國際主流的八大類常規(guī)武器。從這個角度而言,人工智能武器的貿易本也應在該條約的限制之下,但人工智能技術的軍民兩用性質為其監(jiān)管帶來了障礙。其實,在《武器貿易條約》形成的過程之中,各國已就軍用技術轉讓問題進行過激烈的辯論,即貿易的限制是否應當僅僅局限于武器本身,軍品彈藥、零部件和技術是否也應當一并被納入條約的保障范圍之內[11]。但是當時的主要反對意見認為彈藥的數目巨大、技術難以被監(jiān)測或是界定,因此最終條約并沒有涵蓋這些部分。而人工智能技術的出現可以說成為國際法相關領域的盲區(qū)。人工智能技術可以作為民用技術進行轉讓,但在實際運用中被用于軍事目的。
針對這一問題,應當確立新的關于人工智能軍用技術轉讓的國際法規(guī)范。對于智能武器而言,算法和用于訓練算法的數據集才是本體,而且其數據集在一定程度上能夠區(qū)分軍用和民用兩種用途。因此,鼓勵各國增強對智能武器貿易的透明度迫在眉睫。為了有效打擊智能武器的非法擴散,應在《武器貿易條約》框架下探索規(guī)范軍用級算法與數據集的標準,并借助條約的年度報告與信息交流機制提升締約國相關貿易活動的透明度,進而形成類似《塔林手冊》《圣雷莫國際海上武裝沖突法手冊》具有“軟法”性質的國際文件或準則,逐漸擴大國際共識,推動將智能武器納入《武器貿易條約》的管控范圍。這些工作應該成為各國推動《武器貿易條約》進程努力的下一步重點方向。
綜合而言,規(guī)范人工智能的軍事應用一方面需要各國進行觀念上的革新,認識到人工智能武器與傳統(tǒng)武器的區(qū)別,同時,這也需要各國進一步加強合作,為相關算法與訓練數據制定標準,形成廣泛的國際共識。
國際法是否能塑造國家的行為?對于很多現實主義國際關系學者而言,類似的問題似乎是偽命題。誠然,在無政府體系下,大部分國際法因缺乏強制約束似乎不過是一紙空文。但是,國際法的作用往往是長期而潛移默化的。規(guī)范的形成本身并不需要強制執(zhí)行。
當前,技術發(fā)展往往先于觀念的革新。人工智能已被認為是變革性的國家安全技術,可以與核武器、計算機等相提并論。這種新技術的出現以及軍事應用既對現行的國際法帶來了多方面的沖擊,也使當前國際法出現了更多的空白與模糊地帶。針對這些問題,本文認為,可以從提高國際法門檻、確立新的國際法規(guī)范兩個層次進一步完善該領域的國際法規(guī)則,并通過限制LAWS使用、禁止戰(zhàn)略武器自主使用以及加強對人工智能武器擴散的管控三種具體措施緩解人工智能軍事應用對國際法帶來的新挑戰(zhàn)。