亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能武器的法律問題探究

        2023-05-26 14:26:11吳鈺章
        關(guān)鍵詞:國際法

        摘 要:未來戰(zhàn)爭將是智能化戰(zhàn)爭,在此背景下致命性自主武器系統(tǒng)(Lethal Autonomous Weapon Systems,LAWS)應(yīng)運(yùn)而生。它將機(jī)器學(xué)習(xí)、算法與武器結(jié)合,具備完全自主的打擊、防御、根據(jù)戰(zhàn)場作出決策的能力。國際社會尚未對LAWS的定義達(dá)成共識,但可以想象的是,隨著技術(shù)的發(fā)展,LAWS將可以代替人類士兵完成一系列作戰(zhàn)任務(wù)。不僅能夠排除環(huán)境影響因素,減少作戰(zhàn)人員傷亡,還可以改變軍費(fèi)結(jié)構(gòu),大大降低人力物力的損耗。與此同時也帶來了違反人道、法律責(zé)任歸屬模糊等諸多問題。目前的軍控條約不能有效限制人工智能武器的發(fā)展,我們應(yīng)重新審視這一新武器的出現(xiàn),重視對人工智能武器的法律審查。各國專家、學(xué)者應(yīng)加強(qiáng)交流,呼吁國際間成立專門監(jiān)管機(jī)構(gòu)或多邊機(jī)構(gòu)負(fù)責(zé)對人工智能軍事應(yīng)用的管理。

        關(guān)鍵詞:國際法;國際人道法;人工智能武器

        一、致命性自主武器系統(tǒng)的出現(xiàn)

        人工智能技術(shù)在第四次工業(yè)革命時期的迅速發(fā)展,巨大地影響了人們的生產(chǎn)生活,并普遍地應(yīng)用于經(jīng)濟(jì)、軍事、政治等諸多畛域。歷史的經(jīng)驗(yàn)告訴我們,“落后就要挨打”“發(fā)展才是硬道理”。回顧人類文明的歷史長河,我們不難發(fā)現(xiàn),在國際社會占據(jù)著主導(dǎo)地位的往往是手握可控的強(qiáng)殺傷武器的國家。由此,致命性自主武器系統(tǒng),應(yīng)運(yùn)而生,在武器之上應(yīng)用人工智能技術(shù),改變傳統(tǒng)的戰(zhàn)爭模式。

        (一)致命性自主武器系統(tǒng)的含義

        2017年,UC Berkeley大學(xué)的教授Stuart Russell公布了一段“殺人蜂”機(jī)器人的視頻在國際上引發(fā)高度關(guān)注。視頻中,一個類似蜜蜂大小的機(jī)器人攜帶三克彈藥飛入教室,通過人臉識別準(zhǔn)確瞄準(zhǔn)了學(xué)生的額頭然后一擊致命。雖然視頻中的內(nèi)容不是真實(shí)發(fā)生的,但以現(xiàn)在的技術(shù)制造出這樣的武器已并非難事。這種裝載著先進(jìn)的人工智能,擁有自主控制能力,能自主地決定攻擊和防御,具有剝奪生命的能力的新型武器,就是致命性自主武器,“殺人蜂”機(jī)器人是其中一種。深度學(xué)習(xí)算法和數(shù)據(jù),共同組成了這種新型武器的CPU(Central Processing Unit),能夠自主進(jìn)行數(shù)據(jù)采集、智能驅(qū)動等一系列決策反應(yīng)。

        (二)致命性自主武器系統(tǒng)的特點(diǎn)

        1. 自主性

        在整個作戰(zhàn)過程中,LAWS不需要指揮官下達(dá)指令、不需要戰(zhàn)斗員進(jìn)行操控。人工智能具備自主學(xué)習(xí)、自動適應(yīng)的能力,可以通過不斷地經(jīng)驗(yàn)積累實(shí)現(xiàn)系統(tǒng)的智能調(diào)整變化。因此,自主化技術(shù)的應(yīng)用可促使作戰(zhàn)體系中各類系統(tǒng)逐步演變?yōu)樽灾骰到y(tǒng),例如自主導(dǎo)彈武器系統(tǒng)、自主任務(wù)規(guī)劃系統(tǒng)等[1]。實(shí)際上,在早些時候,一些武器的設(shè)計理念和發(fā)射方式已經(jīng)初具自主武器系統(tǒng)的雛形,“末敏彈”就是其中一種?!澳┟魪棥笔菑椀滥┒丝梢蕴綔y出目標(biāo)裝甲的方位并使戰(zhàn)斗部朝著目標(biāo)方向爆炸的一種新型靈巧彈藥[2]。但“末敏彈”不僅不能自主發(fā)射,不能主動跟蹤目標(biāo),甚至不能撤回,只能在發(fā)射后,通過一系列程序探測目標(biāo)。另一種武器是自動崗哨炮。自動崗哨炮由雷達(dá)控制,通過激發(fā)閾值條件,自動向入侵者實(shí)施打擊。但仍不能說自動崗哨炮具有了自主性,因?yàn)槠淙匀皇峭ㄟ^執(zhí)行計算機(jī)程序完成作戰(zhàn)任務(wù),只是在武器系統(tǒng)中添加了一個計算機(jī)條件語句,如果條件成立,則執(zhí)行一個結(jié)果,假如條件不成立,則執(zhí)行另一個結(jié)果,而不能自主選擇劃定自己的攻擊范圍。這個條件就是在雷達(dá)范圍內(nèi)出現(xiàn)了入侵者,本質(zhì)和地雷一樣,只有戰(zhàn)斗員踩上時,才會觸發(fā)爆炸。

        2. 靈活性

        LAWS的其中一個優(yōu)勢是,在戰(zhàn)場上持有LAWS的作戰(zhàn)方將極大的降低己方人員的傷亡。目前,世界各軍事大國為了提升作戰(zhàn)人員在戰(zhàn)場上的生存能力,研發(fā)了各式各樣的自動武器,使武器的配置呈現(xiàn)多樣化。如美國先進(jìn)的無人機(jī)技術(shù),具備快速并且精準(zhǔn)的戰(zhàn)斗能力,既能完成偵察、跟蹤、監(jiān)視等任務(wù),也能在必要時給予敵方毀滅性的打擊,在作戰(zhàn)中即使被擊落,損失的僅僅是一架機(jī)器,沒有任何人員傷亡。但無人機(jī)并不是自主武器,而是自動武器,原因在于無人機(jī)作出的一系列行為并非是自主決策的,而是由地面操作員使用傳感器操控。但飛機(jī)、坦克、艦艇朝著自主武器發(fā)展已成為一種趨勢。

        LAWS能根據(jù)地形、天氣、溫度、濕度等環(huán)境因素作出靈活反應(yīng),比人類戰(zhàn)斗員更能克服復(fù)雜、惡劣的戰(zhàn)場環(huán)境。相比于人類戰(zhàn)斗員在任何作戰(zhàn)行動中,都會難以抑制地產(chǎn)生害怕、緊張、焦慮、憤怒等一系列情緒,依靠電子信息運(yùn)轉(zhuǎn)的LAWS則是純粹的殺人機(jī)器,不會由于疲憊、受傷等原因懈怠作戰(zhàn)任務(wù)的執(zhí)行。換言之,只要武器系統(tǒng)有合理的電源管理和完備的運(yùn)轉(zhuǎn)系統(tǒng),毀滅目標(biāo)即是LAWS唯一的目的。

        LAWS的另一優(yōu)勢是降低軍費(fèi)支出和改變軍費(fèi)結(jié)構(gòu)。一方面國家不需要再維持大量的軍事人力支出,從而節(jié)省軍人的生活費(fèi)、裝備購置費(fèi)、維修費(fèi)、管理費(fèi),以及住房、醫(yī)療、保險、養(yǎng)老等巨大支出。另一方面,將這些開支轉(zhuǎn)移到軍事科學(xué)研究費(fèi)上,既能提升軍隊?wèi)?zhàn)斗力,也能對民用經(jīng)濟(jì)起到促進(jìn)和推動作用。具有軍民共用性質(zhì)的科研、教育以及基本建設(shè)支出,可直接或間接為民用經(jīng)濟(jì)貢獻(xiàn)利益,充分發(fā)揮軍費(fèi)開支的社會綜合使用效益[3]。

        3. 雙面性

        任何事物都具有兩面性。Stuart Russell教授公布的“殺人蜂”視頻,令人心懷恐懼,恐懼源于人的尊嚴(yán)可能得不到保障。人類被自己創(chuàng)造出的機(jī)器剝奪了生命,這難道不是對人類尊嚴(yán)的侮辱嗎?如果機(jī)器人能夠決定人的生死,這難道不是對人權(quán)的挑戰(zhàn)嗎?除此之外,LAWS還在諸多方面威脅著人權(quán)和挑戰(zhàn)人類的尊嚴(yán),同時也挑戰(zhàn)著國際法的原則與底線。

        我們無法知道我們是會無限地得到人工智能的幫助,還是被其藐視或被邊緣化,甚至很可能被它毀滅[4]。

        二、致命性自主武器系統(tǒng)的法律風(fēng)險

        (一)法律責(zé)任的歸屬模糊不清

        目前,計算機(jī)和人工智能已經(jīng)在生活中的很多領(lǐng)域作出影響人類的決策,小到瑣碎的家務(wù),例如根據(jù)天氣調(diào)整家里的空調(diào),幫助用戶制定日常的出行計劃。甚至在某種程度上,汽車的自動駕駛功能可以說決定著乘客與路人的生命健康。2018年,亞利桑那州發(fā)生了一起自動駕駛汽車撞死路人的案件,事故的責(zé)任主體尚無法確定,自主武器系統(tǒng)更是一個人工智能作出決策的極端例子。由于法律缺失,使用者很有可能借此逃避法律責(zé)任。盡管我們可以對其進(jìn)行道德上的譴責(zé),但對于已經(jīng)損失了生命或財產(chǎn)的受害者來說于事無補(bǔ),受害者及其家屬的精神得不到告慰,于是正義便由此喪失了。甚至,有時候只是系統(tǒng)的漏洞而并非人的意愿就導(dǎo)致了最差的結(jié)果,我們也許應(yīng)該思考,不論研發(fā)人員在研發(fā)過程中是基于什么樣的心理,這種東西從被應(yīng)用于軍事領(lǐng)域而被創(chuàng)造出來的那一刻,它的存在本身是否就是非正義的。畢竟,無論是基于自衛(wèi)還是為了在無形的“軍備競賽”中占據(jù)武力的制高點(diǎn),LAWS的存在即擁有被用于戰(zhàn)爭的可能性,而戰(zhàn)爭本身,就已經(jīng)充斥著對生命尊嚴(yán)的漠視和對人權(quán)的剝奪。

        人工智能的本質(zhì)是讓機(jī)器能夠模仿人類大腦對信息的處理方式,從而對指令和外部因素作出反應(yīng)。這種反應(yīng)是數(shù)據(jù)運(yùn)算的結(jié)果,并不是機(jī)器真正擁有了思考的能力。數(shù)據(jù)運(yùn)算所依賴的算法是人工編寫的,任何人或團(tuán)隊都不可能預(yù)測到所有可能出現(xiàn)的場景,人工智能系統(tǒng)中建立的只是一種簡化模型,即針對某一類情況全部作出同一種反應(yīng)。人工智能的這種不可避免的缺陷,不同于普通的產(chǎn)品瑕疵責(zé)任,在容錯率極低的軍事領(lǐng)域中,模糊的設(shè)置將帶來巨大的影響,有時可能會造成誤傷和誤殺。如果將危害結(jié)果全部認(rèn)定為生產(chǎn)者責(zé)任,這無疑是不公平的。生產(chǎn)者不應(yīng)當(dāng)承擔(dān)使用者造成的責(zé)任,這會使得使用者逃脫責(zé)任。但如果讓使用者來承擔(dān)責(zé)任,那些本意只是針對作戰(zhàn)目標(biāo)而并不是濫殺無辜的使用者又會因此蒙冤。在這種情境下,我們很容易發(fā)現(xiàn),由于技術(shù)的不成熟,我們好像很難在一場由LAWS引發(fā)的災(zāi)難中裁定責(zé)任的歸屬。

        按照《第一附加議定書》的規(guī)定, 如果指揮官的下級,正在或者將要施行嚴(yán)重違反日內(nèi)瓦公約或第一附加議定書的行為,指揮官知曉或者根據(jù)其所掌握的證據(jù)可以知曉嚴(yán)重違反日內(nèi)瓦公約或第一附加議定書的行為正在實(shí)施或即將實(shí)施,而指揮官沒有采取措施預(yù)防,即便是下級所實(shí)施的犯罪行為,亦不能免除指揮官的責(zé)任。通過上述規(guī)定,我們可以看出,要成立指揮官責(zé)任,必須要有法律或事實(shí)的上下級的關(guān)系。如果把LAWS看作一件武器工具而直接為指揮官定罪,這忽略了LAWS的自主性,從某種意義上說,被LAWS“剝奪”了戰(zhàn)場上的決策權(quán)的指揮官成了替罪羊,這是對人類尊嚴(yán)的挑戰(zhàn)。而如果承認(rèn)LAWS是事實(shí)意義上的下級,這意味著賦予了人工智能人格權(quán),盡管可以認(rèn)定指揮官承擔(dān)共同犯罪的責(zé)任,但將引發(fā)巨大的道德風(fēng)險。

        由LAWS引發(fā)的責(zé)任到底應(yīng)該由誰來承擔(dān),仍未可知。

        (二)無法辨別戰(zhàn)斗員與非戰(zhàn)斗員

        上文提到,由于技術(shù)的不成熟,LAWS可能帶來一系列危機(jī),從而威脅人類尊嚴(yán)和挑戰(zhàn)國際人道法的底線。由于裝載了人工智能,武器擁有了自己的“大腦”,于是能夠在戰(zhàn)場中進(jìn)行一系列的自主行為。但機(jī)器人的自主決策能力是有缺陷的,算法和數(shù)據(jù)能賦予機(jī)器人模仿人類行為模式的能力,卻不能賦予其感情,只是增強(qiáng)了提煉和推算數(shù)據(jù)的能力。在計算能力上,人工智能遠(yuǎn)超人類智能,在執(zhí)行能力上,人類也遠(yuǎn)不如人工智能果斷、高效,但我們?nèi)匀徽J(rèn)為,人工智能的行為是非理智的,是不全面的。

        一個人類狙擊手在執(zhí)行作戰(zhàn)任務(wù)時,要計算距離、風(fēng)速、濕度,在射擊前要受到體力、環(huán)境、心理的影響,而且不能保證百分百命中目標(biāo)。一個殺手機(jī)器人從鎖定目標(biāo)到完成擊殺可能只需要一瞬間。大肆鼓吹LAWS的人會借此發(fā)揮,作戰(zhàn)任務(wù)的成功率大大提高了,因此LAWS的投入使用是一勞永逸的。從事理上看,事情的結(jié)果的確是作戰(zhàn)方追求的,但從情理上思考,巨大的道德風(fēng)險已經(jīng)悄然發(fā)生了。原因在于,一條生命被剝奪的時候,沒有經(jīng)過任何審判。狙擊手在扣動扳機(jī)之前,一定會在腦海中閃過一個念頭,這個人是否真的需要被剝奪生的權(quán)利,或者至少會意識到,自己馬上就要剝奪一個人的生命。但機(jī)器人在執(zhí)行任務(wù)過程中,缺少了“理性的思考”這一至關(guān)重要的步驟,而且永遠(yuǎn)也不會擁有。我們要知道的是,支撐人工智能行為的是數(shù)據(jù)和指令,而不是對政治、軍事、情感、歷史的綜合分析和思考。這帶來一個致命的問題:LAWS不知道什么時候應(yīng)該停止殺戮。

        這一問題在戰(zhàn)場上的表現(xiàn)是:可能造成無辜者的犧牲。具體說來,在戰(zhàn)場上投放LAWS的這種作戰(zhàn)手段(方法),挑戰(zhàn)了國際法對戰(zhàn)爭與武裝沖突規(guī)定的底線,違反了區(qū)分原則和比例原則等原則。立法目的,是把戰(zhàn)斗員與非戰(zhàn)斗員在戰(zhàn)場之中給予不同對待。這樣做的意義在于,從人道主義出發(fā),避免無辜者的生命和財產(chǎn)遭受損害。除此之外還要區(qū)分軍用與民用物體和目標(biāo)。而LAWS無法辨別戰(zhàn)斗員和非戰(zhàn)斗員,因?yàn)樯a(chǎn)者和指揮者不可能采集到戰(zhàn)場上出現(xiàn)的所有敵人的外貌特征,與執(zhí)行暗殺任務(wù)、定點(diǎn)打擊的武器不同,LAWS在戰(zhàn)場上只能對信息進(jìn)行模糊處理,因此很有可能造成無辜者的犧牲。然而在戰(zhàn)場上,能否區(qū)分平民與戰(zhàn)斗員只是最基本要求,一個合格的戰(zhàn)斗員還必須在戰(zhàn)斗員與傷員間、甚至是將要實(shí)施自殺式炸彈襲擊的暴徒和身懷六甲的孕婦間作出區(qū)分,而這些區(qū)分都必須結(jié)合實(shí)時相關(guān)的情勢和環(huán)境進(jìn)行判別[5]。

        (三)超過其他限制原則

        除了無辜者的傷亡,一些已經(jīng)退出戰(zhàn)斗的人的生命在LAWS面前也將受到威脅?!度諆?nèi)瓦公約》作出規(guī)定:在戰(zhàn)爭中不能向已經(jīng)跳傘的飛行員射擊。由于人工智能無法理解或重視生命的價值和意義,一架裝載了LAWS的無人機(jī),很大概率上會向下落中的飛行員做出過分攻擊。人道保護(hù)和軍事必要性之間的權(quán)衡與取舍是價值判斷,而不是僅通過定量分析就能夠做出的決定,這恰恰是人工智能難以完成的任務(wù)[6]。除此以外,國際法的諸多原則也都面臨著挑戰(zhàn)。例如,不加限制地給LAWS裝載有過分殺傷和極度殘忍的武器,違背軍事必要性的原則,以及違反中立原則,造成傷員、病員、戰(zhàn)俘等被保護(hù)的人員傷亡。

        另外,還有引起或加劇局部沖突的風(fēng)險。試想沖突雙方都擁有LAWS,雙方很大程度上會陷入“囚徒困境”。戰(zhàn)場上,任何人都不愿將自己置于被動的境地,因此一方為避免己方遭受慘重的損失,必然會選擇“背叛”對方的作戰(zhàn)方式,先行發(fā)動攻擊。這種假想防衛(wèi),會引發(fā)不必要的沖突,造成不必要的損失,使原先和平談判的機(jī)會因此喪失。

        自主武器應(yīng)用的本意是改變傳統(tǒng)的作戰(zhàn)模式,減少人員的傷亡,從而使人類的生命得到尊重。而在將是否剝奪一個人性命的審判權(quán)轉(zhuǎn)移到不承認(rèn)人類生命價值的機(jī)器人的手中時,人類的尊嚴(yán)受到了威脅。因此我們需要進(jìn)一步地思考和調(diào)查,以確保維持人類對武器足夠地控制,從而確保人類可以對武器的使用負(fù)責(zé)。并且在制定法律來管理LAWS的使用時,必須采取預(yù)防措施,因?yàn)檫@些法律將如何影響社會存在不確定性。

        三、現(xiàn)有國際規(guī)則的缺陷

        LAWS與核、生物、化學(xué)武器等顯著不同,“全面禁止、徹底銷毀”等針對核武、生化武器等反人道的大規(guī)模殺傷性武器所倡導(dǎo)的原則,對于人工智能武器的軍備控制并不適用。但其具有靈活性、自主性、機(jī)動性,具有突然進(jìn)攻的軍事能力,又與常規(guī)武器不同,現(xiàn)有的常規(guī)軍備控制條約也不能有效限制人工智能武器的發(fā)展。

        目前的軍控條約內(nèi)容主要是限制武器數(shù)量,對于人工智能武器而言,并不是以量取勝,而是以質(zhì)取勝。對于軍事強(qiáng)國來說,出于占領(lǐng)軍事技術(shù)制高點(diǎn)的目的往往不愿意讓本國的軍備計劃受到國際法過多約束。在有關(guān)國際規(guī)則不明晰和強(qiáng)軍強(qiáng)國戰(zhàn)略的背景下,人工智能在軍事領(lǐng)域的威脅在不斷增加。因此加強(qiáng)人工智能的國際治理工作,降低軍備競賽風(fēng)險則是當(dāng)務(wù)之急[7]。此前,激光致盲武器、殺傷人員地雷、餌雷等其他裝置、無法檢測的碎片、燃燒武器等非人道武器已經(jīng)受到相關(guān)條約禁止或限制,LAWS應(yīng)成為現(xiàn)階段軍控的重點(diǎn)。

        2014年至2016年,聯(lián)合國裁軍與國際安委會已經(jīng)召開三次非正式專家會議。討論的議題包括技術(shù)革新、概念定義以及這種新型武器可能引發(fā)的安全、法律和倫理道德等各種問題[8]。參與者有聯(lián)合國《特定常規(guī)武器公約》的締約國,各類國際組織、非政府組織、大學(xué)等學(xué)術(shù)和教育機(jī)構(gòu)的專家學(xué)者。樂觀的是,目前已經(jīng)有越來越多的國家開始關(guān)注新武器的發(fā)展趨勢并為之擔(dān)憂,以及越來越多的專家學(xué)者主要是國際人道法學(xué)家開始呼吁限制新武器的發(fā)展和使用,這表明新武器的發(fā)展和使用已逐漸成為一個正式層面的國際熱點(diǎn)話題而為人所審視。

        《日內(nèi)瓦四公約第一附加議定書》規(guī)定,在發(fā)展和使用新武器時,要預(yù)先對其影響作出判斷。因此,各國有義務(wù)對新武器、作戰(zhàn)手段及方法進(jìn)行法律審查,以確定它們是合法的,并需要明確在某些情形下使用這些武器是不是違反國際法。不過至今自主武器系統(tǒng)仍無一個明確的、為世界所公認(rèn)的定義,只有國際紅十字委員會等國際組織的一些解釋,更無權(quán)威機(jī)構(gòu)徹底審視自主武器系統(tǒng)的合法性并呼吁全面禁止。原因有以下幾點(diǎn)。

        (1)自主武器系統(tǒng)現(xiàn)階段只是一個武器搭載平臺,其上所搭載的機(jī)槍、榴彈、高射炮、導(dǎo)彈等本身是合法的,違法的是造成傷害的行為。

        (2)研發(fā)LAWS的本意是震懾武力的使用,并在必要時保全己方士兵的生命,從生命健康權(quán)的角度看,LAWS保全了人的人格權(quán),使人類尊嚴(yán)得到保障,但卻可能造成戰(zhàn)爭受難者的傷亡。

        (3)人工智能已廣泛出現(xiàn)于各個領(lǐng)域,人類的天性決定了我們不會把已經(jīng)出現(xiàn)了的問題放到以后解決,但以目前人類的道德水平又很難使LAWS得到合理使用。因此以目前的技術(shù)水平和法律技術(shù),自主武器系統(tǒng)還難以規(guī)制。

        四、致命性自主武器系統(tǒng)的規(guī)制建議

        首先,應(yīng)盡早創(chuàng)立監(jiān)管人工智能武器的專業(yè)國際組織,可以作為聯(lián)合國的一個下屬機(jī)構(gòu),或多邊機(jī)構(gòu),專門負(fù)責(zé)對人工智能軍事應(yīng)用的管理[9]。同時呼吁各國在其管轄范圍內(nèi)建立權(quán)威的機(jī)構(gòu),對LAWS進(jìn)行法律審查,事先確定其合法性,并就責(zé)任的分配問題與相關(guān)團(tuán)體進(jìn)行談判,完善責(zé)任機(jī)制。

        第二,明確LAWS的法律性質(zhì),它不是一種新的作戰(zhàn)手段和方法,而是一種新武器。由于LAWS具有自主性,使用者僅僅是需要啟動它并投放戰(zhàn)場,因此對于LAWS的使用并不能稱為一種方法。而且LAWS并不是在所有情境中的使用都是極度殘忍、都是背信棄義、都是不分青紅皂白地,只是由于技術(shù)的原因有傷害無辜者的風(fēng)險。如果確認(rèn)為一種作戰(zhàn)方法對于武器的投放者而言,決策權(quán)在戰(zhàn)場之中是被剝奪的,人類的尊嚴(yán)絕不容許受到這樣威脅。武器是人類制造的,再先進(jìn)的武器也是由人來完成控制和使用,通過法律審查的LAWS必須在一個人的適當(dāng)和有效的控制之下。所引發(fā)的風(fēng)險應(yīng)通過軍備控制來進(jìn)行有效限制,具體可根據(jù)LAWS裝載的武器和使用途徑參照《特定常規(guī)武器公約》的經(jīng)驗(yàn)。

        第三,禁止LAWS成為濫殺濫傷或造成過分傷害的武器。在任何武裝沖突中,國家選擇使用LAWS的權(quán)利都是有所限制的。承認(rèn)新武器的地位并不意味著國家可以無限制地發(fā)展和使用新武器,還需要考慮政治和道德因素。一個國家不應(yīng)因?yàn)榧夹g(shù)的優(yōu)勢利用LAWS造成過分傷害或不必要的痛苦,即便是無意地傷害,也為國際社會帶來了道德風(fēng)險,因此國家應(yīng)合法、有區(qū)別和按比例地使用LAWS。

        第四,各國的專家學(xué)者應(yīng)繼續(xù)加強(qiáng)國際間學(xué)術(shù)交流。一方面應(yīng)積極指出LAWS目前存在哪些的技術(shù)問題,可能會帶來哪些不可挽回的損失。另一方面要審視LAWS是如何違反人道的。武器的威力越大,改變戰(zhàn)爭結(jié)局的可能性就愈高。同樣,脫離人控制的可能性也越高,受制的因素也應(yīng)該更多,因此投入使用的概率應(yīng)該越小。各國專家學(xué)者應(yīng)積極建言獻(xiàn)策,以避免軍備競賽以及一系列道德危機(jī)。

        第五,各軍事強(qiáng)國應(yīng)共同攜手維護(hù)國際安全。現(xiàn)代戰(zhàn)爭中,武器成了決定戰(zhàn)爭成敗的重要因素,往往是掌握尖端科學(xué)技術(shù)的國家引領(lǐng)著武器的發(fā)展方向。新武器是科學(xué)技術(shù)的結(jié)晶,與之匹配的應(yīng)是足夠高的社會文明和道德素養(yǎng),而不應(yīng)該把武器當(dāng)作維護(hù)霸權(quán)主義或占據(jù)軍事制高點(diǎn)的工具,各軍事強(qiáng)國應(yīng)樹立責(zé)任意識,共同推動對新武器的限制和制約,維護(hù)國際社會的和諧穩(wěn)定。

        五、結(jié)語

        目前,致命性自主武器系統(tǒng)的使用是違法的,更是嚴(yán)重違反人道的,但關(guān)于自主武器系統(tǒng)應(yīng)用的討論已經(jīng)到了一個分水嶺。我們要承認(rèn),人工智能武器能在降低軍費(fèi)、提高管理效率、操作能力方面提供巨大回報。但前提是LAWS能得到合法使用,但實(shí)際情況是一些弱人工智能時代無法解決的技術(shù)問題會給人類尊嚴(yán)帶來威脅,讓LAWS的使用變得不合法,這讓我們不得不猶豫是否暫緩或禁止這種武器的研發(fā)使用。

        近年來,中國對這一問題的研究貢獻(xiàn)了諸多力量,無數(shù)專家學(xué)者提出了中國方案,展現(xiàn)了中國智慧。不管是現(xiàn)在還是將來,中國都應(yīng)繼續(xù)在國際社會中保持負(fù)責(zé)任的大國形象,一方面應(yīng)積極推進(jìn)有關(guān)限制條約的談判和協(xié)商,另一方面要積極申請和保護(hù)我國在人工智能方面的知識產(chǎn)權(quán),以此避免用以造福人類的先進(jìn)技術(shù)被居心叵測之人用于破壞人類安寧的行為。我們反對一切用于非正義行為的武器。

        可怕的并不是違法的東西,因?yàn)檫`法的東西可以從根源上扼殺。真正可怕的是用違法的方式使用合法的東西,而這往往讓人防不勝防。否則,當(dāng)人工智能技術(shù)完全成熟的那一天到來,人們也難以守住最基本的道德底線[10]。

        參考文獻(xiàn):

        [1] 秦園麗,張訓(xùn)立,高桂清,王康.自主式導(dǎo)彈作戰(zhàn)體系建設(shè)的思考[J].飛航導(dǎo)彈,2019(11):4-7+47.

        [2] 辛宇天,楊成文,樊琨.末敏彈及其對抗方法分析[J].艦船電子工程,2013,33(12):16-17+75.

        [3] 潘倩.軍費(fèi)結(jié)構(gòu)優(yōu)化的機(jī)會成本分析[J].現(xiàn)代商貿(mào)工業(yè),2011,23(23):189-190.

        [4] 霍金.讓人工智能造福人類及其賴以生存的家園[J].智能機(jī)器人,2017(2):21-23.

        [5] 李錚.國際人道法下新武器之自主武器系統(tǒng)合法性探究[J].軍事文摘,2019(19):46-50

        [6] 基于國際人道法的人工智能武器爭議[J].信息安全與通信保密,2019(5):25-27

        [7] 魯傳穎.人工智能安全:挑戰(zhàn)與機(jī)遇[J].重慶與世界,2018(20):59-61.

        [8] 劉楊鉞.全球安全治理視域下的自主武器軍備控制[J].國際安全研究,2018,36(2):49-71+157-158.

        [9] 周璞芬,王一泓.淺談人工智能軍事應(yīng)用的國際法風(fēng)險及對策[J].國防,2019(10):22-26.

        [10] 李錚.國際人道法下新武器之自主武器系統(tǒng)合法性探究[J].軍事文摘,2019(19):46-50.

        作者簡介:吳鈺章(1998- ),男,山東青島人,中國人民公安大學(xué)碩士研究生,研究方向?yàn)閲H法學(xué)。

        猜你喜歡
        國際法
        論陳顧遠(yuǎn)之先秦國際法研究及啟示——基于《中國國際法溯源》
        論作為國際法淵源的一般法律原則
        法律方法(2021年4期)2021-03-16 05:35:44
        國際法和比較法中的法律方法 柔性國際法的疆界及其界定方法
        法律方法(2021年4期)2021-03-16 05:35:42
        作為國際法淵源的條約
        法律方法(2021年4期)2021-03-16 05:34:44
        國際法類比國內(nèi)法的反思與建構(gòu)
        法律方法(2020年2期)2020-11-16 01:23:48
        南京事件的爭論與國際法
        國際法風(fēng)險預(yù)防原則的解釋論
        法律方法(2018年3期)2018-10-10 03:21:38
        歐盟法院適用國際法的方法與邏輯
        法律方法(2018年3期)2018-10-10 03:20:50
        國際法上的禁止使用武力
        論保護(hù)責(zé)任的國際法屬性
        无码人妻一区二区三区在线| 亚洲性码不卡视频在线| 亚洲第一大av在线综合| 无码专区一ⅴa亚洲v天堂 | 青草青草久热精品视频国产4| 国产91九色免费视频| 一 级做人爱全视频在线看| 在线亚洲午夜理论av大片| 国产在线不卡视频| 午夜视频手机在线免费观看| 18禁裸体动漫美女无遮挡网站| 国产农村乱子伦精品视频| 欧美日韩性高爱潮视频| 精品亚洲av一区二区| 无码 人妻 在线 视频| 扒开双腿疯狂进出爽爽爽视频| 久久婷婷国产精品香蕉| 亚洲精品天堂日本亚洲精品| 成人欧美一区二区三区在线观看 | 国产精品一区av在线| 啦啦啦www在线观看免费视频| 久久天天躁狠狠躁夜夜爽蜜月| 亚洲色欲色欲www在线播放| 国产清品夜色一区二区三区不卡 | 精品高清免费国产在线| 内射爽无广熟女亚洲| 四虎精品影视| 白丝美女扒开内露出内裤视频 | 亚洲av高清一区二区| 色一情一乱一伦麻豆| 亚洲av区无码字幕中文色| 91精品国产综合久久青草| 国产日本精品一区二区免费| 手机看黄av免费网址| 成在人线av无码免费| 国产免费视频一区二区| 一区二区三区最新中文字幕| 福利体验试看120秒| 国产片三级视频播放| 中文字幕女同人妖熟女| 亚洲精品www久久久|