近日,在聯(lián)合國人權(quán)理事會會議上,有代表提交報告,呼吁關(guān)注自動殺人機器人的問題。這份報告指出,美英等國正在積極推進研發(fā)能代替人類士兵的機器人武器。一旦這類機器人研發(fā)成功,戰(zhàn)爭形態(tài)大變的時代就將到來。該報告要求聯(lián)合國通過決議,凍結(jié)此類研發(fā)項目,并成立專門委員會,研究如何規(guī)范機器人在未來戰(zhàn)爭中的使用。
機器人大戰(zhàn)人類一直是科幻電影的熱門題材。早在上世紀80年代,以《終結(jié)者》為代表的好萊塢影片就提出:如果機器人有了智能,會將人類視為敵人。而早在上世紀40年代,著名科幻小說家阿西莫夫就指出機器人叛變的可能性,并且提出“機器人三原則”:機器人不得傷害人類;機器人必須服從人類的命令,除非這條命令與第一條相矛盾;機器人必須保護自己,除非這種保護與以上兩條相矛盾。
他的科幻小說機器人三部曲,就是圍繞機器人智能化后的倫理和法律問題進行探討。
如今,無人化的戰(zhàn)場已經(jīng)成為未來的發(fā)展方向,自動殺人機器人早就不是科幻電影的道具了。
上世紀80年代,各軍事大國開始普及全自動地面防空系統(tǒng)。也就是說,電腦根本無需人工干預(yù),只要發(fā)現(xiàn)可疑空中目標,就會對其進行跟蹤、鎖定和射擊等一系列的戰(zhàn)術(shù)動作。戰(zhàn)斗機和空對地導(dǎo)彈的速度越來越快,防空系統(tǒng)如果需要人工判定攻擊與否,反應(yīng)速度會滯后,無法應(yīng)付現(xiàn)代化的空中攻擊力量。此外,自主攻擊的無人機、無人戰(zhàn)車和潛艇均已完成了此類測試。
既然自動殺人機器人并不是新生事物,為何聯(lián)合國現(xiàn)在才提出這個問題呢?
過去,這類武器主要應(yīng)用于要地防空,或者陣線防御等區(qū)域。盡管也曾出現(xiàn)過法律上的問題,畢竟其影響僅限于較小的范圍。隨著無人機、無人車輛以及無人潛艇等裝備的普及,未來戰(zhàn)場無人化的趨勢越來越明顯。
這些武器往往用于深入敵后執(zhí)行偵察或攻擊任務(wù),任何國家的后方均可能遭到此類武器攻擊。在這種情況下,如果對其使用不提前加以規(guī)范,很可能造成非常嚴重的人道主義災(zāi)難。
近年來,美軍在反恐戰(zhàn)爭中的無人機應(yīng)用越來越肆無忌憚。美國的無人機不僅頻繁入侵他國領(lǐng)空,奧巴馬總統(tǒng)更授權(quán)中情局和國防部可以用無人機消滅參加恐怖活動的美國公民。
盡管在無人機大規(guī)模應(yīng)用之前,自動化殺人機器人主要還是應(yīng)用于防空作戰(zhàn),但其危害性早已顯現(xiàn)。1988年7月3日,一架伊朗民航客機被美國海軍“文森斯”號導(dǎo)彈巡洋艦判定為伊朗空軍的F-14戰(zhàn)機,并且認定其存在威脅。在無線電聯(lián)系不上的情況下,美軍發(fā)射兩枚“標準”防空導(dǎo)彈,其中1枚直接命中??蜋C隨后墜落于波斯灣,機上290人全部遇難。
在上述案例中,美軍導(dǎo)彈的操作模式并未設(shè)定成全自動模式。由此可見,即便是半自動模式的防空系統(tǒng),在電腦出現(xiàn)誤判后,仍然可能造成重大的無辜人員傷亡??上攵?,全自動殺人機器更不可靠。
以往攻擊一個目標需要人工錄入信息到無人機的電腦中。在未來的戰(zhàn)爭中,可能不需要設(shè)定攻擊目標,只要發(fā)出一個模糊的指令。指揮官可以把無人機派到敵人的領(lǐng)空,然后喝著咖啡,等待隱藏目標被摧毀。但是,如果無人機的判斷出了問題呢?它可能攻擊民用目標,造成重大傷亡,而無人機本身不會有任何負罪感!我們必須考慮的是:由此帶來的法律后果由誰承擔?是無人機的指揮官,還是它的設(shè)計制造者?