人類再厲害也抵擋不住的“殺手機(jī)器人”
“殺手機(jī)器人”一旦發(fā)展起來,可能導(dǎo)致武裝沖突以比以往任何時(shí)候更大的規(guī)模進(jìn)行,而且速度比人類所能理解的還要快。于是很多人開始擔(dān)心,“這些自主武器可能被獨(dú)裁者和恐怖分子用來對付無辜人群。一旦潘多拉的盒子打開,就很難再關(guān)閉”。
人類智力超群,但受制于“肉身”的生理極限,有些地方去不了。在溫度過高過低或者有毒有害的環(huán)境下,機(jī)器人就是很好的選擇。而且,機(jī)器人不需要工資,不需要吃飯,不需要?jiǎng)訂T,也不會有心理疾病……好處簡直太多了。
《解放軍報(bào)》的一篇文章說,或許有那么一天,在戰(zhàn)場上沖鋒陷陣的不再是血肉之軀的“人”,而是“鋼鐵戰(zhàn)士”。軍人只需要坐在屏幕面前觀察和指揮,就像打電子游戲一樣。
全球著名信息服務(wù)商IDC(國際數(shù)據(jù)公司)最新發(fā)布的報(bào)告指出,2017年全球機(jī)器人相關(guān)(包括無人機(jī)、機(jī)器人相關(guān)軟硬件/服務(wù))支出金額預(yù)估將達(dá)972億美元、較2016年成長17.9%。IDC預(yù)期未來五年機(jī)器人支出將加速成長、2021年達(dá)到2307億美元,復(fù)合年增率預(yù)估為22.8%。
人工智能的不斷發(fā)展,也讓未來戰(zhàn)場上出現(xiàn)“機(jī)器人士兵”的可能性正不斷增大。
英國《每日郵報(bào)》6月15日報(bào)道說,五角大樓已經(jīng)發(fā)出一項(xiàng)標(biāo)價(jià)1100萬美元的合同,以組建具有人類和機(jī)器人協(xié)同作戰(zhàn)能力的“聯(lián)合兵種班”,新系統(tǒng)可望在2019年年中之前完成。
專家預(yù)言,機(jī)器人將是戰(zhàn)爭的未來——而它的到來也許會比許多人預(yù)料的更快。“今日俄羅斯”電視臺報(bào)道說,前英國情報(bào)官員約翰·巴塞特去年曾表示:“有智慧的機(jī)器人武器是一種真實(shí)的存在,到2030年它們將會無所不在。到2025年前后的某個(gè)時(shí)候,美國陸軍實(shí)際上擁有的戰(zhàn)斗機(jī)器人的數(shù)目將多于人類士兵的人數(shù)?!?/p>
在美軍的各個(gè)部門,人機(jī)關(guān)系愈發(fā)緊密,士兵們已與機(jī)器伙伴建立起了嶄新的關(guān)系。
機(jī)器人家族中最拉風(fēng)的,要數(shù)代號為“劍”的美軍戰(zhàn)斗機(jī)器人。它個(gè)頭不足1米,卻披掛“豪華”,裝備有四臺光學(xué)偵察瞄準(zhǔn)設(shè)備、M-249機(jī)槍、M-16系列突擊步槍和M202-A16毫米火箭彈發(fā)射器等。它每分鐘可射出1000發(fā)子彈,而且命中率極高,幾乎達(dá)到100%。
科幻電影里的戰(zhàn)斗機(jī)器人
其他國家軍隊(duì)和各種武裝組織也在開發(fā)自己的戰(zhàn)斗機(jī)器人。2015年,俄羅斯在打擊極端組織“伊斯蘭國”時(shí),六臺多用途戰(zhàn)斗機(jī)器人、四臺火力支援戰(zhàn)斗機(jī)器人和三架無人機(jī)同“仙女座-D”自動(dòng)化指揮系統(tǒng)建立無人作戰(zhàn)集群,先于有人作戰(zhàn)力量行動(dòng),實(shí)施偵察與打擊。
敘政府軍隨后跟進(jìn)實(shí)施清剿,整個(gè)戰(zhàn)斗持續(xù)了20分鐘,一舉消滅敵方70名武裝分子,而敘政府軍僅有四人受傷。
不過,被美軍部署到伊拉克的戰(zhàn)斗機(jī)器人“劍”還未開一槍就很快從戰(zhàn)場被撤回——因?yàn)樗鼈冏隽丝膳碌氖虑椋簩尶谥赶蛩鼈兊娜祟愔笓]官。
機(jī)器人“叛亂”警示人們,關(guān)于機(jī)器人作戰(zhàn)的研究項(xiàng)目并非想象中那么順利。同時(shí),公眾對“殺手機(jī)器人”的恐慌日益顯露。早在2012年,就有多個(gè)非政府組織啟動(dòng)了他們稱之為“禁止殺手機(jī)器人”的運(yùn)動(dòng),聯(lián)合國也就這個(gè)問題舉行了一系列國際會議。
據(jù)報(bào)道,全球116名機(jī)器人和人工智能企業(yè)的創(chuàng)始人日前簽署公開信,呼吁禁止使用“殺手機(jī)器人”。
報(bào)道稱,各國軍方正在研制致命自主武器,俗稱“殺手機(jī)器人”。它們可以獨(dú)立設(shè)計(jì)和選擇具體的作戰(zhàn)方案,而不依賴于人類操控者的判斷。報(bào)道警告說:“殺手機(jī)器人將把人類從殺戮決定中排擠出去,跨越了我們認(rèn)為不應(yīng)該超越的基本道德和倫理底線?!?/p>
包括美國太空探索技術(shù)公司首席執(zhí)行官馬斯克在內(nèi)的116名相關(guān)領(lǐng)域?qū)<以诠_信中警告說,“致命的自主武器有可能成為戰(zhàn)爭中的第三次革命。一旦它們發(fā)展起來,可能導(dǎo)致武裝沖突以比以往任何時(shí)候更大的規(guī)模進(jìn)行,而且速度比人類所能理解的還要快”。尤其讓人擔(dān)心的是,“這些自主武器可能被獨(dú)裁者和恐怖分子用來對付無辜人群。一旦潘多拉的盒子打開,就很難再關(guān)閉”。
去年12月,聯(lián)合國《特定常規(guī)武器公約》的123個(gè)成員國同意正式討論這類自主武器,其中19個(gè)成員國已要求徹底禁止這種武器。但原定于8月開始的相關(guān)討論會議被推遲到11月。公開信對會議被推遲表示遺憾,并敦促各方在11月會議之前加倍努力。
馬斯克近來已多次表達(dá)對人工智能、機(jī)器人技術(shù)發(fā)展的擔(dān)憂。他曾連同物理學(xué)家霍金等多名專家于2015年簽署公開信,要求禁止開發(fā)“超過人類控制意義之外的自主武器”。馬斯克警告說,“人工智能可能通過創(chuàng)建假冒的賬戶、發(fā)送虛假新聞等方式操縱信息,甚至可以引發(fā)戰(zhàn)爭”。
但并非所有人都贊成這種觀點(diǎn)。臉書創(chuàng)始人扎克伯格就反對說:“對那些否定人工智能、試圖營造世界末日論的人,我確實(shí)不太理解。他們的言論某些時(shí)候讓我感覺太不負(fù)責(zé)任。未來5-10年,人工智能將在許多方面改善我們的生活質(zhì)量?!?/p>
事實(shí)上,現(xiàn)代戰(zhàn)爭商業(yè)化背后,禁止“殺手機(jī)器人”已來不及,但只要我們避開那些真正糟糕的技術(shù),一切都會好起來的。
就像法律專家們認(rèn)識到的那樣,這些問題會變得更加復(fù)雜。一方面,他們更加擔(dān)心也更加著急的是機(jī)器人的道德問題;另一方面,他們關(guān)注的是現(xiàn)代戰(zhàn)爭的本質(zhì)及其商品化。
在任何情況下,道德問題都不可能輕易地被制定為“一刀切”的原則。歷史學(xué)家尤瓦爾·赫拉利指出,就像無人駕駛汽車將需要一些規(guī)則來決定如何應(yīng)對不可避免的或者可能致命的碰撞:機(jī)器人試圖拯救誰?尤瓦爾·赫拉利說,我們可能將會得到兩種模式:利己主義者(優(yōu)先考慮司機(jī))和利他主義者(這把別人放在第一位)。
在2012年人權(quán)觀察組織的一份關(guān)于“殺手機(jī)器人”的報(bào)告中,有一些科幻的偏見。報(bào)告稱:“區(qū)分恐怖的平民和危險(xiǎn)的敵人需要士兵去理解人類行為背后的意圖,這是機(jī)器人做不到的?!贝送?,“機(jī)器人不會受制于人類情感和同情,這可以為殺戮平民提供重要的檢查”。但是,第一個(gè)說法是對信仰的陳述——機(jī)器人用生物識別技術(shù)難道不能比一個(gè)使用本能的受驚士兵做出更準(zhǔn)確的評估嗎?至于第二種說法,你會認(rèn)為:有時(shí)候當(dāng)然會。其他時(shí)候,戰(zhàn)爭地區(qū)的人們肆意強(qiáng)奸和屠殺。
這并不是要反駁報(bào)告中對自動(dòng)機(jī)器人士兵的恐懼。相反,它讓我們回到了關(guān)鍵問題,這不是技術(shù)問題,而是戰(zhàn)爭。
自動(dòng)化軍事技術(shù)的問題與戰(zhàn)爭本身的變化本質(zhì)密切相關(guān)。在這個(gè)恐怖主義和叛亂的年代里,戰(zhàn)爭不再有開始或結(jié)束、也不再有戰(zhàn)場或軍隊(duì)——正如美國戰(zhàn)略分析家安東尼考斯曼所說:“現(xiàn)代戰(zhàn)爭的教訓(xùn)之一就是戰(zhàn)爭不再被稱為戰(zhàn)爭?!睙o論如何,這都不像是諾曼底登陸。
戰(zhàn)爭總是使用最先進(jìn)的技術(shù),“殺手機(jī)器人”也一樣。你可以肯定的是有人從中獲利。
無論如何,讓我們試著抑制我們最糟糕的沖動(dòng):把犁頭打成刀劍,告訴國際軍火貿(mào)易他們不能制造殺手機(jī)器人就像告訴軟飲料制造商他們不能生產(chǎn)橙汁一樣。
(《解放軍報(bào)》2017.8.24等)