賈珍珍 石海明
未來是一個無比美好的詞匯,它往往寓意機遇、潛力、希望……除了考古學家,似乎科學家、政治家、科幻文學家、教育家等都喜歡談論未來。如今,隨著人工智能(AI)的發(fā)展,人類社會正在走向人機協(xié)同、跨界融合、萬物智能的“智慧時代”,軍事領域則是社會的縮影與先導。
作為現(xiàn)代戰(zhàn)爭中崛起的新貴,無人戰(zhàn)車、智能炸彈、空間機器人等一系列智能化作戰(zhàn)武器在人工智能的高速發(fā)展下,迅速從實驗室走向陸??仗鞆V域戰(zhàn)場。由此引發(fā)的好奇和擔憂也接踵而至:人工智能會否迅速顛覆未來戰(zhàn)爭?會否完全取代人類作戰(zhàn)?在AI面前,誰將真正掌控未來的戰(zhàn)爭?
AI領域的突破讓人驚嘆。很多人或許會對2016年6月的一次模擬對抗記憶猶新——由美國研究人員開發(fā)的阿爾法系統(tǒng)在模擬空戰(zhàn)中對抗兩名退役的戰(zhàn)斗機飛行員,AI系統(tǒng)大獲全勝。
在這次模擬空戰(zhàn)中,由兩架攻擊噴氣戰(zhàn)斗機組成的藍隊具有更強的武器系統(tǒng),但是阿爾法系統(tǒng)的紅隊通過躲避動作擊敗了敵機。比賽結(jié)束后,飛行員認為這款程序非常善于掌控態(tài)勢,反應也靈敏得出奇,似乎能預測人類的意圖,并在人類改變飛行動作或發(fā)射導彈時立即回應。軍事專家表示,這個結(jié)果具有深遠的意義,“就像一個象棋大師輸給了電腦”。
戰(zhàn)斗機飛行員與阿爾法系統(tǒng)之間的“人機大戰(zhàn)”,可以說代表了人工智能在基于神經(jīng)網(wǎng)絡的深度學習、高性能計算和大數(shù)據(jù)技術等領域的最新成就。但若從現(xiàn)有AI技術發(fā)展狀況來看,有關人工智能會迅速顛覆未來戰(zhàn)爭的擔憂似乎為時尚早。
一是戰(zhàn)場環(huán)境難適應問題。當前的人工智能之所以備受關注,其背后的主要動因是,有著“人工智能教父”之稱的杰弗里·辛頓2006年提出的深度學習方法大大提高了人工智能在圖像識別、語音識別等方面的效率。然而,該方法在面對具有可微分、強監(jiān)督學習、封閉靜態(tài)系統(tǒng)等任務時有效,在面對不可微分、弱監(jiān)督學習、開放動態(tài)環(huán)境下的任務時效果較差,計算收斂性不好。
二是作戰(zhàn)主體難進化問題。就人工智能行為主義進路中的增強學習而言,其最主要的缺點是把人的行為過程看得過于簡單,實驗中往往只是測量簡單的獎懲反饋過程,有些結(jié)論并不能遷移到實際戰(zhàn)場情景中,所以往往外部效度不高。此外,行為主義刻意研究可以觀察的行為,而將意識與行為對立起來,限制了戰(zhàn)爭中人工智能主體的進化。
三是戰(zhàn)術行為難解釋問題。人工智能符號主義基于邏輯推理的智能模擬方法模擬人的智能行為,屬于現(xiàn)代人工智能進路。它主張用邏輯方法來構(gòu)建人工智能的統(tǒng)一理論體系,但卻遇到了“常識”問題的障礙,以及不確知事物的知識表示和問題求解等難題,因此,如將其運用到未來戰(zhàn)爭實踐中,將面臨戰(zhàn)術行為難解釋等諸多問題。
在科幻電影中,我們常見到各種“超級戰(zhàn)士”的身影:《機械戰(zhàn)警》中人類頭腦和機械身體完美結(jié)合、身上配備各式武器、能應付各種暴力活動的機械警察;《再造戰(zhàn)士》中通過基因設計工程制造出來的擁有超絕戰(zhàn)斗技巧和力量的超級戰(zhàn)士;《阿凡達》中用人類的基因與當?shù)丶{美人基因相結(jié)合,由人類的意識進駐其中而得以在這個星球上自由活動的“化身”,等等。
如今,電影中的科幻場景正一步步走入現(xiàn)實,正如美國科學家皮埃羅·斯加魯菲等人在《人類2.0:在硅谷探索科技未來》中指出的:“今天,人類延伸自我最讓人印象深刻的方式,就是發(fā)展出了改變生命本身的技術,未來將是有機世界和合成世界的聯(lián)姻,正如未來一定是人類和機器人的聯(lián)姻?!?/p>
盡管如此,目前的人工智能還處在“幼年期”,它只能在規(guī)則確定、信息完備的封閉系統(tǒng)中有可能比人類做得更好,而在其賴以工作的可編程的特定問題和特定背景之外,必須依靠人類的敏銳洞察力、道德分辨力和隨機應變力等才能解決問題。
因此,憑借人工神經(jīng)網(wǎng)絡、大數(shù)據(jù)、云計算等分析技術,人工智能雖具有強大的信息感知處理能力,但軍事對抗系統(tǒng)技術復雜性的提高必然帶來新的系統(tǒng)不確定性,系統(tǒng)復雜性與系統(tǒng)不確定性相生相克的客觀規(guī)律,仍然是人類認識人工智能應當遵循的原理,因此人工智能的出現(xiàn)仍然難以徹底消除戰(zhàn)場的“不確定性”迷霧。
對此,美國空軍有人機和無人機高級飛行員大衛(wèi)·約翰在《無人系統(tǒng)能否引發(fā)新軍事變革》中寫道:“單靠技術從來不會贏得戰(zhàn)爭。成吉思汗的馬鐙、荷南·科爾蒂斯的火槍以及美國的原子彈,都為其帶來了決定性優(yōu)勢,但它們之所以能起到關鍵作用,只是因為適應了當時的具體條件和戰(zhàn)略……無人系統(tǒng)不會從根本上改變戰(zhàn)爭的本質(zhì)或性質(zhì)。嘗試使用無人系統(tǒng)代替人類智慧的決策者、戰(zhàn)略家或操作員,對這樣的結(jié)論將大失所望。”
美國耶魯大學生物倫理學跨學科中心的溫德爾·瓦拉赫在《科技失控》中說,人類孕育的科技決定著未來??萍技瓤梢允侨祟悳仨樀钠腿?,也可以是人類危險的主人,既可以是人類貼心的朋友,也可以是人類兇狠的敵人?;仡櫩萍及l(fā)展史會發(fā)現(xiàn),在漫長的進化過程中,關鍵是人類學會了制造和使用工具。否則,面對“反復無?!钡拇笞匀?,手無寸鐵的人類是何其脆弱的一個物種。
人工智能技術對撬動軍事變革的作用不容小覷,但與此同時,戰(zhàn)爭中的技術、倫理、道德等一系列風險與挑戰(zhàn)也逐步顯現(xiàn)。不少科幻電影已對人工智能的威脅展開討論:《機械公敵》中原本以保護人類為使命的機器人出現(xiàn)集體失序,對人類展開了殘暴攻擊;《西部世界》中機器人的內(nèi)部系統(tǒng)不斷進化,最終反叛并傷害人類。
由于目前AI技術的發(fā)展局限,人工智能的指揮系統(tǒng)容易在執(zhí)行程序復雜的情景中出現(xiàn)失序。比如2007年10月,美軍第三機步師一部帶著3臺“利劍”機器人進攻一個反美武裝盤踞的據(jù)點時,由于沒有及時更換軟件,其中一臺“利劍”竟把槍口瞄準美軍操作者,而且無論操作員如何發(fā)出“行動取消”的指令,失控的“利劍”就是停不下來,直至用火箭筒把它炸翻才化險為夷。
可以預見,在人機協(xié)同作戰(zhàn)方式中,過度依賴人工智能無疑增大了指揮系統(tǒng)失控的風險,這就如同把槍交給了機器人,當機器人不聽從人類指揮時,槍口對準的對象將可能是戰(zhàn)爭中的任何一方。
因此,應堅持人機結(jié)合、以人為主的原則,保證人類對軍事機器人的控制權(quán),制定應對意外事件的應急機制,建立防范機器人失控的后臺程序。此外,應當加強人工智能的技術預測與評估,在充分試驗與分析的基礎上逐步推動人工智能技術的軍事應用。
(摘自《環(huán)球》2020年第22期。賈珍珍為國防科技大學副教授,石海明為國防大學教授)