當(dāng)?shù)貢r(shí)間7月18日,美國(guó)參謀長(zhǎng)聯(lián)席會(huì)議副主席保羅·塞爾瓦上將在國(guó)會(huì)聽(tīng)證會(huì)上提出警告,人工智能武器會(huì)讓人失去作戰(zhàn)控制能力,甚至最終反制人類!
聯(lián)想到此前諸多知名人士對(duì)人工智能潛在危險(xiǎn)的預(yù)測(cè),塞爾瓦將軍的警告不應(yīng)被忽視。而出于防患于未然之目的,各國(guó)應(yīng)毫不猶豫地對(duì)人工智能武器說(shuō)不。
人類或不是人工智能的對(duì)手。2016年,人工智能程序AlphaGo以4:1的懸殊比分擊敗韓國(guó)圍棋第一人李世石;2017年,在與AlphaGo的對(duì)決中,排名世界第一的天才棋手柯潔三戰(zhàn)皆負(fù)。日本電氣
通信大學(xué)助教伊藤毅志認(rèn)為,AlphaGo“完全達(dá)到了超越人類的水平”。在4月于北京召開(kāi)的2017年全球移動(dòng)互聯(lián)網(wǎng)大會(huì)上,著名物理學(xué)家史蒂芬·霍金通過(guò)視頻致開(kāi)幕詞強(qiáng)調(diào),“我認(rèn)為生物大腦能實(shí)現(xiàn)的東西和計(jì)算機(jī)能實(shí)現(xiàn)的東西之間不存在真正的差別”,而“受限于緩慢的生物進(jìn)化,人類無(wú)法與人工智能競(jìng)爭(zhēng)并可能被其取代”。事實(shí)上,早在三年前,霍金就曾對(duì)英國(guó)廣播公司表示,發(fā)展全面的人工智能可能導(dǎo)致人類的毀滅。美國(guó)特斯拉汽車公司創(chuàng)始人埃隆·馬斯克也形容人工智能是“惡魔”,“如果要我猜人類最大的生存威脅是什么,我想那就是人工智能”。
人工智能武器可能超出人類控制。人工智能武器屬自主系統(tǒng),而自主系統(tǒng)是人類所創(chuàng)造的極為復(fù)雜的自適應(yīng)系統(tǒng),其能通過(guò)大數(shù)據(jù)支持和反復(fù)自我學(xué)習(xí)持續(xù)提高判斷、決策能力。正如AlphaGo之父杰米斯·哈薩比斯所言“AlphaGo不僅僅只是模仿其他人類選手的下法,而且還在不斷創(chuàng)新”。很顯然,變得日益聰明、自信的人工智能武器,可能在未接收操作手指令的情況下“為所欲為”,自行選擇目標(biāo),自主實(shí)施攻擊,使得戰(zhàn)場(chǎng)指揮員難以對(duì)其實(shí)施干預(yù),更談不上有效的指揮控制了。而超出控制的戰(zhàn)場(chǎng)作戰(zhàn)力量通常會(huì)產(chǎn)生意想不到的嚴(yán)重后果。
人工智能武器易于擴(kuò)散。與防核武器擴(kuò)散僅需控制住易裂變材料鈾、钚的生產(chǎn)與轉(zhuǎn)移形成鮮明對(duì)比,部分人工智能武器體積小,成本低,便于大規(guī)模制造,可通過(guò)多種渠道流通。據(jù)報(bào)道,在敘利亞戰(zhàn)場(chǎng)上已出現(xiàn)由商用無(wú)人機(jī)攜帶榴彈實(shí)施攻擊的案例。因此,在人工智能武器功能尚未強(qiáng)大到令人恐懼的程度之前,形成一套禁止將人工智能用于武器的國(guó)際規(guī)范,對(duì)于阻遏人工智能軍備競(jìng)賽,避免出現(xiàn)人工智能武器反制人類、毀滅人類的前景是十分必要的,也是極具前瞻性的舉措。