文/bucee
應對人工智能武器說不
文/bucee
美國參謀長聯(lián)席會議副主席保羅·塞爾瓦上將曾在國會聽證會上提出警告,人工智能武器會讓人失去作戰(zhàn)控制能力,甚至最終反制人類。
聯(lián)想到此前諸多知名人士對人工智能潛在危險的預測,塞爾瓦將軍的警告不應被忽視。而出于防患于未然之目的,各國應毫不猶豫地對人工智能武器說不。
人類或不是人工智能的對手。去年,人工智能程序AlphaGo以4:1的懸殊比分擊敗韓國圍棋第一人李世石;2017年,在與AlphaGo的對決中,排名世界第一的天才棋手柯潔三戰(zhàn)皆負。日本電氣通信大學助教伊藤毅志認為,AlphaGo“完全達到了超越人類的水平”。在4月于北京召開的2017年全球移動互聯(lián)網大會上,著名物理學家史蒂芬·霍金通過視頻致開幕詞強調,“我認為生物大腦能實現(xiàn)的東西和計算機能實現(xiàn)的東西之間不存在真正的差別”,而“受限于緩慢的生物進化,人類無法與人工智能競爭并可能被其取代”。事實上,早在三年前,霍金就曾對英國廣播公司表示,發(fā)展全面的人工智能可能導致人類的毀滅。美國特斯拉汽車公司創(chuàng)始人埃隆·馬斯克也形容人工智能是“惡魔”,“如果要我猜人類最大的生存威脅是什么,我想那就是人工智能”。
人工智能武器可能超出人類控制。人工智能武器屬自主系統(tǒng),而自主系統(tǒng)是人類所創(chuàng)造的極為復雜的自適應系統(tǒng),其能通過大數據支持和反復自我學習持續(xù)提高判斷、決策能力。正如AlphaGo之父杰米斯·哈薩比斯所言“AlphaGo不僅僅只是模仿其他人類選手的下法,而且還在不斷創(chuàng)新”。很顯然,變得日益聰明、自信的人工智能武器,可能在未接收操作手指令的情況下“為所欲為”,自行選擇目標,自主實施攻擊,使得戰(zhàn)場指揮員難以對其實施干預,更談不上有效的指揮控制了。而超出控制的戰(zhàn)場作戰(zhàn)力量通常會產生意想不到的嚴重后果。
人工智能武器易于擴散。與防核武器擴散僅需控制住易裂變材料鈾、钚的生產與轉移形成鮮明對比,部分人工智能武器體積小,成本低,便于大規(guī)模制造,可通過多種渠道流通。據報道,在敘利亞戰(zhàn)場上已出現(xiàn)由商用無人機攜帶榴彈實施攻擊的案例。因此,在人工智能武器功能尚未強大到令人恐懼的程度之前,形成一套禁止將人工智能用于武器的國際規(guī)范,對于阻遏人工智能軍備競賽,避免出現(xiàn)人工智能武器反制人類、毀滅人類的前景是十分必要的,也是極具前瞻性的舉措。