如果歷史上的納粹政府未被打敗,如今它們會(huì)是什么樣子?納粹使用的是20世紀(jì)的技術(shù),直到二戰(zhàn)戰(zhàn)敗才終止發(fā)展。如果納粹比美國(guó)更早制造出原子彈,他們會(huì)有多強(qiáng)大,能撐多久?納粹如果掌握當(dāng)時(shí)最先進(jìn)的技術(shù),可以鞏固權(quán)力,改變歷史進(jìn)程。
當(dāng)我們?cè)囅氪嬖诘娘L(fēng)險(xiǎn)時(shí),像核戰(zhàn)爭(zhēng)或小行星撞擊這樣的慘劇經(jīng)常浮現(xiàn)在我們的腦海中。然而,未來(lái)還有一個(gè)威脅不太為人所知一一雖然它不太可能會(huì)讓人類滅絕,但同樣糟糕。
但這有可能嗎?研究人員和哲學(xué)家們開(kāi)始思考“它”是如何產(chǎn)生的,我們能做些什么來(lái)避免這種情況出現(xiàn)。
有可能的風(fēng)險(xiǎn)都是災(zāi)難性的,因?yàn)樗鼈儼讶祟惱г趩我幻\(yùn)中,比如文明永久崩潰或人類滅絕。這些災(zāi)難可能是由自然原因造成的,如小行星撞擊或超級(jí)火山爆發(fā),也可能是核戰(zhàn)爭(zhēng)或氣候變化等因素造成的。劍橋大學(xué)存在風(fēng)險(xiǎn)研究中心的學(xué)術(shù)項(xiàng)目經(jīng)理海頓·貝爾菲爾德表示,如果這種情況發(fā)生,將是“人類命運(yùn)的悲慘結(jié)局”,并將讓我們愧對(duì)幾百代祖先。
牛津大學(xué)人類未來(lái)研究所高級(jí)研究員托比·奧德認(rèn)為,本世紀(jì)發(fā)生自然災(zāi)害的概率不到1/2000,因?yàn)闆](méi)有自然災(zāi)害,人類已經(jīng)存活了2000個(gè)世紀(jì)。然而,如果計(jì)算人為災(zāi)難,奧德相信這種可能性會(huì)增加到驚人的1/6。他把這個(gè)世紀(jì)稱為“懸崖”,意思是人類失去未來(lái)的風(fēng)險(xiǎn)從未如此之高。
倫敦一家非營(yíng)利性研究機(jī)構(gòu)一一長(zhǎng)期風(fēng)險(xiǎn)中心的研究人員對(duì)未知風(fēng)險(xiǎn)進(jìn)行了進(jìn)一步研究,提出了更令人不寒而栗的預(yù)測(cè)。這些“超級(jí)風(fēng)險(xiǎn)”被定義為“天文級(jí)的痛苦,遠(yuǎn)遠(yuǎn)超過(guò)迄今為止地球上存在的所有痛苦”?!霸谶@種情況下,數(shù)十億人仍存活,但質(zhì)量極端低劣,前景黯淡,死亡將是更好的選擇?!焙?jiǎn)而言之:一個(gè)負(fù)價(jià)值的未來(lái)比一個(gè)沒(méi)有價(jià)值的未來(lái)更糟糕。這就是“被鎖鏈鎖住的世界”場(chǎng)景的由來(lái)。
盡管全球極權(quán)主義仍是一個(gè)小眾研究主題,但潛在風(fēng)險(xiǎn)領(lǐng)域的研究人員正越來(lái)越多地將注意力轉(zhuǎn)向最有可能導(dǎo)致全球極權(quán)主義的原因:人工智能。
牛津大學(xué)人類未來(lái)研究所主任尼克·博斯特羅姆在他的《單例假說(shuō)》中,解釋了如何利用人工智能或其他強(qiáng)大技術(shù)形成一個(gè)全球政府,以及它可能無(wú)法被推翻的原因。他寫道,如果該機(jī)構(gòu)“利用人工智能或分子納米技術(shù)的突破取得決定性領(lǐng)先地位”。
奧德在最近的一次采訪中說(shuō):“我們可能目前還沒(méi)有技術(shù)實(shí)現(xiàn)這一點(diǎn),但正在開(kāi)發(fā)的技術(shù)讓這種狀況越來(lái)越有可能?!薄霸谖磥?lái)100年的某個(gè)時(shí)候,這似乎有可能成為現(xiàn)實(shí)?!?p>
“我們看到,人工智能帶給人類的未來(lái),已經(jīng)從非常的烏托邦轉(zhuǎn)變?yōu)榉礊跬邪?,這發(fā)人深省。”新美國(guó)安全中心的兼職高級(jí)研究員埃爾莎·堪尼亞說(shuō),這是一個(gè)無(wú)黨派非營(yíng)利研究國(guó)家安全和國(guó)防政策的中心。
在2019年停止國(guó)內(nèi)監(jiān)控之前,美國(guó)國(guó)家安全局收集了數(shù)億美國(guó)人的通話和短信記錄。據(jù)估計(jì),英國(guó)各地有400萬(wàn)~600萬(wàn)個(gè)閉路電視攝像頭。全球最受監(jiān)控的20個(gè)城市中倫敦位居第三。它們之間使用的技術(shù)沒(méi)有差別,而差別更多的在于使用技術(shù)的方式。
除了加強(qiáng)監(jiān)控,人工智能還能制造網(wǎng)絡(luò)虛假信息,由人工智能制造的高級(jí)謠言工具,可以傳播虛假的政治信息,并通過(guò)算法在社交媒體上進(jìn)行微觀定位,讓宣傳顯得更有說(shuō)服力。這破壞了民主制度的根基,即公民的認(rèn)知安全。人們無(wú)法確定什么是事實(shí),也無(wú)法據(jù)此采取行動(dòng)。
貝爾菲爾德說(shuō):“在過(guò)去的幾年里,我們看到了過(guò)濾信息導(dǎo)致的社會(huì)思潮和行動(dòng),人們被各種各樣的算法所誤導(dǎo),開(kāi)始相信各種各樣的陰謀論,即使這些不是完全意義上的陰謀論,也只是部分真相?!薄澳憧梢韵胂螅虑闀?huì)變得越來(lái)越糟,尤其是深度造假之類的事情,直到我們?cè)絹?lái)越難以作為社會(huì)群體,決定哪些是事實(shí),是我們必須做的,然后采取集體行動(dòng)?!?p>
由貝爾菲爾德和來(lái)自14個(gè)機(jī)構(gòu)的25位作者撰寫的《惡意使用人工智能》報(bào)告預(yù)測(cè),這樣的趨勢(shì)將使政治安全受到更加嚴(yán)重的威脅,并在未來(lái)幾年新的威脅不斷出現(xiàn)。盡管如此,貝爾菲爾德說(shuō)他的工作讓他充滿希望,而積極的方面,比如關(guān)于人工智能的民主的討論和政策制定(例如,歐盟考慮在公共場(chǎng)所暫停面部識(shí)別),讓我們對(duì)避免災(zāi)難性的命運(yùn)仍然可以保持樂(lè)觀。
戴維也同意這個(gè)說(shuō)法?!拔覀儸F(xiàn)在需要決定:使用人工智能,怎樣是可接受?怎樣是不可接受的?”“我們需要小心,不要讓它控制我們的這么多基礎(chǔ)設(shè)施。如果我們給警察配備了面部識(shí)別系統(tǒng),而聯(lián)邦政府因此可以收集我們的所有數(shù)據(jù),那是個(gè)糟糕的開(kāi)始?!?/p>
如果你對(duì)人工智能是否有如此強(qiáng)大的力量仍持懷疑態(tài)度,不妨想想核武器即將被發(fā)明前的世界。在第一次核鏈?zhǔn)椒磻?yīng)的三年前,即使是試圖實(shí)現(xiàn)這一目標(biāo)的科學(xué)家也認(rèn)為這是不可能的。人類也沒(méi)有為核能突破做好準(zhǔn)備,在各種條約和協(xié)定出臺(tái),限制這種致命武器在全球擴(kuò)散之前,幸好沒(méi)有發(fā)生巨大的災(zāi)難,而那時(shí),人類是徘徊在“相互毀滅”的邊緣。我們應(yīng)將歷史教訓(xùn)與遠(yuǎn)景結(jié)合起來(lái),為發(fā)明某種強(qiáng)大的技術(shù)做好準(zhǔn)備。我們可以在人工智能方面做同樣的事情。