尹傳紅
打小癡迷科普科幻,書香悅讀一路相伴。分享科學奇美理趣,留下探索思考印記。
前不久,一個頂尖國際研究團隊的理論計算結果證明,我們很可能無法控制超級智能機器。該研究團隊構想的一種理論遏制算法——通過模擬人工智能(AI)的行為并在被認為有害的情況下予以制止,已被證明是不可計算的,即任何單一算法都無法找到一個判斷AI是否會對世界造成傷害的解決方案。
“一個超級智能機器控制整個世界,這聽起來像是科幻小說。但是,已經(jīng)有一些機器能夠獨立完成某些重要任務,而程序員卻不完全了解它們是如何學會的?!眳⑴c此項研究的馬克斯·普朗克人類發(fā)展研究所人類與機器研究專家曼努埃爾·塞布里安說,“因此,問題就出現(xiàn)了,這種情況是否會在某一時刻變得無法控制并對人類構成危險。”
類似的一種情形是,如果有人要為一個智能優(yōu)于人類的AI系統(tǒng)編程,使得它可以獨立學習,那么,與互聯(lián)網(wǎng)相連的AI可能會訪問人類的所有數(shù)據(jù),可以取代現(xiàn)有的所有程序,并在線控制全世界所有機器。
這絕非危言聳聽。曾密切觀察芯片、電腦、網(wǎng)絡的發(fā)展,以及這幾個領域之間彼此影響情況的美國未來學家詹姆斯·坎頓驚嘆:一個建立在全球網(wǎng)絡上的虛擬意識已經(jīng)呼之欲出了!可以說網(wǎng)絡代表了一個連接了數(shù)百萬臺電腦的心智。當我們把能源、健康、安全、防衛(wèi)、通信、金融、市場等越來越多的基礎運作交給彼此相連的超級電腦來處理時,就越有可能會出現(xiàn)獨立思考的電腦智能。而全球有這么多臺電腦彼此相連,其可能性是無限的……
英國牛津大學的哲學家尼克·博斯特羅姆也表達過他的憂慮:“我們不能輕率地假定超智能機器一定會與人類共享任何智慧,以及與人類智力發(fā)展相連接的終極價值?!?/p>
2018年逝去的英國著名物理學家斯蒂芬·霍金生前曾警告說,人工智能“可能是發(fā)生在人類身上最好同時也是最糟糕的事情,所以正確的引導意義重大?!泵绹こ處?、實業(yè)家埃隆·馬斯克認為創(chuàng)造人工智能是“召喚惡魔”的舉動,并將其視為人類“最大的生存危機”。
看起來,人類最當提防的,是邪惡的人工智能自我誕生。在科幻電影《機械姬》《終結者》和《黑客帝國》中,對具有獨立意識、意欲控制或毀滅人類的智能機器,都有駭人的描述。
可以想見,如果人類會喪失理智,在某種意義上講,人工智能也可能會。一旦人類不再是地球上最聰明的物種,那么他們的存亡將取決于超越他們的物種的想法。甚至有人提出,我們現(xiàn)在就已經(jīng)理解不了自己所創(chuàng)造的東西,這種不透明性會永遠不可避免地指向暴力。
從模擬人類智能延伸而來的人工智能,如今已成為全球數(shù)字化發(fā)展的核心賦能技術,近20年來一直處于開放性的高速發(fā)展之中且具有高度的不確定性。它與物聯(lián)網(wǎng)、基因編輯等一道,被視為可能會對經(jīng)濟社會與人類未來造成根本性、深遠性、普遍性影響的顛覆性技術。
身處方向不明的變革時代,人們常常會以一種不安的心態(tài)看待未來,似乎進步本身就意味著風險。而一些案例研究表明,依賴復雜系統(tǒng)的風險是難以預測的,因此很容易完全失控。
今天,在世界各國紛紛提出人工智能發(fā)展規(guī)劃和戰(zhàn)略的同時,人工智能的倫理風險與治理也成為全球共同關注的焦點。對人工智能可能造成的社會影響進行更加深入系統(tǒng)的研究應該提上議程了,在此基礎上構建起考慮到最壞情形的社會風險防范機制也勢在必行。