《十問:霍金沉思錄》是物理學家斯蒂芬·霍金最后的著作,這本書涉及他對科學與社會所面臨的重大問題的思考,包括“人類是否會一直在地球上生存下去?(可能不會)”“時間旅行是否可能?(仍無法排除可能性)”等;還有對諸如地球面臨的嚴重威脅、“超人”種群以及外太空是否存在智慧生命、人類是否應該去開拓太空殖民地等問題進行的最后預測,這些預測飽含了霍金對人類未來深深的憂思。
智力是人之為人的核心。文明所提供的一切都是人類智慧的產(chǎn)物DNA傳遞代際的生命藍圖。愈加復雜的生命形式從眼睛和耳朵等傳感器輸入信息,在大腦或其他系統(tǒng)中處理信息,決定如何行動,然后向譬如肌肉等輸出信息以作用于外界。
在我們138億年的宇宙歷史中的某個時刻,發(fā)生了一件美妙的事。這種信息處理變得如此聰明,以使生命獲得意識。我們的宇宙現(xiàn)在已經(jīng)醒來,意識到自己。微末如星塵的我們,居然對我們生活于其中的宇宙有了如此詳細的了解,我認為這是一個勝利。
我認為蚯蚓的大腦運作與電腦計算之間沒有顯著差異。我還相信進化意味著,在蚯蚓和人類的大腦之間不存在質的差異。因此,電腦原則上可以模仿人類智慧,甚至更好。某些東西獲得比其祖先更高智力顯然是可能的:我們演化得比我們的猿類祖先更聰明,而愛因斯坦比他的父母聰明。
如果電腦繼續(xù)遵守摩爾定律,它們的速度和記憶容量每18個月加倍,結果是在接下來的100年的某個時刻電腦很可能在智力上超過人類。當人工智能(AI)在AI設計中變得比人類做得更好,這樣它可以在無人幫助的情況下以遞歸的方式改善自己,我們就可能會面臨智力爆炸,最終導致機器在智力上超過我們更甚于我們超過蝸牛。當那種情形發(fā)生時,我們需要確保計算機的目標與我們的目標相互一致。人們也許會輕率地將高智能機器的概念斥為只不過是科學幻想,但這可能是一個錯誤,還可能是我們最糟糕的錯誤。
在過去的二十多年里,人工智能一直專注圍繞制造智能代理人的問題,那是在特定環(huán)境中感知和行動的系統(tǒng)。在這種情況下,智能與理性的統(tǒng)計和經(jīng)濟概念有關。通俗地講,也就是做出好的決策、計劃或推論的能力。由于這項最近的工作,人工智能、機器學習、統(tǒng)計學、控制理論、神經(jīng)科學和其他領域之間形成了很大程度的整合和交叉。共享理論框架的建立,結合數(shù)據(jù)和處理能力,在各種組件任務中取得了顯著的成功,例如語音識別、圖像分類、自動駕駛車輛、機器翻譯、腿式運動和問答系統(tǒng)。
隨著在這些領域和其他領域中從實驗室研究轉向經(jīng)濟上有價值的技術發(fā)展,良性循環(huán)也在演進,即使性能上的微小改進也值得花大筆資金,從而促進了對研究更進一步的投入。
當今一個廣泛共識是,人工智能研究正在穩(wěn)步發(fā)展,其對社會的影響可能會增加。潛在的好處是巨大的,我們無法預測當AI可能提供的工具放大這種智能時,我們會獲得什么。徹底消除疾病和貧困是可能的。由于AI的巨大潛力,重要的是研究如何在避免潛在陷阱的同時獲得收益。創(chuàng)建AI的成功將是人類歷史上的最大事件。
不幸的是,它可能也是最后一個,除非我們學會如何規(guī)避風險。將AI用作工具包可以增強我們現(xiàn)有的智能,在科學和社會的每個領域進步。但是,它也會帶來危險。到目前為止開發(fā)的原始形式的人工智能被證明非常有用,我卻害怕創(chuàng)造出匹配或超越人類的某種東西的后果。我擔心的是,AI會自己起飛并不斷加速重新設計自己。
人類受到緩慢的生物進化的限制,無法競爭,將會被超越。在未來,AI可以發(fā)展自身的意志,那是一種與我們相沖突的意志。其他人相信人類可以在相當長的一段時間控制技術的速度,讓AI實現(xiàn)解決許多世界問題的潛力。對此,我還不是這么確定,雖然眾所周知,關于人類,我是一個樂觀主義者。
例如,在短期內,世界軍事力量正在考慮開始自動武器系統(tǒng)的軍備競賽,該系統(tǒng)可以選擇和消除他們自己的目標。
雖然聯(lián)合國正在辯論將禁止這種武器的條約,自動武器支持者通常忘了問最重要的問題。軍備競賽的可能終點是什么,那是人類想要的嗎?我們真的希望廉價的人工智能武器成為明天的卡拉什尼科夫沖鋒槍,賣給黑市上的罪犯和恐怖分子嗎?考慮到我們對越發(fā)先進的人工智能系統(tǒng)實行長期控制的能力,我們是否應該武裝他們并將我們的防御交給他們?
2010年,電腦化的交易系統(tǒng)創(chuàng)造了股票市場的閃電崩盤;電腦觸發(fā)的防御領域崩潰會是什么樣子?現(xiàn)在是停止自動武器軍備競賽的最佳時機。
從中期來看,人工智能可以使我們的工作自動化,帶來巨大繁榮和平等。更長遠地看,我們對于可以實現(xiàn)的事情沒有根本的限制。沒有任何物理定律可以排除比以人腦中的粒子排列更高級的計算方式組織粒子的方法。爆炸式過渡是可能的,但它的結局可能與電影不同。正如數(shù)學家歐文·約翰·古德在1965年意識到的那樣,在科幻作家維納爾·維格稱之為技術奇點之處,具有超人智慧的機器甚至可以進一步重復改進他們的設計。人們可以想象這樣的技術勝過金融市場,發(fā)明超過人類研究人員,操縱超過人類領導者,并甚至可能用我們無法理解的武器制服我們。而AI短期對我們的影響取決于誰控制它,長期影響取決于它究竟是否可能被控制。
總之,對于人類,超級智能的問世是有史以來要么最好要么最壞的事。人工智能的真正風險不是惡意,而是能力。一個超級聰明的AI會非常擅長實現(xiàn)目標,如果這些目標和我們的不一致,我們就遇到了麻煩。你可能不是螞蟻邪惡的仇敵,會去惡意踩踏它們,但如果你負責水力發(fā)電的綠色能源項目,而在該地區(qū)有一個蟻丘要被淹掉,對于螞蟻那就太糟糕了。
不要將人類置于那些螞蟻的境地。我們應該提前計劃。如果一個先進的外星人文明給我們發(fā)短信說,“我們幾十年后到達”,我們會不會就回復“行,當你到了這里給我們打電話,我們會開燈歡迎”呢?大概不會,但這或多或少正是我們在對付AI時所做的。除了一些小的非營利性機構之外,很少有人致力于這些嚴肅的研究。
幸運的是,現(xiàn)在正在發(fā)生變化。技術開發(fā)者比爾·蓋茨、史蒂夫·沃茲尼亞克和埃隆· 馬斯克回應了我的擔憂,而一種健康的風險評估文化和對社會影響的認識開始在AI社區(qū)扎根。2015 年1 月,我和埃隆· 馬斯克以及許多AI專家,簽署了一份關于人工智能的公開信,呼吁認真研究其對社會的影響。
在過去,埃隆·馬斯克警告說,超人類人工智能能夠提供無法估量的好處,但如果不謹慎地部署,將對人類產(chǎn)生不利影響。
他和我是生命未來研究所的科學顧問委員會成員,該研究所致力于減輕人類面臨的風險,我們起草了該公開信。
該信要求具體研究在獲得AI為我們提供潛在好處的同時,如何能夠預防潛在問題,并且旨在讓AI研究人員和開發(fā)人員更加關注AI安全性。此外,對于政策制定者和公眾來說,這封信是想提供信息而不是危言聳聽。我們認為非常重要的是,每個人都知道AI研究人員正在認真考慮這些擔憂和道德問題。例如,人工智能具有根除疾病和貧困的潛力,但研究人員必須努力創(chuàng)造可以控制的人工智能。
2016年10月,我在劍橋還創(chuàng)立了一個新中心,該中心將嘗試解決人工智能研究快速發(fā)展所帶來的一些開放式問題。
利弗休姆智能未來中心是一個多學科研究所,致力于研究智力的未來,這對我們的文明和物種的未來至關重要。我們花了很多時間研究歷史,我們得承認,主要是愚蠢的歷史?,F(xiàn)在人們正在轉去研究智能的未來,這是受歡迎的改變。我們意識到了這種潛在危險,但也許利用這種新技術革命的工具,我們甚至可以去除工業(yè)化對自然界造成的一些破壞。
人工智能發(fā)展的最新進展包括歐洲議會呼吁起草一套管理創(chuàng)造機器人和AI的法規(guī)。有點令人驚訝的是,這包括電子人格的一種形式,旨在確保最有能力和最先進的AI的權利和責任。一個歐洲議會發(fā)言人評論說,隨著我們日常生活中越來越多的領域受到機器人的影響,我們需要確保機器人正在并將繼續(xù)為人類服務。一份提交給議會的報告宣稱世界正處于新的工業(yè)機器人革命的前沿。它審查是否允許賦予機器人作為電子人,具有與公司人格的法律定義同等的合法權利。
但它強調在任何時候研究人員和設計師都應確保所有機器人設計配有一個終結開關。
在斯坦利· 庫布里克的科幻片《2001:太空漫游》中,太空船上載有發(fā)生故障的機器人電腦哈爾,這對船上的科學家們沒有什么幫助,但那是虛構的。我們針對事實。在報告中,奧斯本·克拉克多國律師事務所的顧問羅那· 布拉澤爾說,我們沒賦予鯨魚和大猩猩人格,所以沒有必要急于賦予機器人人格。但是要警惕。該報告承認,在幾十年內,人工智能可能超越人類的智力,并挑戰(zhàn)人類和機器人關系。
到2025年,將有大約30個特大城市,每個城市擁有超過1000 萬的居民。當所有人都吵著要求為他們隨時提供商品和服務,技術能否幫助我們,跟上我們對即時商務的渴望?機器人肯定會加速在線零售流程。但要徹底改變購物行為,它們需要足夠快,以便在每個訂單上實現(xiàn)當日交貨。
與世界互動的機會正在迅速增加,而不必親自到場。你可以想象,我覺得這很有吸引力,尤其是因為我們所有人的城市生活都如此繁忙。多少次你希望有替身可以分擔你的工作量?為我們自己創(chuàng)造現(xiàn)實的數(shù)字代理人是一個雄心勃勃的夢想,但最新的技術表明它可能不像聽起來那么匪夷所思。
當我年輕時,技術的興起似乎提示,我們將來都將享受更多的休閑時光。但事實上,我們越能干,我們就越忙。我們的城市已經(jīng)充滿擴展我們能力的機器,但如果我們可以同時在兩個地方該多厲害?我們習慣于在電話系統(tǒng)和公告上使用自動語音?,F(xiàn)在發(fā)明家丹尼爾·克拉夫特正在探究我們如何在視覺上復制自己。問題是,替身有多逼真?
互動導師可能對大規(guī)模開設在線課程和娛樂有用。這真的很令人興奮。電子數(shù)字演員會永遠年輕,能夠表現(xiàn)人類不可能勝任的技能。我們未來的偶像甚至可以不是真實的。
我們如何與數(shù)字世界聯(lián)系是我們將來取得進展的關鍵。
在最聰明的城市,最聰明的家庭將配備如此有靈犀的設備,它們幾乎可以毫不費力地與人進行互動。
當打字機被發(fā)明時,它變革了我們與機器互動的方式。將近150年后,觸摸屏幕已經(jīng)開啟了與數(shù)字世界新的溝通方式。最近的AI里程碑,比如自駕汽車,或電腦贏得圍棋賽,預示了即將發(fā)生的事物。巨大投資正在涌入這項技術,它已經(jīng)成為我們生活的重要組成部分。未來幾十年,它將滲透到我們社會的每個方面,包括醫(yī)療、工作、教育和科學等許多領域,為我們提供聰明的幫助和建議。我們迄今所看到的成就,和未來幾十年將會帶來的相比,肯定是微小的,我們也無法預測,當人工智能擴展了我們自己的思維后,我們可能會取得的成就。
也許借助這種新技術革命的工具,我們可以使人類生活更美好。例如,研究人員正在開發(fā)有助于脊髓損傷患者癱瘓逆轉的AI。運用硅芯片植入以及在大腦與身體之間的無線電子接合,該技術會允許人們用自己的意念去控制自己的身體動作。
我相信大腦和電腦連接是未來的交流方式。有兩種方法,電極接通頭骨和移植物。第一個就像透過磨砂玻璃看不太清楚,第二個更好,但有感染風險。如果我們可以將人腦連接到互聯(lián)網(wǎng),它就會將整個維基百科都作為其資源。
隨著人、設備和信息越來越緊密相互連接,世界甚至變化得更快。計算能力正在增長,量子計算正在迅速實現(xiàn)。這將以指數(shù)方式的更快速度革新人工智能,它將推進加密。量子電腦將改變一切,甚至人類生物學。
已經(jīng)有一種精確編輯DNA的技術,稱為CRISPR。這種基因組編輯技術的基礎是細菌防御系統(tǒng)。它可以準確地定位和編輯遺傳密碼的片斷。遺傳操作的最佳目的是修改基因可以讓科學家通過糾正基因突變來治療遺傳疾病。然而,還可能存在操縱DNA的不怎么高尚的動機。我們在基因工程方面走多遠將成為一個日益迫切的問題。我們如果無視基因工程的危險,就絕無可能治療運動神經(jīng)元疾病,比如我的ALS。
智力被定性為適應變化的能力。人類智慧是能夠適應環(huán)境變化的人經(jīng)世代自然選擇的結果。我們不應害怕改變。我們需要讓它對我們有利。
我們所有人都可以發(fā)揮作用,確保我們和下一代不僅有機會,而且立志盡早充分參與科學研究,以便我們能夠繼續(xù)發(fā)揮自己的潛力,為整個人類創(chuàng)造一個更美好的世界。我們需要進行機器學習,關于AI不能只限于應該如何的理論討論,還應確保我們計劃如何做到這一點。我們所有人都有可能推進被接受或預期的界限,并思考大問題。我們站在一個美麗新世界的門檻上。這是一個令人興奮的地方,不過也將是危險的地方,而我們是先鋒。
當我們發(fā)明火時,我們反復被火搞砸了一些事情,然后發(fā)明了滅火器。鑒于擁有更強大的技術譬如核武器、合成生物學和強人工智能,我們應該改為預先計劃未來,并希望第一次就把事情弄妥,因為這可能是我們僅有的機會。我們的未來是一個技術日益增長的力量和使用它的智慧之間的競爭,讓我們確保智慧勝利。
(摘自湖南科學技術出版社《十問:霍金沉思錄》)