傅瑩
2019年11月,96歲的基辛格博士來北京出席創(chuàng)新經(jīng)濟論壇,期間主動要求參加一個討論人工智能(AI)的分論壇。當時我與谷歌前首席執(zhí)行官埃里克·施密特(Eric Schmidt)作為嘉賓參加這個論壇的討論。基辛格博士在發(fā)言中談到,AI技術(shù)的發(fā)展將給人類帶來巨大的變化,它所展示的是人類探索的新現(xiàn)實——這將帶來什么影響?沒人能給出答案,需要由技術(shù)人員和政策研究者一起討論。
兩年后,基辛格博士與施密特和麻省理工學院蘇世民計算機學院院長丹尼爾·胡滕洛赫爾(Daniel Huttenlocher)合著的《人工智能時代與人類未來》(The Age of AI: And Our Human Future)正式出版,彼時關(guān)于AI的討論更加活躍,世界首個萬億級語言模型Switch Transformer橫空出世。此刻,AI不僅已經(jīng)滲透到人類生活的方方面面,ChatGPT等自然語言識別程序應(yīng)用更引發(fā)全球?qū)I前景的熱烈討論,連小學生都開始擔心自己的夢想將因人工智能對人類技能的取代而得不到實現(xiàn)。
AI的應(yīng)用不斷發(fā)生質(zhì)的飛躍,用業(yè)內(nèi)人士的話來說,技術(shù)爆炸正以天為單位發(fā)生。機器從人類的工具到伙伴甚至成為人類的對手,不再是幻想,我們似乎正在邁入科幻的真實世界。
基辛格喜歡凡事都從哲學的角度思考,并且聲稱這是他與中國領(lǐng)導人談話時獲得的啟發(fā)。在這本書中,他試圖從人類生存和命運的角度,探討AI對人類的未來意味著什么。其他兩位作者也是在各自領(lǐng)域頗有建樹的專家。如他們所言,該書并沒有試圖定義一個時代,而是想趁著AI帶來的影響尚未超出人類理解范圍之際,通過描繪這項技術(shù)如何改變?nèi)祟惖乃枷?、知識、認知和現(xiàn)實,對其進行思想和哲學上的敘述與分析,由此呼喚人類為共同應(yīng)對挑戰(zhàn)開展對話。
《人工智能時代與人類未來》從人類處境和走過的路說起,引出一個需認真思考的前景:AI的問世標志著人類在探索現(xiàn)實本質(zhì)的旅程中,創(chuàng)造了一個新的強大參與者,它將如何影響和改變?nèi)祟惣捌渖姝h(huán)境?人類將面臨怎樣的未來?書中有一個章節(jié)專門描繪人類的理性是如何歷經(jīng)不同歷史時代,最終獲得至尊地位的。如蘇格拉底所言,哲學家如同一個掙脫束縛、沿著坡路走出洞穴,在陽光下感知真實世界的囚徒。懷著理性探索世界現(xiàn)實是長期以來人類積累知識和提升智慧的主導思維方式,不同社會和認知上的沖突與相互融合亦不斷擴大人類的經(jīng)驗積累,加快科學進步。
長期以來,人類對自身是“世界唯一智者”這一點深信不疑?,F(xiàn)在,AI的突飛猛進動搖著這一信念。書中談到,過去所取得的許多創(chuàng)新技術(shù)都可以被視為是以往實踐的延伸:電影是移動的照片,電話是跨越空間的對話,汽車是快速移動的馬車。現(xiàn)在,AI帶來的創(chuàng)新不再是已知事物的延伸。許多過去只能由人工完成的任務(wù),例如閱讀、研究、購物、談話、記錄保存、監(jiān)視、制訂軍事計劃和行動,等等,已能轉(zhuǎn)為數(shù)字化和由數(shù)據(jù)驅(qū)動,在網(wǎng)絡(luò)空間實現(xiàn)。在傳統(tǒng)的場景里,信息被情境化時就變成了知識,當知識令人信服時就變成了智慧。而現(xiàn)在,AI的應(yīng)用開始波及人在思考、選擇和決定方面的中心角色。
AI已經(jīng)在不經(jīng)意間走進人類的生產(chǎn)和生活。確實,AI所能帶來的便捷顯而易見,人們得以從許多繁瑣的細節(jié)里脫身。我記得30多年前在聯(lián)合國的勞工組織臨時工作期間,常利用休息時間步行參觀羅馬城,靠的是一份折疊的小地圖冊,上面標注了每一條街角、每一座博物館和每一處歷史遺跡?,F(xiàn)在似乎很少有人用這種紙質(zhì)地圖了,人們依賴手機導航出行。我甚至好久都沒有翻閱字典了,遇到生僻詞會習慣性地在網(wǎng)絡(luò)上搜索……這些只是普通人在生活中初步接觸到的AI應(yīng)用。在科研和醫(yī)學探索等領(lǐng)域,AI帶來的革命性變化更是近代以來前所未有,它可以進入人類尚不了解、難以察覺的層面,觸碰著知識尖端探索的前沿。例如,AI參與藥物研發(fā)時,通過“學習”科學家預(yù)設(shè)具有抗菌能力的分子特質(zhì),就能“察覺”到超越人類知識范疇的分子結(jié)構(gòu),從而“發(fā)現(xiàn)”了全新的抗生素;美國國防部高級研究計劃局(DARPA)“阿爾法狗斗”(Alpha Dogfight)AI戰(zhàn)斗機飛行員可以做出超出人類能力的動作,并在虛擬空戰(zhàn)中戰(zhàn)勝經(jīng)驗豐富的人類飛行員。
由基辛格等人所著《人工智能時代與人類未來》一書中文版已由中信出版集團出版發(fā)行。
AI的強大學習能力也讓人感到困惑甚至恐懼。《人工智能時代與人類未來》一書提到,AI的致命問題在于,它可以得出正確的結(jié)論卻不能展示研究路徑,其獲得結(jié)論的方式是不透明的,人類無法得知其所以然。那么,未來AI介入后的世界可能無法被人類完整地認識和解釋。在我們所關(guān)心的所知為何、何以知之甚至何為可知等問題上,AI也許將采取不同的路徑,從而對人類運用理性探索現(xiàn)實的信念構(gòu)成挑戰(zhàn)。作者們追問:當人被AI提供的信息和知識包裹起來時,是在向知識邁進嗎?抑或知識正在離我們而去?
“我思故我在”。若AI能思考或近乎思考,那我們又是誰?雖然關(guān)于AI的一些前瞻性探究已經(jīng)預(yù)測其未來可能擁有意識,但是至少目前它還沒有進入具備理性和感性能力的階段。書中判斷AI沒有反思、畏懼、原諒等人類的共情與道德,進而提出,信賴AI的判斷是否會導致人類喪失人性?書中列舉了荷馬史詩《伊利亞特》對赫克托耳、阿喀琉斯在特洛伊城下決斗的講述和畢加索畫作《格爾尼卡》對西班牙內(nèi)戰(zhàn)中平民傷亡的描繪,由此說明,人類經(jīng)歷過戰(zhàn)爭后,能對戰(zhàn)爭導致的悲劇進行反思,竭力避免下一場戰(zhàn)爭,然而AI卻無法做到——它可以嚴守規(guī)則、表現(xiàn)出色,贏得最有利結(jié)果,卻無法產(chǎn)生反思善惡的道德或者哲學沖動。
《人工智能時代與人類未來》一書分析和列舉了AI的可能風險,比如,不具備人類“常識”,基于數(shù)據(jù)的判斷是僵化的,有可能犯錯,并且不具備自主“糾錯”能力。再如,AI會將人類設(shè)計者的偏見放大,做出更加錯誤的判斷,還可能產(chǎn)生不符合需要的行為。2016年,微軟研發(fā)的聊天機器人Tay在互聯(lián)網(wǎng)接觸到仇恨言論,開始迅速模仿,迫使創(chuàng)造者將其關(guān)停下線。如果未來人類對AI的依賴加深,演變成一種授權(quán),其潛在風險將難以估量。
《人工智能時代與人類未來》一書重點關(guān)注在地緣政治和戰(zhàn)略安全領(lǐng)域里的風險問題。雖然現(xiàn)在沒有跡象表明人類已經(jīng)開啟AI賦能武器的軍備競賽,但是,作者們認為,一旦AI與網(wǎng)絡(luò)武器、核武器相結(jié)合,將極大增強武器的效力和可及性,從而構(gòu)成沖突升級的內(nèi)在風險。如果AI進入戰(zhàn)略的各個層面,在人類理性不可及的領(lǐng)域,那么其過程、范圍和最終意義將變得不再透明。
當年人類面對核武器時也充滿恐懼和不安,當時世界處于美蘇冷戰(zhàn)對峙僵持階段,雙方依據(jù)核威懾理念,拼命發(fā)展足以毀滅人類的致命武器,同時聲稱這是為了避免戰(zhàn)爭,也就形成一個邏輯怪圈,令戰(zhàn)爭風險不斷上升。當時戰(zhàn)略界關(guān)心的是,核武器的使用能否與全面戰(zhàn)爭和相互毀滅以外的政治目標相協(xié)調(diào)?換言之,如何使核武器的發(fā)展擺脫共同毀滅的風險?經(jīng)過包括基辛格在內(nèi)一批國際學者的多年研討和美蘇之間的長期談判,核軍控措施和核查機制最終達成了,更重要的是,促進了大國必須避免核戰(zhàn)爭的全球共識。
該書的關(guān)切點在于,如何防范和避免AI技術(shù)在軍事領(lǐng)域的發(fā)展可能給世界帶來的威脅。首先,AI技術(shù)具有不可知性,不受空間限制。實體武器無論多么隱蔽,其制造、部署終有跡可循,而AI技術(shù)不受空間限制,在世界上的任何角落,一臺連接網(wǎng)絡(luò)的電腦就能運行經(jīng)過開發(fā)的AI程序并賦能武器,通過國際機制監(jiān)督與限制AI武器的部署會很困難。更重要的是,AI的介入可以極大地提升軍事能力,甚至達到超越人類認知的層面。這使得沖突對手之間更加難以相互預(yù)測,誤判和沖突升級的風險大大增加,如果出現(xiàn)自主攻擊型AI武器就更危險。書中提到,雖然許多國家承諾不將致命自主武器投入使用,但是考慮到AI武器的隱秘性和不可知性,誰都難以確信AI技術(shù)新發(fā)展下的軍事應(yīng)用不會擴散。
當今世界已經(jīng)將核武器置于國際安全和軍備控制概念的框架中,對AI和網(wǎng)絡(luò)武器則尚未建立類似的戰(zhàn)略框架?!度斯ぶ悄軙r代與人類未來》的作者們認為,阻擋技術(shù)發(fā)展是不可能的,但是AI武器化的前景將挑戰(zhàn)人類已經(jīng)取得的一些基本國際安全共識。他們呼吁以理性、智慧、合作創(chuàng)造出比核軍控更高明的戰(zhàn)略框架,對AI武器化實現(xiàn)有效的管控和治理。他們尤其關(guān)注在AI技術(shù)開發(fā)與應(yīng)用方面走在世界前列的美國和中國能否就這個事關(guān)人類前途的問題開展合作。
在2019年北京創(chuàng)新經(jīng)濟論壇上的那場討論中,我曾談到,中美作為AI領(lǐng)域的領(lǐng)跑者,在治理問題上責任重大,目前兩國間日益惡化的緊張關(guān)系必然會影響到人類如何應(yīng)對未來新技術(shù)的挑戰(zhàn)。我提出的問題是:雙方是能夠共同努力、實現(xiàn)人類與技術(shù)的共生,還是分道揚鑣甚至導致技術(shù)削弱甚至傷害對方?當時基辛格博士表示,美中面臨的最大挑戰(zhàn)和基礎(chǔ)性問題是:兩國是否進入一種互為敵手的關(guān)系(adversary relationship)? 還能否通過合作找出一些問題的解決辦法?如果互為敵手,兩國將在整個世界的范圍里彼此爭斗,世界將會被分裂。
2023年5月30日,年度“中關(guān)村論壇”重大科技成果專場發(fā)布會在北京舉行,會上發(fā)布了《北京市加快建設(shè)具有全球影響力的人工智能創(chuàng)新策源地實施方案(2023-2025)》和《北京市促進通用人工智能創(chuàng)新發(fā)展的若干措施》。
基辛格等人在《人工智能時代與人類未來》一書中寫到,國家間永遠不會有完全的信任,但是這并不意味著無法達成某種程度的諒解。兩國需要認識到,無論雙方關(guān)系如何演變,彼此都不應(yīng)打一場前沿技術(shù)戰(zhàn)爭。因此,雙方在各個層面啟動關(guān)于網(wǎng)絡(luò)和AI的討論至關(guān)重要,哪怕只是形成一套共同的戰(zhàn)略概念話語,增強對彼此紅線的感知力。書的作者們承認,定義AI的難度也許超過人類歷史上遇到的任何挑戰(zhàn)。
他們并非少數(shù)對AI前景感到恐懼的人。最近離職的谷歌前副總裁兼工程研究員杰弗里·辛頓(Geoffrey Hinton)提出“人類只是智能演化過程中一個過渡階段”的觀點,聲稱AI已具備簡單推理能力,不能排除將來掌握更多能力,甚至操縱人。歐洲正在推進“人工智能法”(The AI Act)的立法進程,試圖對AI實施強監(jiān)管。該法案嚴格禁止“對人類安全造成不可接受風險的AI系統(tǒng)”?;粮裾J為,如果人類能夠劃定邊界,讓理性凌駕于對新技術(shù)的恐懼和困惑之上,人類未來大有可為,否則可能墜入深淵。
美國近年從國家層面加強了對AI的關(guān)注和投入。2018年8月,美國政府組建人工智能國家安全委員會。2021年3月,該委員會出臺報告,規(guī)劃了美國在AI時代遏制他國贏得競爭的戰(zhàn)略方針和行動路線圖。2023年5月,美國政府召集多家科技龍頭企業(yè)高管,討論AI的安全性問題。但是,現(xiàn)任美國政府對于在高技術(shù)領(lǐng)域與中國的合作不僅不予支持,而且不斷設(shè)置障礙,試圖阻斷中國的技術(shù)發(fā)展,在AI國際治理方面也缺乏與中國溝通的意愿。因此,基辛格等人提出的主張和倡議并不能反映美國政府的真實意愿。
盡管如此,中美在AI領(lǐng)域的民間交流與學術(shù)對話并沒有停止。2022年3月斯坦福大學發(fā)布的《人工智能指數(shù)2022》顯示,2010年至2021年,中美在人工智能出版物方面的合作數(shù)量增加了五倍,連續(xù)12年居全球榜首。目前全球AI發(fā)展的基礎(chǔ)理論和技術(shù)研發(fā)保持著一定的開放態(tài)勢,其開源模式有利于制約壟斷。中國科研和企業(yè)界加快了步伐,呈現(xiàn)出你追我趕的氣氛。2019年10月,清華大學戰(zhàn)略與安全研究中心(CISS)與美國布魯金斯學會啟動“人工智能武器化的治理”聯(lián)合研究項目,雙方的學術(shù)討論在過去三年多時間里頓挫推進。雖然中美戰(zhàn)略分歧上升、信任度下降,但是,參加項目的雙方學者都認為,對AI賦能的武器,尤其自主性武器的治理事關(guān)重大。項目焦點是如何圍繞AI賦能武器建立一定的治理共識和規(guī)則。例如,如何把雙方和世界大多數(shù)國家都認可和遵循的國際戰(zhàn)爭和安全法律、規(guī)則植入AI武器中,如何確認禁止AI武器攻擊核電站、大水壩等民用設(shè)施……這個項目的進程從一個側(cè)面反映了大國博弈中前沿學術(shù)合作研討的艱難,但其成果令人鼓舞。
中美有更大責任去思考人類未來,兩國的選擇將深刻影響技術(shù)的發(fā)展方向。不論美國還是中國都不可能壟斷世界的技術(shù)進步,如果雙方采取互補的積極態(tài)度,AI技術(shù)的前景會更加光明;如果兩國不能合作,雙方都將遭受損失,人類也會付出代價。大國在新技術(shù)的浪潮面前,不能像美國所表現(xiàn)出來的那樣過于重視私利而忽視人類共同利益。如果繼續(xù)抱著冷戰(zhàn)思維、零和博弈的心態(tài)不放,必將走向人類共同命運的相反方向。
2022年9月1日,世界人工智能大會在上海開幕。本屆大會以“智聯(lián)世界 元生無界”為主題,集中展示全球人工智能發(fā)展成果。圖為“AI+城市”展區(qū)。
在習近平外交思想指引下,中國在AI治理方面的言論和行動是負責任的。2019年2月,由中國科技部牽頭組建成立國家新一代人工智能治理專業(yè)委員會發(fā)布了新一代人工智能治理的八項原則,包括和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理。2020年9月,中國政府提出“全球數(shù)據(jù)安全倡議”,強調(diào)在相互尊重基礎(chǔ)上,加強溝通交流,深化對話與合作,共同構(gòu)建和平、安全、開放、合作、有序的網(wǎng)絡(luò)空間命運共同體。2021年12月和2022年11月,中國政府先后發(fā)布《關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》和《關(guān)于加強人工智能倫理治理的立場文件》,呼吁各方遵守國家或地區(qū)人工智能倫理道德準則。2023年5月18日,中國科協(xié)主席萬鋼在第七屆世界智能大會上表示,要著力打破“數(shù)據(jù)孤島”,合法合規(guī)推動開源開放,為人工智能產(chǎn)業(yè)的穩(wěn)定發(fā)展提供源頭動力。
誠然,《人工智能時代與人類未來》這本書有著明顯的局限性,其觀點的闡述基于西方理念和價值,歷史參照也主要源自美歐經(jīng)驗,對發(fā)展中國家和其他美歐之外國家的歷史和文化思想缺乏認識,對AI技術(shù)發(fā)展對非西方國家社會和人民的影響缺乏關(guān)注和反映。這本書提出的問題也比給出的答案多,對許多疑問沒能給出更加深入的分析和解決方案。但總體上看,這是一本比較通俗的關(guān)于前沿技術(shù)和熱門話題的書,有助于開啟多維度的嚴肅討論甚至辯論,也能幫助中國讀者更好地了解國際上圍繞人工智能討論中涉及的各種話題。我們需要廣泛了解世界各國和各界的思想、觀點和疑問,提出中國人的想法和主張,積極參與到當今世界重大問題研究和探尋解決路徑的努力中去,踐行構(gòu)建人類命運共同體的主張。