胡菡菡
百歲基辛格駕鶴西去,留給世界的最后一本著作,是一本破圈之作《人工智能時代與人類未來》。它的扉頁上印著獻(xiàn)給“南希”——基辛格的妻子,內(nèi)里卻更像急于交付給全人類的讀本,以便我們和南希一樣可以看“透”人工智能,從而看見未來。
寫作本書之前,基辛格也從沒有預(yù)想過自己會去寫一本科技著作。寫作本書,對他來說,是偶然的、計劃之外的事。六年前,一位人工智能專家邀請基辛格出席一次人工智能討論會,基辛格本能地覺得這是一場與他無關(guān)的技術(shù)討論,拗不過邀請者的勸說,時年九十五歲的基辛格躬身入局。不久,又一位人工智能專家聞訊趕到,形成了一個穩(wěn)定的討論人工智能時代如何影響人類未來的“三人組”。這兩位人工智能專家,一位是谷歌前CEO埃里克·施密特,另一位是麻省理工學(xué)院計算機(jī)學(xué)院院長丹尼爾·胡滕洛赫爾。我們現(xiàn)在看到的這本書,就是基辛格與他們的合著。
這兩位人工智能領(lǐng)域的一流人物為什么要拉上基辛格這樣的人工智能外行?一個合理的猜測與解釋是,他們不僅相信基辛格能看到人工智能專家所看不到的問題,同時也希望借助基辛格的聲望,完成傳遞有關(guān)AI 消息的信使的職責(zé)。
多年前, 王小波在《讀書》雜志上發(fā)表過一篇名作《花剌子模信使問題》?;ㄘ葑幽#且粋€中亞古國的名字。據(jù)說,給國王送來好消息的信使會加官晉爵,給國王送來壞消息的信使會被直接喂老虎。套用當(dāng)下的玩梗文化,我們或許可以說每個人心里都住著一個花剌子模國王,人類需要時時警醒不能讓自己只聽好消息。
盡管基辛格領(lǐng)銜的“三人組”沒有將人工智能說成好消息,也沒有說成壞消息,我們還是能從字里行間感受到“信使”的憂慮。彼時已經(jīng)體驗過GPT3.0 技術(shù)的基辛格們在書中寫道:“這是一場革命,人類現(xiàn)有的哲學(xué)概念和社會制度讓我們在面對這場革命時頗有些措手不及。”
其實,基辛格探討人工智能與人類未來的書,早在二0二一年就問世了。但是,該書在當(dāng)時的美國并沒有激起什么波瀾,在中國更是知之者甚少。如果不是因為ChatGPT 橫空出世震驚全世界,中國出版商也許不會如此急切、如此快捷地翻譯引進(jìn)這本“舊書”。
ChatGPT 正如一個友情加入“三人組”的巨獸,讓無數(shù)的南希們都突然對信使們的憂慮感同身受,甚至開始慌張。那些在大機(jī)器時代尚有些沾沾自喜的腦力勞動者都開始相互打趣是不是哪天就會被人工智能取代,比如律師、教師以及醫(yī)生。畢竟人類的理性計算能力,在人工智能面前顯得不堪一擊。
十多年前,少數(shù)科幻迷用來討論人工智能毀滅人類的末日概率P,一夜間又流行起來。業(yè)內(nèi)人士無論相識與否動輒問對方您的P是多少,就像問廁所在哪兒一樣隨意。研發(fā)出ChatGPT 的OpenAI公司首席科學(xué)家竟然公開表示,他的P 在5% 至50% 之間。
人們的慌張,來源于看不“透”人工智能將會把我們帶去何方。人工智能樹立起高高的技術(shù)屏障,讓不知情的南希們只能靠猜想為自己的未來擔(dān)憂。
雖然嚴(yán)肅的人工智能科學(xué)家都認(rèn)為,震驚世界的ChatGPT 沒有越過“弱人工智能”的門檻,連通用人工智能都算不上,更別奢談強人工智能了, 雖然各類提供人工智能技術(shù)服務(wù)的公司,包括OpenAI都聲稱人工智能技術(shù)的目的是給人類賦能,而并非盜取人類的飯碗,但這仍然無法說服普通人相信人工智能的權(quán)杖真的掌握在自己的手中。人類會毀滅,看起來還是個玩笑;但個體會被隔絕以及拋下,卻是切膚的問題。即便是基辛格的兩位專家伙伴,都坦言:“無論哪個領(lǐng)域的專家,都無法憑借一己之力理解一個機(jī)器能夠自主學(xué)習(xí)和運用邏輯的未來?!笨础巴浮比斯ぶ悄埽蔀檫@個世紀(jì)剛開頭的時候人們最急迫的任務(wù)之一。
二0二三年春天,馬斯克對自己參與孵化的ChatGPT 的問世不但沒有表示任何喜悅之情,反而公開譴責(zé)ChatGPT 背離初心、“科技向錢”。這個初心,就是OpenAI 中的Open 一詞,敞開的、能夠讓人看“透”的人工智能。OpenAI 這幾年并沒有完全兌現(xiàn)公開所有研究成果、增進(jìn)全人類福祉的承諾,開源方面早在二0一九年就不太open 了。如果不是被群嘲OpenAI 應(yīng)該更名Closed-AI,本已決定不再開源的GPT-2 模型,就可能徹底對公眾掩上了面紗。
“輸入輸出不由人類控制,算法是個黑匣子”的傳說,在人工智能發(fā)展的初期不斷傳播。谷歌這樣的巨頭因此得以使用“商業(yè)秘密”這樣的話語來為不透明的人工智能開發(fā)提供合法性。時至今日,透明性悖論,仍然是科技巨頭們常常討論的議題。比如,模型運行的重要細(xì)節(jié)可能被竊取,可能遭到外部實體的網(wǎng)絡(luò)攻擊等等。當(dāng)然, 激烈競爭的市場下,這樣的議程無可厚非??墒钱?dāng)我們明確感受到偏見、歧視、操縱、隱私泄露……我們便明白,更為重要的事是去揭開人類智能,而非人工智能為數(shù)據(jù)貼上的一個個小標(biāo)簽,繼續(xù)追求透明,而非在透明悖論中打轉(zhuǎn)。
基辛格生前嘆息地表示過,人工智能是一場迥異于汽車取代馬車的劃時代變革。在這場變革中,我們并不知道我們要扮演何種角色,我們是被動的,不是積極主動地共襄盛舉,而是身不由己地裹挾其中。誠如“計算機(jī)之父”圖靈所言——“我們只能看到前方很短的距離”,我們模模糊糊地感覺到人工智能似乎造成了什么影響,但我們并不知道未來。
未來,就像一個盲盒,如果透明性原則不能得到企業(yè)和國家的徹底認(rèn)同,人類打開的就可能是一個潘多拉魔盒。
對不透明的擔(dān)憂,加速了美國、歐盟人工智能立法進(jìn)程。有趣的是,真正引發(fā)歐美政治家警覺的,是ChatGPT 的橫空出世,而非基辛格一廂情愿的呼吁。早在二0二一年,歐盟就有出臺人工智能監(jiān)管法案的計劃,但是喋喋不休推進(jìn)緩慢。當(dāng)ChatGPT 把輿論操縱之類的現(xiàn)實風(fēng)險擺放到立法者面前時,歐洲人才發(fā)現(xiàn)監(jiān)管立法已迫在眉睫,不能再拖了。二0二三年即將結(jié)束的時候,歐盟各成員國和歐洲議會歷時三天的唇槍舌劍,推出一個史無前例的突破性的吃螃蟹的人工智能監(jiān)管法案。
歐洲人工智能監(jiān)管法案中,透明性原則成了不容置疑的立法原則。法案矛頭直指ChatGPT和谷歌等人工智能巨頭, 要求ChatGPT 等基礎(chǔ)模型在投放市場前必須履行透明度義務(wù),以詳細(xì)摘要的方式披露技術(shù)文件之類的細(xì)節(jié)。對于某些特定的人工智能系統(tǒng),法案也要求其在使用聊天機(jī)器人或“ 深度偽造技術(shù)”時,履行最低限度的透明度義務(wù),明白無誤地提醒人類用戶,和你聊天的是機(jī)器而不是人。
綜觀聯(lián)合國教科文組織、部分歐美國家,以及我們中國的“軟法”“硬法”,“透明性倫理原則”是壓倒一切的倫理原則。雖然措辭不盡相同,觀點并無二致,都希望人工智能成為可控、可靠、可用、可信的人類的工具。
透明,特別是算法透明,是人工智能其他倫理原則得以保障的必要先決條件。我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等規(guī)定強調(diào)算法備案,針對的也是人工智能技術(shù)開發(fā)和應(yīng)用中可能存在的不透明問題。如果我們不能通過透明性原則增強人工智能的可審計性、可追溯性、可解釋性和可依賴性,聯(lián)合國教科文組織幾年前發(fā)布的“人工智能十大倫理原則建議”中的其他九個倫理原則,都是鏡花水月可望而不可即。試想,沒有透明度,人們?nèi)绾螌ξ④?、谷歌等科技巨頭的人工智能技術(shù)是否有益于社會提出有效質(zhì)疑?
作為一個有全球影響力的外交家,基辛格對透明性原則的關(guān)注, 在于國家, 而非企業(yè)巨頭?;粮竦囊暯谴_實不同于一般科學(xué)家,他擔(dān)憂的,不僅僅是“如果機(jī)器會思考,我們?nèi)祟愑质鞘裁础边@樣的哲學(xué)家式的擔(dān)憂,更有對國家之間人工智能競賽的擔(dān)憂?;粮窈粲醮髧油该鳎屖澜缌私馄湓谌斯ぶ悄芊矫娴哪繕?biāo)與進(jìn)展,以免其他國家迷??謶?,兩敗俱傷。
希望所有國家都能在人工智能領(lǐng)域保持透明的主張,或許有點兒烏托邦,但肯定是正確的。因為,沒有任何一個國家可以憑一己之力獨自控制人工智能帶給人類的風(fēng)險。作為人類命運共同體的一員,我們天然享有知曉潛在風(fēng)險的權(quán)利、預(yù)先獲得提醒的權(quán)利。然而,沒有人工智能企業(yè)巨頭的透明,沒有人工智能研發(fā)大國的透明,我們的權(quán)利就只能停留在紙上,我們無從知曉潛在風(fēng)險,也無法預(yù)先獲得提醒。僅憑這一點,我們就還是向“中國人民的老朋友”基辛格致謝,感謝他未必正確的觀點中流淌的“信使”之思。
(《人工智能時代與人類未來》,[ 美]亨利·基辛格、埃里克·施密特、丹尼爾·胡滕洛赫爾著,胡利平、風(fēng)君譯,中信出版社二0二三年版)