陳冰
在史蒂文·斯皮爾伯格導(dǎo)演的電影《人工智能》中,一對(duì)因車禍痛失愛(ài)子的夫妻收養(yǎng)了人工智能“大衛(wèi)”。在被人類養(yǎng)育的過(guò)程中,大衛(wèi)漸漸產(chǎn)生了“我到底是一個(gè)機(jī)器,還是一個(gè)人”的困惑。
這背后隱含了一個(gè)深刻的哲學(xué)問(wèn)題——機(jī)器能夠思考嗎?
隨著ChatGPT的快速發(fā)展,許多人類自以為機(jī)器無(wú)法觸達(dá)的領(lǐng)域正在被機(jī)器“攻城略寨”,以至于國(guó)內(nèi)知名的軟件人發(fā)出了這樣的感慨——人不知疲倦地重復(fù)勞動(dòng),讓自己變成機(jī)器;而機(jī)器不斷地學(xué)習(xí)提升智能,讓自己變成人……
從2011年蘋果手機(jī)首次推出的Siri語(yǔ)音助手,到今年包攬奧斯卡七大獎(jiǎng)項(xiàng)的電影《瞬息全宇宙》,生成式人工智能早已融入人類生活。當(dāng)下,ChatGPT類工具更是進(jìn)一步引爆全球人工智能熱潮,幾乎每一天,我們都會(huì)看到ChatGPT帶來(lái)的新震撼。
從5月19日開(kāi)始,iOS美國(guó)地區(qū)用戶已經(jīng)可以在手機(jī)和iPad上免費(fèi)下載和使用ChatGPT。未來(lái)幾周內(nèi)將擴(kuò)展到其他國(guó)家/地區(qū)。這意味著ChatGPT對(duì)我們的影響力更進(jìn)一步。與此同時(shí),美國(guó)頂級(jí)公立大學(xué)佛羅里達(dá)大學(xué)金融學(xué)院公布的一項(xiàng)研究表明,將ChatGPT融合在投資模型中,可以預(yù)測(cè)股市的走勢(shì),其投資回報(bào)率甚至高達(dá)驚人的500%,堪稱AI界的“巴菲特”。
對(duì)于人工智能的發(fā)展,社會(huì)各界的觀點(diǎn)目前可大致分為樂(lè)觀論、悲觀論和泡沫論三類。支持“泡沫論”的華裔科學(xué)家、斯坦福大學(xué)教授李飛飛曾說(shuō),不要高估現(xiàn)在人工智能的發(fā)展水平,從物理學(xué)角度看人工智能,它目前還處于前伽利略階段。
不管ChatGPT目前處于何種階段,其狂飆突進(jìn)的技術(shù)演進(jìn),引發(fā)了人們深深的擔(dān)憂:它催生的是一個(gè)更便捷、更快速、徹底解放勞動(dòng)力的時(shí)代?還是一個(gè)信息垃圾滔天,人類注意力迅速耗竭的時(shí)代?
目前,生成式人工智能還沒(méi)有統(tǒng)一的定義,一般可以理解為一種能夠根據(jù)提示生成文本、圖像或其他媒體信息的人工智能系統(tǒng)。
“這個(gè)技術(shù)不是像魔法一樣憑空出現(xiàn)的,而是有著悠久的歷史淵源?!闭憬髮W(xué)公共管理學(xué)院信息資源管理系研究員蔣卓人指出,在生成式人工智能90多年的發(fā)展歷程中,不乏人類智慧閃耀的時(shí)刻。
1932年,法國(guó)工程師Georges Artsrouni創(chuàng)造了裝置“mechanical brain”(機(jī)器大腦)。它通過(guò)查詢多功能詞典完成翻譯,輸入、輸出都是一條紙帶。蔣卓人認(rèn)為,雖然它和今天的機(jī)器翻譯不同,但它完全符合今天對(duì)生成式人工智能的定義,即人類輸入一段內(nèi)容,機(jī)器產(chǎn)生一段新的內(nèi)容。
1956年的夏天,美國(guó)達(dá)特茅斯學(xué)院( Dartmouth College )一群志同道合的學(xué)者驅(qū)車赴會(huì),暢談如何利用剛剛問(wèn)世不久的計(jì)算機(jī)來(lái)實(shí)現(xiàn)人類智能的問(wèn)題。在會(huì)議的籌備時(shí)期,麥卡錫(John McCarthy))建議學(xué)界以后就用“人工智能”一詞來(lái)標(biāo)識(shí)這個(gè)新興的學(xué)術(shù)領(lǐng)域,與會(huì)者則附議。這應(yīng)該就是人工智能開(kāi)始進(jìn)入計(jì)算機(jī)領(lǐng)域的一次“群英會(huì)”。畢竟,此次會(huì)議中有四人后來(lái)均獲得了計(jì)算機(jī)領(lǐng)域內(nèi)的最高學(xué)術(shù)獎(jiǎng)勵(lì)圖靈獎(jiǎng)。
在20世紀(jì)中,麻省理工學(xué)院創(chuàng)造了最早的生成式人工智能之一伊莉莎(Eliza),朱迪亞·珀?duì)枺↗udea Peal)引入了貝葉斯網(wǎng)絡(luò)因果分析概念,楊立昆(Yann Lecun)等展示了如何利用卷積神經(jīng)網(wǎng)絡(luò)來(lái)識(shí)別圖像……
2006年,華裔計(jì)算機(jī)科學(xué)家李飛飛著手構(gòu)建數(shù)據(jù)庫(kù)ImageNet。該數(shù)據(jù)庫(kù)中有超過(guò)1400萬(wàn)張手工標(biāo)注的圖片,包含超過(guò)2萬(wàn)個(gè)類別。正是有了這樣一個(gè)龐大數(shù)據(jù)庫(kù)的支撐,深度學(xué)習(xí)才能得以興起。
AI 教父辛頓表示,目前,每個(gè)工程師都更關(guān)注如何使AI 變得越來(lái)越厲害,而不是考慮它如何適應(yīng)社會(huì)和環(huán)境。他強(qiáng)調(diào)建立一個(gè)可信、公開(kāi)和透明的機(jī)制的重要性,以確保AI 被正確監(jiān)管和控制,以發(fā)揮其潛力和減輕其負(fù)面影響。
1750億參數(shù)量,3000億訓(xùn)練單詞數(shù),這是ChatGPT的數(shù)據(jù)。2022年發(fā)布后,ChatGPT在短短兩個(gè)月內(nèi)吸引了超過(guò)1億的用戶,成為有史以來(lái)用戶增長(zhǎng)最快的應(yīng)用。
要理解ChatGPT,就要理解它的關(guān)鍵技術(shù):大模型基礎(chǔ)訓(xùn)練、指令微調(diào)、人類反饋強(qiáng)化學(xué)習(xí)。“大模型的全稱是大型語(yǔ)言模型。”蔣卓人講道,“它是一種概率模型,能告訴你一個(gè)詞出現(xiàn)的概率是多少?!?/p>
比如,在The students opened their這句英文后面,可以出現(xiàn)books、laptops、exams、minds等詞?!暗鼈兂霈F(xiàn)的概率是不一樣的。一個(gè)好的語(yǔ)言模型,能精準(zhǔn)地預(yù)測(cè)下一個(gè)詞是什么?!笔Y卓人說(shuō)。
隨著語(yǔ)言模型的發(fā)展,它具備了良好的語(yǔ)言理解能力,但如何讓其與人類建立對(duì)話呢?
研究者們提出的辦法是指令微調(diào)。通過(guò)引入思維鏈以及代碼生成,大模型的推理能力得以提升。至此,大模型初步具備了回答人們提出的任何指令的可能,但回答的質(zhì)量卻參差不齊,如何讓大模型持續(xù)性地輸出高質(zhì)量回答呢?
研究者們又為此設(shè)計(jì)了一套基于人類反饋的強(qiáng)化學(xué)習(xí)方法,即通過(guò)大模型的微調(diào)、獎(jiǎng)勵(lì)函數(shù)的訓(xùn)練以及大規(guī)模強(qiáng)化學(xué)習(xí)的優(yōu)化來(lái)確保高質(zhì)量回答的生成?!癘penAI就是使用這種方法,大幅度降低了數(shù)據(jù)集構(gòu)建成本?!笔Y卓人說(shuō)。
在復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾看來(lái),理解ChatGPT的本質(zhì)并不困難。ChatGPT作為一種大型語(yǔ)言模型,是“傳統(tǒng)神經(jīng)元網(wǎng)絡(luò)技術(shù)+深度學(xué)習(xí)技術(shù)”的進(jìn)階版,通俗來(lái)說(shuō),就是通過(guò)數(shù)學(xué)建模建造出一個(gè)簡(jiǎn)易的人工神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)。
盡管ChatGPT的語(yǔ)言通順程度和機(jī)器翻譯水平令人贊嘆,但談到這種模型與人類的根本區(qū)別,徐英瑾指出,人工智能的進(jìn)步,實(shí)際上是統(tǒng)計(jì)學(xué)意義上的進(jìn)步,是通過(guò)不斷迭代的大規(guī)模數(shù)據(jù)集和人工語(yǔ)料訓(xùn)練后“野蠻投入”的結(jié)果,因此,縱使ChatGPT看到“路遙知馬力”能接上“日久見(jiàn)人心”,但它并不能真正理解中文詩(shī)詞的精妙內(nèi)涵。
這種人工智能系統(tǒng)訓(xùn)練方式將不得不把“常人”的意見(jiàn)加以建制化與機(jī)械化,由此使得社會(huì)意識(shí)形態(tài)的板結(jié)現(xiàn)象變得更為嚴(yán)重。換言之,從機(jī)器的視角看,一個(gè)正確的意見(jiàn)就是被大多數(shù)人所認(rèn)可的意見(jiàn),因此,少數(shù)“異類”提出的“離經(jīng)叛道”之說(shuō)在技術(shù)上就會(huì)被過(guò)濾掉。
“這需要我們的高度警惕,”徐英瑾強(qiáng)調(diào),“假若ChatGPT技術(shù)在托勒密的時(shí)代就出現(xiàn),哥白尼的‘日心說(shuō)恐怕會(huì)永遠(yuǎn)被判定為錯(cuò)誤答案。”
從時(shí)間樣態(tài)上看,“常人”的天然時(shí)間標(biāo)簽是“過(guò)去”,而“自由”的天然標(biāo)簽則是“未來(lái)”。而任何的深度學(xué)習(xí)機(jī)制都必然帶有“過(guò)去”的時(shí)間標(biāo)簽,因?yàn)榇罅康臄?shù)據(jù)收集、喂入與訓(xùn)練都會(huì)消耗大量的時(shí)間,并由于這種消耗所造成的時(shí)間差而必然與“當(dāng)下”失之交臂,更不用說(shuō)去擁抱未來(lái)了。ChatGPT依然沒(méi)有擺脫這一深度學(xué)習(xí)機(jī)制的宿命。實(shí)際上大家都知道,ChatGPT對(duì)2021年以后發(fā)生的新聞事件,比如2022年2月爆發(fā)的俄烏戰(zhàn)爭(zhēng),都無(wú)法進(jìn)行有效的信息處理,而且也很難對(duì)未來(lái)的世界進(jìn)行具有創(chuàng)新力的預(yù)見(jiàn),這就使得其在根本上無(wú)法擺脫“常人”意見(jiàn)的陰影。
還有一點(diǎn)值得注意的是,ChatGPT具有根據(jù)不同用戶的輸入習(xí)慣改變自身答案的能力。換言之,它能記住特定用戶的說(shuō)話傾向,并投其所好地修改自己的輸出。從表面上來(lái)看,這貌似是此項(xiàng)技術(shù)尊重用戶個(gè)性的體現(xiàn),但看得更深一點(diǎn),這種“尊重”本身乃是一種無(wú)原則的諂媚,而不是真正的自由精神所需要的質(zhì)疑與反思。因此這依然是一種對(duì)于“常人”態(tài)度的表露。
復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾認(rèn)為, 過(guò)度依賴ChatGPT,可能會(huì)讓人喪失反思力與對(duì)未來(lái)的把握能力,陷入過(guò)度“自欺”的狀態(tài)。攝影/ 成釗
此外,別有用心的人也能利用ChatGPT的此項(xiàng)“諂媚”而借由“人海戰(zhàn)術(shù)”去系統(tǒng)改變ChatGPT的知識(shí)輸出方式,由此使其成為認(rèn)知戰(zhàn)中的一個(gè)環(huán)節(jié)。徐英瑾表示,一個(gè)長(zhǎng)期依賴ChatGPT的人類用戶會(huì)因?yàn)榱?xí)慣于該機(jī)制對(duì)于“常人”意見(jiàn)的不斷重復(fù),而進(jìn)一步喪失對(duì)于這些意見(jiàn)的反思力。因此,即使他隱約意識(shí)到了某個(gè)機(jī)器輸出的答案可能是有問(wèn)題的,他也會(huì)自言自語(yǔ)地說(shuō),這畢竟是ChatGPT提供的答案,又怎么可能是錯(cuò)的呢?過(guò)度依賴ChatGPT,可能會(huì)讓人喪失反思力與對(duì)未來(lái)的把握能力,陷入過(guò)度“自欺”的狀態(tài)。
作為與楊立昆、約書亞·本吉奧三人并稱為人工智能領(lǐng)域三位奠基人之一的“AI教父”杰弗里·辛頓(Geoffrey Hinton)也表達(dá)了類似的擔(dān)憂。美國(guó)當(dāng)?shù)貢r(shí)間5月1日,這位75歲的圖靈獎(jiǎng)得主突然宣布從谷歌離職。他發(fā)推文稱,他離開(kāi)谷歌是為了可以公開(kāi)地談?wù)撊斯ぶ悄艿奈kU(xiǎn)。他表示,對(duì)自己的畢生工作,感到非常后悔。
辛頓說(shuō):“相比大模型,人類在學(xué)習(xí)速度上并無(wú)優(yōu)勢(shì)。AI所制造的‘幻覺(jué)并不是缺陷,而是特性,編造也是人類記憶的一個(gè)特點(diǎn),這些模型正在做類似于人類的事情,它們現(xiàn)在已經(jīng)非常接近人類了,將來(lái)會(huì)比我們聰明得多,我們將如何生存?”
面對(duì)生成式人工智能帶來(lái)的挑戰(zhàn),世界各國(guó)都曾出現(xiàn)過(guò)“AI威脅論”。馬斯克就是其中最為著名的一員。3月份時(shí),一份名為《暫停大型人工智能研究》的公開(kāi)信在未來(lái)生命研究所官網(wǎng)上發(fā)布,包括特斯拉CEO埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、Skype創(chuàng)始人埃馬德·莫斯塔克、Stability AI首席執(zhí)行官約書亞·本吉奧、圖靈獎(jiǎng)獲得者斯圖拉特·拉塞爾、麻省理工學(xué)院物理學(xué)教授約翰·霍普菲爾德、《未來(lái)簡(jiǎn)史》的作者尤瓦爾·赫拉利等人在內(nèi)的千名科學(xué)家、企業(yè)高管簽字呼吁暫緩GPT-4以上版本的研發(fā)。
目前AI 研究已經(jīng)發(fā)展到“大模型時(shí)代”,若是繼續(xù)不加管控,讓AI 按照預(yù)定軌跡發(fā)展下去的話可能對(duì)地球環(huán)境、人類生存、公民身心健康等方面造成威脅。
緊接著,5月初,AI領(lǐng)域知名投資人伊恩·霍加斯(Ian Hogarth)在外媒專欄中發(fā)表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,警告AI公司的研究存在“一些潛在的風(fēng)險(xiǎn)”。
霍加斯在文中指出,目前AI研究已經(jīng)發(fā)展到“大模型時(shí)代”,若是繼續(xù)不加管控,讓AI按照預(yù)定軌跡發(fā)展下去的話可能對(duì)地球環(huán)境、人類生存、公民身心健康等方面造成威脅。
復(fù)旦大學(xué)國(guó)家智能評(píng)價(jià)與治理實(shí)驗(yàn)基地副主任、大數(shù)據(jù)研究院教授趙星在復(fù)旦建校118周年相輝校慶系列學(xué)術(shù)報(bào)告第十場(chǎng)講座“生成式人工智能的挑戰(zhàn)與治理”中指出,“科技界曾將人工智能的應(yīng)用比作煉金術(shù),人們將數(shù)據(jù)一股腦往模型里面扔,至于能否煉出有價(jià)值的東西,煉出的是什么,卻沒(méi)有明確的預(yù)期?!焙苊黠@,在技術(shù)層面上生成式人工智能存在內(nèi)生的不確定性。
面對(duì)生成式人工智能這個(gè)新對(duì)手,趙星教授認(rèn)為不能沿用傳統(tǒng)治理“被動(dòng)回應(yīng)外在威脅”的方法。相反,他的團(tuán)隊(duì)正在著眼于借助復(fù)旦大學(xué)大數(shù)據(jù)研究院院長(zhǎng)鄔江興院士提出的“內(nèi)生安全理論”,構(gòu)建生成式人工智能治理的新模型。
“當(dāng)我們準(zhǔn)備向全社會(huì)投放一種通用性工具,卻不能明確它的科學(xué)原理是什么,就一定會(huì)有內(nèi)生性的風(fēng)險(xiǎn)?!比斯ぶ悄茱L(fēng)險(xiǎn)中最核心的一點(diǎn)在于其結(jié)果的不可承受性?!拔覀兒苌僭谥卫韱?wèn)題上處于如此無(wú)力的狀態(tài)。”趙星說(shuō)。在應(yīng)用層面上,生成式人工智能產(chǎn)業(yè)發(fā)展的確定性與風(fēng)險(xiǎn)治理的不確定性將長(zhǎng)期存在。
而在社會(huì)方面,生成式人工智能不僅深陷知識(shí)產(chǎn)權(quán)與信息泄露問(wèn)題,或也將塑造真正的信息繭房。“當(dāng)生成式人工智能24小時(shí)都伴你身邊,潛移默化地,你會(huì)誤認(rèn)為一切都是你自己的決定?!壁w星警示,“我們面對(duì)的,是一個(gè)會(huì)在短時(shí)間內(nèi)崛起,或?qū)⒁饑?yán)重后果且后果未知的事物?!?/p>
面對(duì)生成式人工智能這個(gè)新對(duì)手,趙星認(rèn)為不能沿用傳統(tǒng)治理“被動(dòng)回應(yīng)外在威脅”的方法。相反,他的團(tuán)隊(duì)正在著眼于借助復(fù)旦大學(xué)大數(shù)據(jù)研究院院長(zhǎng)鄔江興院士提出的“內(nèi)生安全理論”,構(gòu)建生成式人工智能治理的新模型。
“我們能否在未知的風(fēng)險(xiǎn)爆發(fā)之前找到抵抗它的辦法?這是生成式人工智能內(nèi)生安全治理要解決的問(wèn)題?!壁w星說(shuō),“我們需要在人工智能風(fēng)險(xiǎn)來(lái)臨前,給人類社會(huì)點(diǎn)亮一個(gè)新的技能樹(shù):應(yīng)對(duì)人工智能非傳統(tǒng)安全問(wèn)題的能力。”
生成式人工智能的治理模型涵蓋了三個(gè)層面。最外層是法律的監(jiān)督與規(guī)約,中間層是管理層的敏捷治理,尤為強(qiáng)調(diào)的最內(nèi)層是教育。在法律和政府治理之前,高等院校應(yīng)和所有的教育機(jī)構(gòu)一起,完成針對(duì)全人類的社會(huì)性融合人工智能的教育和訓(xùn)練。
“我們應(yīng)當(dāng)在每一位年輕人的成長(zhǎng)過(guò)程中,讓他們學(xué)會(huì)如何與人工智能良好共處與規(guī)避‘信息繭房,以及如何去做一個(gè)智能社會(huì)中的‘好人。”
內(nèi)生安全治理模型的原理,是基于群體智能將個(gè)體“未知的未知”轉(zhuǎn)化為群體“已知的未知”,從而進(jìn)一步將其轉(zhuǎn)化為“已知的已知”。
“當(dāng)我們知道可能的風(fēng)險(xiǎn)是什么、產(chǎn)生在何處,生成式人工智能治理便有機(jī)會(huì)轉(zhuǎn)化為常規(guī)性安全問(wèn)題,我們就能嘗試尋求到治理閉環(huán)的實(shí)現(xiàn)。”趙星說(shuō),“然而這仍需要理論、實(shí)踐上長(zhǎng)期的探索。”
趙星團(tuán)隊(duì)也開(kāi)始探索生成式人工智能在科學(xué)評(píng)價(jià)中的應(yīng)用,創(chuàng)新構(gòu)建了“客觀數(shù)據(jù)、智能算法、專家評(píng)議”三者和諧共生的“數(shù)智人”評(píng)價(jià)與治理新范式。近期團(tuán)隊(duì)也在開(kāi)展利用類ChatGPT工具進(jìn)行智能評(píng)價(jià)系統(tǒng)構(gòu)建的探索實(shí)驗(yàn)。
“初步結(jié)果顯示,雖然現(xiàn)階段的生成式人工智能遠(yuǎn)沒(méi)到能勝任學(xué)術(shù)評(píng)價(jià)這樣的嚴(yán)肅評(píng)價(jià)工作的程度,”趙星表示,“但生成式人工智能表現(xiàn)出的‘跨學(xué)科評(píng)價(jià)能力和‘涌現(xiàn)推斷預(yù)測(cè)潛力值得高度關(guān)注?!?/p>