作者:[美] 艾米麗·本德(Emily M. Bender),亞歷克斯·漢娜(Alex Hanna)
出版社:Harper
出版時(shí)間:2025年5月
定價(jià):32美元
本書(shū)犀利地剖析了AI技術(shù)的種種弊端與陷阱,揭穿了其中隱藏的權(quán)力與剝削,提供了識(shí)別AI炒作的指南。
艾米麗·本德是美國(guó)華盛頓大學(xué)計(jì)算語(yǔ)言學(xué)教授,亞歷克斯·漢娜是分布式AI研究所的研究主管。
2025年1月22日,美國(guó)總統(tǒng)特朗普宣布,OpenAI、甲骨文和軟銀將成立一家合資企業(yè)“星際之門(mén)計(jì)劃”(StargateProject),計(jì)劃未來(lái)4年投資5000億美元建設(shè)A I相關(guān)基礎(chǔ)設(shè)施。就在前一天,特朗普撤銷(xiāo)了前任總統(tǒng)拜登簽署的一項(xiàng)旨在減少AI對(duì)公眾和國(guó)家安全所構(gòu)成風(fēng)險(xiǎn)的行政令,大幅減少了對(duì)于美國(guó)AI行業(yè)的監(jiān)管。
“星際之門(mén)計(jì)劃”是有史以來(lái)用于建設(shè)技術(shù)基礎(chǔ)設(shè)施的最大規(guī)模投資,相比之下,按2025年的通貨膨脹率計(jì)算,阿波羅登月計(jì)劃在長(zhǎng)達(dá)13年間總投資也不過(guò)是3 8 0 0億美元。當(dāng)前的AI行業(yè)正在以“誰(shuí)最不顧及后果,誰(shuí)就能最先開(kāi)發(fā)出產(chǎn)品”的模式展開(kāi)惡性競(jìng)賽。這場(chǎng)競(jìng)賽在很大程度上是由OpenAI的崛起推動(dòng)的。OpenAI最初是一家非營(yíng)利機(jī)構(gòu),后來(lái)轉(zhuǎn)型為“有限盈利公司”,它在2 0 2 2 年推出的ChatGPT是本輪AI炒作的起點(diǎn)。
然而,AI的大躍進(jìn)真的帶來(lái)了經(jīng)濟(jì)與社會(huì)的進(jìn)步嗎?在美國(guó)科技記者郝蕓(Karen H ao)看來(lái),情況并非如此。事實(shí)上,當(dāng)前全球大多數(shù)人都比以往面臨更大的經(jīng)濟(jì)和失業(yè)壓力,尤其是那些生活在第三世界國(guó)家的人群,他們并沒(méi)有從AI的發(fā)展中得到多少好處,反而成為AI巨頭公司的犧牲 品。
郝蕓在新近出版的《AI帝國(guó):阿爾特曼與他的OpenAI的夢(mèng)想與噩夢(mèng)》一書(shū)中指出,當(dāng)今AI巨頭公司的運(yùn)作模式類(lèi)似于殖民帝國(guó)。正如殖民者通過(guò)掠奪殖民地以支撐自身擴(kuò)張,AI巨頭公司也是通過(guò)踐踏邊緣群體來(lái)實(shí)現(xiàn)自身目標(biāo)。
例如,訓(xùn)練大型語(yǔ)言模型需要巨量的電力和水資源,從而導(dǎo)致巨大的碳排放。按照目前AI基礎(chǔ)設(shè)施擴(kuò)張的速度,未來(lái)5年需要投入的能源相當(dāng)于加州每年能源消耗的2到6倍,而這些能源大部分將依賴(lài)化石燃料。
從水資源的角度看,AI的數(shù)據(jù)中心必須使用凈化過(guò)的淡水冷卻,不能使用其他類(lèi)型的水,因?yàn)槟菢訒?huì)腐蝕設(shè)備,導(dǎo)致細(xì)菌滋生。大多數(shù)情況下,這類(lèi)淡水直接取自公共飲用水供應(yīng)系統(tǒng)。更有甚者,在全球范圍內(nèi),這類(lèi)數(shù)據(jù)中心有2/3選址在缺水地區(qū),這意味著原本就供水緊張的當(dāng)?shù)厣鐓^(qū)會(huì)更加缺水。
AI行業(yè)需要從互聯(lián)網(wǎng)上抓取海量數(shù)據(jù)來(lái)訓(xùn)練,但是不能直接把這些數(shù)據(jù)輸入模型,因?yàn)閿?shù)據(jù)中有很多“污染物”,需要清理和標(biāo)注。當(dāng)OpenAI開(kāi)始考慮將產(chǎn)品商業(yè)化,把“能夠生成各種文本的機(jī)器”交到數(shù)百萬(wàn)用戶手中的時(shí)候,他們?cè)诳夏醽喭ㄟ^(guò)中介公司雇用合同工來(lái)提供這類(lèi)數(shù)據(jù)清理和標(biāo)注服務(wù)。這些肯尼亞工人需要閱讀網(wǎng)絡(luò)上最?lèi)毫拥奈谋緝?nèi)容,以及Open A I自己的模型模擬網(wǎng)絡(luò)上最?lèi)毫拥奈谋舅傻膬?nèi)容,然后詳細(xì)分類(lèi),比如“這是色情內(nèi)容嗎?這是暴力內(nèi)容嗎?暴力內(nèi)容有多血腥?”,以此來(lái)訓(xùn)練過(guò)濾器識(shí)別各種需要屏蔽的內(nèi)容類(lèi)型。這些工人每小時(shí)的工資只有幾美元,卻在工作中承受了巨大的心理創(chuàng)傷,甚至面臨人格四分五裂的風(fēng) 險(xiǎn)。
殖民帝國(guó)維持自身存在的一大法寶,就是不斷地操縱事實(shí)、操控科學(xué),使自己得以持續(xù)。當(dāng)今的AI帝國(guó)也是如此。對(duì)于AI技術(shù),公眾連最基本的事情都不了解,不知道它們使用了多少能源、排放了多少碳,甚至連數(shù)據(jù)中心建在哪里往往都無(wú)從得知。公眾無(wú)法知道AI的算法和數(shù)據(jù)中究竟隱藏了多少歧視,但是它們已經(jīng)開(kāi)始被學(xué)校用于教學(xué)、被醫(yī)院用于醫(yī)療決策。令人震驚的是,公眾對(duì)這種狀況居然已經(jīng)習(xí)以為常。郝蕓在書(shū)中強(qiáng)調(diào):我們不應(yīng)該接受這樣的狀況。
郝蕓的呼聲并不孤單,而是代表了許多深諳AI行業(yè)內(nèi)幕的有識(shí)之士的共識(shí)和期望。幾乎就在她的新書(shū)出版的同時(shí),兩位資深的AI批評(píng)者—也是播客《AI騙局懸疑劇場(chǎng)3000》的共同主持人—本德(Emily M. Bender)與漢娜(A lex Ha nna)出版了《A I騙局:如何對(duì)抗大科技炒作,創(chuàng)造我們想要的未來(lái)》一書(shū),犀利地剖析了AI技術(shù)的種種弊端與陷阱,揭穿了其中隱藏的權(quán)力與剝削,提供了識(shí)別AI炒作的指南。
兩位作者指出,全球社會(huì)如今正處在一輪火熱的AI炒作周期中。所謂“炒作”就是對(duì)某項(xiàng)技術(shù)過(guò)度吹捧,使人深信非買(mǎi)不可、非投資不可。許多AI領(lǐng)袖關(guān)于未來(lái)的論調(diào),其實(shí)是借用了科幻作品中的常見(jiàn)套路—無(wú)論是熱衷于AI的鼓吹者,還是那些擔(dān)憂AI潛在危害的“末日論者”,他們所描繪的未來(lái)場(chǎng)景幾乎都來(lái)自科幻小說(shuō)。前者幻想一個(gè)由AI驅(qū)動(dòng)的美好未來(lái),后者則哀嘆一個(gè)AI接管世界、毀滅人類(lèi)的末日。
這兩種看似對(duì)立的觀點(diǎn),實(shí)則有一個(gè)共同信念:一個(gè)由遠(yuǎn)超人類(lèi)智慧的AI主導(dǎo)的未來(lái)終將到來(lái)。在此基礎(chǔ)上,就會(huì)不斷有人宣稱(chēng),某項(xiàng)技術(shù)是通往這個(gè)未來(lái)的關(guān)鍵一步。這一切其實(shí)都是市場(chǎng)營(yíng)銷(xiāo)。
事實(shí)上,AI是一個(gè)營(yíng)銷(xiāo)術(shù)語(yǔ),并不指代一套統(tǒng)一的技術(shù)體系。有些AI技術(shù)確實(shí)非常有效,例如能幫助放射科醫(yī)生處理圖像。但是,還有許多AI技術(shù)是被嚴(yán)重夸大的。當(dāng)前被熱捧的大語(yǔ)言模型就是一個(gè)典型例子。兩位作者指出,這類(lèi)模型,比如ChatGPT,其實(shí)質(zhì)是“合成文本擠出機(jī)器”。就像工業(yè)塑料加工一樣,龐大的文本數(shù)據(jù)庫(kù)通過(guò)復(fù)雜的機(jī)械流程,生成貌似有交流意義的語(yǔ)言產(chǎn)品,但背后并沒(méi)有任何意圖或思維主體。那些能生成圖像和音樂(lè)的生成式AI模型也是如此。
數(shù)據(jù)盜用是大語(yǔ)言模型和文本生成圖像模型的原罪,這些模型堪稱(chēng)巨大的剽竊機(jī)器,會(huì)徹頭徹尾地抄襲它們的輸入內(nèi)容,目前已有多起關(guān)于AI侵犯版權(quán)的訴訟。更嚴(yán)重的是數(shù)據(jù)污染,訓(xùn)練數(shù)據(jù)本該經(jīng)過(guò)精心篩選,但是現(xiàn)實(shí)中的AI公司幾乎把互聯(lián)網(wǎng)上所有能搜刮的內(nèi)容都抓了下來(lái)。
隨著AI的普及,如今的網(wǎng)絡(luò)搜索結(jié)果常常首先顯示AI生成的摘要,這會(huì)削弱用戶的批判性思維—過(guò)去用戶必須瀏覽一系列鏈接,了解有哪些信息來(lái)源,這有助于建立對(duì)信息環(huán)境的整體理解。更不用說(shuō),ChatGPT經(jīng)常編造虛假的引用來(lái)源。
勞動(dòng)剝削則是AI的深層次問(wèn)題。兩位作者指出,AI也許不會(huì)直接搶走你的工作,但它一定會(huì)讓你的工作變得更糟。AI經(jīng)常被包裝為效率工具,實(shí)際卻是用黑箱機(jī)器取代有資質(zhì)的工人,然后還需要大量收入微薄的外包或零工人員來(lái)照看這些機(jī)器。換言之,積極使用AI的公司常常會(huì)把正式員工裁掉,再雇用零工來(lái)從事相關(guān)工作任務(wù)。在引入AI的工作場(chǎng)所里,人們要么變成了AI看護(hù)者,需要隨時(shí)照看AI程序;要么得繞過(guò)它們才能完成任務(wù)。AI總體上并沒(méi)有帶來(lái)真正顯著的生產(chǎn)力提升,即使某些地方有所提升,也是因?yàn)楣ぞ咭肓烁嘈氯蝿?wù),背后則依靠大量的人工勞動(dòng)維持。
IBM公司曾經(jīng)有一句著名的箴言:“計(jì)算機(jī)永遠(yuǎn)不應(yīng)被追責(zé),因此計(jì)算機(jī)絕不應(yīng)該作出管理決策。”然而,時(shí)至今日,一些技術(shù)精英和權(quán)力精英極力主張將決策交給AI,這意味著他們本人無(wú)須為后果承擔(dān)責(zé)任。在資本和輿論熱炒AI的大環(huán)境下,不少公眾被灌輸了如下觀念:“AI很聰明,一定會(huì)作出公平、客觀的決定,因?yàn)樗窃陔娔X里運(yùn)算。”
在美國(guó),無(wú)論是私營(yíng)部門(mén)還是公共部門(mén),現(xiàn)在越來(lái)越流行把治理責(zé)任“外包”給自動(dòng)化系統(tǒng)。一個(gè)典型例證就是曾由馬斯克主導(dǎo)的DOGE,其全稱(chēng)是“Digitization of GovernmentEnt erpri se”,即“政府職能數(shù)據(jù)化”,它試圖將美國(guó)聯(lián)邦政府服務(wù)的各個(gè)方面代碼化,從而繞過(guò)原來(lái)的民主治理程序。
隨著AI從創(chuàng)新變成基礎(chǔ)設(shè)施,全球既得利益階層將更容易集中財(cái)富,鞏固既有權(quán)力與地位。而普通人將承受更大的經(jīng)濟(jì)和失業(yè)壓力,邊緣群體將更加脆弱;真相也將更容易被虛假信息遮蔽。
如何不被AI毀掉,成了全球社會(huì)迫在眉睫的問(wèn)題。對(duì)此,兩位作者給出了富有啟發(fā)的回答。
首先,應(yīng)當(dāng)警惕將AI“擬人化”。所謂“擬人化”,意指賦予無(wú)生命的物體人類(lèi)獨(dú)有的特征和品質(zhì)。AI公司宣稱(chēng)自己推出的聊天機(jī)器人“會(huì)看”“會(huì)思考”就是“擬人化”的典型案例。事實(shí)上,聊天機(jī)器人并不具備“看”或“思考”的能力。
AI公司之所以選擇以“擬人化”的方式推銷(xiāo)產(chǎn)品,是因?yàn)槲覀兲焐鷷?huì)假設(shè)語(yǔ)言的背后有一個(gè)說(shuō)話者,一個(gè)“心智主體”。我們?cè)诶斫庹Z(yǔ)言時(shí),不僅僅依賴(lài)字面意義,也會(huì)通過(guò)對(duì)說(shuō)話者的認(rèn)知賦予語(yǔ)言意義。所以,我們?cè)诿鎸?duì)像C h a tGP T這類(lèi)大語(yǔ)言模型所生成的文本時(shí),也會(huì)不自覺(jué)地這么做。但實(shí)際上,大語(yǔ)言模型并不會(huì)真正理解任何一個(gè)概念在其社會(huì)、文化、政治語(yǔ)境下的含義,它們只是在做“模式匹配”,這是一種思考的幻 象。
在破除了“擬人化”的幻象之后,正確的做法是不把AI叫作“AI”(人工智能),因?yàn)檫@個(gè)詞會(huì)讓問(wèn)題變得模糊,而是應(yīng)該把AI當(dāng)作“自動(dòng)化”來(lái)看待,然后追問(wèn):到底自動(dòng)化了什么?輸入是什么?輸出是什么?能夠利用輸入得到合理的輸出嗎?
例如,如果輸入是音頻錄音,輸出是文字轉(zhuǎn)錄,從輸入到輸出的轉(zhuǎn)換就是合理的,錄音所包含的信息足以生成準(zhǔn)確的轉(zhuǎn)錄文本。但是,如果有人聲稱(chēng)他們的AI產(chǎn)品能夠通過(guò)照片判斷一個(gè)人是不是罪犯,這顯然是不可能的。因?yàn)椤白锓浮笔且粋€(gè)社會(huì)類(lèi)別,不是人的固有屬性,更不可能從面相就看出來(lái)。
對(duì)于類(lèi)似這樣的AI產(chǎn)品,就應(yīng)當(dāng)追問(wèn):這個(gè)產(chǎn)品是怎么構(gòu)建的?模型的訓(xùn)練數(shù)據(jù)是怎么得來(lái)的?訓(xùn)練數(shù)據(jù)是否代表了用戶預(yù)期使用場(chǎng)景的真實(shí)情況?更關(guān)鍵的是,它是如何被評(píng)估的?評(píng)估結(jié)果是否符合用戶的使用需 求?
更進(jìn)一步,為什么要把“判斷一個(gè)人是不是罪犯”這件事自動(dòng)化?誰(shuí)會(huì)從中受益?誰(shuí)可能受到傷害?對(duì)于受害者來(lái)說(shuō),有沒(méi)有申訴手段和補(bǔ)救措施?這些問(wèn)題與AI產(chǎn)品所采用的具體技術(shù)手段無(wú)關(guān),而是與AI周邊的生態(tài)系統(tǒng)和社會(huì)機(jī)制有關(guān),任何人都有權(quán)追問(wèn)。如果得不到合理的答案,那么就有充分理由拒絕這類(lèi)AI產(chǎn)品。
令人遺憾的是,在當(dāng)今這個(gè)熱炒AI的時(shí)代,這些本應(yīng)不可或缺的追問(wèn),幾乎總是被忽視。
2025年1月特朗普重返白宮之后,馬斯克主導(dǎo)的DOGE一度大權(quán)在握,推行了一系列激進(jìn)改革,鼓吹政治透明即算法透明,宣揚(yáng)AI算法的“非人化”能夠帶來(lái)客觀、公平的治理結(jié)構(gòu),試圖建立一種“算法治理”與“去官僚化”的技術(shù)統(tǒng)治。
DOGE在掌握實(shí)權(quán)的大約130天里給美國(guó)社會(huì)造成了巨大破壞。大量公務(wù)員系統(tǒng)癱瘓,傳統(tǒng)政府機(jī)構(gòu)行政失能;算法偏見(jiàn)導(dǎo)致弱勢(shì)群體遭到系統(tǒng)性排除,例如AI拒絕為“低信用人群”分配醫(yī)療資源;“效率”驅(qū)動(dòng)的等級(jí)制度加劇了貧富分化,數(shù)字鴻溝擴(kuò)大,社會(huì)進(jìn)一步分裂;大量治理決策無(wú)人負(fù)責(zé),公信力崩塌。
馬斯克在權(quán)傾一時(shí)后迅速淡出權(quán)力中心,深刻揭示了DOGE所倡導(dǎo)的“算法治理”模式的失敗,也為世人敲響了警惕AI的破壞性潛能的警鐘。那種在AI熱潮中被反復(fù)灌輸?shù)摹氨仨毦o跟AI潮流”的思維,正一步步顯現(xiàn)其誤導(dǎo)性與操控性。唯有理性對(duì)抗資本和技術(shù)巨頭的AI炒作,才能避免走向一個(gè)艱難而黯淡的未來(lái)。
《AI帝國(guó):阿爾特曼與他的OpenAI的夢(mèng)想與噩夢(mèng)》
作者:[美] 郝蕓(Karen Hao)
出版社:Penguin Press
《輕率之人:一則關(guān)于權(quán)力、貪婪與理想迷失的警示寓言》
作者:[美] 薩拉·懷恩-威廉姆斯(Sarah Wynn-Williams)
出版社:Flatiron Books
本書(shū)披露了“Facebook”令人震驚的內(nèi)幕,表達(dá)了對(duì)社交平臺(tái)深刻而毫不留情的審視。