課題:研究闡釋黨的二十屆三中全會(huì)精神國(guó)家社科基金重大專(zhuān)項(xiàng)“推進(jìn)新聞宣傳與網(wǎng)絡(luò)輿論一體化管理研究”(編號(hào):24ZDA084)
DOI:10.3969/j.issn.2095-0330.2025.07.006
2024年11月12日,中央網(wǎng)信辦秘書(shū)局聯(lián)合多部門(mén)發(fā)布《關(guān)于開(kāi)展“清朗·網(wǎng)絡(luò)平臺(tái)算法典型問(wèn)題治理”專(zhuān)項(xiàng)行動(dòng)的通知》(以下簡(jiǎn)稱《通知》),將算法濫用引發(fā)的認(rèn)知操控與權(quán)益侵害等問(wèn)題推向公共議程的前沿。當(dāng)前,智能算法(Intelligentalgorithms)及其治理已成為一項(xiàng)全球性的熱點(diǎn)議題。然而,當(dāng)“個(gè)性化推薦”“信息繭房”成為公共話語(yǔ)的靶點(diǎn)時(shí),算法通過(guò)何種技術(shù)手段生產(chǎn)“個(gè)性化”的邏輯卻被懸置,使得大量算法批判淪為現(xiàn)象層面的道德聲討?;诖?,本文試圖透過(guò)“算法批判”的表層敘事,從技術(shù)所造成的倫理后果轉(zhuǎn)向其發(fā)生邏輯本身,追問(wèn)兩個(gè)核心問(wèn)題:第一,當(dāng)算法宣稱“比你更懂你”時(shí),它究竟在何種意義上實(shí)現(xiàn)了“懂”?第二,算法如何通過(guò)其內(nèi)在邏輯重塑我們定義自我、參與社會(huì)以及理解世界的方式?
一、“分類(lèi)”作為智能算法的底層邏輯
2012年8月,以“你關(guān)心的,才是頭條”作為口號(hào)的“今日頭條”正式上線。作為新聞客戶端,它沒(méi)有文字編輯,最初的100多位員工基本都是技術(shù)人員。按照創(chuàng)始人兼CEO張一鳴的描述,“今日頭條用算法理解人性”,讓“內(nèi)容找人”取代“人找內(nèi)容”是頭條算法的終極追求。至此,以“個(gè)性化”“精準(zhǔn)化”為標(biāo)志的智能算法強(qiáng)勢(shì)進(jìn)入中國(guó)互聯(lián)網(wǎng)和普羅大眾的日常生活。然而,當(dāng)“用算法理解人性”成為平臺(tái)追求時(shí),它實(shí)際上掩蓋了一些更為深層的問(wèn)題:算法如何“理解”人性?又如何定義“理解”?
(一)物以類(lèi)聚:技術(shù)延展的基礎(chǔ)規(guī)則
算法研究長(zhǎng)期困囿于認(rèn)識(shí)論的二元割裂:技術(shù)專(zhuān)家關(guān)注算法的工程實(shí)現(xiàn),強(qiáng)調(diào)效率與精準(zhǔn)性;社會(huì)學(xué)者批判其權(quán)力效應(yīng),關(guān)注算法如何重塑社會(huì)關(guān)系。若批判一端,研究便似乎不可避免地滑向另一端。要么只關(guān)注數(shù)據(jù)輸入、模型訓(xùn)練與結(jié)果輸出,將“理解”這一充滿人性復(fù)雜性的概念簡(jiǎn)化為由點(diǎn)擊、停留、轉(zhuǎn)發(fā)量化的行為數(shù)據(jù);要么完全忽視技術(shù)實(shí)現(xiàn)的細(xì)節(jié),使“理解”成為既不可見(jiàn)又無(wú)處不在的認(rèn)知霸權(quán)。悖謬的是,二者對(duì)算法“理解”之理解始終缺乏對(duì)其生成機(jī)制的追問(wèn),即數(shù)據(jù)化過(guò)程如何將社會(huì)關(guān)系轉(zhuǎn)化為可計(jì)算對(duì)象,進(jìn)而將算法認(rèn)知塑造為一種兼具技術(shù)合法性與社會(huì)規(guī)范性的權(quán)力裝置。在此語(yǔ)境下,“算法如何理解人性”或許應(yīng)被重構(gòu)為一個(gè)元問(wèn)題(meta-question),即“算法如何理解數(shù)據(jù)”。數(shù)據(jù)(data)是算法認(rèn)知的邊界與起點(diǎn),算法無(wú)法超越數(shù)據(jù)的限制,它只能看到數(shù)據(jù)允許它看到的世界,并在此基礎(chǔ)上展開(kāi)訓(xùn)練與推理。因此,當(dāng)算法以數(shù)據(jù)為依據(jù)進(jìn)行“理解”時(shí),其認(rèn)知行為的核心便不再是抽象的人性解析,而是針對(duì)數(shù)據(jù)展開(kāi)的“識(shí)別”。
“分類(lèi)”(classification)是人類(lèi)識(shí)別客觀世界的基本方法。人在經(jīng)驗(yàn)地面對(duì)客觀世界時(shí),注意點(diǎn)不外乎兩個(gè):“相似”與“相異”。①原始人通過(guò)辨識(shí)漿果的顏色,劃出“可食”與“有毒”的生存與死亡的界限。注意心理學(xué)事實(shí)上就是意識(shí)中模糊的分類(lèi)法,它幫助人類(lèi)避開(kāi)危險(xiǎn)、延續(xù)生命。②直至古希臘時(shí)期,亞里士多德通過(guò)“屬”與“種”的邏輯劃分首次將分類(lèi)思想系統(tǒng)化。③埃米爾·涂爾干(EmileDurkheim)與馬塞爾·莫斯(MarcelMauss)在《原始分類(lèi)》一書(shū)中對(duì)“分類(lèi)”作了如下定義:“所謂分類(lèi),是指人們把事物、事件以及有關(guān)世界的事實(shí)劃分成類(lèi)和種,使之各有歸屬,并確定它們的包含關(guān)系或排斥關(guān)系的過(guò)程。”④可見(jiàn),分類(lèi)本質(zhì)上是人類(lèi)為混沌世界賦予秩序的基本認(rèn)知手段。
21世紀(jì)的信息科學(xué)正在經(jīng)歷一場(chǎng)認(rèn)知范式的結(jié)構(gòu)性轉(zhuǎn)型。無(wú)論是科學(xué)實(shí)踐還是日常生活,都很難擺脫大數(shù)據(jù)的想象與“數(shù)據(jù)泛濫”的持續(xù)威脅,這一矛盾并非數(shù)字時(shí)代獨(dú)有。早在18世紀(jì)中葉,殖民擴(kuò)張帶來(lái)的植物標(biāo)本激增引發(fā)生物學(xué)的首次“數(shù)據(jù)危機(jī)”,傳統(tǒng)手稿系統(tǒng)因難以應(yīng)對(duì)海量的記錄與檢索而瀕臨崩潰。瑞典生物學(xué)家卡爾·馮·林奈(CarlvonLinné)以分類(lèi)思想創(chuàng)設(shè)“紙條系統(tǒng)”(paperslipsystem),將具有不同物種特征的植物拆分為獨(dú)立單元。研究者可根據(jù)需要,快速找到特定特征的紙條,該系統(tǒng)也被視為現(xiàn)代數(shù)據(jù)庫(kù)索引技術(shù)的雛形。③從林奈的分類(lèi)實(shí)踐開(kāi)始,分類(lèi)學(xué)(Taxonomy)發(fā)生了根本性的轉(zhuǎn)變,逐漸成為一種正式、系統(tǒng)化的信息科學(xué),具備標(biāo)準(zhǔn)化的分類(lèi)規(guī)則和方法,并廣泛應(yīng)用于科學(xué)研究和數(shù)據(jù)管理。③隨著信息技術(shù)的不斷發(fā)展,分類(lèi)已經(jīng)成為理解和組織龐大數(shù)據(jù)世界的基礎(chǔ)規(guī)則,推動(dòng)著生命科學(xué)、計(jì)算科學(xué)乃至認(rèn)知科學(xué)的進(jìn)步與發(fā)展。
(二)人以群分:“共性化算法”的技術(shù)遞演
當(dāng)前,人類(lèi)面臨的數(shù)據(jù)難題依舊是林奈式的?;ヂ?lián)網(wǎng)數(shù)據(jù)中心發(fā)布的《數(shù)據(jù)時(shí)代2025》報(bào)告預(yù)測(cè),全球每年產(chǎn)生的數(shù)據(jù)從2018年的33ZB增長(zhǎng)到2025年的175ZB( 1ZB=1.1 萬(wàn)億GB),規(guī)模早已超出人力處理的極限。于是,智能算法作為現(xiàn)代化的分類(lèi)機(jī)制應(yīng)運(yùn)而生,它通過(guò)機(jī)器學(xué)習(xí)自動(dòng)提取潛在特征模式,實(shí)現(xiàn)了分類(lèi)能力的自主進(jìn)化。由于監(jiān)督學(xué)習(xí)的方法有差異,機(jī)器學(xué)習(xí)主要分為判別式(discriminative)和生成式(generative)兩種模型。前者是對(duì)條件概率建模,學(xué)習(xí)不同類(lèi)別之間的最優(yōu)邊界,智能推薦算法即屬此類(lèi);后者通過(guò)聯(lián)合概率預(yù)測(cè)類(lèi)別,生成對(duì)抗網(wǎng)絡(luò)(GenerativeAdversarialNetworks,GAN)的出現(xiàn)使其可生成文本、圖像等內(nèi)容,學(xué)界將其定義為生成式人工智能(Generative Artificial Intelligence,GAI)。就技術(shù)分類(lèi)的角度而言,本文所討論的智能算法并不泛指一切自動(dòng)化系統(tǒng),而是指主要基于判別式模型、嵌入平臺(tái)運(yùn)行邏輯的“推薦型算法”。此處可列舉幾類(lèi)經(jīng)典的智能推薦算法來(lái)展示其如何突破傳統(tǒng)分類(lèi)的局限性。(1)協(xié)同過(guò)濾算法,通過(guò)識(shí)別用戶或物品的相似性實(shí)現(xiàn)基于行為模式的群體分類(lèi)。(2)基于內(nèi)容的推薦算法,依據(jù)物品特征將相似內(nèi)容歸入相似類(lèi)別,并將同類(lèi)內(nèi)容推薦給對(duì)同類(lèi)物品感興趣的用戶。(3)基于標(biāo)簽的推薦算法,通過(guò)標(biāo)簽共現(xiàn)關(guān)系構(gòu)建語(yǔ)義網(wǎng)絡(luò),將用戶標(biāo)記的興趣內(nèi)容歸類(lèi),并推薦擁有相似標(biāo)簽的其他項(xiàng)目。(4)基于社交網(wǎng)絡(luò)的推薦算法,依據(jù)社交關(guān)系對(duì)用戶進(jìn)行動(dòng)態(tài)分類(lèi),識(shí)別信任與興趣群體,實(shí)現(xiàn)定向推送。(5)基于上下文信息的推薦算法,通過(guò)捕捉用戶所處的實(shí)時(shí)場(chǎng)景(如時(shí)間、地點(diǎn)、設(shè)備等)對(duì)推薦內(nèi)容進(jìn)行分類(lèi)與適配。
近年來(lái),隨著深度學(xué)習(xí)等現(xiàn)代技術(shù)的廣泛應(yīng)用,智能算法的“智能性”正在進(jìn)一步增強(qiáng)。①深度學(xué)習(xí)的核心在于多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其數(shù)學(xué)原理本質(zhì)上是通過(guò)非線性映射對(duì)數(shù)據(jù)空間進(jìn)行高效劃分,從而捕捉復(fù)雜的模式,實(shí)現(xiàn)更高層次的智能化分類(lèi)。①③基于深度學(xué)習(xí)的智能算法能夠根據(jù)用戶的多種行為數(shù)據(jù),在隱式語(yǔ)義空間中構(gòu)建動(dòng)態(tài)演化的分類(lèi)體系。④在信息科學(xué)中,語(yǔ)義(semantics)指代數(shù)據(jù)背后隱含的意義與關(guān)聯(lián)性。③部分經(jīng)典推薦算法(如基于內(nèi)容的推薦算法)依賴顯性語(yǔ)義標(biāo)簽,其語(yǔ)義邊界由人類(lèi)專(zhuān)家預(yù)先定義;而深度學(xué)習(xí)技術(shù)通過(guò)神經(jīng)協(xié)同過(guò)濾、深度特征提取、語(yǔ)義建模等方法,能夠從用戶的多維行為數(shù)據(jù)(如點(diǎn)擊頻率、停留時(shí)長(zhǎng)、交互深度等)中自動(dòng)學(xué)習(xí)隱式語(yǔ)義關(guān)系,生成動(dòng)態(tài)分類(lèi)簇??。2018年圖靈獎(jiǎng)獲得者之一的人工智能專(zhuān)家約書(shū)亞·本吉奧(YoshuaBengio)與其合作者在論文中寫(xiě)道:“人工智能必須根本性地理解我們周?chē)氖澜纾覀冋J(rèn)為只有當(dāng)它能夠?qū)W會(huì)識(shí)別和解開(kāi)隱藏在低級(jí)感官數(shù)據(jù)中的潛在解釋因素時(shí),才能實(shí)現(xiàn)這一目標(biāo)?!盄正是這種近乎“人性化”的智能表現(xiàn),甚至讓人們時(shí)常忘記人工智能的本質(zhì)只是基于分類(lèi)的概率運(yùn)算。前沿研究表明,即使是基于Transformer(一種用于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型,由谷歌團(tuán)隊(duì)于2017年發(fā)布)的推薦系統(tǒng),其注意力機(jī)制本質(zhì)上仍在執(zhí)行動(dòng)態(tài)的、基于上下文的分類(lèi)操作。
與傳統(tǒng)分類(lèi)過(guò)程類(lèi)似,算法分類(lèi)面臨的核心問(wèn)題之一仍是識(shí)別“數(shù)據(jù)的基本特點(diǎn)”,即找出能準(zhǔn)確區(qū)分不同類(lèi)別的數(shù)據(jù)特征,確保同一類(lèi)別內(nèi)部要素的相似性顯著高于不同類(lèi)別之間的相似性。在技術(shù)本質(zhì)上,算法將群組作為分析單位,并對(duì)不同群組作同質(zhì)化處理。即使群組和個(gè)人存在差異,算法也認(rèn)為這些差異無(wú)法人為加以控制,在決策時(shí)也應(yīng)當(dāng)將這些差異因素排除出去。這樣能夠抵消冗余的編程,減少算法設(shè)計(jì)和運(yùn)行的成本。②因此,算法的“個(gè)性化”實(shí)際上是通過(guò)分析大量用戶行為和內(nèi)容特征的相似性,挖掘數(shù)據(jù)中的共性特征和普遍規(guī)律,并將這些規(guī)律精準(zhǔn)地映射到個(gè)體用戶的需求上,實(shí)現(xiàn)“千人千面”的推送效果。在這一邏輯下,所謂更懂你的算法認(rèn)知,并不真正了解“你”作為行為人本身或者了解“你”所觀看的內(nèi)容,而是根據(jù)“和你相似的人群”的喜好,建立用戶行為與內(nèi)容特征之間的數(shù)學(xué)統(tǒng)計(jì)關(guān)聯(lián),用大多數(shù)人的“共性”來(lái)服務(wù)每個(gè)人的“個(gè)性”?!肮残浴迸c“個(gè)性”在算法系統(tǒng)中并不彼此對(duì)立,反而在技術(shù)主導(dǎo)下呈現(xiàn)一種彼此嵌套的關(guān)聯(lián)性?!肮残浴弊鳛樗惴ㄗR(shí)別與歸類(lèi)的基本單位,被用來(lái)塑造算法對(duì)“個(gè)性”的理解,但此種理解建立在對(duì)行為的相似性歸納之上,而非對(duì)個(gè)體差異性的尊重上。人們?cè)驹O(shè)想的“個(gè)性化算法”(personalizedalgorithm),實(shí)際上是一種以分類(lèi)命名世界、以相似性替代復(fù)雜性的共性化技術(shù),個(gè)性化因此淪為“共性化算法”(generalizedalgorithm)的欺騙性表征。
二、分類(lèi)即秩序:算法作為數(shù)字社會(huì)的制序機(jī)制
克洛德·列維-斯特勞斯(ClaudeLevi-Strauss)曾言:“分類(lèi)是通向理性秩序的第一步?!雹芙?jīng)由社會(huì)分類(lèi)以及將界限的逾越視作禁忌的制度,人們與事物各有所屬、各安其分,于是社會(huì)就有了“秩序”。因此,分類(lèi)不僅是對(duì)世界的認(rèn)知工具,更是對(duì)世界的“制序”實(shí)踐。③然而,在信息繭房的自我強(qiáng)化、算法偏見(jiàn)所引發(fā)的系統(tǒng)性排斥等一系列社會(huì)后果的沖擊下,智能算法“技術(shù)化制序”的合法性正面臨根本性挑戰(zhàn)。值得關(guān)注的是,部分批判論調(diào)基于一個(gè)有待商榷的預(yù)設(shè),即前算法時(shí)代的信息獲取模式具有更高程度的認(rèn)知自由與自主性,但這種預(yù)設(shè)本身值得審慎檢視。事實(shí)上,當(dāng)我們審視“算法是否制造了新混亂”時(shí),必須同時(shí)追問(wèn)“它解決了何種更棘手的舊混亂”或者說(shuō)“它開(kāi)啟了何種更具可能性的新秩序”。
(一)信息繭房的再審視
長(zhǎng)久以來(lái),信息繭房作為一個(gè)常識(shí)性但未被學(xué)界證實(shí)的“似是而非”的概念,常常與智能推薦算法的負(fù)面性糾結(jié)在一起。直至2023年,清華大學(xué)的研究團(tuán)隊(duì)在Nature子刊(NatureMachineIntelligence)發(fā)表研究成果,深入探討了信息繭房的涌現(xiàn)機(jī)制。他們發(fā)現(xiàn),在基于相似性匹配生成算法的有效力場(chǎng)作用下,信息主題逐漸從多樣化狀態(tài)演變?yōu)樾畔⒗O房狀態(tài),這一相變的特征是信息熵(informationentropy)的下降。?信息熵是信息論中用于度量信息量的一個(gè)概念。一個(gè)系統(tǒng)越是有序,信息熵就越低;反之,一個(gè)系統(tǒng)越是混亂,信息熵就越高。在信息論的視角下,信息熵的降低是信息優(yōu)化的勝利,人類(lèi)得以在數(shù)據(jù)洪流中快速錨定目標(biāo)信息,而這也正是數(shù)字互聯(lián)網(wǎng)的來(lái)時(shí)之路。
1990年,蒂姆·伯納斯-李(Tim Berners-Lee)提出的萬(wàn)維網(wǎng)(WorldWideWeb,WWW)設(shè)想了一個(gè)通過(guò)超鏈接關(guān)聯(lián)的非線性信息空間。但是,在技術(shù)實(shí)現(xiàn)的早期階段,這種理念并未完全轉(zhuǎn)化為用戶友好的實(shí)踐。1993年,互聯(lián)網(wǎng)歷史上第一個(gè)能夠顯示圖片的網(wǎng)頁(yè)瀏覽器NCSA Mosaic問(wèn)世時(shí),用戶仍需通過(guò)目錄索引或手動(dòng)輸入IP訪問(wèn),個(gè)體被迫成為自己數(shù)字生活的“檔案管理員”。到1996年,全球網(wǎng)站數(shù)量突破10萬(wàn),用戶迫切需要一種高效的信息導(dǎo)航工具。比較著名的是雅虎提供的樹(shù)狀分層目錄搜索體系,用戶根據(jù)需要選擇對(duì)應(yīng)的分類(lèi)目錄,層層點(diǎn)擊,找到自己需要的最小分類(lèi)目錄并瀏覽對(duì)應(yīng)的網(wǎng)頁(yè)結(jié)果。在信息激增與用戶需求的雙重驅(qū)動(dòng)下,以谷歌、百度為代表的搜索引擎通過(guò)自然語(yǔ)言處理與信息檢索技術(shù),實(shí)現(xiàn)了對(duì)海量信息的高效篩選與精準(zhǔn)匹配。其中,谷歌于1996年推出的PageRank(網(wǎng)頁(yè)排名)算法將超鏈接等自然傳播路徑轉(zhuǎn)化為權(quán)重參數(shù),確立了以算法評(píng)估為核心的信息優(yōu)先級(jí)體系,標(biāo)志著信息秩序的生成從人工預(yù)設(shè)的規(guī)則體系轉(zhuǎn)向以技術(shù)為主導(dǎo)的量化評(píng)估模式。盡管如此,PageRank仍受限于鏈接關(guān)系,缺乏對(duì)語(yǔ)義與用戶動(dòng)態(tài)行為的理解。20世紀(jì)末,機(jī)器學(xué)習(xí)技術(shù)的成熟推動(dòng)了智能算法的發(fā)展,使其逐步形成獨(dú)立于傳統(tǒng)搜索引擎的信息制序系統(tǒng)。
憑借遠(yuǎn)超人類(lèi)算力的分類(lèi)能力,智能算法得以在信息過(guò)載的數(shù)字社會(huì)中重建高效的內(nèi)容分發(fā)秩序,實(shí)現(xiàn)了“讓內(nèi)容找人”。它擁有一套“自反性”(reflexivity)的進(jìn)化機(jī)制:用戶與推薦系統(tǒng)的每次交互都會(huì)被持續(xù)轉(zhuǎn)化為訓(xùn)練數(shù)據(jù),使推薦結(jié)果的信息熵值呈現(xiàn)收斂趨勢(shì)。字節(jié)跳動(dòng)工程師曾對(duì)兩組各78萬(wàn)名用戶進(jìn)行算法改進(jìn)的對(duì)比實(shí)驗(yàn),結(jié)果顯示,優(yōu)化后的算法顯著提升了用戶閱讀效率。實(shí)驗(yàn)組用戶平均多閱讀0.5篇文章,其中0.4篇來(lái)自深度閱讀行為,同時(shí)平均閱讀時(shí)長(zhǎng)多20多秒。①這次實(shí)驗(yàn)僅用2,000多行代碼就成功驗(yàn)證了算法調(diào)整在降低用戶信息篩選成本方面的作用,展現(xiàn)了智能算法在信息熵減方面的突破性價(jià)值。然而,隨著算法的持續(xù)進(jìn)化與迭代,用戶的每一次點(diǎn)擊、停留或跳過(guò)行為都會(huì)動(dòng)態(tài)調(diào)整分類(lèi)維度的權(quán)重分布,最終用戶被鎖定在特定的語(yǔ)義空間內(nèi),信息獲取的閉環(huán)形成。當(dāng)前,數(shù)字平臺(tái)用越來(lái)越精準(zhǔn)的推薦算法幫我們過(guò)濾信息,卻也讓很多人被困在了信息繭房里。長(zhǎng)期生活在山洞里的人會(huì)把墻上的影子當(dāng)作真實(shí)世界,長(zhǎng)期處于算法構(gòu)建的封閉時(shí)空的人,亦容易誤將繭房?jī)?nèi)的局部秩序當(dāng)作世界真相。信息繭房的形成既是分類(lèi)效率最大化的必然結(jié)果,也是算法制序過(guò)程中未被充分反思的認(rèn)知代價(jià)。
(二)“有序”的數(shù)字關(guān)系
隨著算法對(duì)信息世界的掌控程度的不斷加深,以及其逐漸構(gòu)建起的認(rèn)知路徑依賴,算法的分類(lèi)邏輯不可避免地向更具能動(dòng)性的社會(huì)關(guān)系領(lǐng)域滲透。這一轉(zhuǎn)向的必然性在于“分類(lèi)作為人類(lèi)組織經(jīng)驗(yàn)的核心機(jī)制,始終兼具分化與整合的雙重功能”。此機(jī)制的內(nèi)在邏輯,正如涂爾干所描述的,社會(huì)組織“自然而然地會(huì)在它所處的空間中擴(kuò)展自身…為了避免發(fā)生沖突,社會(huì)必須為每個(gè)特定群體指定一部分空間”③。在此過(guò)程中,分類(lèi)不僅劃定了群體之間的差異和關(guān)系,也創(chuàng)造了群體認(rèn)同與社會(huì)統(tǒng)一的現(xiàn)實(shí)。這種“群體一社會(huì)”的同構(gòu)性揭示了一個(gè)根本事實(shí):分類(lèi)既是差異的制造者,也是連接的締造者。
早期互聯(lián)網(wǎng)為人們勾勒出了一幅技術(shù)烏托邦的理想圖景,如信息自由流動(dòng)與個(gè)體平等參與,卻用技術(shù)中立的假設(shè)遮蔽了分類(lèi)機(jī)制的社會(huì)功能,使其在塑造社會(huì)關(guān)系中的作用顯得模糊而微弱。最早的公共在線社區(qū)(如BBS、USENET)以主題或主題層次結(jié)構(gòu)為基礎(chǔ)③,主要通過(guò)共同興趣或話題將用戶聚集在一起。相比之下,社交網(wǎng)站(socialnetworksites)的出現(xiàn)催生了“以自我為中心”的分類(lèi)結(jié)構(gòu),每個(gè)個(gè)體都處于自己社交網(wǎng)絡(luò)的中心位置,以個(gè)人為基點(diǎn)向外擴(kuò)張網(wǎng)絡(luò)。在算法尚未深度介入社交領(lǐng)域時(shí),這種結(jié)構(gòu)雖初步形成,但仍缺乏系統(tǒng)性擴(kuò)展的動(dòng)力。人們通常自覺(jué)或不自覺(jué)地依據(jù)國(guó)籍、年齡、教育水平等傳統(tǒng)的社會(huì)分類(lèi)標(biāo)準(zhǔn)聚集,形成相對(duì)封閉的交往圈層。③2006年,F(xiàn)acebook推出了著名的EdgeRank(邊際排名)算法,以用戶行為數(shù)據(jù)為基礎(chǔ),通過(guò)“親密度”(affinity)、“權(quán)重”(weight)與“時(shí)間衰減”(timedecay)三個(gè)核心要素對(duì)信息進(jìn)行排序和分發(fā)。③即便在現(xiàn)實(shí)世界素未謀面的陌生人,也能因數(shù)據(jù)層面的高頻互動(dòng)被定義為“親密關(guān)聯(lián)者”。由此,“關(guān)系”這一原本基于情感與信任的社會(huì)紐帶被數(shù)據(jù)分類(lèi)的算法實(shí)踐所量化,并被精準(zhǔn)地嵌入數(shù)字空間的秩序中。
盡管Facebook后來(lái)逐漸用更復(fù)雜的機(jī)器學(xué)習(xí)模型,如NewsFeed(信息流)算法,取代了EdgeRank,但其分類(lèi)與排序邏輯為數(shù)字關(guān)系的智能化重塑奠定了重要基礎(chǔ)。互聯(lián)網(wǎng)的網(wǎng)絡(luò)基礎(chǔ)設(shè)施本身即具備追蹤用戶在不同網(wǎng)站和服務(wù)器之間活動(dòng)軌跡的技術(shù)能力,這種跨平臺(tái)的數(shù)據(jù)積累直接催生了一種依托數(shù)學(xué)模型與算法分類(lèi)而形成的“新型算法身份”。與傳統(tǒng)社會(huì)依靠生理或社會(huì)屬性通過(guò)直接觀察獲取個(gè)體數(shù)據(jù)不同,智能算法能基于統(tǒng)計(jì)學(xué)意義上的數(shù)據(jù)通用性模型,以自動(dòng)化方式推斷與界定個(gè)體的人口學(xué)特征、興趣偏好及互動(dòng)模式。③在此基礎(chǔ)上,智能算法將原本離散而松散的個(gè)人數(shù)據(jù)重組為清晰的關(guān)系網(wǎng)絡(luò),進(jìn)而明確個(gè)體在數(shù)字社交場(chǎng)域中的“位置”“身份”以及與他人的連接路徑。具體而言,算法會(huì)將擁有相似特征的個(gè)體歸為同類(lèi),依此推薦內(nèi)容并且劃分“圈子”,而這種“同類(lèi)歸組”的行為本質(zhì)上就是對(duì)社交關(guān)系的再分類(lèi)和再生產(chǎn)。通過(guò)不斷調(diào)整個(gè)體與群體之間的數(shù)據(jù)關(guān)聯(lián),算法在“差異性”與“同一性”的張力中尋找平衡,使數(shù)字社會(huì)得以在高度流動(dòng)的狀態(tài)下建立起穩(wěn)定的社交秩序。一方面,它依托數(shù)據(jù)的差異性區(qū)分,建立并強(qiáng)化了群體之間的邊界,避免了混亂與沖突;另一方面,它在差異性基礎(chǔ)上構(gòu)建起了“類(lèi)聚群分”的結(jié)構(gòu)化面貌,使人們?cè)跀?shù)字社會(huì)中獲得了如實(shí)體社會(huì)般的持久連接。
(三)算法的“分類(lèi)治理術(shù)”
無(wú)論古今,求治去亂始終是思想家們關(guān)注的終極議題,現(xiàn)代治理體系的發(fā)展歷程大抵也是沿著“秩序”這條主脈而鋪開(kāi)的。在數(shù)字化時(shí)代,這種秩序的生產(chǎn)尤其體現(xiàn)在數(shù)據(jù)的治理邏輯之中。原初的數(shù)據(jù)呈現(xiàn)為無(wú)序、復(fù)雜而海量的狀態(tài),而國(guó)家治理的核心在于通過(guò)數(shù)據(jù)的分類(lèi)與整合,實(shí)現(xiàn)特定的秩序化目標(biāo)。換言之,治理實(shí)踐本身就隱含著數(shù)據(jù)的結(jié)構(gòu)化和秩序化傾向,其結(jié)果是將無(wú)序的信息轉(zhuǎn)化為可計(jì)算、可預(yù)測(cè)且便于治理的有序?qū)ο?,從而建立一種以大數(shù)據(jù)和算法技術(shù)為媒介的新型秩序。根據(jù)它的基本特征,藍(lán)江將其稱為數(shù)字時(shí)代的治理模式,即算法治理(algorithmicgovernmentality)。④
這種“分類(lèi)治理”的思想古已有之。涂爾干和莫斯在《原始分類(lèi)·中國(guó)篇》中指出:“早在我們紀(jì)元的最初幾個(gè)世紀(jì),它(中國(guó)分類(lèi)體系)就已經(jīng)發(fā)展成熟了?!避髯诱J(rèn)為,“兼足天下之道在明分”,“明分”就是“制禮義以分之”,即依據(jù)名分來(lái)分職合群、配置社會(huì)資源,實(shí)現(xiàn)各得其位、各守其分、各安其責(zé)的理想社會(huì)。進(jìn)入數(shù)字時(shí)代,智能算法開(kāi)始取代傳統(tǒng)禮義,成為賦予個(gè)體社會(huì)位置與角色的新型分類(lèi)機(jī)制。它以數(shù)據(jù)生成的風(fēng)險(xiǎn)評(píng)級(jí)為基礎(chǔ),通過(guò)對(duì)個(gè)體行為模式的持續(xù)跟蹤、記錄、分析與評(píng)級(jí),形成了精準(zhǔn)的“分類(lèi)治理術(shù)”。個(gè)體不再以具象的公民身份出現(xiàn),而被轉(zhuǎn)化為如金融領(lǐng)域的“優(yōu)質(zhì)用戶、高風(fēng)險(xiǎn)用戶”等分類(lèi)標(biāo)識(shí),算法以此來(lái)確定個(gè)體社會(huì)流動(dòng)的界限、社會(huì)互動(dòng)的范圍與社會(huì)資源的差異化配置。在此過(guò)程中,算法不僅避免了科層系統(tǒng)的信息損耗,更通過(guò)分類(lèi)的技術(shù)邏輯,使治理對(duì)象從個(gè)體化的“公民”轉(zhuǎn)變?yōu)閿?shù)據(jù)化的“治理單元”,國(guó)家得以借助龐大的數(shù)據(jù)網(wǎng)絡(luò)精準(zhǔn)識(shí)別社會(huì)行為,重構(gòu)現(xiàn)代治理的運(yùn)作邏輯。這一過(guò)程不可避免地伴隨著個(gè)體隱私邊界的消解和政治控制的強(qiáng)化,但正如郭小安與趙海明指出的,數(shù)字化監(jiān)視并非必然意味著權(quán)力對(duì)個(gè)體的奴役或壓制,相反,它可以成為一種特殊的治理資源。在技術(shù)理性所建構(gòu)的秩序化架構(gòu)中,人們能夠明確自身的權(quán)責(zé)與行動(dòng)邊界,并在算法預(yù)設(shè)的分類(lèi)秩序中主動(dòng)或被動(dòng)地調(diào)整自身行為,以更高的效率回應(yīng)現(xiàn)代社會(huì)對(duì)于安全與秩序的普遍需求。因此,技術(shù)的秩序中蘊(yùn)含著國(guó)家對(duì)社會(huì)治理的期待,即運(yùn)用算法規(guī)訓(xùn)個(gè)體生活,也在這種規(guī)訓(xùn)中保障著共同體和國(guó)家的“安全”和“穩(wěn)定”。
三、分類(lèi)即“暴力”:智能算法的“共性化取代”
正如我們所見(jiàn),互聯(lián)網(wǎng)在歷史中從未簡(jiǎn)單地朝向解放或壓制的單一方向,而是在秩序與混亂的博弈中螺旋前進(jìn)。我們需要一種更具歷史感與辯證意識(shí)的視角,明確算法如何在優(yōu)化社會(huì)秩序的同時(shí)生產(chǎn)并固化了新的權(quán)力結(jié)構(gòu)。遵循著“物以類(lèi)聚,人以群分”的基礎(chǔ)邏輯,智能算法將復(fù)雜的社會(huì)關(guān)系、個(gè)體行為與差異化訴求轉(zhuǎn)化為可計(jì)算的共性特征,從而實(shí)現(xiàn)對(duì)不確定性的精確控制。只有深入理解技術(shù)分類(lèi)邏輯中的深層次暴力,才能超越簡(jiǎn)單的道德譴責(zé)或技術(shù)烏托邦式的樂(lè)觀想象,為構(gòu)建更具開(kāi)放性與包容性的未來(lái)提供思想基礎(chǔ)與實(shí)踐可能。
(一)誰(shuí)在定義“群”的邊界?
20世紀(jì)80年代,社會(huì)學(xué)家皮埃爾·布爾迪厄(PierreBourdieu)在法蘭西學(xué)院以“普通社會(huì)學(xué)”為題開(kāi)設(shè)的系列課程中,詳細(xì)論述了分類(lèi)作為一種社會(huì)斗爭(zhēng)的運(yùn)作機(jī)制。在他看來(lái),世界的命名與分類(lèi)是一種關(guān)涉權(quán)力與利益分配的社會(huì)實(shí)踐。這種實(shí)踐不僅形塑著社會(huì)行動(dòng)者對(duì)于現(xiàn)實(shí)世界的感知與理解,更通過(guò)不斷界定社會(huì)成員之間的關(guān)系與等級(jí),決定著個(gè)體或群體在社會(huì)中的位置。在此過(guò)程中,掌握著分類(lèi)權(quán)力的主體,必然同時(shí)掌握著界定群體邊界的力量:決定何者屬于群體,何者被排除在群體之外。因此,要深入把握智能算法的分類(lèi)邏輯及可能形成的結(jié)構(gòu)性暴力,必須追“群”之概念的形成機(jī)制,及其所嵌套的歷史脈絡(luò)與文化基礎(chǔ)。
可以明確的一點(diǎn)是,“群”得以成為可能的根本在于“分”。此處的“分”有兩層含義:一是“名分”,即布爾迪厄所說(shuō)的“命名”,“名”是分類(lèi)的結(jié)果與表征,不同的分類(lèi)須被賦予不同的名稱,以使其名實(shí)相副;二是“定分”,即本文意義上的“分類(lèi)”,通過(guò)劃定明確的社會(huì)邊界,將個(gè)體與群體之間的關(guān)系結(jié)構(gòu)化,使社會(huì)角色得以界定、職責(zé)得以明確。“名分”通過(guò)對(duì)符號(hào)的賦予使分類(lèi)結(jié)果清晰可見(jiàn),“定分”則通過(guò)確立分類(lèi)的邊界與標(biāo)準(zhǔn),使之成為治理實(shí)踐與社會(huì)互動(dòng)的規(guī)范依據(jù)。這種制度化的“分”之邏輯將“群”的生成建立在“正當(dāng)分類(lèi)”的基礎(chǔ)之上,既抑制了“非分之爭(zhēng)”,也賦予了“分內(nèi)之責(zé)”。換言之,只有當(dāng)分類(lèi)具有明確且合法的界定標(biāo)準(zhǔn)時(shí),“群”的構(gòu)建才可能真正實(shí)現(xiàn)社會(huì)整合與秩序再生產(chǎn)。
中國(guó)歷史上曾由圣王“明職定分”,并生成過(guò)一套定分止?fàn)幍亩Y制秩序。表現(xiàn)為“士農(nóng)工商、君臣父子”,一個(gè)“貴賤有等、親疏有分、長(zhǎng)幼有序”的等差社會(huì)得以形成。圣王之所以能勝任這項(xiàng)職責(zé),在于他具備“至強(qiáng)、至辨、至明”的超凡屬性,能創(chuàng)造具有公共正當(dāng)性的社會(huì)分類(lèi)體系。在這一背景下,分類(lèi)作為治理工具的合法性得以延續(xù)至今,成為理解當(dāng)代算法分類(lèi)權(quán)力的重要文化參照。及至工業(yè)革命,社會(huì)分類(lèi)的權(quán)力逐漸轉(zhuǎn)移至以工業(yè)邏輯為主導(dǎo)的生產(chǎn)秩序之中。工業(yè)化生產(chǎn)以效率最大化為自標(biāo),依賴勞動(dòng)的高度分化與流程的標(biāo)準(zhǔn)化,使個(gè)體不再因相似性而聚合,而是因差異化職能而形成具有高度依賴性的有機(jī)整體。在這一體系中,人的社會(huì)角色被壓縮為最小的、可控的功能單位,主體性被稀釋?zhuān)町愋员荒ㄆ剑《氖恰皹?biāo)準(zhǔn)化的人”的新型群體結(jié)構(gòu)。因此,“共性化算法”并非這個(gè)時(shí)代的獨(dú)創(chuàng),而是工業(yè)革命以來(lái)技術(shù)理性持續(xù)推進(jìn)的必然結(jié)果。福特的生產(chǎn)流水線要求工人“無(wú)須思考,只須重復(fù)”;算法時(shí)代的“數(shù)字勞工”們則在“自主創(chuàng)造”的假象中,將日常社交、消費(fèi)與娛樂(lè)行為轉(zhuǎn)化為數(shù)據(jù)生產(chǎn)的重復(fù)勞動(dòng),每一次點(diǎn)贊、轉(zhuǎn)發(fā)和評(píng)論,都在無(wú)意識(shí)地生產(chǎn)著數(shù)字資本主義所需的流量和數(shù)據(jù)資產(chǎn)。
不同的是,工業(yè)社會(huì)的核心目標(biāo)是建立一種穩(wěn)定、均質(zhì)且可控的勞動(dòng)分配體系。它以工種、技能、時(shí)間分配等客觀可見(jiàn)的指標(biāo)為參照,將個(gè)體納入由生產(chǎn)流程預(yù)設(shè)的“群”中,保留了制度上的清晰性與技術(shù)上的可解釋性。這種分類(lèi)體系在本質(zhì)上是“互斥”的,即每一個(gè)個(gè)體都應(yīng)被明確歸入某一類(lèi)別中,而不應(yīng)同時(shí)屬于多個(gè)相互矛盾的類(lèi)別,這種邏輯支撐了工業(yè)社會(huì)對(duì)“分類(lèi)合理性”的基本信任與秩序想象。但是,算法的分類(lèi)標(biāo)準(zhǔn)并不建立在外顯、可驗(yàn)證的客觀指標(biāo)之上,而是依賴于平臺(tái)內(nèi)部的數(shù)據(jù)結(jié)構(gòu)、模型參數(shù)與優(yōu)化目標(biāo),其邏輯在技術(shù)層面高度封閉,在社會(huì)層面又極具可塑性。同一用戶在不同時(shí)間、平臺(tái)和行為路徑下,可能被歸入完全不同甚至互相沖突的“群”中。當(dāng)“群”的邊界隨著數(shù)據(jù)流動(dòng)、商業(yè)博弈與治理目標(biāo)的變動(dòng)而持續(xù)變化時(shí),個(gè)體將難以認(rèn)知自身在系統(tǒng)中的位置,更無(wú)法對(duì)抗由此帶來(lái)的信息繭房(認(rèn)知歧視)、大數(shù)據(jù)殺熟(價(jià)格歧視)、平臺(tái)剝削(勞動(dòng)歧視)等系統(tǒng)性不正義。
(二)可計(jì)算的“公共性”
對(duì)事物進(jìn)行分類(lèi),絕不僅指歸類(lèi),還意味著將這些類(lèi)別根據(jù)特定關(guān)系加以安排。因此,“群”的形成與邊界的劃定是一種關(guān)涉社會(huì)秩序建構(gòu)的深層政治實(shí)踐,承載著等級(jí)、從屬與優(yōu)劣等政治含義。③正如布爾迪厄指出的,社會(huì)空間的劃分本質(zhì)上是一種象征斗爭(zhēng)(symbolicstruggle),掌握分類(lèi)權(quán)力者擁有“命名世界的能力”,能夠通過(guò)構(gòu)建合法的分類(lèi)體系,使某些人群“被認(rèn)定為某類(lèi)人”,進(jìn)而“有權(quán)利被看見(jiàn)、有權(quán)利發(fā)言、有資格進(jìn)入公共領(lǐng)域”。③傳統(tǒng)意義上的“公共性”(publicness)并不意味著無(wú)邊界的自由空間,而是在一定社會(huì)結(jié)構(gòu)中通過(guò)分類(lèi)、命名、可見(jiàn)性分配而構(gòu)建。古希臘城邦中供市民自由辯論的廣場(chǎng),實(shí)際上只對(duì)被界定為“公民”的群體開(kāi)放,而奴隸、女性、異族被排除在“公共領(lǐng)域”之外。
互聯(lián)網(wǎng)曾一度成為顛覆等級(jí)制度與建構(gòu)公共理性的希望。然而,個(gè)體在數(shù)字空間中的能動(dòng)性高度依賴于媒介近用、媒介素養(yǎng)、傳播能力等一系列新的社會(huì)資源。真正的“去分類(lèi)化”從未發(fā)生,算法只是換了一種更隱蔽的方式延續(xù)舊有秩序。尤其是在進(jìn)入以算法為主導(dǎo)的平臺(tái)社會(huì)后,互聯(lián)網(wǎng)逐漸擺脫了對(duì)傳統(tǒng)社會(huì)劃分方式如身份、階級(jí)等外在標(biāo)識(shí)的顯性依賴,轉(zhuǎn)而構(gòu)建起一套高度數(shù)據(jù)化的新型分類(lèi)邏輯。平臺(tái)會(huì)根據(jù)用戶所能吸引的流量與注意力資源,將他們分配到不同的“可見(jiàn)性等級(jí)”中。對(duì)此,黃月琴與章沫嘉提出“可見(jiàn)性資本”(visibilitycapital)概念以揭示平臺(tái)算法如何將用戶或內(nèi)容的曝光程度轉(zhuǎn)化為新的權(quán)力資源,并以此重構(gòu)平臺(tái)的分類(lèi)機(jī)制?!翱梢?jiàn)性資本”完全建立在用戶行為數(shù)據(jù)的生產(chǎn)、積累與轉(zhuǎn)化之上,用戶每一次點(diǎn)贊、轉(zhuǎn)發(fā)、評(píng)論行為,都會(huì)被算法實(shí)時(shí)記錄、量化與分類(lèi),算法據(jù)此調(diào)控用戶“被看見(jiàn)”的概率與強(qiáng)度。③
正是基于對(duì)“可見(jiàn)性資本”的精確計(jì)算與差異化分配,算法重塑了“公共性”的判別標(biāo)準(zhǔn)。借用盧梭對(duì)“公共性”的經(jīng)典定義,他強(qiáng)調(diào)的“公意”是一種植根于共同體契約的普遍意志,代表著理性、正義與對(duì)公共利益的共同維護(hù)。@③然而,平臺(tái)根據(jù)“可見(jiàn)性資本”的分布配置注意力資源,將本應(yīng)面向所有社會(huì)成員的公共表達(dá)轉(zhuǎn)化為少數(shù)流量?jī)?yōu)勝者的市場(chǎng)表演。某一事件能否成為公共議題,更多取決于情緒驅(qū)動(dòng)下的共性偏好,而非政治意義上的公共判斷。這使得公共輿論場(chǎng)發(fā)生了三類(lèi)顯著變化。(1)原本具備公共價(jià)值但流量表現(xiàn)欠佳的議題或群體被算法邊緣化,而某些高頻互動(dòng)群體的言論會(huì)被算法主動(dòng)放大,成為“主流意見(jiàn)”。(2)用戶只有不斷迎合算法計(jì)算的共性偏好,才能獲得更多的可見(jiàn)性資本,結(jié)果是用戶表達(dá)趨于一致、差異性萎縮。(3)輿論場(chǎng)逐漸轉(zhuǎn)向情緒化、爭(zhēng)議化、戲劇化等易于吸引流量的方向,忽視了公共協(xié)商與理性討論的價(jià)值底線。在此意義上,“公共性”不再指涉一個(gè)向上凝聚、向外拓展的開(kāi)放過(guò)程,反而容易被簡(jiǎn)化為一種消費(fèi)性、市場(chǎng)化的輿論景觀,在被歸類(lèi)、被區(qū)隔、被變現(xiàn)的過(guò)程中喪失了其應(yīng)有的政治張力,也失去了生成社會(huì)共識(shí)與激發(fā)公共理性的根本可能。
(三)技術(shù)的“歷史鎖定”
傳統(tǒng)分類(lèi)體系立足于理性主義的方法論假設(shè),即世界具有可認(rèn)知的總體秩序,可以通過(guò)演繹邏輯加以揭示與組織。然而,在技術(shù)理性主導(dǎo)的數(shù)字語(yǔ)境中,這種演繹式的、由上而下的認(rèn)知范式正被智能算法的歸納邏輯取代。它不再訴諸概念、原則、規(guī)范的判斷,轉(zhuǎn)而從用戶的歷史數(shù)據(jù)中提取模型;通過(guò)大量的個(gè)體行為軌跡,推演出可預(yù)測(cè)的偏好與特征,并據(jù)此不斷優(yōu)化分類(lèi)標(biāo)準(zhǔn)。技術(shù)邏輯由此帶來(lái)了一種“歷史鎖定”機(jī)制,使我們對(duì)世界的判斷逐漸脫離對(duì)未來(lái)的開(kāi)放探索,被錨定于既有數(shù)據(jù)所描繪的有限秩序之中。
伊萊·帕里澤(EliPariser)所說(shuō)的“身份級(jí)聯(lián)”(identitycascade),正是算法歸納的一種極端形式。算法會(huì)將一個(gè)偶然的點(diǎn)擊行為視為穩(wěn)定興趣的信號(hào),并持續(xù)推送相似內(nèi)容,促使用戶不斷重復(fù)這一行為,最終陷入一種由算法建構(gòu)的“自我”之中。算法并不直接告訴用戶“什么是男性”或“什么是女性”,而是通過(guò)持續(xù)推送與既定標(biāo)簽相匹配的內(nèi)容與商品,將用戶嵌入某個(gè)性別群體之中。③嚴(yán)格意義上而言,從“部分”到“整體”的歸納法本質(zhì)上是一種概率假設(shè)而非科學(xué)真理。進(jìn)一步說(shuō),當(dāng)分類(lèi)標(biāo)準(zhǔn)建立在對(duì)“已知”的歸納之上,未來(lái)的知識(shí)邊界便被歷史數(shù)據(jù)所限定??茖W(xué)哲學(xué)家卡爾·波普爾(KarlPopper)強(qiáng)調(diào),科學(xué)的核心不在于驗(yàn)證已有結(jié)論的正確性,而在于提出可以被反例駁倒的命題,“科學(xué)的目的是推進(jìn)人們無(wú)法找到任何反例的最大主張”③。但是,今日的算法并沒(méi)有建立在這種謙卑的基礎(chǔ)上,它們并不致力于證偽,而僅關(guān)心模式的強(qiáng)化與自我驗(yàn)證。在“算無(wú)遺策”的治理邏輯下,知識(shí)失去了生長(zhǎng)的張力,治理喪失了容納例外的彈性,社會(huì)也逐漸被導(dǎo)入一種計(jì)算先行、質(zhì)疑失效的技術(shù)理性秩序中。
四、分類(lèi)即“正義”:算法正義的制度性重構(gòu)
目前,算法已通過(guò)其強(qiáng)大的分類(lèi)能力,在行政治理、公共輿論、社會(huì)生活等多個(gè)領(lǐng)域獲得了事實(shí)權(quán)力;而這種權(quán)力一旦缺乏外部制度監(jiān)督,便可能強(qiáng)化偏見(jiàn)、制造歧視,侵蝕公共正義。在這一意義上,“分類(lèi)”成了決定正義分配的結(jié)構(gòu)性機(jī)制。重建算法正義的關(guān)鍵,在于將“分類(lèi)”作為算法治理的核心環(huán)節(jié),從增強(qiáng)機(jī)制設(shè)計(jì)的容錯(cuò)性到促進(jìn)權(quán)力運(yùn)行的公共化再到提升治理手段的他律性,逐步推動(dòng)分類(lèi)實(shí)踐從封閉的技術(shù)操作轉(zhuǎn)向可質(zhì)疑、可協(xié)商、可問(wèn)責(zé)的制度化過(guò)程。
(一)分類(lèi)機(jī)制的“容錯(cuò)性”
智能算法通常以效率優(yōu)先為設(shè)計(jì)準(zhǔn)則,特別在數(shù)據(jù)預(yù)處理階段,系統(tǒng)會(huì)依據(jù)預(yù)設(shè)特征邊界將數(shù)據(jù)快速分類(lèi),將偏離常規(guī)的數(shù)據(jù)視為干擾噪聲予以剔除。此舉雖極大提升了系統(tǒng)識(shí)別與決策的效率,使算法能在龐大的數(shù)據(jù)中迅速提取出最符合“主流偏好”的規(guī)律和趨勢(shì),卻也在無(wú)形中確立了一套關(guān)于“何者應(yīng)被優(yōu)先處理”的價(jià)值標(biāo)準(zhǔn)。在信息層面上表現(xiàn)為強(qiáng)化既有偏好、限制用戶接觸異質(zhì)觀點(diǎn),在制度層面上則演化為一種“誰(shuí)被看見(jiàn)、信任與接納”的社會(huì)排序機(jī)制。個(gè)體的“可分類(lèi)性”逐漸成為獲取資源與機(jī)會(huì)的前提,未被歸類(lèi)或誤歸類(lèi)者則易被邊緣化,陷入治理盲區(qū),進(jìn)一步加劇社會(huì)偏見(jiàn)與群體排斥。
“人”作為具有反思能力的行動(dòng)主體,始終處于開(kāi)放與生成之中,體現(xiàn)著在社會(huì)實(shí)踐中通過(guò)試錯(cuò)不斷實(shí)現(xiàn)自我更新的過(guò)程性特征。然而,算法的分類(lèi)機(jī)制以效率為圭桌,將過(guò)去的行為軌跡視作未來(lái)判斷的先驗(yàn)依據(jù),遮蔽了人的可變性與成長(zhǎng)性—從根本上否定了人在倫理意義上“可以犯錯(cuò)”的權(quán)利。因此,“容錯(cuò)性”應(yīng)成為算法分類(lèi)機(jī)制不可或缺的價(jià)值前提。所謂容錯(cuò)(tolerant),并非指降低算法系統(tǒng)的性能標(biāo)準(zhǔn),而指在保證一定效率的同時(shí),給復(fù)雜性以空間、給例外以可能?!靶畔⒗O房”的提出者,美國(guó)哈佛大學(xué)法學(xué)院教授凱斯·R.桑斯坦(CassR.Sunstein)近年倡導(dǎo)一種“偶然發(fā)現(xiàn)架構(gòu)”(architectureofserendipity),試圖通過(guò)設(shè)計(jì)機(jī)制性的“認(rèn)知擾動(dòng)”打破信息傳播的同質(zhì)化循環(huán)③,使那些未被主流邏輯覆蓋的內(nèi)容與個(gè)體,仍能進(jìn)入公眾視野,獲得響應(yīng),激發(fā)新的意義生產(chǎn)。此舉的核心不在于反對(duì)分類(lèi),而在于為分類(lèi)邏輯引入制度性的“容錯(cuò)機(jī)制”。當(dāng)“被歸類(lèi)”不再是獲得資源與權(quán)利的唯一通道,算法分類(lèi)才真正具有了正義的基礎(chǔ)。盡管在一些學(xué)者看來(lái),桑斯坦所提倡的帶有自然主義色彩的“偶然性”解決方案,在現(xiàn)今信息超載的條件下,堪稱悖逆潮流、悖逆以人為本思想的一種隨想。但是,正是這種“悖逆”本身,揭示了人性中無(wú)法被分類(lèi)的叛逆、好奇與欲望。
(二)分類(lèi)權(quán)力的“公共化”
隨著算法的進(jìn)步,從行為發(fā)生到獲得有效反饋的時(shí)間大幅縮短,這要求算法系統(tǒng)具備自我修正與優(yōu)化的能力,而不再依賴人工干預(yù)。算法能在執(zhí)行過(guò)程中通過(guò)反饋回路進(jìn)行自我調(diào)整與修正,確保分類(lèi)標(biāo)準(zhǔn)和邏輯的持續(xù)優(yōu)化。然而,企業(yè)出于利益最大化動(dòng)機(jī),往往將算法系統(tǒng)的優(yōu)化目標(biāo)聚焦于用戶黏性與轉(zhuǎn)化率等經(jīng)濟(jì)指標(biāo)。內(nèi)容平臺(tái)的算法傾向于推送已被證明有效的內(nèi)容,忽視公共輿論的價(jià)值、健康與多樣性,最終容易導(dǎo)致不當(dāng)內(nèi)容泛濫。外賣(mài)平臺(tái)的算法通過(guò)不斷歸納歷史上“成功送達(dá)”的行為軌跡,自動(dòng)更新其路徑模型,將偏離規(guī)范但更高效的經(jīng)驗(yàn)歸納為下一個(gè)調(diào)度標(biāo)準(zhǔn),形成了對(duì)于新就業(yè)形態(tài)勞動(dòng)者的循環(huán)壓迫。
當(dāng)算法的分類(lèi)邏輯被封閉于技術(shù)系統(tǒng)之內(nèi),由平臺(tái)與資本力量主導(dǎo)時(shí),其不透明性就可能導(dǎo)致操控與誘導(dǎo),嚴(yán)重危害公共決策的合法性與正當(dāng)性。此時(shí),社會(huì)反饋與人的能動(dòng)性介入就成為打破閉環(huán),確保算法公正的關(guān)鍵。這一思路已在政策實(shí)踐中得到體現(xiàn)。針對(duì)內(nèi)容推送領(lǐng)域的信息繭房現(xiàn)象,《通知》明確提出,要構(gòu)建防范機(jī)制,提升推送內(nèi)容的多樣性與豐富性,且要求平臺(tái)規(guī)范設(shè)置“不感興趣”等負(fù)反饋選項(xiàng),讓用戶能夠影響和校正平臺(tái)的分類(lèi)邏輯。在社會(huì)生活領(lǐng)域,為防止外賣(mài)平臺(tái)壓縮配送時(shí)間導(dǎo)致超時(shí)率、違章率、事故率上升,《通知》明確要求外賣(mài)平臺(tái)公示時(shí)間預(yù)估、費(fèi)用計(jì)算、路線規(guī)劃等算法規(guī)則,并搭建暢通的申訴通道,及時(shí)處理因不可控因素導(dǎo)致的配送異常,讓分類(lèi)結(jié)果接受公眾的質(zhì)疑與申訴。作為建構(gòu)社會(huì)秩序的基礎(chǔ)機(jī)制,分類(lèi)在本質(zhì)上是一種權(quán)力實(shí)踐,直接關(guān)系到認(rèn)知秩序的建構(gòu)、社會(huì)資源的分配與主體身份的確認(rèn)。應(yīng)通過(guò)引入反饋機(jī)制、建立申訴制度等手段,將原本由技術(shù)系統(tǒng)或商業(yè)平臺(tái)獨(dú)占的分類(lèi)權(quán)力放置于公共領(lǐng)域,接受民主協(xié)商與集體審議,回應(yīng)個(gè)體權(quán)利、社會(huì)差異與公共利益之間的平衡要求。
(三)分類(lèi)治理的“他律性”
盡管分類(lèi)權(quán)力的“公共化”為算法提供了有效的社會(huì)反饋,但算法的內(nèi)在問(wèn)題,尤其是其分類(lèi)邏輯的不可解釋性仍然存在。這種現(xiàn)象通常被簡(jiǎn)化為技術(shù)層面的“黑箱”問(wèn)題,即深度學(xué)習(xí)模型在提升分類(lèi)效率的同時(shí),削弱了分類(lèi)標(biāo)準(zhǔn)的可追溯性。實(shí)際上,許多算法的設(shè)計(jì)者和使用者并未清晰意識(shí)到算法中潛在的偏差與歧視性。③因此,算法治理必須超越技術(shù)修復(fù)與道德自律的范疇,接受法律規(guī)范、專(zhuān)業(yè)審查與公眾監(jiān)督的他律約束。
在我國(guó)現(xiàn)行制度中,2022年3月1日正式生效的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《規(guī)定》)已明確要求算法推薦服務(wù)提供者制定并公開(kāi)算法推薦服務(wù)相關(guān)規(guī)則,增強(qiáng)算法規(guī)則的透明度和可解釋性。在算法公開(kāi)的問(wèn)題上,當(dāng)前主要存在兩種路徑:一是“以主體為中心”的解釋?zhuān)⊿ubject-Centric Explanations,SCE)方式,即僅向數(shù)據(jù)主體說(shuō)明其被分類(lèi)的依據(jù)、特征與結(jié)果;二是以“模型為中心”的解釋?zhuān)∕odel-CentricExplanations,MCE)方式,強(qiáng)調(diào)算法模型與數(shù)據(jù)的透明性披露,但因涉及技術(shù)復(fù)雜性與商業(yè)運(yùn)作機(jī)制,實(shí)踐中面臨諸多限制。?盡管前者可以在形式上滿足算法公開(kāi)的要求,但其個(gè)體化的解釋機(jī)制難以揭示算法在整體維度上的傾向性,反而會(huì)掩蓋其執(zhí)行區(qū)分與排序操作的底層邏輯。因此,有效的分類(lèi)治理不僅需要將“算法公開(kāi)”制度化,還必須為整體分類(lèi)邏輯設(shè)立明確的邊界與禁止性規(guī)范,對(duì)可能造成歧視、排斥或侵犯基本權(quán)利的算法分類(lèi)進(jìn)行強(qiáng)有力的法律約束。歐盟于2024年正式通過(guò)的《人工智能法案》[AIActRegulation(EU)2024/1689」中就明確禁止任何公共或私人行為體利用人工智能系統(tǒng)對(duì)自然人或群體進(jìn)行基于行為、特征數(shù)據(jù)的評(píng)分與分類(lèi),從而避免脫離原始語(yǔ)境推斷進(jìn)而導(dǎo)致的不利后果。①在專(zhuān)業(yè)審查層面,《規(guī)定》明確要求算法推薦服務(wù)的提供者定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型和應(yīng)用結(jié)果等。①不過(guò),《規(guī)定》本身并未明確區(qū)分內(nèi)部審查與外部審查的責(zé)任邊界,為增強(qiáng)算法治理的規(guī)范性,有必要推動(dòng)外部審查機(jī)制的制度化建設(shè),可由具備資質(zhì)的第三方專(zhuān)業(yè)機(jī)構(gòu)進(jìn)行周期性評(píng)估,將算法的分類(lèi)過(guò)程納入獨(dú)立的外部審查體系之中。在社會(huì)監(jiān)督層面,《規(guī)定》要求算法推薦服務(wù)的提供者制定完善的服務(wù)規(guī)范、依法提供服務(wù)并接受社會(huì)監(jiān)督,設(shè)置便捷有效的用戶申訴入口和公眾投訴、舉報(bào)入口,以實(shí)現(xiàn)對(duì)算法分類(lèi)過(guò)程的持續(xù)監(jiān)督與公共問(wèn)責(zé)。②
概而言之,“黑箱”之所以成為大量算法批判的終點(diǎn),正是因?yàn)樗诒瘟思夹g(shù)操作背后的分類(lèi)權(quán)力。我們要追問(wèn)的,不是算法如何“更加透明”,而是算法為何如此分類(lèi)、為誰(shuí)分類(lèi)、分類(lèi)的目標(biāo)是否滿足公共性與正義性的最低要求。因此,算法治理需要通過(guò)內(nèi)部機(jī)制設(shè)計(jì)、權(quán)力運(yùn)行公開(kāi)與外部他律約束,重新定義分類(lèi)實(shí)踐的公共與正義底線。如此,算法批判才可能從“技術(shù)透明”的幻象中掙脫出來(lái),真正指向數(shù)字治理的正當(dāng)性基礎(chǔ)、權(quán)力配置機(jī)制與公共責(zé)任的制度重塑。
(作者章沫嘉系重慶大學(xué)新聞學(xué)院新聞傳播學(xué)專(zhuān)業(yè)2024級(jí)博士研究生;郭小安系重慶大學(xué)新聞學(xué)院教授、博士生導(dǎo)師)
注釋
① 吳彤.分類(lèi)和分岔:知識(shí)和科學(xué)知識(shí)自組織起源的探索:以生物學(xué)中的分類(lèi)和分類(lèi)文化視角轉(zhuǎn)變的演化為例[J].自然辯證法通訊,2000(6):25-33.
③ OLSON HA.Classificationand universality:applicationandconstruction[J].Semiotica,2002(139):377-391.
④ ③50涂爾干,莫斯.原始分類(lèi)[M].汲喆,譯.北京:商務(wù)印書(shū)館,2012:4;79;8.
⑤⑧ KENDIGC,WITTEVEENJ.The historyand philosophyoftaxonomyas an information science [J]. History and philosophyof the life sciences,2020,42(3):1-9.
⑥ GODFRAYHCJ,CLARKBR,KITCHINGIJ,etal.The Web andthestructure of taxonomy[J].Systematic biology,20o8,56 (6):943-955.
⑦ CHARMANTIERI,MuLLER-WILLES.CarlLinnaeus'sbotanical paperslips (1767-1773)[J].Intellectual history review,2014,24(2):215-238.
⑨ 李白楊,白云,詹希旎,等.人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進(jìn)[J].圖書(shū)情報(bào)知識(shí),2023,40(1):66-74.
⑩ 項(xiàng)亮.推薦系統(tǒng)實(shí)踐[M].北京:人民郵電出版社,2012:4-19.
陳昌風(fēng),師義.個(gè)性化新聞推存算法的技不解讀與價(jià)值探討[J].中國(guó)編輯,2018,106(10):9-14.
?? 黃立威,江碧濤,呂守業(yè),等.基于深度學(xué)習(xí)的推薦系統(tǒng)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2018,41(7):1619-1647.
? 孫志軍,薛磊,許陽(yáng)明,等.深度學(xué)習(xí)研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2012,29(8):2806-2810.
?? BENGIOY,COURVILLEA,VINCENTP.Representationlearning:a reviewand new perspectives [J]. IEEE transactionsonpatternanalysisand machine intelligence,2013,35(8):1798-1828.
? 劉慧,李葆嘉.布雷阿爾之謎:澄清語(yǔ)義學(xué)史上的一些訛誤[J].山東外語(yǔ)教學(xué),2015,36(3):8-20.
? 劉輝,萬(wàn)程峰,吳曉浩.基于增量協(xié)同過(guò)濾和潛在語(yǔ)義分析的混合推薦算法[J].計(jì)算機(jī)工程與科學(xué),2019,41(11):2033-2039.
① KORENY,BELLR,VOLINSKYC.Matrixfactorizationtechniques for recommender systems [J].Computer,2009,42(8):30-37.
? ZHOUP,YEQ,XIEY,etal.Attention calibration for transformer-based sequential recommendation [C].Proceedings of the 32ndACM international conference on informationand knowledgemanagement,2023:3595-3605.
布爾迪厄.普通社會(huì)學(xué):第一卷:分類(lèi)斗爭(zhēng)[M].劉暉,譯.上海:上海人民出版社,2023:13;19;120-130.
②⑥鄭智航.人工智能算法的倫理危機(jī)與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2021,39(1):14-26.
? 抖音安全與信任中心[EB/OL].(2025-04-15)[2025-04-28].https://95152.douyin.com/article/15381?enter_from ∣= channel_pageamp;channel=transparency.
? 列維-斯特勞斯.野性的思維[M].李幼蒸,譯.北京:中國(guó)人民大學(xué)出版社,2006:16.
胡春光.社會(huì)秩序如何可能?:涂爾干論社會(huì)分類(lèi)[J].重慶師范大學(xué)學(xué)報(bào) (哲學(xué)社會(huì)科學(xué)版), 2010(5):83-90.
??? 鄭鵬.“明分使群”:作為社會(huì)秩序化機(jī)制的荀子社會(huì)分類(lèi)學(xué)[J].社會(huì)學(xué)評(píng)論,2024,12(4):31-53.
陳昌鳳,仇筠茜.“信息繭房”在西方:似是而非的概念與算法的“破繭”求解[J].新聞大學(xué), 2020(1):1-14+124.
? PIAO J,LIUJ,ZHANG F,et al. Human-Al adaptive dynamicsdrives the emergence of information cocoons [J].Naturemachine intelligence,2023,5(11):1214-1224.
(20 ? BRINS,PAGEL.The anatomy ofa large-scale hypertextualweb search engine[J].Computer networks and ISDN systems,1998,30 (1-7):107-117.
? 博客天下.【1984新一代】張一鳴,他的每一句話都在被挑錯(cuò)[EB/OL].(2014-07-19)[2025-03-15].https://www.tmtpost.com/123328.html.
? 涂爾干.社會(huì)分工論[M].渠東,譯,北京:生活·讀書(shū)·新知三聯(lián)書(shū)店,2000:601.
? 布爾迪厄.言語(yǔ)意味著什么:語(yǔ)言交換的經(jīng)濟(jì)[M].褚思真,劉暉,譯.北京:商務(wù)印書(shū)館,2005:113.
③③BOYDDM,ELLISONNB.Social network sites: definition,history,and scholarship [J]. Journal of computer-mediatedcommunication,2007,13(1):210-230.
? HARGlliAiE.wnosespace?aitterencesamongusersananon-usersofsocialnetwork sites[J].Journal ofcomputer-mediated communication,2007,13(1):276-297.
? DEVITOMA.Fromeditors toalgorithms:avalues-basedapproach to understanding story selection in the Facebook newsfeed[J].Digitaljournalism,2017,5(6):753-773.
CHENEY-LIPPOLD J.A newalgorithmic identity:softbiopolitics and the modulation of control [J].Theory,cultureamp;society,2011,28(6): 164-181.
? 鄭杭生,胡翼鵬.社會(huì)運(yùn)行、社會(huì)秩序與王朝的治亂盛衰:中國(guó)社會(huì)思想史研究的新視野[J].學(xué)海,2009(4):123-134.
? 陳潭.國(guó)家治理的數(shù)據(jù)賦能及其秩序生產(chǎn)[J].社會(huì)科學(xué)研究,2023(6):12-30.
? 藍(lán)江.生命檔案化、算法治理和流眾:數(shù)字時(shí)代的生命政治[J].探索與爭(zhēng)鳴,2020(9):105-114+159.
? 郭小安,趙海明.觀看的無(wú)奈與正義:數(shù)據(jù)社會(huì)液態(tài)監(jiān)視的彌散性與能動(dòng)性[J].新聞與傳播研究,2022,29(10):34-46+126-127.
? 吳鼎銘.網(wǎng)絡(luò)“受眾”的勞工化:傳播政治經(jīng)濟(jì)學(xué)視角下網(wǎng)絡(luò)“受眾”的產(chǎn)業(yè)地位研究[J].國(guó)際新聞界,2017,39(6):124-137.
黃月琴,章沫嘉.可見(jiàn)性流變與數(shù)字時(shí)代的“可見(jiàn)性資本”:對(duì)一項(xiàng)行動(dòng)傳播議題的考察[J].中國(guó)網(wǎng)絡(luò)傳播研究,2023(2):121-148+219-220.
郭小安.輿論的公共性與公眾性價(jià)值:生成、偏向與融合:一項(xiàng)思想史的梳理[J].新聞與傳播研究,2016,23(12):53-66+127.
⑤ 盧梭.社會(huì)契約論[M].何兆武,譯.北京:商務(wù)印書(shū)館,2003:35.
帕里澤.過(guò)濾泡:互聯(lián)網(wǎng)對(duì)我們的隱秘操縱[M].方師師,楊媛,譯.北京:中國(guó)人民大學(xué)出版社,2020:97.
延森.媒介融合:網(wǎng)絡(luò)傳播、大眾傳播和人際傳播的三重維度[M].劉君,譯.上海:復(fù)旦大學(xué)出版社,2012:137.
REVIGLIO U.Serendipity asan emerging design principle ofthe infosphere: challenges and opportunities [J]. Ethics andInformation technology,2019,21(2):151-166.
關(guān)于開(kāi)展“清朗·網(wǎng)絡(luò)平臺(tái)算法典型問(wèn)題治理”專(zhuān)項(xiàng)行動(dòng)的通知[EB/OL].(2024-11-12)[2025-04-28].https://www.gov.cn/zhengce/zhengceku/202411/content_6989143.htm.
⑥ 賈開(kāi).人工智能與算法治理研究[J].中國(guó)行政管理,2019(1):17-22.
互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定[EB/OL].(2022-01-04)[2025-07-12]. https://www.gov.cn/zhengce/2022-11/26/content_5728941.htm
⑦⑥EDWARDSL,VEALEM.Slave to thealgorithm?whya‘righttoanexplanation'is probably not the remedyyou are looking for[J].Dukelawamp;technologyreview,2017(16):18-84.
⑥ WACHTERS,MITTELSTADTB,F(xiàn)LORIDIL.Whya right toexplanationofautomateddecision-makingdoesnotexistinthegeneral data protection regulation [J].International data privacylaw,2017,7(2):76-99.
同濟(jì)大學(xué)法學(xué)院,上海市人工智能社會(huì)治理協(xié)同創(chuàng)新中心.重磅首發(fā)|歐盟《人工智能法》定稿版本:全文中譯本(14萬(wàn)字)[EB/OL]. (2025-01-23) [2025-03-20]. https://aisg.#edu.cn/info/1005/1192.htm.