【摘要】數(shù)據(jù)驅(qū)動時代,算法作為高維媒介,在自我意識覺醒、利益方觀點極化、具身化與去具身化交流、控制權(quán)差異、個性化選擇等方面雕刻算法主體性特征。文章從有效性溝通和技術(shù)性隱憂兩個角度,分析算法主客體之間的關(guān)系;從治理目的、內(nèi)容審核、價值判斷和用戶注意等方面,剖析算法治理的核心邏輯。
【關(guān)鍵詞】算法治理 算法價值觀 網(wǎng)絡(luò)中立性 主體性關(guān)系 決策博弈
【中圖分類號】G206 【文獻(xiàn)標(biāo)識碼】A 【文章編號】1003-6687(2023)5-059-07
【DOI】 10.13786/j.cnki.cn14-1066/g2.2023.5.009
2016年Daedalic Entertainment推出《心境》,揭示超人類主義興起后人與AI共生的抉擇困境。在AI創(chuàng)造的異質(zhì)交往空間中,算法作為一種問題解決的路徑、流變的關(guān)系連接,既凝結(jié)著人類數(shù)千年的計算技術(shù)與智慧結(jié)晶,又反映了人的喜好、意見、觀點、興趣等實踐取向。數(shù)據(jù)驅(qū)動時代,算法成為促進(jìn)自動化公平的工具之一,雖是“第四范式”的大數(shù)據(jù)知識外溢的數(shù)據(jù)密集型決策方式,但并未形成托馬斯·庫恩所言科學(xué)革命理論之語境中的范式革命。[1]從媒介實踐性看,整理和分析數(shù)據(jù)足跡中的算法主體、算法決策對國家戰(zhàn)略的預(yù)測、對政策規(guī)制以及商業(yè)決策的影響,有助于為算法監(jiān)管者掌控未來提供有效建議。
一、面向虛實結(jié)合媒介實踐的算法主體性
面對虛擬空間與物理空間的聯(lián)結(jié),擁有機器價值取向和原子化價值判斷的算法權(quán)力主體,對秉持人本價值取向、承載倫理和道義的傳統(tǒng)媒介主體形成新挑戰(zhàn)。在面臨信息源、交往通道、認(rèn)知方式、社會影響等復(fù)雜新變化的算法空間里,算法主體性具有以下特點。
1. 萌發(fā)自我意識覺醒的算法主體性
面對以元宇宙為代表的虛實結(jié)合互聯(lián)網(wǎng)生態(tài)革命,算法主體存在自我意識覺醒的可能性:算法主體主動意識到信息源對自我塑造和真實摹刻的影響,能自我確認(rèn)讓渡隱私獲得服務(wù),達(dá)成群體認(rèn)同。正如1950年懷特在《把關(guān)人:一個新聞選擇的個案研究》中將把關(guān)視為記者、編輯的個人價值判斷對客觀世界的反映、選擇和影響,用戶對算法把關(guān)信息獲取的默認(rèn),可能會決定人們認(rèn)知未知世界的起點,并相應(yīng)影響其思維方式和行為終點,尤其在去中心化信息傳播的趨勢下,每個人都擁有追求個性化發(fā)展的潛在可能。
2. 利益切割誘發(fā)觀點極化的算法主體性
算法作為社會資本覬覦的新生產(chǎn)力要素,體現(xiàn)出不同主體的利益切割。市場化媒體強化商業(yè)—技術(shù)邏輯,主流媒體側(cè)重調(diào)整—控制邏輯,信息源差異化傳遞可能會對公眾價值觀產(chǎn)生錯位甚至反向影響,輿論場陷入關(guān)注與被關(guān)注紛爭,多元利益主體的博弈面臨獲利合法性和正當(dāng)性需要的拷問:“人利用文化與信息做了什么?”[2]也存在因受眾接受的速度和限度、交互性、可及性的差異,形成算法標(biāo)準(zhǔn)差異而誘發(fā)群體極化的可能。
3. 兼有具身化與去具身化可能性的算法主體性
算法以中介形式將生產(chǎn)者、消費者與內(nèi)容緊密勾連在一起,基于算法的個人信息分析會影響平臺流量分布,而基于算法的流量指標(biāo)也會影響內(nèi)容生產(chǎn)者對用戶的定位與判斷。
算法主體交流存在去具身化的可能性,這是移動通信普及以來,人類龜縮于自我窄小空間而錯失人際聯(lián)系之隱憂的必然延伸。如格爾根的警醒:人類將圍繞自我快樂軸心陷入類似日本江戶時期的“漂浮世界”,成為人與自身相對話,缺乏穩(wěn)定社會生活和現(xiàn)實的人際空間的“想象的受眾”。[3]同時,也不得不重提羅伯特·帕特南的《獨自打保齡:美國社會的衰落與復(fù)興》的告誡:人們正沉浸于自我世界而減弱對公共事務(wù)的參與熱情。但也有謹(jǐn)慎的樂觀,如梅羅維茨在《消失的地域:電子媒介對社會行為的影響》中期待電子媒介造就的去空間感將人類從被限制性的日常生活中解放出來,能夠應(yīng)對新的社會應(yīng)激與挫折。
雖然缺乏現(xiàn)實溝通讓人們擔(dān)心自己脫離物理現(xiàn)實,但算法主體存在具身交流的可能性?!坝^看意味著權(quán)力,凝視銘刻了文化”,[4]在以元宇宙為代表的虛擬化交往場景中,算法拉通了多重主體與內(nèi)容匹配觸達(dá)和反饋的通路,通過聽覺、視覺、嗅覺甚至觸覺等感官的刺激,通過具身化設(shè)定的場景化交流,將個性化的感受即時外化,形成新的媒介化社會景觀。可從2021年年底Facebook更名Meta、2022年年初微軟收購動視暴雪以在元宇宙平臺布局游戲等戰(zhàn)略動向中,窺視算法在具身化交流情境中的社會意義和商業(yè)價值。
4. 體現(xiàn)媒介控制權(quán)差異化的算法主體性
用戶價值取向與信息需求的匹配,很大程度上表現(xiàn)為媒介控制差異化。算法主客體介于控制與反控制的矛盾關(guān)系之中,體現(xiàn)算法主權(quán)與人本主權(quán)的爭議、國家意志與科技公司利益的博弈。前者是人與物主導(dǎo)權(quán)之爭,后者是政治架構(gòu)與經(jīng)濟(jì)利益的較量。
以算法布局審視中美兩國算法治理的國家意志。2021年9月我國出臺《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,指出“利用三年左右時間,逐步建立治理機制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局”?;厮?018年美國政府出版辦公室的聽證會可知,美國聯(lián)邦通信委員會的提議僅針對美國互聯(lián)網(wǎng)服務(wù)商而不適用于社交媒體或搜索平臺,但實際上,以硅谷為代表的科技公司在用戶瀏覽網(wǎng)絡(luò)、購物和查看社交媒體時獲取了大量的信息。因此,美國監(jiān)管機構(gòu)正考慮采用何種標(biāo)準(zhǔn)屏蔽、過濾或優(yōu)先考慮內(nèi)容審核,以符合美國的價值觀。
5. 增強去空間感個性化選擇的算法主體性
南?!ぐ荻蚰吩凇督煌谠贫耍簲?shù)字時代的人際關(guān)系》中提出時間結(jié)構(gòu)的概念,聚焦交流的同步與異步問題。算法推送的信息流,打破了以物理空間為基質(zhì)的社會語境的傳遞,看似模糊了虛擬世界與真實世界的邊界,但信息的即時獲取和私人化的同步信息,增強了用戶的去空間感,使信息交流直接進(jìn)入人與機器的通道,[5]不僅賦予多類型算法主體中介化互動的新樂趣,還使得用戶與差異化媒介的交流更加直接和有效。隨時在線的連續(xù)交互,打破了私域空間與公共空間的壁壘,尊重、保留甚至凸顯了個性化選擇。人似乎可以在面對群體多樣性、群體一致性、多極化主體而非單一主體性時,進(jìn)行并不非此即彼的選擇。
二、基于矩陣交互性的算法中介關(guān)系
基于多樣態(tài)的算法矩陣,算法在傳播信息源的連接、轉(zhuǎn)換與中斷的過程中有多重個性化表達(dá)。從技術(shù)交互性視角看,算法以中介形式從正反兩面形成了主客體的復(fù)雜關(guān)系。
1. 算法驅(qū)動的溝通便利化
第一,算法權(quán)力的展現(xiàn),即數(shù)字用戶通過頭像、圖片、文字等留下網(wǎng)絡(luò)痕跡,形成算法追蹤信息庫,完成個人身份的主動流露與輸出,實現(xiàn)數(shù)字身份實體化。社交網(wǎng)絡(luò)站點存在大量個人身份的線索和信號,通過配置文件的對比和辨認(rèn),可以判斷其虛假性和真實性。[6]有效監(jiān)控或個人身份的適當(dāng)暴露是人獲取社會存在感的有效路徑,尤其是在透明化的數(shù)字工作環(huán)境中,算法驅(qū)動的自我呈現(xiàn)和自我贊許有助于協(xié)作與溝通,[7]還可能避免更多攻擊性、惡意評論推薦,為用戶進(jìn)行群體互動和社會理解提供可能。因此,數(shù)字身份的實體化可以達(dá)成真實的社會聯(lián)系,將虛擬世界與現(xiàn)實真實的信息來源進(jìn)行勾連,為跨平臺的個性化體驗甚至求職、生存提供可供性。
第二,隨著物聯(lián)網(wǎng)連接和嵌入式設(shè)備的激增,隨身攜帶式的智能終端、智能感應(yīng)器和廚房智能家居設(shè)備普及,便捷、高效的信息收集接收方式以及個性化服務(wù)的提供,不僅幫助服務(wù)商通過應(yīng)用程序預(yù)測用戶偏好,提供社交媒體中的內(nèi)容和廣告,還推動服務(wù)和溝通方式以算法和數(shù)據(jù)為底層邏輯進(jìn)行轉(zhuǎn)變。2018年皮尤研究中心暢想未來十年AI與人共同進(jìn)化時預(yù)言,人工智能很可能會嵌入大多數(shù)人類行為中。[8]2021年美國數(shù)據(jù)信息資源管理協(xié)會提到,近年來,通過基于云計算的嵌入式數(shù)據(jù)挖掘,從傳感器節(jié)點實時檢索人體生物信號,通過語義標(biāo)記和分類,以及無線通信協(xié)議將其傳輸?shù)骄W(wǎng)關(guān),形成對健康狀況的實時監(jiān)控、可視化診斷,配備感應(yīng)器的智能醫(yī)療保健系統(tǒng)發(fā)揮了重要作用。[9]
2. 算法追蹤的技術(shù)性隱憂
算法已成為人類媒介現(xiàn)實不可或缺的關(guān)鍵節(jié)點,但算法的使用也存在打開“潘多拉魔盒”的技術(shù)性隱憂。
其一,雖然算法有助于溝通的便捷性,但不可否認(rèn),算法驅(qū)動的市場,對基于互聯(lián)網(wǎng)的數(shù)據(jù)訪問和內(nèi)容管理有著一定威脅和挑戰(zhàn)。以美國為例,多年來ISPS通過深度數(shù)據(jù)包檢查、不可刪除的標(biāo)記來跟蹤用戶的在線行為,甚至迫使消費者為保留隱私而支付額外的高額費用。[10]
特別是眾所周知的,政府監(jiān)管者和私營公司采用自主算法和智能爬蟲對用戶的電子行為進(jìn)行追蹤。電子行為指用戶的在線行為,包括使用網(wǎng)絡(luò)時的人際關(guān)系、內(nèi)在性和功能性行為。用戶根據(jù)自己興趣和需要進(jìn)行瀏覽、訂閱信息時的無意識搜索行為觸發(fā)自主算法,形成結(jié)構(gòu)化或半結(jié)構(gòu)化的數(shù)據(jù)庫,ISPS和其他程序獲取用戶的服務(wù)商、居住地點、移動軌跡、瀏覽模式、IP地址、MAC地址以及其他PC解決方案,智能爬蟲據(jù)此完成行為分析并為后續(xù)的用戶電子行為提供相應(yīng)方案。雖然互聯(lián)網(wǎng)服務(wù)商和搜索引擎認(rèn)為得知用戶偏好才能為其提供中意的產(chǎn)品,政府監(jiān)管者認(rèn)為追蹤在線行為有利于監(jiān)控與預(yù)警犯罪,但這削弱了網(wǎng)絡(luò)中立性,并讓每個用戶都陷入了非法隱私侵犯陷阱。更可怕的是,個人信息有被售賣給第三方機構(gòu)甚至“暗網(wǎng)”以牟利的可能。這不得不引發(fā)思考:用戶的在線行為、選擇、偏好以及細(xì)節(jié)的數(shù)據(jù)應(yīng)該由誰來保存?未來是否會遭到更多數(shù)據(jù)驅(qū)動的干擾?
其二,從現(xiàn)實利益來看,營銷者互動性操控與消費者本真需要確實存在沖突。數(shù)字市場充滿活力又競爭激烈,通過超個性化的云空間,消費者和營銷者都希望自身利益最大化。在消費者個性化需求增多、監(jiān)管者越來越依賴數(shù)字渠道和細(xì)分化的情況下,營銷者意圖與用戶達(dá)成點對點的信息互通,以實現(xiàn)互動性操控。例如為增強客戶體驗,科技公司用大量擬人化的聊天機器人,通過語音和文本的交流,意圖最大限度地培育客戶的忠誠度。[11]但由于算法獲取信息的隱匿性,多數(shù)消費者無法獲知營銷者對信息的收集方式,也無法獲知使用程度是否有效和是否符合法律規(guī)定,擔(dān)憂個人失去對內(nèi)容和產(chǎn)品的自由選擇和表達(dá)的可能,陷入服務(wù)商為獲取利潤而對信息屏蔽與過濾的陷阱。
借用梅洛龐蒂的“盲人無法用手杖看世界的顏色”的命題,盲人的敲擊動作無法看清色彩,但手杖卻成為某種嵌入人體的感官而不是延伸的外物,使其獲得與視覺平行的感知能力。從經(jīng)驗的角度看,技術(shù)可以拓展人的感知范圍和活動半徑,升級人的存在水平。[12]算法作為新媒介技術(shù)浸入人類存在方式的典型樣態(tài),首要目的也應(yīng)該是將人從繁瑣的日常事務(wù)中解放出來,以追求更美好的生活,而不是陷入算法推薦的陷阱,將鮮活的個體變成可預(yù)測、類似機器一樣的存在物,成為即將被反噬的資本的犧牲品。
三、算法治理邏輯的關(guān)鍵性分析
算法是人觸達(dá)世界的內(nèi)嵌式工具、自我認(rèn)知的外展方式。麥克盧漢在《理解媒介:論人的延伸》中曾預(yù)言:“電子時代,我們身披全人類,人類就是我們的肌膚?!毕啾绕渌尾蛔鳛榈膭訖C因素,數(shù)據(jù)政治下的算法并未擺脫以互聯(lián)網(wǎng)思維為核心的復(fù)雜的社會意識體系,反而以隱匿的形式闡釋著政治、經(jīng)濟(jì)和意識形態(tài)的復(fù)雜關(guān)系。如果說對于算法的理解是具有個性化主觀感受的“愛恨情仇”,那么,從國家戰(zhàn)略角度看,算法治理應(yīng)以提升人的幸福感和存在質(zhì)量為宗旨。
1. 治理目的:流量貨幣化以符合國家政策規(guī)制為前提
資本涌入互聯(lián)網(wǎng),致力于將用戶流量貨幣化,但無論哪一種互聯(lián)網(wǎng)實體都不能違背國家政策規(guī)制。2017年,在美國眾議院的聯(lián)合通信和數(shù)字商務(wù)小組委員會聽證會上,新澤西州民主黨議員弗蘭克·帕隆堅稱,社交媒體和搜索網(wǎng)站使用復(fù)雜算法來增加廣告點擊量以影響用戶選擇,不僅不能真實地反映現(xiàn)實世界,某些分類算法存在的結(jié)構(gòu)缺陷還會導(dǎo)致新聞推送中的種族偏見。[13]在算法治理的現(xiàn)實性空間中,需要政府通過政策規(guī)制向大公司施壓以符合人民的期望,賦予算法“看門人”合理的權(quán)力,消解網(wǎng)絡(luò)中立性爭議對算法用戶隱私、算法監(jiān)管權(quán)力和“信息繭房”等的負(fù)面影響。
在互聯(lián)網(wǎng)發(fā)展史上,網(wǎng)絡(luò)中立性的爭議由來已久。網(wǎng)絡(luò)中立性原指以電話系統(tǒng)為代表的公共運營商的非歧視性行為,[14]現(xiàn)指ISPS必須平等對待所有互聯(lián)網(wǎng)通信用戶和行為,而不是根據(jù)用戶、內(nèi)容、網(wǎng)站、平臺、應(yīng)用、設(shè)備類型、源地址、目的地址或通信方式進(jìn)行歧視或額外收費。[15-16]以美國為例,2015年2月26日美國聯(lián)邦通信委員會通過網(wǎng)絡(luò)中立性議案,而2017年特朗普政府支持當(dāng)時聯(lián)邦通信委員會主席阿吉特·帕伊主導(dǎo)的以恢復(fù)網(wǎng)絡(luò)自由法案廢除網(wǎng)絡(luò)中立性法案。2019年美國眾議院通過“保障寬帶互聯(lián)網(wǎng)用戶平等訪問在線內(nèi)容”的拯救互聯(lián)網(wǎng)法案,但美國參議院未通過。[17]2021年拜登政府推出寬帶標(biāo)簽?zāi)0?,意圖恢復(fù)網(wǎng)絡(luò)中立性。通過美國民主黨與共和黨圍繞網(wǎng)絡(luò)中立性的動議與拉鋸,可以看出流量變現(xiàn)的利益與話語權(quán)紛爭的白熱化。而我國學(xué)者認(rèn)為,網(wǎng)絡(luò)中立性原則背后的算法劫持和算法調(diào)節(jié)值得重視,[18-19]尤其是2021年、2022年美國聯(lián)邦通信委員會接連取消中國電信美洲公司、中國聯(lián)通美洲公司的214牌照,將用戶隱私、算法價值觀、金融風(fēng)險網(wǎng)絡(luò)安全化與地緣政治掛鉤,可見以算法和數(shù)據(jù)為資源池的爭奪,已成為制訂國家網(wǎng)絡(luò)安全計劃與規(guī)制的重要現(xiàn)實考量。
2. 內(nèi)容審核:人工審核與算法審核的適切性條件
內(nèi)容審核是關(guān)系到互聯(lián)網(wǎng)服務(wù)商、社交媒體、政府監(jiān)管者和用戶等多元主體的重要媒介化實踐環(huán)節(jié)。在信息決策生態(tài)日益繁瑣和異化的趨向中,算法審核在內(nèi)容審核中的比重越來越大,尤其是采用異步交流的Twitter、Facebook、Reddit、TikTok等大型社交媒體平臺,算法審核的效果可能會優(yōu)于人工審核。不同于人工的個性化審核,算法審核多采用事先審核形式和自動審核系統(tǒng),將平臺審核政策應(yīng)用于用戶上傳流程,在其他用戶能夠查看、互動和分享之前刪除被禁止的內(nèi)容,旨在鼓勵用戶在可接受的開放空間表達(dá)自己,促進(jìn)信息的即時傳輸和有效溝通。
算法審核類型多元,既可能涉及整體性的推送和管理,如Instagram、Twitter、YouTube每天對數(shù)以億萬計的視頻、圖片和文本的發(fā)布、瀏覽、評論和轉(zhuǎn)發(fā)進(jìn)行審核;也可能是門檻級的內(nèi)容審核,如平臺對用戶上傳、發(fā)布內(nèi)容的算法篩選,特別是檢查非法或禁止上傳內(nèi)容與約定標(biāo)準(zhǔn)的匹配度;也有專門定制優(yōu)先級、推廣、順序或頻率等的計算新聞,如Algorithm Tips將算法、眾包和專家評估集成一個界面,使用算法決策系統(tǒng)為各類新聞機構(gòu)和美國各級政府歸納有價值的新聞線索。[20]從實踐來看,沒有哪一種內(nèi)容審核方式能完美應(yīng)對所有問題,而審核標(biāo)準(zhǔn)變化也迫使極端用戶、小眾用戶趨向非審核模式。由于表情包、Gif、音頻和視頻等大量非語言內(nèi)容的審核難度較高,算法也無法通過上下文情境和流行語背景理解暗喻、反諷等修辭的運用,在真實的在線交流語境中,自然語言處理系統(tǒng)會產(chǎn)生誤解和過度刪除的情況。[21]
更重要的是,國家政策賦權(quán)下的內(nèi)容審核,特別是內(nèi)容審核的外部因素對整個媒介生態(tài)的潛在影響巨大。如1996年的《美國通信規(guī)范法案》第230條對交互式社交媒體提供商和交互式媒體授予平臺豁免權(quán),使其免于中介責(zé)任,并規(guī)定了信息透明度相關(guān)權(quán)利與義務(wù),鼓勵網(wǎng)站刪除攻擊性內(nèi)容,審查用戶的言論。雖然有批評者認(rèn)為該條內(nèi)容使得社交媒體可以自由地忽視謊言、騙局和誹謗,但不可否認(rèn)該規(guī)則促進(jìn)了社交媒體平臺和互聯(lián)網(wǎng)的蓬勃發(fā)展。因此,在虛假新聞、種族歧視、地域攻擊和暴力煽動已成為世界各國社交媒體常態(tài)化的當(dāng)下,平臺內(nèi)容審核標(biāo)準(zhǔn)存在不透明、不統(tǒng)一的現(xiàn)實操作,怎樣區(qū)分可接受、部分接受、完全不能接受的算法篩選標(biāo)準(zhǔn),成為公眾與政府關(guān)注的重要問題。
在實踐中,算法審核與人工審核并不是非此即彼的,特別是平臺為避免法律和政治立場爭議以偏見作為理由對算法審核引發(fā)的爭議進(jìn)行人工審查。Facebook、Twitter、亞馬遜、蘋果和谷歌等數(shù)字平臺均傾向采用自我監(jiān)管方式,利用大數(shù)據(jù)、人工智能和機器學(xué)習(xí)技術(shù),由訓(xùn)練有素的人工決策者審核算法刪除的合理性,如通過版主對極端主義、恐怖主義等特定內(nèi)容和被其他用戶標(biāo)記為違反社區(qū)標(biāo)準(zhǔn)、違反全球規(guī)則的內(nèi)容的審核,算法審核的內(nèi)容截屏被放到數(shù)據(jù)庫隊列中,由訓(xùn)練有素的人類決策者審查內(nèi)容是否真的違反了服務(wù)條款,并評判可能對消費者權(quán)利造成的潛在損害。[22]對用戶隱私的擔(dān)憂也引起了公眾對算法審核的關(guān)注。如2017年,美國征信巨頭Equifax因應(yīng)用程序漏洞導(dǎo)致數(shù)據(jù)泄露,波及約1.479億名客戶。為加強用戶隱私保護(hù),Equifax使用機器學(xué)習(xí)算法,采用FraudIQ綜合ID警報檢測消費者身份、行為和模式的異常,形成對身份欺詐行為的檢測、預(yù)防,對隱私進(jìn)行保護(hù)。[23]另外,雖然面臨著生物隱私泄露的爭議,但為有效應(yīng)對新冠肺炎疫情,公眾逐漸接受了對接觸者與聯(lián)系者進(jìn)行追蹤、對重癥病人進(jìn)行遠(yuǎn)程監(jiān)控,以及對醫(yī)療圖像進(jìn)行處理的新技術(shù)。[24]
3. 算法價值觀:秉持多樣化與包容性的價值判斷
因為道德很難定義、實施和執(zhí)行,要設(shè)計出能被廣泛采用的人工智能倫理系統(tǒng)相當(dāng)困難。2021年皮尤研究中心發(fā)布的報告中,多位專家對AI的倫理道德原則表示擔(dān)憂。加拿大國家研究委員會的數(shù)字技術(shù)高級研究官斯蒂芬·唐斯說:“現(xiàn)代AI是基于大量數(shù)據(jù)集上的應(yīng)用數(shù)學(xué)函數(shù)。數(shù)學(xué)函數(shù)沒有‘好’‘惡’之分,數(shù)據(jù)中的偏見也不容易被識別或阻止。”密歇根州立大學(xué)法學(xué)院的客座教授、《算法社會》編輯肯尼斯·A.格雷迪表示,“人工智能倫理定義有國別差異,人工智能在面對跨境能力、道德約束與該國利益的差異,以及軍事威脅等方面問題時,對其監(jiān)管難度很大”。圣何塞州立大學(xué)的人類學(xué)教授瓊·安妮·英格利什-盧克說:“AI系統(tǒng)使用算法的可靠性基于深度學(xué)習(xí)的數(shù)據(jù)準(zhǔn)確性。人類的倫理體系復(fù)雜而又相互矛盾,過去幾十年人類也沒有解決的困境,沒理由相信能在人機交互中得到化解?!盵25]
另外,由于地緣政治、經(jīng)濟(jì)利益和意識形態(tài)的差異,世界各國的人工智能國家戰(zhàn)略呈現(xiàn)了自組織與集體性統(tǒng)一的算法價值觀。[26]如根據(jù)荷蘭《人工智能戰(zhàn)略行動計劃》,2019年荷蘭政府政策科學(xué)委員會調(diào)查人工智能對公共價值的影響時,特別提到烏得勒支大學(xué)的算法決策的法律問題研究。該研究從自動駕駛汽車、P2P能源市場、法官、自我效能和平臺內(nèi)容審核五個方面,確定未來5到10年決策算法的機會與風(fēng)險,以及算法與現(xiàn)有法律框架和價值觀的關(guān)系,提出應(yīng)采取措施來限制相關(guān)風(fēng)險。[27]正如《德意志意識形態(tài)》一文提出“意識在任何時候都只能是被意識到了的存在,而人們的存在就是他們的現(xiàn)實生活過程”。[28]在經(jīng)歷了古斯塔夫·勒龐大眾傳播時代的“群氓”現(xiàn)象之后,[29]無論是被數(shù)據(jù)技術(shù)賦權(quán)的政府,還是賺取公眾注意力紅利的市場化媒體,都須維系扎根于民族、文化和國家差異化的現(xiàn)實,以及以價值認(rèn)同和情感依附為基礎(chǔ)的集合主體性,[30]消解公民在客觀現(xiàn)實與象征性現(xiàn)實中的媒介焦慮。
從現(xiàn)實世界和虛擬世界加速勾連的趨向看,隨時在場的算法介入互聯(lián)網(wǎng)行動者關(guān)系網(wǎng)絡(luò)。從微個體需求看,作為算法主體之一的用戶基于持續(xù)性的娛樂、購物、搜索、訂閱的自組織行為,致力于擺脫信息冗余、掌握信息主控權(quán)、減少人際交往焦慮,以貼近自我身心實際;而另一類算法主體,如寬帶互聯(lián)網(wǎng)接入商和科技公司由于扮演的角色不同、給予消費者的承諾差異,其通過數(shù)據(jù)反向收集的信息源,催生了聚合多元價值和價值共識擬合的信息能量池。面對不同主體聚沙成塔形成的算法價值觀譜系,政府作為決策者,應(yīng)避免以一刀切的方式來進(jìn)行算法治理。在不同媒介和差異化選擇標(biāo)準(zhǔn)下,如果對整個互聯(lián)網(wǎng)采取統(tǒng)一的監(jiān)管方法,就只能滿足少數(shù)人的需要,無法實現(xiàn)數(shù)字化生存。
了解權(quán)力和資本如何役用數(shù)據(jù)與算法控制相關(guān)行為,是數(shù)字驅(qū)動時代保護(hù)公民隱私的政策核心。個別實體只能獲取部分用戶隱私,如谷歌掌握其用戶搜索的初始步驟、亞馬遜了解用戶瀏覽和購買產(chǎn)品的情況,但寬帶互聯(lián)網(wǎng)接入商卻能擁有獲取所有互聯(lián)網(wǎng)數(shù)據(jù)包發(fā)送、接收信息的權(quán)力。[31]至于算法標(biāo)準(zhǔn)細(xì)節(jié),則被視為商業(yè)機密而不向消費者披露,導(dǎo)致消費者要么將算法視為“黑箱”,要么認(rèn)為算法是中立決策者,可以避免人類偏見。但事實是,機器學(xué)習(xí)算法以人的設(shè)定為始基,機器學(xué)習(xí)算法的不透明性加劇了AI的非中立性。[32]
4. 用戶注意力:驅(qū)動算法技術(shù)為人服務(wù)而不是人為之服務(wù)
社交網(wǎng)絡(luò)用戶的注意力,是影響公眾選擇、態(tài)度的重要因素和稀缺資源。[33]注意力的形成,是受環(huán)境布局、材質(zhì)等現(xiàn)實因素以及個體知識背景、知識經(jīng)驗影響的多重變量過程。[34]過去十年,以機器學(xué)習(xí)或深度學(xué)習(xí)為代表的自我學(xué)習(xí)算法,形成了自動的自我創(chuàng)造的外部關(guān)注形式。[35]以排名、點贊數(shù)、推薦數(shù)、用戶地圖和關(guān)鍵詞云為代表的指標(biāo)強化了數(shù)字信息的權(quán)重,成為引導(dǎo)網(wǎng)絡(luò)用戶注意力的基礎(chǔ)。
2016年,羅伯特·西弗特、喬納森·羅伯奇基于點擊、鏈接、社交行為(喜歡、轉(zhuǎn)發(fā)等)、互聯(lián)網(wǎng)用戶行為模式,將數(shù)字信息計算分為四種類型:beside of web,網(wǎng)絡(luò)用戶點擊量和網(wǎng)絡(luò)流行程度;above of web,基于超文本鏈接定義網(wǎng)絡(luò)的權(quán)力;within of web,社交網(wǎng)絡(luò)用戶測量該產(chǎn)品的受歡迎程度;below of web,根據(jù)既往行為史計算和預(yù)測網(wǎng)絡(luò)用戶行為(見表1)。[36]
基于算法凝聚用戶注意力的核心應(yīng)是服務(wù)人,而不是駕馭人。眾所周知,算法取代記者、圖書館員、評論家和專家等專業(yè)人員,成為數(shù)字空間新的“看門人”。但基于性別、文化、階層等多重因素的個性化算法推薦,導(dǎo)致用戶注意力被介入信息生產(chǎn)、傳遞和消費流程的算法所固化,強化了具有固有認(rèn)知和心理依賴的強關(guān)系圈層。[37]在塑造用戶注意力方面,既要尊重個人權(quán)力與轉(zhuǎn)向原子化的本真需求,也要思考算法這一信息中介對人的注意力生成與屏蔽的影響。
不僅如此,由于多元算法主體選擇的自組織與集體性統(tǒng)一,以及公眾關(guān)注焦點輿論化、內(nèi)容生產(chǎn)與社會獲益的關(guān)聯(lián)性,使得公眾有了多元多向的內(nèi)容選擇。作為高維媒介,算法以價值判斷架構(gòu)供需雙方的價值關(guān)系,[38]無論是YouTube、ABC news、FOX news、今日頭條使用數(shù)據(jù)新聞的定向推送,還是京東、小紅書推送種草菜單,微信朋友圈利用“不看他的朋友圈”功能形成的閱讀人清單,只有正確處理注意力數(shù)據(jù)與價值共識的關(guān)系,才能將算法的社會性合理變現(xiàn),從而提升人的滿意感、幸福感。因此,要以算法主體的需求為始基,分析自上而下與自下而上的信息傳播方式的差異,[39]追求共同發(fā)起、共同感知、共同創(chuàng)造的效果,[40]才能凝聚民族向心力,有效傳遞正向信息,形成更好的創(chuàng)新驅(qū)動力,構(gòu)建優(yōu)化公眾注意力的長效機制,為打造網(wǎng)絡(luò)傳播有序化的媒介共同體提供可能。
在數(shù)據(jù)驅(qū)動時代,算法是AI擬合人類思想與行為必不可少的中介,只有為賦權(quán)公眾而塑造算法認(rèn)知框架,提升集約化、信息化、人性化、多元化服務(wù)水平,尊重用戶的本真需求而不是資本的短期利益,達(dá)成治理者—公眾—媒體之間的平衡關(guān)系,才能形成目標(biāo)明確、渠道多樣、焦點分散化的多元算法治理格局,真正使算法為人類造福。
參考文獻(xiàn):
[1] 董春雨,薛永紅.數(shù)據(jù)密集型、大數(shù)據(jù)與“第四范式”[J]. 自然辯證法研究,2017,33(5):74-80,86.
[2] Nicholas Garnham. From Cultural to Creative Industries[J].International Journal of Cultural Policy, 2005,11(1): 15-29.
[3] Nyri K. Self and community and the new floating worlds, Mobile Democracy: Essays on Society, Self and Politics[M].Vienna: Passagen Verlag Editors, 2003: 61-69.
[5] O'Sullivan·P. B, Hunt S, Lippert L. Mediated Immediacy: a Language of Affiliation in a Technological age[J]. Journal of Language and Social Psychology, 2004(23): 464-90.
[6] Judith Donath. Signals in Social Supernets[J]. Journal of Computer-mediated Communication, 2007,13(10): 231-251.
[7] Anna Danielewicz-Betz. Self-presentation and Self-praise in the Digital Workplace[M]. Cliftor, New Jersey: Anthem Press, 2021: 1996.
[8] Janna Anderson,Lee Rainie. Artificial Intelligence and the Future of Humans[EB/OL].[2018-12-10].https://www.pewresearch.org/internet/2018/12/10/improvements-ahead-how-humans-and-ai-might-evolve-together-in-the-next-decade/.
[9] Information Resources Management Association USA. Research Anthology on Privatizing and Securing Data[EB/OL].[2021-04-10].https://www.nytimes.com/2019/04/10/technology/net-neutrality-vote.html.
[10] U.S. Government Publishing Office. Algorithms: How Companies' Decisions about Data and Content Impact Consumers[EB/OL].[2017-11-29].https://www.govinfo.gov/content/pkg/CHRG-115hhrg28578/html/CHRG-115hhrg28578.htm.
[11] Crolic C, Thomaz F, Hadi R, et al. Blame the Bot: Anthropomorphism and Anger in Customer-Chatbot Interactions[J]. Journal of Marketing. 2022, 86(1): 132-148.
[12] Brett Frischmann, Evan Selinger. Re-Engineering Humanity[M]. Cambridge: Cambridge University Press, 2018: 32.
[13] John Eggerton. Pallone:Internet Platforms are Policing Content[EB/OL].[2017-11-29].https://www.nexttv.com/news/pallone-internet-platforms-are-policing-content-416813.
[14] Wu Tim. Network Neutrality, Broadband Discrimination[J]. Telecomm & High Tech. L, 2003(2): 141.
[15] Easley R, Guo H, Kr?mer J. From Net Neutrality to Data Neutrality[J]. Information Systems Research, 2016, 29(2): 253-272.
[16] Gilroy Angele A. Access to Broadband Networks: The Net Neutrality Debate[M]. Darby, PA: Diane Publishing Co, 2011: 1.
[17] Kang Cecilia. Net Neutrality Vote Passes House, Fulfilling Promise by Democrats[EB/OL].[2019-04-11].https://youcangetthetech.com/2019/04/11/net-neutrality-vote-passes-house-fulfilling-promise-by-democrats/.
[18] 常江. 互聯(lián)網(wǎng)中立性與算法劫持[J]. 青年記者,2019(22):92.
[19] 毛湛文,孫曌聞. 從“算法神話”到“算法調(diào)節(jié)”:新聞透明性原則在算法分發(fā)平臺的實踐限度研究[J]. 國際新聞界,2020(7):6-25.
[20] Diakopoulos Nicholas, Daniel Trielli, Grace Lee. Towards Understanding and Supporting Journalistic Practices Using Semi-automated News Discovery Tools[J]. Proceedings of the ACM on Human-Computer Interaction, 2021(5): 1-30.
[21] Young Greyson K. How Much is too Much: the Difficulties of Social Media Content Moderation[J]. Information & Communications Technology Law, 2022, 31(1): 1-16.
[22] Michael A. Cusumano, Annabelle Gawer, David B. Yoffie. Social Media Companies should Self-regulate.Harvard Business Review Home[EB/OL].[2021-01-15].https://hbr.org/2021/01/social-media-companies-should-self-regulate-now.
[23] Tackling Fraud Initiated through Authorized User Abuse[EB/OL].[2021-02-01].https://assets.equifax.com/marketing/US/assets/synthetic-id-alerts-case-study.PDF.
[24] Aboul Ella Hassanien, Ashraf Darwish. Digital Transformation and Emerging Technologies for Fighting COVID-19 Pandemic: Innovative Approaches[M]. Cham, Switzerland:? Springer Nature, 2021: 31-32.
[25] Lee Rainie, Janna Anderson, Emily A.Vogels.Worries About Developments in AI[EB/OL].[2021-06-16].https://www.pewresearch.org/internet/2021/06/16/1-worries-about-developments-in-ai/.
[26] 葉妮. 人工智能國家戰(zhàn)略中的算法價值觀[J]. 傳媒經(jīng)濟(jì)與管理研究,2021(2):3-21.
[27] Strategic Action Plan for Artificial Intelligence:The Netherlands[EB/OL].[2019-10-09].https://www.government.nl/binaries/government/documents/reports/2019/10/09/strategic-action-plan-for-artificial-intelligence/Strategic+Action+Plan+for+Artificial+Intelligence.pdf.
[28] 馬克思,恩格斯. 馬克思恩格斯文集:第1卷[M]. 中共中央馬克思恩格斯列寧斯大林著作編譯局,譯. 北京:人民出版社,2009:525.
[29] 古斯塔夫·勒龐.烏合之眾:大眾心理研究[M]. 陳劍,譯. 南京:譯林出版社,2018:149.
[30] 潘忠黨. 導(dǎo)言:媒介化時代的公共傳播和傳播的公共性[J]. 新聞與傳播研究,2017(10):29-31.
[31] Testimony of Paul Ohm Before the Senate Commerce Committee[EB/OL].[2016-07-12].https://www.commerce.senate.gov/services/files/67450B91-1020-441C-AD2E-9972886F9E2A.
[32] Chamith Fonseka Rebecca Senft. Hold Artificial Intelligence Accountable[EB/OL].[2017-08-28].https://sitn.hms.harvard.edu/flash/2017/hold-artificial-intelligence-accountable/.
[33] Deloitte. Navigating the New Digital Divide: Capitalizing on Digital Influence in Retail[EB/OL].[2015-12-05] http://argaamplus.s3.amazonaws.com/4964cc22-0d81-418c-a9be-16d5e0b576d0.pdf.
[34] James J. Gibson. The Ecological Approach to Visual Perception[M]. New York: Psychology Press, 2014: 12.
[35] Yves Citton. Automatic Endo-attention, Creative Exo-attention: the Egocidal and Ecocidal Logic of Neoliberal Capitalism[J]. Culture, Theory, Politics, 2019(98): 101-118.
[36] Robert Seyfert, Jonathan Roberge. Algorithmic Cultures: Essays on Meaning, Performance and New Technologies[M].New York: Routledge, 2016: 95.
[37] Webster·J.G, Ksiazek·T.B. The Dynamics of Audience Fragmentation: Public Attention in an Age of Digital Media[J].Journal of Communication, 2012, 62(1): 39-56.
[38] 喻國明,耿曉夢. 算法即媒介:算法范式對媒介邏輯的重構(gòu)[J]. 編輯之友,2020(7):45-51.
[39] Dan Gillmor. We the Media: Grassroots Journalism by the People[M]. Sebastopol Cavifornia: the People Reilly&Assoc Inc, 2004: 10.
[40] Taneli Heikka, Elias G. Carayannis. Three Stages of Innovation in Participatory Journalism-co-initiating, Co-sensing, and Co-creating News in the Chicago School Cuts Case[J]. Journal of the Knowledge Economy, 2019, 10(2): 437-464.
Virtual and Real Symbiosis: Algorithmic Subjectivity, Intermediary Relationship and Governance Logic in the Data-Driven Era
YE Ni(School of Journalism and New Media, Xi'an Jiaotong University, Xi'an 710049, China)
Abstract: In the era of data-driven development, algorithm, as a high-dimensional medium, engraves the subjectivity characteristics of "Human to Thing" in the dimensions of self-consciousness awakening, polarizing of the interested parties, embodiment and de-embodied communication, control difference, and personalized selection. From the perspective of effective communication and technical concerns, the paper analyzes the relationship between the algorithm subjects and objects. It analyzes the core logic of algorithm governance from the aspects of governance purpose, content review, value judgment and user attention.
Key words: algorithmic governance; algorithmic value; network neutrality; subjectivity relationship; decision game
基金項目:陜西省社會科學(xué)基金項目年度項目“智能時代算法價值觀極化現(xiàn)象研究”(2020M004);陜西省軟科學(xué)研究計劃一般項目“陜西省科技創(chuàng)新形象傳播研究”(2021KRM043);高?;究蒲袠I(yè)務(wù)費項目“高水平對外開放格局下社交機器人對中國國家形象的影響機制研究”(SK2022153)
作者信息:葉妮(1978— ),女,四川成都人,西安交通大學(xué)新聞與新媒體學(xué)院副教授、碩士生導(dǎo)師,主要研究方向:媒介研究。