宋青勵 韓奧林
摘 要:智能場域由人工智能實踐的主體要素和客體要素構(gòu)成,兩者的相互作用共同構(gòu)成了人工智能實踐的作用場。在智能場域下,人們在享受算法帶來諸多生活便利的同時,也時刻面臨著自身被算法“圈禁”的風險,其思想認知、判斷能力、決策意識可能會受制于算法,社會地位也可能會因算法的“偽中立性”而受到不合理的禁錮。當前,算法的“偽中立性”主要表現(xiàn)在形成擬態(tài)環(huán)境、形成圈群文化、形成等級制度方面,算法作用下的“物化困境”“主體失位”“效率優(yōu)先”,往往導致其對人的決策、勞動、隱私的“圈禁”?;诖耍獬惴▽θ说摹叭?,需要堅持以科學的技術(shù)手段輔助人的決策、以主流價值觀引導人的勞動、以健全的法律法規(guī)保護人的隱私。
關(guān)鍵詞:智能場域;算法;算法推薦;“偽中立性”
中圖分類號:TP18
文獻標志碼:A 文章編號:1002-7408(2023)06-0075-08
基金項目:2022年國家社會科學基金青年項目“網(wǎng)絡(luò)亞文化異動對青年主流價值觀的消解及應對研究”(22CKS044)。
作者簡介:宋青勵(1993—),女,天津人,南京航空航天大學馬克思主義學院博士研究生,研究方向:馬克思主義中國化、社會治理;韓奧林(1991—),男,安徽阜陽人,南京航空航天大學馬克思主義學院博士研究生,研究方向:馬克思主義中國化。
何謂“場域”?作為一種社會學概念,場域最早由法國社會學家皮埃爾·布迪厄提出。在他看來,一個場域可以被定義為在各種位置之間存在的客觀關(guān)系的一個網(wǎng)絡(luò)(network),或一個構(gòu)型(configuration)[1]。所謂構(gòu)成場域的關(guān)系網(wǎng)絡(luò),實質(zhì)上是由不同類型的權(quán)力(或資本)造成的生存處境,任何人既要受到場域中各種關(guān)系網(wǎng)絡(luò)的影響,又有一定可能影響甚至改變客觀存在的場域。在皮埃爾·布迪厄的理論體系中,具體場域之間的主體關(guān)系網(wǎng)絡(luò)內(nèi)蘊著流動性,深度內(nèi)嵌于所在場域但又獨立于主體意識而存在,故而具有源自場域內(nèi)部的一系列強制性約束。代表不同群體的主體積極參與競爭,旨在盡可能獲取有價值的符號商品,從而將經(jīng)濟、社會、文化等資本形態(tài)轉(zhuǎn)化為形式各樣的權(quán)力,以此逐步獲得主體間有效的支配關(guān)系。當然,不同場域之間具有自主性、差異化等顯著特征,每個場域都隱含著不同力量的博弈和競爭且沒有明確邊界,每個場域都不能完全脫離其他場域而獨自存在,仍會時刻受到其他場域的多重影響和制約。基于場域理論分析視角,智能場域既是人工智能實踐有序開展的時空形態(tài),也是變革人工智能實踐方式的重要因素,人工智能實踐直接或間接地受制于智能場域的發(fā)展。當前,作為人工智能技術(shù)的產(chǎn)物,算法廣泛應用于人們?nèi)粘I畹姆椒矫婷妫羁讨厮芰巳伺c人、人與社會之間的互動聯(lián)系。當算法逐漸演變?yōu)榫哂凶兏镆饬x的生產(chǎn)要素和技術(shù)手段時,對于算法“偽中立性”帶來的潛在社會影響的研究成為學界共同關(guān)注的課題。在智能場域下,算法本身的“偽中立性”衍生了諸多現(xiàn)實危害,無形中促使人們在某種程度上被“圈禁”。如在一些短視頻平臺,算法始終隱性影響著人們的決策行為;在一些數(shù)字勞動平臺,算法始終隱性控制著人們的勞動行為等。集中反思算法對人的“圈禁”,亟待從輔助決策、引導勞動、保護隱私等方面采取有效措施加以應對。
一、算法的“偽中立性”
算法具有本體論意義上的技術(shù)中立性,但是隨著算法開始接管各類信息分發(fā)的權(quán)力,算法設(shè)計之初標榜的中立性已經(jīng)異化。在市場邏輯的強力支配下,各種信息篩選機制和推薦規(guī)則的不透明性,使得算法本身明顯帶有一種可見的“偽中立性”。
(一)算法“偽中立性”的緣由
智能場域下的算法不能被視為純粹意義上沒有價值觀的技術(shù)手段,這是因為算法與信息連接的全過程都隱含著人為因素和權(quán)力因素。算法推薦的出現(xiàn)有效解決了信息內(nèi)容與用戶需求不匹配的問題,實質(zhì)上使得信息分發(fā)變得更加智能、高效、精準。然而,由于各類平臺過于推崇和依賴算法推薦技術(shù),過于迎合用戶的興趣與愛好,導致用戶瀏覽信息成癮的現(xiàn)象日益凸顯,由此引發(fā)了社會各界對其中立性的高度質(zhì)疑。算法并非價值中立,它內(nèi)嵌于社會機制的復雜性,其對不同勞動者影響結(jié)果的差異性及其在運行過程中的自我強化性,都使得以實現(xiàn)客觀技術(shù)指標為目的的功能性算法,最終演化為帶有價值判斷和選擇功能的政治性算法[2]??此瓶陀^中立的算法技術(shù),實則在研發(fā)過程中就帶有研發(fā)人員的偏見和歧視,且算法運行也是基于大量帶有偏見的社會現(xiàn)實數(shù)據(jù)的收集和分析。算法正在以一種相對隱蔽的方式固化甚至加深社會已有的偏見,各類平臺無論是出于保護算法安全還是暗中謀取私利的目的,算法權(quán)力主體從一開始就被完美地隱藏起來。事實上,算法權(quán)力主體彌漫于整個社會,日益呈現(xiàn)出多元化、不確定的狀態(tài)。首先,國家政治機構(gòu)是掌握算法權(quán)力的公權(quán)力主體,它們憑借強大的國家權(quán)力、雄厚的國家資本以及海量的公共數(shù)據(jù)資源,將算法有序納入國家治理體系,旨在全方位發(fā)揮算法技術(shù)支配對象的工具性價值。此外,政府在基礎(chǔ)設(shè)施、資金投入、政策制度等方面支持算法發(fā)展,不僅使所有參與者從中受益良多,同時也推動了算法權(quán)力再分配機制的形成。其次,各類互聯(lián)網(wǎng)企業(yè)是掌握算法權(quán)力的私權(quán)力主體,他們擁有龐大的私人資本、卓越的算法技術(shù)以及先進的算法系統(tǒng)架構(gòu),在一定程度上影響著經(jīng)濟社會各個方面的長遠健康發(fā)展。最后,其他社會機構(gòu)也是掌握算法權(quán)力的特定主體,隨著算法權(quán)力逐步深入社會生活和實踐的各個領(lǐng)域,廣泛存在于學校、醫(yī)院、工廠等社會機構(gòu),人類“數(shù)字化生存”的方式已經(jīng)成為社會常態(tài)。
(二)算法“偽中立性”的表現(xiàn)
算法技術(shù)不是晦澀難懂的數(shù)字符號,其必然融入了人們多元化的價值觀。算法技術(shù)中立的本質(zhì)在于價值觀是否中立,但是價值觀本身摻雜了各類群體的偏好,使得算法“偽中立性”的表現(xiàn)躍然紙上。
一是形成擬態(tài)環(huán)境。算法技術(shù)強化了人們?yōu)g覽信息的擬態(tài)環(huán)境,固化了人們原有的偏見和喜好,導致人們的思想意識深度陷入虛無縹緲的孤島。擬態(tài)環(huán)境不是憑空產(chǎn)生的,它以真實世界為根據(jù),但并不是現(xiàn)實社會在鏡子里的成像,而是傳播媒介通過對代表性事件進行選擇和加工之后向人們展示的環(huán)境[3]。由于擬態(tài)環(huán)境與主觀環(huán)境存在密切關(guān)聯(lián),人們選擇和接收信息的過程實際上受主觀意志主導,如果算法形成的擬態(tài)環(huán)境與主觀環(huán)境高度趨同,那么受眾對信息的選擇權(quán)和知情權(quán)也就逐漸被剝奪了。客觀來說,算法技術(shù)搭建的擬態(tài)環(huán)境更加形象生動,極易引發(fā)人們的思想認同、情感共鳴,這也是各種平臺利用算法技術(shù)吸引廣大受眾的重要原因。但是算法技術(shù)始終遵循資本邏輯的法則,不僅會使信息傳播嚴重偏離主流價值導向,而且會進一步助長低俗虛假信息泛濫的勢頭,加大黃色、暴力、恐怖等不良信息擴散的力度,最終導致各類平臺推送的信息質(zhì)量陡然下降,信息的客觀性、真實性、中立性也蕩然無存。
二是形成圈群文化。算法技術(shù)在內(nèi)容社交平臺打造了諸多圈子,形成了“圈群文化”這一人際交往新形式,而圈子不可避免地產(chǎn)生了明顯的排他性效應。基于共同志趣的網(wǎng)絡(luò)使用者更容易在網(wǎng)絡(luò)中形成圈群,并演化出具有相似情感取向的“圈群文化”[4]。各類平臺為了盡可能延長用戶的停留時間,往往精準推送一些充分迎合用戶瀏覽需求的信息,使得用戶沉迷于高度同質(zhì)化信息營造的“信息繭房”?!靶畔⒗O房”是指在信息傳播中,由于人們沒有全方位的信息需求,他們只會重點關(guān)注一些讓自身愉悅的信息,從而使自身牢牢束縛于像蠶繭一樣的“繭房”之中。長此以往,人們便逐漸喪失了自由選擇和充分接收其他信息的能力,潛意識地隔絕了自身正確認識外部世界的窗口,甚至會嚴重制約縱向與橫向思維能力的培養(yǎng),出現(xiàn)相關(guān)部門難以妥善處理的群體極化現(xiàn)象。隨著算法技術(shù)的廣泛應用和創(chuàng)新發(fā)展,人們能夠接收的多元化信息更加匱乏、失真,其觀察視野更加狹隘封閉、思想認知更加偏離實際。
三是形成等級制度。社交平臺主要是以節(jié)點為單位進行搭建,建立之初為了最大限度地吸引用戶,往往會采用具有頭部樞紐節(jié)點的網(wǎng)絡(luò)架構(gòu),頭部樞紐節(jié)點是指網(wǎng)紅、明星等,基本樞紐節(jié)點是指普通用戶。這種等級制度的形成依賴于智能算法,通常是以粉絲數(shù)量、作品播放量和點擊率等指標為劃分依據(jù)。一方面是為了便于日常管理,通過算法優(yōu)先將平臺資源分發(fā)給頭部樞紐節(jié)點,使得管理者只需科學管理和引導頭部樞紐節(jié)點,就可以有效篩選普通用戶接收的繁雜無序信息。另一方面是為了明確信息傳播規(guī)則,通過算法明確社交平臺普通用戶的規(guī)則意識,使其接收算法分發(fā)給頭部樞紐節(jié)點生產(chǎn)的信息,主動將自身置于信息傳播網(wǎng)絡(luò)底部的接收端。這種信息分發(fā)機制固然有助于提高管理效率,但是普通用戶的價值觀可能會被部分價值觀不正的頭部樞紐節(jié)點所誤導,進而產(chǎn)生一些有違主流價值觀的偏激思想和行為。
(三)算法“偽中立性”的危害
算法的“偽中立性”使其呈現(xiàn)的圖景不同于現(xiàn)實世界,而是基于各種偏見精心構(gòu)建的虛擬世界,由此可能會帶來一系列嚴重的危害。
一是算法作用下的“物化困境”。在算法驅(qū)動的社交情境中,人與人連接的本質(zhì)是各種數(shù)據(jù)的連接,各類平臺算法會根據(jù)用戶行為進行分類整理并精準推送內(nèi)容,實際上導致用戶在這一過程中的主體性完全被數(shù)據(jù)所代替。從智能算法、移動交互界面到互聯(lián)網(wǎng)技術(shù)標準(5G/Http/超文本標記語言)再到PC桌面、多媒體文件(圖片、視頻、文檔等),這些均為“形成于屏幕上或隱藏于電腦程序后端的物體(objects)”[5]。此外,算法隱含著各種有關(guān)社會規(guī)則的評分機制,可以幫助匯聚和量化人們的社會活動、理解和分析人們的社會意識。在某種意義上,評分機制強化了人們對于社會規(guī)則的遵守力度,有助于合理管控一些難以察覺的社會風險,但不可否認的是,它的物化行為可能嚴重侵犯個人隱私。隨著算法技術(shù)的快速發(fā)展,人人都成為觀察者、評價者、監(jiān)控者,這為人們在網(wǎng)絡(luò)空間的安全互動提供了堅實保障,便于人們及時研判未知風險并作出有效應對,但也容易造成人們之間相互評價和監(jiān)控的權(quán)力被肆意濫用。
二是算法作用下的“主體失位”。在算法全面介入信息傳播的背景下,算法能夠高度控制人并代替其分析、判斷、決策,無形中壓制了人的主體地位和主導作用。人類主體對智能算法的依賴性越強,越說明智能算法在更多領(lǐng)域中替代了人類主體的思考[6]。事實上,算法往往通過議程設(shè)置引導或左右人們對于事件本身的看法,如短視頻平臺通過推薦熱門話題,暗示和引導用戶生產(chǎn)特定內(nèi)容,表面上看似用戶具有較強的主體性和創(chuàng)造力,實則是完全服從于算法及其背后的權(quán)力掌控者。雖然絕大數(shù)平臺都允許用戶自主發(fā)起話題,但是這些話題是否能被推薦都取決于各類平臺的產(chǎn)品定位和算法邏輯,用戶的主體性和創(chuàng)造力只能在某個算法限定的范圍內(nèi)發(fā)揮。在算法的暗中干預下,一些看似引發(fā)用戶關(guān)注的輿論事件實則隱含著資本邏輯,是資本方靈活運用算法技術(shù)開展的針對性引導,其中一些虛構(gòu)的事件甚至會逐步演變?yōu)楝F(xiàn)實危機。
三是算法作用下的“效率優(yōu)先”。作為人工智能技術(shù)的核心部件和重要支撐,算法傾向于通過程序設(shè)計高效輸出結(jié)果,效率優(yōu)先是算法運行的首要價值導向。效率是投入成本與獲得收益之間的對比關(guān)系,旨在有序?qū)崿F(xiàn)各類資源配置最優(yōu)化的目標,內(nèi)在要求以最少的投入成本獲得最大收益。在智能場域下,算法處理海量數(shù)據(jù)的效率確實優(yōu)于人類,且可以幫助人類高效進行決策并解決實際難題。雖然算法主體行為盡力保持技術(shù)中立性,但是算法主體行為往往受到多元價值和功能的影響,特別是基于人類價值預設(shè)的算法比較注重效率優(yōu)先??陀^來說,效率優(yōu)先的價值導向是算法優(yōu)化升級的關(guān)鍵助力,但是算法與資本的結(jié)合往往傾向于追求資本利益的最大化,有時甚至會與公平正義等法律價值產(chǎn)生沖突,導致算法盲目選擇最優(yōu)策略而罔顧社會應有的公平正義。
二、算法對人的“圈禁”
日益占據(jù)主體地位的算法正在重構(gòu)現(xiàn)有的社會關(guān)系,通過數(shù)字控制方式重塑人們對于現(xiàn)實世界的思維方式和認知能力。當前,人們生活在一個完全被算法包裹的環(huán)境中,一旦算法技術(shù)具有較大的自主性時,就會使人們緊緊跟隨算法指引的前進方向,結(jié)果便是算法對人的決策、勞動、隱私的“圈禁”。
(一)算法對人的決策的“圈禁”
隨著人們逐漸將體現(xiàn)自身主體性的決策交給算法,算法已經(jīng)深度嵌入一些行業(yè)決策中并扮演著重要角色。如在金融領(lǐng)域,銀行在系統(tǒng)評估貸款申請人的信用狀況時,往往會借助算法來確定不同客戶群體的放貸額度;在警務(wù)系統(tǒng),警察局借助算法可以快速研判潛在的犯罪嫌疑人及可能產(chǎn)生的犯罪行為;在內(nèi)容生產(chǎn)領(lǐng)域,通過算法分析得出的排行榜、熱搜榜等,很大程度上決定了未來的內(nèi)容生產(chǎn)方向和主題。今后,算法還將在教育、醫(yī)療、交通、就業(yè)等領(lǐng)域凸顯其決策作用,這是因為算法在評估、分析、判斷后作出的決策往往更優(yōu),高效便捷的決策程序使得人們能夠從繁忙的工作中徹底解脫出來。但是人們在享受算法決策帶來諸多便利的同時,如果一味地放任自身的惰性而將所有決策權(quán)力交予算法,那么很有可能深深陷入算法精心設(shè)計的陷阱中,不僅會被形式各樣的算法牢牢地“圈禁”,還會導致自身的主體性和創(chuàng)造力大幅受限。當前,算法在人們?nèi)粘I钪兄饾u顯示出權(quán)力屬性,持續(xù)推動人們的決策能力讓位于算法的自動化決策,導致現(xiàn)代社會出現(xiàn)了屈服于技術(shù)理性的個體,個體行為也隨著相關(guān)算法決策的結(jié)果而改變。特別是智能技術(shù)強化了算法的深度學習能力,算法能夠部分甚至完全取代人們的決策能力,人們的決策活動高度依賴于算法程序的設(shè)計與開發(fā),由此導致自我創(chuàng)造、發(fā)展、提升的能力停滯不前。樂于不去思考和判斷就獲得結(jié)論的信息傳遞方式,不僅加劇了人們對事物判斷的偏見與喜好,還將影響其主動接受異質(zhì)化的信息[7]。同時,算法決策本身也存在諸多缺陷,一方面,算法決策是基于海量數(shù)據(jù)之間內(nèi)在關(guān)聯(lián)的分析,在一定意義上具有較為明顯的隨機性,可能會在代碼輸入和運算過程中出現(xiàn)諸多偏差。另一方面,算法決策直觀反映了特定群體的思想偏見和價值導向,在某種場合具有較為明顯的主觀性,如根據(jù)用戶行為檢測或推導的數(shù)據(jù)都可以作為算法決策的依據(jù),這就使其難以真實發(fā)揮決策活動應有的指導作用。上述特性會對人們有效參與算法程序設(shè)計帶來現(xiàn)實阻礙,因為算法決策的形成包括歷史數(shù)據(jù)的收集與分析、模型和編碼的系統(tǒng)構(gòu)建、數(shù)據(jù)輸入與輸出的規(guī)定等,這就意味著那些無法生產(chǎn)數(shù)據(jù)的群體可能會喪失參與機會,或者只享有被動或間接參與相關(guān)決策的機會,導致他們難以充分表達自身合理的利益訴求和進行價值選擇。同時,人們可能無法知曉某項決策是否由算法作出,無法實質(zhì)性參與整個算法決策過程,即使清晰知曉算法決策的基本流程,也難以完全理解算法決策運行的內(nèi)在機理和相關(guān)依據(jù),導致人們持有具體異議且能質(zhì)疑算法決策的空間極為有限。例如2018年,劍橋分析公司通過一款名為“這是你的數(shù)據(jù)人生”(This Is Your Digital Life)的問答應用獲取了多達8700萬份Facebook個人用戶資料,后根據(jù)這些數(shù)據(jù)的分析結(jié)果為美國前總統(tǒng)特朗普在2016年的總統(tǒng)競選活動提供幫助[8]。由此可見,算法決策的專業(yè)性和復雜性特征較為鮮明,人們的行動空間、掌控能力、救濟渠道難有保障,伴隨而來的便是知情權(quán)、參與權(quán)、救濟權(quán)的逐漸喪失,甚至基本的自由和尊嚴也受到不同程度的侵犯。因此,人們不能把所有決策都交給算法來處理,應審慎判斷算法在哪些方面能夠幫助我們作出最佳決策以及算法本身是否存在明顯偏見或缺陷。
(二)算法對人的勞動的“圈禁”
算法如同一個“神經(jīng)系統(tǒng)”支配著勞動者的言行舉止,扮演著管理和控制整個勞動過程的角色,無形中導致勞動價值日漸偏離、勞動壓力日漸倍增。隨著過去用于控制勞動者的機器和設(shè)備轉(zhuǎn)變?yōu)樘摂M的軟件和數(shù)據(jù),各類平臺能夠通過算法收集和分析海量數(shù)據(jù),精準把握勞動者每時每刻的工作狀態(tài),有序?qū)崿F(xiàn)透視可見的嚴密監(jiān)督和規(guī)范管理,逐漸成為新型勞資關(guān)系中的絕對優(yōu)勢方。而在算法精準控制下的勞動者被異化為連續(xù)高效運轉(zhuǎn)的“機器”,因平時密切聯(lián)系、協(xié)作互動機會的日漸匱乏,逐漸成為新型勞資關(guān)系中的絕對劣勢方。例如,2021年針對北京地區(qū)外賣騎手的問卷調(diào)查發(fā)現(xiàn),近50%的外賣騎手表示自己遭遇過剮蹭、摔倒、碰撞等交通事故?!凹铀佟迸c“重體力”對于女性進入外賣行業(yè)構(gòu)成了某些障礙,加入其中的女性騎手不得不征用或者順從“送外賣”語境下的男性氣質(zhì)[9]。當前,應用算法的各類平臺掌控著外賣騎手、網(wǎng)絡(luò)主播、網(wǎng)約車司機等勞動者,使得他們長期被困在算法特意打造的牢籠之中,被迫投入更多的時間和精力以賺取足夠養(yǎng)家的生活費。如雖然各類平臺算法對效率的追求可使消費者生活便利,但是海量的訂單對于外賣騎手來說卻是高壓的勞動強度。算法不僅嚴重削弱了外賣騎手的自主反抗心理,還使他們自覺參與到日復一日的高強度勞動過程,瘋狂接收大量訂單并努力完成每日指定任務(wù),始終堅持以良好的服務(wù)態(tài)度滿足消費者需求。不難發(fā)現(xiàn),平臺通過算法機制重新定義了勞動過程并重新分配了勞動控制權(quán)[10]。事實上,各類平臺算法之所以能夠直接控制人的勞動,其中一個重要原因就是平臺將勞動者與消費者連接起來,消費者能夠通過平臺評價勞動者的日常勞動成果,算法能夠量化勞動者的日常勞動成果并使其成為評價勞動的關(guān)鍵指標。這種直觀的量化行為看似解放了勞動者,實則讓他們付出了包括情感勞動在內(nèi)的各種勞動來迎合消費者。在網(wǎng)絡(luò)內(nèi)容生產(chǎn)領(lǐng)域,各類平臺算法通過瀏覽量、點擊量、播放量等流量指標,逐步實現(xiàn)對相關(guān)勞動者的實時監(jiān)督和控制。如平臺為了讓網(wǎng)絡(luò)主播增加粉絲量,往往會常態(tài)化推出一系列“人氣PK”活動并制定獎懲制度,迫使廣大主播不得不賣力表演以獲得相關(guān)獎勵,導致其勞動成果本質(zhì)上與薪酬機制不匹配,持續(xù)受到更加隱秘甚至嚴酷的勞動控制。一旦流量指標成為衡量內(nèi)容品質(zhì)的關(guān)鍵,就有可能使勞動者的內(nèi)容生產(chǎn)方向發(fā)生嚴重偏離,導致他們緊密結(jié)合消費者的喜好生產(chǎn)相關(guān)內(nèi)容,自主創(chuàng)新能力完全被市場邏輯和流量邏輯所驅(qū)使,此舉不僅沒有減輕勞動者的重重壓力,反而使勞動者成為被算法全面裹挾的“囚徒”。此外,當勞動者的勞動成果都依照流量指標來衡量時,另一種數(shù)字勞動者——網(wǎng)絡(luò)水軍也就隨之產(chǎn)生,他們在利益驅(qū)使下人為改變一些流量指標,從而對他人正常勞動帶來不利影響。隨著各類平臺愈加重視開發(fā)算法模型,平臺控制將最終演變?yōu)閯趧诱咦陨淼募s束和管理,使人的勞動徹底被形式各樣的算法所“圈禁”。
(三)算法對人的隱私的“圈禁”
隨著算法廣泛應用于各類平臺,人們的基本數(shù)據(jù)甚至是隱私數(shù)據(jù)逐漸被收集,加之可穿戴設(shè)備、傳感器技術(shù)的快速發(fā)展,算法對人的數(shù)據(jù)收集將深入到情緒、心理等生理層面。在數(shù)據(jù)收集的基礎(chǔ)上,算法能夠進一步發(fā)現(xiàn)數(shù)據(jù)背后更深層的奧秘,并以此對人們進行全過程控制。人們的言行舉止都可能成為算法分析的依據(jù),表面看似平常的一種活動或行為,實際上卻被一系列算法程序演算過無數(shù)次??陀^來說,算法技術(shù)確實能夠帶來諸多生活便利,但是需要人們將一些隱私數(shù)據(jù)讓渡給相關(guān)平臺,導致人們無法在完全意義上擁有自身數(shù)據(jù)的主導權(quán)和控制權(quán)。2022年3月,中國青年報社會調(diào)查中心聯(lián)合問卷網(wǎng)就算法推薦服務(wù)問題對1144名受訪者進行調(diào)查,結(jié)果顯示75.3%的受訪者曾被算法推薦服務(wù)困擾過,其中就涉及算法推薦服務(wù)對隱私的侵犯[11]。在算法的世界中,人們隱私權(quán)面臨的威脅往往源自算法本身,因為凌駕于人們之上的算法在進行相關(guān)決策時,可能把原本與人們隱私無關(guān)的數(shù)據(jù)組合為真實可見的圖像。為了讓算法提供更加契合自身需求的優(yōu)質(zhì)服務(wù),人們還需讓渡更多的隱私數(shù)據(jù)以便使算法分析更加完善,當人們沉浸在算法技術(shù)帶來的諸多生活便利時,渾然不知自身已經(jīng)深深陷入算法的“圈禁”之中。個性化推薦算法和人工智能技術(shù)為人們帶來便利的同時也給個人隱私保護帶來新挑戰(zhàn)[12]。如人臉識別技術(shù)依托的算法程序仍在持續(xù)升級優(yōu)化,其在用戶身份確認、金融機構(gòu)支付、人機界面交互等方面應用廣泛。雖然法律并不禁止有關(guān)人臉識別技術(shù)的算法研發(fā)和應用,但是技術(shù)研發(fā)和監(jiān)管機制不成熟的現(xiàn)狀加劇了人臉識別技術(shù)濫用的風險。市場上不同廠商的人臉識別技術(shù)標準不一,安全性有待進一步驗證,部分基于二維圖片的識別技術(shù)存在較大安全隱患,如一些人隨意抓拍住戶照片后即可進入擁有人臉識別門禁的小區(qū)?!吨袊M者權(quán)益保護狀況年度報告(2021)》指出:“互聯(lián)網(wǎng)平臺以收集個人信息甚至隱私的方式,提供‘免費或‘個性化服務(wù),消費者讓渡自身部分數(shù)據(jù)權(quán)利后,并不一定能獲得便利快捷、公平安全的‘對價體驗?!保?3]在新聞傳播領(lǐng)域,信息技術(shù)賦權(quán)下的新聞生產(chǎn)方式變得更加隱蔽,從信息的廣泛采集到集中編輯再到精準投放,都極易產(chǎn)生一些復雜棘手的數(shù)據(jù)泄露問題。而當新聞生產(chǎn)借助算法技術(shù)過度收集、分析用戶閱讀偏好等數(shù)據(jù)時,便在一定程度上侵犯了用戶的隱私權(quán)。當前,算法自動關(guān)聯(lián)技術(shù)可以復原數(shù)據(jù)主體的特定行為,使網(wǎng)絡(luò)服務(wù)者不僅可以深度挖掘數(shù)據(jù)主體提供的部分數(shù)據(jù),還可以準確探知用戶不愿提供的隱私數(shù)據(jù)。相較于技術(shù)的迅猛發(fā)展,當前平臺在隱私保護方面的責任體系并不完善,信息內(nèi)容審核制度不健全以及平臺算法治理存在的缺陷,更容易導致用戶隱私權(quán)益無法得到有效保護[14]。分散且孤立的數(shù)據(jù)主體往往在個人隱私數(shù)據(jù)保護方面處于弱勢地位,在相關(guān)法律制度不夠健全的現(xiàn)實情境下,人們遭受算法侵犯隱私的維權(quán)之路較為艱難。
三、解除算法對人的“圈禁”的對策
面對算法在諸多方面對人的“圈禁”,我們需要深刻理解不同算法的運行機理和潛在影響,積極采取一系列應對措施,堅持以科學的技術(shù)手段輔助人的決策、以主流價值觀引導人的勞動、以健全的法律法規(guī)保護人的隱私。
(一)以科學的技術(shù)手段輔助人的決策
算法的廣泛應用是智能場域信息傳播的時代趨勢,算法帶來的諸多問題可以通過技術(shù)本身的優(yōu)化完善來解決。
一是著重提升算法技術(shù)的透明度,平衡用戶與算法平臺之間的信息權(quán)益。算法規(guī)制實踐分為四個路徑:提升算法透明度、推進算法倫理審查、加強算法法律規(guī)制和構(gòu)建算法治理體系。盡管世界各國對上述四個規(guī)制路徑各有側(cè)重,但相同的是均將算法公開透明作為算法規(guī)制的基礎(chǔ)性舉措,貫穿于其他規(guī)制實踐之中[15]。算法技術(shù)的透明度不僅事關(guān)個人信息權(quán)益、數(shù)據(jù)權(quán)益的保障,也事關(guān)國家網(wǎng)絡(luò)安全與制度監(jiān)管的效率。為保障算法技術(shù)真正服務(wù)于人的各項決策,有必要實質(zhì)性提升算法技術(shù)的公開透明度,明確規(guī)定算法披露的運行邏輯、重要參數(shù)、影響因子等具體事項,盡可能避免用戶與算法平臺之間的信息不對稱。一方面,應及時公開公權(quán)力機構(gòu)使用的算法,因為公權(quán)力機構(gòu)帶有明顯的權(quán)力壟斷特質(zhì),如果其使用的算法具有黑箱屬性,那么這種算法可能會產(chǎn)生歧視、偏見等問題,進而對廣大民眾帶來不利影響。對于其他公共機構(gòu)來說,可引入第三方監(jiān)管機構(gòu)保護其商業(yè)秘密和算法系統(tǒng),從而在一定程度上擺脫算法技術(shù)的透明度困境。另一方面,不應強制公開非壟斷性的商業(yè)機構(gòu)所使用的算法,因為除了商業(yè)秘密和算法知識產(chǎn)權(quán)的現(xiàn)實考量外,這種商業(yè)機構(gòu)往往具有優(yōu)化自身算法的內(nèi)生動力,算法的合理性可以通過市場競爭得到逐步改善。如消費者發(fā)現(xiàn)某家購物網(wǎng)站推薦的商品不合理,他們就可能會選擇推薦商品較為合理的同類網(wǎng)站,而該網(wǎng)站就會產(chǎn)生極大的內(nèi)生動力以優(yōu)化自身的算法。
二是循序擴大算法推薦的信息范圍,平衡個性化信息推送與多元化信息推送。算法推薦在一定程度上馴化了用戶的信息獲取方式,讓用戶牢牢依附于算法運行的邏輯理路,無形中導致用戶的思想固化、認知窄化、實踐泛化。這就要求從技術(shù)源頭上循序擴大算法推薦的信息范圍,在切實滿足人們個性化信息需求的同時豐富信息推送內(nèi)容,嘗試向用戶推薦他們可能不感興趣但卻需要重點關(guān)注的內(nèi)容。算法要動態(tài)更新平臺的關(guān)鍵詞信息庫,及時監(jiān)測或屏蔽不良信息的關(guān)鍵詞,賦權(quán)契合主流價值的關(guān)鍵詞,助力優(yōu)質(zhì)信息內(nèi)容的生成和傳播。在某些特殊情形下,相關(guān)部門也可以設(shè)立有關(guān)算法推薦的管理委員會,通過管理委員會的審查機制來確保算法推薦的合理性。當然,算法在馴化人的過程中也會被人所馴化,因此身處算法裹挾下的用戶還應具備馴化算法的能力,即在使用算法平臺的同時調(diào)整自身行為,積極對算法進行反向馴化,如減少點擊量、減少播放量、忽視信息推送等,從而盡可能減少算法推送此類信息的頻次。用戶還可通過算法平臺瀏覽其他信息,如提高時政新聞的關(guān)注度、提高不同觀點的接觸率等,從而盡可能增加算法推薦信息的多元化。
三是大力完善人—機協(xié)同的信息分發(fā)模式,平衡信息推送效率與公共管理責任。算法精準篩選、推薦、分發(fā)信息旨在滿足用戶需求,不斷謀求自身工具理性的拓展空間。在人們?nèi)諠u依賴算法技術(shù)的背景下,人們的日常行為逐漸演變?yōu)閷ο蠡臄?shù)字活動,沉浸其中的個體逐漸讓渡了分析、計算、判斷等部分理性能力。信息推送效率是算法工具理性的集中展現(xiàn),如何以人的價值理性規(guī)制算法的工具理性是一項重要課題。當前,自動化行政中的算法決策僅具有工具理性,主要作用就是輔助行政機關(guān)作出科學決策,其輔助形式會因不同級別的自動化行政而呈現(xiàn)多元化趨勢。如算法在部分自動化行政中,往往通過數(shù)據(jù)識別與分析得出初步結(jié)論后再輔助行政主體作出決策。在完全意義上的自動化行政中,算法決策系統(tǒng)可以全程處理一些不需要裁量的行政活動,即算法決策可以直接代替人的決策,但這都無法掩蓋其鮮明的工具理性。這就要求在算法設(shè)計和應用中重視人的主體性,特別是相關(guān)專家學者的有益意見和建議,通過大力完善人—機協(xié)同的信息分發(fā)模式,進而實現(xiàn)信息推送效率與公共管理責任的動態(tài)平衡,深度激發(fā)各類主體的參與意識和實踐能力,進而有效提升信息推送效率、貫徹落實公共管理責任。
(二)以主流價值觀引導人的勞動
作為一種形塑智能社會的軟性權(quán)力,算法主要通過誤導價值觀來“圈禁”人的勞動,這就需要以主流價值觀馴化算法并引導人的勞動。
一是以主流價值觀推動算法技術(shù)創(chuàng)新。目前,算法仍處于依賴算法設(shè)計者意志和構(gòu)想的弱人工智能階段。在運算代碼編排或推薦順序策劃之初,主動將主流價值觀確立為算法運行的核心原則,可以從根本上保證算法技術(shù)的價值導向[16]。算法的技術(shù)因素是其發(fā)揮價值功用的重要依托,針對目前算法價值理性嚴重缺失的現(xiàn)實困境,正確的做法是深刻反思并全面推動算法技術(shù)創(chuàng)新,通過及時調(diào)整和優(yōu)化原有的算法技術(shù)設(shè)計方案或框架,盡力消除主流價值觀融入算法的多重技術(shù)障礙。在海量信息處理階段,應將主流價值觀貫穿于信息分析和歸類的全過程,將更多契合主流價值觀的信息注入算法“信息池”。在用戶數(shù)據(jù)分析階段,應深度挖掘用戶數(shù)據(jù)價值,系統(tǒng)分析用戶的信息偏好、信息盲點,從而為算法的多元化信息推送提供數(shù)據(jù)支撐。在場景信息推送階段,應明確規(guī)定同質(zhì)化信息推送的頻次和頻率,持續(xù)向用戶推送集中體現(xiàn)主流價值觀的信息。主流媒體要充分借助算法推薦平臺傳播主流價值觀,充分利用與時俱進的算法推薦技術(shù),徹底轉(zhuǎn)變傳統(tǒng)宏大敘事的話語傳播方式,力爭建構(gòu)起兼具理性與情感的綜合性話語表達,善于將抽象的宏大敘事進行具象化呈現(xiàn),從而加快提升主流價值觀在智能場域的引領(lǐng)力和凝聚力。
二是以主流價值觀把關(guān)算法推薦信息。事實上,算法在很大程度上扮演著信息推送的重要角色,實質(zhì)上承擔了過去由媒體編輯把關(guān)信息的基本功能。這種由算法強勢介入媒介傳播形成的生態(tài)系統(tǒng),潛藏著價值觀偏離、私權(quán)侵蝕公權(quán)等諸多風險。特別是基于用戶興趣愛好的算法推薦,不僅造成了信息把關(guān)標準的降低,也造成了主流價值觀信息資源的不足。當前,算法的把關(guān)能力還處于較低水平,其信息審核能力遠未達到能夠開展價值判斷和選擇的水平。在此情形下,各類信息的把關(guān)權(quán)還不能完全交由算法來執(zhí)行,當前最合理的方式就是統(tǒng)籌結(jié)合算法把關(guān)和人工把關(guān),在充分發(fā)揮算法技術(shù)優(yōu)勢的同時突出人工審核信息的能力。因此,算法推薦信息一刻也離不開主流價值觀的引導和糾偏,要將算法審核與人工審核有機結(jié)合起來,充分發(fā)揮兩者對于算法推薦信息的雙重把關(guān)作用。這就要求逐步強化把關(guān)人員的媒介素養(yǎng)和辨別意識,著力提升其根據(jù)主流價值觀審核算法推薦信息的能力,從而最大限度地將有違主流價值觀的不良信息過濾掉。
三是以主流價值觀教育算法從業(yè)人員。算法是由人類創(chuàng)造和搭建的技術(shù)形態(tài),實際上內(nèi)嵌著人類的情感偏好和價值導向,堅持以主流價值觀教育算法從業(yè)人員,旨在全力推動算法的科學設(shè)計和良性運作。對于算法從業(yè)人員來說,相關(guān)部門要定期開展主流價值觀教育活動,努力幫助其牢固樹立正確的價值觀、倫理觀,使其具有強烈的社會責任意識和使命情懷。要進一步明確算法從業(yè)人員的數(shù)據(jù)清潔責任,將有違道德和法律原則的信息排除在算法模型外,從而防止弱勢群體的數(shù)據(jù)被邊緣化。無論是可能脫離人類控制的算法權(quán)力,抑或是在人類控制之下的算法權(quán)力,均肇始于算法設(shè)計者基于單向逐利的自主行為[17]。因此,算法設(shè)計者要以主流價值觀為指導,合理解釋算法的設(shè)計思路和基本邏輯,接受政府部門、業(yè)界專家及社會各界的全面監(jiān)督,不得故意在算法輸入端預留敏感數(shù)據(jù)的轉(zhuǎn)碼端口。算法應用者也要以主流價值觀為導向,始終與其他經(jīng)營者保持一定距離,因為如果算法應用者盲目追求個人利益最大化,可能會使算法的工具理性異化為實施共謀的技術(shù)手段,進而形成對市場長遠健康發(fā)展有害無益的競爭格局。
(三)以健全的法律法規(guī)保護人的隱私
從世界各國的實踐經(jīng)驗來看,健全算法領(lǐng)域的法律法規(guī)是時代趨勢?;诖?,我國應以健全的法律法規(guī)化解算法領(lǐng)域的潛在風險,力爭將對各類風險的管控置于法治軌道之中。
一是健全算法推薦領(lǐng)域的法律法規(guī)。算法、數(shù)據(jù)、信息、網(wǎng)絡(luò)密不可分,數(shù)據(jù)安全法、個人信息保護法、網(wǎng)絡(luò)安全法、電子商務(wù)法的相關(guān)條款能夠為算法規(guī)制提供依據(jù)[18]。當前,我國算法推薦領(lǐng)域的立法效率不高且滯后性明顯,這就要求循序強化以防范風險為重心的前置立法,逐步加強專門法與配套法之間的統(tǒng)籌規(guī)劃。相關(guān)部門要制定有關(guān)算法推薦技術(shù)發(fā)展和應用的法律法規(guī),明確各類算法推薦主體的責任和義務(wù),利用一套追溯和問責機制指導算法推薦行為的開展。要切實提高算法推薦領(lǐng)域法律法規(guī)的前瞻性和實效性,充分保障用戶在算法推薦領(lǐng)域的隱私權(quán)、知情權(quán)等。為有效應對日益棘手的算法歧視和個人信息保護困境,需要進一步完善相關(guān)法律法規(guī),規(guī)范算法收集和分析個人隱私信息的行為,厘清企業(yè)發(fā)展與信息流動、權(quán)利保護之間的關(guān)系。同時,還要建立合理、規(guī)范、高效的用戶投訴機制,及時解決涉私非法信息的網(wǎng)絡(luò)傳播問題。
二是健全算法監(jiān)管領(lǐng)域的法律法規(guī)。當前,我國尚未形成有關(guān)算法的直接監(jiān)管機制,主要是將算法引發(fā)的不良后果和法律責任分給算法平臺以實現(xiàn)算法監(jiān)管。2022年3月1日施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,明確了算法治理體制機制,科學構(gòu)建了網(wǎng)絡(luò)平臺問責體系,實行事前事中事后全流程、全鏈條的政府監(jiān)管。政府監(jiān)管的重點在于合理利用調(diào)控手段,從社會整體視角對各方權(quán)益進行平衡保護[19]。因此,我國應該盡快完善對人工智能應用的立法,明文規(guī)定人工智能技術(shù)研究和應用的領(lǐng)域、應當遵循的倫理原則,明確規(guī)范人工智能技術(shù)的倫理要求、安全標準、監(jiān)管機制[20]。健全算法監(jiān)管領(lǐng)域的法律法規(guī)是保護人的隱私的關(guān)鍵,行業(yè)主管機構(gòu)與各類媒體機構(gòu)必須依法履行算法監(jiān)管責任,定期向社會各界公開算法監(jiān)管的一系列進展和成效。
三是加大不良算法平臺的懲治力度。要加大對不良算法平臺的懲治力度,積極探索源頭治理策略并形成強大震懾力,不讓任何一條非法信息的制造者、推送者逃過法律的制裁。執(zhí)法部門要動態(tài)審查算法設(shè)計和應用的全過程,明確算法設(shè)計者和應用者學法懂法守法用法的基本義務(wù),對于一些違背公序良俗的算法設(shè)計和應用,應嚴格追究相關(guān)主體法律責任并予以嚴厲懲戒。此外,算法平臺要強化自律意識,在遵守法律法規(guī)的基礎(chǔ)上主動實施自我約束行為,做到自我把關(guān)、自我管理、自我負責。必須看到,算法平臺自律意識的養(yǎng)成是一個相對漫長的過程,應積極培育行業(yè)自律組織,推動算法行業(yè)自律公約的科學制定和全面推廣。相關(guān)部門要鼓勵算法平臺運營商、算法技術(shù)供應商、算法內(nèi)容服務(wù)商等建立形式各樣的自律組織,力爭以健全的行業(yè)自律體系推動算法領(lǐng)域自我優(yōu)化機制的形成。
參考文獻:
[1] 皮埃爾·布迪厄,華康德.實踐與反思:反思社會學導引[M].李猛,李康,譯.北京:中央編譯出版社,2004:133.
[2]賈開.算法可以中立嗎:“零工經(jīng)濟”的新可能[J].文化縱橫,2021(4):123.
[3]陳鈿瑩,龍柏林.仿像·真相·具象:擬態(tài)環(huán)境與青年意識形態(tài)認同[J].思想教育研究,2020(4):49.
[4]王星.“后真相”網(wǎng)絡(luò)環(huán)境下大學生價值引導力的提升策略[J].思想理論教育導刊,2022(9):150.
[5]許煜.論數(shù)碼物的存在[M].李婉楠,譯.上海:上海人民出版社,2019:1.
[6]馮月季.符號學視角下智能算法對人類主體性的消解及其反思[J].東南學術(shù),2022(5):55.
[7]侯東德,張可法.算法自動化決策的屬性、場域與風險規(guī)制[J].學術(shù)研究,2022(8):42.
[8]Meta與Facebook用戶達成初步和解,同意了結(jié)劍橋分析數(shù)據(jù)丑聞相關(guān)集體訴訟[EB/OL].(2022-08-28)[2023-04-22].https://baijiahao.baidu.com/s?id=1742389352175740395&wfr=spider&for=pc.
[9]孫萍,李云帆,吳俊燊.身體何以成為基礎(chǔ)設(shè)施:基于平臺勞動語境下外賣騎手的研究[J].新聞與寫作,2022(9):33.
[10]顧燁燁,莫少群.算法權(quán)力下的勞動控制:基于秀場主播勞動過程的研究[J].學習與實踐,2022(10):138.
[11]姜晨,顏云霞.“何以向善”:大數(shù)據(jù)時代的算法治理與反思[J].傳媒觀察,2022(6):39.
[12]竇悅.數(shù)據(jù)開放共享與個人隱私保護對策研究:層次數(shù)據(jù)與算法問責[J].現(xiàn)代情報,2021(7):151.
[13]中消協(xié)發(fā)布消費者權(quán)益保護年度報告[EB/OL].[2022-10-15].http://www.bj.xinhuanet.com/2022-04/23/c_1128588628.htm.
[14]夏夢穎.算法推薦隱私保護機制研究[J].編輯學刊,2021(3):26.
[15]韓萬渠,韓一,柴琳琳.算法權(quán)力及其適應性協(xié)同規(guī)制:基于信息支配權(quán)的分析[J].中國行政管理,2022(1):36.
[16]管秀雪.算法文化環(huán)境下青年價值表達的理論審視[J].思想教育研究,2022(9):153.
[17]趙一丁,陳亮.算法權(quán)力異化及法律規(guī)制[J].云南社會科學,2021(5):127.
[18]任穎.算法規(guī)制的立法論研究[J].政治與法律,2022(9):103.
[19]黃毅,宋子寅.大數(shù)據(jù)背景下“算法殺熟”的法律規(guī)制[J].中州學刊,2022(4):53.
[20]潘志玉.人工智能應用的倫理風險及法治應對[J].學習與探索,2022(7):67.
【責任編輯:張曉妍】