李仕生,石鮮鮮
短視頻是指在互聯(lián)網(wǎng)上傳播時長為幾秒到幾分鐘不等的視頻,具有碎片化、互動性、豐富性的特征。在算法推薦技術(shù)的加持下,短視頻成為強大的“時間殺手”,讓一些人沒日沒夜地深陷其中。算法推薦技術(shù)在短視頻傳播的運用,衍生出了低俗惡搞、色情暴力、侵犯他人隱私等倫理失范問題。我們需要重視這些問題,并通過各種途徑加以治理,進行短視頻的倫理重構(gòu)。
自從現(xiàn)代的信息傳播和智媒技術(shù)接軌,短視頻平臺的內(nèi)容分發(fā)完成了從“人找信息”到“信息找人”的轉(zhuǎn)變[1]。算法推薦技術(shù)使用戶在信息過剩的當下,獲得更加精準的個人偏好信息。在這個過程中,算法推薦模型自身也在不斷發(fā)展和完善。
協(xié)同推薦算法是較早產(chǎn)生并運用于電子商務(wù)信息分發(fā)的算法。電商平臺根據(jù)用戶的下單、收藏、加購等信息進行預(yù)判。協(xié)同推薦算法運用到短視頻領(lǐng)域時,對用戶行為的衡量指標主要有完播率、點贊量、評論量、轉(zhuǎn)發(fā)量等。但面對新用戶入駐,基于用戶行為數(shù)據(jù)的協(xié)同推薦算法難以短時間內(nèi)匹配其需求,于是又衍生出了內(nèi)容推薦算法。內(nèi)容推薦算法可以計算每位用戶的核心興趣點,豐富用戶畫像模型。內(nèi)容推薦算法技術(shù)的運用,使平臺一開始就可以根據(jù)用戶的性別、年齡、需求等元數(shù)據(jù)建立“畫像”,描繪出用戶的興趣愛好“圖譜”,進而“投其所好”,向用戶推薦其最可能感興趣的信息。
2021年2月5日,科技創(chuàng)投媒體“36氪”網(wǎng)站在《快手上市背后:短視頻行業(yè)進入2.0戰(zhàn)爭時代》一文中提出了“短視頻2.0時代”的概念。短視頻2.0時代的競爭重心在于洞察用戶動機、連接萬物的能力。與此相對應(yīng),當下的算法推薦系統(tǒng)一般綜合運用協(xié)同過濾和內(nèi)容推薦兩種模型,并加入機器學習、深度學習等人工智能技術(shù),把推薦機制從用戶端更多轉(zhuǎn)向內(nèi)容端[2]。舉例來說,如今的智能算法推薦技術(shù)為每個新作品賦予一定的基礎(chǔ)推薦量,根據(jù)傳播情況增加推薦量或者終止推薦。
相比于在信息爆炸情況下的大浪淘沙,如今的短視頻平臺在內(nèi)容分發(fā)方面更加高效精準,由此引發(fā)的算法倫理問題也受到廣泛關(guān)注。算法倫理,指算法越來越多地代替人類智慧進行決策所引發(fā)的倫理危機[3]。而算法技術(shù)下短視頻傳播的倫理失范,指的是平臺在算法決策的過程中,由于資本控制、價值判斷失衡、技術(shù)偏差等因素,產(chǎn)生一系列倫理風險,對用戶產(chǎn)生某些負面影響。正如加拿大傳播學者麥克盧漢在“媒介是人的延伸”的基礎(chǔ)上提出的“延伸意味著截除”,意指有些媒介工具會使人自身某些功能退化[4]。算法被喻為人腦的延伸,給用戶帶來了諸多技術(shù)便利,但同時用戶的部分自主性也被算法決策削弱,從而陷入倫理失范的困境中。
短視頻平臺使用算法技術(shù)的初衷主要是為了促進信息分配精準、高效。但在實操中,這樣的初衷有時會和用戶的需求存在偏差甚至背道而馳。
1.創(chuàng)作端:過度重視內(nèi)容識別,輕視用戶需求
算法技術(shù)對短視頻內(nèi)容有一套完整的識別體系,按照推薦權(quán)重的重要性依次是點贊量、評價量、轉(zhuǎn)發(fā)量、完播率、復(fù)播率等指標。一些用戶深諳識別指標的重要性,于是就想辦法去迎合,投其所好。例如,在抖音平臺上存在大量以“互關(guān)互贊,抱團取暖”為標簽的短視頻,評論區(qū)中經(jīng)常出現(xiàn)網(wǎng)友的“誠實第一,從不欠贊”“高質(zhì)量禮尚往來新作品”之類的回復(fù)。這些行為的出發(fā)點,都是用戶想迎合算法技術(shù)的邏輯,讓其作品獲得足夠的點贊量、評價量、轉(zhuǎn)發(fā)量、完播率、復(fù)播率等。但是,平臺應(yīng)更看重用戶對信息的真實性、重要性、權(quán)威性等需求。一則具有高點贊數(shù)的短視頻并不必然體現(xiàn)它的信息價值,可能只是用戶“互關(guān)互贊”下的成果。因此,平臺過度重視內(nèi)容的可識別性可能會帶來用戶真實需求的缺位。
2.算法端:把用戶表面行為誤讀為深層興趣
用戶接觸最多的短視頻只能說明用戶的大概喜愛程度,不能囊括用戶的所有喜好[5]。一方面,在設(shè)置元數(shù)據(jù)標簽時,很多用戶出于理性選擇有價值的信息,但在獵奇欲、窺私欲等本能驅(qū)使下,絕大多數(shù)用戶對于內(nèi)容的需求日趨集中[2]。以抖音為例,從互聯(lián)網(wǎng)內(nèi)容科技公司“新榜”提供的數(shù)據(jù)來看,2021年11月漲粉排行月榜的前3名分別為:劇情創(chuàng)作者“張同學”(1034.5w)、美妝達人“柳夜熙”(569.1w)、音樂博主“可愛屁”(533.9w)。這些抖音賬戶的內(nèi)容較為淺顯、獵奇,容易吸引用戶眼球,滿足了其娛樂需求。用戶一開始可能只是出于好奇,或是為了學習某項技能接觸這一類淺層次的信息,但算法卻有可能將其一次性點擊解讀為深層興趣。另一方面,受制于日常心境的變化,用戶可能在心情不好時點擊主題比較頹喪的視頻,或在肚子餓時觀看吃播視頻,抑或是在失戀時關(guān)注情感治愈類視頻。但是這種情緒并不是持續(xù)性的,用戶也不需要平臺一直推薦這類視頻。
3.用戶端:固化群體偏見,加深群體區(qū)隔
隨著我國農(nóng)副產(chǎn)品越來越快地參與國際市場流通,國外對畜產(chǎn)品質(zhì)量的嚴格要求無疑是對我國的一個沖擊。為使我國畜產(chǎn)品盡快達到國際水準,筆者認為政府部門首先要提高對發(fā)展畜牧業(yè)機械化的重視,從畜牧飼養(yǎng)機械推廣、專業(yè)飼養(yǎng)人才培養(yǎng)、畜產(chǎn)品銷售保障等多方面給予扶持和鼓勵,促使農(nóng)民生產(chǎn)觀念的轉(zhuǎn)變。另外,畜牧業(yè)規(guī)?;墙窈蟮陌l(fā)展趨勢,規(guī)?;拍苡行Ы档统杀竞驮鰪姷钟L險的能力,有利于保障產(chǎn)品的品質(zhì)和供給穩(wěn)定。而機械化與規(guī)?;g存在相互推進的關(guān)系,因此,為使我國逐漸發(fā)展成為畜牧強國,我們還要鼓勵規(guī)?;B(yǎng)殖。
算法推薦技術(shù)的作用機制主要表現(xiàn)在兩個方面:一是借助代際差異進行群體定位,二是參照群體定位調(diào)整自身行為。代際差異指的是中老年人和年輕人之間的代溝,反映在短視頻上便是觀看內(nèi)容的大相徑庭。中老年人更為青睞實用性的短視頻,比如關(guān)于長壽秘訣、疾病預(yù)防方法、健康食譜等類型的內(nèi)容。基于中老年人群體偏好的內(nèi)容,平臺利用算法推薦技術(shù)向其推薦了高度同質(zhì)化的視頻,形成了信息閉環(huán)。而對于年輕人,抖音可能會給他們推薦搞怪、游戲、二次元等主題的短視頻。由此,算法推薦技術(shù)借助代際差異對中老年人和年輕人進行了群體定位。
基于群體定位,用戶自身形成行為規(guī)范,對于超出群體標簽的行為會產(chǎn)生一定程度的排斥,還可能加深彼此的刻板印象。比如在一些論壇中出現(xiàn)了這樣的帖子:“抖音算法是給我淘汰了嗎?我已經(jīng)很努力在搜小哥哥跳舞、美女變妝視頻、影視劇解說,怎么還在一個勁兒給我推薦土味視頻?。俊贝蟛糠秩苏J為自己的圈子才是獨特、優(yōu)越的空間,由此社會群體身份認同的區(qū)隔可能進一步加深。
許多短視頻用戶有這樣的感受:有時候打開抖音看幾個短視頻,不知不覺就過了一兩個小時。留給工作和學習的空間不斷被短視頻擠壓,時空緊張感油然產(chǎn)生[6]。短視頻的觀看情境較為靈活,在一定程度上滿足了用戶的碎片化信息需求,但如果過分沉迷其中,則會導(dǎo)致虛擬和真實界限的模糊,最終使得用戶身處迷惘之中。比如有的用戶喜歡看網(wǎng)紅跳舞的視頻,看了一遍不過癮,還要多次看并點贊、收藏甚至關(guān)注。那么算法系統(tǒng)就會認定該用戶很喜歡看這類視頻并對其進行同類推薦,使其陷入短視頻的“旋渦”無法自拔。
用戶時空緊張感并不只反映在心理的緊迫上,還可能導(dǎo)致在生理層面和社會層面出現(xiàn)新的問題。在生理層面,短視頻帶來的時空侵入會讓用戶患上拖延癥。與非拖延者相比,沉浸在短視頻中的拖延者可能會面臨更多的壓力,產(chǎn)生更大的焦慮感或自我批評的思想。此外,在社會層面,時空緊張感會帶來群體性孤獨。有時候人們雖然共處一個時空場域,但沉迷于短視頻的他們并沒有在彼此間建立深層次的聯(lián)系。有句流行語為“世界上最遙遠的距離,莫過于我在你身邊,你卻在玩手機”,這句話表達的處境就與時空緊張感下的群體性孤獨相似。鑒于此,在2018年,抖音就上線了反沉迷系統(tǒng),加強對用戶的主動提醒。但這個系統(tǒng)能起到多大的作用,實在不容樂觀。
2021年12月,央視報道稱“某紅書”APP不時給用戶推送含有大量未成年人身體隱私的短視頻,引起了網(wǎng)友對其隱私管理的討論。采集用戶部分信息是算法推薦技術(shù)發(fā)揮作用的前提,但過度采集用戶隱私會陷入道德失范甚至觸碰法律紅線。
法國哲學家福柯把人類社會的控制方式比喻為全景監(jiān)獄:在一所監(jiān)獄中,獄卒對罪犯進行全天候、全方位的監(jiān)視,但是罪犯卻無法看到獄卒的存在[7]。短視頻的信息環(huán)境就像“超級全景監(jiān)獄”,算法操縱者暗箱操作,將用戶的喜怒哀樂置于眼底并做出一系列引導(dǎo)行為。算法到底如何過濾和排序信息對絕大部分用戶而言是“技術(shù)黑箱”,用戶的隱私得不到足夠保障,只能被算法凝視和控制。
2020年7月30日,北京互聯(lián)網(wǎng)法院的一個判決引發(fā)關(guān)注。案件中,法學博士生小凌起訴抖音、多閃等短視頻APP,聲稱這兩則APP在沒有獲得許可權(quán)限的情況下,通訊錄中的好友就出現(xiàn)在了視頻推薦界面[8]。像小凌這樣對于隱私權(quán)敏感且勇于較真的用戶是少數(shù),大多數(shù)用戶是選擇忍受。而平臺對于用戶的個人信息索取近乎“強制”。比如,不少用戶都有這樣的感受:在使用某些APP時,對隱私協(xié)議只有“勾選”的權(quán)利。“同意就使用,不同意就不給用”的選擇實際上具有強制意味,讓用戶喪失了公平的話語權(quán)。截至2021年9月,抖音系DAU(日活躍用戶數(shù)量)增長至約6.4億。而用戶使用規(guī)模越大,短視頻平臺對于隱私權(quán)限的濫用越令人擔憂。
2018年4月13日,《人民日報》海外版發(fā)表文章《算法也有價值觀》,文中駁斥了今日頭條創(chuàng)始人張一鳴的“算法沒有價值觀”之言論。但近些年來,不斷有學者認為,算法的中立性是一個偽命題[9]。因為算法是一系列解決問題的清晰指令,但問題的性質(zhì)在被提出和被界定之前就帶有強烈的背景和意圖。這也意味著算法推薦從誕生那一刻起就必然夾帶著算法創(chuàng)設(shè)主體的意志[10]。在算法創(chuàng)設(shè)主體的意圖下,本該服務(wù)于用戶本身的算法容易異化出算法歧視與偏見。
算法推薦技術(shù)導(dǎo)致的歧視與偏見指的是在內(nèi)容分發(fā)時,由于政治權(quán)力、商業(yè)資本、算法設(shè)計者價值判斷等因素造成的決策不客觀[11]。算法是由機器工程師設(shè)計的,因而技術(shù)本身必然融入了人的價值判斷,算法推薦技術(shù)帶來的判斷失誤也可以視為人的某種“歧視與偏見”。據(jù)媒體報道,2015年5月美國一黑人程序員發(fā)現(xiàn),她和一位黑人女性朋友的自拍照,被Google打上了大猩猩的分類標簽。這種不尊重人種的表現(xiàn)是由于算法設(shè)計者針對內(nèi)容標簽的設(shè)置有誤,給當事人造成了很大的心理傷害[12]。再如,《華盛頓郵報》調(diào)查117名美國用戶后發(fā)現(xiàn),F(xiàn)acebook會根據(jù)性別、設(shè)備使用習慣、居住地等進行差異化推送,像某些信息只推送給農(nóng)村用戶而非城市用戶,或推送給大部分女性用戶而非男性用戶[11]。算法歧視與偏見下,人們以往的角色特性被進一步固化。就像一些人工智能招聘系統(tǒng)一般,算法在篩選掉不符合預(yù)期簡歷的同時,也剝奪了不同人群間流動的機會。
在算法全方位融入社會生活的背景下,數(shù)字人權(quán)理論逐漸進入人們的視野。數(shù)字人權(quán)理論主張數(shù)字科技要以人為本[10]。將數(shù)字人權(quán)理論放在短視頻時代,意味著算法推薦技術(shù)應(yīng)該以人為本,充分尊重用戶的個人利益環(huán)境。為對短視頻的倫理進行重構(gòu),短視頻平臺、用戶、公權(quán)力組織需要多方合力解決。
不少短視頻平臺的流量集中在熱度較高的頭部視頻上,對于尾部作品的分發(fā)缺少關(guān)注。抖音中粉絲基數(shù)大、歷史數(shù)據(jù)好的賬號才能進入熱門流量池,繼而攫取平臺大部分流量。為了縮小流量的“貧富差距”,平臺應(yīng)嘗試進行頭部視頻的限流和尾部內(nèi)容的托底。如快手的“基尼系數(shù)”機制,就很好地調(diào)控了注意力資源。發(fā)在快手上的視頻至少能獲得100個人的基礎(chǔ)用戶量,當視頻的觀看時長、點贊、評論達到相應(yīng)閾值,其推薦量會被降權(quán)處理?!盎嵯禂?shù)”機制下,平臺中三成的流量會分配給頭部視頻,大多數(shù)的熱度可以賦予容易被人遺忘的尾部內(nèi)容。
目前,短視頻的算法推薦指標主要關(guān)注三個維度:性別、年齡、職業(yè)等用戶基本信息;地域、天氣等環(huán)境信息;標題、摘要、音樂、燃點等短視頻自身信息[13]。當三個維度的特征匹配時,算法便會預(yù)測出每個用戶群的瀏覽方向。這種推薦模型可以最大化地集成用戶的感知信息,但是缺少了內(nèi)容價值判斷維度的約束。因此,短視頻平臺要在顯性指標的基礎(chǔ)上,加入用戶滿意度、內(nèi)容影響、真實性、時效性等價值判斷指標,向用戶呈現(xiàn)重新加權(quán)的推薦結(jié)果。對于目前算法推薦的單一性,業(yè)界有過多種措施。Google曾推出“逃離泡沫”插件,該插件可以針對那些審美異化的用戶,反向推薦格調(diào)積極的內(nèi)容,使之逃離同質(zhì)化的“信息泡沫”?!度A爾街日報》曾推出“紅推送,藍推送”,該插件可以向用戶推送臉書上同一內(nèi)容中雙重傾向的信息??傊藢ΤR?guī)的用戶畫像進行設(shè)置,短視頻平臺需要拓展算法推薦維度。當推薦模型的衡量指標不再局限于轉(zhuǎn)贊評等顯性數(shù)據(jù),而能夠從技術(shù)倫理的角度去完善價值體系時,社會各界就能更自如地應(yīng)對智媒時代的挑戰(zhàn)。
當算法推薦技術(shù)在短視頻傳播過程中衍生出倫理問題時,算法素養(yǎng)的概念應(yīng)運而生。
算法素養(yǎng)就是要培養(yǎng)人們與算法的共存能力[14]。算法素養(yǎng)要求用戶對推薦內(nèi)容具備自我把關(guān)意識,學會“馴化”算法。例如,用戶可以有意識地閱讀、停留等,調(diào)整算法參數(shù)。具體而言,面對更有價值的內(nèi)容,用戶可以延長閱讀時間以留下興趣點的足跡;面對意義不大的內(nèi)容,用戶可以采取不點贊、不評論、不關(guān)注的“三不原則”,明確對該內(nèi)容的態(tài)度。以微信視頻號為例,在基于善意的情況下,用戶可以長按短視頻內(nèi)容界面,點擊“不感興趣”或“投訴”。點擊前者后,短視頻將會彈出“將減少此類推薦”的提示信息;點擊后者,則需進一步標注“投訴”原因,如勾選“低俗色情”“垃圾廣告”“謠言欺詐”等。
2016年12月23日,人民網(wǎng)評論在《算法盛行更需“總編輯”》一文中呼吁:算法主導(dǎo)的時代,更需要有態(tài)度、有理想、有擔當?shù)摹翱撮T人”[15]。這里的“看門人”,可指具有一定算法素養(yǎng)、能夠?qū)?nèi)容自我把關(guān)的短視頻用戶。由于算法推薦技術(shù)的獨特性,用戶可以通過一系列反饋進行算法“馴化”,引導(dǎo)短視頻的內(nèi)容展示。正如美國傳播學者丹尼斯和德弗勒所言,今天數(shù)字媒介的倫理問題主要集中在一些普通個人或者說媒介本身上[16]。從這個角度上來講,擁有一定算法素養(yǎng)的用戶,也是算法社會時代的“看門人”。
人們的認知中往往存在一個誤區(qū),那就是算法推薦技術(shù)必然是工具理性的代表,和價值理性完全對立。事實上算法思維和價值理性不是非此即彼的關(guān)系,算法推薦技術(shù)和價值理性在一定條件下具有共通的可能。但如今,各家短視頻平臺為了在激烈的市場競爭中占據(jù)一席之地,有時會罔顧內(nèi)容傳播的價值理性。此時若有公權(quán)力的介入,或許有利于促進短視頻市場的技術(shù)向善,從而盡可能規(guī)避算法推送中的倫理失范風險。公權(quán)力的介入首先在于發(fā)揮監(jiān)管功能,但又不能損害短視頻平臺的正當商業(yè)利益。例如,由政府監(jiān)督人員、行業(yè)代表、高校學者共同組成一個“算法審查委員會”,從更為專業(yè)的角度增加算法決策的透明性,幫助公眾適當打破“算法黑箱”[17]。在算法審查委員會中,政府監(jiān)督人員從行政的角度對算法進行監(jiān)管,行業(yè)代表從商業(yè)的角度對算法進行維護,高校學者從新聞專業(yè)的角度給予建議。
在司法層面,當前我國公益訴訟的訴訟標的絕大多數(shù)集中于環(huán)境污染和食藥安全[18],針對智能算法技術(shù)的公益訴訟救濟力度不夠。2020年11月,在江西電視臺都市頻道的心理援助節(jié)目《幸福配方》中,有一位61歲的女子黃月,因癡迷抖音上頻繁刷到的“假靳東”而整日茶飯不思。真靳東作為名人,有足夠的社會資源與抖音對簿公堂。但對于普通人而言,要想維權(quán)難上加難。目前,作為一種新型技術(shù)性工具,算法規(guī)制存在法律概念界定不清晰、適用范圍模糊等法律缺位問題[19]。再加上算法黑箱所形成的信息壁壘,司法部門針對算法的公益訴訟救濟體系并不完善,接到相關(guān)訴訟時往往難以受理。因此,將算法侵權(quán)案例納入公益訴訟案件范圍,完善公共法律服務(wù)體系,司法才不會滯后于最新的訴訟救濟需求。
在信息過載的時代,算法推薦技術(shù)讓短視頻用戶實現(xiàn)了“私人定制”,但也延伸出頗多倫理失范問題,包括平臺開發(fā)算法的初衷與用戶需求產(chǎn)生偏差,用戶時空緊張感加劇,用戶隱私的被動讓渡以及在內(nèi)容分發(fā)環(huán)節(jié)出現(xiàn)的歧視和偏見現(xiàn)象。要對短視頻傳播過程中產(chǎn)生的倫理失范問題進行治理,必須優(yōu)化算法推薦服務(wù)機制,推動短視頻平臺運營者、用戶、公權(quán)力三方共同參與,為規(guī)范短視頻行業(yè)的健康發(fā)展保駕護航。