路 鵑,付礫樂,張釗丹
(北京體育大學(xué) 新聞與傳播學(xué)院,北京 100084;北京大學(xué) 新聞與傳播學(xué)院,北京 100087;北京工商大學(xué) 傳媒與設(shè)計(jì)學(xué)院,北京 100037)
根據(jù)北京貴士信息科技有限公司(QuestMobile)統(tǒng)計(jì)數(shù)據(jù)顯示,截至2021 年年底,中國移動(dòng)互聯(lián)網(wǎng)活躍用戶中,短視頻用戶達(dá)9.34 億。其中,抖音短視頻以8.09億的用戶數(shù)位居短視頻行業(yè)第一,短視頻作為社交媒體仍處于使用紅利期?!叭ブ行幕钡亩桃曨l平臺(tái)賦予了普通用戶生產(chǎn)和傳播視頻內(nèi)容的權(quán)利,但隨著私人生活在公共平臺(tái)上被持續(xù)放大,短視頻中的隱私界限進(jìn)一步被模糊,滋生出更多隱私泄露的問題。究其原因,包括自然人信息主體對(duì)自身隱私泄露可能性的風(fēng)險(xiǎn)評(píng)估較低,存在隱私泄露擔(dān)憂的心理與個(gè)人披露隱私行為之間形成的“隱私悖論”,同時(shí),短視頻傳播內(nèi)容豐富、傳播渠道多元、信息接收碎片化程度高,加大了平臺(tái)審核的難度。
對(duì)規(guī)制主體而言,短視頻平臺(tái)的隱私保護(hù)政策尤其是針對(duì)短視頻等視頻傳播中隱私泄露風(fēng)險(xiǎn)的保護(hù)與治理存在界定難、落地難、推進(jìn)難等現(xiàn)實(shí)問題。當(dāng)前,我國頒布的《網(wǎng)絡(luò)視聽節(jié)目內(nèi)容審核通則》《網(wǎng)絡(luò)短視頻內(nèi)容審核標(biāo)準(zhǔn)細(xì)則》等條例,其治理的焦點(diǎn)仍聚集于審核內(nèi)容的政治導(dǎo)向、價(jià)值導(dǎo)向和審美導(dǎo)向等層面,對(duì)于短視頻中泄露的隱私信息是否應(yīng)該刪除,以及平臺(tái)方的刪除時(shí)限等問題的規(guī)定乏善可陳。僅靠用戶自覺和政府規(guī)制難以實(shí)現(xiàn)對(duì)短視頻平臺(tái)的全面監(jiān)管,算法治理在短視頻內(nèi)容審核分發(fā)等方面作用巨大。
技術(shù)理性本應(yīng)是工具理性與價(jià)值理性的內(nèi)在統(tǒng)一[1],隨著人類技術(shù)實(shí)踐活動(dòng)的擴(kuò)展和深化,技術(shù)理性內(nèi)在的矛盾以一種單向度的、異化的形式呈現(xiàn)出來,即工具理性壓倒價(jià)值理性、技術(shù)的價(jià)值理性萎縮成極度膨脹的工具理性的單純附屬物[2]。在短視頻平臺(tái)中,強(qiáng)大的數(shù)據(jù)處理能力能夠有效提高隱私侵權(quán)等問題的治理效率和精準(zhǔn)度,系統(tǒng)通過自動(dòng)的數(shù)據(jù)采集、整合分析,可以有效降低短視頻平臺(tái)治理的成本。抖音作為現(xiàn)象級(jí)的短視頻平臺(tái),用戶基數(shù)大、活動(dòng)頻率高,其隱私泄露問題也更加典型?;诖耍狙芯繌亩桃曨l的隱私泄露問題入手,通過對(duì)內(nèi)容生產(chǎn)者與平臺(tái)監(jiān)管者進(jìn)行訪談,研判隱私泄露問題與短視頻的技術(shù)特征和用戶心理的關(guān)系,探討通過算法治理如何有效解決短視頻使用中潛在的隱私擔(dān)憂問題。
因?yàn)殡[私本身難以被測量,管理學(xué)領(lǐng)域的學(xué)者引入“Privacy Concerns”的概念來考察公眾的隱私態(tài)度,通過相關(guān)變量來測量隱私[3]。這一詞匯對(duì)應(yīng)兩種意涵,其一為“隱私關(guān)注”。在1968 年,Westin 將隱私關(guān)注定義為主觀上個(gè)人在隱私情境中感受道德公平的程度。后續(xù)鄰近定義又將它與“公平”“隱私情境”“主觀感受”等內(nèi)容相融合[4]。1996年,史密斯(Smith H.J.)針對(duì)網(wǎng)絡(luò)環(huán)境提出了“信息隱私關(guān)注”的概念——“由于可能損失信息隱私而引起的用戶內(nèi)在關(guān)注”[5]。有學(xué)者認(rèn)為,隱私關(guān)注是一種公平程度,是個(gè)人針對(duì)相應(yīng)隱私情境的主觀感受[6]。迪涅夫與哈特(Dinev&Hart)則根據(jù)相關(guān)學(xué)者的觀點(diǎn)將隱私關(guān)注定義為消費(fèi)者自愿或無意向B2C 電子商務(wù)網(wǎng)站泄露個(gè)人信息后,引發(fā)其對(duì)信息隱私的關(guān)注[7]。網(wǎng)絡(luò)環(huán)境的發(fā)展更新了隱私關(guān)注的概念,即“在相應(yīng)的隱私情境中,個(gè)人主觀感受到的公平程度”[8]。
在網(wǎng)絡(luò)環(huán)境中,隱私被侵犯給用戶帶來的危機(jī)感越發(fā)明顯。Rifon 等學(xué)者將隱私關(guān)注定義為一種與隱私泄露和隱私侵害相關(guān)聯(lián)的一系列特殊的信息意識(shí)和感知[9],更加凸顯出“擔(dān)憂”的色彩。此為“Privacy Concerns”的第二種理解——“隱私擔(dān)憂”。例如在廣告信息推薦過程中,當(dāng)網(wǎng)站對(duì)消費(fèi)者的個(gè)人信息進(jìn)行監(jiān)視、存儲(chǔ)和未經(jīng)授權(quán)的使用時(shí),消費(fèi)者會(huì)對(duì)無法控制易受供給的個(gè)人信息而感到憂慮[10]。當(dāng)個(gè)體遭遇隱私侵害或信息泄露時(shí),自身的隱私擔(dān)憂會(huì)被喚醒或得到提升[11]。用戶的隱私擔(dān)憂受年齡、受教育程度等多重因素影響,用戶接觸不同媒體時(shí)對(duì)個(gè)人信息保護(hù)意識(shí)也呈現(xiàn)出差異性——社交媒體的媒介接觸頻度與其隱私擔(dān)憂之間存在顯著的正相關(guān)關(guān)系[12]。研究表明,用戶信息的隱私擔(dān)憂會(huì)對(duì)其使用社交媒體的態(tài)度、行為產(chǎn)生負(fù)面影響[13],也有研究持相反結(jié)論[14],但隱私擔(dān)憂確實(shí)是影響青年網(wǎng)民個(gè)人信息披露和隱私保護(hù)行為的重要變量[15],網(wǎng)絡(luò)信息接觸對(duì)青年網(wǎng)民的隱私擔(dān)憂和個(gè)人信息提供行為具有直接的正向促進(jìn)作用,但權(quán)利保障感知也會(huì)間接加劇用戶的隱私擔(dān)憂[16]。這些研究打破了隱私權(quán)長期以來沿襲的具體衡量指標(biāo),將隱私的語境性和靈活性作為重要參考,更適合我國隱私權(quán)研究的路徑選擇。
以短小、碎片化的視頻內(nèi)容為傳播基礎(chǔ)的短視頻,不僅降低了個(gè)體以媒介化手段建構(gòu)社會(huì)圖景、參與社會(huì)實(shí)踐的門檻,也為個(gè)體自我書寫和形成社會(huì)互動(dòng)提供了更為便利的媒介工具。一方面,無論是單純的觀看,還是“一鍵三連”——點(diǎn)贊、評(píng)論、轉(zhuǎn)發(fā)等使用行為,以及制作發(fā)布短視頻內(nèi)容等主動(dòng)分享行為,用戶暴露出的媒介使用偏好、行為數(shù)據(jù)和視頻中的可識(shí)別身份信息,無形中擴(kuò)大了自身網(wǎng)絡(luò)視頻環(huán)境中可分享的隱私范圍;另一方面,社交媒體過度搜集個(gè)人隱私信息的現(xiàn)象也同樣存在于短視頻平臺(tái)?!按髷?shù)據(jù)便于挖掘和定位,易于對(duì)個(gè)體進(jìn)行數(shù)據(jù)畫像,建構(gòu)關(guān)于個(gè)體的完整形象,從而使全方位全程監(jiān)控個(gè)體成為可能”[17],而權(quán)力技術(shù)化和技術(shù)權(quán)力化的交互影響與疊加,催生了公共權(quán)力與經(jīng)濟(jì)權(quán)力“聯(lián)姻”而導(dǎo)致的信息宰制[18]。2019年,引起諸多討論的“深度偽造”短視頻存在傳播不良、虛假內(nèi)容的風(fēng)險(xiǎn)[19],這在一定程度上模糊了短視頻內(nèi)容的權(quán)責(zé)認(rèn)定邊界,增加了侵權(quán)追責(zé)難度,用戶隱私保護(hù)成為亟待解決的現(xiàn)實(shí)問題。
用戶對(duì)短視頻的隱私關(guān)注及應(yīng)對(duì)隱私侵權(quán)時(shí)的媒介素養(yǎng),乃是解決這一問題的關(guān)鍵。當(dāng)用戶在短視頻平臺(tái)獲得強(qiáng)價(jià)值感知時(shí),其對(duì)該社交媒體的使用依戀程度越高,自身歸屬感也越強(qiáng)。除個(gè)體的隱私認(rèn)知水平對(duì)隱私擔(dān)憂程度及類型有直接影響之外,“社交媒介使用者所在的用戶群體也對(duì)其隱私認(rèn)知產(chǎn)生影響”[20]。用戶對(duì)以短視頻平臺(tái)為代表的社交媒體的隱私擔(dān)憂與其他渠道不同,因?yàn)樯缃幻襟w鼓勵(lì)用戶披露個(gè)人信息,但當(dāng)隱私擔(dān)憂成為信息發(fā)布的考量因素后,用戶會(huì)有意識(shí)地減少信息披露數(shù)量、頻率或展示周期[21]。這也表明,在存在人際交往的社交語境里,對(duì)隱私泄露的顧慮呈顯性化趨勢,移動(dòng)短視頻中的人際交往,無形中提高了用戶對(duì)隱私的關(guān)注度[22]。
在以算法為基礎(chǔ)的短視頻社交平臺(tái)信息分享過程中,隱私問題的顯性化更顯示出以算法為治理手段的必要性——為完善平臺(tái)自治缺陷、彌補(bǔ)用戶及監(jiān)管部門的疏漏提供了更多的路徑選擇。1984年,美國的《電子監(jiān)控與人民自由》報(bào)告指出,過去20 年間已有約四分之一的部門將“計(jì)算機(jī)化的系統(tǒng)”用于“執(zhí)法、調(diào)查或情報(bào)用途”[23],可見算法作為治理手段自20 世紀(jì)60 年代便已有之。其后,聚焦于關(guān)鍵場景算法透明公平的“法律”、趨于共識(shí)的算法倫理“規(guī)范”和邁向算法可解釋的“代碼”,貫穿了長達(dá)半個(gè)世紀(jì)的算法治理進(jìn)程[24]。算法治理的優(yōu)勢在于自動(dòng)、高效,通過透明度規(guī)則、算法倫理法律化和算法驗(yàn)證評(píng)估制度確保算法自身的可信度,并采取短期、中期和長期方案穩(wěn)步推進(jìn)[25]。人工智能為社會(huì)治理提供了數(shù)據(jù)基礎(chǔ),“治理體系的算法化”開始萌生[26]。通過算法技術(shù)將復(fù)雜的社會(huì)運(yùn)行體系映射在多維、動(dòng)態(tài)的數(shù)據(jù)體系之中,持續(xù)積累社會(huì)運(yùn)行的數(shù)據(jù)特征,可實(shí)現(xiàn)應(yīng)對(duì)各類社會(huì)風(fēng)險(xiǎn)、提升社會(huì)治理有效性[27],促使社會(huì)治理主體更加主動(dòng)地防范化解社會(huì)風(fēng)險(xiǎn)[28]的目標(biāo)任務(wù)。算法治理雖然涉及諸多領(lǐng)域,但有學(xué)者指出,其治理的邏輯起點(diǎn)應(yīng)回到“技術(shù)、人與社會(huì)的良性互動(dòng)關(guān)系”上[29];在內(nèi)容推送的應(yīng)用上,應(yīng)建立“以人為本、以影響力為追求、以結(jié)構(gòu)建設(shè)為入口、以公共性為底線”的基本價(jià)值觀[30]。以治理假新聞為例,算法治理可以從“借助算法治理、利用算法治理和依賴算法治理”三個(gè)層面展開[31],且前兩個(gè)層次目前可實(shí)現(xiàn),意味著算法治理的實(shí)際應(yīng)用潛力巨大。
將算法作為社會(huì)治理的手段之一近年來漸成趨勢。不可否認(rèn),算法形式的“有限性、確定性和有效性”與法律的運(yùn)作形式自有共性[32]。但兩者兼容過程中的沖突也不可忽視,如2013 年美國“盧米斯案”,該案為2013 年美國威斯康辛州以五項(xiàng)罪名指控埃里克·盧米斯(Eric Loomis)與拉克羅斯(La Crosse)駕車射擊案有關(guān),但因量刑依據(jù)了依靠自動(dòng)化決策的COMPAS 風(fēng)險(xiǎn)評(píng)估工具而引發(fā)爭議,法院依據(jù)自動(dòng)化評(píng)估工具COMPAS 對(duì)被告盧米斯的量刑判決顯示出算法介入法律的四點(diǎn)爭議:依據(jù)算法量刑的準(zhǔn)確性風(fēng)險(xiǎn)——是否符合被告的犯罪事實(shí);透明性風(fēng)險(xiǎn)——算法計(jì)算過程中的保密性與法律量刑的公開性之間存在沖突;識(shí)別性風(fēng)險(xiǎn)——法官能否識(shí)別算法帶來的風(fēng)險(xiǎn);歧視性風(fēng)險(xiǎn)——是否存在對(duì)性別或種族等社會(huì)身份的不公正量刑[33]。實(shí)際上,算法在不知不覺中替代人在信息傳播中的把關(guān)角色,代替人行使了塑造擬態(tài)環(huán)境的社會(huì)權(quán)力,構(gòu)造了新型的“算法政治”與權(quán)力關(guān)系[34],并衍生出“算法歧視”問題——面對(duì)算法自動(dòng)化決策中因決策過程不透明和信息不對(duì)稱對(duì)某些群體造成的歧視。如何避免算法黑箱帶來的不透明、不公正等潛在風(fēng)險(xiǎn)是算法治理實(shí)踐中需直面的問題之一。
短視頻的互動(dòng)性增強(qiáng)了用戶的吸引力。尤其是豎屏短視頻所營造的沉浸式觀看方式和由此產(chǎn)生的近距離“接觸”體驗(yàn),較圖文為主的社交媒體更能刺激和調(diào)動(dòng)用戶的使用欲望,從而強(qiáng)化用戶的自我呈現(xiàn)和用戶間的交往行為。然而,這也使用戶隱私泄露的成本更低、風(fēng)險(xiǎn)更高、隱私保護(hù)難度更大。同時(shí),個(gè)人作為權(quán)利主體,既是隱私意識(shí)的實(shí)際感受者,也是隱私權(quán)的掌握者?!白詻Q”賦予個(gè)人發(fā)現(xiàn)自我、管理自我的能力,并將信息所有者的地位提升到與信息控制者和管理者平等的地位[35]。一個(gè)“自由的自我意識(shí)”需要其他人確定這種“自我”的社會(huì)邊界,“自決”是社會(huì)的產(chǎn)物,是不同社會(huì)實(shí)踐的結(jié)果,激勵(lì)著個(gè)人“自決”的實(shí)現(xiàn),對(duì)隱私的保護(hù)是保持和發(fā)展“自決”所必須的[36]。尤其在社交媒體環(huán)境中,個(gè)人信息“自決”的趨勢更為明顯,故從用戶視角考察其能否直接察覺隱私泄露的程度并有意識(shí)地采取保護(hù)措施,是短視頻隱私保護(hù)中繞不開的重要一環(huán),為分析短視頻生產(chǎn)與傳播中的隱私擔(dān)憂現(xiàn)狀,本文采用深度訪談法來探知用戶應(yīng)對(duì)短視頻隱私問題的態(tài)度與心理?;陔[私計(jì)算理論、計(jì)劃行為理論、信任理論,從風(fēng)險(xiǎn)感知、隱私擔(dān)憂、隱私保護(hù)意識(shí)等維度設(shè)計(jì)訪談內(nèi)容,探討抖音短視頻用戶隱私擔(dān)憂的影響因素,提升短視頻平臺(tái)用戶隱私保護(hù)水平。
本次訪談采取線上與線下相結(jié)合的方式,依據(jù)訪談提綱以及受訪者回復(fù)內(nèi)容靈活調(diào)整,每次訪談時(shí)長大約55 分鐘,主要采取面對(duì)面訪談、電話訪談等方式進(jìn)行。重點(diǎn)圍繞受訪者在短視頻平臺(tái)中的使用行為、隱私意識(shí)以及對(duì)于抖音短視頻平臺(tái)監(jiān)管的認(rèn)知等方面展開。研究者與抖音短視頻平臺(tái)的監(jiān)管者、算法工程師等群體的訪談主要就算法如何篩選隱私信息、對(duì)算法倫理的認(rèn)知等方面進(jìn)行具體溝通。本文采用目的性抽樣和持續(xù)比較的方法確定受訪者,并根據(jù)賬號(hào)影響力進(jìn)一步比較、篩選普通用戶和“大V”。訪談結(jié)束后,研究者還對(duì)訪談對(duì)象的抖音短視頻賬號(hào)進(jìn)行參與式觀察,進(jìn)一步挖掘受訪者在訪談中未陳述的細(xì)節(jié)。
本次訪談對(duì)象共計(jì)23 人,其中普通用戶13 人(基本信息如表1 所示),抖音短視頻“大V”6 人(包括“網(wǎng)紅”3 人,“MCN”主管及運(yùn)營者3 人,基本信息如表2 所示),以及抖音短視頻內(nèi)容審核實(shí)習(xí)生、平臺(tái)監(jiān)管者及算法工程師7 人(基本信息如表3 所示)。受訪者年齡在18~45歲之間。
表1 普通用戶基本信息表
表2 “大V”(生產(chǎn)者)基本信息表
表3 平臺(tái)監(jiān)管者與技術(shù)人員基本信息表
在本次訪談獲取的13份普通用戶樣本中,男性6人,女性7人,性別分布較為均衡;年齡集中在20~30 歲之間,經(jīng)常使用抖音短視頻軟件。2021 年2月,“巨量算數(shù)”數(shù)據(jù)分析平臺(tái)公布的抖音短視頻用戶畫像報(bào)告顯示,抖音短視頻平臺(tái)整體人群中男女較均衡,其中19~24 歲、41~45 歲的男性用戶對(duì)短視頻偏好度高,19~30 歲的女性用戶對(duì)短視頻偏好度高。綜上,本次搜集的樣本信息具有一定的代表性,可用做基礎(chǔ)的探索性研究。
當(dāng)前,入駐抖音短視頻平臺(tái)的“大V”從主體上看,分為自媒體、MCN機(jī)構(gòu)以及政務(wù)媒體三大類;從內(nèi)容上看,涵蓋了時(shí)政教育、知識(shí)資訊等多種類型。基于此,本文對(duì)于抖音短視頻平臺(tái)“大V”的選擇涵蓋政務(wù)、教育、直播、生活、娛樂等領(lǐng)域,粉絲量2 萬~1136萬不等。
1.隱私認(rèn)知邊界差異大,個(gè)人隱私信息被動(dòng)泄露
傳統(tǒng)意義上,私人領(lǐng)域的私密性,指的是在私人生活中不愿為他人知曉的個(gè)人隱私等,公共領(lǐng)域則強(qiáng)調(diào)公開性,指的是公共生活的去個(gè)人化,是可以或應(yīng)該為公眾所知曉的。但在以視頻傳播為主要形式的短視頻平臺(tái)中,公私邊界較為模糊,私人生活公共化和公共生活私人化漸成常態(tài)。
為了吸引更多用戶關(guān)注,滿足個(gè)人虛榮心、塑造理想的視覺形象,不少短視頻都存在“表演”成分,甚至以極端、違背公序良俗的內(nèi)容來吸引他人圍觀。而用戶對(duì)于“隱私”的理解及隱私邊界認(rèn)定參差不齊,加劇了私人生活公共化趨勢。本次訪談對(duì)用戶(包括生產(chǎn)者)的隱私認(rèn)知作出初步界定,其中95%的受訪者認(rèn)為,手機(jī)號(hào)碼、通訊錄、身份信息、家庭住址等屬于個(gè)人隱私,少數(shù)受訪者認(rèn)為姓名不屬于個(gè)人隱私。
與此同時(shí),為了獲取更多的注意力、滿足個(gè)人虛榮心,用戶發(fā)布的短視頻內(nèi)容往往呈現(xiàn)出“表演濃厚、‘曬’成主流”之勢。用戶A13表示:“我身邊很多朋友在抖音短視頻平臺(tái)上‘曬’娃,因?yàn)槎兑舳桃曨l拍起來很方便嘛。這種形式比文字、圖片直觀的多?!边€有短視頻用戶以汽車、房屋為背景來分享生活,“曬”行蹤、“曬”工資和“曬”消費(fèi)記錄,等等。這些所“曬”的內(nèi)容皆涉及個(gè)人信息中的敏感信息。用戶A1表示:“有時(shí)候感覺說一句話,抖音就會(huì)推薦相關(guān)內(nèi)容,好像抖音短視頻平臺(tái)在監(jiān)視用戶,我挺擔(dān)心自己的信息被平臺(tái)濫用的。但是我又覺得這種行為是合理的,因?yàn)槠脚_(tái)收集你的信息也是為了向用戶提供更好的產(chǎn)品服務(wù),這是個(gè)性化推薦的代價(jià)?!?/p>
2.“隱私悖論”效應(yīng)明顯,個(gè)人生活空間被無意識(shí)放大
針對(duì)隱私泄露風(fēng)險(xiǎn),用戶并不會(huì)因?yàn)殡[私擔(dān)憂而選擇不披露個(gè)人信息,從而形成隱私擔(dān)憂“悖論”,社交網(wǎng)站不斷降低使用者對(duì)個(gè)人信息的主導(dǎo)權(quán)與隱私敏感,為了獲得更好的使用體驗(yàn),使用者也對(duì)個(gè)人隱私的保護(hù)不夠重視。在訪談中,大部分用戶可以感知到個(gè)人隱私被泄露的風(fēng)險(xiǎn),也會(huì)對(duì)平臺(tái)收集、使用其個(gè)人信息表現(xiàn)出擔(dān)憂,但仍表示會(huì)繼續(xù)使用抖音觀看和發(fā)布視頻,這也反映出用戶對(duì)隱私風(fēng)險(xiǎn)的樂觀偏見——認(rèn)為自己比普通人遭受的隱私風(fēng)險(xiǎn)侵害要低,也從側(cè)面印證了用戶風(fēng)險(xiǎn)感知與收益感知的不對(duì)等。用戶A9 在訪談中認(rèn)為,“其實(shí)我認(rèn)為把通訊錄、地址這些信息授權(quán)給平臺(tái)是不安全的,但沒辦法……既然使用了這個(gè)軟件,就相當(dāng)于默認(rèn)了平臺(tái)這些操作。而且目前我的信息也沒被泄露過,我覺得我能控制我的信息不被泄露,我有這個(gè)能力?!睂?duì)于短視頻平臺(tái)的信任也強(qiáng)化了用戶的樂觀偏見。訪談發(fā)現(xiàn),87%的受訪者均表現(xiàn)出對(duì)抖音短視頻平臺(tái)的信任,認(rèn)為抖音短視頻平臺(tái)向其提供的服務(wù)符合心理預(yù)期,盡管自己為了使用某項(xiàng)服務(wù)需要提供信息,但仍相信平臺(tái)不會(huì)濫用其信息。
3.機(jī)構(gòu)類短視頻生產(chǎn)者對(duì)隱私保護(hù)意識(shí)不足
生產(chǎn)者在隱私保護(hù)意識(shí)方面呈現(xiàn)出由于短視頻運(yùn)營機(jī)構(gòu)、內(nèi)容不同,對(duì)于隱私泄露的限制也不相同的特點(diǎn)。英語機(jī)構(gòu)運(yùn)營者B4 表示:“抖音并不會(huì)因?yàn)閮?nèi)容好就火,你也會(huì)看一些同行業(yè)同類做得比較火的,他們是什么內(nèi)容的,你就往那去靠?!蹦矼CN機(jī)構(gòu)負(fù)責(zé)人B6在訪談中透露:“我是做直播帶貨的,可能會(huì)涉及主播更換服裝,但我們會(huì)專門配備更衣室。直播的場景一般都是在公司內(nèi)部,不會(huì)涉及公共場所?!毕噍^于某些機(jī)構(gòu),政務(wù)短視頻在隱私保護(hù)方面做得最好,運(yùn)營“中國警察網(wǎng)”的B5 表示:“我們單位會(huì)定期進(jìn)行培訓(xùn),規(guī)定哪些內(nèi)容不能發(fā)。比如視頻涉及到緝毒警察,我們會(huì)對(duì)整體輪廓進(jìn)行打碼處理,還會(huì)進(jìn)行聲音處理。在視頻發(fā)布之前我們也會(huì)征得被攝者的同意。”
此外,大量MCN機(jī)構(gòu)在明知被攝者不同意的情況下,未進(jìn)行面部輪廓模糊處理上傳視頻的情況。如訪談中,網(wǎng)紅B2 談到一次自己拍攝經(jīng)歷時(shí)表示:“有一次我被安排拍攝在商場里尋孩子的劇情,有一幕是需要我假扮商場的工作人員,我當(dāng)時(shí)是覺得要征得工作人員的同意,但我的制作人跟我說就直接拍不用征得同意,最后我妥協(xié)了,視頻中也沒有對(duì)該商場其他工作人員進(jìn)行面部輪廓模糊處理?!背锢砜臻g外,對(duì)諸如微信聊天記錄、微信群等虛擬空間的曝光也屬于私密泄露。中國裁判文書網(wǎng)記錄了數(shù)十起相關(guān)案例,涉及出于報(bào)復(fù)未經(jīng)他人同意上傳微信聊天記錄,被判處侵犯隱私權(quán)成立。在訪談中,也有部分用戶認(rèn)為微信群、微信聊天記錄不屬于隱私,因而在抖音短視頻平臺(tái)上上傳與他人的微信聊天記錄未做模糊處理。
4.平臺(tái)隱私設(shè)置條款繁瑣
隱私政策是一種保護(hù)用戶信息安全的自律措施,同時(shí)也有利于用戶了解個(gè)人權(quán)利并保護(hù)個(gè)人隱私[37]。抖音短視頻平臺(tái)對(duì)用戶隱私保護(hù)的設(shè)計(jì)體現(xiàn)在昵稱設(shè)置、使用虛擬頭像及相關(guān)隱私權(quán)限的設(shè)置等。通過訪談發(fā)現(xiàn),大部分用戶在個(gè)人信息如身份證號(hào)碼、手機(jī)號(hào)碼等方面的隱私認(rèn)知較強(qiáng),但涉及私密空間、個(gè)人私密活動(dòng)等視頻時(shí),多數(shù)用戶認(rèn)為不涉及隱私,這極易造成隱私泄露、而被不法分子利用。此外,盡管絕大部分用戶沒有使用個(gè)人真實(shí)姓名及照片,仍有83%的受訪者表示首次登錄抖音短視頻平臺(tái)時(shí)會(huì)在不加思索的情況下直接同意平臺(tái)獲取通訊錄、地理位置等敏感信息,在發(fā)布視頻時(shí)也不會(huì)考慮是否涉及隱私,呈現(xiàn)出較低的隱私保護(hù)意識(shí)。
此外,抖音短視頻平臺(tái)的隱私政策繁冗復(fù)雜,絕大多數(shù)用戶直接勾選“同意”而非細(xì)致閱讀,導(dǎo)致用戶并不了解可以調(diào)整隱私設(shè)置,如果全部勾選“不同意”則只能退出交易或取消注冊(cè)。這種簡單的全無全有操作模式導(dǎo)致實(shí)際運(yùn)用中的高成本和低效率——閱讀冗長復(fù)雜的隱私條款會(huì)花費(fèi)用戶巨大的精力和時(shí)間,同時(shí)受制于教育背景可能帶來的理解偏差,抖音短視頻平臺(tái)雖然履行了告知義務(wù),但用戶的“同意”在此情況下很難被認(rèn)為是意思自治的表示。也有用戶認(rèn)為,隱私政策的出臺(tái)實(shí)際上是平臺(tái)侵犯用戶隱私的保護(hù)傘,“你明示同意了,那平臺(tái)收集利用你的信息也就不涉及侵權(quán),而且平臺(tái)權(quán)力那么大,我個(gè)人的力量太渺小,即使看出隱私政策有問題了,那也沒有辦法?!庇脩鬉9表示。
雖然隨著隱私保護(hù)意識(shí)的提升,越來越多的用戶選擇事后修改或設(shè)置軟件權(quán)限,如不授權(quán)平臺(tái)獲取通訊錄、不允許他人看到自己點(diǎn)贊或喜歡的視頻等,但當(dāng)前短視頻平臺(tái)上的隱私政策仍難以真正應(yīng)用于用戶隱私保護(hù)。一方面,平臺(tái)方公布的隱私政策有失公正;另一方面,部分用戶對(duì)于短視頻平臺(tái)隱私政策關(guān)注度、認(rèn)可度比較低。受訪者A5表示,“即使卸載了抖音軟件,但很多信息如手機(jī)號(hào)等仍留存在平臺(tái)上,如果抖音軟件能有一鍵刪除相關(guān)記錄的功能就好了。”
隨著短視頻進(jìn)入算法時(shí)代,算法技術(shù)賦予了平臺(tái)更多權(quán)力,平臺(tái)在信息把關(guān)與審核方面扮演著重要角色。因此,本文通過與訪談人員的溝通并結(jié)合抖音短視頻平臺(tái)發(fā)布的關(guān)于用戶隱私保護(hù)的相關(guān)措施,分析抖音短視頻平臺(tái)內(nèi)部審核機(jī)制以及算法治理邏輯,從平臺(tái)角度探討算法治理在當(dāng)前短視頻平臺(tái)抑制隱私侵權(quán)方面的優(yōu)勢與隱私侵權(quán)的倫理隱憂。
1.覆蓋短視頻審核全流程
當(dāng)前,算法技術(shù)已經(jīng)廣泛應(yīng)用于抖音短視頻審核的各個(gè)階段,覆蓋視頻內(nèi)容生產(chǎn)、傳播的全過程。在此過程中,算法通過收集、分析信息,并根據(jù)用戶的反饋及時(shí)優(yōu)化系統(tǒng)。抖音平臺(tái)中的內(nèi)容審核過程可以概括為:首先是對(duì)視頻內(nèi)容來源進(jìn)行審核;其次是機(jī)器依托算法技術(shù)抓取關(guān)鍵詞,對(duì)視頻分幀審核,以及人工復(fù)核;最后,短視頻平臺(tái)會(huì)持續(xù)關(guān)注受眾的反饋,被舉報(bào)的內(nèi)容會(huì)直接由人工復(fù)審。在這一系列過程中,通過用戶的反饋與平臺(tái)互通的良性循環(huán),能夠?qū)τ脩粝嚓P(guān)敏感信息做到及時(shí)認(rèn)知并修改算法在治理中可能存在的漏洞。
2.嚴(yán)格算法內(nèi)嵌規(guī)則
在訪談中,多位用戶稱自己制作的短視頻在傳播過程中遭遇過禁止或限制的情況,并表示抖音短視頻平臺(tái)的審核機(jī)制較其他短視頻平臺(tái)更為嚴(yán)苛。從2018年年初開始,抖音短視頻平臺(tái)就將站內(nèi)的違規(guī)視頻、違規(guī)用戶等對(duì)外公示,加強(qiáng)了對(duì)違規(guī)賬號(hào)的管理和規(guī)范,公開的規(guī)范內(nèi)容涉及禁用詞匯、違規(guī)行為以及敏感詞匯等多個(gè)方面,覆蓋面極為廣泛,算法治理正是基于這些嚴(yán)苛的規(guī)范運(yùn)行的。在訪談中,抖音短視頻平臺(tái)審核員C5表示:“視頻一定要建立在抖音平臺(tái)的規(guī)則基礎(chǔ)之上,算法第一輪就是根據(jù)抖音發(fā)布的內(nèi)容審核規(guī)范進(jìn)行篩選,一但觸碰紅線,輕則限流,重則封號(hào)數(shù)日,甚至直接封號(hào)。”短視頻相較于其他呈現(xiàn)方式更復(fù)雜,增加了審核的難度,算法通過對(duì)畫面、音頻以及音調(diào)的識(shí)別提高了平臺(tái)審核的效率。
3.自審與他審協(xié)同治理
除抖音短視頻平臺(tái)審核外,抖音短視頻平臺(tái)還配備了內(nèi)容審核“小助手”,利用算法程序幫助生產(chǎn)者在內(nèi)容發(fā)布時(shí)實(shí)現(xiàn)自審。“網(wǎng)紅”B1 在訪談中表示:“我以前有一條視頻因?yàn)閮?nèi)容涉及手機(jī)號(hào)、二維碼等隱私信息沒有審核通過。2017 年的時(shí)候視頻沒通過我就得一幀一幀地看,但是現(xiàn)在抖音配備了‘排雷小助手’程序,哪些內(nèi)容不符合規(guī)定它就會(huì)直接標(biāo)記出來,我的隱私保護(hù)意識(shí)也是在一次次試錯(cuò)中培養(yǎng)出來的?!痹谥辈シ矫妫兑敉ㄟ^人機(jī)協(xié)同的方式加大了審核的力度,政務(wù)短視頻運(yùn)營者B5 表示:“我們的賬號(hào)在嗶哩嗶哩網(wǎng)站、快手App 等平臺(tái)都有入駐,但相比而言,抖音短視頻平臺(tái)的審核更為嚴(yán)格。抖音短視頻平臺(tái)先由機(jī)器審核,機(jī)器審核通過后你的內(nèi)容會(huì)進(jìn)入‘流量池’,如果你的內(nèi)容凡響比較熱烈它就會(huì)進(jìn)入二期的人工審核。抖音短視頻幾乎所有直播的彈幕評(píng)論都是經(jīng)過人工審核的?!背€上審核外,抖音短視頻平臺(tái)還進(jìn)行線下的培訓(xùn)。MCN機(jī)構(gòu)主管B6在訪談中表示:“抖音短視頻平臺(tái)有自己的內(nèi)容審核標(biāo)準(zhǔn)和規(guī)范,這些都是公開可以查到的?!闭?wù)短視頻運(yùn)營者B5 則透露:“抖音短視頻平臺(tái)會(huì)定期對(duì)發(fā)布者進(jìn)行培訓(xùn),講解需要注意的事項(xiàng),對(duì)接的部門分的很細(xì),包括政務(wù)、新聞媒體、自媒體等?!?/p>
1.利益驅(qū)動(dòng)收集、使用敏感信息
平臺(tái)媒體的核心特點(diǎn)是吸引和掌握海量數(shù)據(jù)[38],依靠算法推薦技術(shù),抖音短視頻實(shí)現(xiàn)了精準(zhǔn)推送,但前提是建立在大規(guī)模收集、使用用戶個(gè)人信息上。2020 年6 月,抖音短視頻被曝光出會(huì)不斷自動(dòng)訪問手機(jī)剪貼板內(nèi)容,引發(fā)了人們關(guān)于密碼、工作文檔、敏感電子郵件、財(cái)務(wù)信息、驗(yàn)證碼以及聊天記錄等隱私信息安全性的擔(dān)憂。訪談中,有用戶表示即使卸載了抖音短視頻軟件,但其依舊會(huì)收集用戶的電話號(hào)碼并向用戶發(fā)送短信,如用戶A2 談道:“之前我卸載過一次抖音App,但不久之后抖音App 通過短信告知我:‘我認(rèn)識(shí)的朋友xxx 發(fā)布了視頻,快來圍觀’這樣的內(nèi)容,我覺得很困擾。我希望抖音App 能夠向用戶提供永久刪除權(quán),就比如說我不使用抖音App 了,平臺(tái)上關(guān)于我所有的信息包括瀏覽痕跡都能全部消除,這樣就不會(huì)出現(xiàn)我卸載抖音App 還留有我手機(jī)號(hào)的情況?!贝送?,抖音平臺(tái)還將用戶信息與第三方共享,“直播帶貨”機(jī)構(gòu)主管B6提到:“只要你在平臺(tái)上注冊(cè)并投放了Feed流(直播間付費(fèi)推廣工具),你的信息就處于公開的狀態(tài),包括江浙滬地區(qū)的直營中心、第三方代理都會(huì)有我的電話,這實(shí)際就是一種隱私泄露,平臺(tái)起碼有監(jiān)管或保護(hù)個(gè)人隱私的責(zé)任?!?/p>
2.算法歧視下用戶標(biāo)簽化
在短視頻市場中,平臺(tái)很難不受流量導(dǎo)向的影響,在算法中對(duì)弱勢群體進(jìn)行標(biāo)簽化區(qū)分,對(duì)其發(fā)布內(nèi)容的閱讀量和推送量在一定時(shí)間內(nèi)進(jìn)行限制,使其更加邊緣化。例如,2019 年一份抖音海外版(TikTok)泄漏的內(nèi)部管理培訓(xùn)文件顯示,平臺(tái)上殘疾人、面部損傷(包括胎記與斜視)、孤獨(dú)癥、唐氏綜合癥用戶上傳的視頻,在達(dá)到6000~10000次播放量之后,會(huì)自動(dòng)歸類為“不推薦”類別,此舉暴露了平臺(tái)方非法侵犯用戶個(gè)人數(shù)據(jù)隱私的問題,即抖音短視頻平臺(tái)通過竊取用戶生物識(shí)別特征等隱私對(duì)弱勢群體進(jìn)行標(biāo)簽化區(qū)分的做法是對(duì)用戶個(gè)人信息的一種濫用,侵犯了弱勢群體平等參與公共生活的權(quán)利。政治內(nèi)嵌與資本介入,社會(huì)結(jié)構(gòu)性偏見的循環(huán),量化計(jì)算對(duì)有機(jī)世界的遮蔽,必將導(dǎo)致算法的內(nèi)生性偏見[39]。算法工程師C7 談道:“張一鳴曾公開表示‘算法無價(jià)值觀’,但人是有主觀偏見的。在我看來,機(jī)器本身沒有價(jià)值觀,有偏見的是研發(fā)它的工程師團(tuán)隊(duì)?!?/p>
3.算法漏洞暴露私密活動(dòng)
有學(xué)者指出,算法的語言和思維不斷靠近智能發(fā)展的“奇點(diǎn)”,具備了語言能力的人工智能在地位上會(huì)逼近人類,動(dòng)搖人類的主體性地位[40]。通過建立復(fù)雜的多變量系統(tǒng)以及龐大的數(shù)據(jù)庫,算法在某些方面超越了人類。但是由于現(xiàn)實(shí)問題的復(fù)雜性,算法漏洞不可避免,算法越復(fù)雜,風(fēng)險(xiǎn)就越高。人工智能只是在特定的代碼規(guī)則下運(yùn)行,并不能向人腦一樣判定帶有感情色彩、或者相近意思的內(nèi)容。如果這些漏洞被黑客利用,將帶來致命威脅。華為大數(shù)據(jù)工程師C4在訪談中提出:“通過向AI算法提供海量的視頻資源庫,算法可以自己通過深度學(xué)習(xí)的方式來總結(jié)暴力、色情或侵犯隱私的情形,以此完成進(jìn)化。隨著人們生活信息化程度的日漸加深,視頻愈加豐富,需要研發(fā)團(tuán)隊(duì)去完善和補(bǔ)充算法資源庫。僅憑算法技術(shù)修補(bǔ)漏洞顯然是不可靠的?!边@從側(cè)面驗(yàn)證了可能存在的算法資源庫滯后等問題。
面對(duì)短視頻中的隱私侵權(quán)問題,算法能夠第一時(shí)間依托預(yù)先設(shè)計(jì)好的代碼規(guī)則進(jìn)行規(guī)制,實(shí)現(xiàn)了從監(jiān)管客體向監(jiān)管主體的轉(zhuǎn)變。然而算法本身是去中心化的,這在一定程度上與法律規(guī)制相悖。因此,如果把算法治理作為元規(guī)制,則需持續(xù)優(yōu)化算法設(shè)計(jì),尋找現(xiàn)行法律與算法的平衡點(diǎn),構(gòu)建算法與法律的兼容模式。需要明確的是,這種兼容,即所謂“算法法律化”或者“法律代碼化”[41],算法與法律并不只是相互消解的關(guān)系,而是相互協(xié)調(diào)的關(guān)系。算法不僅可以提供強(qiáng)化法律指令集的技術(shù)工具,更是方法論意義上的思維工具。此外,應(yīng)對(duì)隱私擔(dān)憂問題也離不開協(xié)同治理模式的構(gòu)建,當(dāng)以協(xié)同和共識(shí)為基礎(chǔ)的治理主體和客體打破了彼此在地位、邏輯和方式上的對(duì)立和隔閡[42],可以有效促進(jìn)平臺(tái)與監(jiān)管部門、社會(huì)組織等利益相關(guān)者形成跨部門、跨地域的合作,這為推動(dòng)算法治理落地見效提供長效思路,并能為治理短視頻中的隱私泄露問題提供立體保障。
1.實(shí)施元規(guī)制治理
技術(shù)和法制是推動(dòng)社會(huì)發(fā)展、維護(hù)社會(huì)穩(wěn)定的“兩架馬車”,技術(shù)保護(hù)、法律保護(hù)和自律保護(hù)是隱私保護(hù)的三種主要手段。其中,法律保護(hù)滯后,無法對(duì)新技術(shù)發(fā)展作出及時(shí)回應(yīng);自律保護(hù)取決于企業(yè)的自我約束以及公民自我的數(shù)據(jù)安全意識(shí),但目前呈現(xiàn)總體薄弱的特征,而技術(shù)保護(hù)以高效便捷的特點(diǎn)已被廣泛應(yīng)用于短視頻審核中。查爾斯·克拉克認(rèn)為,“解決機(jī)器問題的,只能是機(jī)器”。監(jiān)管代碼系統(tǒng)的最佳方式就是構(gòu)建代碼規(guī)范的自動(dòng)化監(jiān)管。短視頻平臺(tái)中,算法監(jiān)管貫穿視頻的生產(chǎn)與分發(fā)全過程,內(nèi)容審核的主力由人工向機(jī)器轉(zhuǎn)變。治理隱私泄露問題必然要回歸算法本身,實(shí)施元規(guī)制治理。元規(guī)制治理是規(guī)制對(duì)象在政府外在規(guī)制作用下,由規(guī)制客體轉(zhuǎn)變?yōu)橐?guī)制主體,采取具有內(nèi)控性質(zhì)的一種自我規(guī)制形式。這種規(guī)制形式具有政府規(guī)制和自我規(guī)制雙重面向。它既能防止自我規(guī)制出現(xiàn)自利性傾向,又能解決政府規(guī)制能力不足的問題[43]。
面對(duì)短視頻隱私侵權(quán)問題,不同于法律的事后規(guī)制,算法技術(shù)能夠第一時(shí)間作出反應(yīng),減輕隱私泄露對(duì)當(dāng)事人造成的侵?jǐn)_,也可以通過優(yōu)化算法審核邏輯從源頭限制隱私侵權(quán)視頻的傳播。算法技術(shù)的廣泛運(yùn)用,用戶可以在不侵犯他人隱私的框架下瀏覽、發(fā)布短視頻,算法技術(shù)提供了較為理想和符合各方利益的解決方案。
2.優(yōu)化人機(jī)公審機(jī)制
信息社會(huì),隨著信息數(shù)量的指數(shù)級(jí)增長,人將越來越難以對(duì)海量信息進(jìn)行獨(dú)立處理,未來信息分發(fā)與審核將越來越依賴算法。在算法主導(dǎo)監(jiān)管的短視頻平臺(tái)中,雖然技術(shù)的應(yīng)用提高了審核效率,但對(duì)某些動(dòng)態(tài)模糊圖片等仍存在審核漏洞。為確保算法技術(shù)的信度和效度,應(yīng)充分利用“技術(shù)把關(guān)”,同時(shí)輔之“人工把關(guān)”,不斷優(yōu)化人工審核機(jī)制。一是算法技術(shù)要體現(xiàn)人的倫理,在輸入代碼規(guī)則時(shí),將社會(huì)主流價(jià)值觀予以貫徹,用規(guī)范的新聞專業(yè)性完成對(duì)算法推薦的規(guī)訓(xùn),確保用戶接收到的內(nèi)容是符合社會(huì)主義核心價(jià)值觀的產(chǎn)品。二是正向引導(dǎo)人工智能、大數(shù)據(jù)技術(shù)的應(yīng)用,及時(shí)接收用戶反饋,擴(kuò)大對(duì)敏感信息和隱私內(nèi)容的篩查范圍,做到隱私保護(hù)事前嚴(yán)防,事后快糾。第三,建立健全信息預(yù)警機(jī)制,加入“該視頻包含誘導(dǎo)性信息”“請(qǐng)謹(jǐn)慎點(diǎn)擊外鏈”等相關(guān)預(yù)警標(biāo)簽,建立“人臉識(shí)別+人工審核+實(shí)名認(rèn)證”三道“防火墻”,對(duì)短視頻平臺(tái)上的信息內(nèi)容進(jìn)行嚴(yán)格審核,保證視頻內(nèi)容的質(zhì)量和準(zhǔn)確性。
1.事前設(shè)計(jì)部署
《中華人民共和國電子商務(wù)法》《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國計(jì)算機(jī)信息系統(tǒng)安全保護(hù)條例》《中華人民共和國個(gè)人信息保護(hù)法》(以下簡稱《個(gè)人信息保護(hù)法》)等對(duì)算法規(guī)則都有相關(guān)規(guī)定。其中,《個(gè)人信息保護(hù)法》提出了算法自動(dòng)化系統(tǒng)決策治理的方案,要求平臺(tái)事前對(duì)運(yùn)行的自動(dòng)化決策系統(tǒng)進(jìn)行評(píng)估,并保證決策的公平、公正、透明。平臺(tái)的應(yīng)用網(wǎng)絡(luò)服務(wù)符合國家強(qiáng)制標(biāo)準(zhǔn)、不得設(shè)置惡意程序,發(fā)生問題要及時(shí)修補(bǔ)漏洞,保障網(wǎng)絡(luò)安全,同時(shí)在利用算法技術(shù)進(jìn)行自動(dòng)化決策前,向用戶告知算法處理數(shù)據(jù)的邏輯以及對(duì)用戶產(chǎn)生的影響。除上述程序需提前部署外,平臺(tái)對(duì)內(nèi)容進(jìn)行事前審查。但其內(nèi)容審查義務(wù)主要是防止和限制不法信息傳播,不能侵犯用戶隱私[44]。《中華人民共和國民法典》第1197 條規(guī)定:網(wǎng)絡(luò)服務(wù)提供者知道或者應(yīng)當(dāng)知道網(wǎng)絡(luò)用戶利用其網(wǎng)絡(luò)服務(wù)侵害他人民事權(quán)益,未采取必要措施的,與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任[45]。事前預(yù)防正是算法的優(yōu)勢所在,短視頻監(jiān)管者可通過收集用戶反饋,不斷優(yōu)化算法審查邏輯,完善數(shù)據(jù)庫,做到事前對(duì)隱私侵權(quán)內(nèi)容的預(yù)防。
此外,要實(shí)現(xiàn)法律與算法的兼容,就需要從算法所依賴的對(duì)象——數(shù)據(jù)入手,在不影響平臺(tái)利用算法分析用戶興趣愛好、內(nèi)容審核的前提下,通過對(duì)個(gè)人數(shù)據(jù)界定、脫敏以及細(xì)化數(shù)據(jù)處理原則等,實(shí)現(xiàn)法律的事前規(guī)制。2018年5月25日,歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,簡稱:GDPR)正式生效,其主要立法目的在于實(shí)現(xiàn)對(duì)個(gè)人信息的全面保護(hù)并促進(jìn)個(gè)人信息自決權(quán)的行使。其中,GDPR 將種族、民族信仰、性取向等作為禁止處理的個(gè)人敏感數(shù)據(jù),并要求使用者對(duì)數(shù)據(jù)進(jìn)行脫敏處理,指出數(shù)據(jù)主體擁有自決權(quán),可以對(duì)算法進(jìn)行人工干涉。此方式應(yīng)用到短視頻平臺(tái)中,可以從源頭減少個(gè)人隱私的非法收集與應(yīng)用,落實(shí)個(gè)人信息自決權(quán)。在美國,紐約市議會(huì)于2017年年底通過的《算法問責(zé)法案》要求成立一個(gè)由自動(dòng)化決策系統(tǒng)專家和相應(yīng)公民組織代表組成的工作組,專門監(jiān)督自動(dòng)決策算法的公平和透明[46];美國白宮于2020年發(fā)布了《人工智能應(yīng)用監(jiān)管指南》,提出對(duì)算法系統(tǒng)可能產(chǎn)生的風(fēng)險(xiǎn)進(jìn)行預(yù)警,鼓勵(lì)行政機(jī)關(guān)與私營部門合作、加強(qiáng)公眾參與、提倡公開更多聯(lián)邦數(shù)據(jù)等[47]。我國亦可借鑒國外立法經(jīng)驗(yàn),除規(guī)范平臺(tái)的事前預(yù)防機(jī)制外,還應(yīng)提升短視頻用戶的媒介素養(yǎng),鼓勵(lì)用戶對(duì)平臺(tái)的算法治理進(jìn)行監(jiān)督,調(diào)動(dòng)用戶作為信息自決主體的積極性,形成多元協(xié)同的預(yù)防模式。
2.事中多方監(jiān)督
短視頻平臺(tái)運(yùn)用算法技術(shù)進(jìn)行監(jiān)管的過程中,短視頻平臺(tái)應(yīng)該定期對(duì)自身的信息處理活動(dòng)、保護(hù)措施等自身進(jìn)行合法性審查。監(jiān)管部門可委托第三方進(jìn)行算法核查。這對(duì)于糾正算法偏差起到了補(bǔ)充作用。因此就需要引入社會(huì)第三方力量的參與,改變過去政府單向度的“命令加控制”的管控方式,構(gòu)建算法規(guī)制的合作治理路徑,從專業(yè)角度監(jiān)管算法,使算法更好地發(fā)揮治理效能。GDPR 規(guī)定數(shù)據(jù)控制者或數(shù)據(jù)處理者在進(jìn)行數(shù)據(jù)保護(hù)影響評(píng)估時(shí),必須征求數(shù)據(jù)保護(hù)官的意見。在當(dāng)前算法深入應(yīng)用的數(shù)字社會(huì)中,個(gè)人數(shù)據(jù)保護(hù)制度發(fā)揮著監(jiān)管企業(yè)數(shù)據(jù)活動(dòng)的作用[48]。
值得注意的是,第三方社會(huì)力量的引入可以增強(qiáng)算法監(jiān)管的效率,但同時(shí)也不能忽視對(duì)第三方機(jī)構(gòu)的監(jiān)管,除需對(duì)第三方機(jī)構(gòu)的資質(zhì)進(jìn)行認(rèn)定外,還應(yīng)制定覆蓋數(shù)據(jù)投入、數(shù)據(jù)處理和數(shù)據(jù)產(chǎn)出全過程的算法質(zhì)量標(biāo)準(zhǔn)。否則,第三方機(jī)構(gòu)可能因?yàn)槔嬉蛩囟鴾S為數(shù)據(jù)生產(chǎn)者的同盟或擺設(shè)[49]。因此,構(gòu)建第三方力量在算法合作治理中的參與機(jī)制需明確以下幾點(diǎn):第一,社會(huì)第三方力量的參與權(quán)限——如監(jiān)督或?qū)徍似脚_(tái)對(duì)訪問協(xié)議嚴(yán)密性的規(guī)定、在線跟蹤個(gè)人信息再次使用情況或未經(jīng)同意將用戶數(shù)據(jù)轉(zhuǎn)賣等事宜;第二,細(xì)化社會(huì)第三方力量參與程序,如參與時(shí)間、參與方式和參與決定權(quán)[50]等。
3.事后救濟(jì)規(guī)制
2017 年,英國科學(xué)院和皇家學(xué)會(huì)明確提出,將促進(jìn)數(shù)字福祉的日益增長和人類繁榮作為數(shù)據(jù)開發(fā)、利用和管理的首要原則。這就需要在法律規(guī)制中進(jìn)一步強(qiáng)調(diào)個(gè)人對(duì)數(shù)字技術(shù)和網(wǎng)絡(luò)服務(wù)的高質(zhì)量使用。當(dāng)前,應(yīng)充分挖掘用戶隱性需求,推出能夠真正記錄生活且符合主流價(jià)值觀的內(nèi)容。依法治理隱私侵權(quán)問題,設(shè)立個(gè)人數(shù)據(jù)被遺忘權(quán)和更改權(quán),權(quán)利主體有權(quán)界定個(gè)人的隱私邊界,決定其信息的保留、刪除與更改。規(guī)定平臺(tái)在面對(duì)用戶提出的刪除侵犯隱私的視頻內(nèi)容等法定義務(wù)時(shí),應(yīng)及時(shí)作出反饋并阻止侵權(quán)行為的發(fā)生和擴(kuò)大。
在當(dāng)算法侵犯個(gè)人數(shù)據(jù)信息時(shí),必要的問責(zé)機(jī)制可以更好的提供救濟(jì)并預(yù)防此類威脅的再度發(fā)生[51]。2019年4月,由部分美國民主黨參議員提出的《2019算法問責(zé)制法案》(Algorithmic Accountability Act of 2019),試圖對(duì)機(jī)器學(xué)習(xí)中的偏見和個(gè)人敏感信息使用問題進(jìn)行規(guī)制。針對(duì)算法技術(shù)使用中可能出現(xiàn)的泄露用戶隱私、收集用戶敏感內(nèi)容等問題,提出了盡快制定關(guān)于“高風(fēng)險(xiǎn)自動(dòng)決策系統(tǒng)”(High-Risk Automated Decision System)的評(píng)估規(guī)則,并明確了聯(lián)邦貿(mào)易委員會(huì)在監(jiān)管程序中的權(quán)力和責(zé)任。運(yùn)營商依托算法技術(shù)在短視頻平臺(tái)擁有強(qiáng)大影響力和決策力,算法問責(zé)制的制定可使運(yùn)營商遵守法律,確保運(yùn)營商的決策不會(huì)對(duì)用戶造成傷害。對(duì)此,我國可以在現(xiàn)行法律框架內(nèi),吸取國外經(jīng)驗(yàn),做到算法問責(zé)制的本土化,進(jìn)一步完善算法與法律的兼容模式。
綜上所述,算法在短視頻內(nèi)容分發(fā)及審核上發(fā)揮著巨大作用,推動(dòng)算法治理的良性發(fā)展最可靠的辦法仍是激發(fā)平臺(tái)對(duì)于優(yōu)化算法的治理訴求。
當(dāng)前算法治理涉及三大核心問題——透明性、規(guī)范性和責(zé)任認(rèn)定。從透明性上看,算法透明作為算法權(quán)力規(guī)制的可能進(jìn)路業(yè)已具備一定的現(xiàn)實(shí)可能性和外部環(huán)境條件[52],雖然受知識(shí)產(chǎn)權(quán)保護(hù)等其他外部因素制約,算法透明只能是有限度的透明,但作為規(guī)范算法權(quán)力的應(yīng)對(duì)之策,可作為解決短視頻隱私擔(dān)憂的手段之一。從規(guī)范性上看,技術(shù)規(guī)范應(yīng)與法律規(guī)范并行,即平臺(tái)應(yīng)用算法解決用戶隱私擔(dān)憂問題時(shí)應(yīng)符合我國民法典和網(wǎng)絡(luò)音視頻相關(guān)法規(guī),在缺少針對(duì)算法問題專門法的現(xiàn)實(shí)情境下,平臺(tái)應(yīng)重視技術(shù)倫理、優(yōu)化技術(shù)規(guī)范。從責(zé)任認(rèn)定上看,短視頻隱私泄露涉及的主體主要集中在作為生產(chǎn)與傳播者的用戶個(gè)體和作為內(nèi)容審核與傳播中介的平臺(tái)方,平臺(tái)方負(fù)有傳播與監(jiān)督的責(zé)任,因此一旦認(rèn)定隱私侵權(quán)成立,平臺(tái)方有義務(wù)協(xié)助并配合司法與行政部門,厘清算法案件主體責(zé)任,并以自身的算法治理實(shí)踐推動(dòng)我國現(xiàn)行法律在算法治理方面的制度框架調(diào)整,使算法治理落到實(shí)處。
寧夏大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)2023年5期