亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        個性化推薦算法的法律風(fēng)險規(guī)制

        2024-02-17 05:13:11謝永江楊永興
        理論縱橫 2024年1期
        關(guān)鍵詞:個性化原則算法

        謝永江 楊永興 劉 濤

        (北京郵電大學(xué) 互聯(lián)網(wǎng)治理與法律研究中心,北京 100876)

        隨著大數(shù)據(jù)、人工智能等互聯(lián)網(wǎng)技術(shù)的深入發(fā)展,個性化推薦算法被廣泛應(yīng)用于電子商務(wù)、短視頻、新聞報道等各種互聯(lián)網(wǎng)信息服務(wù)交互場景中。所謂個性化推薦算法,是指一種基于用戶行為、興趣和偏好的推薦技術(shù),用于向用戶推薦相關(guān)的產(chǎn)品或服務(wù)信息。簡而言之,就是根據(jù)用戶的興趣特點推薦其感興趣的對象或活動信息。早在1995 年美國的宇宙導(dǎo)航系統(tǒng)就應(yīng)用了個性化推薦;2009 年,我國電子商務(wù)平臺開始引入個性化推薦算法[1]。個性化推薦算法的出現(xiàn),不但解決了信息過載與長尾問題,而且促進了信息內(nèi)容與網(wǎng)絡(luò)用戶需求的精準匹配,在滿足用戶個性化需求的同時,大大提升了互聯(lián)網(wǎng)信息服務(wù)的效率。然而個性化推薦算法并非有百利而無一害,它在應(yīng)用過程中產(chǎn)生了侵犯用戶隱私、妨礙用戶意思自治、制造信息繭房和算法歧視等法律風(fēng)險。本文擬從個性化推薦算法技術(shù)本身著手,分析其應(yīng)用過程中產(chǎn)生的法律風(fēng)險,并嘗試提出規(guī)制個性化推薦算法的對策建議。

        一、個性化推薦算法的類型

        在大數(shù)據(jù)時代,如何從井噴式的數(shù)據(jù)信息中實現(xiàn)精準檢索和推送,是互聯(lián)網(wǎng)信息服務(wù)業(yè)所面臨的主要挑戰(zhàn)。據(jù)亞馬遜公司調(diào)研,在其網(wǎng)站購物的客戶絕大多數(shù)具有不確定性的需求,而具有明確購買意向的用戶僅僅占比16%[2]。如果網(wǎng)站能夠?qū)M足用戶不確定需求的商品從海量的商品信息中精準地推送至用戶,則可能會極大地促進潛在用戶的消費,從而拉動平臺的消費增長。為了滿足用戶和平臺的上述需求,針對用戶特征的個性化推薦算法應(yīng)運而生,并被廣泛應(yīng)用于電子商務(wù)、新聞媒體和娛樂等領(lǐng)域。

        根據(jù)個性化推薦算法技術(shù)路線的不同,可以將個性化推薦算法分為混合推薦(Hybird Recommendation)、基于社交網(wǎng)絡(luò)的推薦(Social networksbased Recommendation)、基于內(nèi)容的推薦(Content-based Recommendation)和協(xié)同過濾的推薦算法(Collaborative Filtering based Recommendation)四種類型。

        (一) 基于內(nèi)容的推薦算法

        基于內(nèi)容的推薦算法是最為基礎(chǔ)的一種推薦技術(shù),其運行模式為:首先,需要收集用戶在平臺的歷史信息,并采用分類算法對用戶的偏好信息進行分類,同時對用戶進行心理畫像。其次,利用算法對目標產(chǎn)品的特征進行提取。最后,比較分析用戶的偏好模型與產(chǎn)品特征,將其中相似度最高的產(chǎn)品推薦給用戶[3]。

        (二) 協(xié)同過濾的推薦算法

        協(xié)同過濾的推薦算法是個性化推薦算法中應(yīng)用最廣泛、最成功的算法技術(shù)之一。該算法主要研究用戶與用戶之間的關(guān)系,其在程序中預(yù)設(shè)具有相似興趣愛好的用戶會偏好相似的物品,或者用戶對具有相似特征的物品表現(xiàn)出相似的喜好程度[4]。協(xié)同過濾推薦算法的運行邏輯為:首先,推薦系統(tǒng)收集平臺內(nèi)多個用戶的數(shù)據(jù)信息,分析計算用戶的偏好,通過計算發(fā)現(xiàn):A 用戶偏好產(chǎn)品甲、乙和?。籅 用戶偏好產(chǎn)品丙;C 用戶偏好產(chǎn)品甲和乙。其次,推薦系統(tǒng)通過算法計算分析產(chǎn)品對于用戶的功能性價值,發(fā)現(xiàn)A 用戶與C 用戶的偏好相似值更接近,然后A 用戶喜愛的產(chǎn)品比C 用戶多出個產(chǎn)品丁,進而推薦系統(tǒng)估算C 用戶對產(chǎn)品丁的喜愛可能性更大,進而將產(chǎn)品丁推薦給C 用戶[5]。

        (三) 基于社交網(wǎng)絡(luò)的推薦算法

        隨著虛擬現(xiàn)實技術(shù)的快速發(fā)展,諸多線下活動出于成本等的考慮也逐漸轉(zhuǎn)移到線上開展,同時也促進了各種社交軟件的廣泛應(yīng)用。不同地域、不同背景、不同行業(yè)的人們利用社交軟件形成強大的社交網(wǎng)絡(luò),使得社交網(wǎng)絡(luò)成為個性化推薦算法領(lǐng)域的應(yīng)用熱點?;谏缃痪W(wǎng)絡(luò)的推薦算法的運行邏輯為:首先,將社交軟件用戶的信息搜集起來,包括用戶的通訊錄、軟件里的用戶朋友圈等好友信息;進而分析計算用戶的興趣愛好;最后向用戶推薦產(chǎn)品,且所推薦的產(chǎn)品大多是自己好友所喜歡與關(guān)注的產(chǎn)品[6]??梢姡撍惴ǖ男睦砘A(chǔ)是預(yù)設(shè)人們通常會根據(jù)好友的推薦來選購商品。

        (四) 混合推薦算法

        混合推薦算法主要對不同類型的推薦算法的結(jié)合使用。例如,有的平臺結(jié)合選用基于內(nèi)容和基于社交網(wǎng)絡(luò)的推薦算法,而有的平臺會綜合應(yīng)用協(xié)同過濾與基于內(nèi)容的推薦算法等?;旌贤扑]算法由于可以將不同類型的推薦算法結(jié)合在一塊,彌補彼此之間的缺點,因而受到諸多平臺的喜愛。

        綜上可見,個性化推薦算法主要是通過兩個步驟來完成推薦任務(wù):第一步“挖掘行為”,即挖掘用戶信息并進行心理畫像;第二步 “推薦行為”,即根據(jù)用戶心理畫像所體現(xiàn)出的偏好,從而實施個性化推薦。但無論是“挖掘行為”還是“推薦行為”均可能被濫用,產(chǎn)生各類法律風(fēng)險。

        二、個性化推薦算法的法律風(fēng)險

        (一) 侵犯隱私權(quán)

        個性化推薦算法需要大數(shù)據(jù)支持,特別是與特定個人偏好相關(guān)的數(shù)據(jù),個人偏好數(shù)據(jù)往往與個人隱私息息相關(guān),如果未經(jīng)用戶同意進行搜集和使用,則可能侵犯個人隱私權(quán)。比如在“朱某訴百度隱私權(quán)糾紛案”中,原告朱某主張被告百度未經(jīng)其明確同意,擅自搜集其在百度搜索引擎中的歷史信息,并向其推送相關(guān)廣告,謀取商業(yè)利益,屬于隱私侵權(quán)行為,進而主張損害賠償①參見江蘇省南京市中級人民法院(2014)寧民終5028 號判決書。該案一審判決認為百度的個性化推薦行為構(gòu)成對原告隱私權(quán)的侵犯,而二審則推翻了一審判決,認定被告的推薦行為不構(gòu)成隱私侵權(quán)。

        在訴訟中,百度主張其所搜集的僅是網(wǎng)絡(luò)碎片化信息,根本不可能直接識別原告;其搜集的信息并未向任何人公開,且用戶主動登錄的網(wǎng)絡(luò)空間不屬于私人領(lǐng)域;百度提供了Cookies 選擇退出機制,并在“隱私權(quán)保護聲明”中作出說明,已經(jīng)保障了原告的知情權(quán)和選擇權(quán)。

        如果從個性化推薦的角度看,百度的上述理由恐難以成立。首先,個性化推薦服務(wù)是由一系列程序支持完成,而程序是由算法和數(shù)據(jù)構(gòu)成[7],僅僅憑借Cookies 技術(shù)搜集用戶信息,離開算法的計算分析、用戶畫像,則根本不可能完成個性化推薦服務(wù)。其次,即便用戶允許平臺使用Cookies 技術(shù)搜集個人信息,但并不意味著用戶允許平臺利用算法搜集、分析、計算用戶信息。第三,盡管用戶選擇刪除Cookies 技術(shù)所存儲的瀏覽記錄,或者用戶改用不同瀏覽器訪問相同的網(wǎng)站,而被訪問網(wǎng)站的算法仍然可以繼續(xù)追蹤和收集用戶的個人信息[8]。第四,雖然百度搜集的是用戶的碎片化信息,但是平臺通過算法將諸多碎片化信息進行聚合形成用戶畫像,仍然可以識別到現(xiàn)實生活中的網(wǎng)絡(luò)用戶。最后,百度稱用戶主動登錄的網(wǎng)絡(luò)空間不屬于私人領(lǐng)域,但在網(wǎng)絡(luò)公共空間中同樣需要保護個人信息和個人隱私。用戶進入網(wǎng)絡(luò)空間并不意味著放棄個人信息權(quán)利和隱私權(quán),仍然有隱私保護期待,這也是國家出臺《個人信息保護法》(以下簡稱《個保法》)的意義所在。

        可見,傳統(tǒng)隱私權(quán)保護框架在算法時代面臨著巨大的挑戰(zhàn)。平臺利用個性化推薦算法大量搜集用戶的網(wǎng)絡(luò)歷史信息,而這些信息蘊含著當事人教育、家庭、職業(yè)、生活等諸多方面的豐富細節(jié)。例如,用戶在網(wǎng)絡(luò)平臺中搜索有關(guān)病例、藥品等信息,雖未直接暴露其私人健康、私人基因等私密信息,但是平臺利用算法全維度收集碎片化信息進行用戶畫像,則可以在很大程度上還原出用戶的真實情況。如果對平臺收集用戶信息的行為不加以限制,個性化推薦算法將為信息監(jiān)控提供便利,甚至成為大規(guī)模遠程監(jiān)控的工具[9],讓用戶深陷算法、數(shù)據(jù)、算力等數(shù)字力量構(gòu)架的數(shù)字“圓形監(jiān)獄”,個人隱私空間逐漸趨于透明[10],用戶對個人隱私的控制力被消解。

        (二) 干擾用戶意思自治

        個性化推薦算法正以潛移默化的方式影響用戶的選擇自由,干擾用戶意思自主的形成,妨礙用戶意思自治。積極強化和間接建議是影響個人或者群體行為和決策的有效方式。經(jīng)濟學(xué)者泰勒與法學(xué)者桑斯坦基于助推理論提出“Nudge(輕推)”概念,意即不妨礙用戶自由選擇的前提下,引導(dǎo)用戶選擇特定的選項。例如,盡管青少年更喜歡甜品、漢堡等高熱量食物,但當學(xué)校食堂將蔬菜、水果等更健康的食物擺放在近前時,學(xué)生也更傾向于拿取健康食物[11]。在算法時代,算法使用人借助HTTP Cookie、Flash Cookie、Ever Cookie、Fingerprinting 等技術(shù)以及智能語音助手等設(shè)備,大規(guī)模地收集用戶的個人信息,并基于這些信息進行用戶心理畫像,通過算法計算分析出用戶的興趣愛好,進而有針對性地精準推送,誘導(dǎo)用戶做出選擇??梢姡瑐€性化推薦算法在引誘用戶做出選擇方面與“輕推”相比,能獲得更好的效果,因而也被學(xué)者稱為“Hypernudge(超輕推)”[12]。實踐中,近期流行的微信小游戲“某羊”通過算法收集游戲玩家在微信上留存的信息,借此進行用戶畫像,當游戲玩家通關(guān)失敗需要復(fù)活時,便向用戶推送個性化的廣告誘導(dǎo)用戶進入其“金主”的領(lǐng)域內(nèi)購買商品或服務(wù),就是算法“助推”的典型應(yīng)用。

        助推理論揭示了一個真相,即可以通過塑造環(huán)境來影響個人選擇。由此可見,雖然平臺未直接迫使用戶做出選擇,但是個性化推薦算法已然干擾到用戶意思自主的形成。因為由算力、算法、數(shù)據(jù)構(gòu)成的環(huán)境在網(wǎng)絡(luò)空間中具有很重要的規(guī)制作用,無論用戶是否意識到環(huán)境架構(gòu)的存在,均能發(fā)生作用[10]51,致使用戶最終做出的選擇并非出自其內(nèi)心的真實意思。

        (三) 信息繭房

        所謂信息繭房,是指人們只關(guān)注自己感興趣的或者令自己身心愉快的信息,長此以往將自己深陷信息孤島的現(xiàn)象[13]。個性化推薦算法是一種信息過濾與分發(fā)的工具。人們越是對某類觀點表示贊同、進行收藏、點擊喜歡,個性化推薦算法便愈發(fā)向其推送同質(zhì)性的內(nèi)容,而與用戶觀點相左的聲音已被過濾掉,故帕利瑟在一次演講中稱其為“過濾泡泡”[14]。顯然,推薦算法正消融傳統(tǒng)的信息分發(fā)方式,通過算法賦權(quán)重塑了平臺和用戶之間的權(quán)力話語體系[15],使得信息繭房問題變得愈發(fā)嚴重,讓用戶深陷令其愉悅的信息繭房中。當信息繭房一旦形成,便使用戶禁錮在閉環(huán)的信息視野里,極易造成認知偏差、刻板印象、群體極化[16]。

        其實,用戶的行為邏輯并非是一勞永逸地以線性方式遵循過去的行為方式一直走下去,有時用戶還會因為手滑而對某種內(nèi)容誤贊或收藏,而算法對此種并非用戶內(nèi)心真實意思的表示行為無從知曉或故意忽略,一味地依據(jù)用戶過去的興趣愛好進行內(nèi)容分發(fā)。推薦算法之所以如此設(shè)計,源于流量競爭和商業(yè)利益至上。然而,互聯(lián)網(wǎng)信息服務(wù)不應(yīng)以一味取悅用戶為目標,其本身還應(yīng)承載著啟發(fā)民智、保障公民知情權(quán)等價值期許。

        公眾有權(quán)利知悉與其切身利益密切相關(guān)的信息,上到國家政務(wù)下到街口小道,但基于用戶興趣愛好的單一推薦算法使得用戶深陷自己感興趣的信息繭房中,而對其他領(lǐng)域中關(guān)涉其利益的信息缺乏必要的了解,使其誤認為現(xiàn)實世界的真相就是如此,從而間接地減損了其對外界事情的知情權(quán)[17]。因為在大多數(shù)情況下,用戶對于平臺何時、如何、怎樣收集其在網(wǎng)絡(luò)中留痕的個人信息處于一種“不知曉”的狀態(tài)。即便用戶知情允許平臺收集其個人信息,其對算法如何處理其個人信息,如何完成個性化推薦往往也是渾然不知。“算法黑箱”造成了嚴重的信息不對稱,干擾用戶對真實世界的認知,不斷侵蝕用戶的知情權(quán)。

        (四) 算法歧視

        所謂歧視,意即沒有合理根據(jù)而實施區(qū)別對待,這意味著不平等和非正義。個性化推薦算法的邏輯會生成針對特殊個體的個性化規(guī)則,這種規(guī)則會突破一般的法律秩序,產(chǎn)生“馬太效應(yīng)”,進而侵害個體的平等權(quán),應(yīng)當引起法學(xué)界的關(guān)注[18]。學(xué)者[19]研究了個性化推薦廣告與求職者性別之間的關(guān)系,發(fā)現(xiàn)谷歌推薦算法推薦給男性求職者高薪職位的次數(shù)遠遠高于女性。還有些商家通過算法搜集、匯總、分析用戶的個人信息并進行用戶畫像,從而得到消費者最大支付意愿信息,以千人千價的方式向不同的用戶推送相同的產(chǎn)品,形成了違反公平交易原則的價格歧視。

        算法歧視的形成邏輯與傳統(tǒng)社會中的歧視具有高度同源性。任何一種社會均普遍存在歧視現(xiàn)象,歧視并非是算法技術(shù)應(yīng)用所帶來的“特產(chǎn)”。雖然個性化推薦由算法完成,然而算法卻是由人這個主體所設(shè)計。不同主體對相同事物會形成不同的看法,基于人的主觀性因素,算法設(shè)計者不可避免地會自覺不自覺將自身的主觀偏見帶入到算法設(shè)計過程中,從而導(dǎo)致歧視性結(jié)果的發(fā)生。

        如前所述,僅僅憑借算法而沒有數(shù)據(jù)的加持,平臺根本不可能完成個性化推薦。因為算法是機器學(xué)習(xí)的核心,而機器學(xué)習(xí)離不開對數(shù)據(jù)的收集、匯總與分析;如果將帶有歧視性的數(shù)據(jù)輸入算法模型中,那么同樣會導(dǎo)致“偏見進,偏見出”的現(xiàn)象。隨著人工智能神經(jīng)網(wǎng)絡(luò)、機器深度學(xué)習(xí)等技術(shù)的發(fā)展,算法正朝著自主化、脫離人控制的趨勢運行。即便是算法模型的最初設(shè)計者,也很難預(yù)知算法會做出什么樣的決策。因此,機器學(xué)習(xí)很容易模仿人類偏見的生成邏輯,從而導(dǎo)致歧視的發(fā)生。算法歧視不僅侵害了公民平等權(quán)等基本權(quán)利,而且還導(dǎo)致不同群體間的信息資源分配不公,進一步擴大數(shù)字鴻溝,而深陷信息資源分配不公地帶的群體,在數(shù)字經(jīng)濟時代正逐漸陷入“數(shù)字貧困”狀態(tài),危及數(shù)字正義,故而亟需法律作出回應(yīng)。

        三、個性化推薦算法法律規(guī)制的原則

        在技術(shù)中立的語境下,個性化推薦算法產(chǎn)生的風(fēng)險極易被忽略。對個性化推薦算法進行規(guī)制也往往遭到“技術(shù)烏托邦”愛好者的反對。然而推薦算法帶來的個人信息濫用、信息繭房、算法歧視等風(fēng)險,的確會給用戶造成了實質(zhì)性的損害。筆者認為,應(yīng)當以誠信原則、自主原則、公正原則、比例原則為指導(dǎo),對個性化推薦算法帶來的法律風(fēng)險進行規(guī)制,以平衡算法開發(fā)者、應(yīng)用者、用戶等主體之間的利益關(guān)系。

        (一) 誠信原則

        所謂誠信原則,是指“一切法律關(guān)系,應(yīng)各就其具體的情形,依正義衡平之理念,加以調(diào)整,而求其具體的社會妥當”[20]。換言之,誠信原則就是把雙方當事人對立的利益加以公平的較量而求其中道。分開來說,誠實是尊重相對人的利益,信用是尊重交易的安全。

        個性化推薦算法的應(yīng)用體現(xiàn)了公民的個體權(quán)利與企業(yè)的商業(yè)利益二者之間的相互博弈。企業(yè)希望不斷收集用戶的信息以提高自己的服務(wù)效率,攫取更多的商業(yè)利益,而用戶則不希望個人信息被過分收集以便維護個體權(quán)益[21]。個性化推薦算法應(yīng)用之所以會產(chǎn)生前述種種風(fēng)險,根本原因在于當事人之間法律關(guān)系的失衡。在二者博弈過程中,企業(yè)憑借技術(shù)的優(yōu)勢操縱算法,使利益的天平逐漸朝著資本傾斜,人似乎漸漸不再是算法的主體,反而成為算法下可被預(yù)測和計算的“客體”,人類的主體性地位在算法社會下正變得岌岌可危。這種法律利益的失衡與主客體倒置現(xiàn)象,違背了公平正義,損害了用戶的個人信息權(quán)利和隱私權(quán)等正當權(quán)益,需要基于誠信原則予以矯正,對濫用個性化推薦算法的行為予以法律否定和制裁。

        (二) 自主原則

        自主原則是指個體按照自我意愿獨立做出決定并為自己負責的能力[22]。學(xué)界通說認為,自主原則源于康德的自由理論??档抡J為人是自主且理性的人,人作為具有理性能力的存在者,能做出符合理性的選擇,并對自己的行動負責,故應(yīng)當給予人類足夠的空間和自由去選擇,把人當作目的而不是手段去尊重[23]。

        信息多樣性被認為是實現(xiàn)個體自主的有利條件,然而個性化推薦算法導(dǎo)致的信息繭房將一些對個體重要但是其不感興趣的信息排除在外,嚴重地窄化了用戶的信息視野,進而阻礙用戶進行自主決策[24]。此外,隨著機器深度學(xué)習(xí)的縱向發(fā)展,算法只需借助初始模型而不需后期“投喂”,便可以自己學(xué)習(xí)進行推薦、做出決策,這無疑會增強算法的自主性而削弱人的主體性地位。因此,有必要在算法的發(fā)展應(yīng)用過程中確立自主原則,充分尊重人的主體性地位,構(gòu)建以人為本的算法框架,以便算法更好地服務(wù)于人類社會。2019 年G20 部長級會議通過《G20貿(mào)易和數(shù)字經(jīng)濟聲明》,首創(chuàng)“G20 人工智能原則”,強調(diào)發(fā)展以人為本的人工智能,指出人工智能各參與方應(yīng)采取措施保留人類自主決定的能力[25]。2021年我國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,列出了人工智能各類活動應(yīng)當遵循的六種基本倫理規(guī)范,其中也包括“尊重與保障自主原則”,強調(diào)保障人類擁有充分自主決策權(quán),確保人工智能始終處于人類控制之下。

        (三) 公正原則

        公正作為人們被平等對待、各得其所的道德期許,是社會共同體長久維系的原因所在。羅爾斯認為,社會公正是社會制度的首要價值,其在《正義論》中提出兩大正義原則:一為自由平等原則,即每個人對與所有人所擁有的最普遍的自由體系相容的類似自由體系都應(yīng)有一種平等的權(quán)利;二為差別原則,即社會及經(jīng)濟中的不平等應(yīng)妥善安排以使得有利于最少受惠者的最大利益且職務(wù)放開[26]。

        前文提及的商家利用算法分析用戶的支付意愿,進而以千人千價的方式向用戶推送產(chǎn)品的“殺熟”做法即違反了羅爾斯的第一正義原則。按照正義的第一原則,個性化推薦算法應(yīng)當平等地對待每一個人,不因用戶的性別、種族、教育背景、財富狀況等因素的不同而實施歧視性待遇。根據(jù)正義的第二原則,公正原則是一種實質(zhì)正義,其本身就蘊含著一定的正當性“偏見”,體現(xiàn)為使社會中處境最不利的成員獲得最大的利益,故公正原則并非絕對的平等,絕對地去“偏見化”,而是以實質(zhì)正義為價值導(dǎo)向[27]。實踐中,有的大學(xué)利用算法收集學(xué)生在食堂的消費記錄,分析學(xué)生的消費能力,從而以此為憑借發(fā)放助學(xué)金。這種算法使處于不利處境的學(xué)生獲得了資助,又避免了傷害貧困學(xué)生的自尊心,可謂是符合正義第二原則的做法。因此,對個性化推薦算法的治理,既要規(guī)制算法以防不公現(xiàn)象的發(fā)生,又要利用算法的技術(shù)優(yōu)勢,彌補社會裂痕,實現(xiàn)實質(zhì)正義。

        (四) 比例原則

        比例原則起源于德國,最初是對限制公民權(quán)利之國家權(quán)力的限制,即“權(quán)利限制的限制”,后來作為目的理性的集中體現(xiàn),貫穿于公法與私法之中,在私法中得到廣泛應(yīng)用[28]。在公法上,如我國《行政處罰法》規(guī)定,實施行政處罰應(yīng)當與違法行為的事實、行為、危害程度等相當。在私法上,如我國《民法典》規(guī)定,緊急避險采取措施不應(yīng)超過必要的限度。此外,兼具公私法性質(zhì)的《個保法》也明確信息處理者要依據(jù)比例原則處理個人信息。當個性化推薦算法導(dǎo)致公民個人權(quán)利與企業(yè)商業(yè)利益二者失衡時,為再平衡二者之間的關(guān)系,需引入比例原則。我國目前有關(guān)算法的規(guī)范以行政規(guī)范為主,引入比例原則顯得尤為重要。

        比例原則由必要性、適當性和均衡性三個子原則構(gòu)成。根據(jù)必要性原則,技術(shù)與經(jīng)濟的發(fā)展是絕對不能以剝奪個體權(quán)利為代價,個性化推薦算法應(yīng)當選取對用戶權(quán)益損害最小的方式完成推送。在能通過收集一般信息即可完成服務(wù)的情況下,就不能收集用戶的敏感信息。根據(jù)適當性原則,在對個性化推薦算法進行規(guī)制的同時,應(yīng)當有助于積極推動人工智能的健康發(fā)展,促進人工智能產(chǎn)業(yè)商業(yè)價值的實現(xiàn),主要體現(xiàn)在對公民個體權(quán)利的保護不能“畸形化”;人們在享受技術(shù)帶來的巨大紅利時,應(yīng)當承認適當?shù)娘L(fēng)險存在。根據(jù)均衡性原則,個性化推薦算法消耗的成本與獲得的利益應(yīng)合乎比例。具體而言,在保障用戶正當權(quán)益的前提下,可以運用推薦算法謀求數(shù)據(jù)財產(chǎn)價值的最大化,破除資本利用技術(shù)優(yōu)勢所構(gòu)建起的數(shù)據(jù)壟斷屏障。

        四、個性化推薦算法法律風(fēng)險規(guī)制的具體路徑

        算法技術(shù)的應(yīng)用在給人們帶來效益的同時,也亟需法律對算法風(fēng)險進行必要的干預(yù)與規(guī)制,使其在法治的框架內(nèi)運行。目前,推薦算法帶來的風(fēng)險已引起世界各國的廣泛關(guān)注,一些國家和國際組織紛紛立法以引導(dǎo)算法的良性使用。例如,歐盟出臺《一般數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR),賦予公民個體數(shù)據(jù)權(quán)利束以對抗算法濫用。美國公布的《算法問責法》草案通過對算法使用者進行問責的方式以規(guī)制算法的應(yīng)用。我國對個性化推薦算法的法律規(guī)制主要體現(xiàn)在個人信息保護、數(shù)據(jù)安全、廣告運營等規(guī)范中。2022 年3 月1 日正式實施的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦管理規(guī)定》)是我國首部以推薦算法服務(wù)為規(guī)制對象的規(guī)范性文件,但該規(guī)定的相關(guān)條款過于原則,缺乏可操作性。而其他法律文件中雖有涉及推薦算法的規(guī)定,但未觸碰到個性化推薦算法的核心。因此我國個性化推薦算法的治理有必要在借鑒域外經(jīng)驗的基礎(chǔ)上,沿著更精細化的路徑前進。

        (一) 基于開放的隱私觀強化網(wǎng)絡(luò)隱私保護

        通常認為,隱私權(quán)以生活安寧和私人秘密為基本內(nèi)容[29]。隨著信息通信技術(shù)的發(fā)展,將隱私限于秘密或者獨處權(quán)利的傳統(tǒng)隱私權(quán)觀念,已不能適應(yīng)現(xiàn)實經(jīng)濟社會的需要,無法面對算法時代的挑戰(zhàn)。于是有學(xué)者[30]提出隱私“控制論”,強調(diào)個體對自我隱私擁有絕對的控制力。此種觀點可謂是自由主義的自主原則的延伸,但這些觀點均是建立在私人領(lǐng)域與公共領(lǐng)域之間具有明顯界分的基礎(chǔ)之上。然而在由代碼、數(shù)據(jù)等組成的數(shù)字空間中,傳統(tǒng)的私人領(lǐng)域與公共領(lǐng)域的二元界限變得更加模糊不清。例如,許多門戶網(wǎng)站既包括公眾參與政治的公共領(lǐng)域,也存在用戶分享個人生活動態(tài)的私人領(lǐng)域。

        在開放的網(wǎng)絡(luò)環(huán)境下,公開信息與隱私信息的界限也更加模糊。用戶在網(wǎng)絡(luò)平臺上分享自己的觀點和個人生活動態(tài)本屬于公開信息,但將用戶的觀點和個人生活動態(tài)等收集起來利用算法進行用戶畫像,則可能挖掘用戶隱私。某個人某日出現(xiàn)在飯館等公共場所不屬于私密信息,但攝像頭持續(xù)監(jiān)控下的個人行蹤則可能涉及個人隱私。為此,筆者建議將傳統(tǒng)的地緣隱私觀代之以開放的隱私觀。按照開放的隱私觀,雖然網(wǎng)絡(luò)用戶公開的觀點和個人生活動態(tài)不屬于隱私,其網(wǎng)絡(luò)瀏覽記錄、電子商務(wù)消費記錄也難與隱私等同,但是平臺利用算法將個人信息收集起來進行畫像所形成的預(yù)測結(jié)論,如涉及用戶隱私,則應(yīng)納入到隱私權(quán)的保護范圍。換言之,在開放網(wǎng)絡(luò)環(huán)境下,對于公開的個人信息,人們同樣有合理的隱私期待。這正是誠信原則所要求的對當事人利益的尊重和對交易安全的尊重。

        (二) 強化算法告知義務(wù)與用戶拒絕權(quán)利

        個性化推薦是一種個人信息處理活動,離不開算法與數(shù)據(jù)。平臺作為個人信息處理者,其與個人信息主體之間是一種信息不對稱、地位不對等的關(guān)系。為了平衡二者之間的利益關(guān)系,以實現(xiàn)信息處理過程中的實質(zhì)正義,需要強化平臺的義務(wù),賦予用戶相應(yīng)的權(quán)利,以矯正雙方主體之間不對等的地位,保障用戶的自主選擇權(quán)。

        首先,應(yīng)強化平臺的告知義務(wù)。既然個性化推薦算法作為一種個人信息處理方式,那么平臺自然應(yīng)當遵守《個保法》第十七條所確立的個人信息處理者的告知義務(wù)。此外,《算法推薦管理規(guī)定》第十六條也明確規(guī)定,算法推薦服務(wù)提供者應(yīng)當履行告知用戶算法推薦服務(wù)的義務(wù)。但是,為了保障用戶的知情權(quán),平臺的告知義務(wù)并非僅限于此。筆者認為,平臺還應(yīng)當履行告知用戶個性化推薦算法處理其個人信息可能對其造成的影響的義務(wù)。例如,歐盟GDPR 規(guī)定,平臺應(yīng)當告知利用算法處理數(shù)據(jù)對數(shù)據(jù)主體造成的預(yù)期后果。

        其次,應(yīng)便利用戶行使算法應(yīng)用拒絕權(quán)。我國《個保法》第二十四條第二款規(guī)定了用戶的算法拒絕權(quán)。據(jù)此,當用戶不愿意算法干擾自主選擇時,應(yīng)當允許用戶拒絕平臺的算法推薦;當用戶不愿意身陷令其身心愉悅的信息繭房時,也應(yīng)當允許用戶行使算法拒絕權(quán),從而確保信息來源的多樣性;甚至,應(yīng)當允許用戶設(shè)定算法應(yīng)用的時間段,如晚上10 點后自動關(guān)閉算法應(yīng)用,以免刷屏上癮熬夜傷身??梢?,用戶的算法拒絕權(quán)是對平臺利用算法肆意地收集并濫用個人信息的限制,應(yīng)當保障用戶能夠便捷地行使該權(quán)利。

        (三) 完善算法解釋權(quán)

        為了應(yīng)對算法歧視問題,不少國家立法規(guī)定了算法解釋條款。歐盟GDPR 第十三條至十五條規(guī)定數(shù)據(jù)控制者有義務(wù)提供給公民個人算法決策詳細的解釋。法國《數(shù)字共和國法》規(guī)定行政機關(guān)利用算法作出行政決定時,相對人有權(quán)要求其對算法作出說明[31]。而我國《個保法》第二十四條與《算法推薦管理規(guī)定》第十二條也對算法解釋作出了規(guī)定。但是有關(guān)算法解釋權(quán)的構(gòu)成要件、內(nèi)容、方式等問題,無論是學(xué)術(shù)界還是實務(wù)界均存在較大爭議。

        根據(jù)我國《個保法》第二十四條第三款的規(guī)定,算法解釋權(quán)的構(gòu)成要件包括以下兩個方面:第一,通過自動化決策方式作出決定;第二,該決定對個體權(quán)益造成重大影響。此處的爭議有二:(1)是否只有僅憑算法作出決策時,用戶才能行使解釋權(quán)?(2)重大影響是否僅含不利影響?筆者對此均持否定態(tài)度,因為雖然算法技術(shù)不斷迭代升級,但信息分發(fā)也并非完全僅憑算法完成。例如,一些頭部互聯(lián)網(wǎng)公司設(shè)有信息審核員職位,崗位職責就是在算法提供參考決策的前提下,人為審核并干預(yù)信息的分發(fā)。因此,即便用戶最終看到的是經(jīng)過人工干預(yù)的結(jié)果,但只要算法在最終的推薦決策中起到重要影響,就應(yīng)當成為算法解釋權(quán)的適用對象。同時,如果嚴格要求只有算法決策對用戶權(quán)益造成不利影響時,用戶才能行使算法解釋權(quán),這無疑將會給用戶增加負擔。以信息繭房為例,很多用戶深陷令其愉悅的信息繭房之中,很難感受到信息繭房對其造成的不利影響,即便能感知到,而由于平臺與用戶之間的“信息鴻溝”,讓其承擔遭受不利影響的證明責任恐怕也難以實現(xiàn)。

        算法解釋權(quán)的目的在于保障用戶的知情權(quán)與救濟權(quán)。用戶行使算法解釋權(quán),是為了搞清楚個性化推薦算法產(chǎn)生信息繭房、隱私、歧視等風(fēng)險的原因,以尋求損害救濟,并無意于糾結(jié)算法技術(shù)的細枝末節(jié)。因此,筆者認為,《算法推薦管理規(guī)定》第十六條關(guān)于公示算法推薦的基本原理、運行機制等的規(guī)定不夠全面。公示算法的運行機制可能會侵犯算法提供者的商業(yè)秘密,同時易滋生競爭對手以行使算法解釋權(quán)之名而為不正當競爭之實的現(xiàn)象。對此,歐盟GDPR 基于誠信和公正原則,強調(diào)算法解釋權(quán)的行使不得侵害企業(yè)的知識產(chǎn)權(quán)與商業(yè)秘密。我國《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》也將算法納入到商業(yè)秘密的保護范圍內(nèi)。因此,在允許用戶行使算法解釋權(quán)的前提下,應(yīng)當對算法解釋權(quán)進行一定的限制,允許平臺在面對用戶提出解釋算法核心代碼、主要運行機制等涉及企業(yè)核心商業(yè)秘密時,提出合理性抗辯。同時應(yīng)基于比例原則,允許采取對平臺商業(yè)秘密損害較小的方式向算法相對人解釋算法決策的依據(jù)、可能對其造成的影響等,以使用戶在遭受歧視性對待時,獲得可救濟的機會。

        (四) 構(gòu)建算法審計制度

        近年來隨著算法尤其是深度學(xué)習(xí)算法的廣泛應(yīng)用,算法審計應(yīng)運而生。所謂算法審計,是指審計主體對被審計者所使用的算法模型、數(shù)據(jù)、算法研發(fā)等技術(shù)活動的風(fēng)險、合規(guī)進行審核、評估,以監(jiān)督算法正當使用的活動。世界各國立法也多有提及算法審計,如美國紐約州立法明文規(guī)定雇主在招聘過程中使用算法時,必須進行年度算法歧視審計,否則不可在招聘過程中使用算法進行簡歷評估[32]。遺憾的是,目前尚未形成一套完備的、體系化的算法審計制度。結(jié)合審計學(xué)領(lǐng)域的審計實踐經(jīng)驗,一套完備的算法審計制度應(yīng)由算法審計主體、審計對象、審計方法、審計后果四個要素組成。

        從算法審計的發(fā)展歷史來看,早期的算法審計主要關(guān)注算法模型、數(shù)據(jù),重點衡量算法的效率與運行成本。伴隨著機器學(xué)習(xí)尤其是深度學(xué)習(xí)算法的發(fā)展,愈發(fā)趨近自主化的算法帶來了諸多不確定的風(fēng)險,算法審計的關(guān)注點從早期的算法效能逐漸轉(zhuǎn)變至數(shù)據(jù)保護、數(shù)據(jù)信息來源多樣性、算法公平、算法可解釋性等內(nèi)容[33]。

        算法審計的目的就是為了審查算法應(yīng)用的合法性與合理性,保持算法的可問責性。當算法審計主體檢測出個性化推薦算法存在導(dǎo)致或可能導(dǎo)致算法歧視、信息繭房等法律風(fēng)險時,有權(quán)要求算法服務(wù)提供者對此進行陳述并進行修改,要求算法服務(wù)提供者將尊重用戶主體地位的“自主原則”目標嵌入到算法設(shè)計之中,如設(shè)計個性化推薦算法一鍵關(guān)閉裝置。同時可以要求算法應(yīng)用者在算法設(shè)計之時,通過修改參數(shù)等方式貫徹“多樣性暴露原則”,確保用戶獲得的信息具有多樣來源性,從而戳破“過濾泡泡”。如果算法應(yīng)用者拒不改正,則出具否定的審計意見,并將審計結(jié)論上報給網(wǎng)信、公安、市場監(jiān)管等主管部門由其進行處理。

        五、結(jié)語

        個性化推薦算法技術(shù)的更新迭代,極大地便利了人類的社會生活,也為互聯(lián)網(wǎng)經(jīng)濟的發(fā)展注入新的活力[34]。而技術(shù)的賦權(quán),使得擁有算法核心技術(shù)的資本操縱著算法時代的話語權(quán)體系。人們在接受個性化推薦服務(wù)的同時,也被動地成為了被算法規(guī)制的“客體”。隱私的侵犯、知情權(quán)的減損、平等與非歧視的落空等種種風(fēng)險,均體現(xiàn)了個性化推薦算法的兩面性。為了平衡算法服務(wù)提供者與用戶之間的利益關(guān)系,一種合乎邏輯的規(guī)制路徑是在誠信、自主、公正、比例原則的指引下,強化算法使用人的義務(wù)與用戶的權(quán)利,合理界定算法的權(quán)力邊界,防止個性化推薦算法被濫用,以便高效公正調(diào)配沖突各方利益,通過算法審計引導(dǎo)個性化推薦算法在法治的框架下被正確使用。

        猜你喜歡
        個性化原則算法
        堅持個性化的寫作
        文苑(2020年4期)2020-05-30 12:35:12
        基于MapReduce的改進Eclat算法
        Travellng thg World Full—time for Rree
        進位加法的兩種算法
        新聞的個性化寫作
        新聞傳播(2018年12期)2018-09-19 06:27:10
        堅守原則,逐浪前行
        上汽大通:C2B個性化定制未來
        一種改進的整周模糊度去相關(guān)算法
        無罪推定原則的理解與完善
        滿足群眾的個性化需求
        日韩av无码一区二区三区不卡| 杨幂国产精品一区二区| 俺来也三区四区高清视频在线观看| 亚洲色AV性色在线观看| 日韩精品国产一区二区| 邻居美少妇张开腿让我爽了一夜| 一区二区三区av波多野结衣| 亚洲国产成人精品无码区在线观看| AV无码专区亚洲AVL在线观看| 国产亚洲综合另类色专区| 成年女人a级毛片免费观看| 国产一区二区三区av在线无码观看| 亚洲AV秘 片一区二区三区| 手机免费高清在线观看av| 永久免费人禽av在线观看| 国产精品-区区久久久狼| 美腿丝袜一区二区三区| 国内精品亚洲成av人片| 东北女人毛多水多牲交视频| 日韩h网站| 美腿丝袜一区在线观看| 中文字幕无码成人片| 1000部夫妻午夜免费| 亚洲AV秘 无码一区二区三区| 少妇被粗大猛进进出出男女片| 蜜臀av无码人妻精品| 丁香综合网| 免费人妻精品区一区二区三| 国产精品免费一区二区三区四区 | 一区二区三区日韩亚洲中文视频| 国产一级av理论手机在线| 精品国产yw在线观看| 亚洲av无码一区二区三区四区| 久久99亚洲综合精品首页| 日本不卡视频一区二区| 国产精品无码无片在线观看3d| 亚洲国产福利精品一区二区| 99国语激情对白在线观看| 免费无码又爽又高潮视频| 少妇人妻偷人精品无码视频| 91在线观看国产自拍|