亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        算法推薦的權利風險及其治理

        2022-11-24 15:48:40
        關鍵詞:用戶信息

        鄭 馳

        (華東政法大學 法律學院,上海 200042)

        隨著網絡信息技術的發(fā)展,新技術新應用推動了社會治理能力的提升、數字經濟的繁榮和數字政府的建設,傳統(tǒng)的生產生活方式、治理方式正在數字化驅動下進行著轉型與變革。正如習近平總書記強調的,要“著力推動互聯網和實體經濟深度融合發(fā)展,以信息流帶動技術流、資金流、人才流、物資流,促進資源配置優(yōu)化,促進全要素生產率提升,為推動創(chuàng)新發(fā)展、轉變經濟發(fā)展方式、調整經濟結構發(fā)揮積極作用”[1]。算法作為信息技術的底層架構,在信息傳播、資源配置、決策輔助等方面發(fā)揮了基礎性作用。算法推薦技術則為解決數字時代中信息過載的問題提供了幫助,通過精準的運算邏輯,提供個性化的內容,塑造了個人與信息之間新的連接方式。但從另一方面來看,新技術的發(fā)展也可能給公共利益、社會秩序及國家安全帶來挑戰(zhàn),需要以協同高效的治理方式,使算法推薦等新技術在法治軌道上運行。習近平總書記指出,“要依法加強網絡社會管理,加強網絡新技術新應用的管理,確保互聯網可管可控,使我們的網絡空間清朗起來”[2]。在利用信息技術創(chuàng)新的擴散效應實現經濟發(fā)展的同時,也應當注意技術的安全性,用主流價值導向駕馭算法,使互聯網發(fā)展的成果釋放普惠效應。

        一、算法推薦的架構機制

        (一)環(huán)境架構:不依賴外界保障的自我執(zhí)行

        相較于法律、社群規(guī)范的規(guī)制模式,架構規(guī)制有以下特點。第一,就法律、社群規(guī)范規(guī)制而言,在對被約束者的要求上,被約束者需要了解法律、社群規(guī)范的社會調控作用,當在主觀上對法律、社群規(guī)范有所預期時,被約束者便會基于預期調整行為,規(guī)范便發(fā)揮其效力。但就架構規(guī)制而言,其有效性與被約束者的認知無關,無論被約束者是否意識到架構的作用,架構均能發(fā)揮作用。第二,在對執(zhí)行主體的依賴方面,架構規(guī)制可以自我執(zhí)行。法律所進行的規(guī)制,往往需要有執(zhí)法機關、司法機關的保障,才能實現法律的效力。不同于法律所進行的規(guī)制,由架構所進行的規(guī)制,在架構形成之時,便開始發(fā)揮作用,直到被終止。[3]362-366架構決定了用戶行為的邊界,同時也在一定程度上界定了用戶的權利。

        從現行關于架構責任的視角予以考察,首先,在設計架構方面,互聯網平臺主要承擔行政責任。架構的有效性與被約束者的預期無關,因而架構的設計與選擇并非互聯網平臺與用戶之間的合意內容,而主要通過行政法規(guī)的規(guī)定予以調整。其次,在架構規(guī)制所產生的后果方面,由互聯網平臺承擔侵權或是違約責任。架構規(guī)制具有自我執(zhí)行的特點,能以較低的成本實現規(guī)制的目標,平臺通過架構所進行的規(guī)制被作為行政機關規(guī)制的補充,實現對互聯網的合作治理。

        1.不受合意調整的架構設計

        在設計架構方面,用戶對架構設計的自主選擇權限以及相關技術信息的知情權,取決于平臺的設置,并主要依賴行政機關依照相關規(guī)定進行監(jiān)管,用戶尋求的私法救濟并非主要的控制手段。以短視頻網絡平臺抖音為例,其進行的算法推薦在頁面設計上,采取的是默認推薦與連續(xù)推薦的架構。用戶進入平臺時,便進入了算法推薦模式,平臺不設置用戶選擇選項,弱化了用戶對正在進行算法推薦的意識。在推送頻率上,無須用戶過多操作便可以進行連續(xù)推薦。這樣的環(huán)境為用戶創(chuàng)造了強烈的沉浸式體驗,具有個性化、信息閉環(huán)化的傾向。由此可見,網絡平臺的環(huán)境架構在形成后,便開始生效。平臺憑借對架構的調整,能夠達成平臺的價值偏好,因為無須被約束者知情,個人在主觀無意識的情況下受到架構的影響。而對于用戶而言,架構的運作方式與運作目的則是缺乏透明度的。

        當前的互聯網已經度過了自生自發(fā)的階段,平臺化成為這一階段的典型特征。平臺可以對架構進行設計,乃至不僅僅控制被約束者,還對數字經濟的生產過程進行引導與調整。[4]而在此過程中,平臺所遵循的商業(yè)邏輯具有逐利的目標,可能對用戶權利造成侵犯,例如競價排名、誘導沉迷的設計對用戶權益的損害。法律也逐步回應平臺技術不中立的現象,如《中華人民共和國電子商務法》第40條要求電子商務平臺經營者對于競價排名的商品或者服務,應當顯著標明“廣告”。在《互聯網信息服務算法推薦管理規(guī)定》中,相關規(guī)定對環(huán)境架構的設計做出了直接的規(guī)定,例如禁止算法推薦服務提供者設置誘導用戶沉迷、過度消費等算法模型,要求開發(fā)適合未成年人使用的模式等內容。在平臺用戶協議中,架構設計并不作為平臺與用戶合意的內容被列出,用戶對于架構的知情與選擇處于黑箱的狀態(tài),用戶依照架構所給出的默認設置而行為。當出現糾紛時,法院可能將架構作為判斷用戶行為限度的標準,劃定平臺與用戶之間的責任。在架構允許行為的范圍內,用戶行為可能不被認定為違反服務協議規(guī)定的行為。(1)(2019)桂民再681號。

        2.由架構間接執(zhí)行法律時的單方責任

        由于架構具有規(guī)制的能力,其也被行政機關利用,對互聯網中的內容進行監(jiān)管。鑒于架構通常由互聯網平臺等技術主體所掌握,監(jiān)管的執(zhí)行也依賴于技術主體的行動,這種方式也被認為是間接執(zhí)行法律。[5]這種通過架構規(guī)制行為,從而間接執(zhí)行法律的方式,引發(fā)了互聯網平臺與行政機關之間法律責任分配的問題。以互聯網平臺封禁用戶賬號為例,互聯網平臺對用戶賬號進行封禁體現了架構的規(guī)制能力,互聯網平臺能夠控制違法信息傳播的節(jié)點,進行封號,拒絕被封用戶進入平臺,從而切斷信息傳播的源頭。[6]同時,行政機關通常以行政指導的方式,督促互聯網平臺對用戶采取封禁、限制使用部分功能等處置措施。例如在國家網信辦自2021年8月27日起開展的清朗·商業(yè)網站平臺和“自媒體”違規(guī)采編發(fā)布財經類信息專項整治活動中,國家網信辦會同國家發(fā)改委、財政部等部門,督促指導主要商業(yè)網站平臺封禁關停了一批違規(guī)自媒體賬號。[7]在這種規(guī)制模式下,用戶在互聯網平臺上發(fā)表言論的資格受到了限制。雖然這種限制實質上有行政機關的參與,但從表面來看,反映為互聯網平臺通過技術設置所進行的限制。用戶通常要求互聯網平臺承擔侵權或者違約責任,而無法對行政機關提起行政復議或者訴訟,要求行政機關承擔責任。[8]

        (二)個人身份的數字化架構:用戶畫像的表達

        1.以個人特征標簽為基礎建立的用戶畫像

        算法推薦的個性化基于對用戶形象的數字化刻畫,也即進行用戶畫像。用戶畫像是用戶形象的代碼化表現,從架構的角度解讀,用戶所獲取的推薦信息與其畫像的架構相符。用戶畫像涉及算法、建模等信息技術專業(yè)知識,通過分析用戶人口學特征、網絡瀏覽內容、網絡社交活動和消費行為等信息,抽象出一個標簽化的用戶模型。[9]152個人的數字化架構被區(qū)分為粒度由粗到細的層次化標簽,系統(tǒng)為用戶抽象出的標簽對于用戶所獲取的推薦內容具有重要作用。在網絡空間中,標簽是用以約束用戶獲取信息類型的工具,系統(tǒng)根據對用戶行為數據的分析,為不同的用戶確定不同的標簽,標簽代表了對用戶個人特征的確認與推斷。個人數字化架構對用戶獲取推薦內容的影響在于,從架構的整體設計而言,若標簽體系中缺少某項價值理念,那么用戶將難以獲取相關內容。例如在標簽體系中缺少對公共性內容偏好的設計,則會導致用戶獲取公共性內容自由的限制。從為每個用戶單獨刻畫的用戶畫像架構而言,不同的畫像也決定了與用戶匹配的信息內容,塑造了用戶所身處的擬態(tài)環(huán)境。

        2.數字身份的被動構建與事前保護

        回歸到個人,用戶畫像蘊含著個人數字身份的表達。從個人身份的發(fā)展來看,最初對個人身份的保護側重于靜態(tài)身份的保護,用以識別和認證特定的個人,實現國家治理和政府管理。在私法層面,則通過立法保護姓名權、肖像權,防止他人不當侵害個人身份。到了20世紀后期,個人身份保護側重于動態(tài)身份保護,也即保護個人在社會生活中所呈現的身份,包括個人在社會、宗教、政治等方面所呈現的特征,確保在社會關系中呈現的自我不是被歪曲的。[10]進入數字化時代,個人不再只以自然人的形態(tài)生活在物理空間中,同時還以信息人的形態(tài)存在于虛擬空間中,具有生物與信息雙重面向。[11]由此,個人的數字身份逐漸形成,并通過以個人信息為基礎建構起來的用戶畫像呈現,個人在各方面所具備的特征則通過用戶畫像的標簽表達出來。

        用戶畫像所表達的數字身份與傳統(tǒng)身份有所不同。首先,在數字身份的形成上,不僅包括由個人主動提供個人信息從而塑造出的數字身份,還包括由他人對個人進行推斷,進而預測出的數字身份,即數字身份并非完全是自主構建的。推斷所形成的數字身份是一種被動的構建,其脫離了個人對自我的認知,可能與個人主體相分離,具有一定風險。此外,推斷常常是基于數理邏輯對用戶某項個人屬性的定性,并依屬性對應著后續(xù)決策,例如分析用戶的人脈關系、資產證明、行為累積等數據,為用戶賦予信用良好或較差的數字身份屬性。[12]這種推斷過程通常是不透明的,既可能是基于專業(yè)槽的“文盲不透明”,也可能是基于對商業(yè)秘密保護的“故意不透明”。其次,在對身份的保護形式上,傳統(tǒng)個人身份可以通過對姓名權、肖像權等人格權利的主張獲得事后保護。但對于用戶畫像,用戶則是通過“知情同意”機制,授權畫像方使用其個人信息。這種制度設計試圖在事前完成對個人信息在收集、使用全流程中的保護,遵循了現代權利觀念的邏輯,即從自由推出權利,因為人有作為理性概念的自由意志,所以能夠自由地做不妨礙別人的行為,也即是有了權利。[13]但數字身份的形成邏輯卻與這種權利觀念邏輯相悖,因為數字身份是用戶進入數字生活的前提,用戶有了數字身份才能夠與數字服務提供方建立信任關聯。[14]知情同意機制雖然看似為用戶提供了表達自由意志的空間,但用戶實際上面臨著不同意則無法與服務提供者建立關聯,從而無法進入數字生活空間的尷尬局面。因此,就由用戶畫像所表達的數字身份而言,事前的保護機制作用十分有限。

        (三)內容生成架構:推薦算法的過濾

        1.由技術架構實現的異質信息過濾

        推薦算法實現了用戶畫像與個人之間的信息連接,決定了內容的生成。主要的推薦算法包括協同過濾推薦算法、基于內容的推薦算法、基于圖結構的推薦算法等。以協同過濾推薦算法為例,其運作邏輯是:要為用戶推薦感興趣的內容,可以通過找到與該用戶偏好相似的其他用戶,將他們感興趣的內容推薦給該用戶。協同過濾方法中基于記憶的推薦方法可以概括為兩步:第一步是采用相似度計算方法計算用戶、項目之間的相似度,構造相似度矩陣;第二步是采用相應的算法估計評分,并據此為用戶進行推薦。[15]在這個過程中,推薦算法的代碼架構被設計為對用戶的推薦依賴相似用戶的選擇。用戶所從事的活動留下了蹤跡,而這種代碼架構收集了活動蹤跡,并將蹤跡與其他用戶相聯系,用戶所獲得的推薦與算法所推斷的與其相似的人的選擇具有同質性。在這種架構下,對異質信息的需求被過濾,信息的傳播范圍集中在特定群體里,群體將收到橫向窄化而向縱向加深的信息內容。

        2.契合個體化進程的推薦算法

        通過這種模式進行的信息生產遵循著用戶本位的邏輯,信息精確地指向個人,用戶是數字生活空間的中心,改變了傳統(tǒng)的以傳播者為本位,由傳播者控制信息的采編與分發(fā)的信息生產邏輯。這種轉變也體現了在社會進程中個體與社會之間關系的變遷,個人與其他社會成員的人身依附關系以及自然紐帶關系被不斷打破,個體化成為現代社會的突出現象。在傳統(tǒng)社會中,以血緣關系、宗族情感為紐帶建立起一個倫理社會,集體意識、道德規(guī)范調整并限制個人的行為。而隨著市場經濟的發(fā)展和社會經濟結構的變動,城市化轉型沖擊了宗族在空間上的聯結,越來越多的宗族成員也向各個城市流動,尋求個人的發(fā)展。[16]在進入數字時代之后,人與人之間的社會關系掩藏在數字身份之下,社會關系更加扁平化、流動化。在這種社會背景下,個人不再受到宗法等社會規(guī)范的強束縛,也不再需要將自我身份的構建依附于集體之中,個人行為越發(fā)受到自我規(guī)范的調整。[17]由此,個體化成為現代社會的明顯現象,個人對自由、自決的需求逐漸增長[18],并且越發(fā)關注自身,試圖使自己成為生活方式選擇、時間規(guī)劃、視野培育的中心與決策者。推薦算法迎合了用戶的個體化需求,在與用戶畫像結合之后,每個用戶都能擁有獨占的消費類型,所生成的內容符合個體的喜好,從社會生產的角度而言,也有利于個體消費的增長。這種內容生成架構使得用戶和信息之間被強聯結起來,用戶對信息具有高漲的情緒強度,而與之相依賴。[19]

        二、算法推薦的權利風險

        (一)個人自主性風險

        1.算法的規(guī)則剛性與個人參與不足的矛盾

        技術發(fā)展所帶來的紅利使工具理性成為架構設計的主要邏輯。進入數字時代,個體的個性化得到了發(fā)展,并在信息消費方面展現出差異化的特征。[20]因應之下,互聯網平臺進行算法推薦的內容分發(fā)方式越發(fā)普遍。從算法推薦的技術角度考察,平臺通過構建用戶畫像并進行算法推薦,使用戶獲得更有效的信息[21],滿足個體在信息消費上的需求,也使廣告投放更加精準,提高平臺自身的商業(yè)價值。在這種情境下,算法推薦的代碼的運行邏輯是,通過默認的推薦頁面將用戶固定在其中,量化用戶行為,確定運算模式,得出計算后的結果,進而指導推薦信息的分發(fā)決策。這是一種相對固定的程序,因為行為和數據所對應的數值、運算模式是確定的,相同行為對應的結果也將完全相同,體現了規(guī)則運行的剛性與工具理性。但其風險在于,外觀是“用戶本位”的生產邏輯,但背后決定信息內容生產的,實際上是一系列代碼形成的架構規(guī)則。例如,“今日頭條”的推薦來源于系統(tǒng)為用戶建立的興趣圖譜,這個興趣圖譜是基于用戶所產生的數據,經過數學建模而生成的。[22]在這一過程中,需要有多種推斷規(guī)則,完善代碼架構。這些規(guī)則試圖將實然的事實對應于應然中的價值,從量化的事實中推導出對屬性的價值判斷,使工具理性與價值理性統(tǒng)一起來。但在這一過程中,用戶幾乎沒有控制權與參與商談的空間,呈現給用戶的是推薦結果,推薦過程與推薦技術并不透明。由此可見,“用戶本位”的生產邏輯背后,實際上是推薦者所設計的技術架構決定了信息生產內容,用戶的自主性被架構的生效所代替。與此同時,由于工具理性運作的體制化,社會生活領域受到了工具理性的侵占,人與人之間的關系被量化的計算所代替,從而導致了人的異化。[23]

        2.個人自決在個人信息收集與利用中的局限

        對個人信息的保護與信息自決權的理念密切相關,信息自決意味著個人能夠對個人的信息自主決定如何使用,從而維護人的尊嚴。[24]信息自決權既包括個人信息主體有權決定個人信息被收集與否,即是否提供個人信息,以及提供何種個人信息以獲取更為高效的服務,也包括對個人信息在后續(xù)利用環(huán)節(jié)的自主決定,例如是否同意個人信息處理方之間的信息共享?!吨腥A人民共和國個人信息保護法》中關于個人知情同意、撤回同意、對自動化決策的拒絕權等規(guī)定體現了信息自決的內涵。在算法推薦中,個人對于個人信息收集環(huán)節(jié)的自主決定是有局限的,因為對于個人而言,只有提供個人信息,才能實現數字身份的構建,從而進入數字生活,因此知情同意機制在此環(huán)節(jié)中更多體現為知情,要求個人信息收集者依法進行告知,個人在此過程中享有的是消極的期待權利。而在個人信息利用環(huán)節(jié)中,個人對算法推薦的自主決定更為外顯?!痘ヂ摼W信息服務算法推薦管理規(guī)定》第17條要求算法推薦服務提供者向用戶提供非個性化推薦的選項,或是提供關閉算法推薦的選項,對此,微博、微信、淘寶等互聯網平臺均做出了回應,向用戶提供可修改推薦設置的選項。[25]據此,個人可以通過積極的行為來避免算法對自身的干預,從而體現個人在個人信息利用環(huán)節(jié)的自主性。但不能忽視的是,當算法推薦涉及個人與服務提供者之間的利益博弈時,例如大數據殺熟、基于競價排名的內容推薦等,則服務提供者通常會采取環(huán)境架構的方式予以設置,為自身獲取最大利益,個人無法對此進行干預。此時,個人可以侵犯財產權益或是人格權益的方式向司法機關提起訴訟,但司法機關對于個人關于請求改變整體架構設置持審慎的態(tài)度,往往依據個人信息處理原則,認定是否存在侵害消費者個人信息的行為,從而判斷服務提供者是否承擔責任。例如在“胡某與上海攜程商務有限公司侵權責任糾紛”一案中,胡某要求攜程公司對其APP增加選項,即增加不同意使用個人信息的選項,并未得到法院的支持。此外,法院也并未對大數據殺熟存在與否做出認定,而是通過認定攜程公司的價格機制不透明,存在較大價差,且存在欺騙行為,從而要求其對消費者承擔責任。(2)(2021)浙06民終3129號。由此可見,對于不當利用個人信息的行為,個人雖然能請求法律救濟,但救濟的范圍有限。

        (二)隱私權風險

        1.數字化圓形監(jiān)獄下隱私透明度升高

        就用戶畫像而言,形成用戶畫像需要收集大量用戶的個人信息,從而進行用戶形象推斷。用戶畫像使得個體處于數字化圓形監(jiān)獄,隱私趨于透明。圓形監(jiān)獄的概念由功利主義代表人物邊沁提出,其特點是圓形構造造成的全方位監(jiān)視以及明暗設計對囚犯心理的暗示。監(jiān)獄長在監(jiān)獄中心的眺望塔上能夠看到外圍一圈囚禁室內每個囚犯的一舉一動,而處在光亮中的囚犯卻無法得知黑暗的眺望塔中是否有人監(jiān)視。這種不可確認的狀況使得囚犯隨時保持警惕心,不觸犯戒律,如同處于無休止的監(jiān)視之下。而大數據時代的來臨、機器學習的發(fā)展,使人們身處于一座數字化圓形監(jiān)獄之中。[26]在算法推薦中,首先,隱性收集個人信息的技術在眺望塔的百葉窗之后,記錄個體的行為軌跡,暗中監(jiān)視。而個體卻沒有圓形監(jiān)獄中囚徒的警惕性,不經意展露的信息悄然成為技術收集個人隱私的養(yǎng)料。用戶在瀏覽推薦內容后,在平臺上留下了以cookie形式存在的蹤跡。通過收集這些數據,平臺將對用戶的偏好信息了如指掌。其次,以個人信息等內容為養(yǎng)料的大數據技術,除了永續(xù)監(jiān)控,還能永續(xù)學習,通過在實踐中反復訓練,使人們的隱私透明化。在用戶畫像技術中,即使A用戶的某項個人信息缺失,也可以通過調用模型訓練其他個人信息完整、行為與A相似的用戶的數據,形成標簽,進而推測A用戶的個人信息,準確度在一定條件下可以達到70%。[9]151采取這類標簽擴散模型進行個人隱私的推測具有可能性,再結合不易察覺的隱性收集個人隱私,個體逐漸處于完全的光亮之中,隱私也將趨向透明。

        2.隱私權保護方式面臨雙重困境

        在數字社會中,傳統(tǒng)的隱私權保護方式面臨挑戰(zhàn)。從空間角度而言,傳統(tǒng)的隱私權保護邏輯建立在私人領域和公共領域有明顯界分的基礎上。在私人領域之中,個人的生活不被知曉和打擾,正如法諺“風能進、雨能進、國王不能進”所彰顯的,在私人領域,國家公權力應當止步,不能侵犯私人自治空間,由此,形成了以私人住宅為邊界的傳統(tǒng)隱私權保護范圍。而后隨著對隱私權保護范圍需求的擴張,隱私權所保護的空間不再局限于私人住宅,也拓展到公共場所,如電話亭、飯店等地也存在隱私權保護的需要。[27]然而在數字空間中,公共領域與私人領域之間的邊界模糊不清,例如在由互聯網平臺所構造的領域中,既存在包含公共生產、公共交往及公共政治的公共領域,個人可以直接參與討論,也存在呈現了個人位置信息、人臉信息等個人信息的私人領域。與此同時,隨著用戶生產內容模式的興起,具有公共性的內容不再只由特定主體傳播,而是由更為多元的主體傳播,公共領域與私人領域更加難以區(qū)分。在數字空間中,侵權認定中的空間標準受到挑戰(zhàn)。

        此外,傳統(tǒng)隱私權所追求的權能也面臨著與數字經濟發(fā)展要求相沖突的問題。[28]傳統(tǒng)隱私權追求對隱私利益的排他性支配,排除他人的披露與干擾、侵犯,強調權利人對隱私的控制。在數字空間中,隱私內容則以個人信息或個人數據的方式表現出來,而個人信息被認為存在公共屬性,個人無法控制信息本身,而信息、數據的開放與流動,還關系到大數據產業(yè)發(fā)展、社會經濟利益的實現。[29]由此,傳統(tǒng)隱私權保護目標的實現受到了阻礙。在實踐中,個人信息的可流動性也作為隱私政策中的重要條款被列舉出來,成為服務提供商提供便捷服務的前提。例如在抖音的隱私政策中,與抖音合作的位置服務提供商會獲取個人的GPS信息、設備信息,合作的電商平臺會獲取個人的商品瀏覽、購買信息,第三方支付機構會獲取個人的姓名、身份證號、銀行卡類型及卡號、手機號碼等。[30]由此可見,傳統(tǒng)隱私權所主張的對隱私的支配與控制,已經受到了現實的挑戰(zhàn)。

        (三)平等權風險

        1.信息不平等:過濾泡沫下信息分化加劇

        用戶畫像與推薦算法結合,過濾相反觀點,創(chuàng)建同質化信息泡沫空間,阻礙個體多樣性發(fā)展。這種結合通過刻畫多維度用戶畫像,形成更符合用戶偏好的個性化推薦服務,為企業(yè)帶來顯著的商業(yè)價值。Netflix于2006年舉辦旨在提高該公司Cinematch系統(tǒng)推薦準確率的大獎賽后,服務模式很快從美國范圍內的DVD租賃服務轉型為國際范圍的互聯網流媒體視頻訂閱服務。[31]但同時,這種結合過濾掉了那些相反的觀點,只讓與自己意識形態(tài)相同的信息呈現出來,信息走向同質化。例如谷歌類的搜索引擎提供的信息正逐漸個性化,為用戶創(chuàng)造獨一無二的信息世界。這種方式限制了獲取信息的方式和渠道,使得文化、新聞的獲取類型越發(fā)單一。[32]在同質化信息所形成的信息繭房中,沒有相反意見存在,導致用戶對已有的意見確信不疑,沉迷于繭房中,放棄廣泛分散的有益的新知識。[33]因此,在不夠成熟的用戶畫像構建與過濾泡沫的共同作用下,用戶獲取的信息內容同質化,不僅有局限用戶視野的風險,還可能加劇思想的僵化、意見的極端化,在人與人之間拉開信息異質化的鴻溝。這將造成社會維度的信息分化。分化的進一步后果是信息不平等[34],再結合主體信息能力的差異,個人在獲取和使用信息過程中享有不平等的數字紅利。

        2.結構性不平等:數字資本對用戶剩余勞動價值的剝削

        與個人間信息不平等所不同的是,個人與算法推薦服務提供者之間存在結構上的不平等。就互聯網平臺而言,有觀點認為,平臺資本為用戶提供了數字公共平臺,同時也剝削了用戶的剩余勞動價值。具體而言,互聯網平臺提供者類似于封建社會的地主,其所提供的數字公共平臺類似于封建社會中的土地,而用戶則是佃農?;ヂ摼W平臺提供者提供了數字公共平臺、個人賬戶代碼作為生產資料,用戶則利用生產資料生產數據,包括發(fā)布的文字、圖片、視頻數據,與其他用戶的交流數據,以及瀏覽記錄等數據。這些數據被互聯網平臺提供者獲得,從而實現對用戶剩余勞動的占有。[35]傳統(tǒng)的資本轉化為數字資本,勞動轉化為數字勞動,互聯網平臺基于頭部效應獲得的壟斷地位使得剝削成為可能,平臺與用戶之間的用戶協議為數字勞動體系、數字剝削提供了制度層面合法的掩蓋,平臺獲取海量的數據要素,與用戶形成了資源上的不平等關系。此外,技術對平臺與個人的賦能存在差異,平臺由于對海量數據、算法具有控制力,能夠據此對自身能力進行提升,相較于用戶獲得技術上的優(yōu)勢地位,從而能夠通過架構規(guī)制的方式,不顧用戶的意志而行為,對用戶展示私權力的面向。平臺與用戶之間的不平等關系也誘發(fā)了平臺自我優(yōu)待、濫用平臺處罰權等不正義后果。例如在“歐盟谷歌案件”中,由于谷歌將自營的購物服務網站置于同類產品搜索結果的頂端,使自營產品獲得更多流量,而被歐盟委員會認定為是違反歐盟競爭法的自我優(yōu)待行為,并處以高額的罰款。[36]

        三、算法推薦風險的治理路徑

        (一)隱私增強的架構設計保護隱私權

        技術與個體存在相互塑造的關系,人們把用戶畫像看作有待利用的事物,用以為滿足需求服務,但從另一方面看,隨著人們與參與構造人們認同的用戶畫像互相起作用,兩者的關系慢慢有所調整,不再單純是工具與使用者的關系,人們的習慣、特性會有所改變,個體的喜好逐漸被技術勾勒、引導。用戶畫像進一步使網絡行為成為私人化、個體化的模式。我們無法逃離新技術的懷抱,除非我們脫離了所處的社會,當我們持續(xù)不斷地欣然接受這些新出現的技術時,必然會使得自己成為某種伺服機構與新技術聯系在一起。[37]因而規(guī)制技術風險可以從源頭出發(fā),通過規(guī)范邏輯設計,使技術在滿足個人需要的同時實現公平,而不是被技術所規(guī)訓。

        技術可以成為治理技術的手段。法律的治理體現為一種命令,具有威懾性,在事后進行約束;而技術的治理則體現為對架構環(huán)境的改造,環(huán)境一旦形成,事前即產生約束的效果。[3]365利用技術進行治理的方式,在域外有所運用。在由歐盟委員會成立的專家小組所制定的《出于公眾利益的B2G數據共享歐盟策略》中,明確隱私保護技術將成為任何B2G數據共享的關鍵促成因素,他們建議在數據共享的架構中加入加密技術及差別隱私技術實現公共利益的保護。[38]《美國聯邦法規(guī)》第45個主題公共福利中規(guī)定,對電子健康信息的安全保護包括技術的保障,如在非活動時間會自動終止電子會話的電子程序、確保數據傳輸中的電子健康信息不會被隨意修改的完整性控件等,以此保護數據安全以及隱私。在對隱私權的保護方面,可以利用隱私增強技術(PET)促進與隱私相關的利益,在用戶畫像的體系結構中嵌入隱私增強技術,增強對隱私權的事前保護。該技術可以分為兩大類[39]:第一類是替代性隱私增強技術,此種技術的目的是確保匿名,提供用戶身份保護,使數據收集最小化,在進行電子郵件收發(fā)、支付、網頁瀏覽等行為時,用戶可以實現完全匿名,這是數據保護的激進版本;另一類是補充性隱私增強技術,可用于修補技術,使技術方案遵守相關隱私或數據保護法規(guī),而不完全排除企業(yè)的商業(yè)目的。[40]例如2014年推出的“訪問我的信息”(AMI)工具,能夠幫助個人請求訪問電信提供商、某些應用程序中的個人信息,以此支持用戶以自動化的方式行使對個人信息的訪問權、異議權、修改權。[41]由于數據的完全匿名化與數據利用的效益是不可兼得的目標,而我國目前的數據發(fā)展創(chuàng)新還處于起步階段,尚有可釋放的數據紅利,因而鼓勵使用補充性隱私增強技術是更可行有效的設計方式。

        (二)配置用戶畫像權利義務保障自主性

        我國現有法律法規(guī)對于用戶畫像相關權利義務內容缺少更細化的規(guī)定,然而信息不對稱、經濟實力的差距使用戶處于相對弱勢的地位。面對個人信息所蘊藏的經濟價值,資本的逐利性將進一步使用戶權益受到威脅。為防止各方主體地位不平衡的加劇,可以借鑒歐盟立法經驗對個人信息進行較為嚴格的保護。

        在歐盟的立法中,個人數據受保護的權利被上升到基本權利的高度,企業(yè)在個人數據上的活動空間受到限制。[42]在2018年開始適用的歐盟《一般數據保護條例》中,針對用戶畫像有更加嚴格、具體的要求,圍繞個人數據保護配置了一系列權利義務內容。與此同時,對個人數據的保護不是絕對權利,也需要根據其在社會中的功能加以考慮,并根據相稱性原則與其他基本權利相平衡。《一般數據保護條例》對畫像的定義,關注畫像對個人特征的分析和預測,比如個人喜好、健康狀況等內容。在數據控制者關于畫像的義務方面,如果存在畫像等自動化決策的情況,那么數據控制者在收集數據主體個人數據時,不僅需要提供數據控制者的身份、處理個人數據的目的、存儲期限、數據主體享有的權利等內容,還需要告知畫像等自動化決策的存在、邏輯程序、預期后果與意義,以此保證處理的公平性、透明性。對于可能對自然人產生重大影響的畫像等個人數據的處理,數據控制者必須在處理前評估這種處理對個人數據保護的影響。在數據主體關于畫像的權利配置上,如果個人數據正在被處理,那么數據主體有權訪問其個人數據以及畫像等自動化決策的邏輯程序,知悉其預期后果與意義;數據主體有權隨時拒絕為了直接營銷而進行的用戶畫像等個人數據處理;有權隨時拒絕為了公共利益或者第三方利益而對其進行的用戶畫像,除非數據控制者出示令人信服的合法理由,并且該理由超越了數據主體的利益、權利和自由。對于由畫像等自動化處理產生的、對數據主體有嚴重影響的決策,數據主體有權拒絕,除非這種決策對于訂立合同是必需的,或者是被相關法律授權的且有適當措施保護數據主體的權利、自由和合法利益,或者是基于數據主體明確同意。在第一種和第三種情況下,數據控制者應當采取措施,保證數據主體有一定的人為干預權,以便其能表達對決策的異議等觀點。此外,歐盟數據保護委員會發(fā)布了基于畫像的決策的標準與條件,以確?!兑话銛祿Wo條例》的一致性適用。(3)《General Data Protection Regulation》Article 4, 13, 35, 15, 21, 22, 70.

        因此,在對用戶畫像的權利義務配置上,可以在立法上確立用戶畫像中個人信息控制者的義務、個人信息主體的權利。個人信息控制者的義務包括:第一,明示義務,即明示用戶畫像邏輯程序、預期后果的義務,如用戶畫像使用的訓練數據、模型;第二,用戶畫像前風險評估義務,如進行個人信用畫像前,對用戶畫像技術的風險評估。個人信息主體的權利包括:第一,知情權,即隨時訪問對自己進行的用戶畫像的邏輯程序與預期后果的權利;第二,拒絕權,即拒絕某些用戶畫像的權利,比如拒絕用于推送商業(yè)廣告的用戶畫像;第三,異議權,即當畫像結果對用戶有嚴重影響時,用戶有提出異議的權利。

        (三)強化網絡平臺的倫理約束促進算法向善

        算法本身是中立的,但算法架構受到設計者的影響,能夠被調整為符合設計者利益的模式。架構本身的運作是不透明的,不同于法律規(guī)制,有明顯的義務主體承擔設計失誤的責任。這種特點可能導致人的主體性地位異化,淪為技術的附屬,卻無法向加害者主張責任。人是社會的主體、認識世界萬物的主體,也是判定事物真假、衡量事物價值的主體。審視技術與人之間的關系,技術從對人的主體性沒有威脅的工具與客體,滲透進社會生活,在眾多的活動領域中,技術的介入逐漸成為達到預期效率的根本性方法。技術秩序的普遍存在不僅改變了人存在的外部環(huán)境,也侵蝕著人的主體性地位。因此,應當加強作為架構設計者的網絡平臺的倫理約束,技術中立不能作為突破對個人信息保護要求的借口,應對技術背后的利益博弈進行調整,保障人的尊嚴,矯正人被客體化的傾向。

        具體而言,在算法推薦中,第一,對于可能威脅個體自治的算法推薦,首先可以強化算法分發(fā)的倫理審查,評估算法權重設計是否合理、推送內容的價值導向,避免信息推送的同質化。其次,提高服務提供者的信息披露要求,對推薦的原因進行明示,區(qū)分商業(yè)廣告、具體的偏好推薦,對算法推薦可能造成的結果進行警示[43],降低信息繭房的影響,以此提高用戶的信息價值識別能力,促成個體的多樣化發(fā)展。第二,對于影響平等權實現的算法推薦,可以引入算法評估制度,依照公平原則進行評估。既包括實質性方面的確保個人和群體不受不公平待遇、歧視和污名化,以及促進在獲得教育、商品、服務和技術方面的平等機會,還包括程序方面的公平,即對系統(tǒng)及其控制者所做的決定有提出異議、有效補救的能力。此外,還應當提供對特殊群體的保護,保持可訪問性以及無障礙的設計,避免持有偏見,使特殊群體也能夠使用相關技術。對于算法系統(tǒng)的要求則包括,評估系統(tǒng)中是否設置有程序來處理和糾正潛在的歧視,是否允許系統(tǒng)對偏見、歧視予以標記,從而防止偏差數據再次進入系統(tǒng),以及是否建立了確保公平性的相關機制。[44]

        落實到主體的行動上,則需要有多元主體的參與,使算法在社會生態(tài)中向善發(fā)展。在政府層面,可以通過發(fā)布關于技術倫理、算法倫理的政策,展現倫理在技術創(chuàng)新中的重要性,以及其對社會治理的作用,引導技術主體積極遵循倫理規(guī)范而行動。當前我國政府已經開始就此議題展開部署。例如在2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》[45],為利益相關方提供倫理指引,使人工智能在倫理道德的引導下健康發(fā)展。2022年3月20日,中共中央辦公廳、國務院辦公廳印發(fā)了《關于加強科技倫理治理的意見》[46],提出了增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明的科技倫理原則,還對科技倫理治理體制的健全、制度保障的加強,以及審查和監(jiān)督的強化等內容做出了系統(tǒng)性的安排,以求實現科技自立自強的目標。這些政策為技術向善提供了遵循基礎。在行業(yè)層面,需要推動行業(yè)在算法治理上的自律,可以通過建立聲譽機制,推動算法質量的提高,即由行業(yè)對技術主體的算法倫理性進行評級,通過這種激勵懲罰機制,促進技術主體重視倫理規(guī)范對技術的調整。在個人層面,需要強化其在數字化時代的數字素養(yǎng)教育,培養(yǎng)其數字素養(yǎng),提升其數字能力,從而維護數字時代下人的尊嚴。

        四、結 語

        法律、社群規(guī)范、市場、架構作為四種約束模式,可以對個人的行為進行規(guī)制。隨著社會的發(fā)展,規(guī)制模式的應用也有所變化。19世紀中期主要是社群規(guī)范在約束著自由;20世紀初期是國家強權約束甚至威脅著自由;20世紀中期之后的大部分時間里,是市場在約束著自由;進入21世紀,在網絡空間中代碼是社會生活的“預設環(huán)境”,是社會生活的架構,正在約束著自由。[3]132-133隨著數字時代的來臨,個人走向數字化生存的空間,對于信息內容的需求也走向個人化。后信息時代的根本特征是真正的個人化[47],算法推薦以個性化為特征,符合個人化的需求,在信息分發(fā)領域產生巨大的影響,重塑了信息傳播規(guī)則,改變了人們認知的方式與機制。[48]架構在算法推薦中起著塑造信息分發(fā)方式、規(guī)訓個人的作用,通過約束個人進入數字生活、獲取信息的自由,達到規(guī)制用戶行為的目的。在法律、社群規(guī)范介入之前,架構的工具主義傾向明顯,對個人的自主性、隱私權、平等權造成了風險。在網絡空間中,自由在一定程度上為架構所塑造,在缺少治理的情況下,架構規(guī)制的權力將進一步膨脹,引發(fā)損害結果。因而也應當對架構進行綜合性治理,從而為個人自由保留空間,在保障個人權利的前提下發(fā)展技術,堅持鼓勵支持布局前沿技術,同時堅持政策引導及依法管理,控制風險蔓延,促進信息技術、互聯網生態(tài)持續(xù)健康發(fā)展。

        猜你喜歡
        用戶信息
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        關注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        關注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        Camera360:拍出5億用戶
        100萬用戶
        如何獲取一億海外用戶
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        信息
        健康信息
        祝您健康(1987年3期)1987-12-30 09:52:32
        精品国产三区在线观看| 大地资源在线影视播放| 亚洲女人毛茸茸粉红大阴户传播| 有坂深雪中文字幕亚洲中文| 国产内射一级一片内射视频| 国产成人精品a视频| 永久免费观看的毛片手机视频| 亚洲欧美成人a∨| 两个人免费视频大全毛片| 免费高清视频在线观看视频| 男女视频一区二区三区在线观看| 精品国产综合区久久久久久 | 色一情一区二区三区四区| 中国熟妇人妻xxxxx| 亚洲一区av无码少妇电影| 天啦噜国产精品亚洲精品| 国产一区二区三区最新视频| 亚洲av自偷自拍亚洲一区| 中文乱码字字幕在线国语| 久久天天躁夜夜躁狠狠 | 免费人成视频网站在线不卡| 永久亚洲成a人片777777| 热re99久久精品国产99热| 国产精品开放小视频| 亚洲V无码一区二区三区四区观看| 极品新娘高清在线观看| 各类熟女熟妇激情自拍| 亚洲综合网国产精品一区| 色橹橹欧美在线观看视频高清| 鲁一鲁一鲁一鲁一澡| 在线观看网址你懂的| AV无码人妻一区二区三区牛牛| 国产精品又湿又黄九九九久久嫩草| 青青草原综合久久大伊人精品| 久久影院午夜理论片无码| 免费人成视频x8x8入口| 五月天久久国产你懂的| 丰满少妇又爽又紧又丰满动态视频| 我揉搓少妇好久没做高潮| 中文无码一区二区三区在线观看| 亚洲自偷自偷偷色无码中文|