[摘 要]信息爆發(fā)式增長的時代使得個性化推薦服務在互聯(lián)網(wǎng)中占據(jù)極其重要的地位。個性化推薦服務能有效輔助網(wǎng)絡平臺在龐大的信息海洋中篩選有效信息,在解決信息過載問題的同時,極大程度地滿足用戶的個性化需求。但是,個性化推薦服務并不是百利而無一害的,其被網(wǎng)絡平臺不合理地使用容易讓用戶面臨著自主受限、隱私泄露、信息繭房、算法歧視等法律風險。針對這些現(xiàn)實的可能風險,可從重申同意、技術(shù)設計、強調(diào)競爭、謀求平等的角度出發(fā),對個人、企業(yè)以及政府提出相應的要求以應對個性化推薦服務帶來的風險挑戰(zhàn)。
[關(guān)鍵詞]個性化推薦 個人權(quán)利 多元共治
[基金項目]南京財經(jīng)大學2023年度校級一般課題“量化自我技術(shù)中數(shù)據(jù)風險的法律規(guī)制研究”(KYW-YXW23001)
[作者簡介]王婭,南京財經(jīng)大學法學院講師,博士(南京 210023)
[DOI編號]10.13761/j.cnki.cn23-1073/c.2024.06.007
引 言
隨著信息技術(shù)的飛速發(fā)展以及電子設備的廣泛應用,大量的互聯(lián)網(wǎng)信息向我們撲面而來。根據(jù)國際數(shù)據(jù)公司(IDC)發(fā)布的《數(shù)據(jù)時代2025》報告顯示,全球每年所產(chǎn)生的數(shù)據(jù)量可達175ZB(十萬億億字節(jié)),相當于每天產(chǎn)生491EB(百億億字節(jié))的數(shù)據(jù)量。并且,全球的數(shù)據(jù)總量在過去十年以超過40%的復合增長率呈現(xiàn)爆發(fā)式的增長,這種增長趨勢在未來的5年內(nèi)仍繼續(xù)保持[1]。由此可見,我們已進入大數(shù)據(jù)時代。
大數(shù)據(jù)時代的出現(xiàn)讓大型網(wǎng)絡購物平臺的商品種類可達幾萬種,但是,用戶所偏愛的產(chǎn)品卻各有不同,同時,用戶的需求也存在著模糊性。據(jù)亞馬遜公司統(tǒng)計,在網(wǎng)絡平臺購物中有明確購買意向的僅占16%,絕大多數(shù)用戶在網(wǎng)絡平臺購物都具有不確定的需求[2]。因此,如何在海量的互聯(lián)網(wǎng)信息中找到用戶所需要的商品或服務,這不僅是用戶所面臨的生活困境,也是互聯(lián)網(wǎng)信息服務提供者所面臨的主要挑戰(zhàn)?;诖?,個性化推薦服務應運而生。
所謂個性化推薦服務,是指根據(jù)用戶的信息需求、興趣和行為模式等,將用戶感興趣的信息、產(chǎn)品和服務定向推薦給用戶的一種信息服務[2]。 個性化推薦服務的優(yōu)越性使其被廣泛地應用于電子商務、社交媒體和數(shù)字娛樂等互聯(lián)網(wǎng)信息服務交互場景中,幫助網(wǎng)絡平臺收集用戶數(shù)據(jù),促進信息內(nèi)容與用戶需求的精準匹配。不過,個性化推薦服務被廣泛應用的過程中,也引發(fā)了網(wǎng)絡用戶自主受限、隱私泄露、信息繭房、算法歧視等諸多的法律風險,而這些法律風險因應個性化推薦的算法技術(shù)產(chǎn)生。鑒于算法本身所具有的復雜性、隱秘性、專業(yè)性等特點,這不僅讓用戶的個人權(quán)益難以在網(wǎng)絡平臺得到切實的保障,實踐中也存在維權(quán)困難的尷尬局面,而且不合理地使用用戶信息也容易擾亂社會市場秩序,使其成為企業(yè)追求利益最大化而罔顧社會責任的借口[3]。此外,算法本身有其局限性,這可能會導致相關(guān)的系統(tǒng)性風險,某種程度上甚至會給國家安全和數(shù)據(jù)主權(quán)帶來極大的威脅。個性化推薦服務所帶來的法律風險不僅是個人的困境,也是社會的挑戰(zhàn)。因此,利益相關(guān)者都需采取相應的措施以應對個性化推薦服務帶來的不利現(xiàn)狀。
一、個性化推薦服務的法律風險
大數(shù)據(jù)時代的人們能接觸到足夠多的互聯(lián)網(wǎng)信息。但是,如何在海量的信息中有效地抓取用戶所需要的信息,增強用戶與網(wǎng)絡平臺之間的黏性,是各大網(wǎng)絡平臺服務商產(chǎn)品研發(fā)和服務推廣的重點。目前,大多數(shù)的網(wǎng)絡平臺都采用個性化推薦服務來滿足用戶的需求。個性化推薦服務者利用算法技術(shù)收集用戶在各個網(wǎng)頁、商品上的各類痕跡,通過算法的自動化分析,形成針對用戶個人偏好的推薦內(nèi)容。個性化推薦服務因其獨特的優(yōu)勢能有效地提升用戶的體驗,增強用戶與網(wǎng)絡平臺的黏性[4]。由于個性化推薦服務嚴重依賴海量信息,因此,其需要持續(xù)不斷地對用戶的信息進行收集并處理。但是,平臺的過度或不當操作不僅涉及用戶的敏感信息及其權(quán)益保障,甚至對社會、國家的安全也產(chǎn)生一定的威脅,加之算法本身也存在著缺陷和不足。以上這些考量都意味著個性化推薦服務在運行過程中可能帶來諸多法律風險,下面將分述之:
(一)自主受限
個性化推薦服務會對用戶的自主控制能力產(chǎn)生消極影響。數(shù)字經(jīng)濟時代的信息就好比互聯(lián)網(wǎng)的血液,發(fā)揮著舉足輕重的作用。網(wǎng)絡平臺為了在市場競爭中占據(jù)優(yōu)勢地位,多采用個性化推薦服務來收集用戶的各種碎片信息,如交易記錄、賬戶信息、出行記錄、瀏覽記錄以及社交記錄等[5],通過構(gòu)建“網(wǎng)絡用戶畫像”的方式,來幫助用戶在網(wǎng)絡平臺更有效地找到自己所需要的產(chǎn)品、服務。但是,用戶得以享受網(wǎng)絡平臺的便利是以個人信息被收集以及自主選擇受限為代價的,這本質(zhì)上是對個人信息自決權(quán)的侵害。
信息自決權(quán)是個人信息保護體系中最為核心的權(quán)利,體現(xiàn)的是對個體人格尊嚴與自由意志的尊崇[6]?!靶畔⒆詻Q”意味著個人擁有獨立地、不受任何不當干涉地使用與處理個人信息的自由。目前,企業(yè)想獲取、使用與處理用戶的個人信息,會將用戶同意作為其行為的正當性基礎和免責事由 。用戶在打開APP后,最先接觸到的就是APP用戶協(xié)議/隱私條款。如果用戶勾選同意,則表示其愿意接受APP用戶協(xié)議/隱私條款中的內(nèi)容,企業(yè)就可以自由獲取、使用與處理用戶的電子信息,這似乎是合理的。然而,中國青年報社社會調(diào)查中心聯(lián)合問卷網(wǎng)對1561名受訪者進行的一項問卷調(diào)查中顯示,70.9%的受訪者在下載APP時從來沒有或很少閱讀APP中的用戶協(xié)議/隱私條款,20%的受訪者甚至表示從來沒有讀過王品芝、肖平華:《“我已閱讀并同意”?七成受訪者坦言很少或從沒閱讀過App用戶協(xié)議》,載《中國青年報》2022年3月第10版。。同時,大多數(shù)的受訪者表示這些用戶協(xié)議/隱私條款的文字煩冗且包含較多專業(yè)術(shù)語,讓人很難閱讀下去,這讓他們更不會去深究里面的條款。而且,條款中關(guān)于用戶個人信息收集、使用的內(nèi)容非常模糊,很多用戶在完全不知道的情況下就“同意”個人信息被收集、使用了。另有調(diào)查發(fā)現(xiàn),在使用APP時拒絕非必要授權(quán)后,高達90%的APP不能使用或僅能使用部分功能。因此,用戶就不得不選擇同意用戶協(xié)議/隱私條款劉文慧:《超七成受訪者遭遇過個人信息泄露》,載《四川法治報》2023年5月第3版。。
基于上述這些現(xiàn)實情況,用戶勾選“同意”的行為并不是一種明確且真實的同意,而是一種“被同意”。真實的同意以享有充分的知情權(quán)為前提,但是,用戶協(xié)議/隱私條款的復雜性和專業(yè)性讓用戶受制于自身的“認知局限”,無法做出最合理的判斷。更重要的是,用于體現(xiàn)用戶意思表示的用戶協(xié)議/隱私條款更多是對合規(guī)要求的形式遵守,而非對用戶個人信息被收集所必須使其真正知情的道德義務。用戶勾選同意的根本目的在于尊重用戶的自主決定,改變平臺和用戶之間的權(quán)力勢差和信息不對稱的困境,實現(xiàn)對用戶自我尊嚴和自由利益的維護。但就目前情況來看,無處不在的個性化推薦服務已經(jīng)嚴重地威脅到用戶的自主選擇,侵蝕用戶的個人真實體驗,甚至可能導致用戶實現(xiàn)自我的可能性減少。因此,網(wǎng)絡平臺的發(fā)展必然要以維護用戶的個人自治為基本遵循。
(二)隱私泄露
個性化推薦服務以用戶數(shù)據(jù)作為支持,特別是對有關(guān)用戶個人偏好的數(shù)據(jù)。但是,這些個人偏好數(shù)據(jù)往往和用戶隱私有著密切的關(guān)系。如果對這些信息收集、處理不當,則很可能會侵犯公民的個人隱私權(quán)。公民的個人隱私權(quán)是指公民對于自己的私人事務享有不受他人干擾或干涉的自由權(quán)[7]。隨著信息技術(shù)的發(fā)展,對公民個人隱私權(quán)的侵犯多以個人數(shù)據(jù)在網(wǎng)絡空間被泄露的形式出現(xiàn)。例如,美國的塔吉特公司為了提高營銷效率,利用算法技術(shù)對顧客的歷史購買記錄進行分析,以預測女顧客可能懷孕的可能性,從而達到精準投放母嬰產(chǎn)品優(yōu)惠劵的目的。一名意外懷孕的高中女孩是塔吉特公司的顧客,但是,她并沒有向任何人透露自己懷孕的隱私。但某天,她的父母收到了來自塔吉特公司的母嬰產(chǎn)品優(yōu)惠劵從而間接得知女孩意外懷孕的秘密[8]??梢姡诖髷?shù)據(jù)時代,更加注重保護公民在網(wǎng)絡空間的個人隱私權(quán)十分必要。
公民在網(wǎng)絡空間的個人隱私權(quán)主要表現(xiàn)為:禁止在互聯(lián)網(wǎng)平臺泄露與用戶相關(guān)的敏感信息,公民在網(wǎng)上享有私人的生活安寧與私人的信息依法受到保護[9]。但從實踐中看,公民網(wǎng)絡空間的隱私安全存在著巨大的隱患。申言之,信息技術(shù)時代,在互聯(lián)網(wǎng)上散布、出售他人信息,電子郵件遭到監(jiān)控等隱私泄露問題常常不絕如縷。需要指出的是,個性化推薦服務的飛速發(fā)展讓個人隱私已然成為一種新型商品。一些IT技術(shù)人員利用技術(shù)手段和工具對個人信息進行技術(shù)性竊取,然后在非法利益的驅(qū)動下,將這些所竊取的信息進行二次加工或非法交易。例如,在3·15晚會曝光的隱私泄露問題中就有,中國電信為垃圾短信提供渠道賺取暴利;融營通信、容聯(lián)七陌等多家互聯(lián)網(wǎng)企業(yè)涉嫌收集用戶的個人隱私,非法買賣用戶的個人數(shù)據(jù),形成騷擾電話的黑色產(chǎn)業(yè)鏈,問題的嚴重性使其一經(jīng)揭露就受到人們廣泛關(guān)注[10]。
綜上可知,公民的個人隱私權(quán)在數(shù)據(jù)經(jīng)濟時代確實面臨著巨大的挑戰(zhàn)。數(shù)據(jù)經(jīng)濟的重要特征是網(wǎng)絡服務要求用戶以讓渡個人敏感信息的方式信任公司[11]?!皵?shù)據(jù)平臺”作為個人信息處理者將個人數(shù)據(jù)轉(zhuǎn)換成信息價值的過程中,使單純的個人數(shù)據(jù)進入了個人信息權(quán)益保護的范圍。這些個人數(shù)據(jù)往往蘊含著用戶在教育、家庭、生活等多方面的細節(jié)?!皵?shù)據(jù)平臺”若利用算法技術(shù)對用戶的碎片化信息進行收集,則很可能還原出用戶的真實情況。同時,這些數(shù)據(jù)也可能被非法盜取,那就不只是牽涉到隱私泄露的問題,也涉及到信息安全。因此,如果不對“數(shù)據(jù)平臺”收集信息的行為加以限制,則個性化服務很有可能為信息處理者遠程監(jiān)控用戶提供諸多便利,讓用戶被圍困在“數(shù)據(jù)平臺”構(gòu)建的“圓形監(jiān)獄”雷曼用“信息圓形監(jiān)獄”(informational panopticon)來形容IVHS(Intelligent Vehicle Highway Systems)項目完全收集個人信息并累積成公共信息后對隱私構(gòu)成的威脅。See Jeffrey H. Reiman, Driving to the Panopticon: A Philosophical Exploration of the Risks to Privacy Posed by the Highway Technology of the Future, Santa Clara Computer and High-technology Law Journal, Vol.11:1, p.34(1995).中,使用戶的個人隱私趨于透明,這顯然與個人隱私保護的目標背道而馳。
(三)信息繭房
個性化推薦服務的提供者通過對用戶在互聯(lián)網(wǎng)平臺上注冊、搜索、瀏覽、購買、評價等歷史記錄進行收集,通過大數(shù)據(jù)的智能化分析,向用戶精準地推送其感興趣的信息、商品和服務,從而達到增強用戶與平臺之間黏性的目的。但是,收集的過程不僅存在用戶隱私泄露的風險,而且,也嚴重地限制用戶接受信息多樣化的自由,讓用戶深陷在算法技術(shù)形成的“信息繭房”中,被動地接受算法所帶來的各類信息。所謂信息繭房,是指人們只關(guān)注自己感興趣的或者令自己身心愉悅的信息,但長此以往將自己深陷信息孤島的現(xiàn)象[12]。
信息技術(shù)的進步和經(jīng)濟利益的需要促使各互聯(lián)網(wǎng)公司紛紛在自己的APP內(nèi)實踐個性化推薦服務。但是,個性化推薦服務的一個負面影響就是,信息服務的提供者主觀地編輯用戶所需要和獲得的信息并隨意裁剪。加之算法技術(shù)概略化、單維化的“極化”特性使其只傳播同類的信息。因此,就會出現(xiàn)集中、熱門的內(nèi)容獲得更多的推送和傳播,而渙散、冷門的內(nèi)容則被信息海洋所淹沒,無人問津[13]。長此以往,用戶越喜歡看什么,APP就越推薦什么,到最后,用戶只能看到自己喜歡看的東西,以致其長期地處于自我封閉的狀態(tài),無法接觸外界的其他信息。既有實踐也表明,我們可能某天在網(wǎng)絡上看了幾則關(guān)于某影片的剪輯片段或有關(guān)某地方的新聞,結(jié)果從此往后的若干天里,在該平臺上每天都會向我們推送大量的類似內(nèi)容,屬實讓人不堪其擾,而且,其他我們可能感興趣或者必然感興趣的內(nèi)容則越來越少。
算法技術(shù)帶來的信息繭房效應有多方面的危害性:對用戶而言,信息繭房使用戶自由地獲取知識的眼界和能力受限,用戶只會關(guān)注那些符合自我預期、興趣或者在短時間內(nèi)對自己有益的信息,長此以往,則會加劇用戶之間的認知鴻溝。對社會而言,由于用戶深陷信息繭房之中,與其他用戶缺乏有益的溝通交往,則容易對持有相反或不同觀點的個人或群體產(chǎn)生排斥、打壓心理,甚至會引發(fā)大范圍的網(wǎng)絡沖突,不利于社會的穩(wěn)定與團結(jié)。對國家而言,信息繭房會形成“馬太效應”。一般而言,發(fā)達國家對算法技術(shù)的約束較好,信息得以集中分配,人們獲得的知識豐富多樣。但在發(fā)展中國家,算法平臺掌握話語權(quán),使其能夠自由地對信息進行裁剪,信息分配較為分散,人們獲取信息的多樣化受到限制。由是,發(fā)展中國家和發(fā)達國家之間的信息資源差距將逐漸拉大,而且,前者將在國際競爭中更加處于不利地位[14]。
一個不會思考的民族是沒有前途和未來的?;谶@一社會前景的考量,互聯(lián)網(wǎng)信息服務的提供者不應以一味取悅用戶為目標,其本身還應承載著啟發(fā)民智、保障用戶知情權(quán)等價值期許,以承擔相應的社會責任[15]。當前社會是信息社會,信息就是價值,信息就是金錢,掌握信息就是掌握最前沿的發(fā)展方向。目前,各種APP是人們獲取信息的重要途徑,人們出于天性總是會傾向于關(guān)注自己感興趣的東西。但是,這并不意味著互聯(lián)網(wǎng)公司就可以剝奪用戶接觸多元信息的機會。企業(yè)在謀求自身利益最大化的同時,也應該積極地承擔相應的社會責任。此外,黨和國家一直在全國推行和諧社會的建設,這就意味著各方主體需要承擔起相應的責任。特別是企業(yè),如果其只一味鉆營,不能履行社會責任,和諧社會就只能是一個期許、一個口號。
(四)算法歧視
個性化推薦的算法運作邏輯會形成針對特殊個體的個性化規(guī)則,侵害個體的平等權(quán),造成算法歧視。平等權(quán)作為人的尊嚴和價值,意味著每個人不論其膚色、性別、宗教、性取向等狀況如何,都應該享有人之為人所應有的權(quán)利。但是,算法歧視的出現(xiàn)使得平等的觀念受到巨大沖擊。
算法歧視是指對具有某種屬性的特定社會群體成員采取的不利行為或者實施的不利程序。算法歧視一般分為直接歧視與間接歧視兩種。直接歧視也稱差別對待,指個體因其屬于特定群體而遭受不同等待遇的情形。例如,在Google等搜索引擎中,人們在搜索非洲裔美國人相關(guān)名稱時,更容易出現(xiàn)暗示其具有犯罪的歷史信息[16]17-34。又如,亞馬遜公司曾開發(fā)過一套用于篩選求職者簡歷的算法篩選系統(tǒng),其會自動優(yōu)先選擇男性求職者并根據(jù)簡歷中出現(xiàn)的“女性”字眼對于女性求職者的簡歷予以降分處理。是以,直接歧視會維持或加劇基于膚色、性別、宗教、性取向等方面的成見,進而導致對黑人、女性、少數(shù)群體等的歧視。間接歧視也稱差別影響,指表面中立的行為對不同社會群體成員造成不同等負面影響的情形。比如,某雇傭單位招聘工作人員,要求應聘者的身高至少一米七以上。這看似平等的招聘要求,卻因為兩性在生理條件的天然差異,實際上把絕大部分的女性排除在外,剝奪了她們的就業(yè)機會,這就構(gòu)成了間接歧視。
算法歧視的形成邏輯從前端模擬展開,中端訓練為過程,終端使用形成閉環(huán)。申言之,算法在模擬過程中,人為的變量和分類會造成歧視,算法在描繪和解釋現(xiàn)實世界的同時,對人類社會的結(jié)構(gòu)型偏見進行了繼承;算法在訓練過程中,數(shù)據(jù)集的不同表現(xiàn)也可能使算法生成歧視性決策;算法在使用過程中,在未擬定非歧視的機器學習算法下,同樣會導致歧視。這也是為什么谷歌公司在圖片軟件中,錯將黑人的照片標記為“大猩猩”;Flicker的自動標記系統(tǒng)也曾錯將黑人的照片標記為“猿猴”;微軟開發(fā)的人工智能聊天機器人Tay在和網(wǎng)民聊天不到24小時就被教壞,成為一個集反猶太人、性別歧視、種族歧視于一身的“不良少女”[17]。
算法技術(shù)對個體或者群體不合理的區(qū)別待遇需要我們采取相應的解決措施。但從目前對算法歧視的規(guī)制來看,由于概念的模糊,算法歧視常常與平等、公平等詞相關(guān)聯(lián),導致規(guī)制者對算法歧視做泛化處理,認為只要算法技術(shù)存在著對個體或者群體的區(qū)別對待就被視為存在算法歧視,對算法歧視采取“一把抓”的應對措施。這種忽略算法歧視的內(nèi)在聯(lián)系而采取的應對措施,在一定程度上,也是對算法歧視的歧視。因為,算法歧視是一項較為具體的風險,規(guī)制者應該圍繞算法歧視來建立具體的規(guī)制路徑。換言之,應根據(jù)算法本身的性質(zhì)、數(shù)據(jù)的處理對象和應用的不同場景來進行風險評估,明確其規(guī)制的范圍,從而采用不同的規(guī)制路徑。否則,這種不合理地擴大算法歧視的規(guī)制范圍容易導致規(guī)制路徑的混亂。對算法歧視的規(guī)制,可以參考美國白宮科技政策辦公室所發(fā)布的《人工智能權(quán)利法案》,在該法案中,規(guī)制者就對算法歧視拋棄了泛化處理,只保護基于膚色、民族、性別、宗教等法定特征的不合理區(qū)別對待和影響[18]。我們也應該結(jié)合我國的實際情況,對算法進行風險評估,明確其規(guī)制范圍,建立具體的規(guī)制方法,讓治理算法歧視成為實現(xiàn)算法公平的一環(huán)。
二、個性化推薦法律風險的規(guī)制進路
個性化推薦服務的廣泛應用,給生活帶來便利的同時,也給用戶帶來自主受限、隱私侵犯、信息繭房和算法歧視等諸多方面的法律風險。目前,面對個性化推薦服務所帶來的法律風險,已有相應的保護措施。但是,這并不足以有效解決個性化推薦服務所帶來的問題?;诖耍静糠謹M從重申同意的用戶自主確認、通過設計的隱私保護技術(shù)、強調(diào)競爭的企業(yè)合規(guī)考量和基于平等的政府監(jiān)管支撐這四個方面,對個性化推薦服務所帶來的法律風險進行體系化的規(guī)制探討。
(一)重申同意的用戶自主確認
個性化推薦服務的算法技術(shù)雖然改變了個人的生活,但是也存在用戶自主受限的影響。若要打破個人控制自由受限的局面,就需要重申用戶同意的自主確認,這主要涉及到對用戶知情同意權(quán)和選擇自由的雙重維護。
對于用戶的知情同意權(quán)來說,要進行同意的有效性判斷,因為只有有效的同意才能阻卻信息處理的違法性?!吨腥A人民共和國個人信息保護法》第14條規(guī)定,有效的同意需要由用戶在充分知情的前提下自愿、明確做出。該法第17條也提到了信息處理者有著使用戶“知情”的某些告知義務[19]。由此可知,在個性化推薦服務中,用戶的知情權(quán)是網(wǎng)絡平臺收集并利用用戶數(shù)據(jù)行為的必然要求。用戶對于平臺收集的數(shù)據(jù)類型、范圍和數(shù)據(jù)處理的方式和目的以及算法技術(shù)的運作原理等享有知情權(quán)?;诖?,企業(yè)必須適當?shù)亟档陀脩魠f(xié)議/隱私條款的閱讀門檻,遵循《數(shù)據(jù)安全管理辦法(征求意見稿)》第8條,以明確具體、簡單通俗的方式明示其收集、使用相關(guān)個人信息數(shù)據(jù)的目的、方式、范圍等規(guī)則,并征得用戶同意。同時,若條款內(nèi)容的敏感性程度較高,則可以將其單獨從用戶協(xié)議/隱私條款中分離出來,單獨征求用戶意愿,盡可能地保證用戶能夠真實、自愿地完成是否“同意”的自主確認。
對于用戶的選擇自由而言,可在保證用戶享有明確知情權(quán)的前提下,在APP中提供“擇出”和“擇入”兩種機制來實現(xiàn),除使用服務所必須要收集、處理用戶的個人信息外,不得因用戶自主選擇“擇出”而拒絕向其提供正常服務。申言之,需要賦予用戶對于個人信息被獲取、使用與處理的拒絕權(quán),不能強制性地要求用戶必須同意協(xié)議/條款才能正常使用APP。更重要的是,一次同意也不能代表永久性的、所有的同意。目前,很多APP中,是否同意協(xié)議/條款的頁面一般只會出現(xiàn)一次。但是,同意可能只是一時性的,只是為適應當時的需要所做的決定。因此,在用戶不愿意繼續(xù)被個性化推送的信息處理者所“窺探”時,也需要給予用戶撤回同意的權(quán)利。此外,在信息處理可能超出用戶同意范圍的時候,需要就超出范圍的部分重新征求用戶同意。
毋庸置疑,對用戶知情同意權(quán)與選擇自由的維護勢必以給平臺施加義務為主要手段,這是因為受限于技術(shù)、專業(yè)和能力等因素,平臺和用戶之間存在著明顯的權(quán)力勢差和信息不對稱,而且這種差距更是隨著社會變化和技術(shù)迭代逐漸拉大。因此,通過一系列具體的措施盡可能地平衡平臺與用戶之間不對等的情況,最大程度地幫助用戶實現(xiàn)真實的知情同意和切實的自主決定,就是數(shù)智時代的必然選擇。
(二)通過設計的隱私保護技術(shù)
數(shù)據(jù)平臺基于數(shù)據(jù)、運營、技術(shù)等優(yōu)勢條件和資源容易對個人及其信息形成擠壓狀態(tài)。為了應對此種狀態(tài),確立數(shù)據(jù)平臺的“守門人”角色并課以其個人信息保護合規(guī)義務是一種較好的選擇[20]。申言之,數(shù)據(jù)平臺可以“從一開始就將個人信息保護的需求通過設計嵌入系統(tǒng)之中,成為系統(tǒng)核心功能的一部分,成為商業(yè)實踐的默認規(guī)則,給予個人信息全生命周期的保護”[21]。這是事先預防的一種可為手段,不過,這種保護路徑的有效實施仰賴于兩個較為關(guān)鍵的因素。亦即,通過預先設計達致隱私保護需要注意技術(shù)信任問題和設計者的倫理約束問題。
其一,在技術(shù)信任方面。首先,要求算法服務提供者必須增強算法本身的可靠性,逐漸優(yōu)化隱私保護技術(shù)。比如,平臺可以在遵循透明且可事后問責的基礎上,根據(jù)目前用戶隱私保護所出現(xiàn)的技術(shù)漏洞,不斷地改進相關(guān)技術(shù)。其次,考慮到個性化算法技術(shù)的侵入性和不透明性,應對網(wǎng)絡平臺用戶的數(shù)據(jù)收集、使用、存儲、傳播等多個環(huán)節(jié)進行技術(shù)加密,對數(shù)據(jù)本身的內(nèi)容進行脫敏、去標識化、匿名化等處理,讓用戶的數(shù)據(jù)發(fā)揮其價值的同時,也能確保其隱私不被泄露[22]。最后,技術(shù)信任也要求用戶與算法服務提供者保持隱私態(tài)度的一致性,將保護隱私落實到具體行動中。例如,用戶在使用個性化推薦服務時,盡可能去閱讀相關(guān)的隱私保護條例,了解平臺對于數(shù)據(jù)的使用和處理的運作方式,同時,在可操作的范圍內(nèi)對個人信息進行脫敏、匿名、去標識化等有意識操作,避免自己的信息被泄露、非法利用。
其二,在設計者倫理約束方面。設計者倫理要求算法服務設計者應具有一定的安全保障義務與保護隱私的法治理念。具言之,設計者應有排除對服務用戶侵權(quán)以及對未來妨害進行審查和控制的義務;設計者也應自律地表達合規(guī)承諾,做出合規(guī)設計,并且,違反合規(guī)承諾時應承擔相應的法律責任[23]。這是因為算法技術(shù)本身是中立的,但是算法的架構(gòu)會受到設計者的影響,能夠?qū)⑵湔{(diào)整為符合設計者利益的模式。這種架構(gòu)本身是不透明的,且不同于法律規(guī)則,有著明顯的義務主體承擔相應的責任,這就可能導致隱私保護技術(shù)的代碼本身仍是“遵從了設計者的技術(shù)理性”,摻雜了設計者的主觀存在[24],尤其是當設計者的倫理觀念偏離了法律的“制度理性”,就會導致隱私保護的目標不僅無法實現(xiàn),而且用戶隱私被侵犯的可能性大大增加。因此,隱私設計者應具備相當程度的個人信息保護的法律素養(yǎng)。只有設計者擁有切實的法治意識,他們才能在技術(shù)設計的初始就嵌入良好的隱私保護理念以預防不同程度的隱私風險或威脅。
通過技術(shù)信任和設計者倫理約束兩個方面來對隱私保護進行預先設計,這不僅是對傳統(tǒng)個人隱私保護法律框架的擴展,同時,也是對信息技術(shù)迅速發(fā)展和隱私保護日趨復雜的積極回應。因此,技術(shù)保護的路徑永遠在路上。
(三)強調(diào)競爭的企業(yè)合規(guī)考量
個性化推薦服務作為信息利用方式之一,離不開算法技術(shù)和海量數(shù)據(jù)的支持。鑒于平臺作為強有力的信息處理者,與用戶之間是一種信息不對稱、地位不平等的關(guān)系。因此,要想克服個性化推薦服務所帶來的信息繭房之弊端,達到有效的信息治理效果,就必須突出企業(yè)的自我約束和控制義務。
適當?shù)乃惴ㄍ该骺梢宰鳛槠髽I(yè)自我規(guī)制的合理路徑之一。算法技術(shù)的復雜性及其算法推薦的自動性讓廣大網(wǎng)絡用戶以為算法推薦是中立的,所以他們并不會去質(zhì)疑平臺算法的操作過程。算法透明就要求企業(yè)以一定的方式和程度向用戶說明算法自動化決策的內(nèi)在邏輯,尤其是解釋用戶重點關(guān)心的特定因素對算法最終決策的具體影響?!端惴ㄍ扑]規(guī)定》第12條就鼓勵算法推薦服務的提供者“優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性”,以達到“避免對用戶產(chǎn)生不良影響,預防和減少爭議糾紛”的目標[25]。更關(guān)鍵的是,出于對商業(yè)秘密的重要性、算法本身的復雜性之考量,算法的透明度并不都以公開算法源代碼的方式實現(xiàn)[26]。這是因為,一方面,算法源代碼的披露某種程度上會讓企業(yè)在市場競爭中處于不利地位;另一方面,算法源代碼本身有著復雜的邏輯,即使是專家也很難理解其運行邏輯,因此公開算法源代碼并不是算法透明要求的唯一可能。算法透明的作用只是讓用戶對于算法設計的基本邏輯和決定個性化推薦的關(guān)鍵因素有較為直觀的了解。基于此,用戶在使用時可以知道算法如何計算數(shù)據(jù)來實現(xiàn)個性化推薦,當不想使自己的數(shù)據(jù)被收集并給自己推薦,或者想要增加信息多樣性時能夠主動地規(guī)避。正是對算法透明這一企業(yè)自我規(guī)制措施的強調(diào),一定程度上有利于緩解個性化推薦所帶來的信息供給、信息服務的差異,有效克服信息繭房之弊。
企業(yè)加強自我審查對規(guī)制信息繭房之危也有重要意義。企業(yè)作為信息處理者,應遵循科技向善的價值導向,通過對代碼審計實現(xiàn)算法推薦的自我審查,同時,對代碼所引發(fā)的信息繭房之漏洞應提供相應的措施和建議加以解決。而且,企業(yè)也有算法技術(shù)和信息處理等方面的優(yōu)勢條件推動算法向著合理、合法的軌道運行。有鑒于此,算法的個性化推薦并不僅僅只滿足用戶的興趣愛好,更應在算法思想中融入保障用戶認知健康成長的社會責任意識,避免知識鴻溝的出現(xiàn)。企業(yè)加強自我審查的意義在于:一方面,企業(yè)需要繼續(xù)優(yōu)化算法推薦技術(shù),避免服務一味地迎合用戶興趣以形成主動的信息繭房;另一方面,企業(yè)需要融合更多的推薦策略,設計更為健康的推薦機制。此外,企業(yè)自我審查也助益于政府監(jiān)管的實施,提高政府對算法技術(shù)的監(jiān)管能力和監(jiān)管效率。
通過算法透明和自我審查,企業(yè)能有效地彌補個性化推薦服務的不足,緩解信息繭房的效應,增強民眾對企業(yè)算法技術(shù)的信任。不過,對企業(yè)自我規(guī)制的強調(diào),不僅僅在于個人信息保護的合規(guī)義務之落實,更經(jīng)濟的目的在于推動企業(yè)之間在數(shù)字生活中公平競爭,而不是個人與企業(yè)之間相互競爭[27]。只有企業(yè)之間充分良性地競爭,個體才能選擇符合其利益的企業(yè),或者在提供相同服務的企業(yè)之間自由流動,進而從個性化推薦服務中實際受益。因此,企業(yè)自我規(guī)制最根本的指向就是借此創(chuàng)造企業(yè)的競爭優(yōu)勢,使企業(yè)在自由市場中處于有利地位。職是之故,企業(yè)需要不斷地優(yōu)化自身算法技術(shù),提供多種資源組合來減弱信息繭房的危害,為自身爭取較為有效的核心競爭力,也為用戶創(chuàng)造更多的選擇自由,避免其深陷算法技術(shù)形成的信息孤島之中。
(四)基于平等的政府監(jiān)管支撐
相較于社會中常見的歧視行為,算法歧視更為隱秘,而且,個人也缺乏足夠的能力來識別是否發(fā)生算法歧視。因此,借助政府監(jiān)管的力量來增強個人與企業(yè)討價還價的能力就有其必要性。一般來說,政府對算法歧視的監(jiān)管,一方面應遵循算法的客觀運行規(guī)律,另一方面也要靈活嵌入社會治理體系,以實現(xiàn)算法時代決策公正的要求。因此,政府監(jiān)管的直接目的是為了讓算法在法治化的軌道下運行,即通過監(jiān)督減少算法歧視的隱蔽性和復雜性,確保算法自動決策的客觀性與公平性,盡可能減少不必要的歧視給用戶生活和工作帶來的不利影響。
政府對算法歧視的監(jiān)管可以從風險評估和算法審計兩方面展開。目前,《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》以及《中華人民共和國國家安全法》都為算法審計與風險評估提供了法的依據(jù)。風險評估旨在對算法技術(shù)的風險進行客觀評估以避免對算法歧視進行泛化處理。申言之,風險評估要求加強對算法技術(shù)的真切認識,尋求促進算法良性發(fā)展的治理途徑,避免讓代表平等、公平的社會價值觀屈服于經(jīng)濟利益,造成沖擊社會經(jīng)濟秩序和傳統(tǒng)價值觀的現(xiàn)象。風險評估可以從界定風險評估對象、風險源識別和風險評估指標體系三個環(huán)節(jié)來構(gòu)建。具體而言,首先,風險評估對象可以以法律禁止不合理的區(qū)別對待為基礎。當然,也需要注意,某些算法雖是基于合法目的的正當區(qū)別,但實際效果卻產(chǎn)生了差別性的對待,這就需要具體判斷算法所區(qū)別的要件是否具有合理性、必要性、合比例性。如果有,則不應認定為風險評估對象,如果沒有,則應歸入風險評估對象范圍[28]。其次,風險源的識別一般以影響權(quán)益、秩序和規(guī)則的敏感信息或者和敏感信息有潛在關(guān)聯(lián)的數(shù)據(jù)為主。最后,建立一定的風險評估框架加以標準化。成體系或者標準化的風險評估框架作為一個理性策略,可幫助監(jiān)管機構(gòu)快速且全面地了解并確定可能的數(shù)據(jù)風險程度,并及時采取得當?shù)娘L險應急措施。而且,評估框架經(jīng)受實踐檢驗并調(diào)整后,還可以作為行業(yè)標準加以統(tǒng)一應用,提升政府總體的監(jiān)管水平。
算法審計是由技術(shù)性和非技術(shù)性措施組成的審查算法系統(tǒng)的一系列方法的總稱[29],其可根據(jù)風險評估的指標體系來對算法歧視劃分不同的等級,進而根據(jù)不同的風險評估指標確定不一樣的審計方法。換言之,算法審計需遵循分類分級的原則,區(qū)別地對算法主體科以強制審計的義務。算法審計一般是現(xiàn)場檢查以及面談的審計方法。但是,對于算法歧視而言,因其本身多因參數(shù)的權(quán)重不均而導致,因此就需要使用代碼審計的方法來糾正偏差。算法審計為治理算法歧視提供了新思路、新方法,其主要是通過設計不同的治理機制來解決算法歧視所帶來的問題,盡量避免政府“一刀切”式的監(jiān)管模式。有鑒于此,政府的監(jiān)管不能再是傳統(tǒng)的強制—命令式,而應是引導性、回應性的多元方式。而且,政府監(jiān)管應注意靈活把握監(jiān)督的程度,不宜過多地介入企業(yè)自主管理,妨害其技術(shù)創(chuàng)新。
綜上,政府監(jiān)管是對算法歧視風險的事前預防,也是事后救濟算法歧視的一道防線。通過政府對算法歧視的監(jiān)管,算法會受到外部正確價值觀的干預,進而切實地減少不公正算法對決策過程和公正結(jié)果的影響。因此,政府監(jiān)管的主要目的就在于確保算法能夠承載反歧視的價值倫理。唯有如此,才能真切地踐行個人和社會對平等價值的不懈追求。
結(jié) 語
個性化推薦服務的廣泛應用不僅提高了用戶對網(wǎng)絡平臺的黏性,而且也給互聯(lián)網(wǎng)企業(yè)帶來巨大利潤。但是,這看似用戶與企業(yè)雙贏的局面,實際上對網(wǎng)絡用戶的信息安全和隱私造成極大損害,同時,也嚴重危害到社會的整體利益。因此,如何在個性化推薦服務中保護用戶的個人信息免受侵害,達致經(jīng)濟發(fā)展和權(quán)益保護的平衡就是當下研究的重中之重。當前,面臨個性化推薦服務所帶來的諸多便利和效用,我們已無法拒絕也不可能拒絕這一技術(shù)實踐。但是,不受限的技術(shù)發(fā)展必然會加劇已有的個人信息利用危害或者促使更多可知的和未知的風險損害。在這些可能的風險考量中,個體自主性的逐漸喪失、個人隱私的加倍泄露、人為建構(gòu)的信息繭房以及無從逃避的算法歧視等風險依然挑動著人們脆弱的神經(jīng),刺激著人類敏感的情緒。更為重要的是,社會情境的復雜性和經(jīng)濟利益的多元性使得單一的個人信息保護框架已經(jīng)無法有效解決個人信息受侵犯以及個人權(quán)益被侵害的問題?;诖?,試圖構(gòu)建多種組合的手段共同地維護個人權(quán)益和社會利益就是當下必然的理性選擇。具言之,只有經(jīng)由重申同意的用戶自主確認、通過設計的隱私保護技術(shù)、強調(diào)競爭的企業(yè)合規(guī)考量以及基于平等的政府監(jiān)管支撐等多元參與的路徑,我們才能更好地促進技術(shù)發(fā)展與權(quán)利保護的互惠共生。
[參 考 文 獻]
[1]中國人民大學高瓴人工智能學院.算法向善與個性化推薦發(fā)展研究報告[R].2022-01-07.
[2]金雪.考慮評分差異的網(wǎng)上超市商品組合推薦方法研究[D].大連:大連海事大學,2023.
[3]李敏.電商平臺個性化推薦算法的法律規(guī)制[J].現(xiàn)代商業(yè),2023(18).
[4]石易,周神保.個性化推薦算法的安全風險[J].中國電信業(yè),2019(5).
[5]崔愛茹,湯小春.基于Web多人協(xié)作平臺的個性化推薦算法研究[J].計算機與現(xiàn)代化,2013(3).
[6]榮予暢,吳才毓.個性化推薦場景下信息自決權(quán)研究[J].江蘇科技大學學報(社會科學版),2021(4).
[7]謝遠揚.信息論視角下個人信息的價值——兼對隱私權(quán)保護模式的檢討[J].清華法學,2015(3).
[8]郭鵬,李展鵬.預測分析技術(shù)背景下的個人信息行政保護新機制建構(gòu)[J].學術(shù)研究,2023(7).
[9]年俊潔.司法公開視域下的個人信息保護問題研究[D].蘭州:蘭州大學,2023.
[10]黃靖雯,陶士貴.數(shù)智化階段的金融科技:風險與監(jiān)管[J].蘭州學刊,2023(6).
[11]賈云雁.論網(wǎng)絡隱私權(quán)的保護[J].經(jīng)濟視角(下),2011(3).
[12]蔡川子.數(shù)據(jù)抓取行為的競爭法規(guī)制[J].比較法研究,2021(4).
[13]曾建輝.算法時代出版評論的當下境遇與發(fā)展進路[J].中國編輯,2021(10).
[14]唐子茜,袁堯,汪衛(wèi)霞.從信息繭房到多元賦能:知識鴻溝的產(chǎn)生機制及其治理路徑研究[J].情報理論與實踐,2024(6).
[15]謝永江,楊永興,劉濤.個性化推薦算法的法律風險規(guī)制[J].北京科技大學學報(社會科學版),2024(1).
[16]Daniel R.Shulman.What’s the Problem with Google? [J].THE Sedona Conference Journal ,2014(15):17-34.
[17]李嘉真.商業(yè)算法決策的異化困境及其規(guī)制出路[D].上海:華東政法大學,2023.
[18]李志穎.算法歧視的兩副面孔及其法律規(guī)制[J].交大法學,2024(1).
[19]傅雪婷.個人信息同意任意撤回:目的、體系與規(guī)則[J].大連理工大學學報(社會科學版),2024(2).
[20]焦俊峰,李曉東.大數(shù)據(jù)時代個人信息保護的治理體系研究——基于技術(shù)信任和專家系統(tǒng)的二分框架[J].電子政務,2022(12).
[21]時明濤.個人信息保護“知情同意”的規(guī)范再造[J].民商法論叢,2023(1).
[22]張奕翔.算法時代的隱私保護:矛盾困境、路徑方向及未來挑戰(zhàn)[J].傳媒論壇,2022(16).
[23]王鵬.數(shù)據(jù)平臺個人信息保護的合規(guī)義務與路徑實施[J].江蘇社會科學,2023(3).
[24]鄭馳.算法推薦的權(quán)利風險及其治理[J].大連海事大學學報(社會科學版),2022(4).
[25]林洹民.《個人信息保護法》中的算法解釋權(quán):兼顧公私場景的區(qū)分規(guī)范策略[J].法治研究,2022(5).
[26]蘇宇.優(yōu)化算法可解釋性及透明度義務之詮釋與展開[J].法律科學(西北政法大學學報),2022(1).
[27]王婭.個人信息保護理念的錯位與回歸[J].學術(shù)交流,2022(8).
[28]徐楊嵐.“技術(shù)—環(huán)境”視角下算法風險評估指標體系的理論建構(gòu)[D].成都:電子科技大學,2023.
[29]張欣,宋雨鑫.算法審計的制度邏輯和本土化構(gòu)建[J].鄭州大學學報(哲學社會科學版),2022(6).
[責任編輯 錢大軍]
The Legal Risk of Personalized Recommendation Service and Its Regulation Approach
WANG Ya
Abstract:The era of explosive growth of information makes personalized recommendation service occupy an extremely important position in the Internet. Personalized recommendation service can effectively assist the network platform to screen effective information in the huge information ocean, solve the problem of information overload, and greatly meet the personalized needs of users. However, personalized recommendation service is not beneficial without harm, and its unreasonable use by network platforms easily makes users face legal risks such as autonomy limitation, privacy disclosure, information cocoon, algorithm discrimination and so on. In view of these potential realistic risks, we can put forward corresponding requirements for individuals, enterprises and governments to deal with the risks and challenges brought by personalized recommendation services from the perspectives of reaffirming consent, technical design, emphasizing competition and seeking equality.
Key words:Personalized Recommendation Individual Rights Pluralistic Co-governance