趙德勇,張子輝
(河北師范大學法政與公共管理學院,河北 石家莊 050024)
所謂大數(shù)據(jù)殺熟,是指經(jīng)營者利用自身掌握的客戶信息優(yōu)勢,在確定服務(wù)或者商品的價格過程中針對不同客戶采取不同價格的行為。社會公眾日常使用的攜程、飛豬旅行、滴滴打車、餓了嗎、星巴克、淘票票等平臺企業(yè),均被曝出實施過大數(shù)據(jù)殺熟行為。這些在諸多知名平臺企業(yè)普遍存在的大數(shù)據(jù)殺熟行為涉及人民群眾日常生活的各個方面,亟須在法律層面予以規(guī)制。然而通過梳理現(xiàn)行法律體系有關(guān)規(guī)定可知, “大數(shù)據(jù)殺熟” 在《中華人民共和國民法典》合同編、侵權(quán)編存在著規(guī)制路徑困境,在《中華人民共和國價格法》《中華人民共和國反壟斷法》中又有用戶權(quán)益保護力度不足的問題。因此,本文以《個人信息保護法》和《互聯(lián)網(wǎng)信息信息服務(wù)算法推薦管理規(guī)定》為研究對象,從個人信息保護到算法規(guī)制完善 “大數(shù)據(jù)殺熟” 的規(guī)制路徑方面提出建議,以期解決 “大數(shù)據(jù)殺熟” 存在的問題,實現(xiàn)保障用戶合法權(quán)益的同時促進算法的有序發(fā)展。
“大數(shù)據(jù)殺熟” 的常見表現(xiàn)形式包括 “一人一價” “一次一價” 和 “個性精準推送” 。 “一人一價” 是指同一時間不同用戶登錄同一平臺的同一頁面,同一商品(服務(wù))的價格會根據(jù)用戶的瀏覽記錄、收藏記錄、歷史購買記錄、支付能力、選擇偏好等歷史數(shù)據(jù)為每位用戶定制不同的價格。其中 “VIP 相較普通客戶價更高” “蘋果端用戶相較安卓端用戶價更高” 是 “一人一價” 的主要表現(xiàn)。 “一次一價” 是指同一用戶針對同一品質(zhì)商品(服務(wù))根據(jù)其打開頁面的次數(shù)不同、在此頁面停留的時間長短或是使用的次數(shù)不同在定價上存在著明顯差距,甚至存在第二次打開頁面比首次打開頁面價格更高的情況。 “個性精準推送” 是指平臺根據(jù)搜集的用戶數(shù)據(jù)信息為用戶劃定商品(服務(wù))的選擇范圍,使用戶只能在給定的高價商品中選擇商品(服務(wù))。
1.侵害消費者個人權(quán)益,背離民法基本原則
首先, “大數(shù)據(jù)殺熟” 侵害了用戶作為消費者享有的個人權(quán)益。 “一人一價” 使得用戶接收的商品(服務(wù))信息都是平臺基于數(shù)據(jù)分析而定制的,與用戶作為消費者享有的知悉真情權(quán)相沖突; “一次一價” 使得用戶因為搜索或使用的頻次不同而在享受同等商品(服務(wù))時給付的價格不同,這損害了用戶作為消費者當然享有的公平交易權(quán); “個性精準推送” 使得用戶與平臺的黏性愈發(fā)緊密,用戶只能在平臺的劃定范圍內(nèi)選擇商品(服務(wù)),這在一定程度上侵害了用戶作為消費者的自主選擇權(quán)。其次,平臺的 “大數(shù)據(jù)殺熟” 違背了民法的自愿原則、公平原則以及誠實信用原則。平臺利用自身的算法優(yōu)勢,與用戶形成嚴重的信息不對稱。這種信息不對稱影響了用戶在商業(yè)活動中意思表示的真實性,使得用戶無法做出正確判斷從而引發(fā)不公平和低效率[1]。這種濫用算法權(quán)力的行為,不僅與民法的自愿原則相背離,而且也不符合民法公平原則的含義。另外,平臺為攫取自身的最大利益,為用戶定制了一個損人利己的商品(服務(wù))價格。這不僅與誠實信用原則中的 “善意” 主觀心理狀態(tài)相違背,而且也不符合該原則 “忠于事實真相,不能欺騙他人、損人利己” 的基本要求[2]。
2.損害平臺內(nèi)經(jīng)營者權(quán)益,擾亂市場正常秩序
“大數(shù)據(jù)殺熟” 的發(fā)展同時也催生新型算法價格共謀行為[3]。平臺通過算法排除、限制相關(guān)市場經(jīng)營主體之間的公平競爭,損害平臺內(nèi)經(jīng)營者利益,擾亂了市場的正常競爭秩序。2021 年,國家市場監(jiān)督管理總局依法對阿里巴巴實施 “二選一” 的壟斷行為處罰182.28 億元。公布的調(diào)查報告顯示,阿里巴巴通過制定平臺規(guī)則、設(shè)定算法等方式,決定平臺內(nèi)經(jīng)營者和商品(服務(wù))的搜索排名及其平臺展示位置,控制平臺內(nèi)經(jīng)營者可獲得的流量,迫使平臺內(nèi)經(jīng)營者通過締結(jié)多個縱向協(xié)議完成營銷或定價,形成價格共謀,排除、限制市場競爭。 “大數(shù)據(jù)殺熟” 表面上僅僅損害了用戶的合法權(quán)益,實則也侵害了經(jīng)營者們的經(jīng)營自主權(quán)和合法利益,危害了正常的互聯(lián)網(wǎng)商品(服務(wù))競爭秩序。
3.加劇消費者剩余與社會整體福利之間的沖突
“大數(shù)據(jù)殺熟” 已經(jīng) “路人皆知” ,如果 “熟客” 長此以往地被 “宰殺” ,是否會對殺熟平臺產(chǎn)生厭煩心理甚至棄用殺熟平臺呢?答案是肯定的。有調(diào)查研究顯示, “大數(shù)據(jù)殺熟” 對顧客信任、感知價值和顧客忠誠度存在顯著的負面影響,導致老顧客大量流失,造成平臺負面口碑影響[4]。 “大數(shù)據(jù)殺熟” 會剝奪用戶作為消費者在統(tǒng)一定價下可享受的消費者剩余,如果不對大數(shù)據(jù)殺熟進行遏制,大批的老顧客會對殺熟平臺喪失信任,導致非理性拒絕交易或者提起訴訟。當經(jīng)營者所仰賴的算法程序無法妥善處理消費者的不滿情緒時,最終付出的成本可能遠遠高于既得利益。 “大數(shù)據(jù)殺熟” 的后果將是加劇消費者剩余與社會整體福利的沖突,激化社會矛盾[5]。
“大數(shù)據(jù)殺熟” 的定性一直存在爭議,學界對 “大數(shù)據(jù)殺熟” 定性的主流觀點有兩個:一部分學者秉持價格欺詐說,另一部分學者堅持價格歧視說。
1.價格欺詐說
根據(jù)國家發(fā)改委《禁止價格欺詐行為的規(guī)定》第三條,價格欺詐行為是指經(jīng)營者利用虛假的或者使人誤解的標價形式或者價格手段,欺騙、誘導消費者或者其他經(jīng)營者與其進行交易的行為。該觀點認為, “大數(shù)據(jù)殺熟” 是平臺在對用戶收集數(shù)據(jù)并經(jīng)分析整合后產(chǎn)生了 “千人千價” 的個性化定價,背離了用戶作為消費者對于 “明碼標價” 的常識性認知,平臺有告知義務(wù)卻故意隱瞞,致使用戶陷入錯誤認知而作出意思表示,構(gòu)成消極價格欺詐[6]。但是,有學者認為價格欺詐說不能成立:一方面,用戶在購買商品時是基于質(zhì)量和價格等各類因素的綜合考量,大數(shù)據(jù)殺熟不構(gòu)成被騙的表意錯誤,換句話說, “用戶才是自身利益的最佳裁判” ;另一方面,區(qū)別定價是用戶數(shù)據(jù)在電腦算法中分析、識別、分組、營銷自動產(chǎn)生的結(jié)果,平臺未告知用戶其他售價的行為既不是虛構(gòu)事實,也談不上隱瞞真實情況[7]。
2.價格歧視說
有學者從經(jīng)濟學視角出發(fā),將 “大數(shù)據(jù)殺熟” 定性為價格歧視。該觀點認為 “大數(shù)據(jù)殺熟” 是平臺利用算法與大數(shù)據(jù),突破場景限制,將之前為完成消費服務(wù)而收集的消費者個人數(shù)據(jù)信息,用于對消費者精準 “畫像” 并據(jù)此攫取 “價格剩余” ,最終實現(xiàn) “千人千價” ,將經(jīng)濟學理論變?yōu)楝F(xiàn)實[8]。價格歧視是一種產(chǎn)品營銷中合理的定價方式,它根據(jù)消費者需求的不同推出不同的商品或者服務(wù),以滿足消費者個性化的需求彈性。在電商大行其道之前,現(xiàn)實生活中的價格歧視也比比皆是,比如購買衣服時,根據(jù)顧客的砍價能力不同,老板給顧客的最后定價也不同。因此,價格歧視是一個中性詞匯,想要規(guī)制 “大數(shù)據(jù)殺熟” 將其定義為價格歧視存在不妥。
綜上, “大數(shù)據(jù)殺熟” 的定性問題不僅存在較大爭議,而且根據(jù) “大數(shù)據(jù)殺熟” 的表象進行的法律定性難以真正規(guī)制 “大數(shù)據(jù)殺熟” 。想要真正遏制 “大數(shù)據(jù)殺熟” ,需要進一步從其行為邏輯層面分析實質(zhì)。
許多學者研究 “大數(shù)據(jù)殺熟” 的實現(xiàn)路徑,得出的結(jié)論雖然各有不同,但是,可以發(fā)現(xiàn),實現(xiàn) “大數(shù)據(jù)殺熟” 離不開 “個人信息數(shù)據(jù)收集—形成用戶個人數(shù)字畫像—算法區(qū)別定價” 的根本邏輯。平臺經(jīng)營者先利用用戶向其提供的個人數(shù)據(jù)信息,挖掘數(shù)據(jù)價值,再利用算法整合數(shù)據(jù),實現(xiàn)從 “數(shù)據(jù)價值” 向 “市場價值” 的跨越。在互聯(lián)網(wǎng)技術(shù)飛速發(fā)展的今天,利用大數(shù)據(jù)、算法并沒有錯。 “大數(shù)據(jù)殺熟” 的錯誤本質(zhì)在于平臺的經(jīng)營者過度收集個人信息數(shù)據(jù)和濫用算法。
1.過度收集個人信息數(shù)據(jù)
在現(xiàn)實的交易場景中,賣家想要達成交易并完成送貨上門等服務(wù)需求,只需要清楚用戶的姓名、地址、聯(lián)系方式和支付方式等基本信息。而 “大數(shù)據(jù)殺熟” 場景中,平臺在收集基本數(shù)據(jù)的情況下還會大規(guī)模地收集其他非必要個人信息,主要有性別、年齡、愛好興趣、職業(yè)、通訊錄、設(shè)備信息等等。用戶往往會圖一時方便上傳個人信息,對于沒有上傳個人信息的用戶,殺熟平臺也會手段多樣地達成目的。其中,最簡單粗暴的方法是如果不提供相應(yīng)信息,賣家會限制或禁止用戶對其平臺的使用;另一種較為隱蔽的方法是不同平臺之間通過數(shù)據(jù)交換或數(shù)據(jù)交易分享數(shù)據(jù)信息,或者以折扣、免費服務(wù)或獲獎機會換取用戶的個人信息。用戶在手段多樣的平臺面前仿佛 “待宰的羔羊” ,難以用正當合法簡便的方式維護自己的個人信息數(shù)據(jù),最終淪為被 “殺熟” 的對象。
2.濫用算法
平臺在獲得足夠的個人信息之后,憑借算法的權(quán)力優(yōu)勢和不透明性,通過濫用算法實現(xiàn) “大數(shù)據(jù)殺熟” 。算法在網(wǎng)絡(luò)世界中對用戶而言是 “絕對權(quán)力” 的存在。第一,用戶必須按照算法的邏輯和步驟才能進入算法構(gòu)成的網(wǎng)絡(luò)世界;第二,算法可以通過設(shè)置獎勵和懲罰影響用戶的判斷和行為;最后,在算法形成的網(wǎng)絡(luò)世界里,根據(jù)用戶和算法的互動形成 “信息繭房” ,實現(xiàn)算法對用戶的一種相對掌控。另外,算法還具有不透明性,理解算法需要超高的專業(yè)水準。美國學者尼沃·埃爾金科倫等提出了著名的算法黑箱理論:算法在很大程度上就是一個黑箱子,即不透明的輸入和輸出系統(tǒng),普通人無從知曉輸入—輸出之間的相互作用是通過怎樣的結(jié)構(gòu)得以發(fā)生的,也不知道算法決策依據(jù)的具體數(shù)據(jù)指征和遵循的決策準則是什么[9]。算法設(shè)計者在構(gòu)建算法時,通常使用計算機語言,用戶一般難以理解。算法運行時,用戶不僅不知道算法運行輸入的個人信息數(shù)據(jù)是什么,也難以理解算法的運行邏輯。用戶在算法權(quán)力和算法不透明的情況下,既被算法所控制、影響,又難以發(fā)現(xiàn)算法存在的問題,使得用戶作為消費者很難利用市場反饋機制反制平臺,最終被輕易 “殺熟” 。
另外,由于 “大數(shù)據(jù)殺熟” 應(yīng)用在手機端、電腦端,往往比較私密,用戶作為消費者接受商品(服務(wù))時一般處在相對獨立狀態(tài),很難發(fā)現(xiàn)自己 “被殺熟” 。殺熟平臺背后的經(jīng)營者正是看到了算法在網(wǎng)絡(luò)世界中的強大優(yōu)勢,才會濫用算法技術(shù),通過 “殺熟” 手段,攫取自身利益的最大化。
伴隨《民法典》的實施,我國已經(jīng)初步構(gòu)建起以《民法典》為引領(lǐng),其他法律、部門規(guī)章和地方性法規(guī)為組成部分的體系化法律規(guī)制路徑。不僅相繼出臺(修改)了《電子商務(wù)法》《個人信息保護法》和《互聯(lián)網(wǎng)信息信息服務(wù)算法推薦管理規(guī)定》,還對重點領(lǐng)域進行了規(guī)定,比如針對在線旅游App,出臺了《在線旅游經(jīng)營服務(wù)管理暫行規(guī)定》。還有部分省份制定了相關(guān)的地方性法規(guī),比如2023年1月1日施行的《四川省數(shù)據(jù)條例》直指 “大數(shù)據(jù)殺熟” 問題。隨著相關(guān)法律法規(guī)的確立,網(wǎng)絡(luò)平臺的 “殺熟” 之風得到了明顯遏制。但是,總體而言,在調(diào)整和收集個人信息的事前階段、處理個人信息的算法決策階段以及事后階段等過程中,仍然存在規(guī)制不力的問題。有必要在厘清 “大數(shù)據(jù)殺熟” 本質(zhì)的基礎(chǔ)上,進一步完善相應(yīng)制度。通過上文可知, “大數(shù)據(jù)殺熟” 的實質(zhì)在于平臺過度收集個人信息數(shù)據(jù)和濫用算法,因此,本文將從這兩個角度完善 “大數(shù)據(jù)殺熟” 的法律規(guī)制。
《個人信息保護法》明確了知情同意規(guī)則在個人信息保護中的核心地位。平臺經(jīng)營者應(yīng)以個人對信息處理的充分知情和同意作為收集、處理個人信息的前提。平臺應(yīng)該使用顯著方式和簡明語言確保用戶知道收集了哪些個人信息,誰在處理這些信息、處理信息的方式、可能造成的影響等,用戶應(yīng)該在充分知情的情況下自由地行使同意權(quán)。知情同意規(guī)則是在平臺收集個人信息的事前階段規(guī)制 “大數(shù)據(jù)殺熟” 最有力的方法。然而,法律規(guī)定與現(xiàn)實情況存在偏差。一方面,平臺或是通過冗長、模糊、晦澀難懂的格式條款消耗用戶耐心使得用戶默示同意,或是綁定同意選項迫使用戶同意,或是提供優(yōu)惠產(chǎn)品、服務(wù)等方式獲取用戶的同意。另一方面,用戶對于知情同意規(guī)則了解不足,認為沒有必要了解隱私政策、用戶協(xié)議的詳細內(nèi)容,往往直接 “同意” 了事??傊?,知情同意規(guī)則脫離了立法者保護用戶個人信息的本意,演變成為平臺肆意收集用戶個人信息,逃脫法律制裁的手段。
為進一步保護用戶個人信息不被過度收集,應(yīng)加強落實知情同意規(guī)則。第一,平臺的告知義務(wù)應(yīng)當履行到位。就知情與自愿的關(guān)系而言,自愿必須建立在知情的基礎(chǔ)上,個人只有充分了解其個人信息的收集、使用和轉(zhuǎn)讓情況,做出的同意才能稱之為自愿同意[10]。網(wǎng)信辦等相關(guān)部門可以將平臺告知義務(wù)的履行情況列為算法安全評估的重要事項,倒推平臺落實知情同意規(guī)則。平臺的告知內(nèi)容應(yīng)當明確,告知形式應(yīng)當簡潔易懂。無論是否涉及隱私信息,只要屬于對個人信息的收集都應(yīng)該告知用戶。針對晦澀難懂、紛繁復(fù)雜的用戶協(xié)議和隱私政策應(yīng)當采取圖文并茂、簡潔明了、方便易懂的形式向用戶展示,確保用戶理解明白用戶協(xié)議和隱私政策的內(nèi)容。第二,提高用戶對于知情同意規(guī)則的了解。用戶應(yīng)當明白自身享有的同意權(quán)、知情權(quán),加強對自身個人信息的保護意識。平臺可以通過不點開協(xié)議就無法進入頁面、重點條款加粗加大、語言簡短明確等多種形式讓用戶仔細閱讀相關(guān)條款,通過協(xié)議中設(shè)置個性化選項等方式確保用戶同意權(quán)的準確自由。第三,針對個別平臺《服務(wù)協(xié)議》《隱私政策》存在不合理條款的情況,一方面,網(wǎng)信辦等部門可以對《服務(wù)協(xié)議》《隱私政策》中涉及個人信息收集的條款進行標準化規(guī)定,出具相應(yīng)的模板,實現(xiàn)同一問題同一處理;另一方面,網(wǎng)信辦等部門應(yīng)加大審查力度,完善個人信息保護投訴和舉報工作機制,對于反復(fù)出現(xiàn)不合理條款的平臺加大處罰力度。
1.加強算法管理中的個性化推薦設(shè)置
《個人信息保護法》和《互聯(lián)網(wǎng)信息信息服務(wù)算法推薦管理規(guī)定》規(guī)定,經(jīng)營者應(yīng)當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項。通過設(shè)置個性化推薦選項,將是否受到算法影響的權(quán)利從平臺經(jīng)營者手中轉(zhuǎn)移到用戶手中,相對限制了算法權(quán)力對用戶選擇的過度干預(yù),保障用戶不被算法控制和影響。然而,用戶是否關(guān)閉算法推薦服務(wù)的真實意思很難得到表達。一是因為大多數(shù)用戶對于關(guān)閉個性化推薦的自主選擇權(quán)并不知曉,二是因為平臺將關(guān)閉個性化推薦設(shè)置在隱秘地方,甚至個別平臺App(如拼多多)存在不設(shè)置關(guān)閉個性化推薦選項的情形。用戶想要關(guān)閉算法推薦服務(wù),首先要對關(guān)閉個性化推薦選項有清晰的了解。其次需要進行步驟查詢,操作多個步驟才能予以關(guān)閉。為保障用戶對個性化推薦設(shè)置的自由選擇權(quán),應(yīng)加強算法管理中的個性化推薦設(shè)置。消保委、網(wǎng)信辦等部門應(yīng)加強對個性化推薦設(shè)置的監(jiān)督,提高用戶對個性化推薦設(shè)置的認識,促使平臺簡化個性化推薦設(shè)置流程。
2.明確算法處理時使用的個人信息
根據(jù)《互聯(lián)網(wǎng)信息信息服務(wù)算法推薦管理規(guī)定》,算法推薦服務(wù)的情況應(yīng)當以顯著方式告知用戶,以增強算法的透明度和可解釋性。但是,平臺將算法推薦服務(wù)情況告知用戶存在現(xiàn)實困難。以數(shù)據(jù)畫像技術(shù)為例,該技術(shù)是通過收集數(shù)據(jù)主體信息,包括工作績效、經(jīng)濟狀態(tài)、健康狀況、個人偏好等來預(yù)測數(shù)據(jù)主體的行為并做出決定。平臺背后的經(jīng)營者作為算法推薦服務(wù)提供者,可能自身也不清楚算法的具體運行情況,更何況讓其向用戶解釋。用戶作為非專業(yè)計算機人士,理解算法決策運行邏輯也存在困難。因此,為增強算法透明度和可解釋性,應(yīng)將重點放在披露算法處理時使用的個人信息和數(shù)據(jù)上。對于平臺而言,公示算法處理時使用的個人信息和數(shù)據(jù)既保證了算法在平臺中的商業(yè)價值,也不會給平臺造成解釋不清的困難。對于用戶而言,可以了解自己哪些個人信息被算法處理。明確算法處理時使用的個人信息不僅有利于通過糾正錯誤的個人信息實現(xiàn)錯誤算法結(jié)果的改正,也有利于掌握平臺收集的非必要個人信息,進而更好地維護自身的合法權(quán)益。
3. “大數(shù)據(jù)殺熟” 的事后階段
現(xiàn)有法律大多從事前監(jiān)管出發(fā)規(guī)制平臺濫用算法,忽略了 “大數(shù)據(jù)殺熟” 的事后規(guī)制,導致用戶被 “殺熟” 后救濟手段較少。在 “大數(shù)據(jù)殺熟” 相關(guān)案件中,因為平臺掌握技術(shù)優(yōu)勢,可以倚仗數(shù)據(jù)緩存、時間變化來掩飾 “殺熟” 行為,所以處于弱勢地位的用戶難以獲取證據(jù),存在舉證難、維權(quán)成本高的問題。
完善 “大數(shù)據(jù)殺熟” 法律規(guī)制,需加強事后規(guī)制手段。第一,應(yīng)通過舉證責任倒置來平衡算法及其經(jīng)營者在互聯(lián)網(wǎng)市場交易中的優(yōu)勢地位。《民法典》規(guī)定的舉證責任倒置情形是為了平衡法律關(guān)系雙方的利益,保證弱勢一方在法律關(guān)系中的權(quán)利。在 “大數(shù)據(jù)殺熟” 場景中,平臺后的經(jīng)營者利用算法的絕對權(quán)力、不透明性和 “殺熟” 的隱蔽性,使得用戶明顯處于弱勢地位,并且由于算法、數(shù)據(jù)等均由經(jīng)營者掌控,用戶舉證十分困難,單單憑借 “誰主張,誰舉證” 的規(guī)則難以通過司法路徑有效維護自身合法權(quán)益。在 “大數(shù)據(jù)殺熟” 事后追責模式中納入舉證責任倒置原則不僅有利于算法權(quán)力規(guī)制而且符合民法的價值追求。第二,明確法律規(guī)定的 “重大影響” 和 “不合理” 。《個人信息保護法》第24 條規(guī)定,通過自動化決策方式做出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策方式做出決定。其中,對個人權(quán)益有 “重大影響” 的判斷標準存在認定不清嫌疑。無獨有偶,在《互聯(lián)網(wǎng)信息信息服務(wù)算法推薦管理規(guī)定》第21 條中,算法推薦服務(wù)者不得根據(jù)消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實施不合理的差別待遇等違法行為。對于 “不合理” 差別待遇同樣存在認定界限模糊的問題。認定不清導致用戶對于達到 “重大影響” “不合理” 的舉證存在現(xiàn)實困難,難以根據(jù)法律相關(guān)規(guī)定實現(xiàn) “大數(shù)據(jù)殺熟” 的合理維權(quán)。因此,相關(guān)立法部門應(yīng)該對于《個人信息保護法》第24 條和《互聯(lián)網(wǎng)信息信息服務(wù)算法推薦管理規(guī)定》第21條的 “重大影響” “不合理差別待遇” 進行明確規(guī)定。首先,不論是 “重大影響” 或是 “不合理” 都應(yīng)從一般理性人視角分析算法結(jié)果是否對用戶的原有利益造成嚴重影響,而不應(yīng)從用戶的主觀視角進行判斷。其次,在 “大數(shù)據(jù)殺熟” 場景中,一定時間段內(nèi)平臺對于用戶頻繁 “殺熟” 造成用戶的個性化推薦、商品(服務(wù))價格與其他用戶明顯不同,屬于法條規(guī)定的 “重大影響” “不合理差別待遇” 。相對的,如果算法只是根據(jù)市場波動導致商品(服務(wù))價格有輕微波動的,不屬于 “重大影響” 或者 “不合理差別待遇” 。第三, “大數(shù)據(jù)殺熟” 案件可以納入公益訴訟。一方面,平臺借助不斷刷新的搜集和推送技術(shù)使大數(shù)據(jù)殺熟波及范圍更廣、隱蔽時間更長,形成輻射性和散發(fā)性危害,侵犯人格權(quán)益規(guī)模呈幾何級倍增[11]。另一方面,大數(shù)據(jù)殺熟的復(fù)雜科技性對于原告的舉證能力有很強的要求,普通用戶往往難以具備訴訟成功的能力。將 “大數(shù)據(jù)殺熟” 案件納入公益訴訟可以平衡平臺的優(yōu)勢地位,充分確保用戶在被 “大數(shù)據(jù)殺熟” 后享有合法維權(quán)的途徑。
總之,對于用戶被 “大數(shù)據(jù)殺熟” 后存在的舉證難、維權(quán)成本高問題,應(yīng)當通過舉證責任倒置、明確法律規(guī)定的 “重大影響” 和 “不合理” 以及納入公益訴訟來完善 “大數(shù)據(jù)殺熟” 的事后規(guī)制。
“大數(shù)據(jù)殺熟” 已經(jīng)廣泛被各大平臺應(yīng)用, “一人一價” “一次一價” 和 “個性精準推送” 成為平臺利用算法損害用戶和平臺內(nèi)經(jīng)營者權(quán)益、擾亂市場秩序的常見形式。從 “大數(shù)據(jù)殺熟” 常見形式分析 “大數(shù)據(jù)殺熟” 的性質(zhì),再到分析 “大數(shù)據(jù)殺熟” 的本質(zhì),可以得出結(jié)論: “大數(shù)據(jù)殺熟” 的錯誤本質(zhì)在于過度收集個人信息數(shù)據(jù)和濫用算法。因此,本文從個人信息保護和算法規(guī)制兩個角度完善 “大數(shù)據(jù)殺熟” 法律規(guī)制,在收集個人信息的事前階段進一步落實個人信息保護中的知情同意規(guī)則,在處理個人信息的算法決策階段加強個性化推薦設(shè)置和明確算法處理時使用的個人信息。在用戶被大數(shù)據(jù)殺熟的事后階段,通過舉證責任倒置、明確 “重大影響” 和 “不合理” 的含義以及納入公益訴訟三種方式進行完善。