李文志
摘 要:隨著信息技術(shù)的快速發(fā)展,算法的應(yīng)用越來越廣泛。然而,算法技術(shù)的應(yīng)用在帶來便利的同時(shí)也產(chǎn)生了算法歧視,主要表現(xiàn)為算法價(jià)格歧視、算法推送歧視、算法就業(yè)歧視與算法性別歧視等。基于此,本文分析了算法歧視的成因,研究了算法歧視消費(fèi)者的相關(guān)侵權(quán)行為與后果,并提出了有針對(duì)性的侵權(quán)責(zé)任救濟(jì)路徑,旨在對(duì)算法歧視進(jìn)行規(guī)制,從而保護(hù)消費(fèi)者的合法權(quán)益。
關(guān)鍵詞:算法歧視;侵權(quán)責(zé)任;救濟(jì)路徑
隨著數(shù)字經(jīng)濟(jì)的發(fā)展,算法作為一種數(shù)據(jù)運(yùn)算與數(shù)據(jù)分析技術(shù),已被廣泛應(yīng)用于消費(fèi)、金融、醫(yī)療等領(lǐng)域,給人們的生活帶來了諸多便利。然而,近年來社會(huì)上出現(xiàn)了一些算法歧視現(xiàn)象,損害了消費(fèi)者的合法權(quán)益,引發(fā)了各界的廣泛關(guān)注?;诖?,加強(qiáng)對(duì)算法歧視消費(fèi)者的侵權(quán)責(zé)任與救濟(jì)的研究具有重要的現(xiàn)實(shí)意義。
在算法應(yīng)用領(lǐng)域內(nèi),算法歧視體現(xiàn)在人們的出行、購物、食宿等方方面面。算法歧視的成因可歸結(jié)為以下幾點(diǎn)。
(一)開發(fā)人員的主觀意識(shí)
開發(fā)人員的主觀意識(shí)是算法歧視問題產(chǎn)生的根源。雖然算法自身不會(huì)歧視消費(fèi)者,但算法開發(fā)者可能在開發(fā)算法時(shí)有意或無意地嵌入主觀意識(shí),導(dǎo)致算法歧視問題出現(xiàn)。此外,由于算法運(yùn)行的動(dòng)力來自對(duì)海量數(shù)據(jù)的處理,因此,如果開發(fā)者將帶有主觀意識(shí)的數(shù)據(jù)上傳至網(wǎng)絡(luò),算法系統(tǒng)就會(huì)自動(dòng)處理這類數(shù)據(jù),并輸出歧視性的結(jié)論。
(二)算法的不透明性與不可解釋性
通常,人們?cè)趹?yīng)用算法時(shí)只是簡單地輸入指令,而不清楚算法是如何處理這些指令并輸出結(jié)果的。因此,算法處理指令輸入與結(jié)果輸出的過程具有不透明性、不可解釋性,從而導(dǎo)致算法歧視問題出現(xiàn)。
(一)侵權(quán)行為
1.算法價(jià)格歧視消費(fèi)者
算法價(jià)格歧視是指經(jīng)營者以算法技術(shù)為依托,根據(jù)消費(fèi)者的消費(fèi)水平、習(xí)慣及偏好等因素定制個(gè)性化的消費(fèi)畫像,并對(duì)不同消費(fèi)者實(shí)施差異定價(jià),以實(shí)現(xiàn)利潤最大化,即所謂的“大數(shù)據(jù)殺熟”。算法價(jià)格歧視行為通常表現(xiàn)在超過平均收費(fèi)標(biāo)準(zhǔn)收取額外費(fèi)用和給予低于正常標(biāo)準(zhǔn)的報(bào)酬或獎(jiǎng)勵(lì)兩方面。這種行為不僅會(huì)導(dǎo)致社會(huì)不公平和資源分配不合理,還會(huì)妨礙市場公平競爭,給消費(fèi)者帶來損失。此外,經(jīng)營者根據(jù)個(gè)人歷史購買記錄來設(shè)定差異化的價(jià)格,嚴(yán)重侵犯了消費(fèi)者的隱私權(quán)。
2.算法推送歧視消費(fèi)者
算法推送歧視是指電商平臺(tái)收集和利用消費(fèi)者的個(gè)人信息,并向其推送個(gè)性化的內(nèi)容。然而,這種“千人千面”的個(gè)性化推薦在提高供需匹配效率的同時(shí),也可能會(huì)不公平地對(duì)待某些用戶,例如:對(duì)特定群體的信息推送不精確;基于用戶的性別、年齡、地域等進(jìn)行差異化的內(nèi)容推送。這種歧視性推送不僅會(huì)影響用戶獲取信息和做出決策,還容易擾亂市場競爭秩序。例如,當(dāng)消費(fèi)者使用短視頻軟件時(shí),算法會(huì)記錄消費(fèi)者的瀏覽過程、瀏覽內(nèi)容、觀看時(shí)長、點(diǎn)贊及評(píng)論情況等,并利用這些數(shù)據(jù)繪制消費(fèi)者畫像,演算出消費(fèi)者的喜好,并在后續(xù)視頻中優(yōu)先推送符合其喜好的內(nèi)容。甚至同一條視頻下的評(píng)論也會(huì)被差別對(duì)待,算法會(huì)優(yōu)先展示符合消費(fèi)者個(gè)人價(jià)值觀的評(píng)論。
3.算法就業(yè)歧視與算法性別歧視
算法就業(yè)歧視是指當(dāng)招聘方使用算法來篩選求職者時(shí),可能會(huì)出現(xiàn)由算法決策而導(dǎo)致的對(duì)特定群體的不公正對(duì)待現(xiàn)象。也就是說,在用人單位利用算法對(duì)應(yīng)聘者進(jìn)行篩選的過程中,由于算法本身可能會(huì)存在偏見或錯(cuò)誤,因此,某些應(yīng)聘者會(huì)被不公平地排除或受到不公正待遇。算法性別歧視是一種基于性別的歧視,可能會(huì)在算法的開發(fā)、訓(xùn)練或使用過程中發(fā)生。算法性別歧視并非算法和性別歧視的簡單堆疊,而是一種新的歧視和偏見,其主要表現(xiàn)為對(duì)某一性別群體的不公平對(duì)待。這種歧視行為會(huì)損害社會(huì)公平正義,固化性別歧視觀念,擴(kuò)大性別數(shù)字鴻溝。
算法就業(yè)歧視與算法性別歧視密切相關(guān),雖然二者在社會(huì)生活中引起的爭議不如算法價(jià)格歧視與算法推送歧視廣泛,但損害后果不容小覷。相比較而言,算法價(jià)格歧視與算法推送歧視消費(fèi)者的侵權(quán)行為主要是對(duì)消費(fèi)者權(quán)益的短效損害,從侵害時(shí)間與效果上看不具有持續(xù)性。而算法就業(yè)歧視與算法性別歧視的侵權(quán)行為,可能會(huì)使被侵權(quán)人失去工作機(jī)會(huì),其損害結(jié)果具有一定的持續(xù)性,甚至可能會(huì)改變被侵權(quán)人的人生軌跡。例如,澳大利亞的某算法招聘系統(tǒng)承諾為雇主節(jié)省時(shí)間和成本,提高招聘質(zhì)量,并致力于消除招聘過程中的主觀性和人為偏見。然而,人工智能專家將該招聘系統(tǒng)描述為給雇主頒發(fā)的“歧視許可證”。其原因在于該系統(tǒng)不重視對(duì)“消費(fèi)者”——算法軟件使用相對(duì)人的權(quán)益保護(hù),并實(shí)施了更加隱蔽的歧視侵權(quán)行為。在這種情況下,智能招聘系統(tǒng)不但不會(huì)消除歧視,而且可能會(huì)延續(xù)和加劇歧視,并對(duì)社會(huì)和消費(fèi)者造成重大損害。
(二)算法歧視消費(fèi)者的后果
算法歧視消費(fèi)者的侵權(quán)行為會(huì)導(dǎo)致法益侵害、消費(fèi)者剩余減少、信息繭房等多種損害后果。
1.法益侵害
當(dāng)消費(fèi)者在電商平臺(tái)購買商品或服務(wù)時(shí),平臺(tái)算法會(huì)根據(jù)其喜好與消費(fèi)習(xí)慣繪制個(gè)人畫像,并計(jì)算和推送其能接受的最高價(jià)位。因此,消費(fèi)者無法公平地獲得同一商品的其他報(bào)價(jià),其公平交易權(quán)被嚴(yán)重侵害。另外,算法還會(huì)在消費(fèi)者不知情的情況下,收集個(gè)人信息與消費(fèi)習(xí)慣。目前,主流觀點(diǎn)認(rèn)為,算法未經(jīng)消費(fèi)者許可擅自收集其個(gè)人喜好、消費(fèi)習(xí)慣和聊天記錄,侵犯了消費(fèi)者的知情權(quán)和隱私權(quán)。
2.消費(fèi)者剩余減少
消費(fèi)者剩余是指消費(fèi)者愿意為某種商品或服務(wù)支付的最高價(jià)格與該商品或服務(wù)的實(shí)際市場價(jià)格之間的差額。它代表了消費(fèi)者通過購買行為所獲得的滿足感,這種滿足感來源于他們最終支付的價(jià)格低于其愿意支付的最高價(jià)格。消費(fèi)者剩余概念與一級(jí)價(jià)格歧視概念緊密相關(guān)。一級(jí)價(jià)格歧視又稱為完全價(jià)格歧視,它是一種定價(jià)策略。在該策略下,對(duì)于每一單位產(chǎn)品,賣方都會(huì)按照消費(fèi)者所愿意支付的最高價(jià)格出售。也就是說,在完全價(jià)格歧視的情況下,網(wǎng)絡(luò)平臺(tái)可以準(zhǔn)確了解每個(gè)消費(fèi)者對(duì)產(chǎn)品的支付意愿,并據(jù)此為不同消費(fèi)者制定不同的價(jià)格,從而最大限度地壓榨消費(fèi)者剩余,獲取巨額利潤。
3.出現(xiàn)“信息繭房”現(xiàn)象
算法推送技術(shù)會(huì)精準(zhǔn)推送消費(fèi)者感興趣的內(nèi)容,自動(dòng)為消費(fèi)者屏蔽其他信息,使消費(fèi)者陷入“信息繭房”,難以接收到其他多方面信息,從而嚴(yán)重?fù)p害了消費(fèi)者的利益。
(三)算法歧視消費(fèi)者行為的過錯(cuò)原則
過錯(cuò)原則是指以過錯(cuò)作為歸責(zé)的構(gòu)成要件和歸責(zé)的最終要件,同時(shí)以過錯(cuò)作為確定行為人責(zé)任范圍的重要依據(jù);無過錯(cuò)原則是指在損害發(fā)生后,既不考慮加害人的過失,也不考慮受害人的過失的一種法定責(zé)任形式,其目的在于補(bǔ)償受害人的損失。對(duì)于算法歧視消費(fèi)者行為是適用過錯(cuò)原則還是無過錯(cuò)原則,學(xué)者們持有不同觀點(diǎn)。
站在消費(fèi)者一方的學(xué)者往往持過錯(cuò)原則觀點(diǎn)。他們認(rèn)為在強(qiáng)大的資本面前,消費(fèi)者往往處于弱勢(shì)地位,其合法權(quán)益應(yīng)當(dāng)受到保護(hù)。他們還建議,算法開發(fā)者與使用者應(yīng)承擔(dān)更高的注意義務(wù),以減少算法歧視。另外,當(dāng)面對(duì)算法黑箱、算法自動(dòng)化決策等問題時(shí),消費(fèi)者無法論證其過錯(cuò),容易引發(fā)舉證不能,導(dǎo)致自身合法權(quán)益受到侵害。[1]
持無過錯(cuò)原則觀點(diǎn)的學(xué)者認(rèn)為,在算法歧視廣泛存在的前提下,如果算法歧視消費(fèi)者行為采用過錯(cuò)原則,那么不僅會(huì)產(chǎn)生大量的侵權(quán)訴訟,還會(huì)加重算法開發(fā)者與使用者的注意義務(wù),對(duì)社會(huì)經(jīng)濟(jì)發(fā)展產(chǎn)生負(fù)面影響。[2]因此,他們認(rèn)為算法歧視消費(fèi)者行為適用無過錯(cuò)原則。還有學(xué)者認(rèn)為,現(xiàn)階段的侵權(quán)之訴,還未達(dá)到必須施行無過錯(cuò)原則的程度,過錯(cuò)原則足以澄清事實(shí)真相,得出令人信服的結(jié)果。[3]
針對(duì)算法歧視消費(fèi)者的侵權(quán)責(zé)任救濟(jì)路徑,筆者建議相關(guān)部門應(yīng)從算法歧視標(biāo)準(zhǔn)認(rèn)定與立法的角度為侵權(quán)責(zé)任救濟(jì)提供事前幫助;設(shè)立適用我國本土的算法解釋權(quán),為侵權(quán)責(zé)任救濟(jì)提供事中幫助;明確相關(guān)法律邊界,為侵權(quán)責(zé)任救濟(jì)提供事后幫助。
(一)明確算法歧視消費(fèi)者的認(rèn)定標(biāo)準(zhǔn)
隨著算法技術(shù)的快速發(fā)展,算法歧視消費(fèi)者行為的認(rèn)定標(biāo)準(zhǔn)也應(yīng)不斷更新,否則將無法給合法權(quán)益受到侵害的消費(fèi)者提供合理救濟(jì)。明確哪些行為構(gòu)成歧視消費(fèi)者、哪些行為應(yīng)被規(guī)制,以及如何界定歧視消費(fèi)者的標(biāo)準(zhǔn)等,對(duì)研究侵權(quán)責(zé)任救濟(jì)路徑至關(guān)重要。例如,在基于算法的招聘中,體力勞動(dòng)強(qiáng)度大的崗位往往對(duì)男性要求較低而對(duì)女性要求較高,雖然這屬于性別差別對(duì)待,但這不能被認(rèn)定為算法就業(yè)歧視與算法性別歧視。因此,當(dāng)出現(xiàn)疑似對(duì)消費(fèi)者差別對(duì)待的情況時(shí),我們不能以傳統(tǒng)的歧視標(biāo)準(zhǔn)來判斷該行為是否屬于算法歧視。由此可見,明確算法歧視消費(fèi)者的認(rèn)定標(biāo)準(zhǔn)對(duì)后續(xù)的侵權(quán)責(zé)任救濟(jì)路徑研究起著關(guān)鍵作用。
(二)設(shè)立算法解釋權(quán)
賦予消費(fèi)者算法解釋權(quán)能夠在一定程度上減少算法歧視行為。我國可以借鑒歐盟經(jīng)驗(yàn)設(shè)立算法解釋權(quán)。歐盟在《通用數(shù)據(jù)保護(hù)條例》(以下簡稱“GDPR”)中多次體現(xiàn)了算法解釋權(quán),如算法控制者的“事前解釋義務(wù)”、算法自動(dòng)化決策的“事后解釋權(quán)”,以及與算法解釋權(quán)配套的算法異議權(quán)等。可以說,GDPR對(duì)算法歧視消費(fèi)者問題做出了較為合理的規(guī)定。此外,《中華人民共和國個(gè)人信息保護(hù)法》第四十八條規(guī)定,個(gè)人有權(quán)要求個(gè)人信息處理者對(duì)其個(gè)人信息處理規(guī)則進(jìn)行解釋說明。簡而言之,賦予消費(fèi)者算法解釋權(quán)對(duì)減輕消費(fèi)者的舉證責(zé)任,制約算法黑箱、算法自動(dòng)化決策具有積極作用。
(三)完善相關(guān)法律邊界
有學(xué)者認(rèn)為,針對(duì)算法歧視消費(fèi)者的侵權(quán)行為,算法開發(fā)者與使用者不能為了逃避責(zé)任而將侵權(quán)行為歸咎于事先已獲得知情權(quán)與同意權(quán)、算法黑箱或算法自動(dòng)化決策等。他們建議突破技術(shù)中立原則,運(yùn)用“紅旗原則”。[4]“紅旗原則”是“避風(fēng)港原則”的例外適用,它是指如果侵權(quán)事實(shí)顯而易見,像紅旗一樣飄揚(yáng),算法的開發(fā)者與使用者就不能視而不見,或以不知道侵權(quán)為理由來推脫責(zé)任。因此,筆者建議相關(guān)部門可從以下兩個(gè)方面提出完善方案:一方面,判斷算法自動(dòng)化決策的結(jié)果,初步認(rèn)定開發(fā)者與使用者是否需要承擔(dān)法律責(zé)任;另一方面,對(duì)算法進(jìn)行第三方技術(shù)審查,并結(jié)合侵權(quán)責(zé)任原則,確定責(zé)任歸屬。只有做好以上兩方面工作,相關(guān)部門才可以明確并完善相關(guān)法律邊界。
綜上所述,為減少算法歧視行為,相關(guān)部門應(yīng)加快人工智能與算法應(yīng)用領(lǐng)域的專項(xiàng)立法工作,以規(guī)范智能算法的應(yīng)用。同時(shí),相關(guān)部門可以通過明確算法歧視消費(fèi)者的認(rèn)定標(biāo)準(zhǔn)、設(shè)立算法解釋權(quán)、完善相關(guān)法律邊界等策略,明確算法歧視消費(fèi)者的侵權(quán)責(zé)任救濟(jì)路徑,以保護(hù)消費(fèi)者合法權(quán)益,促進(jìn)數(shù)字經(jīng)濟(jì)健康發(fā)展。
參考文獻(xiàn):
[1] 李丹.論算法歧視消費(fèi)者的侵權(quán)責(zé)任認(rèn)定——基于司法裁判的實(shí)證考察[J].當(dāng)代法學(xué),2023,37(06):75-85.
[2] 袁文全.算法歧視的侵權(quán)責(zé)任治理[J].蘭州大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,51(02):89-99.
[3] 孟勤國.治理算法歧視侵害消費(fèi)者權(quán)益的關(guān)鍵問題——以大數(shù)據(jù)殺熟為視角[J].法律適用,2023(03):37-47.
[4] 陳兵.平臺(tái)算法規(guī)制的多維思考:從個(gè)案侵權(quán)裁判到算法綜合治理[J].蘭州學(xué)刊,2023(03):91-94.
(作者單位:青島科技大學(xué)法學(xué)院)