亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        大數(shù)據(jù)時代算法歧視的協(xié)同治理

        2023-01-09 16:36:50成曼麗
        中國流通經(jīng)濟 2022年1期
        關(guān)鍵詞:經(jīng)營者消費者信息

        成曼麗

        (武漢科技大學(xué)馬克思主義學(xué)院,湖北武漢430079)

        一、引言

        數(shù)據(jù)作為新型生產(chǎn)要素,已經(jīng)成為市場經(jīng)營者競相爭奪的資源,占有數(shù)據(jù)優(yōu)勢的經(jīng)營者往往能夠獲得競爭優(yōu)勢。然而,就原始的單個數(shù)據(jù)而言價值密度并不高,只有經(jīng)過算法技術(shù)處理加工后形成的二次數(shù)據(jù)集合才能夠成為市場上價值密度高的資源。算法在某種程度上是實現(xiàn)數(shù)據(jù)價值的核心工具,能夠促進(jìn)原始數(shù)據(jù)向高價值的加工或衍生數(shù)據(jù)轉(zhuǎn)變。因此,數(shù)字經(jīng)濟在本質(zhì)上就是“算法界定的經(jīng)濟”[1]。當(dāng)然,算法作為技術(shù)手段具有極為重要的工具作用,但每項技術(shù)背后均有其黑暗的一面。在大數(shù)據(jù)時代,經(jīng)營者能夠基于消費者的職業(yè)、個人喜好、消費歷史、支付意愿等信息,對每個消費者實施精準(zhǔn)畫像,從而進(jìn)一步判斷其承受的價格上限和達(dá)成交易的可能性。這種對消費者實施精準(zhǔn)的標(biāo)簽化營銷模式,消除了傳統(tǒng)經(jīng)濟模式下經(jīng)營者難以準(zhǔn)確捕捉消費者個人信息而形成的障礙,使“同物同價”這一定價規(guī)律發(fā)生了改變,商品價格與每個消費者的購買意愿緊密相關(guān),算法對消費者的歧視由此而產(chǎn)生。

        算法在商業(yè)交易中的廣泛運用,使得具有技術(shù)和市場優(yōu)勢的經(jīng)營者特別是平臺企業(yè)頻繁運用算法在信息搜集、推送及個性化定價等階段對消費者實施歧視行為,進(jìn)而達(dá)到排除或限制競爭的目的。在消費者信息搜集階段,數(shù)字企業(yè)通常以數(shù)字畫像為基礎(chǔ)通過算法技術(shù)來測試消費者的偏好,以此誘導(dǎo)消費者進(jìn)行消費。在信息推送階段,平臺企業(yè)一般只推送經(jīng)營者支付了較高廣告費或推廣費的商品,或是反復(fù)推送消費者瀏覽次數(shù)較多的商品,如今日頭條在推送商品信息階段就因涉嫌消費者身份歧視而被監(jiān)管部門約談[2]。在個性化定價階段,平臺企業(yè)針對其標(biāo)注不同標(biāo)簽的消費者實施不同的價格。如在攜程網(wǎng)上預(yù)定酒店客房時,有消費歷史的消費者面對的價格往往高于沒有消費歷史的消費者[3]。2019年,滴滴、攜程等網(wǎng)約車平臺利用算法的個性化定價歧視消費者被曝光,在相同路線、相同車型情況下,使用頻率高的消費者所支付的價格要高于使用頻率低的消費者[4]。有學(xué)者在調(diào)查中甚至發(fā)現(xiàn),網(wǎng)約車平臺會因為消費者使用的手機品牌、型號的差異而使相同路線、相同車型的行程價格不同,如使用蘋果手機的消費者支付的價格要高于使用其他手機的消費者。[5]事實上,過去幾年來,我國對數(shù)字經(jīng)濟、算法創(chuàng)新等方面的支持力度較大,但在技術(shù)、信息處于劣勢的情況下,消費者仍難以對抗平臺企業(yè)。2019年中國消費者協(xié)會的一項調(diào)查顯示,因為舉證困難以及交易中的算法歧視帶有極強的隱蔽性,算法歧視對消費者的知情權(quán)、交易選擇權(quán)等造成極大的影響,更侵蝕了數(shù)字經(jīng)濟發(fā)展的基礎(chǔ)[6]。

        對算法歧視行為的治理與規(guī)制應(yīng)以消費者利益損害為前提條件。國外研究者認(rèn)為,算法歧視會減少消費者剩余,損害消費者權(quán)利[7]。歐盟研究者認(rèn)為,只有重構(gòu)消費者個人權(quán)利體系,才能從源頭上治理算法歧視[8]。美國學(xué)者認(rèn)為,推進(jìn)算法審查機制的完善是治理的基本路徑[9]。國內(nèi)學(xué)者對算法歧視的研究側(cè)重于從治理路徑、治理制度、法律責(zé)任等角度進(jìn)行,對“大數(shù)據(jù)殺熟”等熱點問題進(jìn)行了針對性的探討[10]。但從這些研究中可以看到,對算法歧視及其治理、規(guī)制體系的研究,并未系統(tǒng)解答算法歧視的運行機制問題,要規(guī)制和治理算法歧視行為,必須回答算法歧視是如何運行的。因此,本文以算法歧視運行機制及利益損害界定為前提,輔之以算法歧視治理的基本規(guī)律,以更好地完善算法歧視治理的路徑。

        二、文獻(xiàn)綜述

        隨著數(shù)字經(jīng)濟的快速發(fā)展,作為維系平臺體系生態(tài)化的主要支柱之一,算法在實踐中得到了極為廣泛的應(yīng)用。算法是大數(shù)據(jù)、人工智能等技術(shù)發(fā)展的結(jié)果,本身帶有中立性,但如果開發(fā)者、經(jīng)營者在開發(fā)和使用中加入了歧視性的變量,就會引發(fā)算法歧視問題。算法歧視的運行機制、損害、治理模式已成為學(xué)界研究的熱點問題。首先,就算法歧視運行機制而言,曹博[11]認(rèn)為,算法歧視與社會語境、技術(shù)模式、特定領(lǐng)域有密切關(guān)系,基于運作方式,可以分為復(fù)現(xiàn)型、加劇型和新增型三種類型。其中,復(fù)現(xiàn)型歧視是使用者加入某些變量后所產(chǎn)生的歧視,是使用者主動為之的結(jié)果;加劇型歧視是平臺之間相互競爭所開展的綜合性歧視,是不同平臺人工智能和大數(shù)據(jù)之間相互對抗的結(jié)果;新增型歧視是傳統(tǒng)價格歧視下的一種技術(shù)化形式,其運作過程及整體并不對抗特定的消費者。喻玲[12]認(rèn)為,算法歧視運行機制存在兩大邏輯:大數(shù)據(jù)、人工智能等技術(shù)支撐,消費者的細(xì)分解構(gòu)。前者是在搜集消費者個人信息基礎(chǔ)上分析消費者的行為偏好,并通過算法推演來預(yù)測消費者的消費意愿,進(jìn)而做好個性化推送;就后者而言,算法歧視的運行必須按照支付意愿、品牌偏好、反制能力進(jìn)行細(xì)分,消費者類型差異影響算法推演的變量設(shè)定。丁國峰[13]認(rèn)為,算法歧視運行的邏輯有窺視消費者信息、干預(yù)消費者偏好、自主推進(jìn)決策三個層面。就第一層面而言,消費者的信息是算法歧視運行的基礎(chǔ),因為算法的運行建立在消費者海量數(shù)據(jù)基礎(chǔ)之上;就第二層面看,算法歧視的目的是針對不同消費者提供不同的待遇,主動干預(yù)和分析消費者偏好;就第三層面看,在信息推送及定價階段的算法歧視,算法機制自主決策發(fā)揮了重要作用,特別是自主學(xué)習(xí)型算法在某種程度上能夠擺脫人為的控制。

        在算法歧視造成損害方面,陽鎮(zhèn)、陳勁[14]認(rèn)為,算法本身并不會對消費者、競爭者等主體的利益造成損害,然而,在“算法黑箱”效應(yīng)的推動下,算法霸權(quán)和算法壟斷使算法決策機制的實施偏離了技術(shù)中立屬性,因此,算法歧視產(chǎn)生后,不僅減少了消費者剩余,而且還會損害公共福利,造成市場競爭的不公和失序。李牧翰[15]認(rèn)為,算法作為一種定價機制并不必然導(dǎo)致社會總福利的減少,消費者剩余與生產(chǎn)者剩余之間如何分配取決于算法決策的運用方式。在算法濫用的情況下,算法歧視對數(shù)據(jù)主體的平等權(quán)、隱私權(quán)造成較大的危害,并壓縮數(shù)字主體的意思自治空間,進(jìn)而危及數(shù)據(jù)主體公平交易權(quán)的實現(xiàn)。張恩典[16]認(rèn)為,因受到算法決策模糊性及自動性的影響,算法歧視呈現(xiàn)出高度的隱蔽性、單體性、連鎖性等特征,識別難度非常高。就實踐而言,算法歧視所造成的危害體現(xiàn)在兩個方面:一是降低差別待遇的適用門檻,在提升消費者剩余的同時,侵害競爭者的利益,損害市場的公平性;二是提高差別待遇的豁免門檻,使大多數(shù)消費者難以從中獲益,典型的情況就是“大數(shù)據(jù)殺熟”。

        算法歧視治理問題是學(xué)界研究的重點問題。丁曉東[17]認(rèn)為,算法作為人機交互的結(jié)果,受使用者的影響較大。但因算法公開在技術(shù)上是不可行的,會導(dǎo)致經(jīng)營者商業(yè)秘密和知識產(chǎn)權(quán)受到侵犯,因此規(guī)制必須與算法歧視的應(yīng)用場景相結(jié)合,依照不同的場景賦予經(jīng)營者不同的算法解釋義務(wù)及消費者的算法反制權(quán);同時,還應(yīng)該賦予消費者數(shù)據(jù)攜帶權(quán),以個體數(shù)據(jù)權(quán)對抗算法歧視的濫用。尹鋒林、李玲娟[18]認(rèn)為,在算法歧視公共治理存在難度的情況下,可以嘗試構(gòu)建私人治理機制。因算法歧視行為同時侵害多個利益相關(guān)主體的權(quán)利,受算法歧視影響的消費者、競爭者等不同主體可以按照合同違約、民事侵權(quán)、行政訴訟、民事公益訴訟等司法方式予以解決。張莉莉、朱子升[19]認(rèn)為,實施算法歧視的技術(shù)機制包括數(shù)據(jù)訓(xùn)練、編碼干預(yù)、黑箱效應(yīng)等,基于這些技術(shù)邏輯,進(jìn)一步明確算法歧視行為實施的技術(shù)環(huán)節(jié)與法律規(guī)制模式的偏差,進(jìn)而從規(guī)范數(shù)據(jù)訓(xùn)練、提升算法運行透明度、明確算法解釋義務(wù)主體、完善監(jiān)管部門算法審查機制等方面予以規(guī)制。趙海樂[20]認(rèn)為,算法歧視行為在實踐中能夠?qū)覍摇暗檬帧保环矫媸且驗橄M者維權(quán)舉證困難,另一方面是源于法律未能為行為人設(shè)定請求權(quán)。因此,我國可以借鑒歐美對算法歧視的規(guī)制經(jīng)驗,加大對消費者“賦權(quán)”力度,建立完整的個人信息保護權(quán)體系和算法責(zé)任歸屬機制。

        目前學(xué)界在算法歧視運行機制、危害及治理模式等方面做了大量的研究,提出了很多有價值的觀點。但總體看,存在以下三點不足:第一,算法歧視運行機制并非全然客觀機制,技術(shù)邏輯固然重要,人為因素亦不可忽視;第二,算法歧視的危害多是偏向于權(quán)利的損害,危害界定過于抽象;第三,因算法歧視涉及眾多的利益主體,私人治理或純粹的技術(shù)治理模式難免失之偏頗?;诖?,本文的邊際貢獻(xiàn)在于:在算法歧視運行機制方面,結(jié)合其三個不同階段,突出技術(shù)邏輯與人為因素的結(jié)合;在算法歧視危害方面,側(cè)重于權(quán)益分析;在算法歧視治理方面,提出多元主體協(xié)同治理模式。

        三、算法歧視行為的運行機制

        隨著技術(shù)的發(fā)展,在提升經(jīng)濟效率的同時,算法也使經(jīng)營者對算法決策產(chǎn)生較強的依賴,由此帶來的歧視行為具有極強的隱蔽色彩。因此,只有明確算法歧視的運行機制,才能在治理和規(guī)制的過程中采取針對性的對策。

        (一)信息搜集階段:搜集模型缺陷及數(shù)據(jù)樣本偏差

        通過算法搜集消費者個人數(shù)據(jù)是數(shù)字經(jīng)營者實施算法決策的基礎(chǔ)。然而,算法的設(shè)定、數(shù)據(jù)樣本的設(shè)計不可能獨立于人而存在,不可避免地存在先入為主、以偏概全的問題。從某種程度上看,算法搜集模型存在的缺陷、數(shù)據(jù)樣本存在的偏差均可能導(dǎo)致信息搜集階段歧視現(xiàn)象的發(fā)生。一方面,數(shù)據(jù)搜集模型是由經(jīng)營者設(shè)定的,盈利性是模型設(shè)定的驅(qū)動力量,在對消費者個人信息搜集過程中不可避免地帶有選擇性,重點搜集與經(jīng)營者盈利目的相關(guān)的信息,如經(jīng)濟能力、支付意愿、消費偏好等,通過對相關(guān)信息的分析為消費者進(jìn)行畫像,進(jìn)而成為算法歧視的基礎(chǔ);另一方面,市場上各類要素的信息化投射并非完全真實,也很難是完整的,從而使數(shù)據(jù)搜集過程容易受現(xiàn)實環(huán)境的影響,特別是受人為設(shè)定的數(shù)據(jù)樣本的影響,包括信息分布情況、可獲得性、搜集的動機、樣本的有限性等。在數(shù)據(jù)搜集源頭留下的這些偏差和隱患為算法歧視提供了條件。不管算法分析最終是否準(zhǔn)確,消費者無從了解搜集模型及數(shù)據(jù)樣本的具體指標(biāo)和內(nèi)容,這種不透明性存在明顯的欺詐色彩。

        大數(shù)據(jù)是數(shù)字市場的鏡像反映,在很大程度上依賴于算法,是對原始數(shù)據(jù)進(jìn)行加工分類的集合。在這種情況下,如果市場對某個群體存在結(jié)構(gòu)性的偏見,這種偏見就會在數(shù)據(jù)中呈現(xiàn),算法也會如實總結(jié)這些偏差,并依照這些偏差進(jìn)行市場決策。在實踐中,關(guān)聯(lián)標(biāo)記、置頂排名、過濾環(huán)節(jié)均可能因此而存在歧視。具體而言:第一,在關(guān)聯(lián)標(biāo)記中,被算法認(rèn)定的數(shù)據(jù)可能確實存在因果關(guān)系,但這種因果關(guān)系也可能是巧合關(guān)聯(lián)。算法不可能像法律那樣嚴(yán)謹(jǐn)?shù)貙σ蚬P(guān)系進(jìn)行綜合分析,也無法對因果關(guān)系、偶然巧合進(jìn)行區(qū)分,此時算法將這些關(guān)聯(lián)數(shù)據(jù)用作分類決策或預(yù)測的依據(jù),就可能導(dǎo)致歧視甚至錯誤產(chǎn)生。第二,在置頂排名中,算法對事先嵌入的各類排名標(biāo)準(zhǔn)較為依賴,這些標(biāo)準(zhǔn)可能被經(jīng)營者嵌入一些帶有偏見性的盈利動機,從而使置頂排名存在歧視。如在百度、淘寶的置頂排名中,商家付出的廣告費多與排名靠前呈正向關(guān)系是平臺經(jīng)營者事先嵌入的偏見,這對支付廣告費用少但商品質(zhì)量好的商家可能就造成歧視。[21]第三,在過濾環(huán)節(jié)中,算法需要通過事先設(shè)定的規(guī)則來顯示有效的信息同時排除無效的信息。過濾環(huán)節(jié)通常會依照關(guān)聯(lián)標(biāo)記、置頂排名決定顯示哪些信息或排除哪些信息,如果前面兩個環(huán)節(jié)出現(xiàn)錯誤或偏見,就會導(dǎo)致過濾環(huán)節(jié)存在不公平,進(jìn)而引發(fā)歧視。如網(wǎng)約車平臺上的算法技術(shù)在分析消費者的消費能力時,通常按照消費頻率評估消費者的忠誠度。如果消費者使用該軟件的頻率高,就會被判定為忠誠客戶,也就成為平臺收取高價的對象。將“忠誠消費者”標(biāo)簽化和范圍化,事實上就形成了一種事先判斷,成為信息搜集算法的分類標(biāo)準(zhǔn),并可以將這種標(biāo)準(zhǔn)演化為預(yù)測基礎(chǔ)[22]。但是由算法構(gòu)建起來的身份標(biāo)簽化、個性特定化本身就是一種歧視,只不過在數(shù)據(jù)的放大下被進(jìn)一步擴大。與經(jīng)營者、算法設(shè)計者所實施的故意歧視相比,數(shù)據(jù)本身標(biāo)簽化、范疇化引發(fā)對消費者身份的歧視通常會被忽略,但造成的嚴(yán)重且隱蔽后果是無法忽視的。

        (二)信息推送階段:信息偏在與算法黑箱

        在推送階段,在信息搜集階段數(shù)據(jù)特征歧視基礎(chǔ)上,算法進(jìn)一步強化了經(jīng)營者主觀歧視動機。信息推送是通過算法強大的數(shù)據(jù)分析、清洗和處理能力,在掌握了消費者的消費意愿后,將特定的商品或服務(wù)信息推送給特定消費者及標(biāo)簽群體,在銷售成本最小化基礎(chǔ)上保障經(jīng)營者利潤的最大化。如愛彼迎(Airbnb)定期向特定消費者推送曾經(jīng)到過或瀏覽過居住地的房源信息;而去哪兒網(wǎng)則使用數(shù)據(jù)抓取技術(shù),將消費者在其他應(yīng)用程序的瀏覽信息作為其定向推送的依據(jù)。[23]但當(dāng)特定的推送經(jīng)過內(nèi)容、知識、混合推薦等機制過濾后,個性化推送也就將消費者了解信息的正常渠道變成了信息偏在的“繭房”,不僅削弱了消費者獲取信息的主動性,也使消費者的消費認(rèn)知日漸窄化,直接影響消費者的交易選擇權(quán)和公平交易權(quán)。

        重要的是,信息推送階段的算法決策技術(shù)性強、過程不透明,導(dǎo)致算法決策與消費者之間的距離加大,一般的消費者很難理解算法決策的基本過程,這加劇了經(jīng)營者與消費者之間的數(shù)字鴻溝。以色列學(xué)者尼沃等[24]提出了著名的算法黑箱理論:算法在很大程度上如同一個黑箱,即信息的輸入、決策過程及信息輸出系統(tǒng)是不透明的,普通消費者無法知曉輸入—輸出之間是通過何種方式進(jìn)行計算的,以及這個過程中的決策結(jié)構(gòu)是什么,也難以知曉決策過程的具體指標(biāo)及依據(jù)。隨著算法技術(shù)及算力的提升,算法黑箱理論的解釋力越來越強。很多大型超級平臺通過算法決策獲得相關(guān)市場的壟斷地位,那些算法能力不強或沒有掌握算法技術(shù)的經(jīng)營者和消費者基本上被排除在黑箱之外。當(dāng)算法在信息推送階段廣泛應(yīng)用后,人們開始擔(dān)心數(shù)字經(jīng)濟市場最終會演變成被算法所操縱的市場,對經(jīng)營者的競爭權(quán)及消費者的選擇權(quán)會產(chǎn)生極大的負(fù)面影響。

        (三)定價階段:幕后操控與價格歧視

        在定價階段,以信息搜集、信息推送階段的算法機制為基礎(chǔ),經(jīng)營者會制定一個價格歧視機制,使不同消費者就相同的產(chǎn)品或服務(wù)承受不同的價格。算法當(dāng)然不能主動運行,從某種程度上看,算法歧視就是算法設(shè)計者和經(jīng)營者的共謀。具體而言:第一,盡管目前自主決策算法得到極大發(fā)展,但受限于人工智能技術(shù)的水平,算法尚不足以完全改變?nèi)藶榭刂剖袌龅母窬?。算法作為人為設(shè)計出來的技術(shù)系統(tǒng),并不具有獨立的人格主體,其設(shè)計、運行必須依賴人為的操作和控制。機器背后的控制者是人,是“權(quán)力者對多數(shù)人的控制”[25]。第二,按照算法進(jìn)行信息和數(shù)據(jù)處理,必然會引入算法設(shè)計者或控制者處理數(shù)據(jù)的偏見,從而使算法決策體現(xiàn)人的意志。數(shù)字經(jīng)濟的發(fā)展導(dǎo)致海量信息的出現(xiàn),收集這些信息時必須依靠技術(shù)手段對其進(jìn)行篩選和評估。算法的決策依據(jù)就是海量數(shù)據(jù),決策的過程離不開算法設(shè)計者和控制者對其目標(biāo)及程序所做的設(shè)定,這一過程無疑帶有經(jīng)營者的某種偏見,并試圖通過技術(shù)手段將這種有利于自身經(jīng)營活動的偏見擴大或反復(fù)循環(huán),進(jìn)而演化為算法歧視。第三,算法決策過程中存在設(shè)計者或控制者濫用算法權(quán)力的可能性。最典型的情況就是通過算法進(jìn)行個性化定價,以最低成本獲取最大的利潤。人們在電商平臺購物或在旅游服務(wù)平臺訂購機票時,經(jīng)??吹狡脚_經(jīng)營者發(fā)布的技術(shù)中立免責(zé)聲明,但幕后控制并不會因技術(shù)中立的免責(zé)聲明而消失。谷歌(Google)公司利用算法排除相關(guān)市場競爭就是典型案例。谷歌公司作為一家提供搜索服務(wù)的企業(yè),利用搜索引擎搜集到的海量數(shù)據(jù)開發(fā)出購物比價軟件,用戶只需要在比價軟件中輸入主題詞,不同購物網(wǎng)站中相同商品的價格就會呈現(xiàn)在用戶面前。谷歌公司聲稱,通過比價軟件得到的商品價格信息完全是依照算法自動算出的,算法按照商品頁面的鏈接數(shù)量、瀏覽數(shù)量等來判斷商品的重要性,進(jìn)而按照不同的排序展現(xiàn)在消費者面前。當(dāng)谷歌旗下的購物平臺Google Shopping進(jìn)入歐洲市場后,谷歌公司就通過相應(yīng)的算法,在比價排名時將Google Shopping上的展品置于顯著位置,以吸引消費者的注意力。[26]歐盟反壟斷機構(gòu)認(rèn)為,谷歌作為一家搜索服務(wù)企業(yè),通過算法技術(shù)將自身在搜索服務(wù)領(lǐng)域的市場支配地位延伸到電子商務(wù)市場,在產(chǎn)品質(zhì)量不占優(yōu)勢的情況下通過算法比價獲取市場優(yōu)勢,進(jìn)而排斥電商市場上的其他經(jīng)營者,是典型的濫用市場支配地位的行為。

        四、算法歧視行為的利益損害界定

        算法歧視行為在強化黑箱效應(yīng)的同時也使消費者的地位進(jìn)一步透明化,針對消費者的各類特定商品推送、個性化定價等問題層出不窮。2016年發(fā)生的“魏則西事件”充分凸顯了百度競價算法設(shè)計的缺陷[27];今日頭條在算法的推動下不斷向消費者推送同質(zhì)化的信息而備受詬病[28];滴滴網(wǎng)約車平臺通過算法進(jìn)行動態(tài)化、個性化定價的“殺熟”行為同樣使消費者深受其害[29]。通常看,算法歧視行為在不同階段具有不同程度的隱蔽性,消費者難以判斷自己遭受歧視到何種程度。因此,對消費者利益損害的界定應(yīng)該從不同階段的行為特征入手進(jìn)行分析,在不同領(lǐng)域界定利益的受損程度。

        (一)信息搜集階段消費者利益受損界定

        實際上,在信息搜集階段,算法對消費者身份類型化、標(biāo)簽化的設(shè)定就存在歧視風(fēng)險。在這一階段,算法面對的不是特定消費者,歧視行為損害的是不特定主體的數(shù)據(jù)權(quán)利,導(dǎo)致利益損害的范圍難以界定,損害的后果無法遏制,受損害的個體難以獲得妥善的權(quán)利救濟。如果將消費者性別、地域、職業(yè)等身份信息作為算法決策設(shè)定基礎(chǔ),算法歧視行為危及的就是群體利益。根據(jù)馬克斯·韋伯[30]的工具理性、價值理性的理論,工具理性通常凸顯工具崇拜,主張最大限度地發(fā)揮工具的效用;價值理性體現(xiàn)了個體選擇動機及目標(biāo)追求,是個體對自身行為的價值判斷。在數(shù)字經(jīng)濟體系下,因技術(shù)的發(fā)展,工具理性開始發(fā)生異化,算法技術(shù)作為由人設(shè)計出來的輔助型市場工具,開始成為反噬人類消費理性的工具。一方面,不斷升級的算法系統(tǒng)使消費者成為被“奴役”的對象,可以事先預(yù)設(shè)消費者的身份,以數(shù)據(jù)統(tǒng)計的關(guān)聯(lián)性代替因果關(guān)系對消費者個體進(jìn)行分類和預(yù)測,使算法逐漸成為市場競爭規(guī)則的主導(dǎo)者;另一方面,算法技術(shù)的復(fù)雜化使消費者成為被技術(shù)操縱的對象,人的主體性危機開始呈現(xiàn),市場上出現(xiàn)越來越多的對消費者難以解釋的歧視行為和控制現(xiàn)象。然而,科技是有價值邊界的,只有符合消費者普遍價值判斷的技術(shù)才會被信任和接受。算法運行的邏輯是技術(shù)的更新迭代,法律運行的機理是人們的理性選擇。從這個角度看,法律規(guī)范作為人類行為的規(guī)則指引,對算法歧視行為能夠起到一定的規(guī)制作用。

        (二)信息推送階段消費者利益受損界定

        這一階段對消費者權(quán)利損害最大的是消費者的消費自主權(quán)。所謂消費自主權(quán)指的是消費者依照自主消費目的和自我判斷的商品價值做出消費選擇的權(quán)利。但在數(shù)字經(jīng)濟背景下,經(jīng)營者特別是大型數(shù)字平臺企業(yè)通過算法廣泛搜集消費者個人信息,并對這些信息進(jìn)行整理和分析,為消費者提供個性化、定制化服務(wù)。在服務(wù)的過程中,經(jīng)營者會承諾尊重和保護消費者的消費自主權(quán)與數(shù)據(jù)權(quán),聲明算法具有絕對的中立性和客觀性,從而誘導(dǎo)消費者將消費決策權(quán)移交給經(jīng)營者。如搜索服務(wù)、新聞推送、交通出行甚至個人信息使用等均對經(jīng)營者的算法決策有嚴(yán)重的依賴。技術(shù)推動下算法的自主性不斷增強,作為理性主體消費者的自主性就遭到了削弱,相應(yīng)權(quán)利就受到損害。在信息推送階段,算法對消費者的購買歷史及瀏覽記錄等數(shù)據(jù)進(jìn)行分析,推斷消費者的消費喜好及最高價格承受力,繼而對不同消費者實施個性化的信息推送。數(shù)字平臺企業(yè)通過算法對消費者進(jìn)行個性化定制服務(wù),定時向特定消費者推送商品、服務(wù)等信息,不僅能迎合消費者的喜好,還關(guān)系到其他經(jīng)營者的利益,因為算法能夠決定哪個經(jīng)營者的商品在排序中獲得置頂或優(yōu)先推送。在傳統(tǒng)經(jīng)濟體系下,消費者與經(jīng)營者之間的信息不對稱是基于交易地位不同而形成的不對稱。

        消費者的消費自主權(quán)正常行使應(yīng)當(dāng)建立在信息來源渠道多元化的基礎(chǔ)上,而算法推送的信息只是部分信息,極易造成信息“繭房”的存在,阻礙消費者自主權(quán)的行使[31]。隨著自主學(xué)習(xí)技術(shù)的發(fā)展,算法系統(tǒng)甚至可以脫離消費者的身份信息、購買歷史等信息,直接引導(dǎo)消費者按照經(jīng)營者的銷售思路做出消費決策。有學(xué)者曾經(jīng)舉例,如果百度地圖上使用的算法并不關(guān)心用戶的實際定位及目的地,而只是關(guān)注廣告商期待用戶途徑或到達(dá)的地點,那么依賴百度地圖出行的用戶只能像木偶一樣被牽著鼻子走[32]。從經(jīng)營者角度看,算法決策越是契合其營銷策略,經(jīng)營者獲得的利益就越大;從消費者角度看,算法決策越是契合經(jīng)營者的營銷策略,消費者的自主權(quán)就越會遭到削弱。

        (三)定價階段消費者利益受損界定

        一方面,定價的算法歧視會導(dǎo)致定價過高。在定價階段,算法系統(tǒng)通過搜集到的消費者個人數(shù)據(jù),在定價機制中加入對經(jīng)營者有利的指標(biāo)或影響因子,剔除對消費者有利的影響因子或指標(biāo),最大限度提升消費者對最高價的忍受程度,并按照消費者的消費意愿確定具體的價格,促使交易額和交易量同時上升。個性化定價機制不僅侵犯了消費者的個人信息自主權(quán),更是將原本屬于消費者的剩余轉(zhuǎn)移至經(jīng)營者。在“Merciv.Siderurgica案”中,法院認(rèn)為經(jīng)營者向特定客戶收取高價來彌補對其他用戶低價造成的損失是不公平的[33]。

        另一方面,定價的算法歧視還會導(dǎo)致壟斷定價。通過算法主導(dǎo)的個性化定價機制能夠使經(jīng)營者在既有經(jīng)營范圍內(nèi)獲取較高的利潤,經(jīng)營者就沒有太大的動力對產(chǎn)品或服務(wù)進(jìn)行創(chuàng)新,相關(guān)產(chǎn)品或服務(wù)市場也會因此而變窄,最終導(dǎo)致市場集中度上升。當(dāng)市場集中度上升后,算法會使經(jīng)營者更輕易獲得其他經(jīng)營者的定價信息,使市場在經(jīng)營者端變得日漸透明,一個透明且集中的市場環(huán)境會給經(jīng)營者默示共謀創(chuàng)造條件。算法歧視推動了經(jīng)營者之間默示共謀的達(dá)成,使其能夠同時提高產(chǎn)品或服務(wù)價格。而隨著市場的日漸逼仄,消費者難以利用價格作為工具進(jìn)行對抗,只能接受經(jīng)營者默示共謀達(dá)成的壟斷高價,使消費者剩余整體向經(jīng)營者手中轉(zhuǎn)移。可見,定價階段的算法歧視在剝奪消費者選擇權(quán)的同時也削減了消費者福利。即便是在傳統(tǒng)經(jīng)濟體系下,這種定價策略也被視為違法。在“Deutsche Post AG案”中,德國郵政公司利用自身壟斷地位故意拖延郵件的傳送時間,從而將時間作為獲取高價的資本,在法院看來,這種銷售及定價策略明顯違反競爭法,對消費者權(quán)益有較大的負(fù)面影響[34]。

        五、算法歧視行為治理的核心要義

        盡管數(shù)字經(jīng)濟中算法技術(shù)的價值得到各國的認(rèn)可,數(shù)字經(jīng)濟發(fā)展也需要經(jīng)營者以算法競爭來進(jìn)行驅(qū)動,但算法歧視行為同樣受到各國監(jiān)管部門的關(guān)注。因此,判斷算法歧視行為引發(fā)的權(quán)利沖突以及國內(nèi)外的法律治理現(xiàn)狀,對構(gòu)建協(xié)同治理體系具有重要的意義。

        (一)算法歧視行為引發(fā)的權(quán)利沖突

        在信息搜集階段,算法歧視行為使經(jīng)營者的算法決策權(quán)與消費者隱私權(quán)之間產(chǎn)生沖突。一方面,經(jīng)營者有使用算法自主決策的權(quán)利。如雖然法律并未禁止經(jīng)營者使用人臉識別、聲紋提取等技術(shù)為依托的算法來獲取個人生物信息,但經(jīng)營者未經(jīng)消費者同意擅自偷錄或偷拍獲取消費者個人生物信息,就嚴(yán)重侵犯了消費者的隱私權(quán)利。如果根據(jù)偷錄、偷拍的個人生物信息識別消費者身份并為此設(shè)定身份標(biāo)簽,無疑就侵犯了消費者的身份權(quán),并可能造成消費者某些政治權(quán)利行使的不便。另一方面,經(jīng)營者獲取消費者的個人信息后,就與消費者形成了一種信息共享體系,但在獲取收益時并未與消費者形成風(fēng)險共擔(dān)體系。經(jīng)營者推送特定商品信息給消費者的前提是獲得消費者的個人信息并就該信息進(jìn)行加工分析,形成身份識別,而實際上,多數(shù)消費者只是提供信息并沒有購買的意圖或行動,而經(jīng)營者不斷推送可能對消費者購買決策形成“心理暗示”。另外,在向消費者提供商品或服務(wù)信息時,經(jīng)營者還可以將搜集到的信息數(shù)據(jù)轉(zhuǎn)售給其他經(jīng)營者,進(jìn)而獲得不正當(dāng)?shù)睦?。近年來,國?nèi)消費者個人信息泄露事件頻發(fā),如2015年至2019年間,考拉征信將1億多條消費者的個人征信信息倒賣給他人,非法獲利3 800萬元[35]。澳大利亞競爭委員會的一項研究報告顯示,當(dāng)消費者與經(jīng)營者形成數(shù)據(jù)共享體系后,在消費者尚未受益時,大量的個人信息就有被泄露的風(fēng)險,這是對消費者權(quán)利額外的損害[36]。

        在信息推送階段,算法歧視行為使經(jīng)營者的營銷策略權(quán)利與消費者的知情權(quán)、消費自主權(quán)發(fā)生較大的沖突。在公平市場環(huán)境下,任何消費者有知曉商品或服務(wù)真實情況的權(quán)利,同時也有遵從自我意愿、自主選擇商品或服務(wù)的自由。如果從降低成本角度看,不能一概認(rèn)定經(jīng)營者的營銷策略均會侵犯消費者消費選擇權(quán)。當(dāng)經(jīng)營者向特定消費者推送特定商品或服務(wù)信息,同時還向該消費者推送不特定的選項時,這種情況下多數(shù)會侵犯消費者的知情權(quán)和選擇權(quán)。如在網(wǎng)絡(luò)版權(quán)交易平臺中,平臺以特定推送、熱點排名、流量捕捉等手段進(jìn)行網(wǎng)絡(luò)作品推廣,但在推廣之前并未審查版權(quán)的合法性,[37]這就使消費者在購買這些網(wǎng)絡(luò)作品時需要承擔(dān)版權(quán)審查風(fēng)險,同時在多數(shù)情況下平臺還會將版權(quán)授權(quán)或許可的義務(wù)轉(zhuǎn)嫁給消費者,從而規(guī)避平臺自身的責(zé)任。在這種情況下,消費者的知情權(quán)受到限制(無法知曉平臺是否獲得合法的版權(quán)許可),同時選擇權(quán)也受到影響(平臺通過排名、流量捕捉等手段強制消費者決策選擇)。

        在定價階段,算法歧視行為使經(jīng)營者的市場利益與消費者福利剩余產(chǎn)生利益沖突。在算法主導(dǎo)的數(shù)字經(jīng)濟體系中,經(jīng)營者因技術(shù)優(yōu)勢的存在使信息共享體系變成信息鴻溝,對不同消費者實施不同的定價機制,忠誠度高的消費者支付較高對價,潛在的消費者只需支付較低價格。在這個過程中,經(jīng)營者實現(xiàn)了自身市場利益的最大化。在2016年召開的經(jīng)濟合作與發(fā)展組織(Organization for Economic Co-operation and Development,OECD)價格歧視圓桌會議上,美、日、澳等國家的競爭執(zhí)法部門均表示,因為數(shù)字企業(yè)能夠以算法較為精準(zhǔn)地預(yù)測消費者的支付和購買意愿,使價格歧視在數(shù)字經(jīng)濟中得到廣泛的應(yīng)用,增加了經(jīng)營者實施剝削性濫用的風(fēng)險,進(jìn)一步損害市場公平的競爭秩序[38]??梢?,在定價階段,算法歧視行為會使消費者的福利剩余與經(jīng)營者的市場利益發(fā)生較大的沖突。

        (二)我國權(quán)益失衡的分散治理模式

        作為數(shù)字經(jīng)濟大國,我國始終對新業(yè)態(tài)和新模式持比較寬容的態(tài)度,在數(shù)字經(jīng)濟監(jiān)管模式中秉持著傳統(tǒng)的二元治理模式:通過市場競爭實現(xiàn)市場力量的制衡;政府采取事后監(jiān)管措施。對于算法歧視行為,我國缺乏專門的立法予以規(guī)制,治理困境是明顯的。2020年3月,工業(yè)和信息化部在《中小企業(yè)數(shù)字化賦能專項行動方案》中明確表示,要鼓勵數(shù)字經(jīng)濟探索和發(fā)展新業(yè)態(tài)與新模式,鼓勵算法產(chǎn)業(yè)的發(fā)展,建立算法產(chǎn)業(yè)市場體系。2020年7月,國家發(fā)展和改革委員會等13個部門聯(lián)合印發(fā)《關(guān)于支持新業(yè)態(tài)新模式健康發(fā)展,激活消費市場帶動擴大就業(yè)的意見》(以下簡稱《意見》),明確提出積極推動數(shù)字經(jīng)濟創(chuàng)新,加大算法產(chǎn)業(yè)發(fā)展,提升數(shù)字經(jīng)濟發(fā)展的質(zhì)量與效率。在諸多產(chǎn)業(yè)政策的支持下,我國算法經(jīng)濟發(fā)展迅猛,經(jīng)營者之間的算法競爭日漸凸顯,算法應(yīng)用場景不斷拓寬。除產(chǎn)業(yè)激勵之外,國家發(fā)展和改革委員會等部門在《意見》中還提出了要加大數(shù)字經(jīng)濟監(jiān)管模式創(chuàng)新,健全監(jiān)管體制機制。可見,從我國宏觀政策層面看,對算法歧視行為涉及的消費者與經(jīng)營者權(quán)利沖突的治理態(tài)度并不明朗。

        在算法歧視行為的法律責(zé)任認(rèn)定及救濟措施等方面也存在一定的問題。首先,就立法層面看,現(xiàn)有法律法規(guī)治理的適用范圍有限,適用效果有待檢驗。按照《中華人民共和國反壟斷法》(以下簡稱《反壟斷法》)第17條規(guī)定,實施價格歧視的經(jīng)營者需具備市場支配地位,但認(rèn)定數(shù)字企業(yè)市場支配地位較為困難。在部門規(guī)章中,2020年9月文化和旅游部出臺《在線旅游經(jīng)營服務(wù)管理暫行規(guī)定》,明確禁止在線旅游服務(wù)經(jīng)營者濫用大數(shù)據(jù)分析等手段對消費者的購買記錄、購買偏好設(shè)置不合理的交易條件。全國人民代表大會常務(wù)委員會2021年8月20日通過并于11月1日正式實施的《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)確立了“通知—使用”的保護框架;2021年2月,國務(wù)院反壟斷委員會印發(fā)《關(guān)于平臺經(jīng)濟領(lǐng)域的反壟斷指南》(以下簡稱《反壟斷指南》),明確禁止利用算法歧視行為實施不合理定價。在地方性法規(guī)中,2021年7月,深圳市人民代表大會常務(wù)委員會通過的《深圳經(jīng)濟特區(qū)數(shù)據(jù)條例》是我國第一個就數(shù)據(jù)立法的地方性法規(guī),明確規(guī)定大數(shù)據(jù)經(jīng)營者不得濫用大數(shù)據(jù)分析技術(shù)分析消費者的個人偏好、消費習(xí)慣,也不得就商品或服務(wù)設(shè)定不合理的交易條件。顯然,從最近的立法看,對算法歧視行為的規(guī)制日漸完善,但立法內(nèi)容相對分散,適用效果有待進(jìn)一步檢驗。

        其次,就適用形式看,因算法定位的特殊性,消費者公平交易權(quán)和知情權(quán)救濟存在現(xiàn)實困難。按照《中華人民共和國消費者權(quán)益保護法》(以下簡稱《消費者權(quán)益保護法》)的規(guī)定,在公平交易權(quán)和知情權(quán)受到侵害后,消費者可以依照該法申請救濟。然而,算法更多地是被定位為經(jīng)營者商業(yè)競爭的工具而不是商品,不屬于消費者知情的范圍,消費者難以用知情權(quán)來對抗,經(jīng)營者甚至還可以商業(yè)秘密為由進(jìn)行抗辯。在司法實踐中,“劉某與北京某某科技有限公司侵權(quán)責(zé)任糾紛案”中,原告認(rèn)為美團利用外賣平臺的市場優(yōu)勢及大數(shù)據(jù)個性化定價機制,對兩份相同的訂單實施不同的定價,由此侵犯了自身的公平交易權(quán)和知情權(quán)。湖南省長沙市中級人民法院二審認(rèn)為,雖然原告兩份訂單是針對同一商家的同種商品,因下單時間的不同,美團平臺按照平臺交易量調(diào)整了配送費,致使兩份訂單原告支付的價格不同,但基于平臺交易量的動態(tài)價格調(diào)整不屬于個性化定價,是企業(yè)的正常經(jīng)營行為,并未侵犯原告的公平交易權(quán)和知情權(quán)。[39]從這個案件可以看到,我國目前法律制度滯后,治理機制不完善,創(chuàng)新與限制、競爭與治理之間的邊界不明確。

        (三)歐美權(quán)益平衡的規(guī)制模式

        1.歐盟基于個人數(shù)據(jù)賦權(quán)來消除差別待遇

        歐盟一直重視個人數(shù)據(jù)權(quán)利,通過加強個人數(shù)據(jù)賦權(quán)來規(guī)制算法運行。算法系統(tǒng)的運行是以數(shù)據(jù)作為支撐條件,算法歧視實際上是經(jīng)營者有意對消費者個人數(shù)據(jù)進(jìn)行清洗和整合的過程。歐盟在治理算法歧視行為中,通過強化消費者的數(shù)據(jù)權(quán)利,使消費者有能力對抗經(jīng)營者清洗、整合數(shù)據(jù)的過程。歐盟2018年出臺的《通用數(shù)據(jù)保護條例》(GDPR)賦予了消費者個人數(shù)據(jù)的攜帶權(quán)、刪除權(quán)、被遺忘權(quán)等,這些權(quán)利的行使可以幫助消費者消解算法自動化決策帶來的影響,降低消費者遭受算法歧視的風(fēng)險。歐盟算法歧視行為的治理模式本質(zhì)是通過個人權(quán)利擴張抑制算法權(quán)力的擴張,特別是GDPR“數(shù)據(jù)清潔”條款中的差別待遇標(biāo)準(zhǔn)強化了算法歧視性的主觀意圖,將算法歧視行為實施的最終責(zé)任歸結(jié)到經(jīng)營者。[40]這種規(guī)則模式要求建立倒置式的舉證機制,將實施算法歧視行為的舉證責(zé)任交給經(jīng)營者,一旦經(jīng)營者不能證明基于合理理由實施算法決策,就可以認(rèn)定其對算法歧視行為承擔(dān)責(zé)任。然而,到目前為止,歐盟尚未就舉證機制改革出臺相關(guān)法律,消費者利用個人數(shù)據(jù)權(quán)難以證明經(jīng)營者存在算法歧視。

        2.美國追求結(jié)果正義的差別性影響標(biāo)準(zhǔn)

        客觀而言,歐盟賦權(quán)個人對抗經(jīng)營者實施算法歧視,采取的是一種形式公平的規(guī)制模式。與歐盟相比,美國監(jiān)管部門更注重算法實施的實質(zhì)正義。按照這一思路,美國確立了保護“群體公平”的差別性影響標(biāo)準(zhǔn)的監(jiān)管體系。美國在2019年出臺《算法責(zé)任法案》,授權(quán)美國聯(lián)邦貿(mào)易委員會(FTC)加大對影響交易公平算法的監(jiān)督,要求算法使用者有披露算法信息的義務(wù)。在監(jiān)管過程中,美國聯(lián)邦貿(mào)易委員會要求算法的使用者在不影響商業(yè)秘密的情況下必須向消費者解釋算法決策的過程,以減少算法歧視行為的發(fā)生??傮w看,美國的這種監(jiān)管模式注重結(jié)果正義,具有較好的借鑒意義,但差別性影響標(biāo)準(zhǔn)在適用上也存在一定的問題。第一,注重算法的群體公平難以實現(xiàn)算法結(jié)果的個體公平。在按照群體公平的標(biāo)準(zhǔn)實施監(jiān)管時,算法技術(shù)依然可以通過個性化的信息分析及推送將商品或服務(wù)的相關(guān)信息進(jìn)行定制化、針對性處理,監(jiān)管部門只注重群體利益,針對個體的算法歧視難以得到有效限制。第二,差別性影響標(biāo)準(zhǔn)存在過多的豁免理由。在以差別性影響標(biāo)準(zhǔn)判斷放貸機構(gòu)是否利用算法歧視貸款者時,美國《公平住房法案》賦予放貸機構(gòu)一定的豁免權(quán)。如在貸款人向放貸機構(gòu)申請公開算法決策過程時,放貸機構(gòu)如果能證明其拒絕放貸行為符合公共利益且不是人為因素造成,就不會被認(rèn)定存在歧視行為。[41]按照前述標(biāo)準(zhǔn),放貸機構(gòu)的放貸決策多是根據(jù)其搜集到的貸款人數(shù)據(jù)做出的,如果放貸機構(gòu)簡單地以“非人為”等條件申請舉證責(zé)任豁免,貸款人永遠(yuǎn)無從知曉放貸機構(gòu)是如何利用數(shù)據(jù)和算法進(jìn)行決策的,也無從知曉自身為何不能獲得購房貸款。

        六、算法歧視行為協(xié)同治理的路徑

        根據(jù)對算法歧視行為運行機制及利益沖突的分析,結(jié)合我國分散式治理模式存在的問題,借鑒歐美治理模式的相關(guān)經(jīng)驗,我國應(yīng)建立消費者、經(jīng)營者、行業(yè)組織、執(zhí)法部門四大主體協(xié)同的規(guī)制路徑。

        (一)完善消費者選擇退出機制

        在數(shù)字經(jīng)濟背景下,經(jīng)營者能夠利用大數(shù)據(jù)、人工智能等技術(shù)手段搜集消費者個人數(shù)據(jù),通過數(shù)據(jù)和技術(shù)鴻溝實施算法歧視行為。為彌補經(jīng)營者和消費者在技術(shù)上的不對等,《中華人民共和國電子商務(wù)法》明確規(guī)定,數(shù)字經(jīng)營者在提供個性化搜索服務(wù)時應(yīng)征求消費者的同意,這就是消費者選擇進(jìn)入機制?!秱€人信息保護法》第24條第3款規(guī)定,通過自動化決策形式對個人利益造成重大影響的決定,個人有權(quán)要求信息處理者予以說明,并有權(quán)拒絕個人信息處理者按照自動化決策形式做出的決定。從現(xiàn)有立法看,消費者的選擇進(jìn)入機制表明在實施算法決策前,經(jīng)營者需要征得消費者的同意,消費者必須具有知情權(quán),即消費者選擇進(jìn)入與否必須以明示的方式做出。對于消費者而言,為獲得正常的服務(wù),往往會選擇同意。特別是消費者對經(jīng)營者的服務(wù)產(chǎn)生黏性后,即使在使用過程中遭受算法歧視,也往往不得不忍受。如在使用淘寶、京東等平臺購物時,消費者只有點擊同意平臺搜集、使用個人數(shù)據(jù)后才能夠正常利用平臺進(jìn)行購物。在明示授權(quán)平臺收集信息后,消費者便沒有途徑要求平臺(如淘寶或京東)停止算法決策及實施算法歧視。

        消費者選擇進(jìn)入機制是一種事前程序,在事中沒有退出途徑和機會,而且授權(quán)同意后無法要求經(jīng)營者停止使用算法決策或?qū)嵤┧惴ㄆ缫?。面對這一困境,歐盟GDPR規(guī)定,消費者有免受算法決策影響的權(quán)利。我國的《個人信息保護法》第24條也規(guī)定了個人有拒絕自動化決策的權(quán)利。就算法歧視行為的治理要義看,重點不在于規(guī)制算法運行的程序、條件或機制,而在于檢驗算法歧視行為這一結(jié)果與消費者數(shù)據(jù)授權(quán)的關(guān)系[42]。即當(dāng)消費者授權(quán)經(jīng)營者使用個人數(shù)據(jù)后,經(jīng)營者利用消費者的授權(quán)數(shù)據(jù)對消費者實施算法歧視,此時消費者應(yīng)有權(quán)要求經(jīng)營者取消算法歧視,這是對抗經(jīng)營者濫用算法決策最有效和最直接的方式。

        實現(xiàn)前述方式的效果要求將選擇進(jìn)入機制改為選擇退出機制,突出消費者決策的自主權(quán)和獨立性。第一,在數(shù)據(jù)搜集階段,消費者注冊或首次使用應(yīng)建立默示同意規(guī)則。如果消費者沒有明確反對,就表示其同意授權(quán)經(jīng)營者搜集個人數(shù)據(jù);如果消費者明確表示反對,經(jīng)營者搜集行為無效。第二,在數(shù)據(jù)使用階段,經(jīng)營者在進(jìn)行算法個性化決策前,應(yīng)向消費者做出精細(xì)的、具體的、明確的提醒,并為消費者退出提供明確的選項。如果消費者認(rèn)為經(jīng)營者的個性化算法決策可能使自己遭受歧視,消費者有權(quán)選擇退出,并要求經(jīng)營者刪除搜集到的個人數(shù)據(jù)。第三,在消費者使用經(jīng)營者提供的各類平臺或軟件服務(wù)時,法律應(yīng)鼓勵經(jīng)營者公開個性化算法決策的依據(jù),并鼓勵消費者挑戰(zhàn)可能存在算法歧視的個性化算法決策過程,以推進(jìn)反算法歧視技術(shù)的進(jìn)步。

        (二)加強經(jīng)營者算法技術(shù)內(nèi)部控制體系建設(shè)

        算法技術(shù)的廣泛運用,對消費者個人數(shù)據(jù)權(quán)利帶來極大的挑戰(zhàn)。面對經(jīng)營者濫用算法歧視行為,世界各國均極為重視通過技術(shù)建立相關(guān)的控制制度和體系。德國建立的個人數(shù)據(jù)保護顧問制度是經(jīng)營者內(nèi)部算法濫用控制的基本制度,對算法歧視行為的遏制起到了較好的作用。按照《德國反限制競爭法》第10次修訂的規(guī)定,互聯(lián)網(wǎng)經(jīng)營者應(yīng)設(shè)立專門的個人數(shù)據(jù)保護顧問制度,定期對經(jīng)營者利用算法及數(shù)據(jù)的行為進(jìn)行合規(guī)性審查及信息披露,確保經(jīng)營者數(shù)據(jù)搜集和使用的合法性。[43]德國的個人數(shù)據(jù)保護顧問具有獨立行使職權(quán)的能力,經(jīng)營者的負(fù)責(zé)人不能對其獨立行使職權(quán)進(jìn)行干預(yù)。我國算法歧視行為在實踐中廣泛存在,在經(jīng)營者內(nèi)部控制機制建設(shè)上可以借鑒德國的個人數(shù)據(jù)保護顧問制度,要求達(dá)到一定經(jīng)營規(guī)?;蛘加幸欢ㄊ袌龇蓊~的經(jīng)營者設(shè)立算法顧問崗位,聘用相關(guān)專業(yè)人員擔(dān)任算法顧問,并保證算法顧問能夠獨立行使職權(quán)而不受經(jīng)營者的干預(yù)。按照德國的經(jīng)驗,為加強對經(jīng)營者技術(shù)創(chuàng)新及商業(yè)秘密的保護,算法顧問對算法運行及決策機制進(jìn)行監(jiān)督,其解釋及匯報的對象僅限于競爭執(zhí)法部門。算法顧問應(yīng)擁有以下權(quán)力:

        第一,監(jiān)督數(shù)據(jù)處理的過程,提升數(shù)據(jù)處理的透明度。正如法諺所云“陽光是最好的殺菌劑,燈光是最好的裁判者”,對于算法濫用及歧視行為的治理,需要從源頭上提升數(shù)據(jù)處理的透明度。算法歧視行為之所以能夠產(chǎn)生并被廣泛應(yīng)用,關(guān)鍵就在于經(jīng)營者對于個人數(shù)據(jù)處理的程序、方式及技術(shù)是封閉的,消費者無從知曉。因此,算法顧問的職責(zé)是向執(zhí)法部門披露經(jīng)營者算法設(shè)計和應(yīng)用的初始數(shù)據(jù)來源、對數(shù)據(jù)處理加工的過程和標(biāo)準(zhǔn)。這樣,執(zhí)法部門在調(diào)查算法歧視行為時,就能夠判定算法決策所依賴的數(shù)據(jù)從何而來,搜集、使用及分析的過程是否正當(dāng),從而保證執(zhí)法的公正性。

        第二,解釋算法運行過程及決策機制。算法黑箱的存在使算法決策機制不透明,加劇了算法歧視行為發(fā)生的概率。如果僅僅只是公開算法決策的相關(guān)數(shù)據(jù)及依據(jù),只能消除算法決策的神秘性。對執(zhí)法部門而言,因技術(shù)障礙依然無法了解算法運行的過程,無法消除技術(shù)上的鴻溝。因此,一方面,算法顧問通過解釋算法運行的過程,幫助執(zhí)法部門消除算法運行的神秘性;另一方面,算法顧問應(yīng)幫助執(zhí)法部門了解算法決策的具體依據(jù)及規(guī)則,使執(zhí)法部門知曉算法決策的整個過程。通過監(jiān)督數(shù)據(jù)處理和解釋算法,經(jīng)營者能夠在很大程度上洗刷其算法歧視的惡名,并有助于執(zhí)法部門公正執(zhí)法。

        (三)賦予行業(yè)組織對算法的技術(shù)審查權(quán)

        因算法黑箱效應(yīng)的存在,消費者一般無從知曉算法運行及決策的過程,難以判斷自身的數(shù)據(jù)權(quán)利是否遭到侵害。但對專業(yè)人員而言,了解算法運行及決策并不存在技術(shù)障礙。因此,由專業(yè)人員構(gòu)成的行業(yè)組織比執(zhí)法機構(gòu)、消費者更了解算法,賦予其算法技術(shù)審查權(quán)是可行的,不僅審查效率高,而且成本也比較低。美國的《算法責(zé)任法案》規(guī)定,聯(lián)邦貿(mào)易委員會在執(zhí)法前,可以聘請獨立的第三方技術(shù)機構(gòu)對算法運行是否存在歧視問題進(jìn)行審查,同時要求經(jīng)營者必須如實記錄算法運行的各項數(shù)據(jù)、決策規(guī)則及技術(shù)模型,以便于第三方機構(gòu)快速審查。[44]我國在這方面可以借鑒美國的經(jīng)驗,賦予行業(yè)組織對算法的技術(shù)審查權(quán),盡可能避免算法歧視行為的出現(xiàn)。具體而言,行業(yè)組織的技術(shù)審查權(quán)可以分為事前和事中兩個部分。

        第一,事前審查。事前審查可以在很大程度上防止算法技術(shù)不確定風(fēng)險導(dǎo)致的算法歧視行為。從本質(zhì)上看,事前審查的目的在于發(fā)現(xiàn)算法設(shè)計及運行的缺陷,即算法設(shè)計所依賴的指標(biāo)是否對消費者權(quán)利產(chǎn)生不利影響或?qū)κ袌龈偁幹刃蛟斐韶?fù)面作用。盡管有很多學(xué)者主張技術(shù)本身是中立的,在設(shè)計環(huán)節(jié)并不存在導(dǎo)致歧視出現(xiàn)的要素。事實上,即便技術(shù)是中立的,但技術(shù)的價值不是中立的,法律治理的目的是對技術(shù)應(yīng)用做好價值上的引導(dǎo)。就實踐看,算法技術(shù)被經(jīng)營者應(yīng)用于市場競爭,經(jīng)營者的價值傾向?qū)λ惴ㄟ\行自然就產(chǎn)生了影響。如某互聯(lián)網(wǎng)平臺的信息推送算法被很多人質(zhì)疑為惡俗、低俗,主要原因就是在算法設(shè)計時信息質(zhì)量在指標(biāo)體系所占的權(quán)重過低,而流量指標(biāo)所占的權(quán)重過高,導(dǎo)致各類惡俗信息推送不斷[45]。賦予行業(yè)組織事前審查權(quán),可以較好地判定算法設(shè)計指標(biāo)是否符合社會道德的基本底線。

        第二,事中審查。事前審查更多地是考察算法設(shè)計指標(biāo)是否存在漏洞,事中審查主要是看算法運行的模型是否存在歧視性的輸出后果。與設(shè)計階段相比,算法運行所產(chǎn)生的歧視更具隱蔽性,且技術(shù)指標(biāo)更復(fù)雜,帶有較強的經(jīng)營者價值判斷。如果算法在設(shè)計中帶有歧視或偏見指標(biāo),由此建立的模型輸出自然也會產(chǎn)生歧視或偏見,如果輸出結(jié)果在實踐中沒有遇到太大的抵制,模型的偏見或歧視就可能會固化,經(jīng)營者也不會主動改變輸出模型及其依賴的指標(biāo)體系。算法技術(shù)只能理解輸入數(shù)據(jù)的內(nèi)容而無法判斷數(shù)據(jù)的價值,經(jīng)營者只能依照不同指標(biāo)權(quán)重對數(shù)據(jù)進(jìn)行統(tǒng)計分析并進(jìn)行決策,這就使算法本身無法對消費者個體歧視產(chǎn)生判斷。因此,行業(yè)組織在算法運行中對算法進(jìn)行定期審查,可以有效判斷算法運行、決策與實踐中的歧視行為是否存在直接的聯(lián)系。

        (四)完善執(zhí)法部門的算法監(jiān)管體系

        2018年,中共中央、國務(wù)院出臺《新一代人工智能發(fā)展規(guī)劃》,明確各級政府應(yīng)加強對人工智能(包括算法技術(shù))引發(fā)的市場、權(quán)利等風(fēng)險的防范,完善執(zhí)法機構(gòu)的監(jiān)管體系?!斗磯艛喾ā返?7條規(guī)定,具有市場支配地位的經(jīng)營者在沒有正當(dāng)理由的情況下,不得對交易相對人實施差別對待?!断M者權(quán)益保護法》要求加強對消費者知情權(quán)、公平交易權(quán)、個人信息權(quán)等權(quán)利的保護。盡管對算法歧視規(guī)制的立法較為分散,但法律依據(jù)較為明確。從程序上看,如果行業(yè)組織對算法進(jìn)行審查后,在實踐中依然出現(xiàn)算法歧視行為,則應(yīng)由執(zhí)法部門加強事后規(guī)制。我國市場監(jiān)管部門應(yīng)從監(jiān)管目標(biāo)、手段、職責(zé)等方面進(jìn)一步完善執(zhí)法體系。

        第一,細(xì)化監(jiān)管目標(biāo)。執(zhí)法部門監(jiān)管的目標(biāo)不是算法本身,而是要厘清算法技術(shù)背后的實際控制人——經(jīng)營者,如此才能夠真正確定責(zé)任主體。在我國,《反壟斷法》《反壟斷指南》中對算法歧視的規(guī)制均要求經(jīng)營者必須具備市場支配地位的身份條件,執(zhí)法部門必須判斷經(jīng)營者是否具備市場支配地位。如果經(jīng)營者不具備市場支配地位,此時就不能用反壟斷法律框架進(jìn)行治理,但可以依照《消費者權(quán)益保護法》進(jìn)行規(guī)制。

        第二,完善監(jiān)管手段。從我國立法看,市場監(jiān)管的干預(yù)手段通常有罰款、禁令禁止、行政約談等。算法歧視行為的治理應(yīng)以約談為主,輔之以其他干預(yù)手段。就實踐看,頭條系、鳳凰系、阿里系、百度系等平臺多次被國家市場監(jiān)督管理總局約談,要求這些平臺改變推薦算法的指標(biāo)權(quán)重搭配。約談作為一種干預(yù)方式,可以最大限度地緩和政府干預(yù)與經(jīng)營者經(jīng)營自由之間的沖突,要求經(jīng)營者按照承諾進(jìn)行自查或改變。從本質(zhì)上看,約談賦予了經(jīng)營者的自我糾正權(quán),有助于從根源上改變算法運行機制,這樣不僅能夠避免過度執(zhí)法對經(jīng)營者創(chuàng)新帶來的傷害,也能夠減少算法歧視行為對市場競爭秩序和消費者權(quán)利造成的影響。

        第三,厘清監(jiān)管職責(zé)。首先,市場監(jiān)管部門應(yīng)出臺數(shù)字經(jīng)濟領(lǐng)域算法設(shè)計和使用的基本準(zhǔn)則,控制算法設(shè)計和使用的法律及道德底線。要求算法的設(shè)計者和使用者在設(shè)計、使用過程中遵守法律法規(guī)及政策的規(guī)定,不設(shè)定會引起算法歧視的指標(biāo)。其次,監(jiān)管部門應(yīng)定期會同行業(yè)組織加強對算法運行的監(jiān)管,對算法歧視所產(chǎn)生的不良后果定期向社會公布,加大社會監(jiān)督的力度。最后,執(zhí)法部門可以完善反算法歧視的技術(shù),加大技術(shù)研發(fā)力度,以技術(shù)手段監(jiān)管算法歧視行為,防止算法技術(shù)使用的異化,提升監(jiān)管的針對性。

        七、結(jié)語

        算法與大數(shù)據(jù)是支撐數(shù)字經(jīng)濟發(fā)展的兩大支柱,算法技術(shù)的發(fā)展亦是技術(shù)進(jìn)步的體現(xiàn)。然而,算法的發(fā)展及廣泛應(yīng)用,為占有市場優(yōu)勢的經(jīng)營者特別是平臺企業(yè)在信息搜集、推送、定價等階段提供了歧視的可能性。算法歧視行為在信息搜集階段侵犯了消費者的身份平等權(quán),在信息推送階段侵犯了消費者的消費自主權(quán),在定價階段因壟斷價格的出現(xiàn)使消費者剩余減少。算法歧視行為在不同的階段引發(fā)多種權(quán)利的沖突。在信息搜集階段,引起經(jīng)營者決策自主權(quán)與消費者隱私權(quán)的沖突;在推送階段,引發(fā)經(jīng)營者營銷自主權(quán)與消費者知情權(quán)的沖突;在定價階段,引發(fā)經(jīng)營者的利益與消費者福利之間的矛盾。對算法歧視行為的治理,歐美國家各有不同的做法,歐盟傾向于賦權(quán)消費者,美國注重結(jié)果的正義。對于我國而言,為保障數(shù)字經(jīng)濟的健康可持續(xù)發(fā)展,加強算法歧視治理迫在眉睫。為此,應(yīng)在借鑒歐美治理經(jīng)驗的基礎(chǔ)上,以《個人信息保護法》為基礎(chǔ)完善消費者選擇退出機制,并不斷強化“知情—同意”規(guī)則;通過完善數(shù)據(jù)監(jiān)督處理過程及算法解釋機制加強經(jīng)營者算法技術(shù)內(nèi)部控制體系建設(shè);通過事前監(jiān)督和事中審查的結(jié)合強化行業(yè)組織算法的技術(shù)審查權(quán);通過細(xì)化監(jiān)管目標(biāo)、完善監(jiān)管手段及厘清監(jiān)管職責(zé)構(gòu)建算法歧視多元主體協(xié)同治理格局。當(dāng)然,算法歧視問題作為數(shù)字經(jīng)濟發(fā)展的新問題,本文的研究只是一種學(xué)術(shù)嘗試,關(guān)于這一問題的完善有待于業(yè)界、學(xué)界的共同參與。

        猜你喜歡
        經(jīng)營者消費者信息
        明清珠江三角洲基塘區(qū)的田場與經(jīng)營者
        廣州文博(2023年0期)2023-12-21 07:24:30
        《經(jīng)營者》征稿啟事
        消費者網(wǎng)上購物六注意
        知識付費消費者
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        悄悄偷走消費者的創(chuàng)意
        悄悄偷走消費者的創(chuàng)意
        做一名聰明的集團醫(yī)院經(jīng)營者
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        國有上市公司經(jīng)營者薪酬激勵模式研究
        a在线观看免费网站大全| 91九色最新国产在线观看| 国产精品理论片在线观看| 天天躁狠狠躁狠狠躁夜夜躁| 国产精品美女白浆喷水| 天堂av在线播放观看| 国产精品久久久免费精品| 青草内射中出高潮| 久久青草免费视频| 国产啪啪视频在线观看| 亚洲国产精品亚洲一区二区三区| 天天躁日日躁狠狠很躁| 日韩AV无码一区二区三| 日本精品啪啪一区二区| 国产免费牲交视频| 亚洲人成无码www久久久| 日本色偷偷| 加勒比久久综合久久伊人爱| 中文字幕人妻第一区| 乱子真实露脸刺激对白| 熟女少妇丰满一区二区| 免费人成视网站在线剧情| 国产成人无码免费视频在线 | 午夜无码国产18禁| 开心久久婷婷综合中文字幕| 亚洲熟妇av日韩熟妇在线| 国产午夜福利精品| 蜜桃视频成年人在线观看| 国产成人无码a在线观看不卡| 中日av乱码一区二区三区乱码| 熟女白浆精品一区二区| 国产精品日韩经典中文字幕| 久久午夜夜伦鲁鲁片免费无码| 国产伦精品一区二区三区四区| 亚洲av狠狠爱一区二区三区| 日本做受120秒免费视频| 亚洲欧美另类自拍| 精品日本免费观看一区二区三区| 亚洲自偷自拍另类第1页| 无码人妻精品一区二区三区在线 | 久久91精品国产一区二区|