西安交通大學(xué)法學(xué)院 余楠
算法作為21世紀(jì)各大商業(yè)公司爭先研發(fā)的技術(shù),作為能夠代替人類頭腦進(jìn)行決策的工具,當(dāng)然存在著其特有的價(jià)值;另一方面,算法決策作為一項(xiàng)技術(shù)應(yīng)用,是被算法設(shè)計(jì)者所研發(fā)出來的,算法設(shè)計(jì)者在設(shè)計(jì)過程中為了滿足商業(yè)公司的要求與利益,本身就帶著不理性與偏見,而算法本身的決策輸出過程也可能存在著偏差,這就導(dǎo)致人們對(duì)算法決策產(chǎn)生了疑慮,甚至是恐懼。然而完全杜絕算法決策參與我們的生活與工作是不太現(xiàn)實(shí)的,不少學(xué)者便提出了算法透明的觀點(diǎn),但這一觀點(diǎn)的實(shí)施立馬遭到了擁有算法技術(shù)公司的反對(duì),他們認(rèn)為算法透明不僅侵害其商業(yè)秘密,而且由于算法具有極強(qiáng)的專業(yè)性,即使公開算法過程也很難向一般社會(huì)大眾解釋該套算法是如何運(yùn)作的。通過何種路徑達(dá)到個(gè)人私權(quán)與企業(yè)的商業(yè)秘密的平衡也成了亟須解決的問題。
首先,算法存在偏見。“通過對(duì)已有研究成果的總結(jié),導(dǎo)致算法偏見的原因主要包括兩個(gè)方面:一是與輸入數(shù)據(jù)相關(guān)的偏見;二是與算法相關(guān)的偏見。”目前,市場(chǎng)上廣泛使用的算法是學(xué)習(xí)型算法,該類算法需要通過輸入海量的數(shù)據(jù)來進(jìn)行訓(xùn)練,從而形成自身的算法決策邏輯。因此,一旦輸入數(shù)據(jù)存在偏見,就會(huì)導(dǎo)致算法決策結(jié)果存在偏見,即使算法是一項(xiàng)中立且客觀的技術(shù)。另一方面,算法自身也可能存在偏見。算法是由人類創(chuàng)造出來的,算法設(shè)計(jì)者在進(jìn)行相關(guān)算法模型設(shè)計(jì)時(shí)就有可能帶有主觀偏見,這樣一來,算法偏見便形成了。
其次,算法會(huì)帶來價(jià)格歧視、大數(shù)據(jù)殺熟以及限制消費(fèi)者瀏覽等問題。商家首先通過各種途徑獲知消費(fèi)者個(gè)人信息,然后進(jìn)行數(shù)據(jù)分析并建構(gòu)事件模型。這些事件模型包括時(shí)間(時(shí)間截和時(shí)間長度)、地點(diǎn)(用戶接觸點(diǎn)即網(wǎng)址)、內(nèi)容(每個(gè)網(wǎng)址中的內(nèi)容)以及事情(評(píng)論、點(diǎn)贊、購買等),海量的事件聚集在一起就形成了該用戶的畫像。最后,商家便會(huì)利用算法形成的畫像對(duì)消費(fèi)者進(jìn)行精準(zhǔn)的廣告推送,以此來影響消費(fèi)者的決策。于是,價(jià)格歧視、大數(shù)據(jù)殺熟的問題就產(chǎn)生了,同樣的產(chǎn)品和服務(wù)針對(duì)不同的客戶會(huì)有不同的價(jià)格,甚至?xí)T客戶需要支付更高的價(jià)格來購買相同的產(chǎn)品和服務(wù)。同時(shí),算法決策也剝奪了自我選擇的權(quán)利,使我們喪失了獲取那些我們不感興趣事物的機(jī)會(huì)。在生活中我們不難發(fā)現(xiàn),很多平臺(tái)軟件甚至比我們自己更了解我們,站在商家的立場(chǎng)上,他們認(rèn)為算法既大大增加了顧客的黏性,為他們創(chuàng)造了利益,也大大節(jié)省顧客的時(shí)間,避免了許多曲折的經(jīng)歷。我們不能否認(rèn)算法決策在這些方面顯示出的巨大優(yōu)越性,但未經(jīng)瀏覽者同意的算法決策植入是不是也在某種程度上損害了人們自由選擇的權(quán)利。
算法決策還可能導(dǎo)致歧視,從而損害信息被采集者的相關(guān)權(quán)利。美國威斯康辛州懲教署官員在為盧米斯制作量刑前調(diào)查報(bào)告時(shí),采用了算法決策模型的分析結(jié)果,初審法院在量刑判決中也參考了該評(píng)估結(jié)果,并根據(jù)該評(píng)估結(jié)果對(duì)盧米斯做出了六年有期徒刑和五年社區(qū)監(jiān)督的處罰。盧米斯隨即便向初審法院提出了減輕刑罰的請(qǐng)求,并要求法院公開算法決策模型做出該評(píng)估結(jié)果的依據(jù)。盡管終審法院經(jīng)過審理后駁回了他的上訴理由,但依舊引起了許多學(xué)者對(duì)于該判決的反對(duì)。由此可見,隨著算法決策應(yīng)用的不斷深入,它對(duì)我們相關(guān)權(quán)利的影響也就越來越大。今后,當(dāng)企業(yè)、銀行、事業(yè)單位、行政機(jī)關(guān)都開始應(yīng)用算法決策模型來處理相關(guān)問題和事件時(shí),對(duì)于算法決策模型規(guī)制的需求就越發(fā)強(qiáng)烈。企業(yè)會(huì)運(yùn)用算法決策模型進(jìn)行招聘,銀行會(huì)依據(jù)算法決策模型進(jìn)行放貸,行政機(jī)關(guān)會(huì)依據(jù)算法決策模型做出行政行為,一旦算法決策模型不能得到規(guī)制,我們的相關(guān)權(quán)利就可能會(huì)遭到損害。
算法技術(shù)的運(yùn)用就好比是汽車的應(yīng)用,科技進(jìn)步在帶來諸多便利和好處的同時(shí),也存在著許多危及權(quán)利的風(fēng)險(xiǎn)。毫無疑問我們必須允許這樣的危險(xiǎn)存在,就像汽車雖然存在著危及人類生命健康的危險(xiǎn),汽車技術(shù)依舊普遍使用那樣;但與規(guī)制汽車的應(yīng)用不同,算法暫時(shí)還不需要設(shè)定一部像《道路交通安全法》那樣的法律來進(jìn)行規(guī)制。因此,為了平衡好算法發(fā)展與個(gè)人私權(quán)之間的關(guān)系,我們可以從以下路徑對(duì)算法決策進(jìn)行規(guī)制。
(1)建立算法決策模型備案機(jī)制。前面有提到不少學(xué)者提出了算法透明的觀點(diǎn),立馬遭到了擁有算法技術(shù)公司的反對(duì)。從商業(yè)秘密的角度來看,將算法決策模型向公眾公開確實(shí)是一個(gè)不太現(xiàn)實(shí)的想法;甚至即使不考慮商業(yè)秘密,將算法模型予以公開,普通消費(fèi)大眾也無法讀取其中有用的信息,在他們眼里算法決策模型只是一堆毫無意義的代碼。但是,我們可以借鑒專利申請(qǐng)注冊(cè)的經(jīng)驗(yàn),由專門機(jī)關(guān)和專業(yè)的人才為我們把控其中的風(fēng)險(xiǎn)。讓算法設(shè)計(jì)者和算法使用者在使用算法決策模型前到指定的機(jī)關(guān)進(jìn)行審查備案,這樣就能在一定程度上杜絕一些算法決策可能造成的損害。同時(shí),在算法技術(shù)公司的內(nèi)部也應(yīng)當(dāng)建立相應(yīng)的算法決策模型審查部門,隨時(shí)隨地監(jiān)管算法決策模型可能存在的潛在危害。
(2)算法相對(duì)人有權(quán)要求算法使用者/設(shè)計(jì)者對(duì)收集的個(gè)人信息履行告知披露義務(wù);對(duì)于錯(cuò)誤的個(gè)人信息,算法相對(duì)人有權(quán)行使更正權(quán)。算法決策是以大數(shù)據(jù)為依托的,想要減少算法決策對(duì)個(gè)人私權(quán)的影響,首先得對(duì)算法決策收集的個(gè)人信息進(jìn)行規(guī)范。這就要求算法使用者/設(shè)計(jì)者應(yīng)當(dāng)履行相應(yīng)的告知以及披露義務(wù),而知情權(quán)在我國現(xiàn)有法律框架內(nèi)早有規(guī)定。根據(jù)《民法典》第111條和1035條的規(guī)定,算法使用者/設(shè)計(jì)者在收集他人信息時(shí)應(yīng)當(dāng)循序合法的原則,向信息收集者說明使用信息的目的,并確保信息的安全?!峨娮由虅?wù)法》第二十四條規(guī)定了用戶享有信息查詢、更正和刪除的權(quán)利,因此算法相對(duì)人在發(fā)現(xiàn)個(gè)人信息存在錯(cuò)誤或者被未經(jīng)允許收集時(shí),有權(quán)要求算法使用者/設(shè)計(jì)者對(duì)錯(cuò)誤信息予以更正,對(duì)未經(jīng)允許收集的信息予以刪除。這就在一定程度上解決了算法決策模型在用戶畫像階段的信息準(zhǔn)確性,從而也減少了算法決策模型中存在的偏見。
(3)算法相對(duì)人有權(quán)拒絕對(duì)自己產(chǎn)生重大影響的算法決策。“為了防止個(gè)人淪為自動(dòng)決策算法的純粹客體,我國未來的《個(gè)人信息保護(hù)法》可以借鑒歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡稱條例)第22條的規(guī)定,賦予數(shù)據(jù)主體對(duì)算法結(jié)果的拒絕權(quán)。”前面兩種措施都是在事前對(duì)算法決策進(jìn)行干預(yù),以保證其最終輸出的結(jié)果盡量符合客觀事實(shí),但允許算法相對(duì)人拒絕對(duì)自己產(chǎn)生重大影響的算法決策是一種事后防御權(quán)。事后防御權(quán)我們不難理解,難以理解的是什么叫做產(chǎn)生重大影響。不少學(xué)者對(duì)條例中所提到的重大影響作出了剖析,認(rèn)為單純地以算法相對(duì)人的視角認(rèn)定重大影響是不可取的,因?yàn)樗惴ㄏ鄬?duì)人在主觀上都會(huì)認(rèn)為自己遭受了算法決策所帶來的重大不利影響?;蛟S可以借鑒民法合同訂立過程中一般理性人視角的經(jīng)驗(yàn),結(jié)合各方面事實(shí)綜合認(rèn)定算法決策是否對(duì)算法相對(duì)人產(chǎn)生重大影響,由此賦予算法相對(duì)人算法決策拒絕權(quán)。
(4)算法相對(duì)人在相關(guān)權(quán)利受到損害時(shí),可以尋求司法救濟(jì)。在實(shí)際生活中,當(dāng)算法相對(duì)人發(fā)現(xiàn)算法決策結(jié)果對(duì)自己產(chǎn)生重大影響時(shí),可以先與算法決策使用人或者算法決策設(shè)計(jì)者進(jìn)行協(xié)商,要求算法決策使用者或設(shè)計(jì)者重新決策或者要求算法使用者說明做出算法決策結(jié)果的依據(jù),雙方達(dá)成合意的,可以按照“意思自治”原則解決雙方糾紛;協(xié)商不成的,雙方可以尋求司法救濟(jì),借助法院等相關(guān)機(jī)構(gòu)的力量解決兩者之間的糾紛。司法救濟(jì)作為一種事后救濟(jì),是保護(hù)算法相對(duì)人相關(guān)權(quán)利的最后一道屏障。
法律的發(fā)展總是滯后于科技的進(jìn)步,當(dāng)一種新型事物出現(xiàn)時(shí),必然會(huì)存在部分法律沒有規(guī)定的地方,對(duì)于新事物,我們永遠(yuǎn)處在發(fā)現(xiàn)它、認(rèn)識(shí)它以及規(guī)制它的這一發(fā)展過程中。就好比算法決策,大數(shù)據(jù)技術(shù)的發(fā)展為算法決策提供了支撐,漸漸地,商家開始運(yùn)用算法為自身增加平臺(tái)用戶黏性以及經(jīng)濟(jì)收益,然后伴隨著算法決策的廣泛應(yīng)用,法律問題開始突顯,越來越多的人開始意識(shí)到算法決策模型有可能會(huì)對(duì)我們的權(quán)利造成損害。算法偏見、算法歧視、大數(shù)據(jù)殺熟等字眼,頻頻出現(xiàn)在各種媒體和新聞界面里,到現(xiàn)在人人都處于算法決策中,但也擔(dān)憂和恐懼算法有可能給自身帶來的重大影響。不少學(xué)者也開始探尋規(guī)制算法的路徑,希望能找到平衡商業(yè)秘密和個(gè)人權(quán)利保護(hù)的方法,以更好地促進(jìn)算法技術(shù)的發(fā)展和應(yīng)用。本文通過對(duì)算法決策模型問題的描述,進(jìn)而分析當(dāng)前算法決策存在的妨害,最終給出了規(guī)制算法決策的路徑:首先得建立算法決策模型備案機(jī)制,在源頭上把握算法決策模型可能帶來的權(quán)利損害;其次使用算法決策模型的企業(yè)應(yīng)當(dāng)履行相應(yīng)的披露義務(wù),將相關(guān)數(shù)據(jù)的收集情況告知算法相對(duì)人,以便于算法相對(duì)人及時(shí)行使刪除權(quán)、更正權(quán)等權(quán)利;對(duì)于算法決策結(jié)果應(yīng)當(dāng)賦予算法相對(duì)人拒絕權(quán),但拒絕權(quán)不是算法相對(duì)人想拒絕就拒絕,算法相對(duì)人僅有拒絕對(duì)自己產(chǎn)生重大影響的算法決策。重大影響的標(biāo)準(zhǔn)不能以算法相對(duì)人的認(rèn)知進(jìn)行判斷,而是引用民法中一般理性人的假設(shè)理論對(duì)重大影響進(jìn)行衡量;最后算法相對(duì)人在權(quán)利受到損害時(shí),可以向司法機(jī)關(guān)尋求救濟(jì)。
總之,在法律的約束下,技術(shù)才能得到健康發(fā)展,因此,算法決策規(guī)制路徑的探索就顯得十分重要,我們需要不斷進(jìn)行探索以更好地促進(jìn)算法技術(shù)的發(fā)展。