吳小玉
摘 要:在信息超載時(shí)代,算法主導(dǎo)下的自動(dòng)化決策對(duì)用戶(hù)的信息接收發(fā)揮著“過(guò)濾氣泡”效應(yīng),這會(huì)損害用戶(hù)的知情權(quán)。本文將結(jié)合算法分發(fā)的邏輯探尋互聯(lián)網(wǎng)時(shí)代的信息糾偏方法。在增加算法透明度,加強(qiáng)人工審查的基礎(chǔ)上,創(chuàng)新性地提出算法解釋權(quán),通過(guò)事先防范和事后追責(zé)全方位應(yīng)對(duì)算法“黑箱”,保障用戶(hù)的知情權(quán),努力維護(hù)公平正義。
關(guān)鍵詞:算法;過(guò)濾氣泡;知情權(quán)
中圖分類(lèi)號(hào):G211 ???文獻(xiàn)標(biāo)識(shí)碼:A ????文章編號(hào):1672-8122(2019)07-0028-02
隨著互聯(lián)網(wǎng)的廣泛普及,由于其擁有幾乎無(wú)限的存儲(chǔ)空間和快速生產(chǎn)內(nèi)容的能力把人類(lèi)帶入了信息超載時(shí)代。每個(gè)人每天都會(huì)面對(duì)大量的信息,如果僅靠自己根本無(wú)法處理分析進(jìn)而篩選出有效的內(nèi)容。為應(yīng)對(duì)信息超載,以大數(shù)據(jù)驅(qū)動(dòng)的智能算法推薦系統(tǒng)逐漸應(yīng)用到社會(huì)生活的各個(gè)領(lǐng)域[1]。面對(duì)海量信息,智能算法會(huì)根據(jù)用戶(hù)的在線行為計(jì)算分析出個(gè)人的興趣愛(ài)好和行為趨向,從而幫助用戶(hù)做出自動(dòng)化決策。
李普曼曾說(shuō),在大眾傳播時(shí)代,受眾接觸到的環(huán)境并非真實(shí)環(huán)境,而是大眾傳播媒介通過(guò)對(duì)信息的選擇、加工和報(bào)道,重新加以結(jié)構(gòu)化以后向人們所提示的環(huán)境,即“擬態(tài)環(huán)境”[2]。在互聯(lián)網(wǎng)時(shí)代,這一現(xiàn)象非但沒(méi)有消失反而有了新的表現(xiàn)并進(jìn)一步深化。內(nèi)容提供商會(huì)根據(jù)用戶(hù)的在線行為、愛(ài)好偏向等向用戶(hù)推薦個(gè)性化的內(nèi)容,每個(gè)人接收到的信息都是個(gè)性化的網(wǎng)絡(luò)過(guò)濾器為用戶(hù)提供的,久而久之,用戶(hù)就被包裹在自己和算法共同構(gòu)建的“信息繭房”中,看不到自己不感興趣或算法以為你不感興趣的信息。這將會(huì)導(dǎo)致信息的失衡和偏見(jiàn),如何應(yīng)對(duì)這一狀況成為重要議題。
為此,筆者提出以下兩個(gè)問(wèn)題:1.僅依靠智能算法分發(fā)信息,用戶(hù)會(huì)面臨什么問(wèn)題? 2.在這種情況下如何保障用戶(hù)的權(quán)利?
一、算法推送對(duì)用戶(hù)的信息接收發(fā)揮“過(guò)濾氣泡”效應(yīng)
“過(guò)濾氣泡”一詞最早由公民行動(dòng)網(wǎng)站MoveOn.org的前執(zhí)行董事Eli Pariser提出,他認(rèn)為“過(guò)濾氣泡”就是人們?cè)诨ヂ?lián)網(wǎng)所處的個(gè)人化的信息世界,這是由一系列個(gè)性化的過(guò)濾器為網(wǎng)絡(luò)用戶(hù)構(gòu)造出來(lái)的獨(dú)特環(huán)境[3]。他認(rèn)為個(gè)性化搜索、新聞推送以及其他以用戶(hù)為導(dǎo)向的內(nèi)容限制了我們接觸新知識(shí)和新觀點(diǎn)的范圍和途徑,我們無(wú)法接觸到完整的信息。以Facebook為例,在2018年“泄露門(mén)”事件后,F(xiàn)acebook用戶(hù)反映,美國(guó)總統(tǒng)大選期間,支持共和黨的民眾在Facebook上無(wú)法接收到關(guān)于民主黨的內(nèi)容。英國(guó)脫歐公投期間,支持脫歐的民眾無(wú)法看到對(duì)英國(guó)留在歐盟有利的言論。民眾在Facebook上看到的信息都由自己的在線歷史行為決定,F(xiàn)acebook的算法將會(huì)據(jù)此對(duì)民眾進(jìn)行精準(zhǔn)的信息投放,在這個(gè)過(guò)程中,算法會(huì)自動(dòng)過(guò)濾用戶(hù)不感興趣的內(nèi)容,呈現(xiàn)的都是用戶(hù)喜歡的信息,在其中發(fā)揮著自動(dòng)過(guò)濾作用。
但令人憂慮的是,算法的自動(dòng)化推薦往往不能發(fā)揮信息的核實(shí)審查作用反而會(huì)助長(zhǎng)虛假和極端觀點(diǎn)、低俗內(nèi)容的傳播[3]。由于信息的爆炸式增長(zhǎng),用戶(hù)身邊每天都充斥著各種各樣的信息,那些帶有激烈情緒的極端觀點(diǎn)、低俗信息、色情暴力內(nèi)容由于容易牽動(dòng)情緒、博人眼球而更易引起轉(zhuǎn)發(fā)。在算法邏輯的自動(dòng)分發(fā)下,這樣的信息自然更容易被推薦給用戶(hù)。以今日頭條為例,今日頭條及其旗下APP中充斥著大量的低俗內(nèi)容,如未成年人早戀、未婚先孕等,而這些即使是成人世界都感到難以啟齒的話題,在網(wǎng)絡(luò)世界卻借助算法大肆傳播,今日頭條也因此多次被國(guó)家網(wǎng)信部約談?wù)摹?/p>
智能算法對(duì)信息的自動(dòng)篩選和自動(dòng)推薦帶來(lái)了用戶(hù)接收信息的“窄化效應(yīng)”,而這一自動(dòng)決策完全處于算法“黑箱”中,服務(wù)商并不會(huì)公布背后的算法原理,即使公布了,普通用戶(hù)也很難理解算法的運(yùn)作和邏輯,因此損害了用戶(hù)的知情權(quán)。
二、通過(guò)增加算法透明度和人工糾偏保障用戶(hù)權(quán)利
2018年1月11日,今日頭條首次對(duì)外公布了自己的核心算法,讓算法更透明,并希望能推動(dòng)行業(yè)算法推薦的有序發(fā)展。今日頭條對(duì)外公布部分核心算法屬于行業(yè)首例,一定程度上促進(jìn)了互聯(lián)網(wǎng)行業(yè)提高算法的透明度,保障了用戶(hù)權(quán)利。
算法透明度是指機(jī)構(gòu)公開(kāi)算法可以做什么及其這樣做的原因,幫助用戶(hù)理解技術(shù)操作背后的價(jià)值觀、偏見(jiàn)和意識(shí)形態(tài),從而使得“過(guò)濾氣泡”的產(chǎn)生過(guò)程透明化,進(jìn)而讓用戶(hù)自己決定“氣泡”生成的程度和對(duì)自己的影響[3]。提高算法的透明性對(duì)各方都有益處,對(duì)用戶(hù),算法透明性可以增進(jìn)信任,讓其知道算法系統(tǒng)可以做什么及其這樣做的原因,也可以增加用戶(hù)對(duì)算法推送的信心;對(duì)相關(guān)監(jiān)管機(jī)構(gòu),算法透明性則確保了算法系統(tǒng)可以接受審查,如果發(fā)生事故便于究因和追責(zé)。此外,算法透明性也有利于規(guī)范行業(yè)秩序,通過(guò)行業(yè)內(nèi)部的互相監(jiān)督和有序競(jìng)爭(zhēng)促進(jìn)行業(yè)健康發(fā)展[4]。
除此之外,加強(qiáng)對(duì)算法的人工糾正也很重要。2018 年 4 月 11 日,今日頭條CEO 張一鳴發(fā)表公開(kāi)信,宣布將強(qiáng)化總編輯責(zé)任制,全面糾正算法和機(jī)器審核的缺陷,不斷強(qiáng)化人工運(yùn)營(yíng)和審核。今日頭條一直強(qiáng)調(diào)算法推薦“并非把一切都交給機(jī)器”,會(huì)通過(guò)人工審核過(guò)濾劣質(zhì)低俗信息,在一定程度上能減少這些信息的廣泛傳播。同樣,F(xiàn)acebook除了依靠其強(qiáng)大的智能推薦系統(tǒng)分發(fā)信息之外,還建立起了人肉反饋機(jī)制,與算法一起構(gòu)成完善的反饋及平衡機(jī)制的系統(tǒng),提高推薦的精準(zhǔn)性。
三、通過(guò)算法解釋權(quán)保障用戶(hù)知情權(quán)
增加算法透明度是國(guó)內(nèi)外應(yīng)對(duì)算法“黑箱”侵害公民權(quán)利時(shí)的共識(shí),但也可以看出這種方法只能作為事先監(jiān)管的手段,而無(wú)法對(duì)已經(jīng)受到自動(dòng)化決策損害的人提供救濟(jì)。對(duì)此,歐洲最先做出了重要舉措,2018 年實(shí)施的《歐洲通用數(shù)據(jù)保護(hù)條例》(GDPR)第 22 條規(guī)定:“應(yīng)該采取適當(dāng)?shù)谋U洗胧?,……保證數(shù)據(jù)主體獲得對(duì)此類(lèi)評(píng)估之后達(dá)成的決定的解釋?zhuān)?duì)決定提出質(zhì)疑?!边@表明歐洲在保障公民算法解釋權(quán)上的探索。
算法解釋權(quán)是指當(dāng)自動(dòng)化決策的具體決定對(duì)相對(duì)人有法律上或者經(jīng)濟(jì)上的顯著影響時(shí),相對(duì)人向算法使用人提出異議,要求提供對(duì)具體決策的解釋?zhuān)⒁蟾聰?shù)據(jù)或更正錯(cuò)誤的權(quán)利[5]。其目的是讓相對(duì)人有權(quán)知道對(duì)其不利的決定是如何做出的,以便在確有算法歧視和數(shù)據(jù)錯(cuò)誤時(shí)提供救濟(jì)。
算法解釋權(quán)是矯正信息不對(duì)稱(chēng)性的重要手段。在智能化時(shí)代,數(shù)據(jù)鴻溝成為人和人之間不平等的根源之一,數(shù)據(jù)鴻溝導(dǎo)致了人和人之間的知識(shí)、信息獲取和掌握的不平等。自動(dòng)化決策雖廣泛應(yīng)用于信息分發(fā),但知曉算法知識(shí)者寥寥,這種信息不對(duì)稱(chēng)堪稱(chēng)“黑箱”。與網(wǎng)絡(luò)服務(wù)商相比,用戶(hù)處于一直不平等的地位,因此需要為用戶(hù)提供算法解釋權(quán),對(duì)自動(dòng)化決策中的信息不對(duì)稱(chēng)進(jìn)行有效糾偏,使得信息從信息優(yōu)勢(shì)方向信息劣勢(shì)方流動(dòng),從而達(dá)到雙方平衡。
四、結(jié) 語(yǔ)
算法的治理是人工智能時(shí)代的重大法律問(wèn)題,需要同時(shí)設(shè)置事前的風(fēng)險(xiǎn)防范機(jī)制和事后的問(wèn)責(zé)制進(jìn)行監(jiān)管?,F(xiàn)在的研究多為事前風(fēng)險(xiǎn)防范機(jī)制,即通過(guò)提高算法透明度,健全法律監(jiān)管,提高用戶(hù)媒介素養(yǎng)等對(duì)算法進(jìn)行有效監(jiān)管,而對(duì)于算法的事后監(jiān)管問(wèn)責(zé)方面的研究則較少。以算法解釋權(quán)為代表的算法問(wèn)責(zé)制更能為受到侵害的主體提供幫助和救濟(jì),也能有效分配權(quán)利和義務(wù)。 對(duì)一個(gè)個(gè)具體受到自動(dòng)化不利決策的個(gè)體來(lái)說(shuō),算法解釋權(quán)可以彰顯個(gè)案中的公平和正義[5]。
參考文獻(xiàn):
[1] 劉存地,徐煒.能否讓算法定義社會(huì)——傳媒社會(huì)學(xué)視角下的新聞算法推薦系統(tǒng)[J].學(xué)術(shù)論壇,2018(4).
[2] (美)沃爾特·李普曼著.閻克文,江紅譯.公眾輿論[M].上海:上海人民出版社,2006.
[3] 許幼飛.如何戳破“過(guò)濾氣泡”算法推送新聞中的認(rèn)知窄化及其規(guī)避[J].新聞與寫(xiě)作,2018(9).
[4] 王春暉.人工智能的倫理、法律與監(jiān)管聞[J].互聯(lián)網(wǎng)天地,2018.
[5] 張凌寒.商業(yè)自動(dòng)化決策的算法解釋權(quán)研究[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018(3).
[責(zé)任編輯:艾涓]