亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        智媒時(shí)代算法推薦對用戶自主性的解構(gòu)與重構(gòu)*
        ——基于規(guī)則治理的視角

        2023-04-09 02:10:54周麗娜
        關(guān)鍵詞:自主性權(quán)利決策

        —周麗娜—

        人工智能生成物(AIGC)的顛覆性代表ChatGPT 應(yīng)聲出世之后,再次刷新了人類對人工智能邊界的認(rèn)知,也再次加速了人類文明的進(jìn)程。ChatGPT 不僅建立了一個(gè)大語言模型,而且其已經(jīng)擁有一定的認(rèn)知、理解和判斷能力,甚至擁有和人類類似的思維能力。“人工智能在完成對人類外在官能(視覺、聽覺等)的延伸后,進(jìn)入到對人體延伸的最后階段——意識的技術(shù)模擬階段?!雹俣鴻C(jī)器意識的產(chǎn)生是否會(huì)對未來人類文明造成不可逆轉(zhuǎn)的危機(jī)和風(fēng)險(xiǎn),還尚未可知。

        一、問題的提出

        (一)智媒傳播顛覆“以人為中心”的傳播模式

        人工智能技術(shù)的迭代加速發(fā)展,徹底改變了“以內(nèi)容為中心”的傳統(tǒng)大眾傳播模式和“以用戶為中心”的社交媒體傳播模式,迎來“以數(shù)據(jù)和算法驅(qū)動(dòng)內(nèi)容生產(chǎn)為中心”的智能傳播模式時(shí)代。如果說,社交傳播撼動(dòng)了傳統(tǒng)大眾傳播確立的“把關(guān)人”及“議程設(shè)置”的專業(yè)內(nèi)容生產(chǎn)和控制傳播模式,奠定了“去中心化”“人人都有麥克風(fēng)”的用戶內(nèi)容生產(chǎn)傳播模式,那么以語言生成模型和語義理解模型為基底的生成式人工智能,則直接解構(gòu)了一個(gè)多世紀(jì)以來形成的“以人為中心”的傳播理論體系,“人”再也不是信息和內(nèi)容理所當(dāng)然的生產(chǎn)者和主導(dǎo)者。

        智能傳媒的應(yīng)用,使人的主體性逐漸消解,而機(jī)器主體性(或擬主體性)逐漸確立。經(jīng)過一段時(shí)間的人工“喂養(yǎng)”和主動(dòng)學(xué)習(xí),人工智能機(jī)器就能夠模仿,甚至模擬人的意識,自主生產(chǎn)內(nèi)容,進(jìn)而傳播。此外,人工智能通過大數(shù)據(jù)和算法,根據(jù)主體的喜好、興趣、習(xí)慣等,對信息進(jìn)行千人千面的個(gè)性化推送,甚至“人”還會(huì)受到機(jī)器自動(dòng)決策的影響,在頻頻推送的“猜你喜歡”情境下,改變個(gè)體意志,迎合機(jī)器供給。如果說人們目前習(xí)慣使用“人機(jī)交互、人機(jī)協(xié)同、人機(jī)共生”等用語,暗示“人”在“機(jī)”前,“人”尚且掌握了一定的主動(dòng)權(quán)和控制權(quán),那么可以想象,“機(jī)人”時(shí)代的到來可能指日可待。

        (二)智能傳播運(yùn)算法使個(gè)體被量化、群體化,喪失自主性

        根據(jù)算法推薦技術(shù)原理,其所依賴或存在的所有個(gè)性化指標(biāo)終將轉(zhuǎn)化為“0”和“1”的二進(jìn)制代碼,有關(guān)個(gè)體的一切終將以數(shù)據(jù)化的形式呈現(xiàn)。在算法世界,個(gè)體的人成為冰冷的數(shù)據(jù),人完全被數(shù)據(jù)化和標(biāo)簽化。個(gè)體的集合,僅是具有流通性的數(shù)據(jù)庫資源和商品,是“脫離情感、情緒、感知的數(shù)據(jù)化字符,是被數(shù)據(jù)‘量化的自我,也是市場化的自我’”②。

        美國學(xué)者貝克(Baker)曾對量化自我提出四點(diǎn)質(zhì)疑:量化自我究竟是讓人們更多、更好地了解自己,還是走向它的反面? 是一種更強(qiáng)的自我控制,抑或是一種更強(qiáng)的社會(huì)控制? 是讓人們變得更幸福,還是從來沒有讓他們得到真正的幸福? 是讓人們有了更多的選擇,還是侵犯了他們選擇的余地?③很多時(shí)候,結(jié)果都有可能是后者。

        個(gè)體被量化后,還可能會(huì)引發(fā)個(gè)體被群化和馴化的風(fēng)險(xiǎn)。算法程序根據(jù)掌握的量化數(shù)據(jù)和變量,在數(shù)字空間,“跨越興趣、階層、地域的隔閡將全部的群體關(guān)系整合起來,形成群體內(nèi)部、群體之間的互動(dòng),產(chǎn)生堪比大眾傳播覆蓋面的影響效果”④。在群體互動(dòng)中,渴望展現(xiàn)或追求個(gè)性的主體,受群化的興趣、消費(fèi)、反饋等多方面影響,最終很可能淹沒于群體,失去自我。如在某社交平臺(tái),個(gè)體因被算法標(biāo)簽為與他人有共同愛好,而被推送某款產(chǎn)品,不免受到他人或群體消費(fèi)暗示影響,進(jìn)而喪失個(gè)人判斷和決策,直至被群體完全馴化,喪失自主性。

        理想的人類社會(huì),應(yīng)該是人的智力、情感、理性、德行等均能得到學(xué)習(xí)、發(fā)展和認(rèn)可的社會(huì)。在算法社會(huì),一段時(shí)間內(nèi),可以使人的智性得到單向度發(fā)展或提高,但過度的算法進(jìn)化,終將使人喪失人性中更為寶貴和自然的組成部分,即以情感、內(nèi)心、理性為基礎(chǔ)的心性和靈性。⑤

        (三)智能傳播的規(guī)則控制尚不完善

        算法與數(shù)據(jù)、算力被稱為人工智能技術(shù)發(fā)展的三大核心要素,其中算法推薦的廣泛應(yīng)用,對智媒時(shí)代信息量過載問題提供了強(qiáng)有力的技術(shù)支持,一定程度上解決了信息無限性與用戶個(gè)體需求有限性之間的矛盾,滿足了用戶在快節(jié)奏時(shí)代以最少時(shí)間成本獲取個(gè)性化信息選擇的訴求,但也衍生了“信息繭房”“算法黑箱”“算法歧視”“虛假新聞”“用戶隱私侵犯”等現(xiàn)實(shí)問題。

        同時(shí),算法還對公眾的社會(huì)活動(dòng)和個(gè)人活動(dòng)進(jìn)行規(guī)訓(xùn),并且在重構(gòu)機(jī)器與人、技術(shù)與社會(huì)之間的關(guān)系過程中,算法正從一項(xiàng)單純的技術(shù),發(fā)展為能夠“干涉甚至主導(dǎo)人類社會(huì)事務(wù)的‘算法權(quán)力’(algorithmic power)”⑥,算法不僅打造社會(huì)景象與文化意涵,甚至直接影響并控制著我們每個(gè)普通人的日常生活,甚至獲得了“真理地位”⑦。

        盡管世界各國均已認(rèn)識到算法風(fēng)險(xiǎn),并普遍認(rèn)為算法應(yīng)當(dāng)具備透明、公正和公平、非惡意、負(fù)責(zé)任和保護(hù)隱私等基本倫理規(guī)則,但在理論闡釋和實(shí)際應(yīng)用中,仍存在實(shí)質(zhì)性分歧。智媒時(shí)代,用戶對這種算法權(quán)力能否拒絕? 用戶對算法決策的使用能否自主決定? 對算法歧視、算法黑箱和信息繭房等負(fù)面作用是否有知情及投訴的權(quán)利? 人類在這場技術(shù)變革引發(fā)的社會(huì)變革下,需如何應(yīng)對或自處?

        二、現(xiàn)有規(guī)則對算法與用戶自主性的建構(gòu)

        面對智能媒體帶來的新技術(shù)形式和傳播實(shí)踐,重新審視和界定“人—機(jī)”二元關(guān)系,處理好以智能媒體為代表的非人類傳播主體與人始終作為傳播主體的共生關(guān)系,是防范智能技術(shù)可能引發(fā)社會(huì)危機(jī)和風(fēng)險(xiǎn)的重要議題。各國目前主要的治理邏輯和思路,是通過法律和倫理雙層面的規(guī)則建構(gòu),運(yùn)用國家強(qiáng)制力的硬約束和道德倫理的軟保障,廓清算法“權(quán)力”邊界,試圖保障用戶的權(quán)利自治和主體意志自由。

        (一)算法推薦技術(shù)及其規(guī)則建構(gòu)

        通常來說,算法推薦技術(shù)是人工智能技術(shù)的一種應(yīng)用,“技術(shù)層面看,算法系統(tǒng)的體系結(jié)構(gòu)由界面、信息和模型三個(gè)層次構(gòu)成”⑧。界面層主要功能是對信息進(jìn)行加工和處理,繼而構(gòu)建出用戶畫像,這是算法推薦系統(tǒng)的基礎(chǔ)。在界面層,系統(tǒng)將收集到的用戶基本數(shù)據(jù)和行為數(shù)據(jù)轉(zhuǎn)化為事實(shí)標(biāo)簽,然后傳遞至信息層與模型層進(jìn)行建模和決策。在用戶畫像基礎(chǔ)上,系統(tǒng)根據(jù)用戶行為(如點(diǎn)擊、評論、轉(zhuǎn)發(fā)、點(diǎn)贊、收藏等)、訪問時(shí)長等設(shè)置相應(yīng)權(quán)重,從中發(fā)現(xiàn)用戶的喜好、習(xí)慣和興趣,計(jì)算出用戶對某類信息的興趣標(biāo)簽值,找出有相似行為的用戶集,從而進(jìn)行信息分發(fā)。算法技術(shù)主要應(yīng)用于信息層與模型層。

        目前我國對算法推薦技術(shù)應(yīng)用已經(jīng)建立起一定的法律規(guī)則體系,涵蓋內(nèi)容包括算法應(yīng)用、審核、監(jiān)督、溯源、備案、解釋、拒絕等諸多方面;同時(shí),國家新一代人工治理專業(yè)委員會(huì)還發(fā)布了《新一代人工智能倫理規(guī)范》,提出了增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚?、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)6 項(xiàng)基本倫理要求。但在實(shí)踐中,對算法控制的實(shí)際效力,以及倫理原則的解釋和應(yīng)用,仍無法避免“算法歧視”產(chǎn)生“騎手困于算法”等現(xiàn)實(shí)風(fēng)險(xiǎn)和問題。

        (二)用戶自主性及其規(guī)則建構(gòu)

        自主性(autonomy)即自我管理,是主體“構(gòu)建自我目標(biāo)和價(jià)值且自由地作出決定付諸行動(dòng)的能力”⑨,主要體現(xiàn)主體的意志自由及決策自由。自主性原則源自康德(Immanuel Kant)的自由理論,認(rèn)為每個(gè)個(gè)體都有決定自己命運(yùn)的權(quán)利。

        用戶自主性規(guī)則層面的建構(gòu),主要體現(xiàn)在保障用戶知情權(quán)、解釋權(quán)、選擇權(quán)、拒絕權(quán)等多項(xiàng)權(quán)利方面。

        1.知情權(quán)、解釋權(quán)

        廣義而言,知情權(quán)是公民知悉、獲取信息的自由和權(quán)利,本文僅討論公民的民事知情權(quán),即個(gè)體對于自身信息了解、知悉的權(quán)利。

        個(gè)人信息知情權(quán)指信息主體對其個(gè)人信息享有知情的權(quán)利,具體知情的內(nèi)容包括誰收集的個(gè)人信息、收集這些信息用于何種目的、信息將以何種方式進(jìn)行使用、信息將會(huì)被處理者存儲(chǔ)多長時(shí)間、信息傳遞給哪些第三方等?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理辦法》規(guī)定,使用算法服務(wù)的用戶,算法服務(wù)提供者應(yīng)以顯著方式告知用戶其提供算法推薦服務(wù)的情況,如應(yīng)當(dāng)公示它的基本原理是什么,它是如何運(yùn)行的,它的應(yīng)用場景有哪些,以及它有何使用目的。

        算法解釋權(quán)是用戶個(gè)體(或稱數(shù)據(jù)主體)有權(quán)要求算法使用者或數(shù)據(jù)控制者對其使用的算法進(jìn)行解釋,該解釋應(yīng)當(dāng)具體、清晰、明確、具有實(shí)質(zhì)意義。從時(shí)間上看,算法解釋權(quán)屬于事后解釋,一般是個(gè)體在獲得算法決策結(jié)果后,要求控制者對該決策結(jié)果提供相應(yīng)的解釋。

        2.選擇權(quán)

        信息選擇權(quán)是指用戶有權(quán)自主選擇信息,不受他人干涉。該權(quán)利表明用戶在獲取信息的過程中,能夠根據(jù)自己的想法和意志,自主地選擇和支配信息,也就是算法的使用不得干涉用戶信息選擇自由,用戶有權(quán)決定自己接收或者閱讀哪些信息、不接收或者閱讀哪些信息。用戶擁有選擇權(quán),這實(shí)質(zhì)上是對人自主權(quán)的尊重。

        3.拒絕權(quán)

        算法拒絕權(quán)指個(gè)人對算法應(yīng)用或其結(jié)果享有抵制的權(quán)利。我國《個(gè)人信息保護(hù)法》第24 條即是對算法拒絕權(quán)的規(guī)定,包括可以拒絕商業(yè)營銷、個(gè)性化推送以及特定情況下的自動(dòng)化決策。

        如同在數(shù)字社會(huì)中個(gè)體有拒絕接入數(shù)字世界或選擇是否使用數(shù)字技術(shù)的權(quán)利,對算法技術(shù)而言,個(gè)體也有自主決定是否使用算法的權(quán)利,這也是生活方式的一種意愿和選擇。

        三、現(xiàn)有規(guī)則下算法對用戶自主性的解構(gòu)

        盡管在現(xiàn)有法律和倫理規(guī)則框架下,算法似乎是“帶上了鐐銬”,但通過實(shí)踐檢視,算法正裹挾大數(shù)據(jù),對人的感情、認(rèn)知,甚至身體健康產(chǎn)生影響,借助“技術(shù)”的掩護(hù),正逐漸剝奪人的自由意志,并最終剝奪自我意志自主控制的權(quán)利和能力。

        (一)用戶個(gè)人信息的提供非完全自主性

        如前所述,技術(shù)層面而言,算法推薦基礎(chǔ)是個(gè)人數(shù)據(jù)收集和用戶畫像,而這二者的前提是用戶知情同意的情況下對個(gè)人信息的自愿提供。雖然在法律上我國已經(jīng)確立了知情同意的強(qiáng)制性規(guī)定,體現(xiàn)主體對個(gè)人信息具有決定權(quán)和自主性,但實(shí)際上,知情同意原則僅是形同虛設(shè)、徒有其表而已。

        2022 年4 月,有記者在蘋果的應(yīng)用市場中下載了免費(fèi)“排行榜”前十的APP,在對其用戶協(xié)議以及隱私政策進(jìn)行統(tǒng)計(jì)時(shí)發(fā)現(xiàn),這十款A(yù)PP 的用戶協(xié)議、用戶條款的文本總字?jǐn)?shù)超過10 萬字,隱私協(xié)議則共計(jì)約12 萬字,二者合計(jì)約為22 萬多字,每款A(yù)PP 需要用戶“同意并繼續(xù)”的文本內(nèi)容平均為2.2 萬字,用戶讀完一款A(yù)PP 的用戶協(xié)議與隱私政策,快則需要40 分鐘,慢則1 個(gè)小時(shí)。⑩2021 年8 月,《光明日報(bào)》與高校和研究所組成調(diào)研組,分別對1036 人進(jìn)行問卷調(diào)查和深度訪談,并對15 類共150 款A(yù)pp 的隱私協(xié)議進(jìn)行分析,發(fā)現(xiàn)在安裝App 時(shí),有77.8%的用戶“很少或從未”閱讀過隱私協(xié)議。?很多網(wǎng)友自嘲道“撒過最多的謊就是‘我已閱讀并同意用戶協(xié)議’”,因此很難得出結(jié)論,用戶已經(jīng)充分、清晰地知情算法推薦所需要的有關(guān)個(gè)體的信息數(shù)據(jù)的收集和處理狀況,更不用說個(gè)體有自我決定的能力和權(quán)利。

        (二)算法推薦消解了用戶自主性的各項(xiàng)權(quán)利

        算法表面上是優(yōu)化公眾對信息的選擇,公眾可以在算法給定的范圍內(nèi)快速做出選擇和決定,但這實(shí)則是算法對公眾自主性原則的消解。用戶每次基于算法而做出的決定,看似微乎其微、不足為道,但日積月累下來,用戶就習(xí)慣于依賴算法給出的推薦結(jié)果和范圍,而不再積極地、主動(dòng)地去找尋可能的其他決策,久而久之,用戶自主性屈服于算法,算法逐漸從一項(xiàng)技術(shù)演變?yōu)橐环N權(quán)力。

        1.用戶對算法推薦或不充分知情或一無所知

        在算法推薦語境下,用戶知情權(quán)的消解,主要體現(xiàn)在兩個(gè)方面:一個(gè)是對涉及個(gè)人數(shù)據(jù)的用戶協(xié)議的不完全知情或完全不知情;一個(gè)是對算法推薦運(yùn)行機(jī)制的不知情,即存在算法黑箱。

        對涉及個(gè)人數(shù)據(jù)的完全不知情或不完全知情,前已論述,在于用戶對用戶協(xié)議或隱私協(xié)議無法進(jìn)行實(shí)質(zhì)性知情及控制,知情權(quán)在用戶知情同意的偽裝下,其內(nèi)容并未實(shí)質(zhì)性觸達(dá)到用戶,導(dǎo)致用戶對個(gè)人信息各階段的處理沒有完整的知情權(quán)。

        對算法推薦運(yùn)行機(jī)制的不知情,是對用戶知情權(quán)的另一種侵害。不論是在用戶協(xié)議中,還是隱私協(xié)議中,用戶都很難知情自己的數(shù)據(jù)是如何應(yīng)用于算法的。例如,在京東網(wǎng)的隱私政策中,對商品和服務(wù)信息的展示,其條款是這樣描述的: “為了向您提供搜索歷史、瀏覽記錄、收藏的商品或店鋪、關(guān)注的店鋪、購物車或訂單商品或服務(wù)展示服務(wù),我們會(huì)收集您的瀏覽信息、搜索記錄、收藏記錄、關(guān)注記錄、加購信息、訂單信息。我們會(huì)根據(jù)您的上述信息以及其他您已授權(quán)的信息,進(jìn)行數(shù)據(jù)分析、預(yù)測您的偏好特征,在京東服務(wù)或者其他第三方應(yīng)用中向您推送您可能感興趣的商品/服務(wù)、商業(yè)廣告、商業(yè)性短信及其他營銷信息?!?這樣的告知,于用戶而言,似乎說了什么,又似乎什么也沒說,用戶對網(wǎng)站如何使用這些數(shù)據(jù)進(jìn)行推送或產(chǎn)生推薦列表,仍然是一頭霧水。2022 年,為應(yīng)對算法黑箱問題,增加算法透明性和可解釋性,政府推出算法備案制度,要求使用算法的企業(yè)向公眾公示算法運(yùn)行機(jī)制、使用的基本原理以及使用目的,但對用戶而言,此舉對用戶知情權(quán)并無改善。因?yàn)橛脩魧τ谒惴ㄖ榈慕K極目的,不是要知道會(huì)收集哪些數(shù)據(jù)、采取的是哪種類別的算法,而是需要知道這種運(yùn)算的算法對個(gè)體而言可能會(huì)產(chǎn)生怎樣的后果,對個(gè)人權(quán)益是否會(huì)產(chǎn)生負(fù)面的作用? 未來要如何更好地利用算法發(fā)揮正面作用、增加信息多元化,避免信息繭房? 個(gè)體在算法面前,能不能有主動(dòng)性或者決定性? 但這些問題對用戶而言,都無法從所公示的信息中獲得答案。

        另一方面,算法解釋或透明度原則雖然可能對算法黑箱予以適當(dāng)糾偏,但過度依賴透明處理原則會(huì)陷入“透明陷阱”(transparency fallacy),即個(gè)體往往缺乏必要的專業(yè)知識來有意義地行使這些個(gè)人權(quán)利。?僅有當(dāng)數(shù)據(jù)主體可以真正理解特定算法所依據(jù)的因素而做出決策時(shí),算法解釋的邏輯才是有意義的。因此,算法透明的核心要義在于能夠在數(shù)據(jù)主體有疑問時(shí)提供有意義的、樸實(shí)的、普通用戶能夠明白的解釋,從而使用戶可以充分知悉算法作出決策的邏輯,繼而行使質(zhì)疑和問責(zé)的權(quán)利。

        2.用戶只能在算法推薦的范圍內(nèi)進(jìn)行有限的選擇

        算法推薦技術(shù)在信息分發(fā)方面的優(yōu)勢,使用戶可以擺脫傳統(tǒng)專業(yè)媒體設(shè)置的“議程”,一定程度上,可以實(shí)現(xiàn)“我的信息我做主”,自主選擇感興趣的信息?;蛟S有人認(rèn)為用戶至此掌握了信息的選擇權(quán),但實(shí)際上,這種選擇權(quán)是對算法推薦結(jié)果的一種有限選擇,而不是出于個(gè)體意志的自由選擇。算法推薦所運(yùn)用的過濾機(jī)制,其邏輯過于注重用戶偏好,而忽視了諸如真實(shí)、客觀、理性等其他價(jià)值理念,實(shí)際上是損害了用戶的信息選擇權(quán)。

        用戶能夠選擇的范圍不是看或者不看什么信息,而是在算法推薦的范圍內(nèi),接受還是拒絕算法推薦的信息。因此,用戶選擇的自主性是基于算法推薦的結(jié)果,而選擇的范圍也是基于算法推薦的結(jié)果。個(gè)體在算法環(huán)境下,根據(jù)機(jī)器計(jì)算結(jié)果,通過接受或拒絕模式,與機(jī)器進(jìn)行對話和互動(dòng),再代入機(jī)器運(yùn)算模型,繼續(xù)維持或調(diào)整算法推薦結(jié)果,再進(jìn)一步測試是否符合用戶需求。在這樣“機(jī)器—人—機(jī)器”的循環(huán)測試中,算法推薦的應(yīng)用,并沒有解決用戶信息過載的問題,反而使用戶更加依賴算法和機(jī)器。用戶的點(diǎn)擊、取消、拒絕、點(diǎn)贊、收藏等操作,其實(shí)是在和機(jī)器完成對話,進(jìn)而不斷地接受機(jī)器的分析、畫像,甚至學(xué)習(xí)和模仿,從而給出看似最適合該個(gè)體的決策結(jié)果或推薦列表,但這一行為恰恰是沒有將用戶作為一個(gè)有自主意志的人對待,更像是一組代碼或數(shù)據(jù),缺乏對個(gè)體人格的尊重,而這正是對自主性原則的違背。

        若長期使用算法推薦獲取信息,則會(huì)對算法形成過度依賴,用戶將怠于主動(dòng)作為,不去積極尋求多元或多樣化內(nèi)容,而是習(xí)慣于在算法支配下的內(nèi)容獲取和選擇,于是乎,用戶逐步成為算法可以預(yù)測,甚至操縱的被動(dòng)接收者。盡管用戶可以與機(jī)器進(jìn)行一些互動(dòng),例如點(diǎn)擊“不想看到類似信息”,但是這并不意味著用戶從此再也看不到類似信息。在商業(yè)利益驅(qū)動(dòng)下,企業(yè)運(yùn)用算法不斷進(jìn)行個(gè)性化推送,用戶在技術(shù)包圍下很難沖破算法權(quán)力的控制邊界,所以個(gè)體主動(dòng)性的發(fā)揮空間越來越被侵蝕和壓縮,用戶也從主動(dòng)欣然接受算法到被動(dòng)默認(rèn)受算法驅(qū)動(dòng)。

        3.用戶無法事前拒絕算法的介入,陷入“拒絕困境”

        算法拒絕權(quán)在我國《個(gè)人信息保護(hù)法》中已有規(guī)定,其本意是為個(gè)體配置積極的控制性權(quán)利,防止信息處理者與個(gè)人之間因信息不對稱而導(dǎo)致的地位不平等帶來負(fù)面影響。但該法所規(guī)定的拒絕權(quán),嚴(yán)格意義上說,不是拒絕算法,而是拒絕算法推薦的結(jié)果,而且是僅能拒絕對個(gè)人有重大影響的算法的結(jié)果。這種拒絕,只能事后且手動(dòng)拒絕。因此,“通過個(gè)體行使控制性權(quán)利進(jìn)行算法規(guī)制的效果非常有限”?。

        以下選取我國目前用戶過億的5 個(gè)應(yīng)用程序的《隱私政策》部分內(nèi)容作為示例(見表1),涉及社交媒體、視頻平臺(tái)、電子購物平臺(tái),可以看到“允許”或者“同意”自動(dòng)化決策都事先存在于《隱私政策》的“一攬子”規(guī)定之中,如果不同意該隱私政策,則不能使用該款軟件,如果想關(guān)閉算法推薦,需要手動(dòng)操作,有的還需要發(fā)送短信才能取消,如淘寶。即便是選擇關(guān)閉,關(guān)閉的是基于個(gè)性化分析的算法結(jié)果,而不是算法推薦本身,如抖音。程序上看,與不同意就無法使用的“同意困境”類似,拒絕權(quán)的行使,也存在“拒絕困境”。算法推薦的“一攬子同意,事后拒絕”模式,使得個(gè)人“無法事前行使拒絕權(quán)”?,事后拒絕也因程序設(shè)置的復(fù)雜,難以完全實(shí)現(xiàn)。

        表1 5 個(gè)應(yīng)用程序《隱私政策》部分內(nèi)容

        四、用戶自主性的規(guī)則重構(gòu)

        智能媒體正在通過算法或代碼重建一個(gè)新的虛擬世界,人在虛擬世界按照程序和算法所設(shè)定的“軌道”運(yùn)行,“代碼就是法律”(code is law)的論斷,預(yù)示著新型法律關(guān)系的產(chǎn)生,也清晰地表明代碼在虛擬社會(huì)的強(qiáng)制性和權(quán)力性。個(gè)體在算法指令的規(guī)劃和安排下,“人的自主創(chuàng)新和創(chuàng)造能力得到消弭,個(gè)體在不知不覺中成了米歇爾·???Michel Foucault)筆下所描述的‘馴順的肉體’”?。人如果完全淪為代碼對象,“人是機(jī)器”還是“機(jī)器是人”的話題可能不是僅停留在討論層面的問題,而會(huì)衍生成人類現(xiàn)實(shí)需要面對和解決的問題。面臨技術(shù)失控的危險(xiǎn),人類也將陷入前所未有的社會(huì)風(fēng)險(xiǎn)。

        因此,智能媒體時(shí)代,守住或者重塑人的主體性成為當(dāng)前不可回避的任務(wù)之一。算法權(quán)力,主要掌握在開發(fā)算法的技術(shù)公司和應(yīng)用算法的網(wǎng)絡(luò)平臺(tái)手中,相對于以政府為代表的“公權(quán)力”對社會(huì)關(guān)系而開展的治理權(quán)而言,技術(shù)公司和網(wǎng)絡(luò)平臺(tái)正在以“算法/代碼”為基礎(chǔ),形成能夠影響社會(huì)關(guān)系的“數(shù)字私權(quán)力”。作為對此“私權(quán)力”的規(guī)制回應(yīng),可以通過兩個(gè)途徑合力實(shí)現(xiàn):一是完善以政府為代表的公權(quán)力的合理配置,對算法和企業(yè)進(jìn)行監(jiān)管或規(guī)制;二是對個(gè)人私權(quán)利予以賦權(quán),使得個(gè)人有能力對不合理、不合法的數(shù)字化應(yīng)用或其結(jié)果進(jìn)行抵制。在政府、企業(yè)、用戶所蘊(yùn)含的“公權(quán)力—私權(quán)力—私權(quán)利”的三元博弈中,平衡算法的功能優(yōu)勢與尊重個(gè)體自主原則是算法未來發(fā)展的核心目標(biāo)。

        (一)自主性意識的構(gòu)建

        “自主意識有著強(qiáng)烈的表現(xiàn)自我、實(shí)現(xiàn)自我的欲望,這正是啟動(dòng)創(chuàng)造、施展創(chuàng)造的最深刻的內(nèi)在根源,也是創(chuàng)造千姿百態(tài)、殊相萬千世界的心態(tài)源頭。”?用戶自主性意識的構(gòu)建和強(qiáng)化,不僅需要用戶本身自主意識的覺醒,還需要能夠控制或者影響用戶行為的計(jì)算機(jī)程序或命令,在執(zhí)行中體現(xiàn)出對用戶自主性的尊重和認(rèn)可,并給予實(shí)現(xiàn)這種自主性的空間和途徑。

        人工智能的運(yùn)行邏輯或算法決策需要人在環(huán)中(human in the loop),無論是自動(dòng)駕駛,自動(dòng)飛行,還是智能醫(yī)療?,完全的算法或人工智能存在巨大風(fēng)險(xiǎn)。正因如此,世界各方正在從倫理和法律方面制定治理框架,強(qiáng)調(diào)人作為主體的自主意識。2017 年,生命研究所在阿西洛馬會(huì)議中心召開人工智能倫理道德會(huì)議,提出阿西洛馬人工智能原則,提出應(yīng)尊重人類價(jià)值(第11 條),包括“人的尊嚴(yán)、權(quán)利、自由和文化多樣性”?。2019 年4 月歐盟頒布高水平專家組撰寫的《可信任人工智能的倫理框架》,提出AI 的基本宗旨之一為“確保尊重人的自由和自治”?。2021 年11 月23 日,聯(lián)合國教科文組織193 個(gè)成員國一致通過《人工智能倫理問題建議書》,該建議書的目標(biāo)之一即“在人工智能系統(tǒng)生命周期的各個(gè)階段保護(hù)、促進(jìn)和尊重人權(quán)和基本自由、人的尊嚴(yán)和平等”?。

        盡管現(xiàn)在人工智能技術(shù)整體水平仍處于無自主意識的弱人工智能階段,人尚且可以控制人工智能,但隨著類似ChatGPT 等技術(shù)發(fā)展和進(jìn)步,可能很快就會(huì)進(jìn)入技術(shù)比肩人類的強(qiáng)人工智能階段。為避免產(chǎn)生人與技術(shù)工具主客體顛倒的異化現(xiàn)象,以及規(guī)避個(gè)體徹底淪為被數(shù)據(jù)化客體的風(fēng)險(xiǎn),人類更需要強(qiáng)化自主意識,尊重主體自主性。如果對人工智能不加限制地絕對相信,人終將走向鋪滿鮮花的地獄之門。

        (二)自主性在算法功能設(shè)置上的具體體現(xiàn)

        為避免人主體性的消解和自治性的喪失,需要賦予個(gè)體不同階段不受算法決策影響的權(quán)利,讓個(gè)體享有真正的意思自治,而不是成為數(shù)據(jù)化、客體化的對象和目標(biāo)。現(xiàn)代社會(huì),尊重和保證“人”的自主性和完整性的最佳途徑,即是將算法權(quán)力限制在一定的制度規(guī)則之中。在功能設(shè)計(jì)上,可以考慮從事前、事中、事后三個(gè)階段對算法予以重新構(gòu)建。

        1.事前拒絕算法的權(quán)利

        建議改變目前我國有關(guān)算法應(yīng)用的“一攬子同意、事后拒絕”模式,將是否使用算法的決定權(quán)提前至程序應(yīng)用之前,通過單獨(dú)的“知情同意”程序進(jìn)行告知。雖然用戶的拒絕權(quán)在事前及事后都可以行使,但二者之間存在較大區(qū)別:事前拒絕意味著自始拒絕,從源頭上遏制算法對個(gè)人數(shù)據(jù)的收集,使機(jī)器無法啟動(dòng)針對個(gè)人的算法程序。而事后拒絕,實(shí)質(zhì)上是一種救濟(jì)手段,僅在產(chǎn)生特定的推薦結(jié)果之后,數(shù)據(jù)主體可以拒絕其結(jié)果影響。

        源頭保護(hù)的事前權(quán)利的行使,較事后行使,更能有效阻斷算法技術(shù)的應(yīng)用。可以參照歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)的相關(guān)規(guī)定和做法,體現(xiàn)出主體對個(gè)人信息的自治性:第一,賦予數(shù)據(jù)主體事前拒絕算法決策的可能。如GDPR 第21 條規(guī)定,當(dāng)數(shù)據(jù)集合的用戶畫像是基于直接的市場營銷目的,數(shù)據(jù)主體有權(quán)在任何時(shí)候反對相關(guān)的自動(dòng)化決策。第二,知情同意規(guī)則需要“充分”且“明確”。GDPR 明令禁止默示同意(opt-out)的規(guī)則,要對進(jìn)行算法決策作出自主的(freely given)、特定的(specific)、知情的(informed)、明確的(unambiguous)同意,且需以清晰肯定的行為作出(opt-in)。第三,對企業(yè)應(yīng)用算法決策進(jìn)行限制。增加了事前告知義務(wù)、停止自動(dòng)化決策處理個(gè)人數(shù)據(jù)的義務(wù),以及對算法決策的事前與事后評估責(zé)任等一系列相關(guān)法律責(zé)任。

        2.事中行權(quán)精細(xì)化

        事中階段,賦予用戶各項(xiàng)權(quán)利是有效阻止算法技術(shù)的必要途徑,借助刪除權(quán)、知情權(quán)等權(quán)利,對算法施加人為干預(yù)?!秱€(gè)人信息保護(hù)法》對個(gè)人分別賦予處理權(quán)、查閱權(quán)、更正權(quán)和刪除權(quán)??梢哉f一定程度上滿足了個(gè)人在事中階段對算法服務(wù)提供者行權(quán)的基礎(chǔ)。但相比GDPR,我國相關(guān)規(guī)定在設(shè)計(jì)數(shù)據(jù)權(quán)利時(shí),還不夠精細(xì)化,可操作性不強(qiáng)。例如,《個(gè)人信息保護(hù)法》規(guī)定,對于自動(dòng)化決策作出的決定,若對個(gè)人權(quán)益有重大影響,則個(gè)體有權(quán)對該決策結(jié)果要求予以說明,并且還有權(quán)拒絕未有人工干預(yù)的純自動(dòng)化決策的決定。但是何為“重大影響”? 如何要求信息處理者“予以說明”? 如果“不予說明”應(yīng)當(dāng)如何救濟(jì)? 說明的語言應(yīng)當(dāng)達(dá)到何種清晰程度? 這些在我國的法律規(guī)定中均沒有詳細(xì)說明,因此條文規(guī)定本身的籠統(tǒng)性無法保障具體權(quán)利的落實(shí)和保障,時(shí)常讓人不知所措。

        3.事后救濟(jì)途徑

        事后階段的救濟(jì)途徑一般包括兩類: 一是拒絕算法推薦的約束,二是事后司法救濟(jì)。拒絕算法前文已述,目前我國法律并未表明個(gè)人享有完整的算法拒絕權(quán),用戶僅在某些情況下享有拒絕算法結(jié)果的權(quán)利,而非拒絕算法的權(quán)利。因?yàn)閷儆谑潞缶葷?jì),行為人怎樣行使拒絕權(quán),行使拒絕權(quán)后是不是就能完全避免自動(dòng)化決策作出決定,都具有不確定性。因此用戶希望不要等發(fā)生了算法決策的負(fù)面結(jié)果再去拒絕,而是可以從源頭上自始就拒絕使用算法進(jìn)行決策。例如對于是否可以發(fā)放貸款的決定,用戶不希望銀行首先通過算法進(jìn)行決策,做出不予貸款的決定之后,用戶再實(shí)施要求解釋或予以拒絕的權(quán)利,而是自始希望有人工參與決策,考慮更多不同的現(xiàn)實(shí)情況。因此對算法推薦的拒絕,應(yīng)置于“事前階段”,且需以單獨(dú)、明示的告知方式,取得用戶同意。

        在司法救濟(jì)方面,面對算法推薦的訴訟,結(jié)合已有部分訴訟案件,可以考慮適當(dāng)提高平臺(tái)責(zé)任或更加合理地分配舉證責(zé)任。如在“算法推薦第一案”愛奇藝訴字節(jié)公司案,原告愛奇藝稱享有電視劇《延禧攻略》排他性信息網(wǎng)絡(luò)傳播權(quán),在該劇播放期間,被告字節(jié)公司在其所運(yùn)營的今日頭條APP 上,未經(jīng)原告授權(quán),即向公眾傳播《延禧攻略》一劇的各類短視頻,包括切條、二次創(chuàng)作等多種形式。被告公司利用算法推薦技術(shù),使得這些短視頻被頻繁推薦。被告辯稱,今日頭條APP 僅是為用戶提供了信息存儲(chǔ)空間服務(wù),所有涉案短視頻均系用戶自行上傳,被告并未上傳任何侵權(quán)視頻。另外,被告對用戶上傳的內(nèi)容,均已盡到合理注意義務(wù),主觀上并不存在過錯(cuò),侵權(quán)行為不成立。但法院認(rèn)為,字節(jié)公司在本案中,提供的不僅是網(wǎng)絡(luò)空間信息存儲(chǔ)服務(wù),被告利用技術(shù)優(yōu)勢幫助用戶提高效率獲得更多信息的同時(shí),也在為自身獲得更多商業(yè)利益和競爭優(yōu)勢,因此理應(yīng)對用戶的侵權(quán)行為負(fù)有更高的注意義務(wù),故被告行為構(gòu)成侵權(quán)。?在另一起關(guān)于算法歧視的“劉權(quán)訴美團(tuán)外賣平臺(tái)案”中,法院沒有支持原告要求被告承擔(dān)侵權(quán)責(zé)任的訴請,因?yàn)榉ㄔ赫J(rèn)為原告僅能提供兩份訂單,試圖證明配送費(fèi)的差距,是無法證明外賣平臺(tái)存在“大數(shù)據(jù)殺熟”行為的。而且,兩份訂單下單時(shí)間不同,公司根據(jù)平臺(tái)交易量對配送費(fèi)進(jìn)行動(dòng)態(tài)調(diào)整,符合其自身經(jīng)營行為,故原告敗訴。?

        在《延禧攻略》案中,被告在運(yùn)用算法推薦技術(shù)擴(kuò)大傳播范圍、獲得更多優(yōu)勢和利益的同時(shí),也理應(yīng)承擔(dān)其帶來的風(fēng)險(xiǎn),應(yīng)對用戶的侵權(quán)行為負(fù)有更高的注意義務(wù),故法院判定其侵權(quán)成立。該案作為算法推薦司法第一案,為今后平臺(tái)使用算法推薦時(shí)應(yīng)承擔(dān)的注意義務(wù)提供了范例。在第二起美團(tuán)大數(shù)據(jù)殺熟案中,按照目前“誰主張、誰舉證”的證明責(zé)任,原告需要證明被告存在算法歧視明顯有困難,故建議考慮適當(dāng)提高算法服務(wù)提供者舉證責(zé)任。原告提供初步侵權(quán)證據(jù),例如有遇到價(jià)格不公的遭遇,以此證明侵權(quán)行為的存在,之后,應(yīng)當(dāng)由算法服務(wù)提供者證明其作出該決策的過程,以及由此產(chǎn)生的結(jié)果是符合相關(guān)法律規(guī)定,公平、公正且合理的,這樣可能更有利于用戶行使救濟(jì)權(quán)利。

        總之,“人”的概念在技術(shù)權(quán)力的推動(dòng)下不斷“滑坡”,科技不僅是人類進(jìn)化的工具和媒介,也逐漸成為人的欲望和力量的體現(xiàn)?,成為深刻改變?nèi)伺c自然關(guān)系的權(quán)力力量,尤其在智媒時(shí)代,所有人和物都可以通過算法生成和控制,人類生命的意義也不再那么崇高和絕對,僅是數(shù)據(jù)系統(tǒng)的一個(gè)組成部分而已。

        算法帶給社會(huì)的風(fēng)險(xiǎn)是隱秘的、擴(kuò)散的、系統(tǒng)的,僅靠喚醒人的自主性及個(gè)體賦權(quán),尚難以全面確保個(gè)體獲得逃離算法操控的基礎(chǔ)和能力。需要在具有共識的規(guī)則體系框架內(nèi),通過政府、企業(yè)、用戶的多元協(xié)同合作,客觀理性地認(rèn)識算法風(fēng)險(xiǎn),主動(dòng)構(gòu)建防御機(jī)制,增強(qiáng)個(gè)體權(quán)利效能,尊重“人”的自由意志,從而構(gòu)建尊重個(gè)體尊嚴(yán)與權(quán)利,并利于技術(shù)發(fā)展的平衡、共生的“人—機(jī)”智媒傳播生態(tài)體系。

        注釋:

        ① 單小曦、別君華:《人性化與自主性:媒介智能化進(jìn)化的內(nèi)在機(jī)制與雙重結(jié)構(gòu)》,《中國新聞傳播研究》,2019 年第6 期,第51 頁。

        ② 彭蘭:《“數(shù)據(jù)化生存”:被量化、外化的人與人生》,《蘇州大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版),2022 年第2 期,第160 頁。

        ③ Denise A Baker.Four Ironies of Self-Quantification:Wearable Technologies and the Quantified Self,Science and Engineering Ethics,https://doi.org/10.1007/s11948-020-00181-w,22 January 2020.

        ④ 隋巖:《群體傳播時(shí)代:信息生產(chǎn)方式的變革與影響》,《中國社會(huì)科學(xué)》,2018 年第11 期,第124 頁。

        ⑤ 於興中:《算法社會(huì)與人的秉性》,《中國法律評論》,2018 年第2 期,第57 頁。

        ⑥ 劉培、池忠軍:《算法的倫理問題及其解決進(jìn)路》,《東北大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版),2019 年第2 期,第119 頁。

        ⑦ Neyland D,Mllers N.Algorithmic IF...THEN Rules and the Conditions and Consequences of Power.Information,Communication & Society,vol.20,no.1,2017.p.2.

        ⑧ 衣俊霖:《數(shù)字孿生時(shí)代的法律與問責(zé)——通過技術(shù)標(biāo)準(zhǔn)透視算法黑箱》,《東方法學(xué)》,2021 年第4 期,第79 頁。

        ⑨ Stahl BC,Timmermans J,Mittelstadt BD.The Ethics of Computing:A Survey of the Computing-Oriented Literature.Acm Computing Surveys(CSUR),vol.48,no.4,2016.p.27.

        ⑩ 趙樂瑄:《APP 用戶協(xié)議與隱私政策,你真的讀過嗎?》,https://mp.weixin.qq.com/s/cYBatGkuT3Oz6DW7DcZcKg,2022 年4 月29 日。

        ? 光明日報(bào)與武漢大學(xué)聯(lián)合調(diào)研組: 《保障安全的“權(quán)利書”,還是竊取信息的“任意門”——App 隱私協(xié)議現(xiàn)狀調(diào)查》,https://baijiahao.baidu.com/s? id=1708521630294149131 & wfr=spider & for=pc,2021 年8 月19 日。

        ? 京東隱私政策:https://about.jd.com/privacy/,2022 年10 月26 日。

        ? Lilian Edwards & Michael Veale.Slave to the Algorithm:Why a Right to an Explanation Is Probably Not the Remedy You Are Looking For,16 Duke Law & Technology Review,vol.16,no.1,2017.p.81.

        ? 謝琳、曾俊森:《個(gè)體賦權(quán)在算法決策治理中的定位》,《法治社會(huì)》,2022 年第1 期,第91 頁。

        ? 楊立新、趙鑫:《利用個(gè)人信息自動(dòng)化決策的知情同意規(guī)則及保障——以個(gè)性化廣告為視角解讀〈個(gè)人信息保護(hù)法〉第24 條規(guī)定》,《法律適用》,2021 年第10 期,第27 頁。

        ? 盧衛(wèi)紅、楊新福:《人工智能與人的主體性反思》,《重慶郵電大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版),2023 年第2 期,第87 頁。

        ? 車洪波:《自主意識的由來與必然走向》,《學(xué)習(xí)與探索》,1997 年第1 期,第60 頁。

        ? 自動(dòng)駕駛事故指2018 年3 月18 日,uber 自動(dòng)駕駛汽車在亞利桑那州發(fā)生的交通事故。自動(dòng)飛行事故指2019 年3 月10 日,埃塞俄比亞航空波音737MAX8 飛機(jī)墜毀,事故由波音公司安裝的自動(dòng)駕駛操作系統(tǒng)(MCAS)造成。智能醫(yī)療事故指2021 年6 月,世界衛(wèi)生組織(WHO)發(fā)布“世界衛(wèi)生組織健康領(lǐng)域人工智能倫理與治理指南”(WHO Guidance on the Ethics and Governance of Artificial Intelligence for Health),《指南》指出人工智能在某些情況下?lián)p害人類自主決策,動(dòng)搖人類在知識生產(chǎn)中的中心地位,導(dǎo)致認(rèn)知權(quán)威發(fā)生偏移。

        ? Nancy Owano.Asilomar AI Principles: A Framework for Human Value Alignment,https://techxplore.com/news/2017-02-asilomar-ai-principlesframework-human.pdf,6 February 2017.

        ? EU.Ethics Guidelines for Trustworthy AI,https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html,8 April 2019.

        ? UNESCO.Recommendation on the Ethics of Artificial Intelligence,https://unesdoc.unesco.org/ark:/48223/pf 0000381137,23 November 2021.

        ? 北京市海淀區(qū)人民法院一審民事判決書,(2018)京0108 民初49421 號。

        ? 湖南省長沙市芙蓉區(qū)人民法院一審民事判決書,(2018)湘0102 民初13515 號。

        ? 張旭:《技術(shù)時(shí)代的責(zé)任倫理學(xué):論漢斯·約納斯》,《中國人民大學(xué)學(xué)報(bào)》,2003 年第2 期,第70 頁。

        猜你喜歡
        自主性權(quán)利決策
        為可持續(xù)決策提供依據(jù)
        我們的權(quán)利
        決策為什么失誤了
        論不存在做錯(cuò)事的權(quán)利
        法大研究生(2018年2期)2018-09-23 02:19:50
        英語學(xué)習(xí)的自主性及其教學(xué)應(yīng)用
        實(shí)用英語教材與藝術(shù)生自主性培養(yǎng)
        發(fā)揮主體作用,加強(qiáng)高中數(shù)學(xué)復(fù)習(xí)的自主性
        權(quán)利套裝
        Coco薇(2015年12期)2015-12-10 02:43:39
        維護(hù)科學(xué)的自主性
        愛一個(gè)人
        文苑·感悟(2012年12期)2012-12-13 01:53:52
        色屁屁www影院免费观看入口 | 亚洲中文字幕无码爆乳av| 久久久久国产一区二区三区| 99精品视频69V精品视频| 91麻豆精品激情在线观看最新| 亚洲成a人片77777kkkkk| 美女与黑人巨大进入免费观看| 国产不卡在线视频观看| 乱码丰满人妻一二三区| 成人性生交大片免费看r| 久久久久欧洲AV成人无码国产| 成人日韩av不卡在线观看| 自拍视频国产在线观看| 夜夜高潮夜夜爽免费观看| 亚洲精品少妇30p| 边啃奶头边躁狠狠躁| 在线永久看片免费的视频| 国产精品色内内在线播放| 玩弄丝袜美腿超短裙校花| 国产一品二品三区在线观看| 亚洲理论电影在线观看| 国产精品_国产精品_k频道| 日本丶国产丶欧美色综合| 日韩一区二区三区中文字幕| 精品乱色一区二区中文字幕| 变态调教一区二区三区女同| 国产二级一片内射视频插放| 国产极品美女高潮无套在线观看| 国产粉嫩嫩00在线正在播放| 亚洲一区二区三区在线激情| 亚州终合人妖一区二区三区| 国产国产人免费人成免费视频 | 无码电影在线观看一区二区三区| 日韩精品一区二区三区视频| 国产在线第一区二区三区| 精东天美麻豆果冻传媒mv| 久久久久久久性潮| 色综合久久精品中文字幕| 日韩av他人妻中文字幕| 亚洲av男人的天堂一区| 中国老熟妇506070|