亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        “算法歧視”法律規(guī)制的路徑研究

        2023-12-19 21:01:39嚴夢婷
        法制博覽 2023年32期

        嚴夢婷

        青島科技大學,山東 青島 266061

        一、算法歧視的表現(xiàn)形式

        算法歧視也稱算法偏見,指算法把相同事物給予不平等、不合理的區(qū)別對待。歧視問題的出現(xiàn)是一個長久且難以克服的社會現(xiàn)象,這也是我們現(xiàn)代社會亟需解決的。算法技術(shù)通過大數(shù)據(jù)和深度學習能力進行數(shù)據(jù)的自動化整合,在一定程度上克服了人們自主決策的主觀性。由于實踐中算法決策者數(shù)據(jù)采樣的片面化、算法黑箱等人為因素的原因,將已有的偏見編寫進算法中,由此得出的運算結(jié)果不可避免地產(chǎn)生了歧視,其中包括價格歧視、種族歧視、身份歧視等。我國雖然在一定程度上抑制了算法歧視的產(chǎn)生,但是算法歧視的規(guī)制體系仍不完整。在不同情境之下,算法歧視行為存在不同的表現(xiàn)形式,對個體權(quán)利也造成了不同形式的損害。

        在信息獲取層面,首先,依賴算法技術(shù)所產(chǎn)生的個性化推薦會阻礙個人對于不同類型信息進行自由選擇的權(quán)利,個性化推薦帶來的信息“過濾氣泡”問題影響對個人判斷、決策的抑制,進而不可避免地產(chǎn)生人的視野狹窄、立場固化等認知能力問題;其次,算法技術(shù)的深度學習能力很大程度上依托于大量數(shù)據(jù)的收集和整合,而信息收集過程中極易導致對個人信息權(quán)益的侵犯,例如一些不愿意被他人所知的搜索瀏覽記錄卻可能被大量傳輸出去,獲取位置等敏感信息,甚至進行跨平臺的行為追蹤。

        在市場消費層面,“算法殺熟”是目前對作為消費者的個人影響最大的算法歧視行為,其最初是指以平臺用戶為侵害對象,多表現(xiàn)為消費者在短時間內(nèi)對某個內(nèi)容頻繁搜索,算法就會因為該行為采取個性化定價策略從而進行價格歧視。例如,在一家餐館中,顧客根據(jù)其所使用的菜品、價格、位置等因素在APP 中選擇了一家餐館并進入餐館進行就餐,該APP 的算法就會根據(jù)該顧客所選擇的菜品以及其所使用的位置等因素來進行個性化推薦。此時,如果顧客在進入餐館后選擇了一款價格較高的菜品并進入餐館就餐,那么此時該顧客就受到算法歧視的影響。且經(jīng)營者往往會為了提升自身的競爭力,利用“算法殺熟”等手段,打破博弈規(guī)則,改變市場運行結(jié)構(gòu),擾亂社會市場經(jīng)濟秩序,因此對企業(yè)進行監(jiān)管具有必要性。從整體來看,算法歧視會導致不同主體間利益受損。

        二、算法歧視的產(chǎn)生原因

        (一)算法程序本身存在局限性

        首先,算法是一種在計算機上構(gòu)建和運行的程序,其運行過程和結(jié)果受計算機的算力限制,采用固有的算法邏輯屬性,無法做到真正的“隨機”。然而,人類會根據(jù)某個事件的特殊性,根據(jù)經(jīng)驗判斷作出具有針對性的決策。其次,算法在實際應用中需要大量的數(shù)據(jù)進行訓練才能形成自身的智能,但由于數(shù)據(jù)本身存在較多的限制(如數(shù)據(jù)樣本的大小、樣本分布情況等),導致算法所需數(shù)據(jù)難以滿足。最后,算法對現(xiàn)實世界中復雜因素的分析往往有一定滯后性,難以及時有效作出相應調(diào)整。

        (二)算法具有預置性偏見

        一方面算法設(shè)計者主觀上存在認知的偏見價值融合形成算法歧視,因為人類根據(jù)思想意識固有的對各個方面的偏見,使得算法在一定程度上具有預置性偏見。例如,一個人在很長一段時間內(nèi)每天都吃巧克力,那么該算法就會認為該人“喜歡吃巧克力”,但如果這個人某一天突然喜歡上了喝咖啡,該算法則不會認為這個人“喜歡喝咖啡”,依然認為他“喜歡吃巧克力”;另一方面算法技術(shù)運行過程中存在缺陷,學習功能的算法過濾標準過于寬松。當前,算法通過對人類的信息和數(shù)據(jù)的收集、分類、學習將問題分解,建立數(shù)據(jù)集,予以標簽化,再根據(jù)算法自身的學習對個體進行歸類與預測。如果恰好是依據(jù)帶有偏見的數(shù)據(jù)所作出的決策也會具有偏見性,無法對信息進行甄別和篩選,利用歷史數(shù)據(jù)訓練算法會加重歧視的產(chǎn)生,出現(xiàn)例如種族歧視、性別歧視或就業(yè)歧視等問題。

        (三)算法黑箱的負面影響

        當今數(shù)字經(jīng)濟不斷發(fā)展,算法的問題愈發(fā)復雜,甚至連設(shè)計者都無從解釋算法的自主決策的結(jié)果是從哪里得出的,就如,時下最火的ChatGPT是美國人工智能研究實驗室OpenAI 新推出的一種人工智能技術(shù)驅(qū)動的自然語言處理工具,適用了神經(jīng)網(wǎng)絡架構(gòu)——GPT-3.5 架構(gòu),這是一種處理序列數(shù)據(jù)的模型,擁有語言理解和文本生成能力。設(shè)計者們基于該結(jié)構(gòu)對其進行訓練,判斷這個是A,那個不是A 的過程,該過程體現(xiàn)出復雜性和不透明性,且由于高度的專業(yè)性會產(chǎn)生巨大的“數(shù)字鴻溝”問題[1]。算法設(shè)計者不會將數(shù)據(jù)輸入及決策輸出過程的源代碼公之于眾,正是由于一些神經(jīng)網(wǎng)絡技術(shù)性問題,人們無法充分了解算法內(nèi)部的決策歸責,導致透明性和解釋性不足從而產(chǎn)生了算法黑箱,引發(fā)歧視的出現(xiàn)。

        三、算法規(guī)制的路徑探索

        (一)算法規(guī)制的境外經(jīng)驗

        早在我國使用算法技術(shù)之前,以歐盟為代表的歐美國家對算法相關(guān)問題進行深入研究,相對來說我國關(guān)于算法規(guī)制水準的起步是較落后于這些國家的。歐盟大部分學者都認為,數(shù)據(jù)是算法的基石,具有支撐作用[2]。2018 年歐盟已經(jīng)出臺《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,以下簡稱“GDPR”)對人工智能(AI)有著極大的約束作用。首先在前言中就肯定了個人信息保護是一項基本權(quán)利,GDPR 的管轄范圍很寬,既能規(guī)范歐盟境內(nèi)個人信息處理的活動,也能規(guī)范歐盟境外的相關(guān)活動。2022 年歐盟頒布的《數(shù)字服務法》(Digital Services Act,以下簡稱“DSA”),其主要是規(guī)制企業(yè)和平臺追責問題。DSA 對數(shù)據(jù)的采集、存儲等各方面問題都做了相對明確的規(guī)定,其中還特別說明了對數(shù)據(jù)要公開透明提供解釋,要將數(shù)據(jù)責任落實到位。

        美國采取了一條與歐盟算法不同的路徑,就是用風險管控模式對算法進行有效規(guī)制。美國政府期望能夠借助各個行業(yè)通過自身約束來減少算法歧視,與此同時應當對算法規(guī)制原則進行強化。

        (二)我國算法歧視的法律規(guī)制路徑

        1.強化算法權(quán)利意識和個人信息權(quán)益保護

        我國已通過相關(guān)的法律法規(guī)對算法權(quán)利進行了相應的規(guī)定,例如《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)、《中華人民共和國數(shù)據(jù)安全法》以及《信息安全技術(shù)—個人信息安全規(guī)范》(GB/T 35273-2020)。但是,這些法律法規(guī)的規(guī)定過于籠統(tǒng),在實際操作過程中仍然存在較多問題。

        一方面要明確算法權(quán)利的內(nèi)涵與外延。首先,對于算法權(quán)利的內(nèi)涵需要進一步界定,應將其從一般權(quán)利中分離出來,同時明確其與其他權(quán)利之間的關(guān)系。其次,對于算法權(quán)利的外延需要進行一定的擴充。算法權(quán)利應包括但不限于以下內(nèi)容:算法知情權(quán)、算法選擇權(quán)、算法解釋權(quán)、算法撤回權(quán)、算法救濟權(quán)、算法終止權(quán)等。另一方面要完善個人信息權(quán)益的保護機制,詳細規(guī)定公民數(shù)據(jù)攜帶權(quán)以及對被遺忘權(quán)的保護。數(shù)據(jù)攜帶權(quán)可以明確數(shù)據(jù)權(quán)利的歸屬,可以因此規(guī)制數(shù)據(jù)控制者,且主體可以根據(jù)自己的意愿攜帶個人數(shù)據(jù)進入到不同的算法決策體系中。個人信息被遺忘權(quán)是指用戶可以刪除個人數(shù)據(jù)的權(quán)利,亦有學者稱之為刪除權(quán)。被遺忘權(quán)不僅可以通過對個人信息的保護,避免一些帶有隱私性的信息流通,還可以抵御算法的規(guī)制,允許主體對被獲取的數(shù)據(jù)進行刪除。如“李某鑫案件”中,由于其被大眾誤解受到各種指責和歧視,嚴重影響其日常生活,盡管已澄清事實,但是網(wǎng)絡上留下的痕跡仍然存在,因此賦予被遺忘權(quán)利大于弊。

        2.加強企業(yè)合規(guī)體系建設(shè)

        隨著數(shù)字經(jīng)濟快速發(fā)展,我國持續(xù)加強企業(yè)相關(guān)法律法規(guī)建設(shè)、壓實企業(yè)主體合規(guī)責任,鼓勵企業(yè)創(chuàng)新發(fā)展、提升服務質(zhì)量、加大反壟斷監(jiān)管力度[3]。

        加強企業(yè)合規(guī)體系建設(shè),首先,企業(yè)要加強設(shè)計者的職業(yè)道德水準,定期組織法律法規(guī)的學習,對關(guān)鍵環(huán)節(jié)進行重點審查,避免偏見;其次,企業(yè)應當建立起完善的數(shù)據(jù)采集制度,將收集到的數(shù)據(jù)進行分類管理,制定規(guī)范細則要求,避免因數(shù)據(jù)缺失或不均而產(chǎn)生算法歧視問題。最后,建立數(shù)據(jù)安全管理制度和安全保護技術(shù)措施,定期進行數(shù)據(jù)安全風險評估。針對算法在設(shè)計過程中的技術(shù)缺陷問題,企業(yè)在進行數(shù)據(jù)處理時,進行再監(jiān)督審查,防止數(shù)據(jù)泄露、篡改、丟失,防止未經(jīng)授權(quán)的訪問,防止利用數(shù)據(jù)分析結(jié)果從事違法犯罪活動等,做好風險防控及風險預判。對于具有學習功能的算法,企業(yè)在收集和使用個人信息時,應告知其收集和使用的目的、方式和范圍,并經(jīng)被收集者同意,不得違反法律法規(guī)的規(guī)定和雙方的約定收集、使用個人信息,應當公開處理規(guī)則,并保障個人的知情權(quán)、選擇權(quán)等合法權(quán)益,從而減少算法歧視帶來的損害。

        3.加強對算法歧視行為的審查監(jiān)督

        要完善算法應用的審查監(jiān)督制度。數(shù)字算法公開性、透明性的問題,是數(shù)字時代的核心問題。算法黑箱造成的隱患已經(jīng)引起了公眾的廣泛重視,當這種現(xiàn)象成為一種隱性規(guī)則時,只有通過對算法歧視行為進行外部施壓,用社會法制規(guī)制“黑箱”問題。雖然,我國在2021 年施行的《個人信息保護法》中對個人信息處理者和數(shù)據(jù)處理者提出了相應的審查義務,但沒有對算法歧視設(shè)計主體的行為規(guī)范進一步規(guī)定[4]。因此,在算法投入應用階段必定要進行審查監(jiān)督。

        首先,由行業(yè)協(xié)會對企業(yè)算法的設(shè)計、運行等過程進行事前審查和事中評估。進行事前審查保證價值導向,從而在價值上引導避免算法決策歧視性結(jié)果的發(fā)生;對企業(yè)事中評估防止偏見的產(chǎn)生,通過存在偏見性決策的結(jié)果,評估企業(yè)是否具有完善的合規(guī)體系以及有效避免該風險發(fā)生的能力;對違法違規(guī)行為進行糾正、督促整改,促進算法倫理和法治建設(shè)。其次,基于算法涉及的內(nèi)容廣泛,建立單一的算法部門不能夠把握算法控制權(quán)的主動性,且無法適應現(xiàn)代社會發(fā)展,應當由多個部門協(xié)同監(jiān)管。因此筆者認為應當在立法中明確監(jiān)管的相關(guān)主體,加強對算法歧視行為的審查監(jiān)督,正確引導算法的價值導向[5],以提高算法透明度達到可解釋性的標準,對經(jīng)營者的算法安全評估進行審查,確定其具有控制算法風險的能力。

        4.明確算法歧視行為的責任分擔

        算法歧視容易引發(fā)一系列對公民權(quán)益損害、侵權(quán)的風險,因此需要確定侵權(quán)行為發(fā)生時各方主體之間的責任,使受害者的救濟落實。應從法律責任主體、法律責任的歸責原則兩個方面進行界定[6]。

        對于算法歧視的責任主體而言,首先,應明確網(wǎng)絡服務提供者的責任。網(wǎng)絡服務提供者在算法設(shè)計、運行、應用等過程中對用戶權(quán)利造成侵害的,應當承擔相應的責任。其次,應明確相關(guān)監(jiān)管主體的責任。在事后監(jiān)管環(huán)節(jié),可以依據(jù)法律法規(guī)、標準等對算法所造成的侵權(quán)行為進行處罰。

        在算法歧視的歸責原則方面,有學者將算法歧視原則歸責為無過錯原則,對網(wǎng)絡服務提供者過于嚴苛,且不利于算法技術(shù)的發(fā)展。有的學者認為直接采取過錯推定原則,亦無法保護公民的合法權(quán)益。筆者認為應當根據(jù)過錯推定原則和無過錯原則來確定算法歧視的責任主體。首先,在算法歧視的過錯推定方面,應明確在算法設(shè)計階段,網(wǎng)絡服務提供者未履行“告知義務”或者“公平、合理的注意義務”的,應推定網(wǎng)絡服務提供者存在過錯。其次,在算法運行階段,網(wǎng)絡服務提供者應當采取有效措施對算法運行情況進行監(jiān)測,發(fā)現(xiàn)算法有歧視或歧視行為的,應及時糾正或采取相關(guān)措施。

        一本色道久久hezyo无码| 日本草逼视频免费观看| 日韩av天堂综合网久久| 色噜噜亚洲男人的天堂| 国产国拍精品av在线观看按摩| 亚洲免费观看网站| 日本精品一区二区三区在线播放| 少妇一区二区三区久久| 亚洲精品成人无码中文毛片| 99在线播放视频| 久久精品国产亚洲av高清蜜臀 | 91精品全国免费观看青青| 国产成人高清亚洲一区二区| 国产亚洲欧美精品永久| 国产高清在线精品一区| 麻豆国产乱人伦精品一区二区| 全程国语对白资源在线观看 | 亚洲一区二区三区香蕉| 国产精品久免费的黄网站| 亚洲国产精品夜男人天堂| 亚洲国产一区二区三区| 精品9e精品视频在线观看| 一本久道久久综合五月丁香| 亚洲精品综合久久中文字幕| 日本成本人片视频免费| 亚洲中文字幕无码久久2020| 中国人妻沙发上喷白将av| 人妖一区二区三区在线| 久久成人国产精品免费软件| 国产女人18一级毛片视频| 亚洲一区二区一区二区免费视频| 18禁裸体动漫美女无遮挡网站| 少妇高潮潮喷到猛进猛出小说| 免费一级国产大片| 91九色熟女潮喷露脸合集| 国产欧美日韩精品专区| 四虎永久在线精品免费观看地址| 亚洲女同恋中文一区二区| 久久久久亚洲av成人人电影| 日韩好片一区二区在线看| 国产精品一区二区AV不卡|