亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        算法自動化決策的法律糾錯機制研究

        2021-07-06 20:06:48姚玲
        衛(wèi)星電視與寬帶多媒體 2021年7期

        【摘要】科技革命推動人類社會進入到以算法為中心的智能社會法律秩序,自動化決策在便利司法實踐的同時也帶來了巨大的風險與挑戰(zhàn)?!癈OMPAS預測罪犯再犯概率錯誤”、“GAAP加大數(shù)據(jù)鴻溝”等問題都凸顯了算法決策的不足。技術(shù)的進步與法治的發(fā)展呈現(xiàn)出不協(xié)調(diào)性,自動化決策糾錯的法律規(guī)制研究順理成章。

        【關(guān)鍵詞】算法解釋權(quán);決策影響評估機制;更正權(quán)

        中圖分類號:G212? ? ? ? ? ? ? ? 文獻標識碼:A? ? ? ? ? ? ? ? ? ? ?DOI:10.12246/j.issn.1673-0348.2021.07.091

        1. 算法自動化決策概念

        算法自動化決策是與自然人決策相對立的概念,意指利用計算機技術(shù)、算法程序、深度學習或神經(jīng)網(wǎng)絡(luò)替代自然人處理關(guān)鍵數(shù)據(jù),憑借其自動生成對數(shù)據(jù)主體具有法律效果的決策的行為?!吨腥A人民共和國個人信息保護法(草案)》將自動化決策定義為利用個人信息對個人的行為習慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,通過計算機程序自動分析、評估并進行決策的活動。

        在《通用數(shù)據(jù)保護條例》中自動化決策又稱為自主化的個人決策,其產(chǎn)生的合法性有三個途徑,一是基于數(shù)據(jù)主體明確同意后的自動化處理;二是基于數(shù)據(jù)主體和另外一個數(shù)據(jù)控制者合同履行的必要;三是在控制者為數(shù)據(jù)主體,以及確立保護數(shù)據(jù)主體權(quán)利、自由和正當化利益的適當措施是聯(lián)盟或成員國法律所規(guī)定時候。

        自動化決策根據(jù)數(shù)據(jù)模型對數(shù)據(jù)主體作出反應(yīng)或預測。因此,自動化決策分為預測型算法自動化決策和反應(yīng)型算法自動化決策,反應(yīng)型算法自動化決策的基本模型為收集數(shù)據(jù)——匹配條件——作出決策;預測性算法自動化決策是指根據(jù)以往的數(shù)據(jù)資料,預先對數(shù)據(jù)主體作出判斷,最常見的預測性算法自動化決策是根據(jù)某人征信記錄來限制高消費。預測型算法可以在事情發(fā)生之前調(diào)配資源進行合理分配,實現(xiàn)利益最大化。

        2. 算法自動化決策的弊端

        2.1 算法“黑箱”遮蔽當事人知情權(quán)

        算法“黑箱”產(chǎn)生于信息的不對稱和不公開。技術(shù)本身的復雜性以及媒體機構(gòu)、技術(shù)公司的排他性商業(yè)政策,使得算法猶如一個未知的“黑箱”——用戶并不清楚算法的目標和意圖,也無從獲悉算法設(shè)計者、實際控制者以及機器生成內(nèi)容的責任歸屬等信息,更談不上對其進行評判和監(jiān)督。算法自動化決策的重要特點之一是在瞬間作出決定,因此信息處理者在每一次處理個人信息前想要取得每個信息主體的知情同意是不切實際的。從技術(shù)層面而言,每次的發(fā)送與反饋給節(jié)點帶來了太多負擔;從經(jīng)濟利益角度看,取消通知環(huán)節(jié)能夠追求更多的利益,在巨大的利益面前,當事人的權(quán)利自然得不到重視。

        2.2 算法歧視損害社會平等權(quán)

        從數(shù)據(jù)客觀主義出發(fā),大多數(shù)人認為算法結(jié)果是完全中立的。但實踐證明,邏輯上的中立并不等同于結(jié)果上的中立,即使是在事前預先設(shè)立的統(tǒng)一標準指令也可能表現(xiàn)出偏見,算法程序在預先編寫時將人類的歧視文化連同數(shù)據(jù)一起歸納。只歸納不演繹,對樣本數(shù)據(jù)偏見的輸入使得算法自動化決策建立在通過刻板印象所形成的范疇上。針對一個新來的數(shù)據(jù)主體,計算機在沒有外界所介入和更正的情況下,按照已知的數(shù)據(jù)特征將其自動歸屬于“最像”的那個類中。不考慮其他外在因素,只計算樣本結(jié)果并依此作出決定,必然會擴大偏見與不公。與計算機相比,人腦在數(shù)據(jù)精準性上固然無法匹敵,但排除人腦的綜合考慮因素和主觀情感,以及某些時候數(shù)據(jù)無意缺失導致算法“雙眼”的蒙蔽,在瞬間將某人分類的預前判斷帶來的是道德和倫理上的社會歧視。一個剛出獄的犯人可能因為算法的提前預判而失去改過自新的機會從而無法回歸社會,社會鴻溝在無形中進一步加劇,法律所提倡的人人平等也因為過度信賴數(shù)據(jù)而導致形同虛設(shè)。

        2.3 算法壟斷侵蝕程序正義

        算法技術(shù)作為商業(yè)秘密,期源代碼都處于隱藏狀態(tài),運行方式并不公開。當算法作出具有法律效應(yīng)的決策時,數(shù)據(jù)主體并沒有參與其中,在得出結(jié)果的途中程序正義被忽視。技術(shù)公司壟斷了硬件與算法系統(tǒng)的開發(fā)、設(shè)計和使用,在使用數(shù)據(jù)主體數(shù)據(jù)的同時卻拒絕對公眾公布算法收集處理數(shù)據(jù)的權(quán)限和過程,正當程序在某種程度上被架空,當事人無法參與決策過程。當事人參與決策過程是為了更好的事實認定和法律適用,但由于算法技術(shù)壟斷,法院在適用決策結(jié)果時傾向于認定該結(jié)果是正確的,然后依照結(jié)論去推導過程。因為技術(shù)的不透明和壟斷性,當事人很難參與到?jīng)Q策中去,程序上的權(quán)利被架空。算法作為一種極為復雜的技術(shù),拉開了數(shù)據(jù)主體和數(shù)據(jù)控制者之間的差距,后者享有某種獨特的算法權(quán)力。

        3. 算法自動化決策的法律糾錯機制

        3.1 落實算法解釋權(quán)

        算法“解釋權(quán)”是指數(shù)據(jù)主體有權(quán)要求數(shù)據(jù)控制者對算法決策的目的、過程、結(jié)果進行解釋。早在1995年,歐美《數(shù)據(jù)保護指令》12條就規(guī)定了數(shù)據(jù)主體有權(quán)了解其個人數(shù)據(jù)如何被處理及數(shù)據(jù)自動化處理系統(tǒng)的內(nèi)在邏輯?!秱€人信息保護法(草案)》第四十八條規(guī)定,個人有權(quán)要求個人信息處理者對其個人信息處理規(guī)則進行解釋說明。但提出并不等于落實,草案中所規(guī)定的數(shù)據(jù)主體所擁有的算法解釋權(quán)在具體落實上存在一些問題:1、算法解釋權(quán)作為一種請求權(quán),僅限于個人認為自動化決策對其產(chǎn)生重大影響時才能行使;2、數(shù)據(jù)主體行使請求權(quán)的范圍尚不明確,導致數(shù)據(jù)控制者以企業(yè)享有商業(yè)秘密為由對抗算法解釋權(quán);3、算法的專業(yè)性和復雜性使得數(shù)據(jù)主體對解釋的內(nèi)容無法進行核實。

        算法解釋權(quán)作為一種請求權(quán),應(yīng)當從權(quán)利本身構(gòu)成要件入手,對該項請求權(quán)的內(nèi)核和外延予以精細化設(shè)計,為落實算法解釋權(quán)提供切實可行的操作指南。首先,行權(quán)應(yīng)當確權(quán),一方面預先設(shè)定權(quán)利所包含的內(nèi)容可以起到指導作用,另一方面內(nèi)容的確定也是對于權(quán)利主體的一種約束,無限擴大權(quán)利內(nèi)容會侵犯企業(yè)的商業(yè)秘密阻礙經(jīng)濟發(fā)展。其次,降低數(shù)據(jù)主體對于其權(quán)益造成重大影響這一事實的舉證責任,只要主體認為自動化決策對其權(quán)益產(chǎn)生重要影響,就應(yīng)當賦予其算法解釋請求權(quán),不要求主體具體說明其權(quán)益受到了多少損害。最后,解釋方在收到數(shù)據(jù)主體解釋請求權(quán)時,應(yīng)該采取最通俗易懂的語言來描述其對于數(shù)據(jù)主體信息的利用和控制。

        3.2 構(gòu)建算法決策影響評估機制

        算法自動化決策在投入使用前應(yīng)該經(jīng)過公眾參與評估,影響評估機制既能擴大社會參與度,也能監(jiān)督數(shù)據(jù)控制者和使用者。2018年4月,AI Now研究院就發(fā)布了一份有關(guān)算法影響評估(AIA)的報告,針對可能對數(shù)據(jù)主體權(quán)利造成影響的算法自動化決策系統(tǒng),應(yīng)允許社區(qū)和利益相關(guān)者進行評估,以確定是否可以以及在什么領(lǐng)域使用算法。我國也采用這種方法。個人算法決策影響評估機制應(yīng)包含主體、內(nèi)容、模型建構(gòu)以及結(jié)果應(yīng)用四個緯度。在評估主體上應(yīng)該引入第三方輔助機制,算法評估是一項對技術(shù)要求比較高的活動,對于參與者的專業(yè)素養(yǎng)要求較高,一般普通人很難具有相關(guān)的知識水平,為了保證評估的準確性,數(shù)據(jù)主體有權(quán)聘請具有相關(guān)知識的人介入其中輔助理解算法含義。在評估內(nèi)容方面,評估者應(yīng)向公眾解釋所采取的評估機制是什么,他們獲取個人數(shù)據(jù)的途徑、使用目的、范圍、時間、使用方法等。同時,問卷的編寫不能只依靠評估者,對于樣本數(shù)量的采集一定要盡可能保持全面和公正,使所得出來的結(jié)果具有彈性。在評估機制模型建構(gòu)上,考慮到數(shù)據(jù)的不完整性和復雜性,采取貝葉斯網(wǎng)絡(luò)模型可以更加清楚實現(xiàn)了解眾多因素和決策影響之間的聯(lián)系。經(jīng)過數(shù)據(jù)主體參與評估所得出來的結(jié)果數(shù)據(jù)應(yīng)用遵循“數(shù)據(jù)→評估報告→決策”的實踐邏輯,數(shù)據(jù)和分析結(jié)果之間一一對應(yīng),分析結(jié)果和決策之間一一對應(yīng)。決策實施后,評估者應(yīng)該審核程序,發(fā)現(xiàn)、衡量或長期追蹤系統(tǒng)的影響風險評估報告和處理情況記錄應(yīng)當至少保存三年。

        3.3 賦予數(shù)據(jù)主體“更正權(quán)”

        “更正權(quán)”賦予數(shù)據(jù)主體在自動化決策產(chǎn)生錯誤時向數(shù)據(jù)控制者提出異議且要求數(shù)據(jù)控制者進行更正決策的權(quán)利。目前我國對于數(shù)據(jù)主體的“更正權(quán)”定義為:本人得以請求信息處理主體對不正確、不全面、不時新的個人信息進行更正與補充的權(quán)利。其包含錯誤信息修改權(quán)與過期信息更新權(quán)兩個方面。法律僅僅賦予了自然人個人信息更正權(quán),沒有賦予其他組織,對于其他組織的保護一片空白。其次,法人也僅能更正個人信息錯誤處或更新已經(jīng)過時的個人信息,對于自動化決策本身的價值還是肯定的,偏信決策的誤差來源于數(shù)據(jù)的錯誤。數(shù)據(jù)主體想要改變自動化決策只有當利益受損后向法院提起民事訴訟、行政復議、行政訴訟。因此,賦予數(shù)據(jù)主體自動化決策更正權(quán)是有現(xiàn)實意義的。

        數(shù)據(jù)主體行使“更正權(quán)”不能僅簡單將個人信息數(shù)據(jù)核實、更新后再次輸入算法程序進行決策,當在數(shù)據(jù)主體提出自動化決策結(jié)果錯誤并且證明確有錯誤后,應(yīng)對算法程序保有懷疑并適當進行人工介入。

        4. 結(jié)語

        媒介的發(fā)展讓社會變得扁平化,但自動化決策過程卻并不是公開的,“讓所有人看到你的決策”不意味著讓所有人參與自己的決策。算法黑箱、算法歧視、算法壟斷以及知識鴻溝的出現(xiàn)使得數(shù)據(jù)主體無從知曉決策的原因,效率提高的同時人們的權(quán)益也在不斷被侵害。問題解決的核心不在于算法應(yīng)不應(yīng)該作出決策,而在于算法是否能作出準確決策,以及事后能否給予救濟,賽博空間也需要法律來維持穩(wěn)定。

        參考文獻:

        [1]唐林垚.“脫離算法自動化決策權(quán)”的虛幻承諾[J].東方法學,2020(06):18-33.

        [2]張凌寒.算法自動化決策與行政正當程序制度的沖突與調(diào)和[J].東方法學,2020(06):4-17.

        [3]張玉宏,秦志光,肖樂.大數(shù)據(jù)算法的歧視本質(zhì)[J].自然辯證法研究,2017,33(05):81-86.

        [4]解正山.算法決策規(guī)制——以算法“解釋權(quán)”為中心[J].現(xiàn)代法學,2020,42(01):179-193.

        [5]鄒東升,陳昶."數(shù)據(jù)式"社會穩(wěn)定風險評估:困境、邏輯與路徑[J].情報雜志,2020,39(5):129-136.DOI:10.3969/j.issn.1002-1965.2020.05.020.

        [6]胡文娟.公共機構(gòu)應(yīng)如何評估算法決策的影響[J].WTO經(jīng)濟導刊,2018,No.174(04):51-52.

        [7]齊愛民.論個人信息的法律保護[J].蘇州大學學報,2005(02):30-35.

        作者簡介:姚玲,湖南工商大學法學與公共管理學院碩士研究生,研究方向為法理學。

        性感的小蜜桃在线观看| 色爱区综合五月激情| 亚洲中文字幕无码中文字| 亚洲成av人片在www| 久久免费看少妇高潮v片特黄 | 洗澡被公强奷30分钟视频| 毛片无遮挡高清免费久久| 色青青女同性恋视频日本熟女 | 国内精品久久久久久中文字幕| 国产精品18久久久久久不卡中国 | 国产好片日本一区二区三区四区| 蜜桃传媒免费在线观看| 欧美最猛黑人xxxx| 国内a∨免费播放| 久久久亚洲精品蜜桃臀 | 东京热久久综合久久88| 亚洲色图在线视频免费观看| 中文字幕一区二区三区乱码人妻| 一区二区三区四区国产99| www插插插无码视频网站| 久久久久99精品国产片| 亚洲AV成人无码天堂| 五月激情四射开心久久久| 国产人妻大战黑人20p| 先锋影音最新色资源站| 在线亚洲+欧美+日本专区| 日韩av一区二区三区精品| 午夜视频在线观看日本| av天堂午夜精品一区| 人妻聚色窝窝人体www一区| 亚洲手机国产精品| 成人短篇在线视频夫妻刺激自拍 | 精品少妇人妻成人一区二区| 伊人五月亚洲综合在线| 免费在线观看av不卡网站| 亚洲国产午夜精品理论片在线播放| 日本污视频| 亚洲激情视频在线观看a五月| 性做久久久久久免费观看| 香蕉久久福利院| 精品少妇一区一区三区|