亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人臉識別的應用困境與治理路徑

        2021-04-09 02:38:17郭銳卞哲
        可持續(xù)發(fā)展經濟導刊 2021年3期
        關鍵詞:人臉識別人工智能

        郭銳 卞哲

        人臉識別技術是基于人的面部特征信息進行身份識別的一種生物識別技術。近年來,人臉識別技術在經濟文化發(fā)展、國家安防管理及社會公共利益等方面有諸多用途,如尋找走失兒童、追蹤罪犯、更方便地接入智能手機和取款機、幫助機器人通過識別身份和情感與人類互動,還可以在一些醫(yī)學研究中協助診斷或遠程跟進患者的治療情況。

        然而,一項可以在人們不知情的情況下遠程識別并區(qū)別對待的技術,存在非常危險的可能性。麻省理工學院(MIT)算法決策研究者切爾西·巴拉巴斯(Chelsea Barabas)指出,“人工智能領域的痛苦在于,它沒有看到自己的工作如何與科學的悠久歷史相吻合,科學被用來將針對邊緣人群的暴力合法化,并把人們分層和分離?!?1社會需要一個真正覺醒的時刻,讓我們更清楚、更敏銳地意識到人臉識別技術的問題。

        人臉識別的困境:隱私與公平性

        除了目前在準確率、穩(wěn)健性、安全性等技術本身的局限,人臉識別的主要困境存在于隱私與公平性兩個層面。人臉信息與傳統(tǒng)的隱私不同,它既涉及有關人格權、肖像權的私法問題,也因公共行政的廣泛使用而應在公法上予以審慎對待。在公平性問題中,一方面是個人的平等保護,另一方面是公共秩序的需求。然而,追求平衡也許是一個誤區(qū)——解決人臉識別帶來的問題,并不能求助于個案中私益與公益的平衡,而應致力于合理而明確的規(guī)制。單純的利益平衡會使人臉識別的問題陷入倫理相對主義的泥沼。2

        人臉識別帶來的公平性的困境,源于數據與算法。3在看似中立的人臉識別算法中,或者因算法設計者的偏見,或者訓練算法時使用了有問題的數據集,會使人臉識別出現歧視性結果。麻省理工學院同行評審研究發(fā)現,與其他類似軟件相比,Rekognition系統(tǒng)識別女性和黑人的正確率很低,據《紐約時報》報道,該軟件將女性誤認為男性的比例高達19%;如果納入膚色進行統(tǒng)計,則有31%的黑人女性被標記為男性。4該種差錯往往導致歧視的結果,這也是為什么在喬治·弗洛伊德之死引起的全美抗議中,示威者的訴求中便包括要求警方放棄人臉識別技術。5

        此外,算法歧視還可能提高社會偏見和刻板印象的風險。人臉識別在認證面部信息的同時,也在后臺認證基于人臉識別和多種個人數據形成的用戶畫像。因此,它并非為了在證明個體基礎身份上實現“去身份化”,而是進一步豐富細化個人的數字身份,因而可能加劇“身份”對個體的不良影響。6

        人臉識別治理路徑的探索

        鑒于人臉識別出現的問題,世界范圍內多國紛紛尋求人臉識別的治理路徑。在歐洲,歐盟監(jiān)管機構的工作重點是,針對人臉識別技術創(chuàng)建一個適用于行政和商業(yè)領域的統(tǒng)一監(jiān)管框架,歐盟的成員國則提供補充或具體國家的指導。歐盟于2020年12月15日提出《數字服務法》(Digital Service Act, DSA)與《數字市場法》(Digital Market Act, DMA)草案,均涉及到個人信息與隱私保護的問題,意圖通過強而有力的監(jiān)管架構,形成兼顧人權保障與公平競爭的數字環(huán)境。《數字服務法》還指出歐委會需要對算法、人工智能和數據管理系統(tǒng)分析有關的外部研究。7相比之下,美國針對人臉識別技術區(qū)分了公共行政與商業(yè)領域的使用行為,商業(yè)領域對人臉識別的應用已經受到生物特征數據隱私立法和司法先例的約束,地方和州一級的立法者則針對政府發(fā)布了人臉識別應用的指南。

        歐美在人臉識別技術監(jiān)管方面的探索包括:第一,明確了迫在眉睫的問題,如該技術可能侵犯到個人隱私、造成潛在的偏見和不準確的結果;第二,起草或制定了相應的法律規(guī)范,著重強調公共利益和個人權利的對抗與制衡,以及確保適當的監(jiān)管。歐洲與美國對人臉識別的治理思路也存在不少差異:歐洲在包括人臉識別問題在內的數據權益保護范疇中,強調“以人為中心的方法”,立足于私人領域與公共領域的緊密關系,形成了公私領域統(tǒng)一的管理框架;而美國則突出對公民自由及公民權利的保障,區(qū)分了公共行政使用行為與商業(yè)使用行為,分別對二者進行管控。

        人臉識別問題的倫理反思與應對

        從倫理角度考察,人工智能技術最深層的問題是“創(chuàng)造秩序危機”?!皠?chuàng)造秩序危機”,簡而言之,是人所創(chuàng)造的技術對人的反噬。8無論是人們憧憬的超級人工智能、通用人工智能,還是現在廣泛應用的專用人工智能,技術對人反噬的可能性都顯而易見。對今天的人類社會而言,有兩個難以解決的問題讓我們遭遇這一危機。一是終極準則難題:人類社會缺乏解決諸多問題的共識,導致人工智能沒有已知的道德準則來指引其決策;二是因果關系難題:人工智能缺乏對決策后果之倫理意義的認知,對決策結果的倫理判斷能力不足,因而在其決策與其他社會影響之間難以建立因果聯系。9“創(chuàng)造秩序危機”這一概念,能夠幫助我們理解人對人工智能技術中固化的價值進行校準的必要性,以及這種校準本身的局限。在中國人工智能倫理的標準化工作中,總體組提出“人的根本利益原則”和“責任原則”兩大原則,是對上述兩個難題的直接應對。10

        在人臉識別技術的應用中,可以通過引入“人的根本利益原則”和“責任原則”來思考法律規(guī)制的路徑。考慮到人臉識別在我國的應用遠比歐盟和美國廣泛,我國更應全面地思考人臉識別問題的立法和規(guī)制。在“人的根本利益原則”和“責任原則”的指引下,可以通過一種“融合式設計”(inclusive design)進行人臉識別的立法與規(guī)制,側重關注社會的長遠利益和弱勢群體的平等權利。在立法中,“融合式設計”意味著確立合法性、正當性和必要性三大基本原則。

        針對公共行政領域的人臉識別,應當遵守合法性原則。合法性原則要求公共行政部門對人臉識別技術的應用必須有法律明確授權;同時,在涉及個人權利時,行政機關的決定還要遵守比例原則。需要指出的是,人臉識別語境下的合法性原則不同于最小傷害原則。這不僅僅是由于在現實中人臉識別技術的最小化傷害無法量化與實現,更重要的原因在于價值平衡的進路并不適用于此。我們不能寄希望于在具體的執(zhí)法與司法環(huán)節(jié)中,通過權衡公益和私益間的最小傷害來對人臉識別技術的使用行為進行規(guī)制,而應設定明確的法律授權標準,禁止發(fā)生在法律授權以外的使用行為,保證公共行政中應用人臉識別技術的“零傷害”。

        正當性原則與必要性原則主要適用于商業(yè)使用的情境。正當性原則意味著,在沒有法律禁止的情況下,商業(yè)組織和社會機構使用人臉識別技術必須正當,這是人工智能倫理原則中責任原則的展現。11商業(yè)機構在開發(fā)和應用人臉識別技術時,應當建立明確的責任體系:數據處理者須具備風險評估、合規(guī)處理、安全存儲、運行監(jiān)督以及應對發(fā)生數據泄露、非法使用等事故的能力,具體表現為擁有數據處理的風險評估報告、相應政策性處理指南以及具備相應的監(jiān)督機制。而就必要性原則而言,其內涵主要包括兩方面內容:其一,符合目的必要性,即使用人臉識別必須是提供產品或服務所必需;其二,符合手段必要性,即沒有更安全、便捷、易接受的其他方式來實現提供產品或服務的目的。

        具體而言,在人臉識別技術收集數據的階段,應以“知情-同意”為前提,同時保障個人的拒絕權和刪除權?!爸?同意”應作為部署人臉識別技術的必備前提。在公共行政使用中,這一前提意味著于公共場所安裝的攝像頭應滿足透明度的要求,例如在顯著位置標識部署設備的政府機構名稱以及數據負責機構名稱。當然,在商業(yè)使用中,“知情-同意”本身不能違反合法性、正當性和必要性原則,亦不能成為收集方或使用方規(guī)避責任的手段。此外,保障個人的拒絕權和刪除權,在公共行政使用和商業(yè)語境中均需有相應的具體規(guī)定。

        再者,在面部信息被人臉識別系統(tǒng)收集直至使用的階段,一是應滿足目的限制和公平性保障。公共部門或商業(yè)主體對面部信息的收集與使用行為是否正當,關鍵取決于該行為所追求的目的是否正當,即符合公共利益或數據主體私益的要求。公平性保障要求保證技術應用的非歧視性,避免因識別人臉帶來的種族、性別、身份等方面的歧視性做法。二是應具備理性關聯,即實施行為與行為目的之間應當具有相對緊密的關聯性。如果收集、使用及處理面部信息的行為并不能達到設想的目的,則該行為是不能被評價為合理的。在公共行政中使用人臉識別技術,應充分論證使用行為的必要性,包括召開聽證會和重大項目的合法性評估,以及對特殊需要人群提供替代方案;在商業(yè)語境和社會機構使用人臉識別技術,應提供替代方案,以防產生歧視性后果。

        1 Richard Van Noorden: The Ethical Questions that Haunt Facial Recognition Research, Nature, Vol 587, 19 November 2020.

        2郭銳:《人工智能的倫理和治理》,8-12頁,法律出版社,2020年8月。

        3人工智能領域的算法風險主要包括算法安全問題、算法可解釋性問題、算法歧視問題以及算法決策困境問題。而在人臉識別中,其風險集中體現在涉及隱私的算法安全問題和算法歧視問題。參見郭銳:《人工智能的倫理與治理》,載《人工智能》2019年第1期。

        4 Maya shwayder, Police facial recognition tech could misidentify people at protests, experts say (Jun. 8, 2020), https://www.jinse.com/news/blockchain/711734.html.

        5參見《亞馬遜宣布:禁止美國警方使用其人臉識別服務一年》,2020年6月11日,https://xw.qq.com/cmsid/TEC2020061100137300,最后訪問時間:2021年3月12日。

        6人工智能技術之所以飽受青睞,原因之一便在于算法能針對具體問題給出針對性解決方案。但從技術上講,任何效率的提升必然涉及對公民的分類,而分類直接或者間接地關乎公民的基本權利。參見郭銳:《人工智能的倫理與治理》第六章,法律出版社,2020.

        7 EUROPEAN COMMISSION: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on contestable and fair markets in the digital sector (Digital Markets Act), Brussels, 15.12.2020, COM(2020) 842 final, 2020/0374 (COD).

        EUROPEAN COMMISSION: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive, 2000/31/EC, Brussels, 15.12.2020, COM(2020) 825 final, 2020/0361 (COD).

        8 關于“創(chuàng)造秩序危機”,見《人工智能的倫理和治理》引論部分。郭銳:《人工智能的倫理和治理》,12-20頁,法律出版社,2020年8月。

        9 研究者指出,機器對人類倫理規(guī)范的學習涉及到自治(autonomy)、社群(community)、身份(identity)、價值(value)及移情(empathy)等多個層面的系統(tǒng)學習,MCBRIDE N. The Ethics of Driverless Cars. ACM SIGCAS Computers and Society,2016, 45(3):179–184,轉引自白惠仁:《自動駕駛汽車的倫理、法律與社會問題研究述評》,載《科學與社會》,第8卷第1期2018年。

        10這兩個原則,見《人工智能標準化白皮書》(2018版)。

        11 參見郭銳:《人工智能的倫理與治理》,載《人工智能》2019年第1期。

        猜你喜歡
        人臉識別人工智能
        我校新增“人工智能”本科專業(yè)
        人臉識別 等
        作文中學版(2022年1期)2022-04-14 08:00:34
        揭開人臉識別的神秘面紗
        學生天地(2020年31期)2020-06-01 02:32:06
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        IT經理世界(2018年20期)2018-10-24 02:38:24
        基于(2D)2PCA-LBP 的人臉識別方法的研究
        電子制作(2017年17期)2017-12-18 06:40:55
        數讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人臉識別在高校安全防范中的應用
        電子制作(2017年1期)2017-05-17 03:54:46
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 04:56:22
        亚洲天堂第一区| 国产av夜夜欢一区二区三区| 国产操逼视频| 欧美精品久久久久久久久| 国产毛片三区二区一区| 国产免费二区三区视频| 女女互揉吃奶揉到高潮视频| 国产尤物精品自在拍视频首页| 手机在线中文字幕国产| 麻豆国产精品一区二区三区| 日韩精品久久久久久免费| 国内精品视频一区二区三区| 杨幂国产精品一区二区| 黄色影院不卡一区二区| 性猛交╳xxx乱大交| y111111少妇影院无码| 亚洲精品一区二区在线播放| 亚洲一区二区日韩专区| 人妻av鲁丝一区二区三区| 99精品成人片免费毛片无码| 91麻豆精品久久久影院| 三级全黄裸体| 亚洲国产成人精品无码区99| 最新国产美女一区二区三区| 日韩女同在线免费观看| 少妇内射兰兰久久| 国产免费av片在线观看麻豆| 日本成年少妇人妻中文字幕| 日韩经典午夜福利发布| 最新亚洲精品国偷自产在线 | 亚洲国产精品毛片av不卡在线 | 日本刺激视频一区二区| 亚洲av永久无码精品网站在线观看 | 欧美私人情侣网站| 欧美日本国产三级在线| 少妇隔壁人妻中文字幕| 亚洲色一区二区三区四区| 在线亚洲人成电影网站色www | 亚洲女人毛茸茸粉红大阴户传播| 亚洲精品乱码久久久久久日本蜜臀 | 2021年最新久久久视精品爱|