亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于文獻(xiàn)計(jì)量的算法偏見研究綜述

        2023-02-18 05:36:30史書揚(yáng)
        軟件導(dǎo)刊 2023年1期
        關(guān)鍵詞:偏差公平文獻(xiàn)

        萬 巖,史書揚(yáng)

        (北京郵電大學(xué) 經(jīng)濟(jì)管理學(xué)院,北京 100876)

        0 引言

        偏見和歧視是一個(gè)長(zhǎng)久以來存在于人類社會(huì)的問題,在法律上定義為基于收入、教育、性別或種族等特定特征對(duì)個(gè)人或群體的不公平或不平等待遇。當(dāng)這些不公平或不平等待遇是通過智能代理或其他基于人工智能系統(tǒng)自動(dòng)決策造成的時(shí)候,就是所謂的數(shù)字歧視[1]。

        智能算法是為了創(chuàng)造一個(gè)類似人類反應(yīng)與思考的模式,制定策略機(jī)制解決特定問題以滿足用戶個(gè)性化需求。Bradley[2]從人工智能的基本定義出發(fā),明確表示如果智能算法中復(fù)刻了人的思維和邏輯及各種社會(huì)行為和觀點(diǎn),將必然存在偏見。

        由于智能算法構(gòu)建于人類設(shè)計(jì)訓(xùn)練的模型,設(shè)計(jì)者使用各種符合要求的數(shù)據(jù)進(jìn)行訓(xùn)練和改進(jìn),直至算法被接受,因此算法的構(gòu)建方式也會(huì)直接影響其是否存在偏見。Yapo 等[3]認(rèn)為算法偏見可能來源于不合理的數(shù)據(jù)與缺乏包容性的算法設(shè)計(jì),但這些算法均由人類創(chuàng)造,通常不可避免或無意識(shí)地反映社會(huì)價(jià)值觀、偏見和歧視性做法。

        同時(shí),由于算法在數(shù)據(jù)訓(xùn)練結(jié)果與實(shí)際意圖上存在一定偏差,可能會(huì)造成實(shí)際應(yīng)用后的偏見進(jìn)一步惡化。Tene等[4]在研究中雖然并未將算法描述為不可避免受到偏見與潛在不公平困擾的“黑盒”,但認(rèn)為算法仍是人為產(chǎn)物,部分算法缺乏積極的推動(dòng)作用,在特定情況下會(huì)反映出現(xiàn)有的社會(huì)偏見與歷史不平等。

        基于對(duì)每個(gè)人在數(shù)字世界行為的大規(guī)模監(jiān)控,算法已經(jīng)與生活中的方方面面交織在一起,以各種不可見的方式影響著人的決策[2]。當(dāng)算法滲透到社會(huì)生活中,越來越多的選擇與決策權(quán)被授權(quán)給基于機(jī)器學(xué)習(xí)等智能技術(shù),使偏見與歧視問題更加頻繁。此外,更令人擔(dān)憂的問題是算法缺乏透明性。

        目前,算法應(yīng)用場(chǎng)景十分廣泛,對(duì)算法偏見問題的研究將不再局限于算法設(shè)計(jì)缺陷、偏見原因界定、數(shù)據(jù)敏感性等方面,而呈現(xiàn)出分散化趨勢(shì)。為此,本文對(duì)該領(lǐng)域的研究進(jìn)行系統(tǒng)梳理,以探討21 世紀(jì)以來國外對(duì)算法偏見的研究基礎(chǔ)、前沿內(nèi)容、涉及主題、對(duì)現(xiàn)存算法偏見問題進(jìn)行分類歸因和糾偏的方法。通過分析以上問題有利于把握該領(lǐng)域的整體研究動(dòng)向。

        1 文獻(xiàn)時(shí)間分布

        為了解國外算法偏見的研究現(xiàn)狀,利用Web of Science核心數(shù)據(jù)庫檢索2000 年1 月-2021 年8 月的相關(guān)文獻(xiàn),檢索式為TS=(“algorithmic bias” OR “algorithmic discrimination”)AND TS=(fairness),共獲得280 篇文獻(xiàn),去重后有效文獻(xiàn)為262篇,時(shí)間分布如圖1所示。

        Fig.1 Distribution of literature quantity by time圖1 文獻(xiàn)時(shí)間分布

        由圖1 可見,262 篇文獻(xiàn)在2000-2021 年間的發(fā)表數(shù)量與被引頻次分布整體呈上升趨勢(shì)。文獻(xiàn)數(shù)量在2000-2013年間增長(zhǎng)平緩,算法偏見問題尚未得到學(xué)界廣泛關(guān)注。2014 年后,隨著人工智能、大數(shù)據(jù)等技術(shù)迅速發(fā)展,倫理挑戰(zhàn)愈發(fā)激烈,算法引發(fā)的偏見和歧視問題收到了學(xué)術(shù)界的廣泛關(guān)注,文獻(xiàn)被引頻次隨文獻(xiàn)數(shù)量增加呈階梯式增長(zhǎng)。尤其在2019-2021 年,文獻(xiàn)數(shù)據(jù)大幅增加,側(cè)面證明了隨著算法技術(shù)的發(fā)展與進(jìn)步,算法偏見問題的研究熱度逐步上升。

        2 文獻(xiàn)分析

        2.1 文獻(xiàn)共被引

        文獻(xiàn)共被引(Co-citation)是測(cè)度文獻(xiàn)間關(guān)系程度的一種研究方法,當(dāng)兩篇或多篇論文同時(shí)被一篇或多篇論文所引證時(shí),此時(shí)論文將構(gòu)成共被引關(guān)系。通過分析文獻(xiàn)共被引網(wǎng)絡(luò)中的聚類及關(guān)鍵節(jié)點(diǎn),可探索研究領(lǐng)域的知識(shí)結(jié)構(gòu)[5]。由于共被引網(wǎng)絡(luò)為參考文獻(xiàn)組成的網(wǎng)絡(luò),因此能較好地揭示某一個(gè)研究主題的“先驗(yàn)知識(shí)”,即通過獲取高被引文獻(xiàn)的網(wǎng)絡(luò)得到研究的基礎(chǔ)知識(shí)。表1 顯示了被引頻次最高的前10篇文獻(xiàn)。

        Table 1 Highly cited literatures information表1 高被引文獻(xiàn)信息

        2.2 分析結(jié)果

        被引頻次最高的為Hardt 等[6]提出監(jiān)督學(xué)習(xí)中針對(duì)特定敏感屬性的判別標(biāo)準(zhǔn),假設(shè)受保護(hù)群體的預(yù)測(cè)因子、目標(biāo)和數(shù)據(jù)可用,根據(jù)自定義方法優(yōu)化調(diào)整學(xué)習(xí)到的預(yù)測(cè)因子消除歧視,同時(shí)將不良分類的成本從弱勢(shì)群體轉(zhuǎn)移到?jīng)Q策者來改善激勵(lì)。Barocas 等[7]認(rèn)為算法的好壞取決于處理的數(shù)據(jù),通常數(shù)據(jù)并不完美,使算法繼承了先前決策者的偏見,如果不加思考地依賴數(shù)據(jù)挖掘,可能會(huì)使歷史上處于不利地位的弱勢(shì)群體無法充分參與社會(huì)中。Feldman等[8]建議涉及到計(jì)算機(jī)產(chǎn)生的偏差時(shí),可根據(jù)流程使用的數(shù)據(jù)進(jìn)行推斷,并展示了使數(shù)據(jù)無偏、消減偏見及保留數(shù)據(jù)相關(guān)信息的方法。Chouldechova[9]通過累犯預(yù)測(cè)工具(Recidivist Prediction Tool,RPI)利用算法評(píng)估刑事被告在未來某時(shí)間點(diǎn)再次犯罪的可能性,但引起了巨大爭(zhēng)議,部分爭(zhēng)議與評(píng)估中潛在的歧視性偏見相關(guān)。Zafar 等[10]討論了數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)化決策系統(tǒng)的工作原理,經(jīng)過訓(xùn)練的系統(tǒng)將為不同社會(huì)群體進(jìn)行決策,錯(cuò)誤分類會(huì)使某些群體處于不公平。ProPublica 發(fā)布的調(diào)查報(bào)告認(rèn)為[11],在刑事司法中使用算法評(píng)估預(yù)測(cè)犯罪者未來再犯罪的風(fēng)險(xiǎn),能幫助法官進(jìn)行量刑決策,但會(huì)增加不必要和不公正的差異。通過司法實(shí)例證實(shí)了該算法并不可靠,且存在種族差異。O'Neil[12]提出算法時(shí)代下,數(shù)學(xué)模型將越來越多地影響人類的生活決策,而如今使用的模型均不透明、不受監(jiān)管,存在一定的爭(zhēng)議,甚至有一些是錯(cuò)誤的模型,因此加劇了歧視問題。Zemel 等[13]表達(dá)了對(duì)依賴統(tǒng)計(jì)推斷和學(xué)習(xí)的決策系統(tǒng)存在偏見和歧視的擔(dān)憂,提出一種可能公平的分類學(xué)習(xí)算法。Larson 等[14]聚焦COMPAS 的AI司法量刑系統(tǒng),基于已有犯罪記錄嘗試預(yù)測(cè)被告被再次逮捕的概率,報(bào)告發(fā)現(xiàn)COMPAS 在預(yù)測(cè)時(shí)存在種族歧視,可能是由于數(shù)據(jù)來自具有結(jié)構(gòu)性不公的環(huán)境。Corbett-Davies 等[15]同樣聚焦司法系統(tǒng),通過算法輔助決策等待審判的被告是否太危險(xiǎn)而不能被釋放,研究同樣指出了司法評(píng)估中的種族歧視問題。

        綜上,對(duì)實(shí)際算法偏見案例的分析幾乎都集中于司法領(lǐng)域的量刑或罪犯風(fēng)險(xiǎn)評(píng)估。司法領(lǐng)域以人類語言為主要工具,包含了大量復(fù)雜的專業(yè)知識(shí),是進(jìn)行人工智能和自然語言處理探索實(shí)踐的最佳場(chǎng)景。除偏見問題外,基于深度學(xué)習(xí)的司法預(yù)測(cè)方案最大問題在于模型的可解釋性,即只知道預(yù)測(cè)結(jié)果但無法給出預(yù)測(cè)依據(jù)。此外,這些高被引文獻(xiàn)還涉及到敏感性屬性判別與保護(hù)、偏差度量與影響預(yù)測(cè)、不同公平含義下的優(yōu)化改進(jìn)等內(nèi)容,是國外算法偏見研究的關(guān)鍵路徑,能為后續(xù)研究提供理論支持和方向指引。

        2.3 研究前沿

        利用CiteSpace 的聚類功能可得出文獻(xiàn)共被引網(wǎng)絡(luò),如圖2 所示(彩圖掃OSID 可見,下同)。其中,色調(diào)越暖代表文獻(xiàn)發(fā)表時(shí)間越新,聚類中核心文獻(xiàn)集代表該領(lǐng)域的研究前沿。

        Fig.2 Clustering of literature co-citation圖2 文獻(xiàn)共被引聚類

        由圖2 可見,聚類#0 包含60 篇文獻(xiàn),中介中心性為0.756,文獻(xiàn)平均年份為2017 年,主要涉及算法公平或算法偏差概念的抽象性描述及提出初步的原因探索和偏差糾正辦法。對(duì)于數(shù)據(jù)科學(xué)專家來而言,緩解算法偏差一直是最困難的問題之一[16],從算法優(yōu)化上解決偏差和歧視問題存在較大的技術(shù)挑戰(zhàn)。為此,研究者提出在算法設(shè)計(jì)、訓(xùn)練和部署中嵌入道德和法律原則的新方法,以確保社會(huì)公平[17]。此外,部分研究者聚焦數(shù)據(jù)管理活動(dòng),包括算法設(shè)計(jì)、模型構(gòu)建、用戶和系統(tǒng)設(shè)計(jì)等方面,評(píng)估哪些活動(dòng)可處理偏差,哪些活動(dòng)可能會(huì)增加偏差[18]。

        聚類#1包含45篇文獻(xiàn),中介中心性為0.863,文獻(xiàn)平均年份為2015 年,主要涉及算法中的種族平等與敏感隱私信息相關(guān)問題。數(shù)據(jù)表明,依賴數(shù)據(jù)驅(qū)動(dòng)的預(yù)測(cè)模型進(jìn)行自動(dòng)化決策可能會(huì)使屬于某些類別或群體的人處于不利地位,即使計(jì)算過程保持公平、善意,但仍有可能發(fā)生這種情況[19]。例如,在刑事司法時(shí)必須考慮工具的程序正義及與司法系統(tǒng)中持久存在的種族維度的相互作用[20];在移民政策方面對(duì)公民的特征數(shù)據(jù)進(jìn)行安全審查,可能會(huì)傳播一種算法形式的吉姆克勞(Algorithmic Jim Crow)[21]。

        聚類#2包含35篇文獻(xiàn),中介中心性為0.903,平均年份為2014,主要涉及個(gè)性化算法中的極化控制和公平檢測(cè)。算法個(gè)性化在網(wǎng)絡(luò)空間中無處不在,為用戶帶來便利的同時(shí)提升了平臺(tái)收益。然而,個(gè)性化算法會(huì)學(xué)習(xí)和傳播系統(tǒng)性偏見,尤其是推薦系統(tǒng)帶來的對(duì)抗偏見及由此產(chǎn)生的回聲室效應(yīng)[22],引發(fā)了對(duì)算法本身和監(jiān)管機(jī)制的呼吁。目前,利用經(jīng)濟(jì)學(xué)中現(xiàn)有的不平等指數(shù)衡量不同個(gè)人或群體受益的不平等程度[23]。此外,基于測(cè)試衡量歧視行為的因果關(guān)系,從而確定軟件是否存在歧視,并衡量其歧視程度[24]。

        聚類#3包含29篇文獻(xiàn),中介中心性為0.901,平均年份為2017,主要涉及推薦系統(tǒng)中的排名算法及由此帶來的公平問題。推薦系統(tǒng)的工作過程可建模為一個(gè)預(yù)測(cè)問題,在這種情況下可能發(fā)生不同類型的偏差。這種不公平可追溯到數(shù)據(jù)、模型或算法和用戶間相互作用產(chǎn)生的偏差[25]。公平性體現(xiàn)在受保護(hù)類別的成員身份,這些受保護(hù)類別由用戶的性別、種族、多重利益相關(guān)者的收益等敏感屬性所定義[26]。研究表明,推薦系統(tǒng)的表現(xiàn)可能在具有不同人口特征的人群間存在顯著差異。例如,音樂推薦系統(tǒng)在男性與女性用戶群體間算法性能存在不公平[27],即使是先進(jìn)的音樂推薦系統(tǒng)也更青睞于已流行的節(jié)目,容易造成流行度偏差[28];在工作推薦方面,在Facebook[29]、Google[30]上高薪工作通常推薦給男性;在圖書推薦方面,協(xié)同過濾算法通常會(huì)產(chǎn)生偏向男性作者的推薦結(jié)果[31];在電影推薦上,不同推薦算法可能會(huì)放大或抑制不同性別用戶對(duì)特定電影類型的偏好[32]。

        聚類#4包含27篇文獻(xiàn),中介中心性為0.848,平均年份為2018,主要涉及機(jī)器學(xué)習(xí)或人工智能中的倫理審查和公平干預(yù)問題。相較于前4 類內(nèi)容,聚類#4 的內(nèi)容上升到更抽象、宏觀的層面。近年來,人工智能出現(xiàn)了越來越多有偏見的結(jié)果、缺乏透明度、數(shù)據(jù)濫用等問題,要求對(duì)算法進(jìn)行強(qiáng)制性道德審查的呼聲越來越高[33]。然而,關(guān)于算法道德評(píng)估的建議多數(shù)無法付諸實(shí)施,或?qū)W⒂诰唧w和技術(shù)性的公平或透明度概念,未考慮多個(gè)利益方或更廣泛的社會(huì)背景[34],但為了實(shí)現(xiàn)以人為中心的人工智能,需著重在隱私和數(shù)據(jù)所有權(quán)、問責(zé)和透明度及公平方面進(jìn)行改進(jìn)[35]。

        從文獻(xiàn)共被引聚類中可見,算法偏見引發(fā)的問題主要集中在敏感或隱私信息、極化、推薦系統(tǒng)3 個(gè)方面,涉及種族平等、性別平等或其他與敏感隱私信息相關(guān)的問題是在算法偏見這一領(lǐng)域中最早被提出和廣泛討論的問題。Web2.0 時(shí)代后,移動(dòng)互聯(lián)網(wǎng)迅速發(fā)展,個(gè)性化算法緩解了用戶信息過載的問題,然而算法的結(jié)果是否能平等地使人口中的不同個(gè)人或群體受益及信息提供者是否受到公平對(duì)待,仍需進(jìn)行比較和考量。

        網(wǎng)絡(luò)的開放性、分享性、聚合性、多元異構(gòu)性催生了信息窄化的盛行,引發(fā)學(xué)界對(duì)算法極化控制與公平檢測(cè)問題的關(guān)注。尤其是在推薦系統(tǒng)中,該工作過程可建模為一個(gè)預(yù)測(cè)問題,在這種情況下能引發(fā)不同類型的公平問題。除了在某些用戶屬性上的偏見會(huì)使系統(tǒng)無法在同等意義上滿足用戶信息需求外,由于協(xié)同過濾的作用還存在流行度偏差。長(zhǎng)此以往,流行的產(chǎn)品和服務(wù)越來越流行,結(jié)果趨同也導(dǎo)致用戶無法得到更好的個(gè)性化體驗(yàn)。

        隨著人工智能的浪潮和新一輪科技革命來襲,算法偏見的討論熱點(diǎn)逐漸提升到機(jī)器學(xué)習(xí)與人工智能領(lǐng)域的更深層面,對(duì)倫理公平、可控可信等問題的研究成為了前沿?zé)狳c(diǎn)。

        3 算法偏見研究框架

        統(tǒng)計(jì)學(xué)上偏差的概念通常指的是估計(jì)值與真實(shí)值間的差距,算法偏差可表示為利用算法評(píng)估或決策的結(jié)果與預(yù)期結(jié)果間的差異。偏見是一種更具哲學(xué)性的概念,是一種認(rèn)知狀態(tài)[36],算法偏見可理解為在算法決策中產(chǎn)生的不合理或不公平判斷。歧視則是包含法律概念,算法歧視是在自動(dòng)化決策中對(duì)特定群體產(chǎn)生的不公平對(duì)待行為,是根植在社會(huì)深層中的不平等現(xiàn)象在技術(shù)中的反映,是相較于算法偏見更進(jìn)一步的概念。因此,本文更多使用算法偏見表述算法中的不合理現(xiàn)象。

        從文獻(xiàn)分析可知,當(dāng)前國外對(duì)算法偏見的研究主題主要集中在偏見概念描述原因探索、性別種族等敏感隱私信息引發(fā)的爭(zhēng)論、極化現(xiàn)象的控制和公平監(jiān)測(cè)、推薦系統(tǒng)中排名算法、機(jī)器學(xué)習(xí)和人工智能中的宏觀性公平問題等。

        盡管不少文獻(xiàn)初步探討了算法偏見的原因和可能的改善措施,但整體而言較為分散,難以形成完整的框架概念。因此,本文對(duì)算法偏見進(jìn)行分類,從算法和人的角度探討不同類別偏見的來源。

        目前,關(guān)于對(duì)算法進(jìn)行道德評(píng)估或公平性修正的建議大多停留在較高的抽象層面,難以落地付諸實(shí)施,因此從相對(duì)具體的算法設(shè)計(jì)流程出發(fā),以公平性為導(dǎo)向提出可行的糾偏方法,構(gòu)建的算法偏見研究框架如圖3所示。

        3.1 偏見來源

        智能算法中偏見來源主要分為算法本身和人兩類[37]。

        3.1.1 算法偏見

        Fig.3 Research framework of algorithmic bias圖3 算法偏見研究框架

        對(duì)算法本身而言,使用的數(shù)據(jù)和模型會(huì)不可避免地存在一定偏差,主要包括數(shù)據(jù)集偏差、建模偏差、訓(xùn)練中的偏差。其中,數(shù)據(jù)集偏差為在算法訓(xùn)練和測(cè)試的數(shù)據(jù)集創(chuàng)建的過程中可能由于數(shù)據(jù)采集的局限性或便利性而選擇特定類型的數(shù)據(jù)集,也有可能因?yàn)楂@取數(shù)據(jù)時(shí)的某些固有習(xí)慣使獲取到的數(shù)據(jù)更偏向于所謂的“主流”,在敏感性特征方面代表性不足;建模偏差可能是因?yàn)閱栴}定義和變量度量的細(xì)節(jié)有誤,或因?yàn)槌闃訒r(shí)樣本的代表性和普遍性權(quán)衡不合理,還有可能是機(jī)器學(xué)習(xí)偏差將相關(guān)關(guān)系誤讀為因果等;訓(xùn)練中的偏差為算法通過學(xué)習(xí)過去決策的數(shù)據(jù)集對(duì)未來進(jìn)行決策或預(yù)測(cè),如果訓(xùn)練目的數(shù)據(jù)集反映了原有偏見,將導(dǎo)致算法在學(xué)習(xí)后作出同樣偏見的決定。此外,如果數(shù)據(jù)不能正確代表不同人群的特征,隱含了不平等現(xiàn)象,也會(huì)產(chǎn)生有偏見的決策結(jié)果。

        3.1.2 人為偏見

        由人造成的偏差貫穿算法從設(shè)計(jì)到使用的全過程,主要包括標(biāo)注偏差、使用偏差、解釋偏差。其中,數(shù)據(jù)標(biāo)簽是幫助算法達(dá)成目標(biāo)的判定因素,在訓(xùn)練過程中需要接收來自人類的標(biāo)簽,并根據(jù)人的偏好進(jìn)行信息迭代優(yōu)化,而人類在進(jìn)行在線活動(dòng)時(shí)對(duì)數(shù)據(jù)的標(biāo)注和選擇行為高度隨機(jī),不僅反映了他們對(duì)所呈現(xiàn)內(nèi)容的看法,還反映了對(duì)呈現(xiàn)原因的推斷,因此算法接收到的標(biāo)簽可能存在偏差;使用偏差為算法被使用在非預(yù)期的情況下時(shí),可能會(huì)由于實(shí)際數(shù)據(jù)與訓(xùn)練數(shù)據(jù)的偏差而導(dǎo)致偏見[1];解釋偏差為人類對(duì)算法輸出的潛在誤讀可能導(dǎo)致解釋偏差。

        因此,即使證明一個(gè)算法過程是無偏的,也無法確保一個(gè)無偏或無歧視的算法輸出,因?yàn)槠娀蚱缫暱赡苁怯?xùn)練或使用中發(fā)生偏差的結(jié)果[38]。此外,即使存在各種偏差,算法是否真的會(huì)導(dǎo)致偏見或歧視還取決于其部署的環(huán)境和最終目的。

        3.2 偏見糾正

        本文從算法設(shè)計(jì)流程出發(fā),為了盡量使算法達(dá)到無偏狀態(tài),從建模、數(shù)據(jù)和功能3方面入手。

        3.2.1 建模無偏

        要求算法的基本假設(shè)及其模型未存在偏差,從人工智能技術(shù)的價(jià)值觀角度,糾偏的目的將算法優(yōu)化得更人性化和公平化。為此,在算法開發(fā)階段納入除開發(fā)者外,倫理學(xué)家或少數(shù)群體的代表意見,將道德原則嵌入其中,確保模型代表整個(gè)適用群體,著重于在公平性要求和算法的帕累托約束中尋找權(quán)衡。

        3.2.2 數(shù)據(jù)無偏

        要求算法的訓(xùn)練和測(cè)試數(shù)據(jù)未存在偏見和歧視。在利用數(shù)據(jù)集進(jìn)行訓(xùn)練的過程中無法實(shí)現(xiàn)完全無偏,因此需要提前審查訓(xùn)練數(shù)據(jù),除了保證數(shù)據(jù)安全性外,在學(xué)習(xí)和訓(xùn)練前審查有偏差、高噪聲等低質(zhì)量的數(shù)據(jù),經(jīng)過加工處理提升數(shù)據(jù)集整體質(zhì)量,提高算法的訓(xùn)練效果和普遍適用性,也可通過開發(fā)新的、可調(diào)的算法減少訓(xùn)練數(shù)據(jù)中隱藏的潛在偏見。例如,通過學(xué)習(xí)數(shù)據(jù)的潛在結(jié)構(gòu),在訓(xùn)練時(shí)自適應(yīng)地使用學(xué)到的潛在分布對(duì)特定數(shù)據(jù)點(diǎn)的重要性進(jìn)行重新加權(quán)[39]。

        3.2.3 功能無偏

        要求算法能在特定的環(huán)境和任務(wù)下進(jìn)行決策。在機(jī)器學(xué)習(xí)模型中,影響因素和噪聲通常難以區(qū)分,可能存在過擬合現(xiàn)象導(dǎo)致算法在訓(xùn)練中表現(xiàn)出高性能,但新的數(shù)據(jù)集卻無法適用模型,因此需要對(duì)算法進(jìn)行驗(yàn)證,保證其功能性和公平性相對(duì)平衡。在應(yīng)用階段,通過建立標(biāo)準(zhǔn)化治理框架,允許開發(fā)企業(yè)或監(jiān)管機(jī)構(gòu)定期監(jiān)測(cè)算法,確保質(zhì)量和安全。

        Marr[40]認(rèn)為人工智能既是問題的原因,也可能是問題的解決方案。谷歌在其開源網(wǎng)頁中推出了幫助開發(fā)者檢測(cè)算法公平性的工具。Facebook 宣布了Fairness Flow,當(dāng)算法根據(jù)人的種族、性別或年齡作出不公平判斷時(shí),將自動(dòng)發(fā)出警告。IBM 研究了自動(dòng)偏見檢測(cè)算法,經(jīng)過訓(xùn)練后可模仿人類作出決定的反偏見過程,以減輕自身內(nèi)在偏見。領(lǐng)英推出公平工具包分析數(shù)據(jù)集的屬性(例如種族和性別構(gòu)成),并將結(jié)果與算法結(jié)果進(jìn)行比較以檢測(cè)公平性。由此可見,除了學(xué)術(shù)界對(duì)算法偏見進(jìn)行越來越多的討論外,大型科技企業(yè)也投入大量精力研究人工智能技術(shù),以期減少算法偏見。

        4 結(jié)語

        學(xué)術(shù)界對(duì)如何定義和衡量偏見或公平一直存在分歧,絕對(duì)的公平必然不現(xiàn)實(shí),所謂算法偏見和公平性需要在特定的研究問題和主題下進(jìn)行闡述,僅從技術(shù)角度通常難以完全消除算法偏見。只有通過深入探索才能解釋算法如何改善個(gè)人和公共生活,算法在設(shè)計(jì)、操作、決策上的疏忽可能對(duì)人類造成的傷害,何種內(nèi)容嵌入算法能保證公平,如何將人類價(jià)值觀傳遞到算法中等問題。

        如同所有新興領(lǐng)域一樣,智能算法的問題在于知識(shí)匱乏與技術(shù)發(fā)展過快間的矛盾,要求人們制定全球性的指導(dǎo)方針和原則管理智能算法,需要全球政府、科技界、監(jiān)管治理機(jī)構(gòu)的共同努力,盡可能消除偏見。

        未來,將以分析得出的算法偏見研究概覽為基礎(chǔ)開展深入研究,在多學(xué)科融合的背景下從不同角度出發(fā),對(duì)算法偏見開展跨學(xué)科研究與合作,進(jìn)一步討論其細(xì)分類別與優(yōu)化方法,例如算法在不同領(lǐng)域的風(fēng)險(xiǎn)與偏見危害識(shí)別、透明可信算法的保障途徑等,以進(jìn)一步避免算法的偏見與歧視。

        猜你喜歡
        偏差公平文獻(xiàn)
        不公平
        公平對(duì)抗
        怎樣才公平
        Hostile takeovers in China and Japan
        速讀·下旬(2021年11期)2021-10-12 01:10:43
        如何走出文章立意偏差的誤區(qū)
        兩矩形上的全偏差
        Cultural and Religious Context of the Two Ancient Egyptian Stelae An Opening Paragraph
        大東方(2019年12期)2019-10-20 13:12:49
        The Application of the Situational Teaching Method in English Classroom Teaching at Vocational Colleges
        公平比較
        The Role and Significant of Professional Ethics in Accounting and Auditing
        商情(2017年1期)2017-03-22 16:56:36
        91精品人妻一区二区三区久久久| 欧美老妇人与禽交| 国产精品毛片久久久久久l| 亚洲国产成人aⅴ毛片大全| 日本一区人妻蜜桃臀中文字幕| 国产精品亚洲二区在线看| 成 人 免 费 黄 色| 日韩人妻无码免费视频一区二区三区 | 色与欲影视天天看综合网| 无码人妻久久一区二区三区免费 | 日韩精品一区二区三区四区视频| 人妻系列中文字幕av| 无码熟妇人妻av在线网站| 一本无码av中文出轨人妻| 国产精品后入内射日本在线观看| 粉嫩国产白浆在线播放| 亚洲精品中文字幕91| 美女露出粉嫩小奶头在视频18禁| 欧美日韩国产码高清综合人成| 免费jjzz在线播放国产| 国产精品夜色视频久久| 亚洲乱码无人区卡1卡2卡3| 精品少妇爆乳无码av无码专区| 粉嫩少妇内射浓精videos| 一本大道久久精品一本大道久久| 日本综合视频一区二区| 久久精品国产亚洲av无码偷窥 | 国产V亚洲V天堂A无码| 美女被内射中出在线观看| 99re6在线视频精品免费| 亚洲日韩精品无码专区网站| av天堂精品久久久久| 俺来也三区四区高清视频在线观看| 亚洲一区二区三区综合免费在线| а√天堂资源官网在线资源| 婷婷四房色播| 97国产精品麻豆性色| 亚洲av成熟国产一区二区| 色www永久免费视频| 精品视频一区二区三三区四区| 国产成人福利av一区二区三区|