亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能算法偏見與健康不公平的成因與對策分析

        2023-12-29 00:00:00陳龍曾凱李莎陶璐梁瑋王皓岑楊如美
        中國全科醫(yī)學 2023年19期

        【摘要】 隨著信息技術的發(fā)展,人工智能為疾病診療帶來重要價值。然而,人工智能中存在算法偏見現(xiàn)象,可導致醫(yī)療衛(wèi)生資源分配不均等問題,嚴重損害患者的健康公平。算法偏見是人為偏見的技術化體現(xiàn),其形成與人工智能開發(fā)過程密切相關,主要源于數(shù)據收集、訓練優(yōu)化和輸出應用3個方面。醫(yī)護工作者作為患者健康的直接參與者,應采取相應措施以預防算法偏見,避免其引發(fā)健康公平問題。醫(yī)護工作者需保障健康數(shù)據真實無偏見、優(yōu)化人工智能的公平性和加強其輸出應用的透明度,同時需思考如何處理臨床實踐中算法偏見引發(fā)的不公平現(xiàn)象,全面保障患者健康公平。本研究就健康領域中算法偏見的形成原因和應對策略展開綜述,以期提高醫(yī)護工作者識別和處理算法偏見的意識與能力,為保障信息化時代中的患者健康公平提供參考。

        【關鍵詞】 人工智能;算法偏見;健康公平;人為偏見;信息化

        【中圖分類號】 R 19 【文獻標識碼】 A DOI:10.12114/j.issn.1007-9572.2023.0007

        【引用本文】 陳龍,曾凱,李莎,等. 人工智能算法偏見與健康不公平的成因與對策分析[J]. 中國全科醫(yī)學,2023,26(19):2423-2427. DOI:10.12114/j.issn.1007-9572.2023.0007. [www.chinagp.net]

        CHEN L,ZENG K,LI S,et al. Causes and countermeasures of algorithmic bias and health inequity[J]. Chinese General Practice,2023,26(19):2423-2427.

        Causes and Countermeasures of Algorithmic Bias and Health Inequity CHEN Long ZENG Kai LI Sha TAO Lu LIANG Wei WANG Haocen YANG Rumei

        1.School of Nursing,Nanjing Medical University,Nanjing 211166,China

        2.School of Nursing,Southern Medical University,Guangzhou 510515,China

        3.School of Nursing,Purdue University,Indiana 47907,USA

        Corresponding author:YANG Rumei,Associate professor;E-mail:rumeiyang@njmu.edu.cn

        【Abstract】 With the development of information technology,artificial intelligence shows great potentials for clinical diagnosis and treatment. Nevertheless,bias in algorithms derived by artificial intelligence can lead to problems such as unequal distribution of healthcare resources,which significantly affect patients' health equity. Algorithmic bias is a technical manifestation of human bias,whose formation strongly correlates with the entire development process of artificial intelligence,starting from data collection,model training and optimization to output application. Healthcare providers,as the key direct participants in ensuring patients' health,should take corresponding measures to prevent algorithmic bias to avoid its related health equity issues. It is important for healthcare providers to ensure the authenticity and unbiasedness of health data,optimize the fairness of artificial intelligence,and enhance the transparency of its output application. In addition,healthcare providers need to consider how to tackle bias-related health inequity,so as to comprehensively ensure patients' health equity. In this study,we reviewed the causes and coping strategies related to algorithmic bias in healthcare,with the aim of improving healthcare providers' awareness and ability to identify and address algorithmic bias,and laying a foundation for ensuring patients' health equity in the information age.

        【Key words】 Artificial intelligence;Algorithmic bias;Health equity;Human bias;Information

        近年來,國家提倡加快信息技術與醫(yī)療健康行業(yè)融合,推動全民健康信息化建設。人工智能(artificial intelligence,AI)是健康信息化的重要內容,指計算機利用算法對數(shù)據進行學習后,模仿人類的思維和行為[1-2],從而輔助臨床決策。隨著技術不斷提升,AI對疾病診斷、監(jiān)測和治療的價值日益凸顯,在風險因素識別、健康資源分配和精準醫(yī)療干預等多方面發(fā)揮重要作用[3]。然而,AI的學習過程經由人類開發(fā)設計,從數(shù)據選擇、標簽確定,到訓練優(yōu)化、審查應用,全過程均涉及人為的選擇與決策,即便AI本身能夠客觀反映數(shù)據,但其學習到的規(guī)則邏輯和社會影響卻并非完全客觀、公正,在輔助臨床決策時會產生與人類相似的偏見行為,即算法偏見(algorithmic bias),表現(xiàn)為AI會因劣勢群體的種族、性別、宗教和經濟等因素而生成差異的輸出結果和健康建議,并對該群體產生不良影響[4]。

        信息化時代下,算法偏見普遍存在,且與健康公平(health equity)密切相關。健康公平是指個體在改善健康狀態(tài)時,應擁有公正的機會以獲取和利用醫(yī)療衛(wèi)生資源[5]。算法偏見類似人為偏見,會因劣勢群體的經濟水平或特殊性別特征(如性少數(shù)群體)等因素而侵害其健康公平,導致該群體獲得較少的醫(yī)療資源和診治機會,健康狀態(tài)相對較差[1]。OBERMEYER等[6]研究指出,基于醫(yī)療開銷構建的AI嚴重侵害經濟劣勢群體(如非洲裔種族)的健康公平。從表面上看,醫(yī)療開銷作為AI的訓練標簽,能夠綜合反映患者的疾病風險,醫(yī)療開銷值越高則疾病風險越高,從而準確識別高危風險人群,然而實際上,人為選擇的這一標簽會導致AI算法忽略醫(yī)療開銷高低背后的本質原因,如經濟優(yōu)勢群體容易尋求醫(yī)療救治(如門診就醫(yī)),產生較多的醫(yī)療開銷,致使AI學習到偏見邏輯,傾向于將經濟優(yōu)勢群體判定為高疾病風險人群,最終該群體被分配較多醫(yī)療資源,影響經濟劣勢群體的健康公平。

        因此,算法偏見的本質并非算法自身問題,而是構建和使用AI時所涉及的人為選擇和決策問題。由于數(shù)據導向的AI常被認為比人類思維客觀、公正,醫(yī)護工作者在應用AI時容易忽略其帶來的潛在不公平。鑒于此,本文旨在對健康領域中算法偏見的形成原因和應對策略進行綜述,以期提高醫(yī)護工作者對算法偏見的認識,并提出可能的解決策略,為保障醫(yī)療衛(wèi)生信息化背景下的患者健康公平提供參考。

        1 算法偏見的形成原因

        算法偏見的形成貫穿AI開發(fā)全過程,因數(shù)據收集階段隱含偏見而埋下隱患,因訓練優(yōu)化階段缺乏公平性而嵌入AI,因輸出應用階段缺乏透明度而產生影響,并繼而加劇數(shù)據收集階段中的偏見,造成算法偏見的惡性循環(huán)。明確算法偏見的形成原因有助于醫(yī)護工作者識別算法偏見現(xiàn)象,預防其對患者健康公平的侵害。

        1.1 AI的健康數(shù)據隱含偏見 數(shù)據是AI學習的核心,也是導致算法偏見的主要原因,理想的健康數(shù)據應能夠真實、無偏見地反映臨床實踐[7]。然而,人為偏見常常隱藏于臨床健康數(shù)據之中,尤其是病歷記錄等非結構化文本數(shù)據,致使AI學習數(shù)據中的偏見,形成算法偏見[8]。例如,CHEN等[9]指出醫(yī)護工作者常會無意識地認為某類人群不易患有特定疾病,如相比于男性,女性因較少的吸煙行為而被認為不易患有肺炎,從而導致在記錄女性肺炎患者的癥狀時,醫(yī)護工作者傾向于將其癥狀描述得復雜、多樣,致使該群體的文本數(shù)據異質性較大,難以真實反映疾病情況;若利用該文本數(shù)據預測肺炎患者的死亡率,將形成算法偏見,體現(xiàn)為AI對女性肺炎患者的預測結局復雜多樣,繼而導致醫(yī)護工作者易對該群體采取錯誤的醫(yī)療決策。

        臨床情境差異導致的樣本缺乏代表性同樣會使健康數(shù)據隱含偏見。臨床罕見疾病或偏遠地區(qū)人群數(shù)據缺失等問題將導致AI無法充分學習這一類群體的健康特征,從而引發(fā)算法偏見[10]。例如,BORGESE等[11]在通過AI預測酒精濫用行為時發(fā)現(xiàn),由于數(shù)據中低年齡患者的占比較低,致使AI對該人群的疾病診療方式學習不充分,易出現(xiàn)錯誤的預測結果,從而導致該群體中的高風險患者未能及時接受治療,造成健康公平問題。綜上,健康數(shù)據常難以真實反映臨床實踐,人為無意識偏見和臨床樣本缺乏代表性等問題可使健康數(shù)據隱含偏見,為算法偏見埋下隱患。

        1.2 AI的訓練優(yōu)化缺乏公平性 AI訓練優(yōu)化的過程由人類開發(fā)設計,目前健康領域側重使AI能夠輸出與實際情況相一致的診斷或預測結果,然而,準確地輸出結果并不意味AI能夠平等對待劣勢群體,即AI的精確性并不等同于公平性[12]。具體而言,精確性和公平性均是AI訓練優(yōu)化的評估指標,精確性側重從樣本總體的角度評估AI預測結果與實際情況的相符程度,而公平性側重從樣本亞組的角度評估AI對不同亞組的預測能力(如預測值、假陽性率)有無差異[13]。醫(yī)護工作者在開發(fā)AI時若忽略對公平性這一指標的考量,將致使客觀、公正的AI算法不受約束地直接學習數(shù)據中的隱含偏見,形成偏見的規(guī)則邏輯,導致AI區(qū)分對待劣勢群體[14]。

        在訓練優(yōu)化階段中,醫(yī)護工作者對AI訓練方式、訓練內容的選取將直接影響公平性。由于不同亞組間(如非洲裔和拉丁裔)患者的基因、生物、社會等因素存在差異,醫(yī)護工作者若采用基于樣本總體的經典訓練方式,如決策樹模型等,易導致AI雖然能夠準確地進行健康預測與決策,但會忽略各亞組間的差異,難以同時提升AI的精確性和公平性[15]。AI的輸入特征、輸出標簽等訓練內容也可影響公平性。國外多項研究在預測腎小球濾過率時發(fā)現(xiàn),將種族作為輸入特征雖有助于提升AI的精確性,但不同種族之間存在生理差異可能致使AI的公平性降低,亞組上表現(xiàn)為非洲裔美國人的腎小球濾過率預測值過高,誘導醫(yī)務工作者將其腎臟功能視為更加健康,從而延誤疾病的診斷與治療[16-17]。綜上,AI的精確性不等同于公平性,醫(yī)護工作者在選取AI的訓練方式及訓練內容時,若僅關注精確性而忽視公平性,易導致客觀、公正的AI算法學習數(shù)據中的偏見,促使算法偏見形成。

        1.3 AI的輸出應用缺乏透明度 算法偏見的判定包括兩個條件,一是AI區(qū)分對待劣勢群體,二是相較于優(yōu)勢群體,AI對劣勢群體產生實際不良影響。然而,由于AI技術具備“僅判相關”和“黑箱”的特性,導致醫(yī)護工作者在構建和應用AI時存在低透明度問題,即難以評估人為選擇內容對AI邏輯與輸出的影響,從而加劇算法偏見[4]。首先,AI具有“僅判相關”的特性,即AI僅能學習數(shù)據中變量之間的相關性,而不考慮推理與決策的因果關系,這一特性會導致AI從數(shù)據中學習超出人類預期的異常邏輯規(guī)則[18-19]。例如,CARUANA等[20]在預測肺炎患者死亡風險時指出,同時患有肺炎和哮喘的患者多在重癥監(jiān)護室接受治療,鑒于重癥治療技術和資源的分配具有優(yōu)勢,使得該群體的死亡率反而低于僅患有肺炎的患者,導致AI學習反常的相關性邏輯,錯誤地將哮喘判定為肺炎患者的保護因素。其次,AI技術常被視為“黑箱”,即高度復雜的AI計算過程通常超出人類的認知與理解能力,致使醫(yī)護工作者難以明確和解釋AI輸出結果的產生原因[13];PARASURAMAN等[21]在此基礎上指出,實踐應用過程中AI的普及推廣和臨床任務的復雜性等外界因素會再次加劇這一問題,促使醫(yī)護工作者易默認AI的輸出結果正確無誤,阻礙其發(fā)現(xiàn)算法偏見的形成和影響。最終,基于AI偏見輸出的臨床決策將誘發(fā)健康公平問題,并在實踐應用過程中加劇數(shù)據產生與收集的隱含偏見,形成算法偏見的惡性循環(huán)[22]。

        2 算法偏見的應對策略

        面對算法偏見的挑戰(zhàn),醫(yī)護工作者需保障真實無偏見的數(shù)據收集,優(yōu)化訓練過程中的AI公平性,并加強AI輸出應用的透明度,從而減少算法偏見,避免AI因患者的種族、性別等方面的特征而對其產生劣勢影響,以維護患者的健康公平。

        2.1 保障AI健康數(shù)據的真實無偏見 高質量數(shù)據是降低算法偏見的關鍵,醫(yī)護工作者作為健康數(shù)據的生產者、采集者和管理者,需保障健康數(shù)據的真實無偏見[22]。首先,醫(yī)護工作者需減少健康數(shù)據中的人為偏見,可利用標準化數(shù)據以規(guī)范數(shù)據的記錄內容,通過對比主客觀資料,識別和糾正自身因無意識偏見而對劣勢群體做出的差異推斷,從而避免錄入偏見信息[23];亦可采用對抗學習等技術手段以選取真實數(shù)據,或通過提升標準化客觀數(shù)據的內容占比,從而減弱健康數(shù)據中的人為偏見[10,24]。其次,醫(yī)護工作者需了解健康數(shù)據的分布情況,分析各亞組數(shù)據對AI學習的影響,以此判斷是否存在劣勢群體數(shù)據缺失等問題,進而通過數(shù)據審查、數(shù)據集合并等方法確保不同亞組的數(shù)據分布均衡[12,19,25]。例如,OBERMEYER等[6]在預測疾病風險人群時,通過調整白種人和非洲裔美國人的預測標簽,使兩者的健康數(shù)據分布相似,最終非洲裔美國人的健康資源分配率從17.7%提升至46.5%。此外,醫(yī)護工作者應知曉健康數(shù)據中的偏見本質上來源于臨床實踐,故需考慮如何從偏見數(shù)據中識別和管理人為偏見,以保障真實無偏見的數(shù)據產生與收集[10]。

        2.2 優(yōu)化AI的公平性 高精確性AI雖然能夠輸出準確的預測結果,卻可能因缺乏公平性而區(qū)分對待劣勢群體,醫(yī)護工作者需在訓練優(yōu)化階段中評估和改善AI的公平性[26]。AI公平性的評估可從總體和亞組兩個角度切入,醫(yī)護工作者需結合亞組間患者健康狀況差異以選取合適的評估方法[14]。具體而言,當不同亞組間患者健康狀況差異較小時,應選擇從總體角度評估,判斷AI對同一總體患者的預測值,如疾病發(fā)病率是否會隨患者性別、種族等信息的改動而發(fā)生異常變化[13];反之,當亞組間患者健康狀況差異較大時,應從亞組角度評估,判斷AI在不同亞組間的真陽性率等預測能力有無差異[24]。此外,KLEINBERG等[15]在亞組角度的基礎上指出,評估方法的選取尚需考慮AI預測結果對患者健康結局的影響,如當預測結果對患者產生較大的消極影響時,應側重評估AI的假陽性率,消極影響較小時則側重評估假陰性率。

        醫(yī)護工作者可通過調整AI的訓練方式,糾正AI規(guī)則邏輯的學習過程,從而改善公平性,降低算法偏見。例如,BORGESE等[11]在預測酒精濫用行為時指出,當AI在亞組角度上的預測能力(如假陽性率)存在差異,可將數(shù)據按照性別、種族等進行亞組分類,并針對各亞組數(shù)據進行逐一訓練,一定程度上能夠維護AI對劣勢群體的學習過程,具有改善公平性的潛能;GAO等[27]進一步指出,當劣勢群體的數(shù)據嚴重缺乏,基于亞組的逐一訓練效果不佳時,可在訓練階段采用遷移學習的算法,通過利用優(yōu)勢群體的數(shù)據,改善AI對劣勢群體的學習過程。此外,醫(yī)護工作者應思考AI的訓練內容是否客觀、公正,需側重選取能夠直接反映個體健康狀況的訓練內容[10]。例如,對于上述根據醫(yī)療開銷這一標簽構建的AI,表面上該AI能夠基于醫(yī)療開銷的高低,看似公正、準確地預測高危人群,但若將該標簽替換為慢性病共病種數(shù),可發(fā)現(xiàn)相同風險下,不同種族之間患者的健康狀況存在明顯差異[6]。值得注意的是,優(yōu)化AI公平性可能會以降低其精確性為代價,因此醫(yī)護工作者應權衡如何在提升AI公平性的同時維持高精確性,從而保障AI的臨床應用價值[28]。

        2.3 加強AI輸出應用的透明度 醫(yī)護工作者作為患者健康的直接參與人員,需能夠理解AI偏見結果的產生原因,并判斷其對患者健康公平的實際影響,從而改善AI在輸出應用過程中的低透明度問題,及時預防算法偏見[2]。首先,醫(yī)護工作者需提升對AI學習過程的理解,積極參與AI開發(fā)的全過程,包括數(shù)據審查、特征選擇、算法構建與優(yōu)化、性能評估與驗證等各開發(fā)環(huán)節(jié),可輔以因果網絡或半監(jiān)督學習等技術手段協(xié)助識別AI輸入數(shù)據和輸出結果之間的規(guī)則邏輯,使AI學習過程有跡可循,從而及時發(fā)現(xiàn)AI偏見輸出的形成[29-31]。其次,醫(yī)護工作者需深思臨床任務的內在特征,明確使用AI決策的必要性和現(xiàn)實意義,權衡AI決策的優(yōu)勢與局限,以避免過度依賴AI的輸出結果[2,21]。再者,醫(yī)護工作者在應用AI過程中,需能夠從個體行為、環(huán)境交互、社會文化和醫(yī)療政策等方面綜合分析AI輸出結果對患者健康公平的影響[32]。這一目標需醫(yī)護工作者咨詢和傾聽多方意見以避免片面評估,可聯(lián)合患者、技術人員和管理人員等利益相關人群共同參與AI審查,或通過可視化手段直接呈現(xiàn)AI應用對臨床效益的影響,從而預防算法偏見的不良影響[13,23,28]。然而,提升AI輸出應用的透明度雖能降低算法偏見的影響,卻無法消除人為因素導致的偏見現(xiàn)象,因此醫(yī)護工作者在分析AI對患者健康公平的影響時,需思考如何將算法應用與人為偏見相剝離,實現(xiàn)在審查AI的同時能夠識別臨床實踐中的不公平現(xiàn)象。

        3 總結與展望

        AI作為一把“雙刃劍”,雖能為臨床實踐帶來重要價值,卻會因算法偏見而損害劣勢群體的健康公平。算法偏見本質上是人為偏見的技術化體現(xiàn),而這種偏見常因算法或數(shù)據的客觀性而被忽略。由于現(xiàn)實生活中存在偏見現(xiàn)象,導致收集的健康數(shù)據中隱含偏見,致使AI學習到偏見的規(guī)則邏輯,繼而在臨床實踐中對劣勢群體產生不良影響,形成惡性循環(huán)。醫(yī)護工作者作為AI開發(fā)設計與實踐應用的主要參與人員,應知曉人為選擇與決策可能導致客觀算法的不公平性,故需具有應對算法偏見的意識與能力。首先,醫(yī)護工作者需保障健康數(shù)據真實無偏見,避免在收集客觀數(shù)據時加入個人的主觀推斷,并注意是否存在數(shù)據比例失衡、偏遠數(shù)據缺失等問題,從而確保數(shù)據能夠準確無誤地反映現(xiàn)實世界;其次,醫(yī)護工作者需權衡AI訓練優(yōu)化的公平性與精確性,動態(tài)評估人為選擇的訓練方式和訓練內容對AI性能所產生的影響,從而確保AI在公平的前提下實現(xiàn)最大效益;最后,醫(yī)護工作者需加強AI輸出應用的透明度,通過深化自身對臨床任務和AI技術的認識,評估傳統(tǒng)決策與AI決策對患者健康的影響,權衡AI技術在臨床實踐中的優(yōu)劣,從而避免因過度依賴AI技術而忽略患者主體,防止AI算法偏見產生實際影響,并尚需思考如何辨別和管理臨床實踐中的不公平現(xiàn)象及人為偏見,全面維護患者健康公平[33]。

        作者貢獻:陳龍負責論文撰寫和修改;曾凱、李莎、陶璐、梁瑋、王皓岑參與修改論文;楊如美負責論文選題、修改和質量控制;全部作者閱讀并同意最終稿件的提交。

        本文無利益沖突。

        參考文獻

        [1]CHEN J,KALLUS N,MAO X,et al. Fairness under unawareness:assessing disparity when protected class is unobserved[C]//2019 Proceedings of the Conference on Fairness,Accountability,and Transparency(FAT). Atlanta,GA,USA:Association for Computing Machinery,2019:339-348.

        [2]KARKHAH S,JAVADI-PASHAKI N,F(xiàn)ARHADI FAROUJI A,et al.Artificial intelligence:challenges amp; opportunities for the nursing profession[EB/OL]. (2022-07-21)[2022-12-19]. https://onlinelibrary.wiley.com/doi/10.1111/jocn.16455.

        [3]MHASAWADE V,ZHAO Y,CHUNARA R. Machine learning and algorithmic fairness in public and population health[J]. Nature Machine Intelligence,2021,3:659-666. DOI:10.1038/S42256-021-00373-4.

        [4]詹好. 大數(shù)據時代下數(shù)據挖掘中的算法歧視研究[D]. 長沙:湖南師范大學,2020.

        [5]BRAVEMAN P. Health disparities and health equity:concepts and measurement[J]. Annu Rev Public Health,2006,27:167-194. DOI:10.1146/annurev.publhealth.27.021405.102103.

        [6]OBERMEYER Z,POWERS B,VOGELI C,et al. Dissecting racial bias in an algorithm used to manage the health of populations[J]. Science,2019,366(6464):447-453. DOI:10.1126/science.aax2342.

        [7]KEUROGHLIAN A S. Electronic health records as an equity tool for LGBTQIA+ people[J]. Nature Medicine,2021,27(12):2071-2073. DOI:10.1038/s41591-021-01592-3.

        [8]KARNIK N S,AFSHAR M,CHURPEK M M,et al. Structural disparities in data science:a prolegomenon for the future of machine learning[J]. American Journal of Bioethics,2020,20(11):35-37. DOI:10.1080/15265161.2020.1820102.

        [9]CHEN I Y,SZOLOVITS P,GHASSEMI M. Can I help reduce disparities in general medical and mental health care?[J]. AMA J Ethics,2019,21(2):167-179. DOI:10.1001/amajethics.2019.167.

        [10]PARIKH R B,TEEPLE S,NAVATHE A S. Addressing bias in artificial intelligence in health care[J]. JAMA,2019,322(24):2377-2378. DOI:10.1001/jama.2019.18058.

        [11]BORGESE M,JOYCE C,ANDERSON E E,et al. Bias assessment and correction in machine learning algorithms:a use-case in a natural language processing algorithm to identify hospitalized patients with unhealthy alcohol use[J]. AMIA Annu Symp Proc,2022,2021:247-254.

        [12]CHEN I Y,PIERSON E,ROSE S,et al. Ethical machine learning in healthcare[J]. Annu Rev Biomed Data Sci,2021,4:123-144. DOI:10.1146/annurev-biodatasci-092820-114757.

        [13]LEPRI B,OLIVER N,LETOUZé E,et al. Fair,transparent,and accountable algorithmic decision-making processes[J]. Philosophy amp; Technology,2018,31:611-627. DOI:10.1007/s13347-017-0279-x.

        [14]SALEIRO P,KUESTER B,STEVENS A,et al. Aequitas:a bias and fairness audit toolkit[EB/OL]. (2019-04-29)[2022-12-19]. https://arxiv.org/abs/1811.05577.

        [15]KLEINBERG J M,MULLAINATHAN S,RAGHAVAN M. Inherent trade-offs in the fair determination of risk scores[C]//2017 8th Conference on Innovations in Theoretical Computer Science(ITCS). Dagstuhl:Leibniz International Proceedings in Informatics(LIPIcs),2017:1-23.

        [16]ANDERSON A H,YANG W,HSU C Y,et al. Estimating GFR among participants in the Chronic Renal Insufficiency Cohort(CRIC) Study[J]. Am J Kidney Dis,2012,60(2):250-261. DOI:10.1053/j.ajkd.2012.04.012.

        [17]LEVEY A S,HOCINE T,TITAN S M,et al. Estimation of glomerular filtration rate with vs without including patient race[J]. JAMA Internal Medicine,2020,180(5):793-795. DOI:10.1001/jamainternmed.2020.0045.

        [18]MEHRABI N,MORSTATTER F,SAXENA N,et al. A survey on bias and fairness in machine learning[J]. ACM Computing Surveys,2021,54(6):1-35. DOI:10.1145/3457607.

        [19]GIANFRANCESCO M A,SUZANNE T,JINOOS Y,et al. Potential biases in machine learning algorithms using electronic health record data[J]. JAMA Internal Medicine,2018,178(11):1544-1547. DOI:10.1001/jamainternmed.2018.3763.

        [20]CARUANA R,LOU Y,GEHRKE J,et al. Intelligible models for healthcare:predicting pneumonia risk and hospital 30-day readmission[C]//2015 Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining(KDD). Sydney:ACM,2015:1721-1730.

        [21]PARASURAMAN R,MANZEY D H. Complacency and bias in human use of automation:an attentional integration[J]. Hum Factors,2010,52(3):381-410. DOI:10.1177/0018720810376055.

        [22]CHU C H,NYRUP R,LESLIE K,et al. Digital ageism:challenges and opportunities in artificial intelligence for older adults[J]. Gerontologist,2022,62(7):947-955. DOI:10.1093/geront/gnab167.

        [23]MOSS K O,HAPP M B,BRODY A. Nurses' role in reducing inequities for the seriously ill[J]. J Gerontol Nurs,2022,48(8):3-5. DOI:10.3928/00989134-20220629-01.

        [24]KAIROUZ P,LIAO J,HUANG C,et al. Generating fair universal representations using adversarial models[J]. IEEE Transactions on Information Forensics and Security,2022,17:1970-1985. DOI:10.48550/arXiv.1910.00411.

        [25]KOH P W,LIANG P. Understanding black-box predictions via influence functions[C]//2017 Proceedings of the 34th International Conference on Machine Learning(ICML). Sydney:PLMR,2017:1885-1894.

        [26]The Lancet Digital Health. New resolutions for equity[J]. Lancet Digit Health,2022,4(1):1. DOI:10.1016/S2589-7500(21)00280-6.

        [27]GAO Y,CUI Y. Deep transfer learning for reducing health care disparities arising from biomedical data inequality[J]. Nat Commun,2020,11(1):5131. DOI:10.1038/s41467-020-18918-3.

        [28]ZHANG Y,BELLAMY R,VARSHNEY K R. Joint optimization of AI fairness and utility:a human-centered approach[C]//2020 AAAI/ACM Conference on AI,Ethics,and Society(AIES). New York:Association for Computing Machinery,2020:400-406.

        [29]ZHOU Y,LI Z,LI Y. Interdisciplinary collaboration between nursing and engineering in health care:a scoping review[J]. Int J Nurs Stud,2021,117:103900. DOI:10.1016/j.ijnurstu.2021.103900.

        [30]ZHANG L,WU Y,WU X. A causal framework for discovering and removing direct and indirect discrimination[C]//2017 26th International Joint Conference on Artificial Intelligence. Melbourne:AAAI Press,2017:3929-3935.

        [31]PRYZANT R,YANG Z,XU Y,et al. Automatic rule induction for efficient semi-supervised learning[EB/OL]. (2022-10-14)[2022-12-19]. https://arxiv.org/abs/2205.09067.

        [32]RICHARDSON S,LAWRENCE K,SCHOENTHALER A M,et al. A framework for digital health equity[J]. NPJ Digital Medicine,2022,5:1-6. DOI:10.1038/s41746-022-00663-0.

        [33]Nature Machine Intelligence. Striving for health equity with machine learning[J]. Nature Machine Intelligence,2021,3:653. DOI:10.1038/s42256-021-00385-0.

        (收稿日期:2023-01-05;修回日期:2023-03-23)

        (本文編輯:張亞麗)

        午夜免费福利小电影| 日本二区三区视频在线观看| 国产精品熟女少妇不卡| av天堂一区二区三区精品| 久久色悠悠综合网亚洲| 亚无码乱人伦一区二区| 精品国产人妻一区二区三区| 午夜无码一区二区三区在线| 一本久道在线视频播放| 国产精品偷窥熟女精品视频| 男人添女人下部高潮全视频| 日本精品网| 成人在线观看视频免费播放| 国产极品粉嫩福利姬萌白酱| 国产女女精品视频久热视频| 99re国产电影精品| 日韩美女av一区二区三区四区| 国精品人妻无码一区二区三区性色| 少妇人妻在线视频| 中日韩字幕中文字幕一区| 国产草逼视频免费观看| 国产精品一区二区在线观看| 国产精品原创巨作av无遮| 青青草视频在线观看视频免费 | 久久久久亚洲av无码专区网站| 99久久精品国产自在首页| 亚洲午夜精品第一区二区| 国产情侣自拍一区视频| 手机看片福利一区二区三区| 激情内射亚洲一区二区三区爱妻 | 国产麻豆国精精品久久毛片 | 久久久久久国产精品免费免费男同| 亚洲aⅴ无码日韩av无码网站| 久久久亚洲一区二区三区| 美女张开腿黄网站免费| 永久免费无码av在线网站| 福利视频一二区| 女主播啪啪大秀免费观看| 国产精品天堂avav在线| 亚洲综合中文字幕乱码在线| 美女被搞在线观看一区二区三区 |