肖志敏,沈興蓉,劉 榮,王德斌
(安徽醫(yī)科大學衛(wèi)生管理學院,安徽 合肥 230032)
人工智能的概念在1956年第一次被明確地提出,60多年以來,人工智能技術已經取得了長足的進步,它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學[1]。人工智能在很多領域中發(fā)揮重要作用,其中包括醫(yī)療衛(wèi)生領域。醫(yī)學人工智能的應用在給人類的健康管理與疾病診斷帶來極大的便利的同時也帶來了諸多倫理問題和挑戰(zhàn)。本文通過研究我國醫(yī)學人工智能的應用現狀,分析其存在的倫理問題,并嘗試構建我國醫(yī)學人工智能倫理治理總體框架,提高人工智能技術在醫(yī)療衛(wèi)生領域中的應用水平,促進我國衛(wèi)生健康事業(yè)的發(fā)展,提高人類的健康水平。
國務院《新一代人工智能發(fā)展規(guī)劃》中明確指出要推動智能醫(yī)療發(fā)展,建立精準智能服務體系,探索智慧醫(yī)院建設,開發(fā)人機協同醫(yī)療機器人、智能診療助手并加強智能健康和群體智能健康管理[2]。醫(yī)學人工智能在我國衛(wèi)生健康行業(yè)的應用越來越廣泛,目前我國醫(yī)學人工智能的應用主要包括7個方面:智能臨床輔助診療應用、醫(yī)用機器人、智能公共衛(wèi)生服務應用、智能醫(yī)院管理、智能化醫(yī)學教育培訓、醫(yī)療設備智能化管理和人工智能輔助藥物研發(fā)[3]。這7個方面的應用涵蓋了各級醫(yī)療衛(wèi)生機構,方便了醫(yī)生精確診治的同時有效地提升了醫(yī)師的診療質量和工作效率,使醫(yī)院逐漸向互聯網化、智能化發(fā)展,大幅度提升了患者的就醫(yī)體驗和百姓的滿意度,極大地促進了我國醫(yī)療衛(wèi)生領域的發(fā)展。
人工智能改變著人類的日常生活和工作方式,尤其在我國醫(yī)療領域有著廣闊的應用前景,促進了我國醫(yī)療衛(wèi)生事業(yè)的發(fā)展,但是隨著人工智能技術的進步和發(fā)展一些倫理問題和挑戰(zhàn)也隨之出現,下文分析了在我國醫(yī)學人工智能的應用中遇到的或潛在倫理問題。
我們既享受著大數據時代給我們帶來的生活或工作上的各種便利之余,又深受著隱私泄露帶來的困擾。人工智能技術的應用則高度依賴“數據”,它們需要從海量、多樣、實時及序列的數據資源來進行訓練和學習算法,在這一過程中,用戶的很多重要數據,如身高、體重、血壓、心功能、位置信息、生活習慣等,都將不可避免地被實時地采集和保存。通過挖掘和分析這些簡單的看似是碎片化的個體資料,人工智能數據庫系統就可以自動生成內容豐富的個體“肖像圖”,從而導致使得用戶在不知情況中失去了對自身隱私的控制權[4]。這些數據被醫(yī)院或人工智能產品公司掌握,由于醫(yī)療數據本身具有較高的價值,如果這些信息被販賣給騙子或者其他醫(yī)療機構,數據主體將面臨著被詐騙或被推銷醫(yī)療產品的風險;另一方面,如果這些數據因為管理不當或系統漏洞產生泄露,也將會對數據主體及其家庭造成嚴重損害。
醫(yī)學智能化的一種重要實施途徑就是“個性化”,即向每個個體提供各不相同的醫(yī)療衛(wèi)生服務。目前我國的醫(yī)療人工智能的應用主要集中在大型醫(yī)療機構,偏遠地區(qū)或基層診所的患者或居民很難獲得足夠的機會去享受應用這項技術。另外,由于目前我國醫(yī)療人工智能的研究與發(fā)展還正處于初始和起步時期,研發(fā)成本高、研發(fā)人才少,導致一些人工智能提供的服務價格高昂,只有少數有錢人可以消費得起,這也是我國人工智能醫(yī)學應用可及性和可負擔性差的重要原因。難以保證大多數人受益,保證醫(yī)學人工智能應用的公平性仍需一段漫長的道路[1]。
智能化系統的應用,已經大幅度地降低了檢驗、病理、影像、手術等工作負荷。持續(xù)不斷的智能化將會使越來越多的醫(yī)療衛(wèi)生人員的工作內容發(fā)生變化、甚至變得多余,在未來高度智能化的產品可以直接生成檢查結果和針對患者的治療和建議,自助型的看病體驗可能會使醫(yī)生的專業(yè)權威甚至職業(yè)受到威脅,從而引發(fā)醫(yī)患之間的信任危機。
醫(yī)務人員監(jiān)督評價系統可以有效的促進醫(yī)務人員的診療規(guī)范化,提高工作效率,衡量績效,但如果使用不當,會日益強化醫(yī)療衛(wèi)生人員的“受監(jiān)視”感,進而促使他們的日常工作決策與行為發(fā)生相應變化,如引發(fā)過度檢查、過度審慎、刻意規(guī)范化等一系列問題,增加醫(yī)務人員的工作量,過度檢查又會提高患者的就診費用。
一些人工智能產品的應用,如醫(yī)用機器人、醫(yī)學輔助診療技術等的應用,給醫(yī)生的診斷帶來便利的同時,如果過度使用和依賴,可能會使醫(yī)生產生依賴性,在專業(yè)知識和技術上產生懈??;游戲型大眾宣傳與醫(yī)生教育機器人、聊天型心理治療機器人等的過度使用有可能引起患者的心理依賴、情感異化、能力退化等一系列問題。
不斷完善的智能咨詢系統及智能化私人醫(yī)生的應用,將慢慢改變現有的醫(yī)患之間存在巨大的“信息不對稱”狀況。這種改變將對醫(yī)患關系管理及醫(yī)患糾紛的防控產生深遠影響。智能化、網絡化系統的日益普及,會允許患者同時獲得多個醫(yī)生、多個智能系統的診療與治療建議。當這些診斷與建議經常出現相互矛盾時,將降低患者對醫(yī)生的信任感,可能會引起醫(yī)患糾紛[5]。
隨著醫(yī)學人工智能技術應用的日益廣泛,因技術濫用或技術不足以及技術管制中的疏忽而導致患者或居民健康與生命安全問題的機率也會相應增加。中間過程幾乎是“暗箱”的“神經網絡”的技術一旦出現偏差往往很難發(fā)現?;谠贫嘶蛘呋ヂ摼W的人工智能平臺很易受到非法入侵和控制,從而做出對人類有害的事情。過時或不適宜的證據與規(guī)則的應用在新環(huán)境中的錯誤應用會給出錯誤的診療建議,從而有損人類的健康與安全。當有機器人深度參與的醫(yī)療衛(wèi)生服務若出現事故,又該如何界定衛(wèi)生人員、機器及廠商等的責任?這一點在我國法律上還沒有明確的規(guī)定。
近些年,人工智能等前沿技術逐漸應用到醫(yī)學的方方面面,推動了新時代新型醫(yī)學得誕生和演變,同樣也賦予了傳統醫(yī)學新的理念、新的內涵、新的范圍、新的診療手段與康復模式。這些無論對醫(yī)生和患者,都帶來了深遠的影響,已經逐漸成為時代和社會發(fā)展的一種必然趨勢。在無法逆轉社會發(fā)展潮流時,必須正確處理醫(yī)學人工智能技術在應用中所帶來的倫理問題,推動醫(yī)學人工智能技術健康有序的發(fā)展。一些地區(qū)在人工智能倫理治理上已有所嘗試,歐盟在2019年提出“可信任的AI倫理準則”,即尊重人類自主原則、預防傷害原則、公平性原則、可解釋性原則[6]。中國臺灣在2019年發(fā)布《人工智能科研發(fā)展指引》,提出3個AI應遵從的核心價值:以人為本、永續(xù)發(fā)展、多元包容;還有八項核心指引:共榮共利、公平性與非歧視性、自主權與控制權、安全性、個人隱私與數據治理、透明性與可追溯性、可解釋性、問責與溝通[7]。本文參考以上準則,從理念、研發(fā)、應用、監(jiān)管4個方面提出對策和建議,確保醫(yī)學人工智能在全生命周期內安全、穩(wěn)健、合法且符合倫理地運行。
醫(yī)學倫理學的三大基本原則為病人利益第一、尊重病人、公正。在醫(yī)學人工智能的應用中,必須要遵循倫理學的基本原則[8],醫(yī)學人工智能產品是為人類的健康服務,在產品的開發(fā)、應用等全生命周期都應該貫徹“以人為本”的理念。以病人的需求為出發(fā)點,在應用人工智能的診療過程中充分尊重病人的各項權利和意愿。
一方面,制定產品和服務的研發(fā)標準和規(guī)范。在產品的研發(fā)過程中,將醫(yī)學倫理學原則和法律準則“嵌入”到人工智能“算法”中,并事先對醫(yī)學人工智能產品的實際應用場景、行為特點等進行道德風險評估,在前期進行道德防控[9];另一方面,嚴格保護系統,防止漏洞和黑客惡意攻擊,制定和測試安全措施以最大程度地減少意外后果和錯誤,并在系統出現問題時制定可執(zhí)行的備份計劃。
醫(yī)療人工智能技術產品的部署和運行既要始終堅持其實質性的公平又必須能夠保證流程的公平,應該能夠確保其利益與成本之間的平等分配、個體和群體不被歧視或受偏見。同時,醫(yī)學人工智能技術產品的各種功能與目的必須嚴格地保證信息公開透明,特別是在醫(yī)學人工智能產品還處于臨床試驗階段時,患者應具有知情同意權,患者有權利知道醫(yī)學人工智能產品的精確度和局限性。
在醫(yī)學人工智能產品的研發(fā)、應用、銷毀等全流程都要嚴格保護用戶的數據和隱私,確保收集到的信息不被非法利用。應當從法律層面清晰地明確個人對于其信息所擁有的各種基本權利,規(guī)范企業(yè)在網絡上搜索、發(fā)布和使用個人信息等的行為。因此,目前我國醫(yī)療人工智能的應用仍然急需政府部門制定一系列的安全性標準和完善相應的法律、法規(guī),以便于保護病人的信息隱私,在任何一個環(huán)節(jié)都要嚴格保護、嚴防泄露。諸如所有涉及接觸到訪問、傳遞和存放受保護病人信息的專業(yè)技術人員和單位都應被限制在政府部門制定的相應安全性規(guī)范內。
建立醫(yī)學人工智能技術倫理與法律風險審查體系。包括區(qū)域性(中央、省、地三級)及規(guī)模較大醫(yī)療衛(wèi)生機構內的“審查委員會”,以分別負責所在地區(qū)或機構的醫(yī)學人工智能項目的倫理與法律風險的審查。強調“委員會”成員的合理組合,發(fā)揮人工智能學科專家、醫(yī)學專家、哲學倫理專家、法律專家、社會學專家的協同作用。
人工智能在現代醫(yī)學技術中得到快速的應用和發(fā)展,極大地促進了我國現代醫(yī)療衛(wèi)生事業(yè)的繁榮與發(fā)展,這已經成為一個時代和社會發(fā)展的必然趨勢[10],必須重視醫(yī)學人工智能發(fā)展中帶來的倫理問題和挑戰(zhàn),在醫(yī)學人工智能產品的開發(fā)、應用等過程中秉承以人為本的理念,保證產品的安全性和技術穩(wěn)健性,遵循公開透明的原則,注重隱私和數據保護,建立相關審查體系,實現有效監(jiān)管,讓人類更多地享受技術的進步帶來的便利,進而提高全人類的健康水平。