宋曉琳,尹 梅
(哈爾濱醫(yī)科大學人文社會科學學院,黑龍江 哈爾濱 150081,hmusongxiaolin@163.com)
人工智能是一場科技革命,所有領域都在經歷著它的發(fā)展所帶來的變化。尤其是人工智能在醫(yī)學應用方面獲得了許多突破,如利用機器深度學習進行醫(yī)療決策、計算機輔助內科學診斷、制定初步醫(yī)療方案、手術機器人等。此外,人工智能技術在醫(yī)院管理、學術研究及藥物研發(fā)等醫(yī)學相關領域也被廣泛應用。隨著我國人工智能政策的推行和科學技術的發(fā)展,人工智能在基層醫(yī)療衛(wèi)生機構應用中發(fā)揮著越來越重要的作用。
人工智能的快速全面發(fā)展使得其在醫(yī)療過程中的應用場景更加多樣化,人工智能的使用滲透院前健康管理、院中診療、院后康復等多個環(huán)節(jié)。目前,基層醫(yī)療衛(wèi)生機構人工智能的應用主要涉及以下幾個方面:
醫(yī)療虛擬助理:其主要運用于語音電子病歷、智能導診、智能問診等方面,減少醫(yī)療過程中的煩瑣程序的同時也可幫助醫(yī)院緩解高峰壓力。
醫(yī)學影像:幫助基層醫(yī)療衛(wèi)生機構完成病灶識別與標注、三維重建等基礎的影像診斷,提高診療準確度和診療效率。
輔助診療:通過醫(yī)療大數據分析,輔助醫(yī)生進行臨床決策及藥物處方的選擇;醫(yī)療機器人的使用可彌補醫(yī)生技術水平、狀態(tài)不良等因素。
疾病篩查和早期疾病預測:通過電子醫(yī)療記錄使用特定算法識別具有遺傳性疾病家族史或慢性病風險增加的群體。
健康管理:通過分析基因數據、代謝數據等,幫助人們提供基礎的營養(yǎng)學膳食搭配等各方面的生活建議,從而規(guī)避患病風險;可穿戴人工智能設備能夠監(jiān)測個人健康數據,降低患者處于危險狀態(tài)的風險;虛擬機器人可以輔助進行慢性病患者電話隨訪,減少人力損耗。
伴隨人口增多、人口老齡化加劇以及慢性疾病發(fā)病率的增長,我國醫(yī)療衛(wèi)生系統(tǒng)壓力急劇增加。分級診療政策下基層醫(yī)療衛(wèi)生機構的規(guī)范化系統(tǒng)化發(fā)展一定程度上可以緩解這一問題,但現階段我國基層醫(yī)療衛(wèi)生機構普遍出現優(yōu)質醫(yī)療資源供給不足、人才短缺、醫(yī)生培養(yǎng)周期長、診斷效率及正確率低、信息傳遞困難、無法及時應對醫(yī)療變化等問題,使其難以取得患者信任。同時人們對疾病規(guī)律認識不足,對基層醫(yī)療衛(wèi)生機構服務能力持有懷疑態(tài)度,導致就醫(yī)趨高、趨大、趨重現象的出現,基層醫(yī)療衛(wèi)生機構難以勝任醫(yī)療系統(tǒng)“醫(yī)療入口”的重要任務,也無法作為轉診跳板占據重要地位。
人工智能在基層醫(yī)療衛(wèi)生機構的應用是我國實行分級診療的關鍵要素。人工智能的高效性、敏感性和特異性使其可以在短時間內學習大量文獻和病例,并通過深度學習發(fā)現數據中難以察覺的相關性,分析醫(yī)學過程中產生的大量圖像和其他數據,幫助進行輔助診斷。基層醫(yī)生可以在人工智能的輔助下規(guī)范診療行為,提供更加安全高效的醫(yī)療服務,大大彌補了基層醫(yī)療衛(wèi)生機構在專業(yè)水平、數據分析能力、綜合應對能力方面的不足,從而提高患者滿意度,增進醫(yī)患互信。
同時,人工智能系統(tǒng)在基層醫(yī)療衛(wèi)生機構的有效利用可以緩解基層醫(yī)生培養(yǎng)壓力。醫(yī)學人才培養(yǎng)周期較長,并且基層醫(yī)療衛(wèi)生機構尤其是偏遠地區(qū)基層醫(yī)療衛(wèi)生機構難以吸收到優(yōu)秀醫(yī)學人才,人工智能系統(tǒng)對醫(yī)療環(huán)境的選擇性較低并且可以支持大量患者群體,可幫助偏遠地區(qū)改善醫(yī)療條件,調節(jié)不同區(qū)域之間的醫(yī)療公平性。
人工智能在國家醫(yī)療改革政策及基層醫(yī)療衛(wèi)生機構的應用上有著不可或缺的價值和意義,但我國人工智能的發(fā)展尚處于探索階段,技術、法律等方面未能及時跟進,同時人工智能的應用在倫理方面還存在許多局限性。
人工智能作為先進科學技術,其研發(fā)、制作、實驗及使用需要大量的資本投入,我國地區(qū)經濟發(fā)展很不均衡,醫(yī)療衛(wèi)生資源分布不平均,現階段我國人工智能多應用于經濟發(fā)達地區(qū)的三甲醫(yī)院,經濟落后地區(qū)及基層醫(yī)療衛(wèi)生機構很難享受到人工智能醫(yī)學應用服務。此外,高端人工智能技術伴隨著高昂的醫(yī)療費用,這也是制約人工智能在基層醫(yī)療衛(wèi)生機構應用的關鍵因素之一。如達芬奇手術機器人可以觸及人手難以企及的角度,在進行更加精確的操作時,機械手臂擁有更小的體積,使得它更加靈活多變,比人手操作更具有競爭性和優(yōu)勢[1]。但由于國家配額和企業(yè)壟斷,機器人數量少、購買和維護花銷大,機器人手術的費用也大大高于傳統(tǒng)手術。
與目前人工智能為基層醫(yī)療衛(wèi)生機構帶來的醫(yī)療水平改善相比,人工智能的研發(fā)和投入成本是否可與其成正比?在基層醫(yī)院投入使用人工智能時,又應該以怎樣的標準進行資源分配來改善地區(qū)醫(yī)療水平的差距,實現醫(yī)療的公平性?如何保障普通居民能夠最大限度地享用到人工智能服務?這都是在人工智能發(fā)展過程中需要面臨可及性與可負擔性問題。除此之外,患者對基層醫(yī)療衛(wèi)生機構的固有偏見也可能不利于人工智能的充分使用;或 患者更信任人工智能,會導致醫(yī)生主體地位的變化,引發(fā)新的醫(yī)患關系不和諧,也會增加醫(yī)生自身對人工智能輔助診斷的排斥程度和應用的積極性。
數據是人工智能的基礎,基于數據深度學習而產生的人工智能系統(tǒng)要求大量的變量分析和復雜的底層結構,具有“黑匣子”性質,并且能夠在實現無人干預和自我修正的自動化運行,其預測結果的算法很難實現完全的明確性與透明度,人工智能的設計者和生產者也難以預測其可能發(fā)生的變化,所以人工智能的可解釋性和透明度成為其備受爭議的關鍵點,也是人工智能自身的安全性隱患之一。目前的人工智能還只是基于大量數據學習而作出決策的判斷系統(tǒng),只能在已有數據的基礎上進行優(yōu)化,將概率最大的可能性作為最優(yōu)解呈現,這一過程中,數據容量和運算方式都會影響人工智能的判斷,若人工智能不再按照已設定目的進行診斷或處方,引起診療差錯,將直接損害患者的生命財產安全。
2018 年11月,國家藥品監(jiān)督管理局醫(yī)療器械技術審評中心確定了3類人工智能醫(yī)療器械審批的全流程,但尚不能覆蓋所有人工智能技術在醫(yī)學領域的應用[2]。人工智能現階段研發(fā)并不成熟且缺少統(tǒng)一的國家監(jiān)管標準,在使用過程中因外部安全因素如能源供應、人為損壞等造成的系統(tǒng)安全問題難以得到有效把握和控制,系統(tǒng)升級更新產生的系統(tǒng)漏洞導致的安全問題也難以及時發(fā)現和彌補。
人工智能輔助基層醫(yī)療衛(wèi)生機構進行診療及決策,可以幫助提高基層醫(yī)生的診斷準確率,同時也能夠使基層醫(yī)生通過人工智能的輔助進行學習與提高,幫助基層患者得到更好的診療結果。但人工智能相對于人類醫(yī)生來說,其缺少人類基本的共情和同理心。Manyika等解釋了人工智能偏見滲透到算法中的方式。人工智能系統(tǒng)學習根據培訓數據作出決策,這些數據可能包括有偏見的人類決策,即使刪除了敏感變量,人工智能也仍有可能反映歷史或社會的不公平[3]。另外,2018年Joy Buolamwini和Timnit Gebru通過研究發(fā)現面部分析技術對部分人群有更高的錯誤率,這可能是由于不具代表性的培訓數據導致的[4]。
當人工智能系統(tǒng)用于決定患者的臨終護理,必須在持續(xù)治療和治療中斷之間作出選擇時,人工智能系統(tǒng)將如何運轉;面對患者因經濟或文化因素作出放棄治療的決定時,人工智能是否可以通過被編程來衡量情感需求和生理需求從而作出適合患者的決策;如果人工智能的同理心數據來自于人類的共同經歷,那么這些經歷能否在符合倫理的基礎上被重現。在面對臨床決策時,人工智能可能會因數據差異導致決策的不公平性產生。同時,當面對患者對病情的復雜態(tài)度,缺乏共情和同理心的人工智能也難以判斷并作出最優(yōu)決策。
人工智能的使用安全性問題可能導致診療失誤的發(fā)生,人工智能在使用過程中造成的醫(yī)療事故由誰來承擔責任的問題涉及法律和倫理兩個層面。
在涉及人工智能的醫(yī)療事故中,具體的責任劃分會更加困難。例如,醫(yī)生提供的相關數據造成人工智能分析的偏差進而影響診療,其中需要承擔責任是很難用具體的數、量來評判或定性的。而如果人工智能在獨立學習中產生錯誤,數據提供、技術維護、監(jiān)督審查等過程的所有參與者,都有可能涉及責任的承擔。
我國法律規(guī)定醫(yī)療事故責任人認定的醫(yī)療事故的行為人,必須是經過考核和衛(wèi)生行政機關批準或承認,取得相應資格的各級各類衛(wèi)生技術人員,那么,作為實施診療行為的人工智能是否能夠作為責任主體來接受相應的處罰?2017年10月,由中國香港漢森機器人技術公司開發(fā)的類人機器人索菲亞在阿聯(lián)酋被授予公民身份,使其成為世界上第一個具有“人權”的機器人。人工智能的發(fā)展為醫(yī)療機構提供高效診療服務的同時對其道德地位也提出了挑戰(zhàn)。
公民的個人隱私是我國法律保護的重要內容,在醫(yī)療過程中,患者的個人信息和醫(yī)療數據都屬于個人隱私的范疇。人工智能作為一項科學技術,其運行需要大數據支撐,在數據吸收、讀取及分析的過程中,使用者的隱私是否能夠得到有效保障尤為重要。畢馬威(KPMG)的一項調查結果指出,75%的醫(yī)療保健內部人員擔心人工智能可能威脅患者數據的安全和隱私[5]。
我國公民對個人數據安全和隱私保護意識不強,目前,法律、監(jiān)督難以匹配科技創(chuàng)新和進步帶來的數據安全問題,運用科技手段所造成個人隱私泄露更加難以察覺和追究。與此同時,企業(yè)對用戶的個人隱私保護不重視或難以預測,導致技術失控帶來的數據安全和隱私保護隱患[6]。在現有條件下,非法進行的人工智能系統(tǒng)攻擊、相關工作人員故意竊取人工智能機器集成信息、使用過程中造成的信息泄露等問題都難以避免。隨著在線信息技術獲取知識的廣泛應用,以及允許用戶收集和跟蹤自己的健康數據的健康可穿戴設備的可訪問性,患者現在既面臨著額外的自主權,也面臨著由于采集更大范圍的復雜數據而產生的額外風險。
此外,隨著市場需求增加,大型IT公司以及以人工智能為基礎、以醫(yī)療為導向的初創(chuàng)企業(yè)在醫(yī)學領域大規(guī)模登陸,其中許多公司提出或整合人工智能元素,這種參與的復雜性和潛在缺陷,將提高隱私保護問題的門檻。
人人都應平等享有人工智能醫(yī)學服務的機會,以促進醫(yī)療健康的公正。切實建立可行的方案促進人工智能醫(yī)學應用的分配公正,提高人工智能醫(yī)學應用的可及和可負擔性,能夠有效緩解我國醫(yī)療衛(wèi)生資源緊張的情況。
遵循分配公正原則是有效促進健康公平的路徑。尤其需要關注弱勢群體和基層地區(qū),可以通過社會互助系統(tǒng)和醫(yī)保系統(tǒng),促進健康公平。在人工智能因經濟原因難以在基層醫(yī)療衛(wèi)生機構完全推行的前提下,可以有規(guī)劃性地分階段、逐步開展部分人工智能的使用,緩解基層醫(yī)療衛(wèi)生機構迫切需要改善的醫(yī)生經驗不足、診斷效率低、診療效果差等問題,加強基層醫(yī)療衛(wèi)生機構的服務能力,提高分級診療效率,如通過智能信息化系統(tǒng)和區(qū)域性電子病歷搭建信息平臺,建立區(qū)域醫(yī)療聯(lián)合體,發(fā)揮三級醫(yī)院的核心帶動作用,推動優(yōu)質衛(wèi)生資源下沉,擴充基層醫(yī)療衛(wèi)生機構的診療能力,構建同質化醫(yī)療衛(wèi)生服務體系。
雖然人類賦權于人工智能醫(yī)學應用,但它的權力不能凌駕于倫理和法律以外。人工智能醫(yī)學應用應充分做到以人為本,符合倫理和法律要求。規(guī)范人工智能的醫(yī)學應用,需要構建人工智能應用的法律規(guī)范和倫理規(guī)范。
構建人工智能的法律規(guī)范:由于社會對數據的信任度越來越低,應保證數據傳輸的透明度和公開性,了解其運行機制,在一定范圍內制約人工智能的權力,以避免對人類造成較大傷害;加強或建立控制數據處理、管理和使用的治理機制;制定同步監(jiān)督機制,對人工智能技術進行法律管制和監(jiān)督,以確保現存社會原則不受侵犯。
構建人工智能的倫理規(guī)范:加強人工智能主體的人文教育,增強其道德責任意識,培養(yǎng)以人類整體利益為核心的價值觀;以醫(yī)學倫理原則中的不傷害原則作為人工智能醫(yī)學研發(fā)和應用的基本標準,避免對患者造成生理上和心理上的損傷,保護患者基本權利;在研發(fā)過程中為人工智能增添道德層面數據評判。
隨著人工智能在醫(yī)學領域的發(fā)展和應用,越來越多的人工智能給醫(yī)學提供的便利性、可靠性和有效性得到驗證。通過技術手段可以針對人工智能在使用過程中出現的缺點制定有利有效的解決措施,使人工智能更具臨床適用性,醫(yī)療機構通過向人工智能提供學習環(huán)境,幫助醫(yī)療機構達到更高的效率和成本效益目標,形成人工智能與醫(yī)學的互惠互利。
人們應該相信人工智能支持而不是替代醫(yī)生,患者和醫(yī)務人員必須意識到醫(yī)療活動最終仍然是由人類醫(yī)生所領導,了解人工智能輔助診療的本質,客觀看待其有益性,減少對人工智能診療的偏見、恐懼,同時也加深理解人工智能的局限性,減少對人工智能醫(yī)學應用的過度依賴。
我國對人工智能醫(yī)學應用的安全性標準和風險監(jiān)管尚處于探索階段,需要從人工智能開發(fā)的安全性、應用的有效性、風險可控性及責任的可追究性對其研究和應用進行規(guī)范。
國家應積極引導人工智能開發(fā),加強對人工智能的安全及性能測試,保障使用過程中的準確度,提高人工智能的可解釋性,減少診療錯誤風險,同時應保證軟件硬件的有效支持,防止非法惡意入侵,影響人工智能的安全使用。醫(yī)療機構應不斷加強基層醫(yī)護人員的技能培訓,減少使用風險,最大限度保障患者生命安全。另外,可以通過加強國際合作,以減少人工智能在使用過程中的安全隱患。
國家需要對現有法規(guī)進行審查和調整,為人工智能的良性發(fā)展和應用提供法律支持。針對人工智能醫(yī)學應用可能對人造成的傷害,應盡快清晰地明確責任歸屬。在面對損害時需要及時救濟受害者,同時,仔細判定人工智能在事故中所扮演的角色,具體問題具體分析,嚴厲禁止利用人工智能推卸個人責任的情形,充分維護患者的權益。
人工智能醫(yī)學應用的信息安全保護主要涉及三方面:醫(yī)療健康數據保護;保護數據主體不可剝奪的隱私權;明確數據主體的信息不受自動化處理的權利、數據主體要求解釋決策的權利。人工智能醫(yī)學應用的信息安全保護有助于防止數據盜用、身份盜用等風險,對公民個人隱私的保護需要從國家政策、社會行業(yè)自律及提高個人隱私保護意識多個方面進行考量和監(jiān)管。
在大數據和人工智能時代,我國應加快制定個人信息保護法,保障公民的個人信息安全。人工智能研發(fā)機構應從技術角度入手,構建成熟的安保系統(tǒng)和技術以確保信息安全,防御試圖侵入訪問、盜取或篡改數據的不法分子。同時,公民應提高個人隱私保護意識,辨別信息泄露風險,防范隱私泄露行為,承擔起個人隱私保護責任。
人工智能在基層醫(yī)療衛(wèi)生機構應用中的倫理問題,不僅僅是人工智能技術本身的倫理問題,也是人工智能及其醫(yī)學應用相結合產生的系列倫理問題。了解人工智能的工作機制是建立和維護信任的關鍵。值得信任的人工智能應該是安全的、非歧視的、可及的和可負擔的、可解釋的和透明的,以確保人工智能在尊重人類的倫理原則和價值基礎上,發(fā)揮其最大的作用。目前,我國人工智能在基層醫(yī)療衛(wèi)生機構的推行進程較為緩慢,難以發(fā)揮人工智能在基層醫(yī)療衛(wèi)生機構的關鍵作用和戰(zhàn)略意義,還需要從政策、科技、法律、經濟、倫理等多個方面共同努力和完善,加快形成富有中國特色的完善、合理、規(guī)范、高效的基層醫(yī)療衛(wèi)生服務體系。