劉 丹,周吉銀
(陸軍軍醫(yī)大學(xué)第二附屬醫(yī)院國家藥物臨床試驗機(jī)構(gòu),重慶 400037,fairyfair@126.com)
隨著醫(yī)療信息化的快速發(fā)展,越來越多的企業(yè)投身于醫(yī)療大數(shù)據(jù)行業(yè),注重將人工智能(Artificial Intelligence, AI)技術(shù)應(yīng)用于醫(yī)療領(lǐng)域,從診斷、監(jiān)護(hù)、治療到康復(fù),各細(xì)分領(lǐng)域都將開啟智能化時代。在深度學(xué)習(xí)日益風(fēng)靡的高科技行業(yè)中,利用AI進(jìn)行影像三維分割、病理圖像分析處理、藥物設(shè)計、個性化精準(zhǔn)醫(yī)療等已日漸普及。同時,AI在生產(chǎn)和應(yīng)用過程中引發(fā)的一系列倫理問題也受到各界學(xué)者的高度關(guān)注。
隨著醫(yī)療衛(wèi)生領(lǐng)域新產(chǎn)品、新技術(shù)的不斷出現(xiàn),我國2002年頒布的《醫(yī)療器械分類目錄》已無法完全適應(yīng)醫(yī)療器械的監(jiān)管工作和行業(yè)發(fā)展需要。原國家食品藥品監(jiān)督管理總局發(fā)布的新版《醫(yī)療器械分類目錄》于2018年8月1日起正式施行。其中特別新增了與AI輔助診斷相對應(yīng)的類別,主要體現(xiàn)在對醫(yī)學(xué)影像與病理圖像的分析與處理上[1]。2018年11月19日,國家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評中心公開向境內(nèi)、外征集從事AI醫(yī)療器械產(chǎn)品的生產(chǎn)企業(yè)信息。2018年12月25日,在北京舉辦的“AI類醫(yī)療器械注冊申報公益培訓(xùn)”公布了醫(yī)療AI領(lǐng)域三類器械審批要點(diǎn)及適用范圍,講解了醫(yī)療AI產(chǎn)品在審批過程中所面臨的軟件更新、數(shù)據(jù)庫、云計算服務(wù)、數(shù)據(jù)安全等問題。在本次會上,國家藥品監(jiān)督管理局細(xì)致地分析了影響醫(yī)療AI醫(yī)療器械審批的每個過程,對每個指標(biāo)進(jìn)行了詳細(xì)的講解。
目前,部分上市公司在國內(nèi)AI醫(yī)療器械發(fā)展方面進(jìn)展迅速。其中,樂普醫(yī)療心血管疾病AI診斷系統(tǒng)已獲得美國食品藥品監(jiān)督管理局(FDA)上市批準(zhǔn)。2018年11月19日,深圳凱沃爾公司自主研發(fā)的心電圖AI自動分析診斷系統(tǒng)“AI-ECG Platform”獲批,成為國內(nèi)第一個獲得美國FDA批準(zhǔn)的AI心電產(chǎn)品[2]。除了樂普醫(yī)療的心血管診斷系統(tǒng),進(jìn)展較快的是基于影像數(shù)據(jù)的糖尿病視網(wǎng)膜病變、肺結(jié)節(jié)AI醫(yī)療器械。2018年4月,F(xiàn)DA批準(zhǔn)了世界上首款A(yù)I醫(yī)療設(shè)備IDx-DR,該設(shè)備通過算法評估內(nèi)置攝像頭拍攝的患者眼睛照片,無需醫(yī)生輔助診斷就能確定患者是否有糖尿病視網(wǎng)膜病變的跡象。2019年5月,深圳硅基智能科技有限公司的“糖尿病視網(wǎng)膜病變分析軟件”獲得國家藥品監(jiān)督管理局創(chuàng)新醫(yī)療器械批準(zhǔn),進(jìn)入臨床試驗及審評快速綠色通道。除了糖尿病視網(wǎng)膜病變和肺結(jié)節(jié)篩查,還有以科研名義進(jìn)入醫(yī)院的骨折及骨齡測試和神經(jīng)系統(tǒng)疾病診斷方面的AI產(chǎn)品,但多數(shù)只能達(dá)到初步篩查和診斷的水平,離成熟還有一定距離。
近年來AI發(fā)展迅猛,從前許多科幻片中的場景走進(jìn)了醫(yī)療現(xiàn)實(shí),給醫(yī)護(hù)人員和患者帶來了便利提高了效率,也引出發(fā)諸多倫理問題。
AI和人腦相比,具有更寬闊的腦容量和更強(qiáng)大的學(xué)習(xí)能力。醫(yī)生對信息的掌控能力和知識儲備與醫(yī)療AI技術(shù)相比,有一定的局限性。他們對疾病的正確診斷通常建立在長期的經(jīng)驗積累和專業(yè)素養(yǎng)基礎(chǔ)上。AI醫(yī)療器械依靠深度學(xué)習(xí)技術(shù)和強(qiáng)大的洞察力,快速處理海量信息,提供最優(yōu)的診斷建議和個性化治療方案,大大提高了診療效率和準(zhǔn)確性,降低了醫(yī)生工作負(fù)荷,無形中為醫(yī)院節(jié)約了資源。醫(yī)生將有更多的時間用于患者的溝通和臨床科研。除了提高診療的準(zhǔn)確性,AI醫(yī)療器械的應(yīng)用還使醫(yī)生的信心增加,有一個水平相當(dāng)于主治醫(yī)生的AI助手幫忙,醫(yī)生在作出診斷結(jié)論時更有依據(jù)。但不少從醫(yī)人員過多地依賴AI精確的醫(yī)學(xué)影像識別能力和大數(shù)據(jù)處理能力會降低醫(yī)生自身的醫(yī)學(xué)水準(zhǔn),也給醫(yī)生帶來了被AI替代的技術(shù)性失業(yè)風(fēng)險和壓力。同時,人類對AI技術(shù)的過分依賴,可能導(dǎo)致人類歷史上所積累的醫(yī)學(xué)知識和操作技能停滯不前[3]。
科學(xué)技術(shù)的發(fā)展使得AI變得越來越人類化,AI究竟該如何定位,它是一個人,一種工具,抑或是一個AI“奴隸”,成為很重要的倫理議題。事實(shí)上,在多數(shù)中國醫(yī)生和AI醫(yī)療領(lǐng)域的專家看來,AI能扮演的仍是醫(yī)生的“助手”角色,主要幫助醫(yī)生解決重復(fù)性工作,而不是醫(yī)療決策的主體。AI分為三個層級,即弱AI、強(qiáng)AI和超強(qiáng)AI,部分學(xué)者認(rèn)為,在未來相當(dāng)長的時間里,我們都將處于弱AI層級,專注于且只能解決特定領(lǐng)域問題的AI,還不必過度擔(dān)心未來,或為可能的AI威脅做準(zhǔn)備的地步[4]。
AI采用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和表征學(xué)習(xí)等技術(shù),通過數(shù)據(jù)驅(qū)動智能算法對患者信息進(jìn)行洞察。AI醫(yī)療系統(tǒng)學(xué)習(xí)所用到的訓(xùn)練數(shù)據(jù)是訓(xùn)練模型的教材,數(shù)據(jù)的質(zhì)量決定了學(xué)習(xí)成果。當(dāng)設(shè)計者存在某種特定疾病、性別、種族等偏見和歧視時,這必將人的判斷和智能融入其中。訓(xùn)練AI的數(shù)據(jù)可能并不真實(shí)地反映客觀的實(shí)際情況,也可能潛藏著不易被察覺的價值偏好或風(fēng)俗習(xí)慣,導(dǎo)致訓(xùn)練數(shù)據(jù)被污染,從而被AI學(xué)習(xí)所繼承[5]。AI系統(tǒng)產(chǎn)生的結(jié)果會復(fù)制并放大這種偏見和歧視,甚至淪為知識的黑洞與權(quán)力的暗箱。算法通??梢苑从超F(xiàn)有的種族或性別健康差異。這種暗藏在算法設(shè)計中的偏見要比人為偏見和歧視隱晦得多[6]。《科學(xué)》雜志報道,美國衛(wèi)生系統(tǒng)依靠商業(yè)預(yù)測算法來識別和幫助有復(fù)雜健康需求的患者。研究表明一個廣泛使用的算法有明顯的種族偏見,在給定風(fēng)險分?jǐn)?shù)下,黑人患者比白人患者病情更嚴(yán)重,彌補(bǔ)此差別將使黑人患者獲得額外幫助比例從17.7%提高到46.5%。此偏見產(chǎn)生是因為算法預(yù)測的是醫(yī)療費(fèi)用而不是疾病。認(rèn)為選擇方便獲取的貌似合理真實(shí)數(shù)據(jù)或是算法偏見的一個重要來源[7]。如果該問題沒有解決,將會導(dǎo)致偏見長久存在,固化醫(yī)療衛(wèi)生領(lǐng)域現(xiàn)有的不平等現(xiàn)象。
一方面,由于現(xiàn)有醫(yī)療條件、技術(shù)設(shè)備等醫(yī)療衛(wèi)生資源分配不均衡,AI手術(shù)機(jī)器人等的醫(yī)療成本較為昂貴,使得此類AI醫(yī)療器械的推廣很難進(jìn)入基層醫(yī)療機(jī)構(gòu),其應(yīng)用主要集中于大型三甲醫(yī)院,偏遠(yuǎn)地區(qū)的患者很難有機(jī)會接觸此類高科技診療技術(shù)。從患者自身經(jīng)濟(jì)情況出發(fā),也只有少部分人愿意接受并從中受益。因此,此類AI醫(yī)療器械只適用于小部分有經(jīng)濟(jì)條件的患者。大多數(shù)普通患者可能會因為自己沒有切身感受到所謂的高科技醫(yī)療技術(shù)而產(chǎn)生抵觸情緒[6];另一方面,用于診斷的AI醫(yī)療器械,如糖尿病視網(wǎng)膜病變診斷系統(tǒng),可以輔助基層醫(yī)生診斷疾病,有助于快速提高基層醫(yī)療機(jī)構(gòu)的診斷水平,縮小與大型三甲醫(yī)院的差距。
由于不具備產(chǎn)生民事法律關(guān)系的主體資格,AI醫(yī)療器械僅能被認(rèn)定為輔助醫(yī)生診斷的醫(yī)療器械。相對于普通的醫(yī)療器械產(chǎn)品,AI醫(yī)療器械具有復(fù)雜的設(shè)計、算法和醫(yī)療大數(shù)據(jù)。在當(dāng)前不同的醫(yī)療細(xì)分領(lǐng)域并沒有一個統(tǒng)一的AI技術(shù)和安全標(biāo)準(zhǔn),導(dǎo)致AI醫(yī)療器械瑕疵鑒定成為空白。例如引發(fā)醫(yī)療事故或設(shè)計、操作失誤后的責(zé)任界定等。相較于傳統(tǒng)的醫(yī)患關(guān)系,AI技術(shù)的應(yīng)用又增加了患者與醫(yī)療AI系統(tǒng)或平臺間的這層關(guān)系。給本就緊張的醫(yī)患關(guān)系帶來了新的挑戰(zhàn)[8]。
AI的責(zé)任劃分是當(dāng)前我國甚至全球不可回避的倫理和法律問題,開發(fā)者、生產(chǎn)者對瑕疵擔(dān)保責(zé)任等還遠(yuǎn)未達(dá)成共識。雖然AI醫(yī)療技術(shù)越來越向智能化、精準(zhǔn)化方向發(fā)展,但其應(yīng)對突發(fā)情況的反應(yīng)處置能力問題還需進(jìn)一步研究。2018年9月以來,有230家醫(yī)院用戶的IBM沃森診療系統(tǒng)因診斷錯誤、開不安全藥物而不斷受到質(zhì)疑。其主要原因在于沃森診療系統(tǒng)用于訓(xùn)練的真實(shí)病例數(shù)太少,導(dǎo)致德州安德森腫瘤中心在花費(fèi)巨額投資后不得不選擇放棄該項目。誤診、漏診常常會引發(fā)醫(yī)療糾紛,而降低誤診、漏診率的基礎(chǔ)是對足夠多的醫(yī)療數(shù)據(jù)的深度學(xué)習(xí)。目前,我國的政策法規(guī)還沒有賦予AI處方權(quán),其給出的結(jié)論只能作為輔助診療的判斷依據(jù),而由此產(chǎn)生的誤診、漏診也沒有明確界定由誰承擔(dān)責(zé)任。
隱私,在法律上是一種權(quán)利的概念,但在現(xiàn)實(shí)生活中,它還可以作為一種商品,通過出讓部分個人隱私或信息以換取服務(wù)和產(chǎn)品。與醫(yī)生不同,AI醫(yī)療器械在收到患者信息后會自動進(jìn)行儲存、分析等,但在當(dāng)今成熟的技術(shù)條件下,即便手動刪除個人隱私信息也依然有找回的可能。AI醫(yī)療器械對患者的隱私問題考慮得并不如人類醫(yī)生周全。AI的“保密性”不像人一樣存在情感,即使進(jìn)行加密也不能完全避免個人信息被他人非法調(diào)取[9]。AI醫(yī)療器械在隱私保護(hù)方面存在的問題主要有:數(shù)據(jù)采集過程中是否經(jīng)過患者充分的知情同意?誰有權(quán)調(diào)取患者相關(guān)信息?一旦發(fā)生信息泄露,責(zé)任應(yīng)誰來承擔(dān)等[10]?同時,由于各種商業(yè)服務(wù)之間數(shù)據(jù)交易頻繁進(jìn)行,匿名化技術(shù)的發(fā)展為隱私保護(hù)提供了新的途徑。但是,如果沒有明確規(guī)定匿名化數(shù)據(jù)的法律概念和認(rèn)定標(biāo)準(zhǔn),將弱化個人數(shù)據(jù)管理,導(dǎo)致數(shù)據(jù)濫用。此外,如何平衡隱私保護(hù)與國家安全、商業(yè)利益之間的關(guān)系,也是需要重點(diǎn)關(guān)注的問題。
任何具有變革性的新技術(shù)都必然帶來法律的、倫理的以及社會的影響。AI倫理開始從幕后走到前臺,成為矯正科技行業(yè)狹隘的利益局限和技術(shù)向度的重要保障。醫(yī)療器械未來方向一定是智能化,相信智能化的AI醫(yī)療器械能為患者帶來更大的福祉,能讓更多的患者感受到科技進(jìn)步為生命帶來的健康呵護(hù),但相應(yīng)的制度和規(guī)范設(shè)計還存在盲區(qū)。
AI醫(yī)療器械的出現(xiàn),對醫(yī)生的執(zhí)業(yè)能力和道德提出了更高要求,需要醫(yī)生堅持主體地位,提升診療質(zhì)量。但AI醫(yī)療器械除了做出科學(xué)的診斷外,無法與患者進(jìn)行有效溝通,也無法表達(dá)對患者的感情等,更不會考慮任何個人利益問題,因而很難得到患者的信任。而醫(yī)生除了具有豐富的臨床經(jīng)驗和精湛的醫(yī)療技術(shù),在治療的過程中還會有效平衡雙方利益。因此,醫(yī)生和患者之間的互動是無法通過算法來復(fù)制的。盡管AI可以快速收集信息以診斷疾病,但最后診斷仍需醫(yī)生通過綜合性、批判性思維結(jié)合患者的疾病史、體檢結(jié)果、輔助性討論和患者實(shí)際的家庭收入、心理情況等作出綜合解釋[11]。
由于數(shù)據(jù)采集時醫(yī)生的認(rèn)知偏差和患者的個體差異,AI醫(yī)療器械對醫(yī)生的權(quán)威性和主體性地位很難造成威脅和挑戰(zhàn)。目前審評重點(diǎn)仍是AI醫(yī)療器械如何更好地輔助醫(yī)生,只能作為醫(yī)生的助手,不能直接給患者提供服務(wù)。目前AI醫(yī)療器械剛進(jìn)入輔助診斷的初級階段,在識別率方面目前大概也只是達(dá)到中級醫(yī)生的水平,且很難應(yīng)對發(fā)展過程中的各種突發(fā)狀況。人和AI各有優(yōu)勢,要互相了解才能實(shí)現(xiàn)人機(jī)協(xié)作。我們應(yīng)正確認(rèn)識AI的本質(zhì)和所處的發(fā)展層級,處理好人機(jī)關(guān)系,堅定醫(yī)生主體地位,有利于準(zhǔn)確把握當(dāng)下形勢和預(yù)判未來趨勢,為AI更好地發(fā)展做鋪墊。
就AI技術(shù)自身而言,AI需要價值引導(dǎo),做到可用、可靠、可知、可控。人設(shè)計基于數(shù)據(jù)決策的軟件模型,選擇并賦予數(shù)據(jù)意義,從而影響我們的行為。研究者在設(shè)計開發(fā)AI醫(yī)療器械時,應(yīng)當(dāng)以人為本,遵守基本的社會倫理道德,消除各種歧視觀念,必須客觀、公正,并基于大量無偏性臨床數(shù)據(jù)進(jìn)行的邏輯算法而構(gòu)建。盡可能地采用不同國家、不同地區(qū)、不同層級醫(yī)療機(jī)構(gòu)的患者數(shù)據(jù),防止AI數(shù)據(jù)訓(xùn)練系統(tǒng)中潛藏的價值偏好或風(fēng)俗習(xí)慣,避免其產(chǎn)生的模型或結(jié)果被AI學(xué)習(xí)所復(fù)制并放大[9]。同時,為規(guī)避算法設(shè)計中暗藏的歧視,應(yīng)由不同種族、性別的科學(xué)家共同參與算法的設(shè)計。
隨著AI的不斷發(fā)展,AI會帶來新的契機(jī),但整個社會也要考慮AI技術(shù)帶來的發(fā)展成果如何分配的問題,倡導(dǎo)社會應(yīng)該以一種更加公平的方式,分配未來的增長。對于政府如何更好地分配和利用醫(yī)療資源,這既是一個經(jīng)濟(jì)學(xué)問題,也是一個倫理學(xué)問題。資源配置既要考慮效用又要考慮公正。在確定醫(yī)療資源配置的優(yōu)先次序方面,我們需要進(jìn)行經(jīng)濟(jì)學(xué)和倫理學(xué)兩方面的評估,對AI醫(yī)療做出積極而審慎的決策。如果AI被不公平地分配到社會中,當(dāng)前社會不均等的現(xiàn)狀則可能進(jìn)一步加劇。因此,要確保相關(guān)政策有利于公眾公平地享有AI發(fā)展的成果,讓每個地區(qū)的人都從人工智能創(chuàng)造的福祉中獲益,否則會造成更大的不公平[12]。
與世界發(fā)達(dá)國家相比,我國的AI技術(shù)與之同步,但法律和倫理研究相對滯后。醫(yī)療衛(wèi)生行業(yè)內(nèi)對醫(yī)療AI的概念、倫理規(guī)范、倫理風(fēng)險等尚未達(dá)成共識,倫理設(shè)計標(biāo)準(zhǔn)、評價標(biāo)準(zhǔn)等建設(shè)工作還處于起步階段,這在很大程度上制約了AI醫(yī)療未來的發(fā)展[14]。不同于普通醫(yī)療器械,AI醫(yī)療器械存在動態(tài)評價難關(guān)。傳統(tǒng)意義上的醫(yī)療器械是基于產(chǎn)品本身的監(jiān)管,而AI醫(yī)療器械的監(jiān)管分為兩方面:一是產(chǎn)品本身的風(fēng)險;二是制造商的風(fēng)險管控。監(jiān)管的關(guān)鍵在于產(chǎn)品本身的臨床醫(yī)療價值和作用。其難點(diǎn)在于,AI醫(yī)療器械較傳統(tǒng)醫(yī)療器械技術(shù)迭代快,傳統(tǒng)監(jiān)管思路的不足日益凸顯。醫(yī)療AI領(lǐng)域三類器械審批要點(diǎn)的出爐,意味著新事物該如何監(jiān)管,對于企業(yè)、醫(yī)療機(jī)構(gòu)和監(jiān)管部門來說,都是不得不面對的挑戰(zhàn)?,F(xiàn)目前,大到行業(yè)層面,小到醫(yī)療機(jī)構(gòu)層面都缺乏相對完善的監(jiān)督管理機(jī)制,難以對醫(yī)療AI技術(shù)的研究和應(yīng)用做到規(guī)范化管理。
由于移動互聯(lián)網(wǎng)、大數(shù)據(jù)、共享經(jīng)濟(jì)的到來,國務(wù)院提出了審慎監(jiān)管原則,以審慎的態(tài)度適當(dāng)放松對這些新領(lǐng)域的政策監(jiān)管,以免妨礙其發(fā)展。以包容的心態(tài)看待新技術(shù)的出現(xiàn),用審慎的態(tài)度預(yù)防新風(fēng)險的發(fā)生[9]。隨著智能產(chǎn)品的應(yīng)用增多,其承擔(dān)的責(zé)任也越大,法律法規(guī)的管控也應(yīng)愈加嚴(yán)格。為規(guī)范醫(yī)療AI的發(fā)展,應(yīng)建立一套法律邊界明確的醫(yī)療AI責(zé)任體系,對醫(yī)療AI產(chǎn)品的開發(fā)者、生產(chǎn)者和使用者的責(zé)權(quán)進(jìn)行清晰界定[13]。及時制定相關(guān)法律制度,對AI進(jìn)行適度有效的規(guī)制,嚴(yán)格監(jiān)督和審查AI醫(yī)療器械的生產(chǎn)和應(yīng)用,將風(fēng)險管控落到實(shí)處,確?;颊邫?quán)益不受損害。
當(dāng)前AI醫(yī)療器械行業(yè)發(fā)展迅猛,我國對醫(yī)學(xué)領(lǐng)域的倫理規(guī)范主要依靠于《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》,執(zhí)行主要依賴醫(yī)療機(jī)構(gòu)的倫理委員會。在面對AI這類新興技術(shù)時,限于認(rèn)識不足等原因,一些倫理委員會無法判斷該項技術(shù)帶來的影響以及是否可以開展。現(xiàn)有的法規(guī)也沒有細(xì)分哪個層級倫理委員會可以審批哪些技術(shù)應(yīng)用。政府應(yīng)高度重視AI技術(shù)可能帶來的風(fēng)險與挑戰(zhàn),加強(qiáng)前瞻預(yù)防和約束引導(dǎo),最大限度降低風(fēng)險,更好地服務(wù)于醫(yī)療事業(yè)。因此,倫理制度建設(shè)對于AI醫(yī)療器械所產(chǎn)生的倫理問題不可或缺,將AI醫(yī)療器械研究與倫理制度的結(jié)合是應(yīng)對AI倫理問題的最有效方式。對AI相關(guān)社會影響和倫理問題應(yīng)深入探討,將跨領(lǐng)域、跨學(xué)科的政策法律研究置于優(yōu)先地位,消除法律盲點(diǎn),制定標(biāo)準(zhǔn)和確定倫理準(zhǔn)則[11]。倫理層面的制度建設(shè)應(yīng)當(dāng)包括AI的設(shè)計倫理以及應(yīng)用規(guī)范倫理。設(shè)計倫理旨在從源頭上保障AI產(chǎn)品的安全性,為其設(shè)定道德和行為判斷能力。規(guī)范倫理則是保障AI產(chǎn)品在應(yīng)用過程中的安全性和規(guī)范性,兩者雖側(cè)重不同,但需同時進(jìn)行[14]。同時,加強(qiáng)對AI醫(yī)療器械的發(fā)展情況和倫理相關(guān)規(guī)定的宣貫,各醫(yī)療機(jī)構(gòu)相關(guān)從業(yè)人員應(yīng)定期學(xué)習(xí)AI的規(guī)定、新政策、新案例等,提升倫理意識。強(qiáng)化各倫理委員會對AI器械臨床試驗方案科學(xué)性、倫理性的審查,提高倫理審查質(zhì)量。
在AI醫(yī)療器械研發(fā)、生產(chǎn)和使用進(jìn)程中,為切實(shí)保護(hù)個人隱私安全需要制定一系列的準(zhǔn)則。涉及數(shù)據(jù)訓(xùn)練和結(jié)果分析時,需進(jìn)行數(shù)據(jù)授權(quán)管理、對關(guān)鍵隱私信息進(jìn)行脫敏和強(qiáng)加密處理[13]。目前,歐美一些國家已出臺了針對醫(yī)療數(shù)據(jù)保護(hù)的法規(guī),對所有數(shù)據(jù)的訪問,都有一套嚴(yán)格的訪問控制程序,并要求對數(shù)據(jù)進(jìn)行強(qiáng)加密處理,即使出現(xiàn)數(shù)據(jù)泄露,他人也不能解密。同時,在進(jìn)行數(shù)據(jù)分析和管理時,必須打馬賽克,以期通過各種周全的規(guī)定,來確保數(shù)據(jù)的安全性[10]。AI醫(yī)療器械的發(fā)展,既要開放共享,又要保護(hù)好數(shù)據(jù)的安全和隱私,如何規(guī)范化使用醫(yī)療數(shù)據(jù)是當(dāng)前急需解決的關(guān)鍵問題。隱私安全相關(guān)法規(guī)應(yīng)對數(shù)據(jù)訪問中心、傳送和存儲患者信息、供應(yīng)商、醫(yī)務(wù)工作者等做出周詳?shù)囊?guī)定。
目前,國內(nèi)關(guān)于個人隱私和數(shù)據(jù)安全的法律并不完善,不論是法律體系還是法律條款都與國外有較大差距。開放醫(yī)療與健康聯(lián)盟白皮書建議:加強(qiáng)立法和完善個人健康醫(yī)療信息制度,推進(jìn)醫(yī)療機(jī)構(gòu)資源的開放和整合,培育公眾對健康醫(yī)療數(shù)據(jù)應(yīng)用意識與隱私安全的認(rèn)知,持續(xù)推動國家統(tǒng)一身份標(biāo)識體系和基于統(tǒng)一身份標(biāo)識的共性基礎(chǔ)服務(wù)平臺。我國在制定個人隱私保護(hù)相關(guān)法律時,不僅要考慮數(shù)據(jù)安全和患者隱私保護(hù),還應(yīng)平衡AI發(fā)展的需求,秉承“鼓勵創(chuàng)新,包容審慎”的原則,避免因過度強(qiáng)調(diào)隱私安全保護(hù)而削弱了數(shù)據(jù)科學(xué)發(fā)展的社會價值,掣肘AI的發(fā)展。
智能手機(jī)和自媒體的報道加速了AI知識的傳播,而醫(yī)學(xué)界的重大突破又極易吸引閱讀量和點(diǎn)擊率。因此,媒體不惜采用夸大性語言或未經(jīng)核實(shí)就對其進(jìn)行報道已經(jīng)成為普遍現(xiàn)象。當(dāng)前,虛假信息和謠言等負(fù)面信息通過微信等渠道廣泛傳播,引發(fā)公眾恐慌,導(dǎo)致公眾對AI技術(shù)產(chǎn)生錯誤的認(rèn)識。因此亟須出臺相應(yīng)的管理辦法,加強(qiáng)對AI技術(shù)的正面宣傳、輿論監(jiān)督、科學(xué)引導(dǎo)和典型報道,引導(dǎo)公眾朝著合理健康的方向認(rèn)識AI,提高公眾的理性判斷能力和科學(xué)素養(yǎng),并對媒體在醫(yī)學(xué)新聞的報道上加以監(jiān)管和約束,從而推動AI技術(shù)健康發(fā)展[15]。
AI醫(yī)療器械的出現(xiàn)在改變?nèi)祟惻f的醫(yī)療格局的同時,也帶來一系列倫理問題。AI醫(yī)療技術(shù)的應(yīng)用與倫理道德觀念并不矛盾,關(guān)鍵在于在權(quán)衡取舍中找到更合理的打開方式。針對AI醫(yī)療器械的定位、算法偏見與社會公平、責(zé)任劃分和隱私安全方面的倫理問題,前瞻性地提出要有效評估風(fēng)險與獲益,實(shí)現(xiàn)AI醫(yī)療器械健康、有序地發(fā)展,需要堅持人為主體,提升診療質(zhì)量;確保公眾公平享有AI發(fā)展成果;加強(qiáng)對AI的監(jiān)管、立法和倫理制度建設(shè),提高倫理審查能力;強(qiáng)化隱私安全保護(hù);同時,增強(qiáng)媒體對AI技術(shù)報道的監(jiān)管,提高公眾科學(xué)素養(yǎng)等應(yīng)對策略,趨利避害,為醫(yī)療水平提高和人類健康保障提供支撐。