馮君妍
為進一步貫徹習近平總書記提出的科技事業(yè)要堅持“面向世界科技前沿、面向經(jīng)濟主戰(zhàn)場、面向國家重大戰(zhàn)略需求、面向人民生命健康”(1)習近平:《在科學家座談會上的講話》,《人民日報》,2020年9月12日。的發(fā)展理念,落實《“健康中國2030”規(guī)劃綱要》關(guān)于“推進健康中國建設,提高人民健康水平”(2)《“健康中國2030”規(guī)劃綱要》,《人民日報》,2016年10月26日。等政策方針,我國正大力發(fā)展人工智能,且處于重要機遇期。作為我國科技發(fā)展前沿領(lǐng)域之一的醫(yī)療人工智能,目前也在蓬勃發(fā)展之中。隨著我國對于優(yōu)質(zhì)醫(yī)療資源可及化、均衡化的追求,醫(yī)療人工智能的覆蓋面也在不斷擴展。醫(yī)療人工智能,不但可以提升疾病診斷和臨床診療水平,增強新藥研發(fā)能力,輔助個人健康管理和醫(yī)院管理,而且對于提升醫(yī)療服務質(zhì)量、改進醫(yī)療資源分配等現(xiàn)實問題也具有重大意義。然而,醫(yī)療人工智能在創(chuàng)造社會價值、引領(lǐng)產(chǎn)業(yè)變革的同時,其快速發(fā)展也給社會信任帶來了巨大挑戰(zhàn)。
醫(yī)療人工智能并不是一個新興事物,就其發(fā)展進程而言,學界認為主要經(jīng)歷了三波浪潮。第一波浪潮發(fā)生在20世紀50—60年代,醫(yī)療人工智能開啟早期探索階段;第二波浪潮產(chǎn)生于20世紀70—80年代,醫(yī)療人工智能領(lǐng)域中的“專家系統(tǒng)”興起;第三波浪潮主要在21世紀,醫(yī)療人工智能進入深度學習及實驗研究階段。(3)陳小平:《人工智能倫理導引》,中國科學技術(shù)大學出版社,2021年,第2-4頁。
第一,20世紀50—60年代,醫(yī)療人工智能開啟了早期探索階段。在這一時期,科學界主要關(guān)注通用問題的求解辦法。(4)陳小平:《人工智能倫理導引》,中國科學技術(shù)大學出版社,2021年,第2頁。在醫(yī)學領(lǐng)域,國際上開始組建醫(yī)療人工智能研發(fā)團隊,主要包括計算機領(lǐng)域的科學家和醫(yī)療領(lǐng)域的專家,嘗試將人工智能用于臨床決策和輔助診斷方面。此時的醫(yī)療人工智能的水平還有待提升,解決醫(yī)療領(lǐng)域?qū)嶋H問題的能力也較弱。
第二,20世紀70—80年代,專家系統(tǒng)逐漸在醫(yī)療人工智能領(lǐng)域占據(jù)重要地位。這一時期產(chǎn)生了一些較有影響力的醫(yī)療人工智能系統(tǒng)。如在1972年,英國利茲大學研發(fā)出AAPHelp系統(tǒng),該系統(tǒng)主要用于腹部疾病的診斷和臨床輔助治療。(5)蔣璐伊、王賢吉、金春林:《人工智能在醫(yī)療領(lǐng)域的應用和準入》,《中國衛(wèi)生政策研究》,2018年第11期。同年,美國斯坦福大學研發(fā)出一款用于細菌感染輔助診斷和治療的醫(yī)療人工智能系統(tǒng)——MYCIN。(6)B.Jack.Copeland,“MYCIN artificial intelligence program”,https://www.britannica.com/technology/MYCIN.隨后,醫(yī)療領(lǐng)域又相繼產(chǎn)生了一些具有商業(yè)性質(zhì)的人工智能系統(tǒng)。如20世紀80年代,哈佛大學醫(yī)學院研發(fā)出DXplain等。(7)G.Octo.Barnett,Edward Hoffer,Marvin S.Packer,et al,“DXPLAIN——demonstration and discussion of a diagnostic clinical decision support system”,https://doc.taixueshu.com/foreign/rgArti1991128195880.html.這一階段應屬于人工智能與醫(yī)療的真正結(jié)合階段,人工智能用于醫(yī)療的實際作用也逐漸凸顯。
第三,21世紀初,醫(yī)療人工智能進入深度學習及實驗研究階段。機器學習算法開始應用于醫(yī)療數(shù)據(jù)分析,例如將醫(yī)療人工智能用于預測疾病風險和分析基因組數(shù)據(jù)等。2011年,IBM公司研發(fā)出Watson,且被正式應用到醫(yī)療健康領(lǐng)域。這款人工智能系統(tǒng)的研發(fā)和應用,對于醫(yī)療健康領(lǐng)域的發(fā)展有著重大作用。此外,在2016年,谷歌Deepmind與英國國家醫(yī)療服務體系合作,共同研發(fā)出能夠辨別視覺方面疾病的機器學習系統(tǒng)。(8)動脈網(wǎng)蛋殼研究院:《人工智能與醫(yī)療》,北京大學出版社,2019年,第20頁??梢哉f,在這一時期,人工智能和醫(yī)療的結(jié)合不僅愈發(fā)緊密,還取得了突破性進展。
隨著醫(yī)療人工智能的不斷發(fā)展,我國也加大了與海外醫(yī)療人工智能企業(yè)的合作,且在醫(yī)學影像、醫(yī)療機器人以及新藥研發(fā)等多方面都發(fā)揮了自身優(yōu)勢,逐漸呈現(xiàn)出部分優(yōu)秀的醫(yī)療人工智能企業(yè)走向國際舞臺甚至領(lǐng)先海外醫(yī)療人工智能企業(yè)的趨勢。(9)參見中國信息通信研究院、36氪研究院2020年發(fā)布的《2020人工智能醫(yī)療產(chǎn)業(yè)發(fā)展藍皮書》。這些人工智能與醫(yī)療緊密結(jié)合的發(fā)展趨勢,不僅反映出醫(yī)療人工智能的獨特價值,還為社會的發(fā)展奠定了重要基礎。
近年來,人工智能不僅發(fā)展迅猛,而且與多種應用場景深度融合,逐漸成為助推社會發(fā)展的重要力量。人工智能在圖像識別、語音識別和處理、數(shù)據(jù)挖掘以及認知推理等方面,都表現(xiàn)出獨特的優(yōu)勢,將這些技術(shù)優(yōu)勢融入與社會經(jīng)濟和人民生活聯(lián)系最為密切的醫(yī)療行業(yè),必能極大地提高醫(yī)療服務質(zhì)量,降低醫(yī)療成本,緩解醫(yī)療資源短缺和分配不均等難題。一般而言,醫(yī)療人工智能越來越多地在疾病預測、輔助診療、醫(yī)學影像、虛擬助手、藥物挖掘、輔助醫(yī)學研究、健康管理、醫(yī)院管理等諸多具體的應用場景中發(fā)揮優(yōu)勢。(10)動脈網(wǎng)蛋殼研究院:《人工智能與醫(yī)療》,北京大學出版社,2019年,第3頁。
首先,在疾病預測和輔助診療方面,醫(yī)療人工智能可以通過輔助診療的方式,幫助醫(yī)患雙方預測疾病,并且及早發(fā)現(xiàn)疾病。不同于“頭痛醫(yī)頭、腳痛醫(yī)腳”的診療方式,現(xiàn)代醫(yī)學在人工智能技術(shù)的支持下,能較好地實現(xiàn)疾病的預測和預防。通過機器學習、云計算和分布式計算等方式,醫(yī)療人工智能可以對海量的醫(yī)療數(shù)據(jù)進行挖掘、計算、分析、處理,進而預測某類疾病的發(fā)生率,同時還能幫助醫(yī)生和患者發(fā)掘病因和潛在的致病因子,這對于疾病的預判和早期篩查的實現(xiàn)非常關(guān)鍵。比如,我們所了解到的肺癌篩查就可以通過醫(yī)療人工智能加以實現(xiàn)。例如,醫(yī)療人工智能可以通過電子計算機斷層掃描(Computed Tomography,CT)檢測,初步判斷患者的肺部是否發(fā)生病變,以及病變程度如何,幫助醫(yī)生及早發(fā)現(xiàn)癌變組織,這對于提高疾病診斷實效和治療成功率、延長患者生命非常關(guān)鍵。
其次,在醫(yī)學影像和虛擬助手方面,人工智能與醫(yī)療的結(jié)合也極大地改變了醫(yī)學面貌。醫(yī)學影像,顧名思義就是一種通過高性能的成像設備和強功能的系統(tǒng)軟件,在疾病診療中幫助醫(yī)生掌握患者病情程度的醫(yī)療手段。此外,在傳統(tǒng)醫(yī)學中,醫(yī)生閱讀醫(yī)學影像主要通過肉眼觀察,再結(jié)合自身經(jīng)驗判斷,這樣不僅耗時,而且會存在結(jié)果判定的差異性;而人工智能的介入,則可以幫助醫(yī)生完成初步判斷,不僅高效,而且閱片結(jié)果也更加穩(wěn)定。(11)動脈網(wǎng)蛋殼研究院:《人工智能與醫(yī)療》,北京大學出版社,2019年,第49頁。相比于醫(yī)學影像所具備的可以從內(nèi)部進行輔助診斷的功能,虛擬助手則傾向于從外部給醫(yī)患雙方提供幫助。常見的虛擬助手,比如醫(yī)院的導診機器人,它就可以實現(xiàn)與患者的簡單溝通。此外,虛擬助手還具有個人問診、用藥咨詢、智能導診、電子病歷語音錄入等功能。(12)動脈網(wǎng)蛋殼研究院:《人工智能與醫(yī)療》,北京大學出版社,2019年,第26-27頁。可見,醫(yī)療場景中的虛擬助手在實際應用中也非常重要。
再者,在藥物挖掘和輔助醫(yī)學研究方面,醫(yī)療人工智能也發(fā)揮了重要作用。在早期的醫(yī)學環(huán)境中,研發(fā)人員往往通過傳統(tǒng)的治療方法或者偶然發(fā)現(xiàn)來挖掘新藥;而在現(xiàn)代醫(yī)學環(huán)境中,研發(fā)人員可以通過醫(yī)療人工智能進行小分子篩選、提取、測試、合成,并且預測它們與蛋白質(zhì)的相互作用,進而鑒定出具有治療效果的物質(zhì),從而找到新藥研發(fā)的辦法。在輔助醫(yī)學研究方面,醫(yī)療人工智能的作用也不容小覷。比如,通過醫(yī)療人工智能,不僅可以實現(xiàn)醫(yī)療數(shù)據(jù)的挖掘和分析,還能實現(xiàn)資源之間的融合與共享,這對于醫(yī)學研究的進步至關(guān)重要。此外,醫(yī)療人工智能也可以深化人們對于生命的認識,幫助人們了解疾病產(chǎn)生和發(fā)展的規(guī)律,促進基礎醫(yī)學和臨床醫(yī)學研究的發(fā)展,滿足人們?nèi)找嬖鲩L的醫(yī)療技術(shù)和醫(yī)療服務需要,從而真正實現(xiàn)人類的健康福祉。
最后,在個人健康管理和醫(yī)院管理方面,醫(yī)療人工智能也在極大地發(fā)揮著作用。我們知道,每個人的健康數(shù)據(jù)不僅數(shù)量龐大,還十分復雜,因而要實現(xiàn)個人的健康管理也存在較大難度。而人工智能則可以通過深度學習,掌握個人身體數(shù)據(jù),不僅有利于及時發(fā)現(xiàn)潛在風險,還能制定個性化健康管理方案。(13)動脈網(wǎng)蛋殼研究院:《人工智能與醫(yī)療》,北京大學出版社,2019年,第112-113頁。這種前瞻性的健康管理方式,對于個人的健康發(fā)展有著積極意義。在醫(yī)院管理上,一方面,人工智能可以通過分析醫(yī)院管理數(shù)據(jù)、工作流程、患者電子病歷等,預測患者流量和潛在需求,幫助醫(yī)院管理者制定出更加精準、高效的醫(yī)療資源分配方案,優(yōu)化醫(yī)護人員在崗時間。另一方面,醫(yī)生可以利用人工智能技術(shù),通過傳感器等智能設備,實現(xiàn)對患者的遠程監(jiān)測,不僅可以更加全面地掌握患者健康數(shù)據(jù),還能改善患者的診療體驗,提高醫(yī)院的管理水平和運營效率。
在對醫(yī)療人工智能的發(fā)展和應用進行梳理的過程中,我們可以發(fā)現(xiàn)人工智能在醫(yī)療場景中蘊含重大價值。但是,在醫(yī)療人工智能的具體實踐中,也不可避免地出現(xiàn)諸多倫理挑戰(zhàn)。其中,信任問題就是關(guān)乎醫(yī)療人工智能發(fā)展的基礎性問題。挖掘醫(yī)療人工智能信任困境的主要表現(xiàn),分析醫(yī)療人工智能信任缺失的危害,為我們從倫理層面破解醫(yī)療人工智能信任困境提供了重要前提。
人工智能作為前沿領(lǐng)域的先進技術(shù),人們既對其巨大潛力充滿期待,也囿于傳統(tǒng)醫(yī)療方式,對醫(yī)療人工智能充滿諸多信任方面的憂思。英國著名社會學家安東尼·吉登斯在《現(xiàn)代性的后果》中詳細論述了其信任理論,主要包括信任與風險、信任與現(xiàn)代性、抽象體系中的信任、信任與專業(yè)知識、信任與本體性安全等。(14)[英]吉登斯:《現(xiàn)代性的后果》,田禾譯,譯林出版社,2022年,第72-87頁。在這一理論的啟發(fā)下,結(jié)合本文討論的醫(yī)療人工智能的信任問題,可將其概括為三個方面:其一,技術(shù)層面,即人們對醫(yī)療人工智能技術(shù)和專業(yè)知識的信任問題;其二,主體層面,即從本體性安全出發(fā),分析醫(yī)療人工智能的信任問題;其三,社會層面,即從價值觀和安全性層面探討醫(yī)療人工智能的信任問題等。
第一,技術(shù)層面,即人們對于醫(yī)療人工智能技術(shù)和專業(yè)知識的信任,這是首要考慮。醫(yī)療是一個非常特殊的領(lǐng)域,醫(yī)療技術(shù)水平直接關(guān)系到疾病的診療效果?,F(xiàn)階段的人工智能可能有利于提高醫(yī)療實踐的效率,(15)Zapusek Lydia,“Artificial Intelligence in Medicine and Confidentiality of Data”,Asia Pacific Journal of Health Law &Ethics,vol.11,no.1(2017).但人們往往期待醫(yī)療人工智能技術(shù)在未來可以實現(xiàn)更高的安全性、更低的失誤率。(16)陳小平:《人工智能倫理導引》,中國科學技術(shù)大學出版社,2021年,第138頁。不可否認,人工智能與醫(yī)療的深度結(jié)合,需要依靠高水平的人工智能技術(shù),而人工智能的最大特點就是“智能”。這里的“智能”主要通過機器學習,實現(xiàn)一種可在無人干預的情況下的自動化運轉(zhuǎn)。由此,我們可以發(fā)現(xiàn)這類技術(shù)如果運用得好,就會給醫(yī)療健康領(lǐng)域帶來意想不到的積極效果;如果處理不好,也會帶來諸多風險。具體體現(xiàn)在:一方面,人工智能技術(shù)的內(nèi)部運行機制往往是復雜的,類似于一個黑匣子,(17)段偉文:《人工智能時代的價值審度與倫理調(diào)適》,《中國人民大學學報》,2017年第6期。具有非透明性。這種非透明性的產(chǎn)生既受到海量數(shù)據(jù)的影響,即醫(yī)療人工智能模型需要處理的數(shù)據(jù)非常龐大,往往會超出人們的理解能力;又源于醫(yī)療人工智能這一專業(yè)知識的復雜性,即醫(yī)療人工智能的內(nèi)部機制可能包含數(shù)百萬個參數(shù)和變量,這種復雜性使得非行業(yè)內(nèi)部人員很難解釋其內(nèi)部邏輯和決策過程。(18)詹啟敏、董爾丹:《健康醫(yī)療人工智能指數(shù)報告2021》,科學出版社,2022年,第95頁。另一方面,醫(yī)療人工智能程序的設定者和生產(chǎn)者的認知在一定時期也存在局限性,他們在利用人工智能研發(fā)醫(yī)療技術(shù)和產(chǎn)品的過程中,并不能準確預知這些產(chǎn)品和技術(shù)未來會面臨的全部風險。而一旦這些風險在實際應用中暴露出來,人們就傾向于降低對其的信任,甚至不再使用這類產(chǎn)品和技術(shù)。(19)Rossi Francesca,“Building trust in artificial intelligence”,Journal of International Affairs,vol.72,no.1(2018).
第二,主體層面,即從本體性安全的視角來看,人們對于醫(yī)療人工智能主體層面的看法也是信任問題的關(guān)鍵因素。在吉登斯的信任理論中,“本體性安全”非常重要。他將“本體性安全”視作一種人對物的可靠性感受,而這種感受是產(chǎn)生本體性安全感的基礎。(20)[英]吉登斯:《現(xiàn)代性的后果》,田禾譯,譯林出版社,2022年,第80頁。在醫(yī)療人工智能領(lǐng)域中,人們對于醫(yī)療人工智能的可靠性感受是建立信任的重要前提。而人對物的可靠性感受,或者說人們對于醫(yī)療人工智能的可靠性感受,主要受到人們的認知現(xiàn)狀和認知水平影響。在認知現(xiàn)狀方面,大多數(shù)人所熟悉和認可的診療方式屬于傳統(tǒng)診療方式。從中國古代的“望”“聞”“問”“切”開始,人們就更加傾向于與醫(yī)生直接的、面對面的、以口頭交流為主的溝通和診療方式。這些傳統(tǒng)的診療方式,更能讓患者收獲一種可靠性感受,進而建立本體性安全感。回到現(xiàn)代,我們也會用“看醫(yī)生”三個字來表達我們的就醫(yī)需求。因為在傳統(tǒng)的醫(yī)患溝通的方式下,患者可以直接表述自身的疾病狀況,醫(yī)生也可以通過患者的訴求,結(jié)合他們的面部表情和肢體語言來了解他們的情緒,這對于正確診斷和治療病情非常重要。特別是,這種傳統(tǒng)的醫(yī)患溝通方式在多年來的醫(yī)學實踐中,也被證明行之有效。除此之外,人們也可能擔心醫(yī)療人工智能會替代醫(yī)生的角色,使得醫(yī)患之間的關(guān)系變得機械化。這種傾向于傳統(tǒng)溝通的認知現(xiàn)狀,會在一定程度上降低人們對于新興科技——醫(yī)療人工智能的信任程度。在認知水平方面,人們對醫(yī)療人工智能也會存在認知不充分的情況。這里的認知不充分主要是指患者對與醫(yī)療人工智能相關(guān)的技術(shù)、應用和潛在風險等方面缺乏足夠的了解,或者直接認為它不可靠不可信。例如,很多患者對機器學習、深度學習、自然語言處理等抽象體系缺乏基本的了解和認知;在應用方面,一些人可能知道醫(yī)療人工智能可以用于醫(yī)療影像、疾病預測等方面,但是對于具體的應用場景和技術(shù)實現(xiàn)不夠了解等,這些都影響人們在醫(yī)療人工智能方面的本體性安全感。
第三,社會層面的因素也是醫(yī)療人工智能信任問題的重要考量。(21)A A Dashkov,Yu O Nesterova,“Building trust when using artificial intelligence”,E-Management,vol.4,no.2(2021).社會的認可對醫(yī)療人工智能的進步和發(fā)展有著重要作用,因此社會層面的因素也不容小覷。這里的社會層面的因素主要體現(xiàn)在價值觀和安全性兩個層面。在價值觀層面,醫(yī)療人工智能的應用可能引發(fā)人們關(guān)于價值觀的爭議。比如,醫(yī)療人工智能的算法需要基于數(shù)據(jù)進行訓練,如果這些數(shù)據(jù)存在偏差,那么醫(yī)療人工智能是否會產(chǎn)生不公平性和歧視等現(xiàn)象?比如,是否會根據(jù)種族、性別、年齡、經(jīng)濟狀況等因素而做出不同的診斷結(jié)果?在引入了人工智能的醫(yī)療診斷和決策中,我們是應該相信醫(yī)生的經(jīng)驗和判斷,還是應該相信醫(yī)療人工智能的診斷結(jié)果?如果醫(yī)療人工智能的水平高于醫(yī)生,我們以后還應該信任醫(yī)生嗎?醫(yī)療人工智能作為一種工具,其診斷標準有何來源?是否可靠、可信?如何加強公眾對于醫(yī)療人工智能的認知和了解?又該如何加強社會對于醫(yī)療人工智能的監(jiān)管?如何確保其應用的準確性和公正性?在安全性層面,醫(yī)療人工智能的發(fā)展可能暴露隱私問題。在對海量醫(yī)療數(shù)據(jù)信息進行采集和挖掘的過程中,不可避免會涉及個人敏感數(shù)據(jù)和信息的使用問題。例如,醫(yī)療人工智能的實現(xiàn)需要使用大量患者的數(shù)據(jù)信息,如姓名、年齡、性別、病歷等,來進行訓練和優(yōu)化算法,這一操作是否會涉及患者的數(shù)據(jù)隱私?如若醫(yī)療人工智能在部署和運行中遭到網(wǎng)絡和惡意軟件攻擊,這類安全問題又該如何處理?以上諸多社會層面的擔憂,無疑會在一定程度上影響人們對于醫(yī)療人工智能的了解和信任,從而限制醫(yī)療人工智能技術(shù)的推廣和應用。
通過以上分析,我們可以發(fā)現(xiàn)對于醫(yī)療人工智能信任問題的探討,特別是從醫(yī)療人工智能的技術(shù)和專業(yè)知識、患者的本體性安全以及社會價值觀和安全性等多方信任問題進行考量尤為關(guān)鍵。信任作為人類社會健康運作的基礎之一,是人與人之間建立關(guān)系、進行合作、實現(xiàn)共同目標的必要條件。人們對于醫(yī)療人工智能的信任,不僅有利于提升我國醫(yī)療人工智能水平,還有利于我國醫(yī)學研究和人類社會的健康發(fā)展。反之,信任的缺失,則會給患者健康發(fā)展、醫(yī)患關(guān)系、醫(yī)療人工智能行業(yè)的發(fā)展前景等帶來諸多不良影響。具體說來,包括以下幾方面內(nèi)容:
第一,從患者的健康發(fā)展角度來看,對醫(yī)療人工智能信任的缺失,不僅會增加患者的醫(yī)療成本,還有可能延誤病情,影響患者的生命健康。隨著人工智能技術(shù)與醫(yī)療領(lǐng)域的深度結(jié)合,不僅使醫(yī)療領(lǐng)域變得更加智能,也促使人機交互合作的能力不斷提升。(22)北京大學機器人標準化總體組:《中國機器人倫理標準化前瞻》,北京大學出版社,2019年,第8頁。醫(yī)療與人工智能的結(jié)合,其出發(fā)點和落腳點是增進人類的健康福祉。在臨床活動中,醫(yī)生往往會借助人工智能進行輔助診斷,如若患者不信任醫(yī)療人工智能的診斷結(jié)果,就需投入更多的時間和金錢進行二次甚至多次檢測。在反復的時間消耗之后,患者收獲的可能是治療時間增加,病情延誤甚至惡化;而反復的檢查、驗證或糾正醫(yī)療人工智能的檢查和診斷結(jié)果,也無疑會增加患者的經(jīng)濟負擔,耗費更多的社會醫(yī)療資源。因此,對醫(yī)療人工智能信任的缺失,于患者來說極有可能弊大于利。
第二,從醫(yī)患關(guān)系角度來看,患者對醫(yī)療人工智能的不信任,可能會進一步損害醫(yī)患關(guān)系,增加醫(yī)患矛盾,進而使醫(yī)生名譽和醫(yī)院聲譽受到影響。首先,當患者處于醫(yī)療人工智能的臨床場景之中時,患者和醫(yī)生都具有主觀能動性。不但醫(yī)生可以根據(jù)檢測結(jié)果給出專業(yè)的治療建議,而且患者也會結(jié)合自身的認知能力和水平選擇接受或者不接受相關(guān)結(jié)果和建議。若是患者選擇不信任醫(yī)療人工智能的診斷結(jié)果或治療建議,在一定程度上也是對醫(yī)生的專業(yè)水平產(chǎn)生了質(zhì)疑和不信任,這無疑會使醫(yī)患矛盾暴露出來。其次,結(jié)合現(xiàn)有的醫(yī)學場景,醫(yī)患關(guān)系既是醫(yī)療行業(yè)中至關(guān)重要的一對關(guān)系,也是最為脆弱的一對關(guān)系。如果患者不信任醫(yī)療人工智能,無疑會使得現(xiàn)有的醫(yī)患關(guān)系更加脆弱,長期會對醫(yī)生的名譽、醫(yī)院的聲譽產(chǎn)生負面效應。因此,醫(yī)療人工智能信任的缺失,不論對于醫(yī)患雙方,還是對于醫(yī)院都可能產(chǎn)生消極影響。
第三,從行業(yè)發(fā)展前景來看,信任的缺失,可能會影響甚至限制人工智能在醫(yī)療領(lǐng)域的應用和發(fā)展。簡單說來,如果患者都傾向于傳統(tǒng)的就醫(yī)方式,就會在一定程度上限制人工智能在醫(yī)療領(lǐng)域的應用范圍,使其無法真正發(fā)揮優(yōu)勢和作用,進而阻礙人工智能在醫(yī)療領(lǐng)域的發(fā)展前景。醫(yī)療人工智能的發(fā)展除了依賴人工智能本身,還有一個必不可少的因素,即人們的醫(yī)療數(shù)據(jù)信息。從醫(yī)療數(shù)據(jù)本身出發(fā),如果患者選擇不信任人工智能,那么他們可能傾向于不愿分享其數(shù)據(jù)信息;而沒有海量數(shù)據(jù)信息的支持,醫(yī)療人工智能的學習和訓練就會受到影響。同樣,如果患者不信任醫(yī)療人工智能的診斷結(jié)果和治療建議,那么醫(yī)療人員可能會更加謹慎地使用醫(yī)療人工智能,最終導致這種新型的診治方式逐漸被減少使用甚至被限制使用。這無疑會限制人工智能在醫(yī)療領(lǐng)域中的應用和發(fā)展。正如《論語》“子貢問政”的故事給予我們的啟發(fā),“足食,足兵,民信之”為治國之道,然而必須要選擇放棄兩項的時候,孔子告訴我們“自古皆有死,民無信不立”。與之類似,當這一場景應用到醫(yī)療人工智能領(lǐng)域,信任也是維系這一領(lǐng)域發(fā)展的根基。只有人們信任人工智能,它才能在醫(yī)療健康領(lǐng)域得到更加長遠的發(fā)展。
人工智能作為一種“賦能”技術(shù),其發(fā)展核心為安全可信。這里的“安全”除了包括數(shù)據(jù)、隱私、算法等技術(shù)層面的安全,以及智能安防、輿論檢測等應用層面的安全,還應包括倫理層面的安全;“可信”則與我們所探討的關(guān)鍵詞“信任”密切相關(guān),主要包含人、數(shù)據(jù)信息、物理三個要素,即醫(yī)療人工智能系統(tǒng)能夠?qū)崿F(xiàn)復雜的數(shù)據(jù)信息、物理與人的融合交互。(23)沈寓實、徐亭、李雨航:《人工智能倫理與安全》,清華大學出版社,2021年,第7頁??梢哉f,安全是可信或者信任的前提。結(jié)合前文所提及的醫(yī)療人工智能信任缺失可能產(chǎn)生的諸多不良影響,我們發(fā)現(xiàn),這些都根源于人們對其應用安全和倫理安全方面的擔憂。要實現(xiàn)醫(yī)療人工智能的安全可信,我們應采取有效應對措施。為此,筆者嘗試以倫理原則作為理論路徑,同時輔以倫理實踐的指引,分別對醫(yī)療人工智能信任問題的解決進行思考。
談及人工智能倫理原則,我們首先會聯(lián)想到其雛形——美國科幻作家阿西莫夫于20世紀40年代提出的“機器人學三定律”(24)北京大學機器人標準化總體組:《中國機器人倫理標準化前瞻》,北京大學出版社,2019年,第20頁。,簡要說來就是“機器人不可傷害人,機器人必須服從人的指令,機器人在不違背前兩條定律的情況下要盡可能保護自己”(25)[希臘]施皮羅斯.G.查夫斯塔:《機器人倫理學導引》,尚新建、杜麗燕譯,北京大學出版社,2022年,第4頁。。這些定律主要指向機器人或者人工智能本身,屬于一般意義的倫理要求。2017年,國際電氣和電子工程師協(xié)會(Institute of Electrical and Eletronics Engineers,IEEE)組織全球相關(guān)領(lǐng)域?qū)<?發(fā)布了三項人工智能的倫理準則,即“體現(xiàn)人權(quán),最大程度有利于人類和自然環(huán)境,削弱其風險和負面影響”(26)Institute of Electrical and Eletronics Engineers,“Ethically aligned design: A vision for prioritizing human well-being with autonomous and intelligent systems”,http://standards.ieee.org/wp-content/uploads/import/documents/other/ead_v2.pdf.。無論是著名的“機器人學三定律”,還是國際電氣和電子工程師協(xié)會發(fā)布的人工智能倫理三原則,它們均為我們解決醫(yī)療人工智能的信任問題提供了可能。當下,醫(yī)療人工智能面臨信任挑戰(zhàn),我們也可以此為基礎,從目的和手段兩大層面,對解決這一問題應遵循的倫理原則加以探究。
第一,從目的層面來看,醫(yī)療人工智能信任問題的解決需堅持以人為本、人類福祉優(yōu)先、保障人權(quán)、不傷害原則等。首先,無論是普遍意義上的人工智能,還是醫(yī)療領(lǐng)域的人工智能,其應用和發(fā)展都應堅持以人為本的根本原則,以人類福祉的實現(xiàn)為最終價值追求。醫(yī)療人工智能只有更好地為人服務、滿足人們的生命健康需求,才能收獲更多的信任,獲取更大發(fā)展前景。其次,醫(yī)療人工智能的研究、應用和發(fā)展需堅持保障人權(quán)、維護人格尊嚴。在科學技術(shù)高速發(fā)展的時代,各行業(yè)各領(lǐng)域都通過融合先進技術(shù),來謀求更大發(fā)展空間。醫(yī)療作為與人類生命健康聯(lián)系最為緊密的領(lǐng)域之一,其存在和發(fā)展可以保障人類最基本的人權(quán),如生命健康權(quán)。醫(yī)療技術(shù)水平的提升,能在一定程度上更好地維護人們的人格尊嚴。因此,融入人工智能技術(shù)后的醫(yī)療領(lǐng)域,將保障人權(quán)和維護人格尊嚴作為基本原則,無疑可以增進人們對醫(yī)療人工智能的認可,而信任也將逐步形成。最后,醫(yī)療人工智能的研究、應用和發(fā)展也必須堅持不傷害原則。結(jié)合不信任問題產(chǎn)生的因素來看,人們之所以不信任醫(yī)療人工智能,除了受到傳統(tǒng)價值觀念的影響之外,還有個非常重要的因素,就是人們會擔心遭到醫(yī)療人工智能的“傷害”。這里的傷害不僅指物理意義上的傷害,也包括心理層面的、社會層面的傷害。前文也提及了醫(yī)療人工智能產(chǎn)品和技術(shù)可能存在一些潛在風險,而只有將這些潛在風險和傷害發(fā)生的概率由大化小、由小化無,才能贏得人們的認可,實現(xiàn)醫(yī)療人工智能的安全可信。
第二,從手段層面來看,作為輔助工具的醫(yī)療人工智能,在開發(fā)和應用方面應堅持安全原則、公正原則、透明原則以及責任原則。首先,提高醫(yī)療人工智能的安全性是增進人們對其信任的重要標尺。因此,醫(yī)療人工智能應堅持安全原則,以保障其在技術(shù)、應用和倫理層面的安全為前提。人工智能作為一把“雙刃劍”,它在為醫(yī)療領(lǐng)域提供更多技術(shù)支撐的同時,也帶來了安全隱患,只有堅持醫(yī)療人工智能的安全使用,才能真正造福于人。其次,醫(yī)療人工智能在采集和利用數(shù)據(jù)時可能會受到研發(fā)者潛在的偏見、(27)Scharre Paul,Michael C.Horowitz,Robert O.Work,“AI safety concerns and vulnerabilities”,Artificial Intelligence: What Every Policymaker Needs to Know,Center for a New American Security,2018,p.13.知識結(jié)構(gòu)的不完整性等影響,由此可能導致算法歧視現(xiàn)象。因此,這就要求醫(yī)療人工智能的研發(fā)應堅持公正原則,充分考慮到不同群體的不同能力和需求;也要求醫(yī)療人工智能的應用更加公平可及。再者,醫(yī)療人工智能信任問題的解決也需堅持透明原則,確保醫(yī)療人工智能以相對透明的方式運行。(28)Alan F.T.Winfield,Marina Jirotka,“Ethical governance is essential to building trust in robotics and artificial intelligence systems”,Philosophical Transactions of the Royal Society a Mathematical Physical and Engineering Sciences,vol.376,no.2133(2018).實現(xiàn)醫(yī)療人工智能更好的應用和發(fā)展,需要技術(shù)和專業(yè)知識的可信作為支撐。而這些抽象的可信對象,都應該以堅持透明原則為前提條件。最后,堅持責任原則,明確各利益相關(guān)者的責任,建立合理的責任體系也是增進人們對于醫(yī)療人工智能信任的必要手段。之所以會提及責任原則,是因為在人工智能的應用場景中,歸責問題無法避免。例如,在臨床醫(yī)學場景中,醫(yī)院通過機器人給患者進行手術(shù)治療,如若手術(shù)過程中發(fā)生事故,誰該為這場醫(yī)療事故負責?是機器人?還是醫(yī)院、醫(yī)生?還是機器人的研發(fā)團隊?其中的責任如何劃分?我們只有堅持責任原則,明確責任范圍,建立責任機制,確保社會能夠?qū)︶t(yī)療人工智能所產(chǎn)生的結(jié)果進行歸因和追責,才能提升人們對醫(yī)療人工智能的信任。(29)沈寓實、徐亭、李雨航:《人工智能倫理與安全》,清華大學出版社,2021年,第87頁。
為更好地解決醫(yī)療人工智能可能產(chǎn)生的信任問題,除了從倫理原則層面對其加以規(guī)范和約束,還應從倫理實踐層面,對其加以正確引導。為此,筆者從技術(shù)研發(fā)、機構(gòu)管理、政策保障等角度進行了探索。
第一,從技術(shù)研發(fā)角度來看,應提高醫(yī)療人工智能的研發(fā)水平,將安全放在首位,為醫(yī)療人工智能信任的實現(xiàn)奠定基礎。具體說來,醫(yī)療人工智能在研發(fā)過程中,需要保障患者的醫(yī)療數(shù)據(jù)信息安全,提高數(shù)據(jù)的全面性和準確性,增強可解釋性以及確保數(shù)據(jù)和算法的可追溯性。(30)郭銳:《人工智能的倫理和治理》,法律出版社,2021年,第176-177頁。在保障患者的醫(yī)療數(shù)據(jù)信息安全方面,醫(yī)療人工智能的進步和發(fā)展,建立在海量的數(shù)據(jù)基礎之上,如患者的電子病歷、醫(yī)學影像等,這些都是醫(yī)療人工智能得以廣泛應用的基礎。(31)參見中國信息通信研究院、36氪研究院2020年發(fā)布的《2020人工智能醫(yī)療產(chǎn)業(yè)發(fā)展藍皮書》。因而,保障這些醫(yī)療數(shù)據(jù)的隱私和安全非常重要。這就要求在研發(fā)過程中,技術(shù)人員必須通過加密技術(shù)和數(shù)據(jù)脫敏等手段來保護數(shù)據(jù)安全。在提高數(shù)據(jù)的全面性和準確性方面,醫(yī)療人工智能系統(tǒng)的建立應堅持全方位、多層次,采集不同地區(qū)、不同人群、不同病種的醫(yī)學數(shù)據(jù)信息,增加數(shù)據(jù)信息的多樣性和全面性。在此基礎上,通過反復訓練、測試以及醫(yī)學專家的審查和驗證,來幫助提高醫(yī)療數(shù)據(jù)信息的準確性。在增強可解釋性和可追溯性方面,研發(fā)人員應在合理范圍內(nèi),對算法和決策提供解釋,確保醫(yī)療人工智能相關(guān)者的知情權(quán)。例如,在不違背知識產(chǎn)權(quán)的前提下,適當公開醫(yī)療人工智能的特點、功能、服務對象以及可能給用戶帶來的影響等,(32)郭銳:《人工智能的倫理和治理》,法律出版社,2021 年,第176-177頁。同時,采取一些可解釋的算法和模型來建立醫(yī)療領(lǐng)域的人工智能模型,并通過為醫(yī)療專業(yè)人員及一些相關(guān)者提供可視化的結(jié)果等方式,來增強其可解釋性和可追溯性等。
第二,從機構(gòu)管理角度來看,設置專業(yè)機構(gòu)對醫(yī)療人工智能進行內(nèi)部指導和外部監(jiān)督。這里的專業(yè)機構(gòu)可以包括醫(yī)療人工智能技術(shù)委員會和醫(yī)療人工智能倫理委員會。其中,醫(yī)療人工智能技術(shù)委員會主要從內(nèi)部層面,對醫(yī)療人工智能技術(shù)的研發(fā)進行指導和支持,促進技術(shù)的不斷創(chuàng)新和升級,提高技術(shù)的質(zhì)量和水平,降低其技術(shù)風險和安全隱患的發(fā)生概率。醫(yī)療人工智能倫理委員會則側(cè)重從外部層面,在制定倫理規(guī)范和倫理準則等基礎上,對醫(yī)療人工智能從研發(fā)之初到技術(shù)、產(chǎn)品和服務的呈現(xiàn)等全過程中可能存在的風險,進行倫理審查和評估。同時,通過對醫(yī)療人工智能進行嚴格監(jiān)督,以確保醫(yī)療人工智能的相關(guān)技術(shù)操作符合法律法規(guī)和倫理標準。總體而言,這種內(nèi)部指導和外部規(guī)范相結(jié)合的機構(gòu)設置方式和管理方式,不僅可以在一定程度上保障醫(yī)療人工智能技術(shù)的安全性和可靠性,提高其技術(shù)的透明度和可解釋性,還有利于其創(chuàng)新和發(fā)展,對于保護患者和醫(yī)務人員的權(quán)益,改進醫(yī)療人工智能的服務質(zhì)量都有裨益。因此,這也是從實踐層面解決醫(yī)療人工智能信任問題的有效途徑之一。
第三,從政策制定角度來看,醫(yī)療人工智能信任問題的解決,離不開政策的保障。通過梳理國內(nèi)外關(guān)于醫(yī)療人工智能的政策方針,我們可以發(fā)現(xiàn)目前國際層面影響力較大的規(guī)范主要集中出現(xiàn)在2019年,如歐盟發(fā)布的《可信人工智能倫理指南》和《算法責任與透明治理框架》;同年,G20貿(mào)易和數(shù)字經(jīng)濟部長會議通過《G20人工智能原則》。而我國對于人工智能的發(fā)展也非常重視。在政府層面,我國于2017年和2020年分別印發(fā)了《新一代人工智能發(fā)展規(guī)劃》和《國家新一代人工智能標準體系建設指南》;在行業(yè)和組織層面,2019年發(fā)布的《新一代人工智能治理原則——發(fā)展負責任的人工智能》《人工智能安全發(fā)展上海倡議》《中國青年科學家2019人工智能創(chuàng)新治理上海宣言》較有影響力。(33)沈寓實、徐亭、李雨航:《人工智能倫理與安全》,清華大學出版社,2021年,第77-78頁。這些都是對醫(yī)療人工智能進行約束的體現(xiàn)。我們也發(fā)現(xiàn),無論國內(nèi)還是國際,都缺乏法規(guī)政策層面的直接管理。而當醫(yī)療人工智能作為一種工具而存在時,法律法規(guī)對其長遠發(fā)展有著不容忽視的影響力,因此從政策制定的角度,加強法律法規(guī)的強制約束力,明確責任邊界,(34)趙飛、蘭藍、曹戰(zhàn)強等:《我國人工智能在健康醫(yī)療領(lǐng)域應用發(fā)展現(xiàn)狀研究》,《中國衛(wèi)生信息管理雜志》,2018年第3期。對于醫(yī)療人工智能信任問題的解決、促進醫(yī)療人工智能良治的實現(xiàn)意義重大。
人工智能在醫(yī)療場景中蘊含重大價值,醫(yī)療與人工智能的結(jié)合,為生命科學研究和臨床醫(yī)學發(fā)展提供了重要競爭力。信任作為醫(yī)療人工智能的發(fā)展根基,不僅關(guān)系到醫(yī)療人工智能行業(yè)的長遠發(fā)展,更關(guān)系到人類的健康福祉。要實現(xiàn)醫(yī)療人工智能的安全可信,技術(shù)因素、主觀因素以及社會因素都不容忽視。技術(shù)層面的因素是建立醫(yī)療人工智能信任的前提和基礎,人們關(guān)于醫(yī)療人工智能的認知現(xiàn)狀和認知水平是信任醫(yī)療人工智能的主觀因素,社會層面的因素則是醫(yī)療人工智能技術(shù)推廣和應用的重要保障。為了規(guī)避由于醫(yī)療人工智能信任缺失而損害患者健康、導致醫(yī)患關(guān)系緊張、影響醫(yī)療人工智能健康發(fā)展等諸多問題,我們應以倫理原則作為理論路徑,同時輔以倫理實踐的指引。期待在不久的將來,醫(yī)療人工智能所帶來的獨特優(yōu)勢能惠及每一個人,人類的健康福祉也能在醫(yī)療人工智能的助力下得以更好實現(xiàn)。