〔摘要〕醫(yī)療人工智能的廣泛應(yīng)用為傳統(tǒng)診斷和治療帶來了技術(shù)突破,也改變了傳統(tǒng)醫(yī)患交互行為模式,形成“醫(yī)生-醫(yī)療人工智能-患者”新型醫(yī)患關(guān)系,這一關(guān)系面臨一系列挑戰(zhàn):人工智能的介入可能形成新的“家長式作風(fēng)”,影響共同決策模式;當(dāng)其建議缺乏解釋時,可能導(dǎo)致臨床決策癱瘓,影響醫(yī)患信任關(guān)系;人工智能在醫(yī)療實踐過程中與醫(yī)生的角色和責(zé)任可能存在混淆,影響富有情感負責(zé)任的醫(yī)患關(guān)系構(gòu)建。通過深入分析醫(yī)療人工智能對醫(yī)患關(guān)系的影響及原因,提出應(yīng)當(dāng)建立人工智能與專業(yè)醫(yī)生互補的協(xié)作機制,明確人工智能的輔助地位,強化醫(yī)生的主導(dǎo)角色,完善監(jiān)管機制并動態(tài)改善醫(yī)患關(guān)系,以促進智慧醫(yī)療的健康有序發(fā)展。
〔關(guān)鍵詞〕醫(yī)療人工智能;醫(yī)患關(guān)系;信任;共同決策
〔中圖分類號〕R-052 〔文獻標(biāo)志碼〕A 〔文章編號〕1001-8565(2025)01-0103-06
DOI: 10. 12026/j. issn. 1001-8565. 2025. 01. 15
【基金項目】 首都醫(yī)科大學(xué)附屬北京地壇醫(yī)院院內(nèi)科研基金“泛知情同意在醫(yī)療機構(gòu)中的應(yīng)用研究”(DTZK-202403);首都醫(yī)科大學(xué)醫(yī)院管理研究所開放性課題“傳染病數(shù)據(jù)共享中的風(fēng)險防范策略研究”(2023YGS09);北京市教育委員會社科計劃一般項目“價值共創(chuàng)視域下‘互聯(lián)網(wǎng)+’醫(yī)患關(guān)系改進對策研究”(SM202010025006)
Exploring the construction path of the new doctor-patient relationships of “doctor-medical artificial intelligence-patient”
ZHANG Ruyi1, ZHOU Yun’ao1, PENG Yingchun2
(1. Office of Ethics Committee, Beijing Ditan Hospital, Capital Medical University, Beijing 100015, China;2. School of Medical Humanities, Capital Medical University, Beijing 100069, China)
Abstract: The widespread application of medical artificial intelligence (AI) has brought technological breakthroughs to traditional diagnosis and treatment and has also altered the traditional doctor-patient interaction mode and formed a new doctor-patient relationship of “doctor-medical AI-patient” which faces a series of challenges. The intervention of AI may form a new “paternalistic style,” affecting the shared decision-making model. When its recommendations lack explanation, it may lead to clinical decision-making paralysis and affect the doctor-patient trust relationships. There may be confusion between the roles and responsibilities of AI and doctors in the process of medical practice, affecting the establishment of an emotionally responsible doctorpatient relationship. Through an in-depth analysis of the impact and causes of medical AI on the doctor-patient relationships, this paper proposed that a collaborative mechanism should be established between AI and professional doctors to complement each other, clarifying the auxiliary status of AI, reinforcing the dominant role of doctors, enhancing the regulatory mechanism, and dynamically improved the doctor-patient relationships to promote the healthy and orderly development of smart healthcare.
Keywords: medical artificial intelligence; doctor-patient relationship; trust; shared decision-making
中國人口老齡化程度不斷加深,居民的醫(yī)療需求顯著增加,人工智能正在越來越多地被開發(fā)并應(yīng)用于醫(yī)學(xué)領(lǐng)域。中國出臺了一系列政策鼓勵和指導(dǎo)其發(fā)展。2017年,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,提出推廣應(yīng)用人工智能治療新模式,探索智能醫(yī)院建設(shè);2018年國務(wù)院辦公廳發(fā)布的《關(guān)于促進“互聯(lián)網(wǎng)+醫(yī)療健康”發(fā)展的意見》提出,研發(fā)基于人工智能的臨床診療決策支持系統(tǒng),提高醫(yī)療服務(wù)效率。2021年,由國家發(fā)展改革委等21部門印發(fā)實施的《“十四五”公共服務(wù)規(guī)劃》提出,加強智慧醫(yī)院建設(shè),促進人工智能在公共服務(wù)領(lǐng)域推廣應(yīng)用。人工智能是指計算機軟件模擬人類認知過程的方式,被定義為機器的智能[1]。其在醫(yī)療行業(yè)的應(yīng)用實現(xiàn)了智能導(dǎo)診、云平臺診療、臨床輔助診斷等,傳統(tǒng)醫(yī)療逐步轉(zhuǎn)變?yōu)閿?shù)字醫(yī)療、信息醫(yī)療和智慧醫(yī)療,傳統(tǒng)的醫(yī)患互動方式、信息獲取渠道和醫(yī)療決策模式也隨之改變,介于患者和醫(yī)生二者之間的雙重關(guān)系,由于醫(yī)療人工智能的參與,形成了新型的“醫(yī)生-醫(yī)療人工智能-患者”共同參與的醫(yī)患關(guān)系。本文旨在分析醫(yī)療人工智能對傳統(tǒng)醫(yī)患關(guān)系的影響,并提出適宜的“三位一體”新型醫(yī)患關(guān)系建構(gòu)路徑。
1 醫(yī)療人工智能對傳統(tǒng)醫(yī)患關(guān)系的影響
醫(yī)療人工智能是指在醫(yī)療領(lǐng)域運用人工智能技術(shù),包括機器學(xué)習(xí)、深度學(xué)習(xí)、自然語言處理、計算機視覺技術(shù)等。其廣泛應(yīng)用于藥物研發(fā)、醫(yī)學(xué)影像、輔助診療、健康管理以及疾病預(yù)測等方面[2]。傳統(tǒng)的醫(yī)患關(guān)系基于醫(yī)生-患者之間溝通交流,依賴醫(yī)生經(jīng)驗和患者提供的信息進行醫(yī)療決策,醫(yī)療人工智能的應(yīng)用提供了諸如智能設(shè)備或在線平臺等新的溝通方式、信息獲取渠道,改變了醫(yī)療決策模式和資源配置格局,對傳統(tǒng)醫(yī)患關(guān)系也產(chǎn)生了新影響。
1. 1 “家長式作風(fēng)”的人工智能對患者自主權(quán)的影響
尊重患者的自主性被認為是當(dāng)代醫(yī)療實踐的基本原則之一[3]。既往造成醫(yī)患之間不平等地位的重要因素之一是,醫(yī)生與患者之間存在信息鴻溝,醫(yī)生具有豐富的醫(yī)療專業(yè)知識,而患者的醫(yī)療知識相對匱乏。這在文化程度低或者醫(yī)療條件較差的偏遠地區(qū)的患者群體中更被放大。人工智能在醫(yī)療領(lǐng)域的應(yīng)用在一定程度上可以通過為患者提供更多的醫(yī)療信息,增強患者的權(quán)能,減少地域和知識偏差對患者作出決定的限制,為其參與醫(yī)療決策提供更多的數(shù)據(jù)支持。
然而人工智能是依靠收集的患者信息,輸入數(shù)據(jù)庫檢索,并依據(jù)大數(shù)據(jù)特定的參數(shù)給出答案,因為缺乏對社會、心理、生物和精神等層面的了解,尚不能將不同患者的固有價值觀或偏好納入考慮。例如,大多數(shù)算法會根據(jù)哪種治療能最大限度地延長患者的預(yù)期壽命來推薦治療決策,然而,患者可能更喜歡減輕疼痛的治療方式。此外,醫(yī)療人工智能給出的推薦是基于海量的基礎(chǔ)數(shù)據(jù)和算法模型。算法偏差包含人類引起的偏差和數(shù)據(jù)引起的偏差,由人類引起的偏見受到開發(fā)商本身的道德觀念及相關(guān)利益的影響,而算法可能會繼承人類的偏見,并隨著數(shù)據(jù)的積累和迭代,使得偏差被加強和放大。由數(shù)據(jù)引起的偏差是指訓(xùn)練不具有代表性而影響算法模型時的偏差,如果該算法是基于西方人的診療數(shù)據(jù)開發(fā)的,那么在診斷亞洲人群時則會不太準(zhǔn)確[4]。因此,在智慧醫(yī)療中,有偏見的算法可能或低估或高估某些患者的風(fēng)險,不具有代表性的數(shù)據(jù)可能導(dǎo)致某些群體邊緣化,鞏固或加劇健康差距,增加弱勢群體的風(fēng)險。而這種所謂人工智能基于醫(yī)療大數(shù)據(jù)分析,引導(dǎo)患者做出他們認為符合患者最大利益的決策,可能會帶來新的“計算機最了解”的“家長式作風(fēng)”,進而形成主體為人工智能的新型家長制關(guān)系,對患者的自主選擇權(quán)造成新的沖擊,削弱患者在醫(yī)療實踐中的主體地位[4]。此外,人工智能在智慧醫(yī)療應(yīng)用場景中,“家長式”地大量收集和共享使用患者個人信息和醫(yī)療信息,并完善其可訪問的數(shù)據(jù)庫,這通常是在患者沒有明確同意和許可的情形下完成的。
1. 2 “非責(zé)任主體”的人工智能對醫(yī)生決策責(zé)任的影響
臨床醫(yī)生需要為他們作出的醫(yī)療決定負責(zé),如果因為其錯誤診斷而對患者造成嚴重損害,臨床醫(yī)生可能會面臨醫(yī)療事故糾紛,被指控實施了“不負責(zé)任”的診療。為了減輕這種風(fēng)險,醫(yī)生應(yīng)當(dāng)根據(jù)現(xiàn)有的最佳證據(jù)作出決定。倘若在智慧醫(yī)療場景中,臨床醫(yī)生和人工智能之間出現(xiàn)分歧,如果醫(yī)生堅持了他最初的建議,而最終的診斷結(jié)果卻是錯的,他可能被認為是采取不負責(zé)任的行為,因為其疏忽大意或是過于自信而忽略了人工智能提供的證據(jù)[4]。然而許多醫(yī)療決定是在不完善的條件下作出的,例如由于時間限制,一定程度上阻礙醫(yī)生對現(xiàn)有證據(jù)的深入評估。而如果醫(yī)生聽從了人工智能的建議,但是其建議是基于諸如教條主義或經(jīng)驗主義等認識缺陷產(chǎn)生的,又或者其算法出現(xiàn)錯誤,導(dǎo)致其給出了錯誤的治療建議,誰應(yīng)該為此診療決策負責(zé)?人工智能給出了錯誤的建議,而最終作出決定的是臨床醫(yī)生,醫(yī)療責(zé)任歸屬是否應(yīng)當(dāng)從醫(yī)生轉(zhuǎn)向人工智能?有學(xué)者認為,人工智能不具備自由意志和道德主體性,從亞里士多德的“行動必須源于主體,人不可能不知道自己在做什么”來看,人工智能既不符合傳統(tǒng)的自由意志標(biāo)準(zhǔn),也不知道自己在做什么,因此人工智能不能成為負責(zé)任的主體[5]。就目前智慧醫(yī)療的實際場景而言,人工智能只是醫(yī)生用來診斷和治療疾病的輔助工具,并不具備作為負責(zé)人的資格。然而,醫(yī)療人工智能的應(yīng)用涉及諸多利益相關(guān)者,包含其開發(fā)者、算法設(shè)計者以及監(jiān)管者等,簡單地將醫(yī)療責(zé)任歸咎于醫(yī)生并不公平。決定將人工智能應(yīng)用于醫(yī)療場景的醫(yī)療機構(gòu)是否應(yīng)當(dāng)負責(zé)?人工智能的制造者是否應(yīng)當(dāng)負責(zé)?人工智能算法的設(shè)計者是否應(yīng)當(dāng)負責(zé)?責(zé)任不清的診療關(guān)系對智慧醫(yī)療中的醫(yī)患關(guān)系造成了新的沖擊。
1. 3 “黑箱”般的人工智能對醫(yī)患信任關(guān)系的影響
正如醫(yī)患關(guān)系建立在醫(yī)患信任基礎(chǔ)之上一樣,醫(yī)生和患者也必須與醫(yī)療人工智能建立信任關(guān)系,才能促使智慧醫(yī)療良性發(fā)展。信任關(guān)系的建立需要依靠信息的可靠性和可解釋性,然而,人工智能在多數(shù)情況下被稱為“黑箱”,依靠綜合大數(shù)據(jù)尋求最佳回應(yīng)使得人工智能工具并不總是能夠提供可解釋性的、透明度高的信息。而由于人工智能缺乏可解釋性,可能導(dǎo)致“決策癱瘓”現(xiàn)象[6]。當(dāng)患者面對人工智能提供的大量信息時,往往會因為難以理解復(fù)雜的醫(yī)學(xué)術(shù)語,而出現(xiàn)信息過載的問題。缺乏必要性的解釋說明時,患者會對人工智能提供的數(shù)據(jù)表現(xiàn)為低信任度。智慧醫(yī)療中理想的狀態(tài)是由醫(yī)生承擔(dān)患者和人工智能之間的橋梁,由醫(yī)生審查和完善人工智能提出的結(jié)論和建議,并向患者解釋或回答相關(guān)疑問。這需要醫(yī)生以正確的方式向患者傳達和解釋人工智能創(chuàng)新,既要證明其附加價值,又要避免技術(shù)在患者感知中取代人類醫(yī)生的風(fēng)險。然而,人工智能提供的診斷可能并不能完全反映醫(yī)生的評估和想法,例如,國際商業(yè)機器公司(International Business Machines,IBM)的人工智能系統(tǒng)Watson for Oncology顯示出的醫(yī)療建議,醫(yī)生常對其也缺乏理解[6]。如果醫(yī)生和人工智能提供的診斷、預(yù)后和治療提供不同的意見,或是缺乏理解,這種模棱兩可或分歧的情況會導(dǎo)致患者體驗到不確定性,不知道該遵循何種意見,誰更有權(quán)威性或更值得相信。患者在猶豫聽從醫(yī)生建議還是選擇人工智能建議之間就可能會造成決策癱瘓或延誤[7]。
因為“黑箱”般的人工智能缺乏結(jié)果的可解釋性,可能會導(dǎo)致患者和醫(yī)生更加重視人工智能的準(zhǔn)確性和有效性。換言之,醫(yī)患可能將他們的可信賴關(guān)系建立在人工智能工具提供高度確定性而不是高度透明度的理解上,對其決策的有效性產(chǎn)生高度依賴,而忽略人際信任價值的提升。一旦決策的有效性或準(zhǔn)確性受到影響,都可能會摧毀智慧醫(yī)療中的醫(yī)患信任關(guān)系。相關(guān)報道顯示,IBM的沃森腫瘤系統(tǒng)經(jīng)常推薦“不安全和不正確的”癌癥治療指南,因為用于訓(xùn)練沃森算法的數(shù)據(jù)不是來自真實的患者,而且來自虛擬患者的假設(shè)和不充分的數(shù)據(jù)[5]。治療建議是根據(jù)每一類癌癥的少數(shù)專家提出的,而不是有關(guān)的指引或可靠的證據(jù),這些數(shù)據(jù)并不代表實際復(fù)雜的臨床情況,進而不可避免地影響了人工智能決策的準(zhǔn)確性和適用性。患者可能將錯誤決策的原因歸咎于醫(yī)生能力有限,缺乏識別人工智能不當(dāng)決策的能力;醫(yī)生將錯誤決策的原因歸結(jié)于人工智能大多數(shù)時候正確且患者可能表現(xiàn)出對人工智能建議的傾向性,進而導(dǎo)致醫(yī)患信任關(guān)系受到影響。
1. 4 “程式化的”人工智能對醫(yī)患情感關(guān)系的影響
相關(guān)研究[3]顯示,同理心是以人為本醫(yī)療的基礎(chǔ),同理心要求醫(yī)生要理解患者的立場、了解患者的疾病經(jīng)歷和個人處境,并通過這種認知產(chǎn)生共鳴,感到有動力為患者提供幫助,進而有助于醫(yī)生從患者的角度以及患者個體的價值觀和目標(biāo)來理解疾病。如果不站在患者的角度去理解患者的選擇,醫(yī)生難以與其達成共同決策。同理心可以激發(fā)同情心,同情心可以使得醫(yī)生具有關(guān)心、關(guān)愛患者的感覺,進而產(chǎn)生改善他人福祉的強烈動機。而人工智能在人際關(guān)系和情感體驗的心理表征上,不可避免地與人類存在異質(zhì)性。即使接受了對自然語言的理解訓(xùn)練,人工智能也無法以原始形式整合這些信息,無法獲得人類醫(yī)生與患者會診時可以使用的復(fù)雜而微妙的肢體語言和情感互動能力。對患者而言,如果在體驗智慧醫(yī)療中,提供醫(yī)療服務(wù)釋疑解惑的是人工智能醫(yī)生,他可能會產(chǎn)生負面情緒,感覺到自己被遺棄、不被重視。盡管也有相關(guān)研究[8]認為,人工智能在醫(yī)療領(lǐng)域的推廣可以節(jié)省醫(yī)生時間,讓醫(yī)患之間有足夠的溝通交流時間,以便醫(yī)生能夠獲得充分的信息與患者建立更有意義和富有同理心的關(guān)系。相關(guān)研究[9]顯示,醫(yī)療人工智能Watson for Oncology需要40秒來捕獲和分析數(shù)據(jù),然后根據(jù)可用數(shù)據(jù)生成治療建議。相比之下,醫(yī)生手動收集和分析數(shù)據(jù)平均需要20分鐘,當(dāng)腫瘤學(xué)家對病例更加熟悉時,時間會減少到12分鐘[9]。然而,目前尚不清楚這些節(jié)省下來的時間是否會用于增進醫(yī)患之間的情感交流,促進更加信任的醫(yī)患關(guān)系的建立[2]。出于醫(yī)療資源的短缺性和市場經(jīng)濟的逐利性,特別是在人口老齡化加劇、醫(yī)療資源緊缺的情況下,人工智能節(jié)省的時間也可能會被用于接診更多的患者,這意味著醫(yī)生仍然沒有足夠的時間與患者進行充分且有效的溝通,患者的接診時間縮短可能會導(dǎo)致醫(yī)患情感關(guān)系的惡化。
2 “醫(yī)生-醫(yī)療人工智能-患者”三位一體的醫(yī)患關(guān)系構(gòu)建路徑探析
2. 1 明確人工智能在智慧醫(yī)療活動中的輔助地位
基于前述醫(yī)療人工智能對醫(yī)患關(guān)系的影響,很大程度上取決于其在醫(yī)療環(huán)境中發(fā)揮的作用,其角色究竟是協(xié)助醫(yī)生還是替代醫(yī)生?一項行為學(xué)實驗發(fā)現(xiàn),如果人工智能可以進行個性化的對話,參與者遵循人工智能建議的意愿就會增加,這意味著患者可能更喜歡可以進行語言溝通的真實的醫(yī)生建議[3]。另一神經(jīng)學(xué)研究顯示,即使是在人工智能使用個性化的對話風(fēng)格時,研究參與者大腦反應(yīng)顯示出對醫(yī)療人工智能的冷漠,相比之下,真實的醫(yī)生更容易引起患者的情感反應(yīng)[3]。這些研究表明,即使人工智能足夠聰明,但是也難以做到像真實的醫(yī)生一樣,感受患者情緒,理解患者期待,與患者產(chǎn)生情感共鳴。
相關(guān)學(xué)者提出,醫(yī)療人工智能只能通過改善溝通方式等渠道在輔助作用中對醫(yī)患關(guān)系產(chǎn)生積極影響[10]。例如,一項關(guān)于精神健康的研究顯示,對邊緣性人格障礙的患者使用AI補充療法可能是有益的,盡管患者知道醫(yī)生可以訪問這些信息,但他們?nèi)匀桓敢庀蛉斯ぶ悄茚t(yī)生披露信息[11]。
由此可見,人工智能應(yīng)當(dāng)在醫(yī)療中扮演醫(yī)生的輔助角色。這需要以正確的方式向患者傳達和解釋人工智能創(chuàng)新,既要證明其附加價值,又要避免技術(shù)在患者感知中取代人類醫(yī)生的風(fēng)險。盡管人工智能可以提供一般的健康信息和管理日常任務(wù),但他們目前的能力并沒有擴展到會應(yīng)對處理復(fù)雜的醫(yī)療問題。這些疑難雜癥的解答通常需要豐富的醫(yī)學(xué)知識、批判性的思維和多年的臨床經(jīng)驗,這是人工智能所不具備的?;颊咴谠\療中享有自主選擇權(quán)和知情同意權(quán),醫(yī)生需要向患者解釋人工智能在醫(yī)療咨詢中的作用,求助于這種技術(shù)是一種理想策略,用來提供最好的咨詢和治療,而不是人工智能正在做醫(yī)生的工作[7]。此外,醫(yī)療機構(gòu)應(yīng)當(dāng)嘗試“泛知情”方式提前獲得對醫(yī)療數(shù)據(jù)用于人工智能機器訓(xùn)練學(xué)習(xí)的許可。只有這樣,患者才能在充分知情的前提下,與人工智能工具和使用人工智能的醫(yī)生在智慧醫(yī)療行為中建立信任關(guān)系,將人工智能基于大數(shù)據(jù)算法提供的建議與醫(yī)生富有診療經(jīng)驗的建議進行細致綜合評估,并共同參與醫(yī)療決策,將其作為自我健康管理的有力支持。
2. 2 強化醫(yī)生在智慧醫(yī)療中的主導(dǎo)地位與互動角色
首先,人工智能對醫(yī)患關(guān)系的影響是一把“雙刃劍”,如何讓人工智能對醫(yī)患關(guān)系產(chǎn)生正向影響,醫(yī)生作為主導(dǎo)者需要承擔(dān)更多的責(zé)任。法律層面缺乏對人工智能診療行為的規(guī)范,導(dǎo)致人工智能在醫(yī)療領(lǐng)域的應(yīng)用尚無統(tǒng)一的標(biāo)準(zhǔn)化質(zhì)量標(biāo)準(zhǔn)、準(zhǔn)入體系、評價體系和保障體系。此外,醫(yī)療人工智能的算法主要基于預(yù)先存在的醫(yī)療實踐經(jīng)驗,出于藥物本身的潛在風(fēng)險和不確定性,無論人工智能多么科學(xué),即使隨著其學(xué)習(xí)能力的提高,基礎(chǔ)知識的不斷豐富,其準(zhǔn)確率可能會比醫(yī)生更高,但仍不能保證不犯錯。醫(yī)生是診斷患者疾病開展診療行為的主體,意味著與醫(yī)療人工智能合作開展診療行為的醫(yī)生需要承擔(dān)主體責(zé)任。因此,醫(yī)生需要清楚地認識到醫(yī)療人工智能在倫理和社會問題方面存在的缺陷,并加強對人工智能建議的甄別和監(jiān)督。相關(guān)學(xué)者提出,智慧醫(yī)療時代醫(yī)生的角色應(yīng)當(dāng)更接近于工程師,也就是說要了解大數(shù)據(jù)和人工智能,并熟練地將其作為工具使用[12]。鑒于醫(yī)療人工智能可能會比醫(yī)生更容易獲得相關(guān)的醫(yī)療知識,在認知上可能會超過醫(yī)生,這使得醫(yī)生需要學(xué)習(xí)如何與人工智能系統(tǒng)和大型數(shù)據(jù)集進行互動并一起工作,將人工智能的建議納入日常診療實踐,同時保持批判性的眼光,評估人工智能輸出的信息,從而更有把握地為患者提供診療服務(wù)。
其次,醫(yī)療專業(yè)人員的作用遠比診斷疾病或推薦治療方法要多,當(dāng)患者因?qū)ξ粗膊「械浇箲]或備受壓力時,醫(yī)護人員會為患者提供情感和精神慰藉。這種醫(yī)患關(guān)系建立在信任、和諧和理解的醫(yī)患互動基礎(chǔ)上,不是自動化的,也不能用人工智能聊天機器人來代替。如果人工智能可以幫助醫(yī)生更容易地獲取醫(yī)療知識,協(xié)助醫(yī)生進行醫(yī)療診斷,那么醫(yī)生應(yīng)當(dāng)更加注重發(fā)展與患者交往互動的綜合能力。例如,如何運用知識并充分解釋說明的能力,如何以富有同理心、同情心的方式最大限度地幫助患者。充分彌補程式化醫(yī)療人工智能的情感缺陷,發(fā)揮醫(yī)生的共情能力,提高溝通效率、提供情緒價值,構(gòu)建有溫度的醫(yī)患關(guān)系。
2. 3 動態(tài)調(diào)適“醫(yī)生-醫(yī)療人工智能-患者”醫(yī)患關(guān)系的建構(gòu)
人工智能醫(yī)療中的廣泛應(yīng)用形成了“醫(yī)生-醫(yī)療人工智能-患者”共同參與三位一體的新型醫(yī)患關(guān)系,醫(yī)療人工智能的應(yīng)用同樣需要遵循醫(yī)學(xué)倫理原則,將患者的利益放在首位,促進新型醫(yī)患關(guān)系的發(fā)展。而醫(yī)療人工智能本質(zhì)是一種技術(shù),在前文人工智能在醫(yī)療應(yīng)用的論述中,已經(jīng)論述了其對患者自主權(quán)、決策問責(zé)制、透明可信度的影響,這些問題的處理不僅需要技術(shù)進步,也需要醫(yī)療機構(gòu)相關(guān)管理部門加大監(jiān)管力度,以確保負責(zé)任地使用人工智能,并改善醫(yī)患關(guān)系。
當(dāng)前人工智能本質(zhì)是通過測量現(xiàn)實世界來獲取數(shù)據(jù),從數(shù)據(jù)中提取算法模型,并進行相關(guān)的預(yù)測。因此數(shù)據(jù)和算法是醫(yī)療人工智能決策并提供建議的基礎(chǔ)。首先,相關(guān)監(jiān)管部門應(yīng)當(dāng)關(guān)注數(shù)據(jù)質(zhì)量和算法的透明度[8],并且在智慧醫(yī)療環(huán)境中使用人工智能進行準(zhǔn)入審核,以防濫用;其次,還需要加強對算法偏倚的糾偏管理,定期收集醫(yī)生決策和人工智能決策的一致性,并反饋給人工智能制造商,及時減輕算法偏差或訓(xùn)練數(shù)據(jù)集的不當(dāng)影響。最后,為維護患者權(quán)益,管理部門需要對數(shù)據(jù)的收集和共享使用執(zhí)行可靠的安全協(xié)議,在患者知情許可的前提下收集信息,采用區(qū)塊鏈處理隱私數(shù)據(jù),動態(tài)加密技術(shù)等對數(shù)據(jù)交換與共享進行協(xié)同管理,合乎道德地收集且負責(zé)任地使用患者數(shù)據(jù)。
采取嚴密技術(shù)保護措施的同時,醫(yī)療人工智能作為新型醫(yī)患關(guān)系的直接參與者之一,監(jiān)管部門還需重視其長期廣泛應(yīng)用對醫(yī)患關(guān)系的影響情況。如,通過收集醫(yī)患共同決策的落實情況、與醫(yī)療人工智能的合作情況、醫(yī)生在為患者提供診療服務(wù)中花費的時間、醫(yī)患雙方的接受度和滿意度、醫(yī)患雙方的體驗感和獲得感等多個維度,綜合評估并識別哪些情況下人工智能可能對醫(yī)患關(guān)系產(chǎn)生不良影響,以便及時介入并采取有效措施以動態(tài)調(diào)適醫(yī)患關(guān)系。
3 結(jié)語
綜上,醫(yī)療人工智能對傳統(tǒng)醫(yī)患關(guān)系產(chǎn)生了廣泛影響,一方面可以為患者提供健康教育和疾病管理支持,促進醫(yī)患共同決策實踐;另一方面也可能造成新形式的“家長式作風(fēng)”,侵犯患者的自主權(quán)益。同樣,醫(yī)療人工智能可能通過節(jié)省時間減輕醫(yī)生診療負擔(dān),但尚不清楚節(jié)省的時間是否用于促進醫(yī)患情感關(guān)系的構(gòu)建。此外,醫(yī)患之間的信任關(guān)系也受到醫(yī)療人工智能的影響,可解釋的人工智能可以支持信任關(guān)系,但缺乏解釋性和透明度的決策建議會對信任關(guān)系產(chǎn)生負面影響。本研究論述了幾種改善智慧醫(yī)療場景中醫(yī)患關(guān)系的解決辦法,以確保正確地使用和監(jiān)管可以讓醫(yī)療人工智能促進以人為本醫(yī)患關(guān)系的構(gòu)建。理想的“醫(yī)生-醫(yī)療人工智能-患者”共同參與的醫(yī)患關(guān)系需要人工智能與醫(yī)療專業(yè)人員進行角色互補,明確人工智能的輔助地位,強化醫(yī)生的主導(dǎo)角色,將數(shù)字效率優(yōu)勢、醫(yī)學(xué)診療經(jīng)驗及人類情感支持等結(jié)合起來,通過加強監(jiān)管以及時識別這種協(xié)作方式中可能存在的沖突及風(fēng)險,以便采取適當(dāng)?shù)拇胧└纳漆t(yī)患關(guān)系,促進智慧醫(yī)療的健康發(fā)展。
〔參考文獻〕
[1]韓倩雯,王有強. 醫(yī)療領(lǐng)域人工智能應(yīng)用現(xiàn)狀、挑戰(zhàn)及如何影響患者對醫(yī)生信任的研究[J]. 衛(wèi)生軟科學(xué),2024,38(2):19-26. HAN Q, WANG Y. Research on the applications challenges and the impact of artificial intelligence in health care on patients’ trust in doctors [J]. Soft Science of Health,2024,38(2):19-26.
[2]丁春艷.醫(yī)療領(lǐng)域的人工智能:法律問題與規(guī)管挑戰(zhàn)[J].中國醫(yī)學(xué)倫理學(xué),2020,33(7):887-896. DING C. Artificial intelligence in healthcare: le? gal issues and regulatory challenges [J].Chinese Medical Ethics, 2020,33(7):887-896.
[3]SAUERBREI A, KERASIDOU A, LUCIVERO F, et al. The impact of artificial intelligence on the person-centred, doctor-patient relationship: some problems and solutions[J]. BMC Medical Informat? ics and Decision Making,2023,23(1):73.
[4]GROTE T, BERENS P. On the ethics of algo? rithmic decision-making in healthcare[J]. Journal of Medical Ethics,2020,46(3):205-211.
[5]ZHANG J, ZHANG Z. Ethics and governance of trustworthy medical artificial intelligence[J]. BMC Medical Informatics and Decision Making, 2023,23(1):7.
[6]MCDOUGALL R J. Computer knows best?The need for value-flexibility in medical AI[J]. Journal of medical ethics,2019,45(3):156-160.
[7]TRIBERTI S, DUROSINI I, PRAVETTONI G. A “third wheel” effect in health decision mak? ing involving artificial entities: a psychological perspective[J]. Frontiers in Public Health,2020,8:117.
[8]MABILLARD V, DEMARTINES N, JOLIAT G. How can reasoned transparency enhance cocreation in healthcare and remedy the pitfalls of digi? tization in doctor-patient relationships?[J]. Interna? tional Journal of Health Policy and Management,2022,11(10):1986-1990.
[9]PRINTZ C. Artificial intelligence platform for on? cology could assist in treatment decisions[J]. Cancer,2017,123(6):905.
[10]KARCHES K E. Against the iDoctor: why artifi? cial intelligence should not replace physician judg? ment.[J]. Theoretical Medicine and Bioethics,2018,39(2):91-110.
[11]SZALAI J. The potential use of artificial intelli? gence in the therapy of borderline personality dis? order.[J]. Journal of Evaluation in Clinical Prac? tice,2021,27(3):491-496.
[12]KOLANSKA K, CHABBERT-BUFFET N,DARA? E, et al. Artificial intelligence in medi? cine: a matter of joy or concern?[J]. Journal of Gynecology Obstetrics and Human Reproduc? tion,2021,50(1):101962.