王超
關鍵字:醫(yī)療人工智能;醫(yī)療損害賠償;注意義務;法律挑戰(zhàn)
人工智能是目前計算機學科領域的前沿部分,它是指通過改造機器,賦予機器和人類相同或者相似的行為模式和思考邏輯。通用人工智能(General Artificial Intelligence)“ChatGPT”在2023年出現(xiàn)后,迅速在網(wǎng)絡上走紅并為大眾所熟知。在其影響下,其他行業(yè)的專業(yè)人工智能得到迅猛發(fā)展,其中就包括醫(yī)療人工智能。醫(yī)療人工智能本身兼具人工智能和醫(yī)療雙重屬性,故在剖析我國面臨困境前需要分析其所具有的獨特屬性,目前來看,至少具有以下三方面特征:
第一,黑箱性。醫(yī)療人工智能利用機器的深度學習原理,可以快速自主學習、積累相關醫(yī)學知識,顯著提高準確度、可靠性。但由于深度學習的神經網(wǎng)絡模型是大量的隱藏層所形成的計算模型,即使是開發(fā)者也很難掌握其演算過程。故人工智能具有黑箱(balck box)性。
第二,動態(tài)性。人工智能的應用不能是靜態(tài)的,必須通過不斷地在輸入端更新大量資料,重復校驗經隱藏層分析后經輸出端產出的結果,這個過程必須是持續(xù)的。例如:醫(yī)療人工智能影像診斷,需要在輸入端輔以大量的數(shù)據(jù)資料,如根據(jù)陰影密度判斷疾病的種類病變位置等,之后在輸出端便產出結果,醫(yī)務工作人員根據(jù)結果判斷之前的驗證。
第三,情景偏差性。由于人工智慧醫(yī)療需要大量數(shù)據(jù)資料進行維持,其做出結果的準確程度是與數(shù)據(jù)資料的完善性成正比的,即數(shù)據(jù)庫越完善,該結果的準確性就越高,由于經濟水平差異,科技發(fā)展狀況不一,故醫(yī)療人工智能的效能會有情景上的偏差。在美國醫(yī)療人工智能軟件開發(fā)多由醫(yī)療資源豐富的研究中心與人才濟濟大學或者醫(yī)院進行合作,如IBM沃森腫瘤學系統(tǒng)的運行是IBM公司與 Sloan Kettering癌癥醫(yī)院合作開發(fā)。出于技術、法規(guī)以及商業(yè)等方面的考慮,投資者會和大學醫(yī)院等合作。醫(yī)療人工智能的開發(fā)和使用是為了更好地節(jié)約醫(yī)療資源,促進醫(yī)療專業(yè)知識的普及化,減少醫(yī)療資源差異。情景差異性使醫(yī)療人工智能是否具有這項功能面臨著挑戰(zhàn)。
由于醫(yī)療人工智能涉及普通群眾且具有高度專業(yè)性,所以說醫(yī)療人工智能更應得到法律上的關注。歐盟2017年便出現(xiàn)了《機器人民法規(guī)范的建議》。美國自2016年實行21世紀健康法案(The 21st Century Cures Act)以后,美國藥品監(jiān)督管理局(FDA)對醫(yī)療人工智能的管制便逐漸明確。而我國法律目前基本仍處于空白狀態(tài),急需對于醫(yī)療人工智能的實際應用和致人損害責任劃分等問題予以回應。
傳統(tǒng)醫(yī)療糾紛案件完全可以直接依據(jù)《民法典》侵權責任編、合同編有關規(guī)定或者雙方約定進行處理。但隨著醫(yī)療人工智能的出現(xiàn),法律關系日漸復雜,如何清晰劃分醫(yī)師在醫(yī)療人工智能參與過程中的損害責任便是我們要解決的首要任務。目前來看,醫(yī)療人工智能在臨床上的應用是漸進發(fā)展式的,目前仍主要是輔助醫(yī)師;之后可能會起到一定的實質性作用;甚至發(fā)展到特定情形下完全取代醫(yī)師。目前我國主要是需要針對初級階段各方主體責任做出及時回應,當然也應關注醫(yī)療人工智能的生命周期。
醫(yī)師責任是一個相對動態(tài)發(fā)展的過程,會隨著醫(yī)療人工智能發(fā)展而呈現(xiàn)不同形態(tài)。我國醫(yī)療人工智能仍處于初級階段,目前其僅能輔助醫(yī)師,這種情況下的醫(yī)療人工智能一般用于處理比較簡單且單調的任務,例如醫(yī)學影像篩查或者復核。此階段的醫(yī)療人工智能致人損害可能原因,通常包括醫(yī)療人工智能的選用不當、操作人員失誤、醫(yī)療人工智能軟件本身存在缺陷三種。若因醫(yī)務人員事前過失選用人工智能不當或醫(yī)生事后忽略人工智能報告致使患者出現(xiàn)損害,此時應根據(jù)一般醫(yī)療糾紛案件處理。若醫(yī)師無任何過失,單純因醫(yī)療人工智能軟件自身錯誤出現(xiàn)研判錯誤,直接導致醫(yī)療糾紛,則需檢測醫(yī)療人工智能軟件是否具備缺陷,看是否可以構成產品責任。
第二階段時,醫(yī)療人工智能可以實質影響醫(yī)師決策,其主要是指某些高精準度手術或者治療。一般來說,醫(yī)師只有在拒絕使用相符于常規(guī)標準的醫(yī)療人工智能建議治療標準或者接受明顯不符合常規(guī)標準的醫(yī)療人工智能建議治療標準等存在明顯過錯時才承擔責任。此時法院判定責任范圍時需要根據(jù)醫(yī)療人工智能的影響程度、患者的病情、體質的特征、診療方式的特殊性等進行綜合的個案判斷。
第三種情況是醫(yī)療人工智能實質上取代醫(yī)師進行醫(yī)療決策。這個過程是醫(yī)療人工智能達到一個相對高的發(fā)達程度,其專業(yè)水平和臨床判斷超過頂尖的??漆t(yī)師,此時人工智能完全取代醫(yī)師進行醫(yī)療決策,這是醫(yī)學和科技進步的必然趨勢。未來的醫(yī)療人工智能可能成為一般醫(yī)師處理類似病例時都會采用的工具,且使用醫(yī)療人工智能達到最佳的診療效果,如果醫(yī)師未采用此工具,很有可能會構成違反注意義務而構成過失。若未來人工智能具備專科醫(yī)師的決策水平以及咨詢功能,而一般醫(yī)師使用醫(yī)療人工智能所做的決策雖有錯誤,但是要分析該醫(yī)療人工智能所做決策錯誤的原因,是否由其研發(fā)商的過錯導致,醫(yī)師或者醫(yī)療機構可以以此作為抗辯。雖然醫(yī)療人工智能所做的決策不正確,但是鑒于其做決策為新的醫(yī)療常規(guī),客觀上認為醫(yī)師對該決策有信賴,因此要分析其最終原因。
第一,醫(yī)療機構責任。根據(jù)《民法典》1218條規(guī)定,醫(yī)療機構可能存在不以醫(yī)務人員過錯為基礎的“獨立”過錯。隨著“刺破人工智能面紗”的學說被提出,該學說認為人工智能可以享有有限的法律人格并承擔有限的法律責任,其造成的損害賠償責任仍然由其研制者或者使用者承擔。如果醫(yī)療機構參與醫(yī)療人工智能的設計研發(fā)制造等則與研制者地位相同,對于醫(yī)療人工智能軟件本身出現(xiàn)的問題所造成的損害,所有侵權人共同承擔連帶責任。若因其使用者即醫(yī)療機構中的醫(yī)務人員的原因致使患者遭受人身損害,故醫(yī)療機構屬于組織使用的主體,故應承擔損害賠償責任。
若使用醫(yī)療人工智能在診療中造成患者損害,患者除可以向醫(yī)療機構主張請求損害賠償之外,還可以向研制者主張醫(yī)療產品責任。主要原因在于:一般來說,人工智能軟件存于芯片等載體中,或者與其他硬件結合成產品的一部分,該載體或者結合體為產品。但是單純的軟件算法是否可以成為產品,這個學界是存在爭議的。歐盟明確將人工智能列入產品責任。我國《產品質量法》第2條同樣將軟件歸于產品的范疇。在泉州中級人民法院(2020)民終1496號民事判決書中也將軟件認定為產品。有學者產品責任設置的目的分析,認為軟件的無形性不能阻礙其適用產品責任。另外《醫(yī)療器械監(jiān)督管理條例》第130條規(guī)定也是將軟件歸于醫(yī)療器械中,由此可見將醫(yī)療人工智能軟件認定為產品具有一定的根據(jù)。故若因其發(fā)生醫(yī)療糾紛,當然應該適用產品責任。
人工智能正在影響著時代的各行各業(yè)發(fā)展,因其導致的醫(yī)療損害責任正面臨巨大挑戰(zhàn)。若損害賠償責任規(guī)范過度寬松,雖可促進醫(yī)療人工智能的發(fā)展,但會使其品質無法保證、導致病人權益難以保障;若損害賠償責任規(guī)范過度嚴格,將導致醫(yī)療人工智能的使用更為謹慎,阻礙醫(yī)療科技的發(fā)展。為此,我們應保持醫(yī)學理論、法體系對于醫(yī)療人工智能實踐的關注,形成良性互動,建立對醫(yī)療人工智能嚴格的監(jiān)督機制,努力尋找法律體系、醫(yī)療機構與科技發(fā)展之間的均衡點。
參考文獻:
[1]張彩亮、林克亮等.人工智能在醫(yī)療的應用及未來展望[J].臺灣醫(yī)檢雜志.2019(02):3.
[2]Holzinger A,Biemann C,et al.What do we need to build explainable AI systems for the medical domain.arXiv preprint arXiv:1712.09923(2017).
[3]何煉紅,王志雄.醫(yī)療人工智能影像診斷侵權損害賠償法律問題[J].政治與法律,2020(03):27-37.
[4]W.Nicholson II Price,Regulating Black-Box Medicine,116 Mich.L.Rev.421(2017).
[5]王旭玲,王旭霞.醫(yī)療損害責任的請求權基礎分析[J].甘肅理論學刊.2019(6):101-106.
[6]王旭玲.醫(yī)療損害責任制度研究[M].北京,法律出版社,2022.
[7]A.Michael Froomkin, Ian Kerr & Joelle Pineau: When AIs Outperform Doctors: Confronting the Challenges of a Tort-Induced over-Reliance on Machine Learning, 61 Ariz.L.Rev. 33 (2019).
[8]袁曾.人工智能有限法律人格審視[J].東方法學.2017(05):55-57.
[9]丁利明.軟件侵權的法律適用規(guī)則探究——以產品責任為視角的分析[J].大連理工大學學報(社會科學版),2010(02):85.
[10]鄭志峰.診療人工智能的醫(yī)療損害責任[J].中國法學.2023(01):203-221.
[11]周學峰.生成式人工智能侵權責任探析[J].比較法研究.2023(04):117-131.
[12]吳振吉.人工智慧醫(yī)療傷害之損害賠償責任[J].臺大法學論叢.2022(02):513.
[13]朱姝堯,劉建利.論醫(yī)療人工智能診療中醫(yī)師違反注意義務的損害責任[J].醫(yī)學與社會.2023(10):132-137.
[14]吳振吉.人工智慧醫(yī)療傷害之損害賠償責任[J].臺大法學論叢.2022(02):521.
基金項目:1.山東大學法學院2021年度研究生科研創(chuàng)新碩士項目“數(shù)字經濟下的企業(yè)數(shù)據(jù)法律保護模式研究”;2.山東大學2022年馬克思主義人權理論與中國特色社會主義法治項目“中國特色社會主義法治體系下數(shù)字人權法律保障研究”階段性成果(項目編號:61040062914001)。
(作者單位:山東大學)