[摘 要]隨著人工智能發(fā)展的日新月異,人工智能在醫(yī)學(xué)影像、輔助診斷、手術(shù)、健康管理和護理、藥物研發(fā)、疫情診斷和可視化監(jiān)控方面得到有效應(yīng)用。同時人工智能也帶來了醫(yī)學(xué)倫理風(fēng)險,包括患者隱私權(quán)的保護缺失、醫(yī)者主體的模糊和人工智能主體資格認定爭論、算法歧視風(fēng)險、醫(yī)學(xué)人工智能的技術(shù)依賴、患者自主性缺失、醫(yī)療責(zé)任認定難等。人工智能醫(yī)學(xué)倫理風(fēng)險必須得到及時有效的規(guī)制,具體對策包括成立專門的倫理組織進行相關(guān)倫理認定、堅持人工智能醫(yī)學(xué)倫理的五大原則、健全相關(guān)的法律制度、培育醫(yī)護人員的醫(yī)學(xué)倫理道德、構(gòu)建人工智能的第三方風(fēng)險評估機制。
[關(guān)鍵詞]人工智能;醫(yī)學(xué)倫理;風(fēng)險;規(guī)制
[中圖分類號]B82-057 [文獻標識碼]A [文章編號]1671-8372(2022)02-0063-07
On the application, ethical risk and regulation of medical artificial intelligence
TAO Lin
(School of Marxism, Nanjing Medical University, Nanjing 211166, China)
Abstract:With the rapid development of artificial intelligence, this technology has been effectively applied in medical imaging,auxiliary diagnosis,surgery, health management and care, drug research and development, epidemic diagnosis and visual monitoring. At the same time, it also brings the risks of medical ethics, including the lack of protection of patients’ privacy right, the fuzziness of the medical subject and the dispute of the qualification of the artificial intelligence subject, the risk of algorithm discrimination, the technological dependence of medical artificial intelligence, the lack of patients’ autonomy, and the difficulty of medical liability identification. The medical ethics risks of artificial intelligence must be regulated timely and effectively, and the specific countermeasures include setting up special ethical organization for relevant identification, adhering to five principles of medical ethics in artificial intelligence, perfecting the relevant legal system, and constructing a third-party risk assessment mechanism of artificial intelligence.
Key words:artificial intelligence; medical ethics; risk; regulation
人工智能(Artificial Intelligence 簡稱為AI)的使用,為人類未來嶄新的生活方式打開了一扇大門。“機器人給人類帶來的影響將遠遠超過個人計算機和互聯(lián)網(wǎng)在過去幾十年間已經(jīng)對世界造成的改變。”[1]目前國內(nèi)學(xué)界對于人工智能可能導(dǎo)致的各種社會風(fēng)險進行了相關(guān)研究[2],醫(yī)學(xué)人工智能的倫理風(fēng)險及其規(guī)制也是當(dāng)前醫(yī)學(xué)倫理學(xué)的研究熱點之一[3]。2017年7月,國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,提出發(fā)展智能醫(yī)療,實現(xiàn)智能影像識別、病理分型和智能診斷多學(xué)科會診等。但人工智能的發(fā)展帶有不確定性和風(fēng)險性,人工智能在醫(yī)學(xué)治療、診斷、預(yù)防等方面得到有效應(yīng)用的同時客觀上帶來了一些醫(yī)學(xué)倫理風(fēng)險。醫(yī)學(xué)人工智能倫理風(fēng)險的研究“無論怎么強調(diào)都不過分”[4],需高度重視人工智能對人類社會帶來的重大變革,采取客觀謹慎的心態(tài)對待醫(yī)學(xué)人工智能可能帶來的醫(yī)學(xué)倫理風(fēng)險,并制定相應(yīng)對策有效規(guī)制。
一、醫(yī)學(xué)人工智能應(yīng)用的現(xiàn)狀
在醫(yī)學(xué)影像、診斷輔助[5]、健康管理、疾病預(yù)測等相關(guān)醫(yī)學(xué)領(lǐng)域,人工智能得到廣泛應(yīng)用,新興的醫(yī)學(xué)人工智能技術(shù)產(chǎn)品逐步從模擬性研究轉(zhuǎn)向?qū)嵺`性臨床應(yīng)用,“醫(yī)學(xué)人工智能正在醫(yī)學(xué)影像、醫(yī)學(xué)診斷、藥物研發(fā)、健康管理等領(lǐng)域掀起一場新的創(chuàng)新革命”[6]。從醫(yī)學(xué)領(lǐng)域分類看,目前醫(yī)學(xué)人工智能運用大致分為六大方面。
(一)醫(yī)學(xué)人工智能的智能影像運用
2014年,國際著名醫(yī)學(xué)影像公司英利蒂克(Enlitic)開發(fā)出通過X光照片和CT掃描圖像識別惡性腫瘤的軟件,之后相關(guān)人工智能的醫(yī)療影像軟件得到開發(fā)和運用。目前,人工智能在醫(yī)學(xué)影像領(lǐng)域中應(yīng)用較廣且表現(xiàn)優(yōu)異的是腫瘤影像識別,“如一種基于乳腺X線鉬靶的AI早期乳腺癌自動分類技術(shù)區(qū)分腫瘤良性與惡性的準確率高達95.83%”[7]。
(二)醫(yī)學(xué)人工智能的輔助診斷
人工智能可以輔助醫(yī)生進行病情診斷,增加診斷結(jié)果的準確性,可以超越以往專家或醫(yī)療設(shè)備單獨工作能夠達到的診斷水平[8]。武警黑龍江省總隊醫(yī)院對2018年7月—2019年6月門診智能導(dǎo)診機器人應(yīng)用效果進行了評價,發(fā)現(xiàn)智能導(dǎo)診幾乎減輕了分診護士50%以上的工作量,患者滿意度提高了14%[9]。又如,“以腦卒中為例,將放射科的腦卒中AI應(yīng)用和神經(jīng)內(nèi)科的臨床輔助決策系統(tǒng)融合到移動卒中單元中,快速實現(xiàn)患者的診斷、病情評估和治療方案推薦,可以為急診醫(yī)生節(jié)省寶貴時間”[10]。再如,“從數(shù)據(jù)庫中搜集青光眼的癥狀圖像,將圖像進行特征萃取并用于卷積類神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,其結(jié)果能達到100%的辨識準確率”[11]。
(三)醫(yī)學(xué)手術(shù)機器人的運用
醫(yī)學(xué)手術(shù)機器人已在神經(jīng)外科、腹外科、胸外科、骨科、血管外科等多領(lǐng)域得到廣泛運用。1994年首臺商業(yè)外科手術(shù)機器人在美國出現(xiàn),1997年利用這臺機器人美國完成世界首例腹腔鏡下的膽囊切除手術(shù)。2013年上海交通大學(xué)成功研制出第一臺智能輪椅機器人。美國食品藥品監(jiān)督管理局(Food and Drug Administration)已經(jīng)批準將達芬奇機器人手術(shù)系統(tǒng)用于成人和兒童的普通外科、胸外科、泌尿外科、婦產(chǎn)科、頭頸外科以及心臟手術(shù)。2016年首款真正意義上的智能組織自動化機器人(Smart Tissue Autonomous Robort)在美國誕生[12],標志著手術(shù)機器人正式進入自主化階段。表1顯示了近年來醫(yī)療機器人的使用熱門主題。隨著5G技術(shù)的高速發(fā)展,遙控操作、遠程手術(shù)操作成為可能。2020年,國際頂級學(xué)術(shù)期刊《Nature》將醫(yī)療機器人結(jié)構(gòu)的靈活性、人機交互技術(shù)的高效性以及遠程操作技術(shù)列為未來產(chǎn)業(yè)發(fā)展重點[13]。
(四)醫(yī)學(xué)人工智能在健康管理和護理中的運用
人工智能在健康監(jiān)測、慢病管理、情緒調(diào)節(jié)、合理膳食指導(dǎo)方面具有一定的優(yōu)勢。包括:1. 降低疾病風(fēng)險。人工智能技術(shù)可以利用互聯(lián)網(wǎng)與傳感器等獲取人類的飲食、心理、身體健康等多方面的個體化信息,對人類身體素質(zhì)進行綜合評估,從而提供更科學(xué)的個性化健康管理方案。2. 高效輔助康復(fù)醫(yī)療。利用智能化穿戴設(shè)備或智能家居可以獲取患者各方面的生理參數(shù)等健康信息[15]。3. 輔助護理。在國外人工智能已普遍運用于人們的日常生活護理中,“如日本研究機構(gòu)Riken開發(fā)的機器人Robear,能將病人從床上抬起,幫助行動不便的病人行走、站立等;應(yīng)用AI開發(fā)的機器人能為老年人及癱瘓患者提供喂飯、日常照護等服務(wù)”[16]。
(五)醫(yī)學(xué)人工智能運用于智能藥物研發(fā)
借助人工智能深度學(xué)習(xí)和大數(shù)據(jù)平臺,在智能藥物研發(fā)中醫(yī)學(xué)人工智能具有一定的優(yōu)勢。在新藥研發(fā)、老藥新用、藥物篩選、藥物副作用動態(tài)監(jiān)測等方面,醫(yī)學(xué)人工智能可對較有可能成為藥物的化合物進行虛擬高通量篩選,預(yù)測化合物的活性。在臨床試驗階段,醫(yī)學(xué)人工智能可對受試者進行精準挖掘,對疾病數(shù)據(jù)進行深度研究。因此,人工智能運用于藥物研發(fā)可以節(jié)約研發(fā)成本,如某公司基于人工智能系統(tǒng)能夠比傳統(tǒng)方法節(jié)省3/4時間和成本得到靶點藥物研發(fā)的新候選藥物[17]。
(六)醫(yī)學(xué)人工智能在新冠肺炎疫情的診斷和可視化監(jiān)控中的運用
在國內(nèi)新冠肺炎疫情防控中,醫(yī)學(xué)人工智能得到了應(yīng)用和推廣,在有效精準防控疫情方面作出了一定的貢獻。人工智能借助大數(shù)據(jù)技術(shù)可以通過影像識別、自動體溫檢測和病毒溯源等輔助新冠肺炎診治以及疫情監(jiān)測預(yù)警?;谌斯ぶ悄艿囊咔楸O(jiān)控云平臺監(jiān)測預(yù)警、疫情地圖、確診及密切接觸人員軌跡追蹤、人群流動監(jiān)測等預(yù)警關(guān)鍵技術(shù),人工智能在減少人力成本、降低感染風(fēng)險的同時可以顯著提升抗疫效率。但“因數(shù)據(jù)壁壘、數(shù)據(jù)標準和算法瓶頸等原因,其優(yōu)勢在抗擊疫情中沒有得到充分發(fā)揮”[18]。
二、醫(yī)學(xué)人工智能倫理風(fēng)險的困境
(一)患者隱私權(quán)的保護缺失
大數(shù)據(jù)和人工智能應(yīng)用于醫(yī)學(xué)治療,患者的相關(guān)信息資料會被保存在系統(tǒng)中,包括姓名、家庭住址、聯(lián)系方式、工資收入的銀行卡號、社??ㄌ?、病史、用藥情況、付費情況等等。這樣做一方面方便醫(yī)生了解患者相關(guān)信息以做出及時診斷,另一方面則存在患者信息泄露的風(fēng)險。因為患者的信息被保存在醫(yī)院的系統(tǒng)中,但目前并沒有相關(guān)法律法規(guī)規(guī)定醫(yī)生和醫(yī)院必須對患者信息進行保護。在我國現(xiàn)有法律法規(guī)中,還沒有專門的隱私權(quán)保護法,僅《中華人民共和國民法典》《中華人民共和國侵權(quán)責(zé)任法》《中華人民共和國執(zhí)業(yè)醫(yī)師法》《中華人民共和國護士管理辦法》等部分法律條文涉及隱私權(quán)保護,且這些法律條文的規(guī)定也比較籠統(tǒng)。如果患者的信息被醫(yī)護員工或者商業(yè)公司用于商業(yè)用途,患者將遭受公民隱私權(quán)嚴重侵犯等不必要的風(fēng)險,如患者或因某一病史而受到就業(yè)歧視,或在購買相關(guān)保險產(chǎn)品時受到限制。
(二)醫(yī)者主體的模糊和人工智能主體資格認定的爭論
在醫(yī)學(xué)人工智能得到逐步運用的同時,學(xué)術(shù)界和醫(yī)學(xué)界關(guān)于醫(yī)者主體的模糊和人工智能主體資格認定的問題產(chǎn)生了爭論,其中醫(yī)學(xué)人工智能未來能否取代醫(yī)生成為爭論的焦點之一。一些學(xué)者認為雖然目前人工智能尚處于低級階段,但是人工智能具有深度學(xué)習(xí)和進化的特征,因此從發(fā)展趨勢看,人工智能的主體資格認定將在不久的將來成為法學(xué)的熱門話題。從世界范圍看,一些國家已經(jīng)立法,同意人工智能機器人具備公民資格。如2017年10月25日,機器人Sophia(索菲亞)在沙特阿拉伯獲得國籍,成為首位具有公民資格的機器人。從醫(yī)學(xué)臨床中遠程醫(yī)療、機器篩查、手術(shù)機器人等的運用可以看出,人工智能具備效率較高、不會疲勞等優(yōu)勢?!?018年在全球首場神經(jīng)影像人機競賽中,由中國國家神經(jīng)疾病AI研究中心研制的醫(yī)學(xué)AI機器人,成功擊敗了由全球25名神經(jīng)系統(tǒng)疾病診斷專家組成的團隊。”[19]未來人工智能機器人能否取代醫(yī)生實際上涉及哲學(xué)的重要命題,即機器人未來是否會取代人類。從馬克思主義的科技哲學(xué)思想看,人與機器的關(guān)系應(yīng)該是辯證統(tǒng)一的,機器的發(fā)明和使用是為人類造福,機器是工具,人才是目的;從醫(yī)學(xué)技術(shù)自身看,治理診斷患者不僅需要專業(yè)的醫(yī)學(xué)知識積累,還需要長期的臨床實踐,醫(yī)生和護士的醫(yī)療技術(shù)不僅僅是顯性知識,還包括隱性知識,醫(yī)學(xué)人工智能只能是醫(yī)生或者護士的助手。人工智能通過對大量數(shù)據(jù)的辨識和分析計算,能夠給醫(yī)生提供具有一定參考性的常規(guī)醫(yī)療方案,但是醫(yī)生對于患者的診斷和救治,不能完全依賴于技術(shù),因為在實際工作中,患者的病情錯綜復(fù)雜,不同的病情,診斷的方法也不同,再精密的醫(yī)療技術(shù)數(shù)據(jù)分析也不能代替醫(yī)生的人腦,醫(yī)生需要根據(jù)具體病情做出綜合判斷。
(三)算法歧視風(fēng)險
“算法是AI的核心”[20],若算法出現(xiàn)差錯,就會使得人工智能天生地對特定人群產(chǎn)生“算法歧視”。但“即便算法公開,也并不能解決算法歧視等問題”[21]。也就是說,從目前人工智能發(fā)展程度看,算法自身存在的缺陷,可能導(dǎo)致侵犯患者病情知情權(quán)的問題,同時“出現(xiàn)的算法安全和準確性問題可能損害患者的身體健康”[22]。尤其是當(dāng)“算法歧視”針對特定人群或者一些疾病患者時,會造成影響社會公正的后果,從而產(chǎn)生特定醫(yī)患人群的標簽化效應(yīng),進而可能導(dǎo)致在社會就業(yè)和職業(yè)發(fā)展中“限制或排除他們的權(quán)利或機會”[23]。
(四)醫(yī)學(xué)人工智能的技術(shù)依賴
醫(yī)學(xué)人工智能在使用過程中,應(yīng)該只是一種輔助手段,但是在實踐運用中易出現(xiàn)醫(yī)生對人工智能技術(shù)依賴的現(xiàn)象。多數(shù)臨床場景下,人工智能系統(tǒng)提供的結(jié)果僅作為參考信息?!熬S也納醫(yī)科大學(xué)皮膚科探究了醫(yī)師如何采納人工智能系統(tǒng)提供的診斷建議,得到如下結(jié)論:①經(jīng)驗越少的醫(yī)師越容易相信人工智能診斷結(jié)果而非醫(yī)師的診斷(即使醫(yī)師的診斷是正確的);②專家在信心充分時不易根據(jù)人工智能結(jié)果改變自己的判斷;③不同經(jīng)驗水平醫(yī)師在缺乏信心時均易接受人工智能的診斷建議;④若醫(yī)師過度依賴人工智能系統(tǒng)的診斷結(jié)果,可能導(dǎo)致隨著人工智能系統(tǒng)的誤診而改變自己正確判斷的結(jié)果?!盵24]
(五)患者自主性的缺失
醫(yī)學(xué)人工智能的使用,雖然帶來便捷診斷的益處,但是也可能造成患者自主性的缺失。第一,醫(yī)患關(guān)系在人工智能時代需要重新構(gòu)建。例如老人護理機器人的發(fā)展和使用可能會通過限制老人的活動范圍和種類而威脅和減少老人的積極自由。再例如,在傳統(tǒng)的醫(yī)患關(guān)系中,醫(yī)生重視和患者面對面的溝通,但是運用人工智能之后,醫(yī)生要花費更多的時間閱讀患者的電子病例,可能忽視甚至壓縮和患者的交流時間。借助于醫(yī)學(xué)人工智能,一些診斷可能被設(shè)計出來,患者只需要按照程序就可以看病并做出診斷。從這種意義上看,患者的自主意識在缺失,患者可能缺少相應(yīng)的生命關(guān)懷和自我認知。第二,患者知情同意權(quán)可能被侵害。“知情同意(Informed Consent),是指患者在獲得醫(yī)師提供其醫(yī)療決定所必需的足夠信息的基礎(chǔ)上,做出醫(yī)療同意的過程?!盵25]借助于大數(shù)據(jù)和深度學(xué)習(xí),一些病癥可能會被醫(yī)學(xué)人工智能及時檢測,醫(yī)生根據(jù)人工智能的檢測結(jié)果進行診治,在這個過程中患者的知情同意權(quán)可能被忽視。應(yīng)將醫(yī)學(xué)人工智能的使用納入知情同意程序,在運用人工智能,尤其是使用機器人診斷及手術(shù)時,應(yīng)將相關(guān)情況和可能導(dǎo)致的風(fēng)險及時告知患者及家屬。據(jù)調(diào)查,“國內(nèi)患者更能接受的醫(yī)療AI應(yīng)用場景是掛號、繳費、查詢體檢報告等醫(yī)療后勤環(huán)節(jié),接受率達到84.53%,而對于醫(yī)生使用人工智能進行診斷和治療,接受率則僅為3.59%;在診斷、治療環(huán)節(jié),醫(yī)療人工智能介入的程度越高,患者的接受度越低”[26]。
(六)醫(yī)療責(zé)任認定的難題
在傳統(tǒng)的醫(yī)患關(guān)系中,患者具有知情權(quán),醫(yī)療事故認定的對象主要是醫(yī)護員工,是人。隨著醫(yī)學(xué)人工智能的使用,患者可能在手術(shù)時面對的是人工智能醫(yī)生,這可能導(dǎo)致醫(yī)療事故責(zé)任認定的困難。即一旦發(fā)生醫(yī)療事故,責(zé)任由誰來承擔(dān)?是做手術(shù)的機器人,設(shè)計人工智能的研究人員,還是使用人工智能進行輔助治療和診斷的相關(guān)醫(yī)護人員?究竟是完全責(zé)任,還是連帶責(zé)任?目前看,醫(yī)學(xué)人工智能運用中的醫(yī)療責(zé)任方面的立法比較薄弱,責(zé)任界定模糊,爭論也比較多。在當(dāng)前的醫(yī)學(xué)人工智能運用中,即使人工智能實施了手術(shù),手術(shù)的主體依舊為醫(yī)生,醫(yī)生仍處于主導(dǎo)地位。未來隨著人工智能技術(shù)的不斷發(fā)展,人工智能可能出現(xiàn)脫離設(shè)計主體設(shè)計目的的活動,那將會帶來更多的法律和倫理責(zé)任難題。
通過以上分析可以看出,患者隱私權(quán)的保護缺失、醫(yī)者主體的模糊和人工智能主體資格認定的爭論、算法歧視風(fēng)險、技術(shù)依賴是醫(yī)學(xué)人工智能面臨的主要倫理風(fēng)險。這些風(fēng)險并非人工智能在醫(yī)學(xué)領(lǐng)域應(yīng)用中面臨的獨有問題,而是其應(yīng)用于各個領(lǐng)域都面臨的普遍性問題。具體到醫(yī)學(xué)領(lǐng)域,這些問題究其本質(zhì)涉及的是醫(yī)患關(guān)系和醫(yī)療責(zé)任的認定,屬于醫(yī)學(xué)倫理的經(jīng)典問題,只是醫(yī)學(xué)人工智能的運用,將這些問題放大和凸顯。醫(yī)學(xué)人工智能倫理風(fēng)險必須得到高度重視并加以有效規(guī)制。
三、醫(yī)學(xué)人工智能倫理風(fēng)險的規(guī)制
基于協(xié)同治理的理論和分析框架,提出以下人工智能醫(yī)學(xué)倫理風(fēng)險規(guī)制措施。
(一)成立專門的倫理組織進行相關(guān)倫理認定
目前,歐盟、德國、新加坡等相繼成立了人工智能倫理委員會,對人工智能的倫理風(fēng)險問題進行審查?!盀榱舜_保安全,設(shè)立委員會來審查資源和評估項目至關(guān)重要?!盵27]可借鑒國外經(jīng)驗,建立全國和全省統(tǒng)一的倫理審查委員會。倫理審查委員會組成人員包含相關(guān)學(xué)科學(xué)者、政府部門官員、相關(guān)企業(yè)代表、相關(guān)社會組織成員。倫理審查委員會針對醫(yī)學(xué)人工智能涉及的各種風(fēng)險難題,如決策算法、就業(yè)、隱私侵犯、責(zé)任認定、創(chuàng)新原則等重大問題進行定期論證,通過加強相關(guān)社會組織、各類學(xué)科專家學(xué)者的對話與協(xié)商尋找協(xié)同治理的最佳方案。
(二)堅持構(gòu)建人工智能醫(yī)學(xué)倫理的五大原則
1942年阿西莫夫在科幻小說《我,機器人》中提出著名的“機器人三法則”。2017年電氣電子工程師協(xié)會發(fā)布了《人工智能設(shè)計的倫理規(guī)則》(第2版),強調(diào)人權(quán)、福利、問責(zé)、透明的原則。2019年北京智源人工智能研究院發(fā)布的《人工智能北京共識》,提出了隱私保密、安全、透明度、問責(zé)制、公平性原則。借鑒以上學(xué)者和研究機構(gòu)頒布的原則,本文提出以下五項基本原則。
一是倫理先于技術(shù)原則。人工智能的字面意義即人造的智能,其出發(fā)點是為人類服務(wù),因此應(yīng)該堅持倫理優(yōu)先的原則,人工智能不得損害人類的安全和健康。以救治患者為例,醫(yī)療診斷應(yīng)該依據(jù)醫(yī)學(xué)人工智能系統(tǒng)給出的救治方案,還是以具有豐富臨床經(jīng)驗的醫(yī)生建議為標準?對于這一問題,應(yīng)堅持倫理優(yōu)先技術(shù)的原則,重視醫(yī)生對于患者的人文關(guān)懷,擺脫其對于醫(yī)療技術(shù)的依賴。
二是以人為本的原則,人優(yōu)于機器。雖然人工智能具有深度學(xué)習(xí)能力,但無論現(xiàn)在還是未來,人工智能醫(yī)學(xué)應(yīng)用都應(yīng)堅持以人為本的原則,人是目的,人工智能本質(zhì)上還是一種工具,使用工具的目的在于保障醫(yī)療事業(yè)的發(fā)展、患者的健康,幫助醫(yī)生更好地診斷和服務(wù)患者。人工智能不得侵犯公眾的合法權(quán)益,相關(guān)患者的隱私權(quán)應(yīng)該得到保護,醫(yī)學(xué)人工智能應(yīng)該是安全的、可控的,偏離以人為本這一原則的任何醫(yī)學(xué)人工智能在沒有倫理審查之前都不得適用于臨床。
三是公平性原則。公平性原則“包含程序向度與實質(zhì)向度”[28]?;颊邞?yīng)該擁有知情權(quán),且不應(yīng)被歧視,公平享受相關(guān)的醫(yī)療服務(wù)。因此在醫(yī)學(xué)人工智能使用中,需要擺脫資本的邏輯,不能讓患者承擔(dān)過度檢查的高昂診斷費用。
四是法治和德治的原則。一方面通過相關(guān)法律制度規(guī)范人工智能的使用,界定責(zé)任,保護患者隱私權(quán);另一方面則需要德治,培育和健全相關(guān)醫(yī)療人員的倫理修養(yǎng)和法律素養(yǎng),使其充分認識醫(yī)學(xué)人工智能的各種風(fēng)險,自覺遵守醫(yī)療道德規(guī)范。
五是漸進審慎的原則。對于人工智能的技術(shù)風(fēng)險應(yīng)該堅持積極審慎的態(tài)度,不可盲目樂觀,認為人工智能很快會取代人腦,也不要消極悲觀,認為人工智能終將毀滅人類。跟蹤人工智能技術(shù)的進展,保持動態(tài)的調(diào)整的原則,相關(guān)技術(shù)成熟之后要對其進行風(fēng)險倫理評估,然后才能逐步應(yīng)用于醫(yī)療實踐中。
(三)健全相關(guān)的法律制度
首先,通過立法保障患者的權(quán)益,對于侵犯患者隱私權(quán)責(zé)任的追究、醫(yī)患糾紛的處理做到有法可依,有法必依。醫(yī)用軟件包含個人醫(yī)療信息的搜集與儲存,管理不當(dāng)可能引發(fā)患者隱私權(quán)的泄密。2016年頒布的《中華人民共和國網(wǎng)絡(luò)安全法》雖然在個人信息保護方面提出了具體要求,但并未針對隱私權(quán)保護做出具體規(guī)定。《中華人民共和國侵權(quán)責(zé)任法》將隱私權(quán)的保護歸結(jié)為人格權(quán)的保護。目前隱私權(quán)保護的相關(guān)法律還不健全,迫切需要制定和頒布一部統(tǒng)一的隱私權(quán)保護法。隱私保護法需對隱私權(quán)的相關(guān)界限做出規(guī)定,政府部門和醫(yī)療機構(gòu)除了特殊需要,不得泄露患者的隱私?!敖㈦[私數(shù)據(jù)保護庫,嚴格規(guī)范對隱私數(shù)據(jù)存取的行為,切實保護隱私安全。”[29]在保護公眾的知情權(quán)的同時保障患者的隱私權(quán),堅持公共數(shù)據(jù)的信息共享和嚴禁用于商業(yè)用途的統(tǒng)一;對數(shù)據(jù)儲存技術(shù)不佳及管理不當(dāng)、醫(yī)護從業(yè)人員泄密等相關(guān)情況進行法律規(guī)制,嚴肅追究相關(guān)法律責(zé)任;對醫(yī)療事故的責(zé)任認定進行規(guī)定,包括人工智能設(shè)計者、生產(chǎn)者和使用者的責(zé)任歸屬問題。
其次,人工智能的法律人格問題。人工智能是否具有法律人格的問題,尚存在爭議。如果人工智能具備獨立人格,則其應(yīng)該獨立承擔(dān)相應(yīng)的道德和法律責(zé)任;如果人工智能不具備獨立人格,則相關(guān)道德和法律責(zé)任需要由研發(fā)者、運營者,或是使用者承擔(dān)。對此可以應(yīng)用現(xiàn)有法律中民法和刑法的相關(guān)條款進行規(guī)制:“在現(xiàn)行法律制度下,人工智能作為權(quán)利客體并無異議,但不能被確定為權(quán)利主體,也不能賦予姓名權(quán)、肖像權(quán)等人格權(quán)?!盵30]人工智能發(fā)展到高級階段,當(dāng)人工智能可以進化,具有超越甚至具有人的意識時,可以考慮動態(tài)地更新完善相關(guān)法律制度。
再次,對醫(yī)學(xué)人工智能的發(fā)展全過程進行法律監(jiān)管。在事前,堅持預(yù)防的原則,明確相關(guān)的主體責(zé)任。在事中,實時監(jiān)測醫(yī)學(xué)人工智能各個系列產(chǎn)品,定期測評產(chǎn)品的安全性、風(fēng)險性、危害性等。在事后,加強監(jiān)督,運用相關(guān)的法律法規(guī)加強對于廠家、醫(yī)院、政府部門的監(jiān)督,明確其責(zé)任,加大技術(shù)濫用的處罰力度。針對醫(yī)療行業(yè)的特殊性,國家和相關(guān)機構(gòu)應(yīng)實行醫(yī)療機器人強制登記制度,以便溯源,從而實現(xiàn)追責(zé)和有效監(jiān)管。
最后,頒布相關(guān)法律,通過透明性原則消除算法歧視問題?!?017年,美國計算機學(xué)會公眾政策委員會公布了知情原則、質(zhì)詢和申訴原則、算法責(zé)任認定原則、解釋原則、數(shù)據(jù)來源披露原則和可審計原則等六項原則?!盵31]人工智能醫(yī)學(xué)算法屬于商業(yè)秘密的問題,可以通過相關(guān)法律,強調(diào)由相關(guān)醫(yī)學(xué)人工智能研發(fā)系統(tǒng)自我規(guī)制。這種自我規(guī)制,“通過數(shù)據(jù)保護影響評估”和“經(jīng)由設(shè)計的數(shù)據(jù)保護”等方式來履行數(shù)據(jù)保護義務(wù)[32]。此外還需要通過相關(guān)法律規(guī)定研發(fā)公司的社會責(zé)任披露機制,包括定期向政府部門或者公眾公布相關(guān)的系統(tǒng)研發(fā)進展情況、可能遇到的風(fēng)險和風(fēng)險應(yīng)對措施方案等。
(四)培育醫(yī)護人員的醫(yī)學(xué)倫理道德
“人是唯一的道德主體,只有具有理性思維和決策能力、能獨立承擔(dān)責(zé)任的理性主體才具有道德主體的地位?!盵33]醫(yī)護人員是醫(yī)學(xué)人工智能的使用者,因此培育醫(yī)護人員的醫(yī)學(xué)倫理道德是有效規(guī)制醫(yī)學(xué)人工智能風(fēng)險的重要渠道。具體做法包括:強化醫(yī)護人員的倫理責(zé)任意識和法律意識,提高其科技素養(yǎng)和道德修養(yǎng),增強其保護患者隱私權(quán)的意識;通過定期教育培訓(xùn)讓醫(yī)生了解人工智能的最新進展,認識到目前醫(yī)學(xué)人工智能僅僅是醫(yī)生的助手和參謀,不會完全取代醫(yī)生的職業(yè),在治療的過程中,醫(yī)生一方面可以合理借助人工智能機器人進行治療,另一方面則可以利用節(jié)省出來的時間加強醫(yī)患溝通,緩解患者心理壓力;在醫(yī)藥類大學(xué)設(shè)置人工智能課程,較早地培養(yǎng)醫(yī)學(xué)大學(xué)生尤其是臨床醫(yī)學(xué)等專業(yè)的醫(yī)學(xué)大學(xué)生的醫(yī)學(xué)倫理道德。
(五)構(gòu)建人工智能的第三方風(fēng)險評估機制
建立第三方風(fēng)險評估機制,即組建包括醫(yī)學(xué)專家、人工智能專家、哲學(xué)家、社會學(xué)家、倫理學(xué)家等的專家委員會,由其對人工智能應(yīng)用中的各種風(fēng)險進行風(fēng)險等級評估和綜合評估。具體包括:第一,借助大數(shù)據(jù)平臺,對醫(yī)學(xué)人工智能以及相關(guān)案例和風(fēng)險進行綜合分析,實現(xiàn)風(fēng)險評估機制的智能化。第二,構(gòu)建參與式風(fēng)險評估模式,吸納各類專家、公眾進行風(fēng)險評估,對醫(yī)學(xué)人工智能可能存在的技術(shù)風(fēng)險、漏洞、責(zé)任追究進行分析,定期向政府部門和生產(chǎn)廠家遞交報告。第三,加強信息共享和國際合作。人工智能醫(yī)學(xué)倫理風(fēng)險屬于全球治理問題,可以合理借鑒不同國家人工智能規(guī)則的相關(guān)制度、標準、法律,進行綜合歸納和分析。有些信息可以實現(xiàn)共享,積極尋求醫(yī)學(xué)人工智能的全球治理合作。第四,建立系統(tǒng)的風(fēng)險分析框架,包括醫(yī)學(xué)人工智能風(fēng)險識別、評估、處理、監(jiān)控、反饋等機制。明確各責(zé)任主體的不同責(zé)任。通過定期評估,不斷強化醫(yī)學(xué)人工智能產(chǎn)品的風(fēng)險等級,為政府部門和相關(guān)企事業(yè)單位決策提供有效參考。第五,建立包括預(yù)警、信息搜集、預(yù)案措施、風(fēng)險等級的機制,實現(xiàn)從單一的風(fēng)險評估到風(fēng)險評估、風(fēng)險溝通和化解機制的多維構(gòu)建。
四、結(jié)語
現(xiàn)階段,醫(yī)學(xué)人工智能仍屬輔助性工具,主導(dǎo)權(quán)掌握在人類醫(yī)生手中。醫(yī)學(xué)人工智能發(fā)展仍處于初級階段,除了技術(shù)成熟度有待提升,針對性的倫理規(guī)范和法律法規(guī)還有待健全。隨著人工智能的發(fā)展,醫(yī)學(xué)人工智能得到不斷升級,其已經(jīng)推動了數(shù)字化健康革命,未來在疾病初篩、輔助和提升人工診斷效率、醫(yī)學(xué)科研前沿探索、智慧醫(yī)院建設(shè)等方面,可以有更大的發(fā)展空間。據(jù)國際機器人聯(lián)盟統(tǒng)計數(shù)據(jù),預(yù)計到2025年,我國智能醫(yī)療機器人市場規(guī)模將突破百億元[34]。但是在以發(fā)展的眼光看待醫(yī)學(xué)人工智能技術(shù)的同時,也要在發(fā)展中保持客觀謹慎的心態(tài),高度重視醫(yī)學(xué)人工智能可能導(dǎo)致的醫(yī)學(xué)倫理風(fēng)險,采取各種有效措施對醫(yī)學(xué)倫理風(fēng)險進行防范和規(guī)制,在實踐中豐富和拓展醫(yī)學(xué)人工智能的內(nèi)涵,有效協(xié)調(diào)人機的辯證關(guān)系,以保障人類的福祉為最高目的,提升防控和規(guī)制醫(yī)學(xué)倫理風(fēng)險的能力,推進我國“人工智能+醫(yī)療”的發(fā)展,為健康中國貢獻力量。
[參考文獻]
杰瑞·卡普蘭. 人工智能時代[M]. 杭州:浙江人民出版社,2017:序言. 3.
陶林. 近年來國內(nèi)關(guān)于人工智能社會風(fēng)險的研究綜述[J].云夢學(xué)刊,2021(1):53-62.
PATRIARCA R,F(xiàn)ALEGNAMI A,BILOTTA F. Embracing simplexity:the role of artificial intelligence in peri procedural medical safety [J]. Expert Review of Medical Devices,2019,16(2):77-79.
范瑞平. 前言:人工智能醫(yī)學(xué)應(yīng)用的倫理糾纏[J].中國醫(yī)學(xué)倫理學(xué),2020(7):777.
韓貴來,李海霞. 人工智能大背景下的醫(yī)學(xué)圖像處理教學(xué)改革探討[J].計算機時代,2020(11):117-119.
ELLAHHAM S,ELLAHHAM N,SIMSEKLER M C E.Application of artificial intelligence in the health care safety context:opportunities and challenges[J].American Journal of Medical Quality,2020,35(4):341-348.
ORTIZ-RODRIGUEZ J M,GUERRERO- MENDEZ C,MARTI" NEZ-BLANCO M D R,et al. Advanced Applications for Artificial Neural Networks[M]. London:INTECH,2018.
LAKHANI P,SUNDARAM B. Deep learning at chest radiography:automated classification of pulmonary tuberculosis by using convolutional neural networks[J]. Radiology,2017,284(2):574-582.
張金慧,徐慧雁. 智能導(dǎo)診機器人在門診患者就診流程中的應(yīng)用效果[J]. 名醫(yī),2020(3):279.
朱文珍,呂文志. 醫(yī)療人工智能發(fā)展現(xiàn)狀及展望[J].放射學(xué)實踐,2022(1):1-3.
周文康. 醫(yī)療人工智能前沿研究:特征、趨勢以及規(guī)制[J].醫(yī)學(xué)與哲學(xué),2021(19):38-45.
2017人工智能賦能醫(yī)療產(chǎn)業(yè)研究報告[EB/OL].(2018-10-17)[2017-08-25].https://www. iyiou. com/research/20181017583.
《Nature》發(fā)布“自然聚焦—中國醫(yī)療機器人”特刊[EB/OL].(2020-06-26)[2021-01-26].https://www. sohu. com/a/404208813_107808?_f=index_betapagehotnews_4,2020.
任佳妮,張薇,楊陽,等.“人工智能+醫(yī)療”新興技術(shù)識別研究:以醫(yī)療機器人為例[J]. 情報雜志,2021(12):45-50.
王笛,趙靖,金明超,等. 人工智能在醫(yī)療領(lǐng)域的應(yīng)用與思考[J].中國醫(yī)院管理,2021(6):71-74.
金春林. 人工智能在醫(yī)療健康領(lǐng)域的應(yīng)用及挑戰(zhàn)[J].衛(wèi)生經(jīng)濟研究,2018(11):3-7.
劉伯炎,王群,徐俐穎,等. 人工智能技術(shù)在醫(yī)藥研發(fā)中的應(yīng)用[J]. 中國新藥雜志,2020(17):1979-1986.
龍坤,程柏華,劉世旋. 人工智能在抗擊新冠肺炎疫情的應(yīng)用與啟示[J]. 信息安全與通信保密,2020(12):16-24.
徐飛,張榮. 從智能到智慧:醫(yī)學(xué)人工智能發(fā)展再思考[J].醫(yī)學(xué)與哲學(xué),2020(20):1-7.
閆坤如. 人工智能技術(shù)異化及其本質(zhì)探源[J].上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020(3):100-108.
王夙.人工智能發(fā)展中的“算法公開”能否解決“算法歧視”?[J].機器人產(chǎn)業(yè),2019(3):17-22.
郭銳. 人工智能的倫理風(fēng)險及其治理[J].北京航空航天大學(xué)學(xué)報(社會科學(xué)版),2020(6):18-23.
葉名怡. 個人信息的侵權(quán)法保護[J].法學(xué)研究,2018(4):88.
TSCHANDL P,RINNER C,APALLA Z,et al. Human-computer collaboration for skin cancer recognition[J]. Nat Med,2020,26(8):1229-1234.
劉鑫. 醫(yī)事法學(xué)[M]. 北京:中國人民大學(xué)出版社,2015:69-70.
劉伶俐,賀一墨. 患者對人工智能醫(yī)療的認知及信任度調(diào)查[J]. 中國醫(yī)學(xué)倫理學(xué),2019(8):986-990.
崔偉奇,程倩春.論科技研究倫理政策建設(shè)的價值基礎(chǔ)[J].自然辯證法研究,2019(12):45-51.
周琬琳. 人工智能醫(yī)學(xué)應(yīng)用的分類與倫理問題反思[J].中國醫(yī)學(xué)倫理學(xué),2020(7):826-831.
王東,張振. 人工智能倫理風(fēng)險的鏡像、透視及其規(guī)避[J].倫理學(xué)研究,2021(1):109-115.
任虎. 人工智能和未來法律制度:從本質(zhì)到目的[J].中國政法大學(xué)學(xué)報,2019(4):16-30.
鄭智航. 人工智能算法的倫理危機與法律規(guī)制[J].法律科學(xué),2021(1):14-27.
程瑩. 元規(guī)制模式下的數(shù)據(jù)保護與算法規(guī)制[J].法律科學(xué),2019(4):48.
閆坤如.人工智能機器具有道德主體地位嗎?[J].自然辯證法研究,2019(5):47-51.
新時代下我國智能醫(yī)療機器人發(fā)展趨勢與挑戰(zhàn)[EB/OL].(2019-05-15)[2021-01-26]. http://www.robot-china.com /new s /201905 /15 /57011.html,2019.