楊 萌,石旭雯
(天津醫(yī)科大學(xué)醫(yī)學(xué)人文學(xué)院,天津 300070,mengyangphilosophy@163.com)
醫(yī)療人工智能在推動醫(yī)療領(lǐng)域快速發(fā)展的同時,也面臨著社會倫理方面的嚴(yán)峻挑戰(zhàn)。為保障人工智能向著增進人類福祉的方向發(fā)展,美國電氣電子工程師學(xué)會和歐盟相繼提出將倫理價值嵌入機器人設(shè)計之中的倡議。鑒于醫(yī)療領(lǐng)域的具體性和特殊性,應(yīng)當(dāng)重視人工智能的應(yīng)用在患者安全、自主性、權(quán)利和尊嚴(yán)等醫(yī)學(xué)倫理價值方面的思考,由此引出本文一系列倫理考量:醫(yī)療機器人倫理設(shè)計的內(nèi)涵是什么?缺乏倫理設(shè)計和價值嵌入的醫(yī)療機器人可能會導(dǎo)致哪些倫理問題和風(fēng)險?機器人倫理設(shè)計的實現(xiàn)目前有哪些可行的進路和方法?醫(yī)療機器人倫理設(shè)計應(yīng)當(dāng)選擇何種進路?
醫(yī)療機器人是目前人工智能領(lǐng)域的研究熱點[1],根據(jù)用途不同,目前的醫(yī)療機器人主要分為手術(shù)機器人、康復(fù)機器人以及服務(wù)機器人。經(jīng)過醫(yī)療人工智能的初步探索,已經(jīng)制造出能夠為醫(yī)生提供關(guān)于預(yù)測、成像、病理診斷和治療等積極輔助的醫(yī)療機器人,例如美國FDA 批準(zhǔn)的首個人工智能診斷系統(tǒng)IDx-DR能夠檢測糖尿病視網(wǎng)膜病變,BCIs幫助治療神經(jīng)系統(tǒng)紊亂[2],以及達·芬奇手術(shù)機器人通過微創(chuàng)的方法實施復(fù)雜的外科手術(shù)。在強大的計算結(jié)構(gòu)、大數(shù)據(jù)分析以及機器學(xué)習(xí)等技術(shù)飛速發(fā)展的同時,卻是人工智能倫理設(shè)計的滯后和價值導(dǎo)向的缺失,倫理規(guī)劃并未與技術(shù)發(fā)展同步,這種“道術(shù)分離”的發(fā)展方式造成了如今的“道術(shù)沖突”的困境,導(dǎo)致了如患者隱私的侵犯和醫(yī)患關(guān)系的物化等一系列倫理問題。
鑒于此,人工智能研究組織試圖尋找技術(shù)與倫理之間的和解與平衡,提出了關(guān)于人工智能時代倫理和道德價值重建的倡議。2017年電氣電子工程師學(xué)會(IEEE)在《人工智能設(shè)計的倫理準(zhǔn)則》中提出合乎倫理地設(shè)計、開發(fā)和應(yīng)用人工智能技術(shù),指導(dǎo)人們在智能系統(tǒng)設(shè)計中將以人類福祉為本的倫理價值準(zhǔn)則嵌入自主系統(tǒng)[3]。同年,IEEE發(fā)布《合乎倫理設(shè)計:利用人工智能和自主系統(tǒng)優(yōu)化人類福祉的愿景》的報告,呼吁將倫理和道德規(guī)范嵌入人工智能系統(tǒng)中,關(guān)注人工智能設(shè)計的正義性和公平問題,指出人工智能設(shè)計目的是制造出能夠進行自我推理、判斷、決策以及行動的技術(shù)人工產(chǎn)物[4]。2018年歐盟發(fā)布《可信AI的倫理指南草案》,提倡制造“值得信賴的人工智能”(Trustworthy AI),明確指出將倫理納入設(shè)計階段,認(rèn)為人工智能的發(fā)展不僅應(yīng)當(dāng)確保技術(shù)的魯棒性和可靠性,還應(yīng)當(dāng)具備倫理的規(guī)范性,以實現(xiàn)“道德目的”[5]。由此,機器人倫理設(shè)計指的就是在設(shè)計過程中嵌入人類的倫理規(guī)范與道德規(guī)則,這種倫理設(shè)計體現(xiàn)了人工智能設(shè)計的邏輯起點與本質(zhì)要求[4]。
同樣,醫(yī)療機器人倫理設(shè)計指的是將人類的倫理價值嵌入醫(yī)療機器人的設(shè)計過程中,而鑒于醫(yī)學(xué)倫理學(xué)的特殊性,醫(yī)療機器人倫理設(shè)計指的就是以醫(yī)學(xué)倫理規(guī)范為指導(dǎo)原則,以患者的基本權(quán)利和尊嚴(yán)為中心,在智能系統(tǒng)的設(shè)計中充分參考并融入醫(yī)學(xué)倫理價值,像規(guī)范醫(yī)療人員行為一樣規(guī)范醫(yī)療機器人的行為,使醫(yī)療機器人的行為遵循一般的醫(yī)學(xué)倫理原則和規(guī)范,甚至在一定程度上能夠依據(jù)具體情景進行恰當(dāng)?shù)膫惱頉Q策,具體來說,就是將醫(yī)療領(lǐng)域認(rèn)可的醫(yī)學(xué)倫理學(xué)的道德價值理論、原則和規(guī)范程序化為道德代碼,嵌入醫(yī)療機器人的設(shè)計系統(tǒng)之中,同時,利用強大的機器學(xué)習(xí)技術(shù)對其進行成長性的道德學(xué)習(xí)和倫理訓(xùn)練,使其在面臨實際的醫(yī)療倫理情景時能夠采取合乎倫理的行動。由此,這種醫(yī)療機器人倫理設(shè)計的目標(biāo)就是在醫(yī)療人工智能的語境中,將醫(yī)學(xué)倫理規(guī)范具體化,提供醫(yī)療人工智能系統(tǒng)開發(fā)、使用與實施的依據(jù),避免醫(yī)療人工智能技術(shù)異化,使其行為能夠保障醫(yī)療主體的自主性、尊嚴(yán)、隱私、安全和利益,為醫(yī)療人工智能的發(fā)展指明一種合乎倫理的方向。
鑒于醫(yī)療機器人應(yīng)用領(lǐng)域的具體性和特殊性,倫理設(shè)計和價值嵌入對醫(yī)療機器人的作用不容忽視。下文將具體分析缺失倫理設(shè)計的醫(yī)療機器人所帶來的倫理困境和風(fēng)險。
患者的自主權(quán)是指患者就有關(guān)自己的醫(yī)療問題作出決定的權(quán)利,即患者有權(quán)決定所有影響其醫(yī)療的干預(yù)措施,這是最基本的一種患者權(quán)利,彰顯了患者的生命價值和人格尊嚴(yán)。由于醫(yī)療活動的復(fù)雜多樣性,且現(xiàn)階段醫(yī)療機器人的智能水平較低,其行動只奉行技術(shù)主義,缺乏基本的倫理規(guī)范和價值考量,在實際使用過程中可能會出現(xiàn)過度限制患者自主意愿的現(xiàn)象。比如,當(dāng)患有高血壓心臟病的老齡患者拒絕接受護理機器人的用藥提醒或服務(wù),這時智能護理機器人可能會出于程序的指令機械地控制使用者,強制患者服藥,表現(xiàn)出一種令人反感的強家長主義;另外,根據(jù)學(xué)者的調(diào)查,一些老齡人并不希望所有人知道他們在家中跌倒 ,認(rèn)為可以自行克服這些困難并在需要幫助的時候再通知,但是護理機器人一旦發(fā)現(xiàn)其護理對象跌倒,就會即刻通知家屬或醫(yī)護人員,這就出現(xiàn)了違背老齡患者自主意愿的矛盾[6]。由此,隨著人工智能越來越多地參與醫(yī)療活動,平衡患者的自主意愿與醫(yī)療策略的倫理問題越加突出,使得在醫(yī)療人工智能系統(tǒng)的開發(fā)設(shè)計中對患者自主權(quán)的倫理價值嵌入更為迫切。
在復(fù)雜且模糊的醫(yī)療環(huán)境下,只遵守程序卻無倫理價值嵌入的醫(yī)療機器人是危險的,它們在行動上是不安全、不受控制且無法預(yù)測的[7]。Guang Zhong Yang等指出目前醫(yī)療機器人已經(jīng)發(fā)展到有條件的自主階段,例如手術(shù)機器人可以在操作員的密切監(jiān)督下自主完成手術(shù),可活動的下肢假肢人工智能裝置可以感知佩戴者的欲望自動移動和調(diào)整,且不會引起穿戴者的任何直接注意[8]。在醫(yī)療機器人的自主性不斷提高的過程中,忽視倫理的設(shè)計和考量會對患者的生命健康和安全造成潛在的威脅,因此,醫(yī)療人工智能專家在設(shè)計之初就應(yīng)該把“不傷害原則”嵌入醫(yī)療機器人中,以保證患者生命健康為前提,從而保障醫(yī)療機器人使用的安全;另外,保守醫(yī)密作為基本醫(yī)德準(zhǔn)則體現(xiàn)了對患者權(quán)利的維護和尊重。而醫(yī)療機器人對患者信息的采集更為全面,如在特殊領(lǐng)域,護理機器人還會參與到患者的私人生活中,通過佩戴傳感器甚至視頻監(jiān)控將患者的生理狀況、飲食習(xí)慣、生活規(guī)律等用戶提供的所有信息數(shù)據(jù)進行分析,造成了相應(yīng)的隱私數(shù)據(jù)泄露的安全隱患。隱私和數(shù)據(jù)保護必須在醫(yī)療人工智能系統(tǒng)生命周期的各個階段得到保證,這不僅需要相關(guān)主體具備一定的倫理與法律意識,將隱私保護的倫理價值觀嵌入醫(yī)療機器人也是可行之路。
另外,缺乏倫理設(shè)計的醫(yī)療機器人還導(dǎo)致醫(yī)療領(lǐng)域的物化現(xiàn)象。所謂 “物化現(xiàn)象”指的是:“像對待無生命物質(zhì)那樣對待人:推、拉、拽一個人,不把他當(dāng)作一個有生命的個體[6]?!?在與患者互動時,缺失倫理設(shè)計的醫(yī)療機器人只從生物學(xué)的角度對其進行治療,僅僅將患者視為一架需要修理的精密“機器”,按照邏輯規(guī)則行事并以完成程序為目的[9]。這種物化操控式的醫(yī)療服務(wù),例如替代麻醉醫(yī)師的人工智能系統(tǒng)Sedasys進行鎮(zhèn)靜提供和監(jiān)測、護理者機器人進行喂飯等護理工作、機器人轉(zhuǎn)運車搬運患者,從而導(dǎo)致對患者尊嚴(yán)和人文關(guān)懷方面的需求的忽視,嚴(yán)重阻礙了醫(yī)學(xué)自身的健康良性發(fā)展。這種物化現(xiàn)象缺乏對患者的心理關(guān)注,使得醫(yī)患關(guān)系變得淡漠,可能會產(chǎn)生新的醫(yī)療糾紛和矛盾。盡管只具備醫(yī)療職業(yè)技能卻缺乏醫(yī)學(xué)人文精神的醫(yī)療機器人永遠無法替代人類醫(yī)生,但是鑒于其在醫(yī)療領(lǐng)域自主程度和參與程度的不斷提高,對醫(yī)療機器人進行價值敏感性的設(shè)計是必要的,如此醫(yī)療機器人才更易被患者所接受,更好地為患者服務(wù),從而達到醫(yī)學(xué)治療的最佳效果。
在與患者互動過程中,缺乏倫理價值嵌入的醫(yī)療機器人可能會忽視不同患者群體之間的差異性,如風(fēng)俗習(xí)俗、文化信仰、性別等,從而引發(fā)相關(guān)歧視等問題,影響智能醫(yī)療機器人的正義性。歐盟設(shè)立的AI高級專家組指出,無論是有意還是無意,使用AI造成的直接或間接歧視會導(dǎo)致對特定群體的偏見和邊緣化的問題[5]。例如,護理機器人為使用者推薦食譜時可能會忽略其飲食禁忌;另外,受醫(yī)療人工智能系統(tǒng)測試所需患者數(shù)據(jù)潛在偏好的影響,智能輔助診斷系統(tǒng)將某些診斷指定為致命的,可能導(dǎo)致醫(yī)師對治療方案作出不利的調(diào)整[10]。因此,為了規(guī)避偏見,保障社會公平,讓醫(yī)療人工智能系統(tǒng)更可靠,不僅應(yīng)當(dāng)將公正、非歧視等基本倫理規(guī)范嵌入倫理設(shè)計之中,還應(yīng)當(dāng)加強多方合作,將不同地域和不同醫(yī)療機構(gòu)的具有代表性的、結(jié)構(gòu)化、高質(zhì)量健康數(shù)據(jù)用于醫(yī)療人工智能設(shè)備的深度學(xué)習(xí)訓(xùn)練中。
在推動人工智能倫理設(shè)計的大背景下,國內(nèi)外學(xué)者探討和研究了機器人倫理設(shè)計和價值嵌入的具體方法和進路,目前具有代表性的主要有自上而下進路、自下而上進路和關(guān)系論進路三種理論成果。
“自上而下”是一種基于規(guī)則的方法,是將倫理規(guī)范轉(zhuǎn)換為邏輯演算,編寫明確的倫理規(guī)則的程序,使機器人能夠根據(jù)程序進行倫理判斷和選擇。目前,一些學(xué)者如安德森(Michael Anderson) 等通過案例研究,提出一種確保自主系統(tǒng)倫理行為的CPB(case supported principle-based behavior paradigm) 范式,建議通過倫理學(xué)家和人工智能科學(xué)家的合作,致力于研究能夠達成共識的倫理規(guī)范,以確定機器人行為的尺度和界限。他們認(rèn)為生物醫(yī)學(xué)倫理比其他領(lǐng)域能夠達成更多的共識,所以嘗試通過一些醫(yī)學(xué)倫理案例來測試這種方法。他們以不傷害、有利、自主性為基本指導(dǎo)原則,將特定的醫(yī)學(xué)倫理案例如患者拒絕醫(yī)生提出的治療方案進行歸納,通過機器學(xué)習(xí)技術(shù)抽象出倫理原則并編寫成計算機程序,在進一步的案例中對此進行檢驗,不斷重復(fù)直至最后得出與預(yù)期相符的結(jié)論。這種進路已嘗試應(yīng)用于制造某些醫(yī)療機器人,如醫(yī)學(xué)倫理顧問系統(tǒng)Medical Ethics Expert能夠在醫(yī)學(xué)倫理困境中給用戶提供倫理建議,還有Ethical Eldercare System能夠衡量患者拒絕服藥情況以決定是否嚴(yán)重到要通知醫(yī)生或者監(jiān)護人[11]。
“自下而上”進路指通過復(fù)雜的機器學(xué)習(xí)和適應(yīng)系統(tǒng),模擬道德心理機制以及倫理互動的情景如學(xué)習(xí)、情感、社交等[12],使機器人能夠習(xí)得道德感知與倫理抉擇的能力。IEEE全球倫理倡議表示:“最近在機器學(xué)習(xí)和感知方面的研究可能使研究人員在探索自下而上的方法上有所突破,即人工智能系統(tǒng)像一個孩子那樣慢慢學(xué)習(xí),增加對其環(huán)境和人類價值的理解,這種方式是安全的且能夠接受的[3]?!币恍C器倫理的研究專家,如貝羅(Paul Bello)反對讓機器人固守某些倫理原則,認(rèn)為應(yīng)當(dāng)通過計算認(rèn)知結(jié)構(gòu)的方式實現(xiàn)機器人倫理建構(gòu),提出了一種建構(gòu)道德機器人的認(rèn)知模型LIDA(Learning Intelligent Distribution Agent),這種模型是唯一把感覺和感情融入認(rèn)知過程,不但可以應(yīng)用于設(shè)計自主行為體的控制系統(tǒng)和道德抉擇模型,甚至還可能有利于推進對人類思維的認(rèn)知和理解,能夠考察與道德判斷有關(guān)的多種具體機制[13]。但鑒于目前科技水平和機器人學(xué)習(xí)能力的有限性,這種進路的真正實現(xiàn)尚需時日。
有些學(xué)者,如考科爾伯格(Mark Coeckelbergh)主張從關(guān)注機器人的內(nèi)在狀態(tài)轉(zhuǎn)向關(guān)注機器人的外在表象和行為,重點探討人與機器人如何互動。實際上,人類道德建構(gòu)在很大程度上以道德表象為基礎(chǔ),因此機器人可以通過模擬人類道德表象,表現(xiàn)得合乎倫理,從而促進人與機器的和諧共處。對此,以護理機器人倫理問題研究為基礎(chǔ),凡·溫斯伯荷(Aimee van Wynsberghe)等提出一種價值敏感設(shè)計CCVSD (Care-Centered Value Sensitive Design)進路,在信息系統(tǒng)設(shè)計和人機交互領(lǐng)域的設(shè)計之中嵌入道德價值,注重在不同環(huán)境中分析具體的倫理問題。他建議倫理學(xué)家與機器人設(shè)計專家進行合作,深入具體的醫(yī)療或護理環(huán)境中,詳細識別和探討護理機器人的特征、表象及功能,以闡明其通過行為與互動表現(xiàn)出來的各種價值[13]。這種進路目前已經(jīng)進行了初步嘗試,例如,哈爾濱市兒童醫(yī)院點醫(yī)科技聯(lián)手圖靈設(shè)計的自閉癥情感陪伴機器人RoBoHoN,通過主動搭訕、跳舞、倒立、擁抱等肢體動作等人機交互方式提供倫理和情感支持,消除自閉癥兒童的戒備心。
上述三種進路各有其優(yōu)勢和不足。自上而下進路將倫理規(guī)則明確定義出來,形成一套倫理困境的表征框架,因而具備一定的確定性和可預(yù)測性,是一種相對安全的倫理設(shè)計方法。但是,一方面,它面臨著何種道德規(guī)范和原則能夠為人們所普遍接受的難題,對同一道德困境人們很難達成共識;另一方面,它缺乏靈活性,將復(fù)雜的倫理活動簡單化和固化,只能夠解決預(yù)測范圍內(nèi)的倫理問題,無法解決超出預(yù)設(shè)條件的新問題,無法兼顧不同醫(yī)療情景和患者的差異;這些不足在自下而上進路中可以得到很好的彌補。自下而上進路使人工智能系統(tǒng)在經(jīng)驗中了解規(guī)則,具備很強的靈活性,能夠在不同情境中和環(huán)境下體現(xiàn)出一定動態(tài)性和差異性,面臨新的任務(wù)和挑戰(zhàn)時能夠不斷改變和更新道德認(rèn)知和判斷的水平。但是,這種高度自主的人工智能是不確定和很難預(yù)測的,其安全性和可接受性存在一定的爭議。不僅如此,鑒于知識和技術(shù)的局限性,人工智能科學(xué)家目前研發(fā)的機器人還遠不能具備像道德決策這樣高級認(rèn)知的能力,但是未來這種前景是存在的;前兩種進路將重心放在人工智能系統(tǒng)內(nèi)部,卻遠離了用戶的需求和偏好,而關(guān)系論進路考慮到人類生活的情感和切身體驗的需要,將這些融入設(shè)計中,具備很強的可操作性,這種由情感互動、社會性和環(huán)境形成的動態(tài)關(guān)系是機器人在社會背景下發(fā)揮功能所必不可少的。但是,關(guān)系論進路對具體語境的依賴性過強,在設(shè)計的步驟和過程中所需的工作量較大。
人工智能技術(shù)并非閉環(huán)系統(tǒng),對于人工智能的價值反省與倫理考量也在不斷發(fā)展,由此,機器人倫理設(shè)計應(yīng)當(dāng)遵循動態(tài)性與差異性等基本原則?,F(xiàn)實的醫(yī)療倫理情境是復(fù)雜且多樣化的,試圖將多樣與復(fù)雜的道德歸置于一元論的進路過于片面化和理想化,上述三種倫理設(shè)計進路各有短長,單獨使用任何一種倫理設(shè)計進路都無法勝任,需要開發(fā)一種集成系統(tǒng)。因此,醫(yī)療機器人倫理設(shè)計的進路的最優(yōu)選擇是一種綜合集成進路,這是一種將各種方法結(jié)合起來,發(fā)揮各自的優(yōu)勢并克服各自的弱點而形成的綜合方法。
首先,這種綜合集成進路兼顧了醫(yī)療機器人倫理設(shè)計的理論起點的全面性和完整性。醫(yī)療機器人的倫理設(shè)計需要尋求一種全球共識,應(yīng)當(dāng)構(gòu)想一種更為合理的倫理整合方案作為設(shè)計的理論基礎(chǔ),如此才能完整揭示人類道德生活意義的全面圖景。因此,將西方責(zé)任倫理和儒家的關(guān)系倫理進行相互補充和兼容,是實現(xiàn)整合性倫理一種設(shè)想,具有一定的邏輯可能性和現(xiàn)實必要性,當(dāng)代的倫理已經(jīng)初步顯露出這種匯通和整合的趨勢。其中,責(zé)任倫理將規(guī)則論和德性論統(tǒng)一起來,體現(xiàn)了規(guī)則倫理和美德倫理的融合[14]。這種責(zé)任倫理正體現(xiàn)了自上而下和自下而上相結(jié)合的混合進路,為醫(yī)療機器人的倫理設(shè)計提供了基本的醫(yī)學(xué)倫理規(guī)則的約束,而自下而上進路與美德倫理相契合,使醫(yī)療機器人的倫理設(shè)計蘊含著對道德溫情和關(guān)懷原則的認(rèn)知和學(xué)習(xí);而傳統(tǒng)儒家的關(guān)系倫理強調(diào)互動的意義,這與機器人倫理設(shè)計的關(guān)系論進路相契合,體現(xiàn)了醫(yī)患互動和關(guān)系和諧的重要性。由此,責(zé)任倫理與關(guān)系倫理的協(xié)同互補符合醫(yī)療機器人倫理設(shè)計和價值嵌入的理論追求和發(fā)展趨勢,通過三種進路的合作是建立一種全面的綜合倫理設(shè)計模型的可行之路。
其次,這種綜合集成進路體現(xiàn)了醫(yī)療機器人倫理設(shè)計的特殊要求。不同于其他類型的人工智能,醫(yī)療機器人的服務(wù)對象、應(yīng)用領(lǐng)域、價值目標(biāo)和實現(xiàn)效果都具有其特殊性,醫(yī)療機器人與患者的生命健康和生活幸福息息相關(guān),因此,其倫理設(shè)計更應(yīng)當(dāng)重視原則性、靈活性和價值敏感性三者的兼容。自上而下進路作為醫(yī)療機器人倫理設(shè)計和價值嵌入的起點,以醫(yī)學(xué)倫理價值的預(yù)定義框架為基礎(chǔ),能夠明確醫(yī)療中不道德行為(傷害、泄露隱私)和道德行為(尊重、公正),以避免規(guī)范偏差,指明具體行為的規(guī)則界限和尺度;而對于醫(yī)療主體和倫理情景的多元性和差異性,需要運用自下而上進路,運用機器學(xué)習(xí)和適應(yīng)機制積累經(jīng)驗,以應(yīng)對不同的主體和醫(yī)療環(huán)境;此外,醫(yī)療機器人的倫理設(shè)計以患者為中心,通過模擬道德表象行為和價值敏感的設(shè)計,能夠促使醫(yī)療機器人與患者進行有效交流與良性互動,更容易為患者接受和信任。由此,將三種進路結(jié)合起來的綜合集成進路,不僅能夠確保醫(yī)療機器人的行為符合公認(rèn)的醫(yī)學(xué)倫理規(guī)范,還能夠靈活地應(yīng)對不同的醫(yī)療倫理情景,更能夠兼顧到和諧友好的機患關(guān)系,從而達到應(yīng)用醫(yī)療機器人的最佳效果。
值得注意的是,對于醫(yī)療機器人的倫理設(shè)計和價值嵌入必須結(jié)合一定的評價方式,如道德圖靈測試和證實方法,根據(jù)評價結(jié)果和實踐效果不斷地調(diào)整和改進倫理設(shè)計的進路。任何關(guān)于機器人倫理進路設(shè)計的探討都具有一定啟發(fā)意義,這需要人工智能科學(xué)家與哲學(xué)家緊密合作,更多地關(guān)注和參與到機器人倫理設(shè)計的理論和技術(shù)的研究中去。