孫妍嬌,焦艷玲
(天津醫(yī)科大學醫(yī)學人文學院,天津 300070,285282339@qq.com)
隨著生物識別技術的快速發(fā)展,人臉識別的應用越來越廣泛。近十年來人臉識別更是進入醫(yī)療領域,為監(jiān)測患者身體變化以及進行醫(yī)學診斷提供輔助。通過獲取患者面部某些標志點的具體數據,解析患者的面部表情,然后與疾病數據庫里的信息進行比對,人臉識別醫(yī)學診斷機器就可以確定患者的疾病類型。未來人臉識別在醫(yī)學診斷上的應用能夠有效緩解醫(yī)療資源不足和疾病診斷延遲等問題,并且它在一些疾病研究中的診斷正確率甚至比相應領域的專家還要高。因此,日后該技術有望大幅度提高疾病的早期篩查以及臨床診斷的效率[1]。不過,人臉識別給醫(yī)學診斷帶來高效性與便利性的同時也附帶了許多倫理風險,以至于不少學者認為,將人臉識別用于醫(yī)學診斷是對現有的道德倫理體系發(fā)起的挑戰(zhàn)。
疾病不僅會引起人體內在結構和生理功能的異常,還可能導致外貌上的改變,例如四肢軀干及面部特征發(fā)生較大改變。醫(yī)學上早已發(fā)現,許多的疾病都會在患者臉部留下印記,這些獨特的“臉部癥狀”為診斷疾病提供了重要的線索。醫(yī)生可通過對患者面部特征的辨識,對特定疾病作出初步判斷。在致使面部特征發(fā)生改變或畸形的疾病中,極具代表性的疾病有兩種。第一種是內分泌疾病:患者受身體激素分泌異常的影響,面部特征的變化可能比較明顯。例如,庫欣綜合征的患者會出現滿月臉(即特征性面部肥胖,即臉似滿月);肢端肥大癥的患者變得前額斜長、鼻大唇厚;還有呆小癥的患者鼻梁變塌扁、眼距增寬等。第二種是遺傳病:不少遺傳病患者具有先天性顱面部與全身畸形,例如特納綜合征、唐氏綜合征、黏多糖貯積癥和德朗熱綜合征等[2]。然而,由于醫(yī)務人員經驗不足,對繁雜疾病引起的面部變化辨識力不夠,加上部分患者在疾病早期時的癥狀及面部特征變化不突出,導致醫(yī)生診斷經常出現較長的延誤期。人臉識別醫(yī)學診斷的妙用,就在于將患者的人臉照片與已被確認患病的患者照片進行比對,根據患病的可能性,從高到低給出一系列潛在的診斷。
研究表明,隨著人臉數據越來越完善,面部特征所對應的疾病關聯會變得越來越明顯,尤其是在遺傳綜合征(如德朗熱綜合征和唐氏綜合征)和內分泌疾病(如庫欣綜合征和肢端肥大癥)方面,人臉識別已經可以完成疾病篩查任務[3]。目前,科學家們正積極研究通過面部表情來進行自閉癥的診斷。未來這項技術還可以擴大應用于更多的疾病,從而使疾病診斷的周期大幅縮短,為患者爭取寶貴的治療時間。
如今正處于人工智能輔助醫(yī)療技術飛速發(fā)展的階段,醫(yī)療數據迎來了指數型增長。對于醫(yī)療大數據的廣泛應用,一方面,它為現代智能醫(yī)學的發(fā)展和進步創(chuàng)造了新的機遇和渠道,為臨床精準診斷等醫(yī)療決策提供了有力的支撐;另一方面,人工智能時代下患者的信息安全遭遇重大泄露風險,尤其是人臉識別醫(yī)學診斷過程中個人人臉信息的泄露風險較大。從AI換臉軟件、通過盜取他人人臉信息來幫助無法完成賬號實名認證的人完成實名認證的黑暗產業(yè)鏈等可以看出,個人人臉信息泄露問題逐漸加重,人臉識別技術的廣泛與非理性應用嚴重侵擾了人們的信息安全。并且人臉信息亦可能捆綁著其他個人信息,比如個人姓名、家庭住址、身份證號碼、行蹤軌跡、通信方式、財產信息、健康生理信息等個人敏感信息。網絡信息時代,個人隱私信息可能會經過上萬次甚至千萬次的泄露與傳播。另外,個人信息的泄露不僅對自身有影響,還可能對群體的信息安全帶來嚴重威脅。2019年有一起備受關注的安防領域的人工智能企業(yè)大規(guī)模信息泄露事件。該企業(yè)因內部數據庫的安全防護缺失導致了250余萬公民個人信息數據被不受限制訪問。而一種基于 DNA 的新型人臉識別方法可以將探針 DNA 圖譜與已知的面部圖譜數據庫相匹配,從已知身份的人臉信息中預測DNA信息,在驗證模式下其實質性正確(83%,80%)超過錯誤(17%,20%)匹配[4]。倘若某個在群體中的核心或關鍵人物的DNA信息通過人臉信息被預測得知,其后果的嚴重性不言而喻。
人工智能在象棋比賽、醫(yī)學診斷等方面表現突出,它甚至能夠創(chuàng)造藝術作品、寫稿件、產生論著等。人們不免會有這種疑問:未來人工智能是否能取代人類?比如進行醫(yī)學診斷的智能醫(yī)生,它可以被內置海量的醫(yī)學知識,診斷過程快速高效,對疾病的診斷或預測精準度高。在診斷中,它甚至可以被設計得更加“禮貌”“耐心”。那么在未來智能醫(yī)療廣泛應用的環(huán)境下,人們去醫(yī)院就診是否更樂意選擇智能醫(yī)生?面對便捷高效的人工智能診斷方式,人類醫(yī)生是否會降低自身醫(yī)學技術水平的要求而依賴于智能醫(yī)生?久而久之,人類醫(yī)生能力減弱、數量減少似乎是不可避免的。這不免引發(fā)了很多的倫理擔憂:人類的自由、自主性和尊嚴等都會因此受到極大影響。這個問題激發(fā)了哲學界和科學界的熱烈討論。
不少學者面對人工智能的迅猛發(fā)展發(fā)出了“取代警告”。著名物理學家霍金曾發(fā)出警示:“人類自身由于緩慢的生物進化限制,很難與機器競爭,未來可能會被取代,全人工智能的發(fā)展可能導致人類的終結?!盵5]埃隆·馬斯克也認為人工智能是人類“最大的生存威脅”,并將發(fā)展人工智能說成是“召喚惡魔”[6]。學界對此展開熱議,形成“取代論”和“否取代論”,而“取代論”依據強人工智能理論和AI技術奇點理論為自己立論,認為機器人比人腦有更多的優(yōu)越性,通過全腦仿真或人腦復制,可以制造出仿人腦的智能機器。人工智能學家馬文·明斯基曾說:“如果我們能制造一個和人一樣聰明的機器人,那制造一個比人更聰明的機器人也沒有什么不可能。”照此推論的話,人工智能發(fā)展的盡頭似乎就是超過人類并有可能取代人類。因此,很多學者發(fā)聲,在涉及人類尊嚴的領域和崗位,要減少或禁止人工智能踏入,謹防人工智能對人類主體地位的侵害。
人工智能既可以由控制人員遠程控制操作,也可以由具有自我學習能力的內置程序控制。馬提亞提出,如果人工智能在自動控制下發(fā)生意外,該由誰負責?根據馬提亞的分析,遠程控制人員不應為此負責,因為他并未操作機器進行這次意外活動;而系統(tǒng)程序員也不應被指派為責任者,因為程序員編寫的程序沒有問題,并合乎規(guī)范地置于人工智能當中。也就是說,面對人工智能出現故障或對人類造成傷害時,現有的責任體系還無法指引我們找尋到責任方。
目前,學界仍然將人工智能作為人類的輔助醫(yī)療工具,對于人工智能引發(fā)的醫(yī)療損害責任承擔問題上還未有明確規(guī)定。在人臉識別醫(yī)學診斷的應用中,機器取代了先前由醫(yī)生執(zhí)行的某些任務,這無疑會極大地改變醫(yī)生與患者之間的關系,意味著臨床環(huán)境里的中心關系從患者與醫(yī)生到患者與醫(yī)學人工智能之間轉換。誠信、責任、義務等概念變得模糊,從而也會改變醫(yī)生與患者之間的道德責任劃定。如果在人臉識別醫(yī)學診斷過程中出現錯誤,那就不能像以前那樣簡單地歸責于醫(yī)生,而需要把更多的責任相關者帶入進來,比如人臉識別醫(yī)學診斷機器的生產商、算法的設計者、測試數據的提供者,乃至該技術的監(jiān)管者等。然而,如何在這些責任相關者之間進行責任劃分? 是否會面臨無人負責的狀況?再者,在道德責任的歸屬問題中,對患者進行醫(yī)學診斷的人工智能可以成為承擔道德責任的道德主體嗎?它更多地需要在倫理道德層面探究道德責任的歸屬,道德責任劃分問題是人臉識別醫(yī)學診斷技術中最重要的倫理問題。
人臉識別的醫(yī)學診斷常常借助人工智能的機器進行,這引發(fā)了人工智能是否承擔道德責任的論爭。然而,人工智能承擔道德責任根本不具有合理性。
康德認為,道德主體具有自主性、自律性、自決性和創(chuàng)造性。自主性使基于純粹理性的人具有理論理性和實踐理性;自律性是純粹實踐理性頒布的道德律令的體現;自決性是指道德主體具有自己為自己立法的自由意志,并且要求對己對人的行為負有責任??档聫娬{自決與自律的關系,認為自決是自律的前提,自律是自決的必然結果。同時他也認為,自由與自律密不可分,即人作為理性存在者只能以自由為前提去思考意志的因果。人工智能機器既然不具有自由意志和自覺的主體能動性,那么當然就不具有承擔道德責任的能力[7]。
正如斯塔爾所言,“計算機沒有道德推理的能力,因為他們無法理解處理信息的意義?!比斯ぶ悄苁遣荒茏鳛榈赖轮黧w的,因為它既不能承擔責任,也不會受到懲罰。機器倫理學家阿薩羅也認為,人工智能成為道德主體必須同時滿足兩個前提:第一是它需要具有道德身份;第二是它需要具有自主意識[8]。由此來進行道德判斷、作出道德選擇、承擔自身行為的后果。但是,就目前的發(fā)展來看,人工智能尚未具有道德主體地位,它只是具有道德調節(jié)的作用而已。上述學者都認定,可以理性思考的人類才是唯一的道德主體,因為只有人類才能利用自主意識進行道德判斷,作出道德選擇并承擔相應的責任。而當前沒有任何證據表明,未來的人工智能可以擁有與人類相同的理性思維,從而使其具有承擔道德責任的可能性。
既然人工智能不能擔當道德責任的主體,那么在出現誤診和漏診時就不能簡單地歸責于人工智能,而是應當尋找理性人去承擔。
通常認為,一個人對自己的行為負擔道德責任取決于三個條件:①因果條件。人的行為與結果之間應該有因果聯系。②知識條件。只有當一個人不僅知道與他行動有關的某些特殊事實,而且也懷著某種適當的意向和信念行動時,他才對自己的行為負責[9]。③控制條件。只有一個人可以在某種適當意義上控制他的行為時,他才需要為此負擔道德上的責任。倘若人的行為與結果之間的因果鏈過長,導致事情結果超出了人的認知與控制,那么相關人員就無須對此負責。也就是說,道德責任意味著相關人員只需對不正義負責,而無需對不幸負責。
較手術機器人等其他醫(yī)療人工智能而言,人臉識別醫(yī)學診斷技術的輔助性較強,僅僅是用于疾病的診斷階段,它對人類的危害性較小,可推廣度高。因此,對其應用進行嚴格管控,限定為輔助類角色,合理分配責任,未來人臉識別醫(yī)學診斷的發(fā)展前景會很好。在人臉識別的醫(yī)學診斷中,不論是醫(yī)學診斷機器的生產商、算法的設計者、測試數據的提供者還是技術的監(jiān)管者,借助對“因果條件”“知識條件”和“控制條件”的把握,以及對其他醫(yī)療人工智能研究的參考,可以清晰地劃定這些主體的責任承擔,形成一種“共同責任”模式,各盡其職,共同承擔責任。
第一,設計者的責任。首先,設計者不僅要具備專業(yè)技術知識,提高技術的穩(wěn)健性和安全性;還要具備抵御網絡攻擊和盜取數據的能力,因為人臉識別醫(yī)學診斷技術是通過識別患者人臉信息與龐大的數據庫作比對來獲得診斷結果的,更要提高系統(tǒng)的安全性;其次,設計者應該要有一定的道德倫理知識,做到在最初就控制好醫(yī)療人工智能機器的倫理問題。需要注意的一點,算法設計者不應在設計過程中帶有自己的偏見,或在學習訓練中所采用的數據是帶有偏見的,從而使疾病的識別結果有偏見,產生了不公正的問題。如果將帶有歧視性的觀點隱藏于算法中,要比藏在數據中更不容易被察覺。進行醫(yī)學診斷的機器在給患者診斷時必須保證能夠放心使用。
第二,生產商的責任。生產商應嚴格把控進行醫(yī)學診斷的機器是安全可靠的,不可為了謀取一己私利而去制造不受人類控制的產品。對人類進行醫(yī)學診斷的機器就應當是僅僅用于疾病診斷,收集到的個人信息僅僅是用于疾病的比對。人臉識別醫(yī)學診斷是為了促進醫(yī)療科技發(fā)展而生的,不可帶有其他可能對人類帶來傷害的功能。如若由于機器自身結構缺陷等質量問題導致的機器故障,應該由生產商承擔責任。生產商應對生產環(huán)節(jié)負責,它與設計者一樣,在人臉識別醫(yī)學診斷中承擔源頭責任。
第三,監(jiān)管部門的責任。在人臉識別醫(yī)學診斷中,不論是診斷機器的質量問題,還是其引發(fā)的個人信息泄露等問題,原因都是我國目前對醫(yī)療人工智能技術尚無專門性的法律、法規(guī)。因此需要設立一個專門把控醫(yī)學人工智能的部門,來監(jiān)督行業(yè)的發(fā)展狀況以及對相關人員進行嚴格管理。監(jiān)管部門要熟絡醫(yī)療人工智能技術的相關知識,也要能夠預防診斷機器可能產生的問題,有基本的應急風險方案,發(fā)生重大事件后可以作出正確的決斷。制定嚴格的監(jiān)管機制來防止醫(yī)療技術的濫用,才能保障醫(yī)療人工智能的健康發(fā)展。
第四,技術使用者的責任。對機器的使用,除了要配備專業(yè)的人員定期進行維護和保養(yǎng)之外,技術使用者在使用過程中應該保證合理使用,在其限制的范圍領域中使用,診斷型機器人僅用于疾病診斷環(huán)節(jié)。如果是技術使用者由于自身操作不當或者對機器超出目的使用而對他人造成的傷害,技術使用者直接承擔責任。對于個人信息的使用,應當遵循合法、正當、必要的原則。技術使用者應對自己的行為負責,不可利用職責之便在未征得被識別人同意的情況下使用或泄露他人信息,這將引發(fā)法律方面的問題。
當然,除了以上責任劃分的情形外,在使用人臉識別醫(yī)學診斷技術過程中還包括需要承擔發(fā)生診斷錯誤的情況:①診斷結果由人臉識別醫(yī)學診斷機器做出,醫(yī)生并未作出獨立的判斷,由機器的研發(fā)公司和醫(yī)生承擔責任;②人臉識別醫(yī)學診斷機器提供建議,醫(yī)生獨立判斷得出診斷結果,由醫(yī)生承擔責任;③診斷結果由醫(yī)生做出,但是人臉識別醫(yī)學診斷機器的建議是醫(yī)生決策的關鍵影響因素,由醫(yī)生和機器的研發(fā)公司承擔責任;④診斷結果如果是根據錯誤的檢驗數據做出,則由提供檢驗數據的公司承擔責任。明確人臉識別醫(yī)學診斷的責任歸屬意義重大,其必要性其一就表現在:對遭受誤診和漏診損害的患者給予救濟,以及進一步規(guī)范責任主體的行為。
人臉識別醫(yī)學診斷的應用將為大眾帶來更便捷的就醫(yī)體驗,在未來的醫(yī)療實踐中將“大有可為”。明晰人臉識別醫(yī)學診斷的道德責任,為完善該技術的合理使用提供了幫助,也對未來醫(yī)學人工智能的應用帶來重要啟示。
人臉識別醫(yī)學診斷應用的初衷是為了輔助醫(yī)生進行診斷以此來減輕醫(yī)生的工作壓力,使其有更多精力投入科研和前沿領域的研究中去,同時提高醫(yī)療效率。然而在實踐中,人臉識別醫(yī)學診斷的應用可能會造成人類醫(yī)生過于依賴人工智能機器,以至于疏忽了自身醫(yī)學知識的學習以及臨床診斷經驗的積累,也未能及時發(fā)現機器診斷出現的錯誤。人類醫(yī)生必須對人臉識別醫(yī)學診斷技術的相關醫(yī)學知識進行及時更新,人類醫(yī)生也需要通過不斷學習領先于醫(yī)學人工智能的發(fā)展,明確人臉識別醫(yī)學診斷技術的作用是輔助醫(yī)生而非取代醫(yī)生。要合理利用其診斷的高效性與便利性,要明確真正的醫(yī)療主體依然是人類醫(yī)生。當前人類關于醫(yī)學的認知為:整個疾病的診斷過程中不僅需要豐富的臨床經驗與邏輯思維能力支撐,同時還要具備敏銳的直覺、復雜的情感和創(chuàng)新思維。而現階段的人臉識別醫(yī)學診斷機器顯然不具備這些,所以它并不能取代人類醫(yī)生的地位。人工智能機器給出的診斷只能作為人類醫(yī)生臨床診斷的參考,最終仍是人類醫(yī)生對診斷的結果負責,對患者負責。人類醫(yī)生和人臉識別醫(yī)學診斷技術要做到共同進步、共同提升,形成“人臉識別醫(yī)學診斷技術代行簡單診治—醫(yī)生進行前沿研究—研究成果反饋更新人臉識別醫(yī)學診斷系統(tǒng)”的良性循環(huán)[10],最終達成醫(yī)療服務質量和效率大幅度提升的目標,并且“人”始終處于這個循環(huán)中的核心地位。
目前我國對如何劃分人臉識別醫(yī)學診斷技術應用中的現實責任以及如何對人臉識別醫(yī)學診斷進行有效監(jiān)管都沒有定論,更沒有制定和實施相應的法律規(guī)章制度。對人臉識別醫(yī)學診斷技術的管理監(jiān)督不可太強硬,否則就會對社會與人類文明的發(fā)展形成阻礙;也不可過于薄弱,從而使人臉識別醫(yī)學診斷中的責任機制出現混亂,出現主體責任不明確等問題。因此,對人臉識別醫(yī)學診斷進行責任界定很有必要。首先要建立起合理的責任劃分機制,有效保障人臉識別醫(yī)學診斷技術的健康發(fā)展;其次要健全責任倫理機制,完善人臉識別醫(yī)學診斷應用的規(guī)范化。人臉識別醫(yī)學診斷的責任倫理規(guī)范應滿足“以人為中心”的前提,人永遠是醫(yī)療主體。要建立起促進社會健康穩(wěn)定發(fā)展的倫理規(guī)范,高效限制其應用過程中相關人員的倫理規(guī)范;建立人臉識別醫(yī)學診斷應用的責任倫理機制,最重要的是國家政策方針的引導,一方面要制定該技術相關的法律法規(guī),并且及時配套可操作性較強的、專業(yè)性的有效措施;另一方面要保障人臉識別醫(yī)學診斷技術更加高效廣泛地使用,也要保證使用過程中的科學性和安全性。
人臉識別醫(yī)學診斷責任體系的建立離不開法律法規(guī)的支撐。人臉識別醫(yī)學診斷應用的相關人員如果發(fā)生了瀆職或失責的行為,將會給社會或他人造成損失或嚴重傷害,只是予以輿論譴責的力度顯然是不夠的,必須依靠法律手段進行追責與懲治。相關部門對于人臉識別醫(yī)學診斷的發(fā)展起著決定性作用,應從立法和行政層面對其進行監(jiān)管。首先,將在應用過程中易出現的責任劃分問題納入法律框架中,充分發(fā)揮法律的規(guī)制作用;其次,要建立健全多層次的監(jiān)管體系。對人臉識別醫(yī)學診斷應用過程中涉及的多元主體(設計者、生產商、使用者、監(jiān)管者等),以及技術標準等級、使用范圍等進行明確劃分。將法律和倫理緊密聯系起來,建立起對相關從業(yè)人員的道德規(guī)范和法律要求,推動社會倫理標準融入技術的開發(fā)與使用中,最后形成一個集國家法律、社會倫理、行業(yè)標準等于一體的監(jiān)管體系。只有在一個合法界定的領域里,與其基本原則結合起來,形成理性、自由、選擇、責任多層次的邏輯結構,才能有效維持人臉識別醫(yī)學診斷技術使用的基本價值取向。
人臉識別醫(yī)學診斷技術的應用與發(fā)展有著很好的臨床應用前景。此技術為解決疾病延遲診斷、醫(yī)療資源不足等問題作出了貢獻,具有高效、便利、診斷準確率高等優(yōu)點。但同時它暴露出來的一些新的道德風險也不可忽視。本文著重分析了人臉識別醫(yī)學診斷中出現的道德責任的劃分這一倫理問題,闡述了在人臉識別醫(yī)學診斷中的道德責任主體問題以及道德責任的具體劃分問題。對人臉識別醫(yī)學診斷中的道德責任問題進行探究,既為完善該技術的合理使用提供了幫助,也為未來醫(yī)學人工智能的發(fā)展與應用帶來了重要啟示。未來,人臉識別醫(yī)學診斷技術將會為醫(yī)療領域作出更大的貢獻,醫(yī)院的工作會更加便捷高效,來院就診的患者也會享受到人工智能時代所帶來的快捷和便利。