亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        醫(yī)療人工智能應用的倫理設計與原則

        2021-12-01 02:37:59張秋菊
        醫(yī)學與哲學 2021年4期

        張秋菊 蔣 輝

        醫(yī)療人工智能(artificial intelligence,AI)是AI在醫(yī)療領域的應用與開發(fā),它可以通過機器學習、表征學習、深度學習和自然語言處理等各種技術,利用計算機算法從數(shù)據(jù)中獲取信息,以協(xié)助制定臨床決策為目的,實現(xiàn)輔助診斷、療法選擇、風險預測、疾病分診、減少醫(yī)療事故和提高效率等一系列功能[1]。隨著AI飛速發(fā)展,醫(yī)療AI也會在不同臨床活動中發(fā)揮超乎想象的作用。根據(jù)AI的實力可以大致分為弱AI、強AI和超強AI。由于醫(yī)療服務的對象是人,AI在醫(yī)療領域的應用必須考慮到人的主體地位、個體差異、心理感受等問題,而且必然顧及醫(yī)患關系的特點。因此,盡管醫(yī)療AI應用越來越廣泛,且未來展現(xiàn)出更廣闊前景,對疾病診斷、藥物篩選及手術治療、醫(yī)院管理等帶來極大的便捷和幫助,但當前醫(yī)療AI應用主要集中在弱AI。

        1 醫(yī)療AI應用的倫理關系評估

        在醫(yī)療資源配備不足的地區(qū),應用醫(yī)療AI可在一定程度上緩解供需矛盾,但并不能從根本上解決問題。2019年,以臨床輔助決策支持系統(tǒng)(clinical decision support system,CDSS)和靜脈血栓栓塞癥(venous thrombo embolism,VTE)智能防治系統(tǒng)等為代表的AI應用推廣較突出,這些應用的確減輕了醫(yī)務人員的工作負荷,但是也讓醫(yī)務人員有著盲從AI判斷的可能。因此,AI的應用像“雙刃劍”一樣,有著技術應用的效益,也有著不可回避的負面影響。與此同時,諸如隱私保護、數(shù)據(jù)歧視、人性化關懷等也存在隱憂。

        在當前醫(yī)療AI還沒有相關法律法規(guī)的情況下,倫理問題尤其值得思考和關注,做好倫理設計及形成相關的道德原則是AI更好地服務于醫(yī)療的必要保證。醫(yī)療AI的應用必定會深刻影響醫(yī)療人際關系,對此應進行充分評估。醫(yī)療AI設計要關注醫(yī)療人際關系,尤其是醫(yī)務人員和患者群體及社會公眾,必須事先評估其影響,并正確處理好不同主體之間的關系,是做好醫(yī)療AI設計的重要方面。

        1.1 影響醫(yī)務人員的主體作用及主觀能動性

        醫(yī)療AI帶來方便的同時可能會淡化甚至隔斷部分人際交往,尤其是醫(yī)患之間的溝通及人文關懷可能被物化。AI無法替代醫(yī)生,缺乏和醫(yī)生一樣的綜合判斷能力。盡管AI節(jié)省了醫(yī)務人員的時間、提供了診斷決策建議、起到了重要的輔助作用,但也可能削弱醫(yī)務人員的主觀能動性的發(fā)揮,減少創(chuàng)新。醫(yī)務人員對AI的依賴會影響自身專業(yè)技能的修煉,還有可能為技術所累,使醫(yī)患關系物化,引發(fā)醫(yī)生眼中可能只有疾病而沒有患者的現(xiàn)象。如智能預問診,用戶就診前,智能采集用戶病情信息,包括主訴、現(xiàn)病史、既往史、過敏史、家族史等生成電子病歷,節(jié)省醫(yī)生寫病歷時間,但“預問診”在無形中阻隔了醫(yī)患交流的部分環(huán)境,對醫(yī)務人員的判斷形成干擾、錯誤引導、傾向性影響,甚至產(chǎn)生誤判。

        1.2 對患者群體的消費擴展和選擇歧視

        AI無疑會大大惠及患者,但也存在不少倫理問題。一方面,AI對某些疾病的診斷更精確,部分手術的技術傷害更小,藥物使用更加優(yōu)化,臨床診斷意見更有針對性和參考性等。另一方面,AI醫(yī)療器械、影像、手術機器人等費用高昂,可能造成歧視和不公平,引發(fā)過度醫(yī)療等;AI誤診、手術機器人的差錯、患者個人資料泄露等無疑是對患者權利的無情踐踏,甚至危害公共衛(wèi)生利益。

        1.3 醫(yī)患關系導向異化

        AI不能代替醫(yī)務人員,也不應擠占本屬于醫(yī)患交往的時間。AI臨床應用的基調(diào)應該是基于補充、輔助,而非代替,醫(yī)療活動中的醫(yī)務人員、患者都是人,醫(yī)患之間的交往要體現(xiàn)醫(yī)學的人文溫度,體現(xiàn)醫(yī)患間的關愛、溫情。AI應該優(yōu)化、彰顯醫(yī)學的人文情懷,體現(xiàn)對人的關懷與尊重,應該把研發(fā)的重點放在補充醫(yī)療活動中的不足,醫(yī)院管理系統(tǒng)的AI研究應該把關心人、尊重人放在重要位置;把開發(fā)重點放在當前現(xiàn)代醫(yī)學的不足和亟需的領域,諸如康復治療、醫(yī)療機器人、醫(yī)療影像等,為患者提供優(yōu)良的就醫(yī)環(huán)境和秩序,醫(yī)務人員不足時借助AI實現(xiàn)關懷、幫助。

        2 醫(yī)療AI設計的倫理問題

        在AI的賦能下,醫(yī)學的技術性可以得到前所未有的提高。未來AI與臨床的密切融合,需要人們關注AI醫(yī)療應用引發(fā)的一系列倫理問題,醫(yī)界呼吁有責任、合倫理的AI研發(fā)。醫(yī)療AI設計的倫理問題最主要牽涉到是否在設計中把握住總體目標是為推動醫(yī)學事業(yè)的發(fā)展、為人民健康謀福利;是否在設計中就數(shù)據(jù)采集的知情同意做好約定,因為醫(yī)療AI是建立在大數(shù)據(jù)基礎上的,而醫(yī)學的特殊性決定了數(shù)據(jù)采集會涉及到患者權益,知情同意是非常重要的醫(yī)學倫理原則;數(shù)據(jù)采集涉及的另一個重要問題就是患者隱私權的保護,更高層次上的安全就是生物安全等問題。這三個重要問題在醫(yī)療AI設計時就應該有相關的倫理約定,若等問題發(fā)生時再采取措施就為時晚矣。

        2.1 難以將設計研發(fā)全程納入監(jiān)管

        在醫(yī)療AI的設計之初,工程師可能缺乏對醫(yī)學特點、醫(yī)患關系、臨床應用的細節(jié)及發(fā)展趨勢考慮,這其實存在一定的失控風險,應該由政府主管部門包括工業(yè)信息部、科技部與衛(wèi)生健康部門聯(lián)合進行登記管理,根據(jù)各自工作職責建立聯(lián)合工作小組對醫(yī)療AI進行監(jiān)管,在其設計之初就按要求登記。醫(yī)療AI的設計要符合醫(yī)學目的,技術設計應初衷正當,導向良性發(fā)展,即推動醫(yī)學技術發(fā)展,更好地服務于人民健康。

        盡管目前暫無直接對應AI研發(fā)的法規(guī),但從《民法典》《刑法(修正案九)》《醫(yī)療衛(wèi)生與健康促進法》《醫(yī)療器械監(jiān)督管理條例》《信息安全條例》《涉及人的生物醫(yī)學研究倫理審查辦法》等法律法規(guī)中,均可以找到很多規(guī)范性要求。受試者權益保障主要是隱私信息保護和數(shù)據(jù)產(chǎn)權方面,不涉及針對人體的風險,但客觀存在隱私信息泄露和數(shù)據(jù)歧視等倫理風險——這常常被忽視,或不夠重視,也常常沒有相應的風險評估,沒有相關的風險防范措施和應急處置預案。由于數(shù)據(jù)控制權已經(jīng)不在受試者方面,醫(yī)院和研究者可以單方面對醫(yī)療健康數(shù)據(jù)進行處理,往往也沒有再向受試者履行知情同意,受試者方面沒有任何直接獲益,而醫(yī)療器械AI產(chǎn)品又有明確預期的市場價值,如果從受試者角度而言,常涉嫌違背倫理的尊重原則和公平原則。醫(yī)療器械AI產(chǎn)品的注冊研發(fā),應該側重社會公益目的,并在政府有關部門和機構倫理委員會的有效監(jiān)管下開展。很多情況下,應該鼓勵把投入的研發(fā)成本收回來即可,不應追求不恰當?shù)倪^多商業(yè)利益,否則就可能違背倫理。因此,醫(yī)療AI應用產(chǎn)品具體在設計時,應以社會公益為主要目的,全程納入政府監(jiān)管并接受社會公眾監(jiān)督。然后,在AI產(chǎn)品中應編入倫理標準程序并經(jīng)過檢驗后使用,包括諸如權利、角色、動機、意圖及其他道德相關特征,以期其做出的醫(yī)療決策更符合倫理。目前醫(yī)療AI的價值體系等同于創(chuàng)建AI的設計者的價值體系。

        醫(yī)學目的原則要求開發(fā)設計者與醫(yī)生增強溝通,真正了解醫(yī)生的工作和需要、醫(yī)療衛(wèi)生行業(yè)服務的性質及宗旨。目前的醫(yī)療AI還比較碎片化,沒有做到足夠的集成化。不同疾病模型的使用環(huán)境都不同,如果不能建立統(tǒng)一的集成規(guī)范,就會為了追求技術的新奇而使用技術,反而影響了效率,這也正是許多醫(yī)療機構即使擁有了AI,醫(yī)生也經(jīng)常不使用這些新技術的原因。對此,需要開發(fā)者去真正理解醫(yī)院的整體工作,有的放矢。AI應結合醫(yī)院整體工作需要、醫(yī)生工作特點和患者現(xiàn)實困難全盤規(guī)劃,在設計上從滿足需要出發(fā)。

        2.2 大數(shù)據(jù)采集和使用的倫理審查挑戰(zhàn)突出

        數(shù)據(jù)采集應取得授權,導向有序管理。AI依靠大量的數(shù)據(jù)支撐,數(shù)據(jù)從哪來:美國要求醫(yī)療信息的商業(yè)化應用必須嚴格符合《健康保險便攜性和責任法案》(Health Insurance Portability and Accountability,HIPAA)和《促進經(jīng)濟和臨床醫(yī)療衛(wèi)生信息技術法案》(Health Information Technology for Economic and Clinical Health,HITECH)兩個法案規(guī)定,中國目前在此領域政策上態(tài)度不明確。關于數(shù)據(jù)采集的相關問題應該在設計時就充分考慮,尤其應關注在采集數(shù)據(jù)時對患者的知情同意權的保護。知情同意權在沒有法律規(guī)范可參考的情況下就需要醫(yī)療AI技術的研究單位和合作單位加強倫理審查,重點針對設計者的科研倫理意識、采集數(shù)據(jù)時是否履行知情同意、如何保障知情同意順利進行、在研究過程中誰來監(jiān)督知情同意實施情況等。對此,鑒于機構倫理審查在醫(yī)療健康大數(shù)據(jù)方面存在的效率和能力問題,應引導發(fā)展區(qū)域倫理委員會,并有政府委托的醫(yī)學倫理專家委員會和區(qū)域倫理委員會來對醫(yī)療健康大數(shù)據(jù)進行倫理審查和后續(xù)使用開發(fā)的監(jiān)管,要警惕醫(yī)療AI濫用。AI的先驅約瑟夫·魏森鮑姆曾告誡“任何需要真正同理心的工作,都不應該由計算機從事”。他認為,與機器互動會讓人感到孤立和被貶低,醫(yī)療AI的濫用會不會在不經(jīng)意間降低我們對人類生命的重視程度。如果有一天醫(yī)療AI 可以實現(xiàn)將人腦數(shù)據(jù)記錄在計算機中,針對殘疾者、病患或是逝去的人,制造出載有當事人大腦信息的AI機器人,可以被允許嗎?

        醫(yī)療AI產(chǎn)品研發(fā)項目應該先經(jīng)過學術委員會的立項審核,然后由倫理委員會進行倫理審查。專家組成員、倫理委員、聘請顧問應考慮到醫(yī)療AI的特點和所涉及知識、利益群體,納入軟件工程師,醫(yī)學專家,社會學、心理學、倫理與法律專家,群眾代表等。

        (1)研究的目的應該是正當?shù)?,有前期研究基礎和充分依據(jù)的,不能在研究基礎尚不夠、條件不成熟的情況下,隨機采集數(shù)據(jù)去測試、訓練。這種行為不僅不尊重數(shù)據(jù)所有權人、沒有嚴謹?shù)目茖W精神,而且可能站在利用公民信息謀利的邊緣,有違反刑法的風險。

        (2)研究所涉及的醫(yī)療健康數(shù)據(jù)不應過多,應該遵循“最小權責”原則,避免不必要的信息過度披露,保護醫(yī)療信息安全。這和動物實驗倫理中的“3R”原則(減少、替代、優(yōu)化)道理相通,用能體現(xiàn)統(tǒng)計差異且盡量少的例數(shù)來說明問題即可,不應隨意擴大數(shù)據(jù)范圍和例數(shù),能使用既往保存的數(shù)據(jù)時不應采集新的數(shù)據(jù),能開展真實世界研究的不應發(fā)起干預性研究,否則,既浪費資源,也不安全,自然不符合倫理。

        (3)提供AI算法的機構及有關工程師不應該隱形于研究項目和研究團隊中。醫(yī)生大都對AI沒有那么深入的研究,不是兼具醫(yī)療和軟件工程專業(yè)知識的復合人才,所以醫(yī)療AI應用的研發(fā)一般都有軟件工程師及有關機構涉足其中,這涉及許多知識產(chǎn)權問題。在項目合作協(xié)議和研究團隊名單中,應清楚體現(xiàn)該項目與什么公司、高校合作,有什么工程師參與其中,負責哪部分工作,這些均應予以明確說明并登記備案。若牽頭醫(yī)院與軟件公司有合作,應有書面協(xié)議約定各自權利義務,并將合作框架告知其他參與醫(yī)院。

        (4)在研究方案中,具體表述醫(yī)療健康數(shù)據(jù)的采集、脫敏、加密、儲存、物理隔離、轉移、銷毀等設計內(nèi)容,不能語焉不詳,籠統(tǒng)承諾“保護患者隱私”,這其實容易暗藏貓膩,也是不尊重患者人格與權益的體現(xiàn)。甚至,這樣稀里糊涂的研究讓人懷疑申辦者是別有用心地想獲取患者的信息數(shù)據(jù)。

        (5)要清楚界定研究目的和研發(fā)階段,由此作出相應的利益沖突管理。例如,表面聲稱以寫論文為目的,實質上瞄準有功能的產(chǎn)品暗度陳倉,耗費那么多人力物力只是為了幾篇論文嗎?這樣難以自圓其說,也經(jīng)不起歷史考驗;在進入市場后,還容易面臨產(chǎn)權糾紛。參與單位、患者可能在不知情的情況下被貢獻了“脫敏”數(shù)據(jù),而事實上患者的個人信息仍可以被分析定位并用于某些產(chǎn)品營銷。

        (6)要評估參與單位的資質和條件。除了AI算法提供單位具有資質和相應能力外,不同醫(yī)院會有不同的信息管理平臺及軟件,統(tǒng)計基礎和信息質量也存在差異,有時還可能需要進行有關數(shù)據(jù)庫的建設才能支持AI產(chǎn)品研發(fā)。例如,在某牽頭醫(yī)院有建立AI應用的醫(yī)療信息數(shù)據(jù)庫,但其他參與醫(yī)院不一定有,因此如何在信息數(shù)據(jù)同質化基礎上,事先評估參與單位的信息管理平臺及軟件也很重要,否則統(tǒng)計基礎不一、數(shù)據(jù)質量參差不齊,也難以達到研究目的。

        (7)應關注醫(yī)院信息系統(tǒng)的加密級別和信息安全管理制度。如果醫(yī)院信息系統(tǒng)本身就不安全,沒有應有的安全級別防火墻和加密措施,醫(yī)療AI研發(fā)很可能會增加患者隱私泄露風險,甚至造成信息安全事件。多中心研究可以匯集起足夠的數(shù)據(jù),但只要是醫(yī)療信息數(shù)據(jù),都應該儲存在醫(yī)院,不應隨意被第三方軟件公司或高??截?;如果醫(yī)院上傳數(shù)據(jù)到云存儲,也應該是數(shù)據(jù)云存儲達到安全級別并簽有協(xié)議,不應沒有數(shù)據(jù)加密或加密太簡單,更不允許隨意再次拷貝數(shù)據(jù)或與其他方共享數(shù)據(jù)等。此外,部分私立醫(yī)院也保存了很多公民健康信息數(shù)據(jù),這些應該符合行業(yè)標準并在衛(wèi)生健康主管部門監(jiān)管下,不能私自用于非法目的。

        (8)關注個人隱私保密問題及相應的工作措施。如果保密制度有缺陷,信息數(shù)據(jù)被左手交右手、掩耳盜鈴、偽匿名,都是對患者權益的侵犯。如果工作人員保密意識不到位,沒有做到物理隔離(內(nèi)部局域網(wǎng)和互聯(lián)網(wǎng)分開、連入互聯(lián)網(wǎng)有防火墻)、工作人員隔離(涉及患者信息數(shù)據(jù)的人員有獨立分工,一個工作人員負責脫敏,另一個工作人員負責脫敏之后的操作),也沒有全程監(jiān)管并記錄的制度,倫理審查可以認為不存在研究條件,不應開展此類醫(yī)療AI研究項目。有時候,數(shù)據(jù)脫敏不徹底,或本身沒辦法做到脫敏(如研究方案要驗證結果就不得不標記個人信息),客觀上存在個人隱私泄露的風險,對此,并非像有些人所理解離開人體的信息數(shù)據(jù)是沒有風險的,那只是對人體沒有風險,依然存在受試者人格權、財產(chǎn)權、隱私權被侵犯的風險,還可能有涉及罕見病信息的知識產(chǎn)權糾紛。如果只講采集數(shù)據(jù),根本沒有轉移數(shù)據(jù)前如何加密的交代,也沒有銷毀數(shù)據(jù)的考慮和打算,也算是倫理審查要素不全,不能開展研究。其實,只要給AI多一點時間,曾經(jīng)被“脫敏”的數(shù)據(jù)還可以被計算出很多特征性的個人信息,也可以實現(xiàn)歧視性使用數(shù)據(jù)的功能。

        (9)關注研究團隊的組成及道德自律。利用他人的信息數(shù)據(jù)進行加工分析,可能存在很多利益沖突和產(chǎn)權對應性問題。例如,信息科工作人員發(fā)起AI研究,本身就存在知識產(chǎn)權的倫理問題。再如,研究團隊的構建不合理,只從數(shù)據(jù)控制權考慮,拋棄和忘卻了具有數(shù)據(jù)所有權的醫(yī)生和患者,這就類似偷盜或搶奪他人的財產(chǎn)。

        (10)尊重患者、服務社會的倫理意識應貫徹始終。實施知情同意是絕對必要的,在可能或有必要實施時偏偏不予考慮,反而申請免除個人知情同意,這是不符合倫理的。例如,前瞻性采集數(shù)據(jù)做研究時,其實有條件對受試者實施知情同意;又如,在與影像診斷AI判斷結果進行對比時,需要根據(jù)受試者的個人信息追溯其相關病理結果,這也應對受試者實施知情同意。當然,這并非說知情同意才是對的,但起碼要考慮到知情同意,評估知情同意的實施和影響。畢竟有時候存在保護性告知,負面、過載的信息反而是不知情為好,否則增加受試者額外的心理壓力和精神負擔,反而更多地損害了受試者權益。

        值得注意的還有,每家醫(yī)院倫理委員會只能對自己醫(yī)院的信息數(shù)據(jù)負責,如果醫(yī)院間的倫理委員會制度和標準作業(yè)程序(standard operation procedure,SOP)根本不支持倫理結果互認,其倫理批件不能覆蓋其他醫(yī)院,就不能以一紙協(xié)議拋開或架空倫理委員會。除非依據(jù)政府法定職責所進行的項目或公共衛(wèi)生應急需要,另行依法實施。而且,風險程度較高的醫(yī)療AI研發(fā)項目也不能由某一家機構倫理委員會同意后就開展,還應該報省級以上醫(yī)學倫理專家委員會的同意后進行,因為這類項目可能有很大社會影響,甚至影響全人類。

        2.3 缺乏保護個人隱私與數(shù)據(jù)安全的措施

        盡管現(xiàn)在醫(yī)療AI技術較為成熟,故障率很低,但由于AI技術的復雜性,除了極少數(shù)人能夠理解它們是如何工作的,幾乎對所有人來說都是一個“黑匣子”[2]。技術的復雜性決定了技術的不確定性,AI醫(yī)療應用的可靠性是人們擔憂的一個重要方面,當醫(yī)療AI帶來很多不確定因素,諸如患者信息的泄露,個人安全甚至國家安全可能受到攻擊時,人類是無法信任AI的。

        醫(yī)療數(shù)據(jù)安全風險一旦發(fā)生,直接后果是引發(fā)患者安全事件,間接后果是數(shù)據(jù)泄露所致的一系列影響社會穩(wěn)定或不公平事件。如保險公司有可能在掌握了個人病史的情況下,提高保險費用,引發(fā)社會不公平等問題[3]。

        從近年出臺的關于AI的相關政策看,從2016年的《“互聯(lián)網(wǎng)”+人工智能三年行動實施方案》到剛頒布不久的《“健康中國2030”規(guī)劃綱要》都直接或間接地表明了發(fā)展醫(yī)療AI產(chǎn)業(yè)的支持和推動態(tài)度。但國家安全問題不容忽視,如涉及人類遺傳資源的AI技術研究,謹防特殊群體、特殊疾病引發(fā)的生物安全問題。應該站在國家戰(zhàn)略高度認識特殊領域的醫(yī)療AI,否則以犧牲國家安全為代價的技術發(fā)展無疑是得不償失的。

        2.4 行為主體的責任認定及追究的立法缺失

        我國應加強立法對醫(yī)療AI應用的有關行為主體進行管理。在醫(yī)療AI的設計、審查以及實施方面,既要有對項目的跟蹤,又要有對不同行為主體的監(jiān)督管理,包括設計人員、施工制造人員、測試人員、應用實施人員,也包括實施的環(huán)境和條件、數(shù)據(jù)的管理和監(jiān)督、數(shù)據(jù)脫敏化的處理、加密程序以及不同加密鑰匙的管理權限。醫(yī)生對AI系統(tǒng)臨床應用的另一個顧慮是誰對醫(yī)療AI提供的決策最終負責,如果出現(xiàn)錯誤,誰來承擔后果。當前階段,醫(yī)療AI的最后結果仍需要人工校驗審核,醫(yī)生承擔由此對患者診療結局的責任。未來臨床廣泛引入醫(yī)療AI后如何實現(xiàn)問責,現(xiàn)在仍不明確。當AI應用結果導致醫(yī)療糾紛、關于人的倫理或法律沖突時,能否從技術層面對AI技術開發(fā)人員或設計部門問責,并在AI應用層面建立合理的責任和賠償體系,保障醫(yī)療AI在臨床發(fā)揮其應有的價值[4]。

        3 醫(yī)療AI設計的倫理原則

        醫(yī)療AI涉及的倫理問題主體既包括技術設計者,也包括技術使用者,而當前設計者的倫理責任顯得尤為突出。未來應該在設計中把握好醫(yī)學倫理最基本的尊重、有利、不傷害、公正原則,這些原則看似簡單實則體現(xiàn)生命倫理的精髓。

        3.1 尊重人的人格尊嚴和價值

        醫(yī)療AI產(chǎn)品研發(fā)應用的首要倫理原則應該是尊重人的人格尊嚴和價值。這有一系列的倫理問題,例如,它是否能滿足和對應人的需求?它應該被使用在什么場景才不損害人的尊嚴?它與患者的關系是否屬于醫(yī)患關系?出現(xiàn)矛盾時如何解決?其中最大的難題恐怕是人與AI機器對話,對患者權利的尊重如何實現(xiàn),道德主體如何界定等。在發(fā)生醫(yī)療AI對患者利益的侵犯和傷害時,諸如隱私權、醫(yī)療公正等,如何認定責任。如果AI作惡或者反抗,患者權利如何保障等,這些都是需要在設計源頭考慮的問題。醫(yī)療AI設計倫理中應該強調(diào)人的價值因素,而非僅僅是疾病,AI的臨床應用應體現(xiàn)出醫(yī)學對人的尊重,而非侵害、累及甚至奴役人。要真正貫徹尊重原則,就要深深領悟AI服務于人的根本宗旨,領悟醫(yī)療衛(wèi)生行業(yè)是為人類健康服務的信仰。尊重人的價值、人的健康權益、人的生理及心理需求等。在某些領域的技術開發(fā)應該通過醫(yī)院倫理委員會審查,倫理委員會同時提供咨詢及幫助。像海豹機器人 Paro 雖然可以幫助老年人釋放壓力,但Skarkey認為現(xiàn)有的這些替代伙伴并不能真正地緩解老年人的孤獨,對于老年人的心理健康,在很大程度上依賴于和人類的接觸,需要與照顧人員進行交流[5]。醫(yī)療AI對醫(yī)務人員存在價值排擠,技術設計最初的出發(fā)點是輔助、幫助醫(yī)務人員,但有一種結果應該料想到,那就是某種程度的替代無形中形成的排擠。醫(yī)療AI產(chǎn)品上線后,短期內(nèi)可能會迎合市場需求,緩解供需矛盾,但長期的發(fā)展可能是醫(yī)學的停滯,因為AI缺乏自我更新發(fā)展的能力;或者AI形成了自我創(chuàng)新發(fā)展的能力,而使醫(yī)務人員的價值物化、淡化、邊緣化,這樣的情形都可能發(fā)生,而事實上醫(yī)務人員應該是實施醫(yī)療行為的主體,患者需要的也是有真實情感和知覺的“人”。自動化技術的成本正在迅速下降,這意味著2020年價值幾百萬美元的AI產(chǎn)品到2030年可能只需幾千美元,對此要有心理準備。雖然醫(yī)療行業(yè)是相對復雜的崗位,醫(yī)務人員的工作很多時候是很難替代的,但這種擔憂應該是必要的。

        3.2 有利于患者及公共健康

        AI對臨床的有利應體現(xiàn)在利他和人道方面,能增進患者健康利益和公共健康利益。AI的醫(yī)療應用一定是本著對人的醫(yī)療權、健康權的更好維護,公共健康利益的更好構建。這種有利是要求AI能增進他人的健康福利,即有利于疾病診斷、醫(yī)療救治、臨床用藥等。應該建立、健全醫(yī)療AI設計規(guī)范,使AI發(fā)揮更大效益,推進醫(yī)療衛(wèi)生事業(yè)發(fā)展,通過倫理審查,對設計者資質、道德認識、風險預測等及時把控。如果說醫(yī)療AI實現(xiàn)了對患者的護理、關懷、陪伴,長此以往對患者生活的介入對患者是一種幸福還是不幸呢?這可能會引起患者心理與情緒的許多變化,禍福相依,因此應在實施應用前進行必要的評估,做出更有利于患者及公共健康的選擇,促進未來局面的持續(xù)向好發(fā)展。醫(yī)療AI是否會帶來公眾就醫(yī)過程和成本的變化,技術的出現(xiàn)本來應該以追求更高效、快捷的服務為目標,但如果醫(yī)療AI增加了就醫(yī)的復雜程度和時間、費用成本,那它也很難得到倫理辯護。

        3.3 不傷害患者利益

        醫(yī)療AI可能帶來的傷害就是技術引發(fā)的對患者健康利益的傷害,諸如手術機器人的誤診,技術帶來的醫(yī)療費用的增長。醫(yī)療AI要符合臨床診療中倡導的傷害最小、費用最少、療效最好。切記不能為了AI而AI,不能把醫(yī)療技術要從人類福祉出發(fā)的目的拋擲腦后。如已經(jīng)有成熟可靠的人工操作,卻要加大患者風險把簡單的手術交給機器人;或者從商家利益出發(fā)進行臨床AI替代療法。發(fā)展AI一定是本著不傷害患者利益,更好地服務于患者的目的。在醫(yī)療AI研發(fā)或應用環(huán)節(jié),涉及數(shù)據(jù)訓練和結果分析時,需進行數(shù)據(jù)授權管理、對醫(yī)療數(shù)據(jù)涉及的關鍵隱私信息進行脫敏和強加密處理[6],以防止技術傷害。建議醫(yī)療AI的研發(fā)應該由國家有關部門主導,聯(lián)合多家醫(yī)療機構共同參與,以確保數(shù)據(jù)的可信、全面,避免重復建設及資源浪費。在設計和算法上要科學求證、謹慎推進,把技術可能帶來的負面影響盡量降到最低。醫(yī)療AI關乎健康、生命,這種系統(tǒng)錯誤的發(fā)生成本太高。因此,醫(yī)療AI設計時應充分考慮應用醫(yī)療AI技術的場景、情境,將可能發(fā)展的風險預先進行評估和防范,并實現(xiàn)制定一系列事故發(fā)生后的應急處置程序。

        3.4 醫(yī)療資源分配公正

        醫(yī)療AI的設計要符合醫(yī)療衛(wèi)生資源公正分配的原則,這是醫(yī)療衛(wèi)生領域的一個重要原則。如果設計者在道德認識中沒有充分認識公正原則,不僅不利于AI在醫(yī)療領域的長遠發(fā)展,還會和公共健康利益發(fā)生沖突。AI會在機器自我學習中造成偏見,隨著算法復雜程度的日益提高,通過機器學習過程形成的決策越來越難以解釋AI內(nèi)部的代碼、算法存在的“黑箱”,導致無法控制和預測算法的結果,而在應用中產(chǎn)生某種不公平傾向[4]。如普林斯頓大學的醫(yī)學人類學家Biehl[7]曾深刻指出,那些被遮蔽的無法獲得病患身份的人口才是最脆弱的,也最值得被照護。但現(xiàn)代性公共衛(wèi)生體制的諷刺之處便在于,幾乎所有疾病的診斷和治療都嚴重依賴于自愿登記的人口。不可見即不存在,在這種情況下,貧困(財力可獲得性)和信息鴻溝(信息可獲得性)等諸多因素始終會將本來就缺醫(yī)少藥的那部分人排除在醫(yī)療AI所描繪的美好藍圖之外[8]。這顯然不符合醫(yī)療資源的公正分配原則。

        當然一種新技術的出現(xiàn)難免帶來這樣那樣的問題,對現(xiàn)有的道德價值規(guī)范體系有一定沖擊,我們也不能因為存在潛在風險而拒絕接受,對醫(yī)療AI要在謹慎中推進,力求在醫(yī)療實踐活動中發(fā)揮其價值和作用而盡量規(guī)避可能帶來的風險、矛盾。當前對AI臨床應用設計涉及的倫理問題更多關注的是弱AI臨床研究與應用帶來的問題,未來隨著AI的發(fā)展,有可能出現(xiàn)的強AI的臨床應用也需要學者積極思考、保持關注,這是學者對社會的責任。

        亚洲av日韩专区在线观看| 91精品蜜桃熟女一区二区| 日韩少妇人妻精品中文字幕| 成 人片 黄 色 大 片| 欧美日韩亚洲国产精品| 国产国语对白一区二区三区| 在线亚洲精品免费视频| 狼友AV在线| 日韩精品免费一区二区中文字幕 | 中文字幕人妻av四季| 精品人妻一区二区三区四区在线 | 日本动漫瀑乳h动漫啪啪免费| 亚洲av永久无码天堂网手机版 | 久久国产亚洲av高清色| 亚洲中文字幕一区二区三区多人| 精品国产日韩一区2区3区| 国产suv精品一区二区四| 大肉大捧一进一出好爽视色大师| 99精品国产兔费观看久久| 免费人成视频网站在线观看不卡| 中文字幕乱码在线婷婷| 人人澡人人妻人人爽人人蜜桃麻豆| 国产亚洲av综合人人澡精品| 成人片在线看无码不卡| 一本色道加勒比精品一区二区 | 精品88久久久久88久久久| 91精品国产福利尤物免费| 中文字幕人妻在线少妇完整版| 永久免费毛片在线播放| 成人看片黄a免费看那个网址| 国产美女裸身网站免费观看视频| 精品人妻一区二区三区狼人 | 亚洲人成网线在线播放va蜜芽| 撕开奶罩揉吮奶头视频| 国产在线无码免费视频2021| 日本精品国产1区2区3区| 91九色人妻精品一区二区三区| 亚洲国产精品日韩av不卡在线| 国内成人精品亚洲日本语音| 亚洲一区二区三区色偷偷| 国产成人亚洲综合无码品善网|