亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能在醫(yī)療領(lǐng)域中應用的挑戰(zhàn)與對策*

        2019-01-17 20:04:33周吉銀曾圣雅
        中國醫(yī)學倫理學 2019年3期
        關(guān)鍵詞:倫理機器人人工智能

        周吉銀,劉 丹,曾圣雅

        (陸軍軍醫(yī)大學第二附屬醫(yī)院國家藥物臨床試驗機構(gòu),重慶 400037,zhoujiyin@gmail.com)

        2020年人工智能市場規(guī)模預計達183億美元。從20世紀70年代的專家系統(tǒng)開始,發(fā)展并不成熟的人工智能產(chǎn)品已應用于人類疾病的診斷和治療。人工智能產(chǎn)品于2011年開始大規(guī)模應用于醫(yī)療領(lǐng)域,其虛擬部分包括信息咨詢、醫(yī)學影像、電子病歷等,其中在醫(yī)療診斷系統(tǒng)中的影像、病理和皮膚病等方面進展很快。最近借助人工智能學習算法,研究出一種基于DNA甲基化的中樞神經(jīng)系統(tǒng)復雜腫瘤分類法[1]。人工智能可優(yōu)化慢性病患者的護理流程,提示能精準治療復雜疾病,減少醫(yī)療差錯,還能提高臨床試驗受試者納入的質(zhì)量[2]。人工智能醫(yī)療系統(tǒng)的實體部分有醫(yī)療機器人、傳送藥物的納米機器人[2-3]。醫(yī)療機器人分為手術(shù)機器人、康復機器人、行為輔助和仿生假肢機器人。市場銷售份額最大的是手術(shù)機器人,占全球醫(yī)療機器人60%以上。達·芬奇手術(shù)機器人的使用是全球機器人手術(shù)系統(tǒng)中最廣泛,外科醫(yī)生可以在穩(wěn)定、高速的互聯(lián)網(wǎng)和屏幕的協(xié)助下,實時了解患者狀況,使用機械臂在遠處完成手術(shù),為實現(xiàn)遠程醫(yī)療奠定了基礎(chǔ)[4]。人工智能在醫(yī)療領(lǐng)域的應用也存在許多倫理問題,社會非常關(guān)注安全問題。本文就人工智能在醫(yī)療領(lǐng)域應用中存在的倫理問題、形成原因和可能的解決對策作一綜述,為人工智能更好更快地應用于醫(yī)療領(lǐng)域提供參考。

        1 倫理問題

        人工智能技術(shù)可提升現(xiàn)有診療效率,如智能影像輔助診斷技術(shù)極大方便醫(yī)生快速判斷患者病情。人工智能的倫理問題主要由算法的自主學習能力所衍生。在隱私安全方面,人工智能技術(shù)的發(fā)展依托云計算、大數(shù)據(jù)技術(shù)的發(fā)展,數(shù)據(jù)挖掘和收集是其主要的動力來源。目前人工智能是否會傷害人類取決于賦予其任務(wù)的人類是否有傷害人類的目的[5]。人工智能在醫(yī)療領(lǐng)域的應用將深刻改變現(xiàn)有醫(yī)療體系,不可避免會沖擊已有的社會和倫理秩序,帶來如下倫理問題:

        1.1 公平受益問題

        人工智能醫(yī)療系統(tǒng)有助于分析基因組學、蛋白質(zhì)組學和新陳代謝組學等的實驗數(shù)據(jù),收集、分析電子病歷等健康數(shù)據(jù)。借助聚類分析可幫助醫(yī)護人員判斷新綜合征,而模式識別技術(shù)能將療法與疾病相匹配。鑒于現(xiàn)有醫(yī)療條件的不平衡分配,僅少部分人能受益于人工智能的先進診療技術(shù),即人工智能醫(yī)療是只適用于相對小眾群體的先進醫(yī)療手段[6]。不能從受眾群體的層面判定人工智能的道德問題,畢竟人工智能的醫(yī)療代價,如帶來的社會問題也應考慮。公平受益存在的壁壘可能間接地拉大醫(yī)療領(lǐng)域的貧富差距。大部分患者可能對人工智能醫(yī)療有抵觸情緒,畢竟自身并未切身感受到高科技醫(yī)療的好處。甚至醫(yī)護人員也會在人工智能輔助下顯得診療日漸“精準”,畢竟人類無法具備人工智能的大數(shù)據(jù)處理能力和精確的醫(yī)學影像識別能力,但也可能導致醫(yī)護人員對人工智能產(chǎn)生依賴性,最終降低自身的診療水平。

        1.2 失業(yè)問題

        人工智能可幫助醫(yī)護人員擺脫以往一些重復性強、高強度或危險的醫(yī)療負擔,這是人工智能發(fā)展的福祉。絕大部分人看好人工智能發(fā)展的經(jīng)濟影響,人工智能會消滅部分舊的體力和腦力勞動崗位,也能創(chuàng)造新的工作崗位。在新舊轉(zhuǎn)換之間,相關(guān)部門必須做好失業(yè)者的職業(yè)再教育工作,以保證就業(yè)穩(wěn)定。人工智能醫(yī)療應用之初的定位是輔助醫(yī)療,可見在解決好此問題后,工作替代的問題也會迎刃而解。

        1.3 患者隱私問題

        發(fā)展人工智能需大量數(shù)據(jù)的積累,利用大量數(shù)據(jù)訓練算法,可提高人工智能解決問題的能力;但這也威脅到個人隱私,成為開發(fā)數(shù)據(jù)資源價值過程中最突出的倫理挑戰(zhàn)。對醫(yī)療健康數(shù)據(jù)的威脅也是人工智能發(fā)展的安全隱患,這些數(shù)據(jù)一旦被泄露,將直接影響個人隱私。人工智能不同于人,人工智能醫(yī)療系統(tǒng)收集的患者信息保存于云端或存儲器,就算人工刪除也能被恢復;人工智能的“保密性”不像人那樣存在情感,任何人均可從中調(diào)取信息,加密措施也無法完全阻止信息的調(diào)取。因此,患者隱私信息有可能被非法竊取,人工智能醫(yī)療系統(tǒng)對患者的隱私問題并沒被周全地考慮。谷歌旗下的DeepMind在2017年5月獲取了英國皇家慈濟英國國家醫(yī)療服務(wù)體系信托基金運營的3家醫(yī)院160萬患者的英國國家醫(yī)療服務(wù)體系數(shù)據(jù),包括艾滋病病毒感染狀況、墮胎信息和過去的吸毒過量等私密數(shù)據(jù)[2]。

        若想得到更精準的個體化醫(yī)療服務(wù),共享醫(yī)療記錄是必要的。設(shè)想的兩種極端情況是:①完全摒棄保護隱私,全部數(shù)據(jù)均用于發(fā)展人工智能;②隱私的絕對保護,不顧數(shù)據(jù)可能會帶來人工智能的進步。兩種極端情況之間取一平衡點是最理想的,但不同數(shù)據(jù)類型的平衡點可能完全不同。如骨折患者可能不會特別介意醫(yī)療數(shù)據(jù)的泄露,更愿意貢獻數(shù)據(jù)來發(fā)展人工智能;但乙肝患者會比較擔憂診斷數(shù)據(jù)的泄露會影響其就業(yè)、擇偶和保險等,更傾向于保密個人信息[5]。

        1.4 醫(yī)療安全問題

        人工智能應用于醫(yī)療領(lǐng)域的安全問題包括信息安全和其自身的醫(yī)療安全。有別于外科醫(yī)生,醫(yī)療機器人特別是手術(shù)機器人是通過機械驅(qū)動的手術(shù)機器,在手術(shù)過程中無思考、無情感投入,也無自我意識。醫(yī)生操作也無法確保機器人的運行無任何差錯。對機械的遠程操控是否會特別精準以及手術(shù)時細菌隔離和控制都是需要考慮的問題,無法保證徹底對金屬機器消毒,也無法確保清除其他有害物質(zhì)的感染[4]。

        1.5 責任劃分問題

        醫(yī)療機器人在減少醫(yī)療成本的同時,也帶來了責任問題。手術(shù)機器人在提高手術(shù)成功率方面表現(xiàn)優(yōu)異,但安全風險一樣存在。如果機器人在手術(shù)中發(fā)生系統(tǒng)故障,將直接危及患者的健康甚至生命安全,此類醫(yī)療事故存在責任認定的困難。人工智能產(chǎn)品也存在誤診、漏診損害患者健康等的責任主體劃分困難問題。一般認為人工智能產(chǎn)品本身不具備承擔責任的能力。若是人工智能產(chǎn)品質(zhì)量問題導致的損失應由設(shè)計制造廠家負責,廠家需嚴格定期培訓、考核醫(yī)務(wù)使用者,頒發(fā)合格培訓、考核證書才能上崗,也要提供定期維護、升級與更新系統(tǒng);醫(yī)務(wù)使用者也應詳細告知患者使用人工智能產(chǎn)品潛在的風險,盡最大可能追究問題的責任者。

        1.6 監(jiān)管問題

        人工智能應用于醫(yī)療領(lǐng)域的發(fā)展需有效的監(jiān)管機制,包括政府、技術(shù)和公眾對其的監(jiān)管。目前世界上尚無國家擁有完整的監(jiān)管體系對人工智能技術(shù)的發(fā)展進行有效管理。若不加強監(jiān)督和管理,人工智能將會嚴重影響人類的人身、財產(chǎn)安全,并破壞倫理道德。2016年9月Facebook、谷歌和亞馬遜專門成立了一個監(jiān)督人工智能研發(fā)的聯(lián)盟,旨在探索人工智能安全隱私問題的解決辦法。這些都需技術(shù)專家和企業(yè)揭開人工智能技術(shù)的面紗,否則其帶來的恐懼感不會有明顯下降。

        2 形成原因

        因為醫(yī)療行為的受眾是所有人,每個人都是潛在的患者,而醫(yī)療行為又直接關(guān)乎生老病死這些人生最本質(zhì)的問題。鑒于醫(yī)療領(lǐng)域這些特殊性,人工智能應用于醫(yī)療系統(tǒng)帶來的倫理問題既有人工智能的常規(guī)問題,也有與醫(yī)療相關(guān)的特殊倫理問題,原因可能有以下幾方面:

        2.1 未遵守基本倫理原則

        在2017年美國加州的“阿西洛馬會議”上,將倫理學觀點滲透在“阿西洛馬人工智能原則”,規(guī)定研究人工智能的目的在于創(chuàng)造服務(wù)于人、并為人所控,成為人工智能技術(shù)發(fā)展與人類之間的基本倫理保障,要求體現(xiàn)在研發(fā)人員的倫理意識中,并要求在研發(fā)過程中被遵守。人工智能代替人類作決策或開展行動時,需遵循人類社會的規(guī)則,符合法律和倫理的要求;否則,人工智能在醫(yī)療領(lǐng)域的應用和推廣有可能會面臨社會的民意挑戰(zhàn)和輿論壓力。

        2.2 技術(shù)缺陷

        人工智能醫(yī)療主要是基于醫(yī)療大數(shù)據(jù)的驅(qū)動,通過機器學習,分析患者的病歷和案例,給出診療方案。技術(shù)不成熟可能導致人工智能系統(tǒng)運行異常,加之算法決策的“黑盒子”特征引發(fā)的解釋性困難和不透明性,使得算法決策的責任主體歸屬變得困難,埋下了安全隱患;人工智能醫(yī)療帶來的安全問題很大程度上是因為當前人工智能的復雜性和不確定性,導致難以很好地預測和審查人工智能的運行及其原理。醫(yī)療領(lǐng)域不能放任此類模型處在黑盒子狀態(tài),即輸入某些東西會得到某些結(jié)果,但不知道如何得到那些結(jié)果[7]。在此過程中,無法知道人工智能是怎樣操作和選擇的,這涉及審查監(jiān)管的問題。

        2.3 立法和監(jiān)管缺失

        對于人工智能的發(fā)展,無論政府的監(jiān)管還是消費者的使用都應擔負起相應的責任。由于世界各國暫無針對人工智能技術(shù)的專門法律規(guī)范,立法的空缺致使人工智能發(fā)展受限,也危及人類安全和公共利益。有關(guān)人工智能倫理問題的規(guī)定與原則均有待加強,規(guī)定的更新和制定速度需符合當前技術(shù)發(fā)展的需要,也正因這方面的不足帶來人工智能日益增多的倫理問題。

        2.4 數(shù)據(jù)質(zhì)量欠佳

        人工智能醫(yī)療系統(tǒng)學習所用到的訓練數(shù)據(jù)是訓練模型的教材,數(shù)據(jù)的質(zhì)量決定了學習成果,目前存在的技術(shù)挑戰(zhàn)包括數(shù)據(jù)集的復雜性和異質(zhì)性,醫(yī)療數(shù)據(jù)的嘈雜和向用戶解釋輸出結(jié)果[4]。人工智能醫(yī)療往往利用醫(yī)療教材和醫(yī)療案例來學習,如何獲取高質(zhì)量的醫(yī)療教材和案例是人工智能醫(yī)療面臨的難題。訓練人工智能的數(shù)據(jù)可能并不能真實地反映客觀的實際情況,有可能受一些對抗樣本的干擾或污染而作出一些錯誤決策。當采集的數(shù)據(jù)存在偏差時,用這種數(shù)據(jù)所訓練的人工智能系統(tǒng)也會存在相應偏差,其產(chǎn)生的模型或者結(jié)果勢必會復制并放大這種偏差。在這種情況下,人工智能系統(tǒng)所作出的決策將會產(chǎn)生差別效應,且遠大于人為偏差[8]。

        2.5 隱含算法偏見

        與人類決策相比,基于人工智能所作的決策可極大減少重要決策中的偏見。但也應注意到,人的偏見是個體化的、局部性的,而人工智能算法的偏見則是系統(tǒng)的,一旦形成將會產(chǎn)生廣泛影響。人工智能醫(yī)療系統(tǒng)基于算法模型和數(shù)據(jù)學習人類的行為數(shù)據(jù),進而作出分析和預測。訓練人工智能的數(shù)據(jù)中也可能潛藏著不易被察覺的價值偏好或風俗習慣。在特定群體中存在的種族歧視或性別歧視,最終都有可能被反映到數(shù)據(jù)中,從而被人工智能學習所繼承。這種歧視往往很難通過技術(shù)手段消除,從源頭上甄別哪些數(shù)據(jù)帶有歧視性是極其困難的。為了解決某個問題或任務(wù),不同的算法工程師會設(shè)計出不同的算法,在細節(jié)上滲透著設(shè)計者的主觀特質(zhì)[8]。如果在算法設(shè)計中暗藏某種歧視,可能要比潛藏于數(shù)據(jù)中的歧視更不利于社會公正。

        2.6 數(shù)據(jù)隱私

        醫(yī)療數(shù)據(jù)是典型的高價值數(shù)據(jù),因此較一般的數(shù)據(jù)更容易形成壟斷。而醫(yī)療服務(wù)又是人們所必需的,容易產(chǎn)生某一疾病診斷領(lǐng)域的“數(shù)據(jù)寡頭”,這無疑會對市場的公平性形成挑戰(zhàn)[5]。

        2.7 公眾素養(yǎng)不足

        一些就診患者不信任導醫(yī)機器人,只選擇向醫(yī)務(wù)人員咨詢就醫(yī)信息,說明社會要完全接受新技術(shù)尚需時日[9]。由于公眾對人工智能技術(shù)的了解不夠深入,缺乏足夠認識,容易形成誤解和負面印象。如在聽到關(guān)于人工智能技術(shù)負面事件后,易造成公眾恐慌的現(xiàn)象,從而排斥人工智能技術(shù)。增強公眾的倫理觀念對于緩解人工智能技術(shù)帶來的輿論壓力和倫理問題非常有必要。部分醫(yī)生對人工智能持觀望態(tài)度,人工智能技術(shù)尚未完全取得醫(yī)療界信任,畢竟人工智能輔助的準確率尚未達到100%[9]。

        3 解決對策

        2018年4月17日英國上議院的報告提出,應確立一個適用于不同領(lǐng)域的“人工智能準則”,其中主要包括5個方面:①人工智能應為人類共同利益服務(wù);②人工智能應遵循可理解性和公平性原則;③人工智能不應用于削弱個人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私;④所有公眾都應有權(quán)利接受相關(guān)教育,以便能在精神、情感和經(jīng)濟上適應人工智能發(fā)展;⑤人工智能絕不應被賦予任何傷害、毀滅或欺騙人類的自主能力。發(fā)展人工智能并非沒有風險,上述準則將有助于減少這些風險,在道德約束下發(fā)展人工智能能讓公眾信任這項技術(shù),了解它帶來的好處,同時準備好質(zhì)疑對它的濫用。針對人工智能醫(yī)療系統(tǒng)存在的上述倫理問題,可嘗試從以下幾方面采取措施加以解決:

        3.1 明確人類優(yōu)先

        2016年12月,電氣和電子工程師協(xié)會發(fā)布《以倫理為基準的設(shè)計指南》,鼓勵科研人員將倫理問題置于人工智能設(shè)計和研發(fā)的優(yōu)先位置,強調(diào)人工智能應當符合人類價值觀,服務(wù)于人類社會[10]。2018年4月英國上議院也明確提出人工智能必須遵守“為人類利益服務(wù),絕不傷害人類”的原則。

        3.2 故障透明且可追溯

        人工智能作為一項新技術(shù),其系統(tǒng)運行的穩(wěn)定和安全直接關(guān)系醫(yī)療應用領(lǐng)域的安全。如果人工智能系統(tǒng)出現(xiàn)了故障或者遭到損害,造成損害的原因是可以被查明的,應該由人類監(jiān)管機構(gòu)來審核人工智能系統(tǒng)的安全性和故障,即人類參與司法決策,要求故障透明和司法透明。這樣有利于增加公眾對人工智能技術(shù)的信任,如果發(fā)生事故,故障透明原則有助于事故調(diào)查人員查明事故原因。聯(lián)合國關(guān)于機器人倫理的報告認為,在對機器人及機器人技術(shù)的倫理與法律監(jiān)管中,一個至關(guān)重要的要素是可追溯性,可追溯性的確立才能讓機器人的行為及決策全程處于監(jiān)管之下。它讓人類的監(jiān)管機構(gòu)不僅能夠理解智能機器人的思考決策過程和作出必要的修正,且能在特定的調(diào)查和法律行動中發(fā)揮它本來應有的作用。只有保證人類能夠全面追蹤機器人思考及決策的過程,才有可能在監(jiān)管機器人的過程中占據(jù)主動權(quán)或者事后進行全面的追蹤調(diào)查[11]。

        3.3 選擇代表性樣本和研究者以規(guī)避偏見

        為防止訓練人工智能數(shù)據(jù)中潛藏的價值偏好或風俗習慣,應盡可能采用不同國家不同區(qū)域代表性醫(yī)院的數(shù)據(jù),更大的代表性樣本量有助于降低潛藏的價值偏好或風俗習慣被人工智能學習所繼承。人工智能研究者應當是不同性別的,不同種族的,人工智能學術(shù)界不應當存在對于研究人員的任何歧視。

        3.4 全過程監(jiān)管

        要通過立法形式明確人工智能醫(yī)療系統(tǒng)的生產(chǎn)、銷售、使用和售后服務(wù)的規(guī)范??茖W管理人工智能醫(yī)療產(chǎn)品可解決很多無法追責的問題。為每個人工智能產(chǎn)品配置唯一身份標識號碼,一是可通過設(shè)置該身份標識號碼來查找產(chǎn)品的責任人(產(chǎn)品設(shè)計者、制造商、檢測員等),甚至附上產(chǎn)品設(shè)計者、成品檢測員的信息,這不僅有助于保證每個產(chǎn)品的質(zhì)量,一旦出現(xiàn)問題也可方便查找問題及其責任者;二是可防止山寨產(chǎn)品。還須配一份詳細的使用說明書,包括注意事項、產(chǎn)品操作手冊等。使用人工智能產(chǎn)品的醫(yī)療機構(gòu)要定期維護、升級與更新系統(tǒng),進一步減少誤診和漏診發(fā)生率等。用于訓練人工智能的醫(yī)療數(shù)據(jù)和資料應通過所在醫(yī)療機構(gòu)倫理委員會的審查批準。在人工智能醫(yī)療實施進程中,必須制定一系列的安全標準,就護理方案、供應商以及數(shù)據(jù)中心如何以電子郵件的形式來訪問、傳送和存儲受保護的患者信息作出詳細規(guī)定[3]。

        3.5 規(guī)范以明確道德倫理邊界

        應將科學研究與倫理制度科學研究相結(jié)合,制定人工智能技術(shù)開發(fā)、研究、應用的完整倫理規(guī)范。人工智能技術(shù)領(lǐng)域的科學家與哲學家、倫理學家、法學家的交流學習,使人工智能技術(shù)融入更多的交叉學科思想,從而使人工智能技術(shù)更加的人性化、生態(tài)化、和諧化,這將有助于緩解甚至解決人工智能技術(shù)的某些倫理問題[12]。

        3.6 立法以健全監(jiān)督管理體系

        眾多人工智能倫理問題超出了現(xiàn)有法律的制約范圍,要加強立法研究,完善人工智能的權(quán)利、義務(wù)、責任相關(guān)的法律。將法律融入人工智能研究、開發(fā)和應用的全過程,使得人工智能技術(shù)在法律的規(guī)范下發(fā)展。同時,相關(guān)部門應制定一套包含相關(guān)機構(gòu)、技術(shù)和公眾監(jiān)督的完整監(jiān)管體系,并對其進行科學有效的監(jiān)管,嚴懲發(fā)展過程中的不法行為。著眼于人工智能的運行和應用層面,要研發(fā)類似于電子警察的人工智能系統(tǒng),即用人工智能監(jiān)管人工智能,防止人工智能技術(shù)被非法利用或偏離正常運行[13]。

        3.7 限制壟斷數(shù)據(jù)

        2018年4月英國上議院的報告建議對大公司的壟斷數(shù)據(jù)加以限制,希望人工智能決策透明,呼吁政策立法以規(guī)范人工智能發(fā)展。個人應對自己的數(shù)據(jù)及其如何被使用擁有更大的控制權(quán),有必要改變數(shù)據(jù)的收集和獲取方式,以更好地保護公眾隱私。當前主導人工智能醫(yī)療發(fā)展的大部分是業(yè)務(wù)跨度極大的高技術(shù)公司,這些公司無一例外的都不是專門的人工智能醫(yī)療公司,能在人工智能醫(yī)療發(fā)展中搶占先機源于其掌握著大量用戶數(shù)據(jù)[5]。

        3.8 加強教育,提升公眾認知水平

        針對人工智能技術(shù)發(fā)展的倫理問題在公眾中所引起的恐慌,政府、科研機構(gòu)、學校等相關(guān)部門應形成教育合力,可利用媒體宣傳或現(xiàn)場講授方式,普及人工智能技術(shù)相關(guān)的基本知識和相關(guān)內(nèi)容,提高公眾對于人工智能技術(shù)的認知水平。要引導公眾朝著合理健康的方向認識人工智能,提高公眾的理性判斷能力,避免公眾過多地受到人工智能“威脅論”的影響,從而推動人工智能技術(shù)健康發(fā)展[14]。

        3.9 全球治理,共同應對挑戰(zhàn)

        人工智能高速發(fā)展中的倫理問題是世界各國所共同面臨的,要建立人工智能技術(shù)發(fā)展統(tǒng)一標準,使得世界各國關(guān)于人工智能技術(shù)的研究朝著合理化方向邁進,推動人工智能技術(shù)不斷造福人類[15]。2017年1月,來自全球的人工智能領(lǐng)域?qū)<以贐eneficial AI會議上聯(lián)合簽署了“阿西洛馬人工智能原則”,明確了安全性、利益共享等23條原則,并呼吁人工智能領(lǐng)域的工作者遵守這些原則,共同保障人類未來的利益和安全[16]。不同于西方國家具備的技術(shù)支撐和研發(fā)環(huán)境,我國人工智能設(shè)計領(lǐng)域偏于商業(yè)驅(qū)動,這是因為醫(yī)療行業(yè)標準滯后甚至缺失。解決人工智能產(chǎn)品設(shè)計的倫理問題僅依賴于產(chǎn)品設(shè)計者的倫理自覺性。

        4 小結(jié)

        盡管人工智能醫(yī)療系統(tǒng)的快速發(fā)展引發(fā)了公平受益、失業(yè)、患者隱私、醫(yī)療安全、責任劃分和監(jiān)管等倫理問題,但對于這項正在快速發(fā)展中的新技術(shù)所帶來的倫理問題不必過度擔心或恐慌。針對其形成的原因采取相應解決對策,在確保醫(yī)療領(lǐng)域應用人工智能以“為人類利益服務(wù),絕不傷害人類”為原則,在減輕醫(yī)護人員重復勞動以提升效率,減少誤診、漏診的前提下,切實提升醫(yī)療服務(wù)質(zhì)量??梢?,清醒的認識人工智能技術(shù)的倫理問題并施以相應的對策,對人工智能技術(shù)更好地為人類造福具有非常重要的實踐意義。

        猜你喜歡
        倫理機器人人工智能
        《心之死》的趣味與倫理焦慮
        護生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        機器人來幫你
        認識機器人
        機器人來啦
        認識機器人
        按摩师玩弄少妇到高潮hd| 国产成人精品电影在线观看| 欧美老妇与禽交| 岛国视频在线无码| 日韩精品一区二区三区av| 婷婷久久国产综合精品| 水蜜桃精品一二三| 在线播放国产女同闺蜜| 麻豆激情视频在线观看| 国产欧美综合一区二区三区| 欧美日韩色另类综合| 国产精品久久久久久久久免费观看 | 十四以下岁毛片带血a级| 九月婷婷人人澡人人添人人爽| 国产人成无码中文字幕| 亚洲精品日本久久久中文字幕| 极品少妇人妻一区二区三区| 高潮抽搐潮喷毛片在线播放| 欧美饥渴熟妇高潮喷水水| 国产精品大屁股1区二区三区| 日韩极品视频在线观看| 草逼视频污的网站免费| 在线看无码的免费网站| 亚洲欧美国产双大乳头| 亚洲精品高清av在线播放| 国产一区二区在线免费视频观看 | 日本午夜精品一区二区三区| 国产激情无码一区二区三区| 国产成人综合久久精品推| 久久麻豆精亚洲av品国产蜜臀| 精彩视频在线观看一区二区三区| 欧洲熟妇色xxxx欧美老妇性 | 亚洲h视频| 亚洲在线视频一区二区| 日韩a级精品一区二区| 国产99久久精品一区二区| 91中文人妻丝袜乱一区三区| 成人在线观看av毛片| 最近免费mv在线观看动漫| 思思久久96热在精品不卡| 国产亚洲精品一区二区在线观看|