亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        醫(yī)療領(lǐng)域的人工智能:法律問題與規(guī)管挑戰(zhàn)

        2020-01-19 04:54:27丁春艷
        中國醫(yī)學倫理學 2020年7期
        關(guān)鍵詞:人工智能法律信息

        丁春艷

        (香港城市大學法律學院,香港, chunding@cityu.edu.hk)

        近十年以來,人工智能(artificial intelligence)隨著算法、算力和大數(shù)據(jù)的發(fā)展而勢不可擋。各國相繼出臺了人工智能的國家戰(zhàn)略布局,凸顯人工智能在醫(yī)療、教育、交通、通信、環(huán)境等諸多方面的重要性和巨大的應(yīng)用潛力[1]。 國務(wù)院于2017年公布的《新一代人工智能發(fā)展規(guī)劃》即對我國人工智能的發(fā)展作了系統(tǒng)的部署[2]。 在醫(yī)療領(lǐng)域,人工智能主要被應(yīng)用于藥物研發(fā)[3]、 醫(yī)學影像[4]、 輔助診療[5-6]、 健康管理[7]以及疾病預(yù)測[8]等幾個方面。人工智能醫(yī)療,不僅能夠減緩醫(yī)療人才的緊缺,提高醫(yī)療服務(wù)的質(zhì)量與效率,而且還能在疾病預(yù)防層面發(fā)揮重要的作用[9]。正因其巨大的市場潛力和社會效能,近年來,包括IBM、Google、百度、阿里、騰訊在內(nèi)的國內(nèi)外各大科技企業(yè)紛紛加入研發(fā)人工智能醫(yī)療的行列,而市場上也涌現(xiàn)專門從事人工智能醫(yī)療研發(fā)和服務(wù)的科創(chuàng)公司[10]。

        與此同時,人工智能醫(yī)療的興起和發(fā)展引發(fā)了人工智能法律地位、產(chǎn)品責任、數(shù)據(jù)安全和隱私保護、知識產(chǎn)權(quán)保護等一系列的法律問題,并在規(guī)范和管理層面帶來全新的挑戰(zhàn)。面對這些問題和挑戰(zhàn),法律的應(yīng)對是相對滯后的,目前仍處于摸索和發(fā)展的階段。總體而言,有待厘清的法律問題包括:人工智能醫(yī)療引發(fā)的新法律問題是什么?傳統(tǒng)的法律規(guī)范在多大程度上可以解決這些問題?對傳統(tǒng)法律不足以解決的部分,法律應(yīng)當如何應(yīng)對?在我國,學界對人工智能醫(yī)療之法律問題的關(guān)注興于2018年,當前的討論尚未在現(xiàn)行法律框架下作全面且細致的探討。本文在闡釋人工智能特征和局限性的基礎(chǔ)上,就產(chǎn)品責任、數(shù)據(jù)安全和隱私保護、知識產(chǎn)權(quán)保護三個方面,結(jié)合現(xiàn)行法并參考域外法,來全面探討人工智能醫(yī)療帶來的法律問題與規(guī)管挑戰(zhàn)。

        1 人工智能的特征和局限性

        人工智能是指模仿人類智能執(zhí)行特定任務(wù)的系統(tǒng)或機器,其包括四大技術(shù)分支:模式識別、機器學習、數(shù)據(jù)挖掘、智能算法。理論上,按照人工智能的發(fā)展階段,可分為弱人工智能和強人工智能。通常認為,擅長單個方面的弱人工智能(例如,AlphaGo下圍棋),目前已經(jīng)實現(xiàn)。但是否能夠?qū)崿F(xiàn)能與人類比肩的真正具備推理和解決問題能力、具有知覺與自我意識的強人工智能,無論是在哲學爭論上還是技術(shù)發(fā)展上,都未有定數(shù)[11]。 當前的人工智能技術(shù)在模仿人類的感知能力(看、聽、讀、寫、說)、認知能力(分析辨識能力、預(yù)測能力、判斷能力、學習能力)方面已經(jīng)取得了重大突破和發(fā)展,但是在創(chuàng)造力和智慧(自我意識、自我認知、價值觀)方面仍然難以企及人類。而在醫(yī)療領(lǐng)域,借助其所達到的感知能力和認知能力,人工智能主要被應(yīng)用于藥物研發(fā)、醫(yī)學影像、輔助診療、健康管理以及疾病預(yù)測等幾個方面。

        需要注意的是,人工智能應(yīng)用在三個方面存在局限性。首先,人工智能技術(shù)并非中立。該技術(shù)的設(shè)計和生成離不開人的參與,而如何選擇用以訓練機器學習的數(shù)據(jù)也取決于設(shè)計者。由于數(shù)據(jù)選擇偏見、設(shè)計偏見的存在,算法本身也會帶有偏見,從而可能產(chǎn)生偏頗、不公平甚至帶有歧視性的決定或結(jié)果[9];其次,人工智能技術(shù)也并非絕對準確。人工智能的決策往往基于歸納的知識、強關(guān)聯(lián)性(而非因果性)、統(tǒng)計的蓋然性,其預(yù)測的結(jié)果并不一定完全符合真實情況。如果技術(shù)設(shè)計者欠缺對真實世界的全面充分了解或者訓練機器學習時存在數(shù)據(jù)選擇偏見,也可能導致算法得出片面、不準確的結(jié)果[9];最后,人類無法理解或解釋深度學習算法在分類時考慮了何種因素、如何且為何作出特定結(jié)論,而且隨著數(shù)據(jù)的增加,算法會發(fā)生自我改變并優(yōu)化之后的預(yù)測,即所謂的“黑盒(black box)”問題和“欠缺透明性(opacity)”問題。因此,深度學習算法在應(yīng)用中具有不可預(yù)測性和潛在的危險性[12]。

        鑒于人工智能應(yīng)用于上述三方面的局限性,在倫理、法律以及科技政策角度值得作相應(yīng)的思考。第一,如何能夠減少人工智能技術(shù)或其結(jié)果所包含的偏見,以及由此造成的技術(shù)鴻溝(technology divide)?第二,如果人工智能在應(yīng)用中產(chǎn)生了錯誤的判定或結(jié)果而導致人身傷害或財產(chǎn)損失,應(yīng)當如何分配風險和責任?第三,當人類對深度學習算法的運行和如何得出結(jié)果無法解釋、無法掌控時,人類是否應(yīng)當對其承擔責任?第一個問題有賴于科技倫理和政策方面的探討和思索,而后兩個問題則有賴于法律予以處理和解決。如果轉(zhuǎn)換成法律語言,即人工智能在應(yīng)用中所造成的人身及財產(chǎn)損害,誰是法律上的責任主體,應(yīng)當如何確定法律責任?

        2 人工智能醫(yī)療的產(chǎn)品責任

        人工智能被應(yīng)用于醫(yī)學影像方面,可以協(xié)助放射科醫(yī)生篩選正常影像、分析影像。在輔助診療方面,人工智能可以讀取、分析電子病歷中的文本信息,學習病例中的診斷邏輯,生成預(yù)測診斷,為醫(yī)生對復雜或罕見疾病進行診斷時提供參考;而手術(shù)機器人可協(xié)助醫(yī)生以提高手術(shù)精確性。人工智能被用作健康管理,能夠?qū)崟r動態(tài)地監(jiān)測健康數(shù)據(jù),特別是為慢性病患者、老年患者提供常規(guī)化的健康監(jiān)測、指導和管理。此外,其被用于疾病預(yù)測,預(yù)測特定人群在特定時間窗口患某種疾病的風險概率。當人工智能技術(shù)在上述方面的應(yīng)用中發(fā)生決策或預(yù)測錯誤并因此導致患者遭受人身傷害時,則需要考慮法律責任主體、如何確定法律責任、如何進行法律規(guī)管的問題。

        2.1 人工智能是否具有法律主體地位

        弱人工智能中的深度學習算法具有推理和決策的不透明性,其開發(fā)者也難以理解或解釋算法是如何、為何得出特定的結(jié)論。強人工智能被期待達到與人類比肩的推理和解決問題能力、知覺與自我意識。由此引發(fā)人工智能能否具有法律主體地位的思考和爭論,形成肯定說、否定說和中間說的觀點[13-14]。

        現(xiàn)行法下,根據(jù)《中華人民共和國民法總則》(1)《中華人民共和國民法總則》于2017年3月15日頒布,2017年10月1日實施。的相關(guān)規(guī)定,民法上的法律主體包括自然人和法人,兩者具有民事權(quán)利能力(capacity for right),依法享有民事權(quán)利,承擔民事義務(wù)。 自然人系法律主體而非客體,是基于人本主義的倫理基礎(chǔ),出于對人之為人的尊重。無民事行為能力(capacity to act)或限制行為能力人的自然人(例如嬰幼兒、兒童、精神病患者),雖然其行為能力須由其法定代理人予以補足,但是其均具有獨立的法律人格,得以享受民事權(quán)利、承擔民事義務(wù)。而活體出生的胎兒,因為具備了有限且發(fā)展中的倫理地位(moral status),在法律上亦被擬制為具有“有限”民事權(quán)利能力的法律人格(限于遺產(chǎn)繼承、接受贈予等與胎兒利益保護相關(guān)的法律關(guān)系)。 此外,基于社會與經(jīng)濟活動的實踐需要,民法將法人擬制為法律主體,使之具有獨立于設(shè)立者或成員的法律人格、財產(chǎn),獨立地享受民事權(quán)利、承擔民事義務(wù)和責任。法人的意思能力和行為能力需借由代表法人的自然人或機構(gòu),或者通過代理人來實現(xiàn)。

        可見,現(xiàn)行法并沒有確立人工智能的法律主體地位。通常認為,沒有自我意識的、僅擅長單個方面的弱人工智能并不具有法律人格。它們只是人類借以實現(xiàn)特定目的或需求的手段或工具,在法律上處于客體的地位。即使人類目前很難理解或解釋深度學習算法如何且為何作出特定的決定,但這并不足以構(gòu)成賦予人工智能以法律人格的理由,因為深度學習算法的設(shè)計、生成、訓練機器學習等各個環(huán)節(jié)都離不開人類的決策與參與。而設(shè)計者是否要對其無法完全控制的深度學習算法之決定及該決定引發(fā)的后果承擔責任,并非涉及法律主體的問題,而是關(guān)系到歸責原則的問題。目前,域外就這個問題的討論所達成的基本共識是,賦予人工智能以法律主體地位是不必要的、不實際的、不符合倫理且有可能被濫用[9]。

        如果人類將來研發(fā)出具備推理和解決問題能力、具有知覺與自我意識的強人工智能,其是否成為法律主體,則是值得思考的問題。民事法律主體的核心要素是“權(quán)利能力”,而非“行為能力”。法律若要賦予強人工智能以法律主體地位(即賦予能獨立享受法律權(quán)利的資格),首先須確認其倫理地位或者證明實踐必要性。由于當前仍無法得知強人工智能究竟能夠在創(chuàng)造力與智慧(自我意識、自我認知、價值觀)方面達到何種程度,因此就人工智能能否具有“人性”,在倫理上成為“目的(end)”,而不是服務(wù)于其他目的的“手段(means)”等問題,目前基本停留在假設(shè)或猜想的階段而無法得出確定的答案。但與此同時,鑒于人工智能科技的發(fā)展?jié)摿?,人類是否?yīng)當賦予將來可能產(chǎn)生的、具有“人性”的強人工智能以倫理地位和法律人格,且在多大程度上承認其法律主體地位,作為一個開放性的問題,可被持續(xù)關(guān)注與探討。

        2.2 產(chǎn)品責任的確定

        當人工智能醫(yī)療用于疾病預(yù)測和輔助診療時,其相當于發(fā)揮著類似醫(yī)療器械或設(shè)備協(xié)助醫(yī)生診療的作用,而人工智能技術(shù)開發(fā)者和醫(yī)療機構(gòu)成為可能的責任主體。當人工智能醫(yī)療用于患者日常的健康管理和疾病預(yù)測時,其相當于發(fā)揮著醫(yī)療產(chǎn)品供消費者使用的作用,而該人工智能醫(yī)療產(chǎn)品的生產(chǎn)者和銷售者則是可能的責任主體。針對應(yīng)用于輔助診療、健康管理以及疾病預(yù)測的人工智能醫(yī)療所造成的人身傷害以及民事責任,現(xiàn)行法并沒有特別的規(guī)定;但根據(jù)人工智能醫(yī)療具體的作用和性質(zhì),其可被視為“醫(yī)療器械或設(shè)備”或“醫(yī)療產(chǎn)品”,因此得以適用現(xiàn)有的相關(guān)法律規(guī)則。

        具體而言,根據(jù)《中華人民共和國侵權(quán)責任法》(2)《中華人民共和國侵權(quán)責任法》于2009年12月26日頒布,2010年7月1日實施。第五十九條的規(guī)定,因藥品、消毒產(chǎn)品、醫(yī)療器械的缺陷,或者輸入不合格的血液造成患者損害的,患者可以向藥品上市許可持有人、生產(chǎn)者、血液提供機構(gòu)請求賠償,也可以向醫(yī)療機構(gòu)請求賠償。患者向醫(yī)療機構(gòu)請求賠償?shù)?,醫(yī)療機構(gòu)賠償后,有權(quán)向負有責任的藥品上市許可持有人、生產(chǎn)者、血液提供機構(gòu)追償。另根據(jù)《中華人民共和國產(chǎn)品質(zhì)量法》(3)《中華人民共和國產(chǎn)品質(zhì)量法》于1993年2月22日頒布,1993年9月1日實施。2000年、2009年、2018年修正。第四十一條,生產(chǎn)者對因產(chǎn)品存在缺陷造成的人身傷害、缺陷產(chǎn)品以外的其他財產(chǎn)損失,承擔賠償責任;除非其可證明尚未將產(chǎn)品投入流通,或產(chǎn)品投入流通時引起損害的缺陷尚未存在,或?qū)a(chǎn)品投入流通時的科學技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在。盡管銷售者基于過錯原則承擔產(chǎn)品責任,但是《產(chǎn)品質(zhì)量法》第四十三條允許受害人任意選擇生產(chǎn)者或銷售者請求賠償,客觀上使得產(chǎn)品的生產(chǎn)者和銷售者承擔連帶責任。

        基于上述法律規(guī)則,當人工智能醫(yī)療應(yīng)用于疾病預(yù)測和輔助診療時,作為生產(chǎn)者的人工智能技術(shù)開發(fā)者和作為醫(yī)療服務(wù)提供者的醫(yī)療機構(gòu)應(yīng)對作為受害人的患者承擔以嚴格責任為基礎(chǔ)的產(chǎn)品責任,患者可以選擇向生產(chǎn)者或醫(yī)療機構(gòu)請求賠償,而醫(yī)療機構(gòu)賠償受害人后,可對生產(chǎn)者行使追償權(quán)。當人工智能醫(yī)療用于患者日常的健康管理和疾病預(yù)測時,作為生產(chǎn)者的人工智能技術(shù)開發(fā)者以及銷售該人工智能醫(yī)療產(chǎn)品的銷售者對受害人的損失基于嚴格責任對產(chǎn)品瑕疵承擔連帶責任。

        現(xiàn)行法要求受害人證明人工智能醫(yī)療設(shè)備或產(chǎn)品的瑕疵和其損害與該瑕疵有因果關(guān)系,需要思考的是,受害人是否具備相應(yīng)的舉證能力。鑒于人工智能醫(yī)療技術(shù)的復雜性、其行業(yè)標準尚未建立,對受害人而言要證明產(chǎn)品瑕疵并非易事。為減輕受害人的舉證責任,法律可以考慮就產(chǎn)品瑕疵問題采用舉證責任倒置,或者采用無過錯(no fault)制度,只要受害人能證明其損害因人工智能醫(yī)療的錯誤決定造成即可獲得賠償。

        此外,人工智能醫(yī)療被用于疾病預(yù)測和輔助診療時,導致患者人身傷害的直接原因是醫(yī)生的診斷。當人工智能醫(yī)療提供了錯誤的決定時,醫(yī)生是否作出合理的專業(yè)判斷以甄別或排除該項錯誤?如果醫(yī)生亦存在過失,那么在多大程度上誤診所造成的人身傷害是出于人工智能醫(yī)療所作出的錯誤決定?這分別涉及相當復雜的醫(yī)療過失判定和因果關(guān)系判定的法律問題。盡管現(xiàn)行法要求生產(chǎn)者與醫(yī)療機構(gòu)對患者承擔連帶責任,但是就生產(chǎn)者與醫(yī)療機構(gòu)之間的責任分配,以及各自承保人所應(yīng)負擔的損失賠償數(shù)額等問題,在實踐中極有可能產(chǎn)生爭議。由于對此很難有劃一的答案,只能留給法官在個案中作具體的判定。

        另一個問題是,如果人工智能醫(yī)療運用了深度學習算法作出特定的醫(yī)療判定或決定,其開發(fā)者、銷售者及醫(yī)療機構(gòu)能否主張《產(chǎn)品責任法》第四十一條所規(guī)定的免責事由呢?這就涉及人類對深度學習算法之決定的不可控性是否構(gòu)成“產(chǎn)品缺陷”,如果是,該缺陷是否屬于“產(chǎn)品投入流通時引起損害的缺陷尚未存在”或“將產(chǎn)品投入流通時的科學技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在”。在某種意義上,人類無法理解或解釋深度學習算法如何且為何作出特定的決定,從而無法預(yù)防、降低或消除人工智能可能做出錯誤決定的風險,可以被視為法律上的“產(chǎn)品缺陷”。然而此種缺陷的存在,在產(chǎn)品投入流通時已為設(shè)計者所知曉,因此生產(chǎn)者很難成功主張產(chǎn)品責任的免責事由。

        值得進一步追問的是,現(xiàn)行法要求人工智能醫(yī)療的開發(fā)者、銷售者及醫(yī)療機構(gòu)基于嚴格責任來承擔產(chǎn)品責任,是否會產(chǎn)生阻礙人工智能醫(yī)療研發(fā)和使用的不利后果呢?法律之所以就產(chǎn)品責任適用嚴格責任,其中一個重要原因是,相對于因產(chǎn)品缺陷受害的患者或消費者,生產(chǎn)者處于更佳的地位去發(fā)現(xiàn)、減少甚至避免產(chǎn)品缺陷,從而提高產(chǎn)品的安全性和效用。當深度學習算法之推理和決策的不透明性可能已經(jīng)造成信任危機時[15],如果再讓受害人面對法律風險去承擔產(chǎn)品缺陷所導致的損失,既不合理、又會導致患者喪失信任從而拒絕使用人工智能醫(yī)療的后果。確立嚴格責任的另一個重要原因在于,生產(chǎn)者可以將法律風險作為產(chǎn)品的成本轉(zhuǎn)嫁到全體消費者,從而起到分散損失的效果。實踐中,生產(chǎn)者往往通過購買產(chǎn)品責任保險來實現(xiàn)這一目的。同理,為轉(zhuǎn)嫁風險、分散損失,人工智能醫(yī)療的開發(fā)者也需要借助保險制度或設(shè)立特定的賠償基金來應(yīng)對潛在的產(chǎn)品責任法律風險。與此同時,這也能增強產(chǎn)品使用者和消費者的信心和購買意愿,便利法律糾紛的解決和救濟的實現(xiàn),增強人工智能醫(yī)療研發(fā)的動力。但是,《侵權(quán)責任法》第五十九條要求醫(yī)療機構(gòu)對人工智能醫(yī)療的生產(chǎn)者的產(chǎn)品責任承擔連帶責任的規(guī)則并不合理,因為該規(guī)則將醫(yī)療機構(gòu)置于自身不可控的法律風險中,以致產(chǎn)生阻礙人工智能醫(yī)療應(yīng)用的后果[16]。

        2.3 人工智能醫(yī)療產(chǎn)品的規(guī)管

        法律上,將人工智能醫(yī)療視為“醫(yī)療器械”(4)按照《醫(yī)療器械監(jiān)督管理條例》第七十六條,醫(yī)療器械,是指直接或者間接用于人體的儀器、設(shè)備、器具、體外診斷試劑及校準物、材料以及其他類似或者相關(guān)的物品,包括所需要的計算機軟件;其效用主要通過物理等方式獲得,不是通過藥理學、免疫學或者代謝的方式獲得,或者雖然有這些方式參與但是只起輔助作用?;颉搬t(yī)療設(shè)備”,需要面對標準設(shè)定、市場準入、質(zhì)量監(jiān)控等規(guī)管層面的問題。根據(jù)《醫(yī)療器械監(jiān)督管理條例》(5)《醫(yī)療器械監(jiān)督管理條例》于2000年1月4日頒布,2014年、2017年修訂。,國務(wù)院食品藥品監(jiān)督管理部門負責全國醫(yī)療器械監(jiān)督管理工作。縣級以上地方人民政府食品藥品監(jiān)督管理部門負責本行政區(qū)域的醫(yī)療器械監(jiān)督管理工作。為確保安全性和有效性,根據(jù)醫(yī)療器械低中高三級風險等級進行分類管理,對其審批、注冊上市、生產(chǎn)經(jīng)營、不良事件監(jiān)測和召回、監(jiān)督檢查等作出一系列的規(guī)管。

        原國家食品藥品監(jiān)督管理總局于2017年更新的《醫(yī)療器械分類目錄》 中單列了醫(yī)用獨立軟件(包括治療計劃、影響處理、數(shù)據(jù)處理、決策支持、體外診斷、康復訓練軟件等)。如果診斷軟件通過其算法提供診斷建議,僅具有輔助診斷功能,不直接給出診斷結(jié)論,則按照中風險的第二類醫(yī)療器械進行規(guī)管。如果通過其算法對病變部位進行自動識別,并提供明確的診斷提示,則按照高風險的第三類醫(yī)療器械進行規(guī)管。而市場上大部分的人工智能醫(yī)療產(chǎn)品屬于第三類,須經(jīng)過產(chǎn)品定型、檢測、臨床試驗、注冊申報、技術(shù)審評、行政審批等六個步驟。此外,國家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評中心于2019年7月發(fā)布了《深度學習輔助決策醫(yī)療器械軟件審評要點》,用于規(guī)范“深度學習輔助決策醫(yī)療器械軟件”(6)“深度學習輔助決策醫(yī)療器械軟件”是指基于醫(yī)療器械數(shù)據(jù)(醫(yī)療器械所生成的醫(yī)學圖像、醫(yī)學數(shù)據(jù),以下統(tǒng)稱數(shù)據(jù)),使用深度學習技術(shù)進行輔助決策的軟件。的注冊申報。

        然而,當前對人工智能醫(yī)療器械或設(shè)備的法律規(guī)管面臨如下三個方面的挑戰(zhàn)。首先,針對人工智能醫(yī)療的專業(yè)監(jiān)管人才欠缺,尤其是缺少具備醫(yī)療、技術(shù)、法律等知識的復合型人才。美國的食品藥品監(jiān)督管理局在2017年正式組建了一個專門致力于數(shù)字化醫(yī)療和人工智能技術(shù)審評的部門,配置相應(yīng)的專業(yè)人才以確立相應(yīng)的標準和規(guī)范,為審批和監(jiān)管數(shù)字化醫(yī)療和人工智能醫(yī)療器械、設(shè)備或醫(yī)用軟件服務(wù)[17]。 國家藥品監(jiān)督管理局目前尚未設(shè)立類似的專門機構(gòu)、配備相應(yīng)的人才來應(yīng)對將來可能涌現(xiàn)的人工智能醫(yī)療產(chǎn)品。其次,用于審批和監(jiān)管的標準測試數(shù)據(jù)庫有待建立和健全,且要達到廣泛性、兼容性和標準化的要求。與傳統(tǒng)的醫(yī)療器械不同,人工智能醫(yī)療應(yīng)用依賴大量的臨床醫(yī)療數(shù)據(jù),而針對不同病種的人工智能醫(yī)療產(chǎn)品需要建立不同病種的標準測試數(shù)據(jù)庫。由于實踐中醫(yī)療系統(tǒng)中的數(shù)據(jù)標準化程度較低、數(shù)據(jù)質(zhì)量層次,這也給對人工智能醫(yī)療的有效規(guī)管帶來難度。再次,適應(yīng)于人工智能醫(yī)療的特殊審批標準和規(guī)則有待確立。例如,人工智能醫(yī)療的數(shù)據(jù)庫、算法模型、應(yīng)用界面會在應(yīng)用中被快速擴張或更新,而傳統(tǒng)的增項或升級標準和規(guī)則無法適應(yīng)人工智能醫(yī)療設(shè)備更新迭代的速度和頻率。另外,如何對人工智能醫(yī)療設(shè)備的風險等級做合理的評估和分類;就關(guān)系到安全性和可靠性的深度學習算法之黑盒問題,如何與以科學認知、臨床試驗為基礎(chǔ)的傳統(tǒng)審核方法和標準相協(xié)調(diào);為取得發(fā)展科研和患者安全之間的平衡,是否需要適當放松人工智能醫(yī)療上市前的監(jiān)管而代之以上市后監(jiān)管的強化;在對人工智能醫(yī)療技術(shù)作上市后規(guī)管的階段,藥監(jiān)局如何取得業(yè)界的有效配合或協(xié)同治理。這些問題未能在《深度學習輔助決策醫(yī)療器械軟件審評要點》中得以解決,因此仍待厘清。而隨著人工智能技術(shù)的發(fā)展,相應(yīng)的審批標準和規(guī)則還需與時俱進地作出及時地調(diào)整與更新。

        3 人工智能醫(yī)療與數(shù)據(jù)安全和隱私保護

        發(fā)展人工智能技術(shù)不應(yīng)以犧牲個人數(shù)據(jù)隱私利益為代價。在大數(shù)據(jù)年代,只有為用戶提供充分的個人數(shù)據(jù)隱私保護、健全保障數(shù)據(jù)安全的措施,才能建立并增強公眾對大數(shù)據(jù)應(yīng)用和人工智能技術(shù)的信任和信心,從而為技術(shù)發(fā)展提供動力和助力。在倫理層面,保護個人數(shù)據(jù)隱私是出于對個人人格和尊嚴的尊重。在法律層面,無論是經(jīng)濟合作與發(fā)展組織(OECD)2013年更新的個人數(shù)據(jù)保護八項原則(即收集限制原則、數(shù)據(jù)質(zhì)量原則、明確目的原則、限制使用原則、安全保障原則、公開原則、個人參與原則和責任原則)(7)Collection limitation principle, Data quality principle, Purpose specification principle, Use limitation principle, Security safeguard principle, Openness principle, Individual participation principle, and Accountability principle., 還是歐盟2016年《通用數(shù)據(jù)保護條例》(General Data Protection Regulation)明確的七項原則(即合法公平透明原則、目的限制原則、數(shù)據(jù)最小化原則、準確原則、儲存限制原則、完整性和保密原則和責任原則)(8)Lawfulness, fairness and transparency, purpose limitation, Data minimization, Accuracy, Storage limitations, Integrity and confidentiality, and Accountability.,都為各國的個人數(shù)據(jù)隱私保護立法提供非常重要的參考。

        人工智能醫(yī)療的開發(fā)和應(yīng)用同樣離不開大數(shù)據(jù),尤其涉及大量患者的身份信息、健康信息和臨床醫(yī)療數(shù)據(jù)的收集、共享和使用。在發(fā)展人工智能醫(yī)療的同時,需要考慮的是現(xiàn)行法對個人信息隱私的保護是否完善、人工智能醫(yī)療對個人信息隱私保護產(chǎn)生哪些挑戰(zhàn),以及在監(jiān)管層面需如何應(yīng)對等問題。

        3.1 現(xiàn)行法對個人信息隱私的保護

        中國法律明確對個人信息隱私的保護始于2009年的《中華人民共和國刑法修正案(七)》,其新增了關(guān)于侵犯公民個人信息罪的相關(guān)規(guī)定(9)2017年,最高人民法院和最高人民檢察院通過了《關(guān)于辦理侵犯公民個人信息刑事案件適用法律若干問題的解釋》對侵犯公民個人信息罪的具體操作規(guī)則進行了細化。。 之后,2012年的《全國人民代表大會常務(wù)委員會關(guān)于加強網(wǎng)絡(luò)信息保護的決定》第一條規(guī)定:“國家保護能夠識別公民個人身份和涉及公民個人隱私的電子信息。任何組織和個人不得竊取或者以其他非法方式獲取公民個人電子信息,不得出售或者非法向他人提供公民個人電子信息?!?/p>

        2013年,工業(yè)和信息化部頒布了《電信和互聯(lián)網(wǎng)用戶個人信息保護規(guī)定》。該法第四條將“個人信息”定義為“用戶姓名、出生日期、身份證件號碼、住址、電話號碼、賬號和密碼等能夠單獨或者與其他信息結(jié)合識別用戶的信息以及用戶使用服務(wù)的時間、地點等信息”,并提供了保護個人信息的一般規(guī)則。首先,該法第五條要求電信業(yè)務(wù)經(jīng)營者和互聯(lián)網(wǎng)信息服務(wù)提供者在收集、使用用戶個人信息時應(yīng)當遵循合法、正當、必要的原則;其次,該法第九條要求采集、使用客戶個人信息時,應(yīng)當明確告知其收集、使用信息的目的、方式和范圍,查詢、更正信息的渠道以及拒絕提供信息的后果等事項,并經(jīng)用戶同意后方可收集、使用其個人信息;再次,該法第十條要求在收集、使用客戶個人信息過程中,應(yīng)當嚴格保密,不得泄露、篡改或者毀損,不得出售或者非法向他人提供;最后,該法第六條、第十三條和第十四條要求電信業(yè)務(wù)經(jīng)營者和互聯(lián)網(wǎng)信息服務(wù)提供者應(yīng)當對客戶的個人信息安全負責,防止其泄露、毀損、篡改或者丟失;如果發(fā)生上述情形,應(yīng)當立即采取補救措施。2017年,國家互聯(lián)網(wǎng)信息辦公室制定《兒童個人信息網(wǎng)絡(luò)保護規(guī)定》,明確監(jiān)護人在保護兒童個人信息中的權(quán)利和作用。

        2017年頒布的《民法總則》首次在民法上對個人信息作出明確規(guī)定(10)2014年的《最高人民法院關(guān)于審理利用信息網(wǎng)絡(luò)侵害人身權(quán)益民事糾紛案件適用法律若干問題的規(guī)定》第12條曾籠統(tǒng)提及網(wǎng)絡(luò)侵犯個人信息的侵權(quán)行為。。 該法第一百一十一條規(guī)定,“自然人的個人信息受法律保護。任何組織和個人需要獲取他人個人信息的,應(yīng)當依法取得并確保信息安全,不得非法收集、使用、加工、傳輸他人個人信息,不得非法買賣、提供或者公開他人個人信息?!倍?020年5月全國人大通過的《中華人民共和國民法典》(11)《中華人民共和國民法典》于2020年5月28日頒布,2021年1月1日實施。加大了對個人信息保護的力度,在“人格權(quán)編”單設(shè)一章“隱私權(quán)和個人信息保護”。《民法典》第一千零三十四條定義了“個人信息”;第一千零三十五條規(guī)定了個人信息的處理應(yīng)當遵循合法、正當、必要原則,須獲得信息主體的同意,公開處理信息的規(guī)則,并明示處理信息的目的、方式和范圍。第一千零三十六條規(guī)定了信息處理者的免責事由;第一千零三十七條明確個人信息主體的參與權(quán)利;第一千零三十八條規(guī)定了信息處理者的安全保障義務(wù)。最后,第一千零三十九條明確了國家機關(guān)、承擔行政職能的法定機構(gòu)及其工作人員對公民個人信息的保密義務(wù)。

        在個人數(shù)據(jù)安全方面,全國人大常委會于2016年頒布了《中華人民共和國網(wǎng)絡(luò)安全法》(12)《中華人民共和國網(wǎng)絡(luò)安全法》于2016年11月7日頒發(fā),2017年6月1日實施。。2020年4月,國家互聯(lián)網(wǎng)信息辦公室、國家發(fā)展和改革委員會、工業(yè)和信息化部、公安部、國家安全部等12個部門聯(lián)合公布了《網(wǎng)絡(luò)安全審查辦法》。

        雖然近十年來我國法律對公民個人信息隱私的重視逐漸加強,在民事、行政、刑事法律上均做出保護,但是現(xiàn)行法對個人信息隱私的保護仍有完善的空間。首先,現(xiàn)行法尚未建立一個完整的個人信息的法律保護框架,相關(guān)的規(guī)則都零散于不同的法律、法規(guī)、規(guī)章和司法解釋。雖然現(xiàn)行法將個人信息保護提升到《民法典》的高度,但如果與OECD個人數(shù)據(jù)保護的八項原則相比,《民法典》僅提到了信息收集階段告知及征得同意的要求、安全保障原則、公開原則、信息主體參與原則,卻未能確立數(shù)據(jù)質(zhì)量原則、限制使用原則、責任原則。若與歐盟的《通用數(shù)據(jù)保護條例》相比,現(xiàn)行法尚未涉及數(shù)據(jù)最小化原則和儲存限制原則;其次,現(xiàn)行法的規(guī)定基本停留于原則的陳述,欠缺細化的具有操作性的法律規(guī)則。以信息主體參與權(quán)為例,其如何行使查閱或復制個人信息的權(quán)利、如何請求更正或刪除個人信息、能否及時收到其個人信息被侵害的通知(data breach notification)、信息處理者相應(yīng)地負有哪些義務(wù)和職責,信息主體的權(quán)利未能實現(xiàn)時如何獲得救濟等問題,都語焉不詳。操作性規(guī)則的缺失將導致個人信息保護在實踐中難以被真正落實;再次,現(xiàn)行法未能建立一個專門的公權(quán)力機構(gòu)或執(zhí)法機構(gòu)(類似中國香港的個人資料私隱專員公署)來執(zhí)行個人信息保護的法律,全面負責個人信息隱私保護。在實踐中,缺少對信息處理者的行為是否合規(guī)的監(jiān)管。此外,如果出現(xiàn)信息處理者違法或侵權(quán)行為,受害人只能依賴民事訴訟或刑事訴訟等高成本的救濟方式,而沒有向?qū)iT機構(gòu)進行投訴、請求其行使公權(quán)力以快速有效糾正信息處理者之違法或侵權(quán)行為的可能。

        3.2 人工智能醫(yī)療對數(shù)據(jù)安全和隱私保護的挑戰(zhàn)

        人工智能醫(yī)療離不開患者的個人健康信息和病歷信息,顯然須受制于個人信息隱私的法律規(guī)制。根據(jù)《民法典》第一千零三十六條對“個人信息的處理”的定義,人工智能醫(yī)療技術(shù)的開發(fā)者和使用者(例如醫(yī)生、醫(yī)療機構(gòu))對大量的患者信息進行收集、存儲、加工、傳輸、使用,即為“信息處理者”。在大數(shù)據(jù)和人工智能年代,個人信息自主采集模式、大數(shù)據(jù)深度挖掘能力、深度學習算法對數(shù)據(jù)作自主決策等因素,對數(shù)據(jù)安全和隱私保護提出了以下三個方面的挑戰(zhàn)。

        首先,法律規(guī)定數(shù)據(jù)處理者在收集個人信息時需要明確告知對方收集、使用信息的目的,并征得信息主體的同意方可收集其個人信息,而且數(shù)據(jù)的處理也要以該目的為限。但是,人工智能醫(yī)療需要使用跨醫(yī)療機構(gòu)、跨地域的電子病歷系統(tǒng)中儲存的大量患者個人身份信息、健康信息、臨床醫(yī)療信息等。其中,部分信息是患者自愿向醫(yī)療機構(gòu)提供,部分信息是醫(yī)療機構(gòu)在為患者提供診療服務(wù)中生成;其收集、生成、儲存通常都獲得患者的明示或默示的同意,并以診療為目的。當電子病歷系統(tǒng)中所儲存的患者個人信息被用來建立大型的電子病歷庫而成為人工智能醫(yī)療的重要數(shù)據(jù)源時, 這已經(jīng)超過患者最初知悉并同意的使用目的[18]。《民法典》第一千零三十六條列舉了三項信息處理者的免責事項:信息主體的同意;已被公開的信息;公共利益之維護。顯然,電子病歷系統(tǒng)中的患者個人信息不屬于已被公開的信息。而將其用于人工智能醫(yī)療的開發(fā)和使用,作為信息主體的患者并不知情,更無法對其個人信息被另作他用來行使知情同意的權(quán)利。能否以維護公共利益為理由而不經(jīng)患者同意即將其個人信息用于人工智能醫(yī)療,取決于如何界定公共利益。法律上,泛泛將促進醫(yī)療技術(shù)發(fā)展視為“公共利益”則有濫用免責規(guī)定、侵害信息主體隱私權(quán)利之嫌。就此,有學者提出“個人信息的公共性和社會性”的概念,主張個人信息由“個人控制到社會控制”的觀點[19],不過筆者對此予以保留。就如何解決人工智能醫(yī)療對患者個人信息的合法使用問題,可以考慮信息主體給予“概括性同意”并配合以“撤銷同意的權(quán)利”。

        此外,實踐中,與健康相關(guān)的部分應(yīng)用程式在用戶使用時未經(jīng)同意自主采集其個人信息,或超越授權(quán)方式及范圍非法收集用戶個人信息,或?qū)⑹占膫€人信息另作他用或泄露給他人使用。類似的情形也可能出現(xiàn)在用于健康監(jiān)測的人工智能醫(yī)療產(chǎn)品。這些均涉及如何規(guī)管信息處理者、如何執(zhí)法的問題。2019年國家網(wǎng)信辦、工信部、公安部、市場監(jiān)督總局聯(lián)合頒布的《App違法違規(guī)收集使用個人信息行為認定方法》即針對應(yīng)用程式違法收集用戶個人信息的現(xiàn)象。

        其次,《民法典》第一千零三十五條將“個人信息”定義為“以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別特定自然人的各種信息,包括自然人的姓名、出生日期、身份證件號碼、生物識別信息、住址、電話號碼、電子郵箱、健康信息、行蹤信息等”,以規(guī)范“可識別特定自然人”的信息。換言之,信息處理者處理去識別性的信息則無須受法律制約。然而大數(shù)據(jù)的深度挖掘能力,可以將原本被匿名、去識別性的單個信息整合和關(guān)聯(lián)后,重新對信息主體的身份進行“再識別”[20]或者挖掘出有關(guān)信息主體的額外隱私信息。同樣,在人工智能醫(yī)療開發(fā)中,信息處理者收集的患者個人信息即使已作匿名化處理,依然有可能被重新識別。盡管《網(wǎng)絡(luò)安全法》第四十二條設(shè)定了“經(jīng)過處理無法識別特定個人且不能復原的”的要求,但是能否復原識別性與再識別技術(shù)發(fā)展和可獲取信息的增加相關(guān)。因此,法律應(yīng)當要求人工智能醫(yī)療的信息處理者對匿名患者信息的再識別風險作常規(guī)化的評估,當監(jiān)測到風險時立即采取補救措施。此外,法律可要求信息處理者作出“反對再識別”的承諾;當其向第三方使用者披露患者信息時,其亦可通過合同方式來禁止后者對信息進行再識別。

        再次,大數(shù)據(jù)年代所匯集的個人信息數(shù)量巨大、種類龐雜,數(shù)據(jù)快速生成并累積,數(shù)據(jù)流動性強,這些因素對數(shù)據(jù)安全帶來更大的隱患[21]。對人工智能醫(yī)療而言,匯集的患者健康數(shù)據(jù)和臨床醫(yī)療數(shù)據(jù)越多,機器學習需要的訓練數(shù)據(jù)就越充分,獲得的深度學習模型就越精確。但是一旦海量數(shù)據(jù)集發(fā)生數(shù)據(jù)泄露或被盜的情形,將會對眾多的患者或用戶的個人隱私構(gòu)成威脅及侵害。因此,信息處理者必須在收集、存儲、加工、傳輸、使用海量數(shù)據(jù)的各個環(huán)節(jié)保障數(shù)據(jù)安全,防止黑客入侵、違法泄露或使用。一方面,信息處理者需提升保障數(shù)據(jù)安全的技術(shù)措施(例如數(shù)據(jù)脫敏、數(shù)據(jù)加密、分類分級管理、數(shù)據(jù)隔離、數(shù)據(jù)追蹤技術(shù)等),并確保數(shù)據(jù)平臺運行的安全(例如傳輸交換安全、存儲安全、訪問控制安全、平臺管理安全和平臺軟硬件基礎(chǔ)設(shè)施的安全等);另一方面,信息處理者需要加強對其工作人員的管理和培訓、密切監(jiān)督數(shù)據(jù)接收方的數(shù)據(jù)處理活動,以防止個人信息被違法使用或濫用。

        3.3 人工智能醫(yī)療中數(shù)據(jù)安全和隱私保護的監(jiān)管

        有別于傳統(tǒng)的醫(yī)療器械或設(shè)備,人工智能醫(yī)療的監(jiān)管重點,除了安全性與有效性,還應(yīng)包括數(shù)據(jù)安全和隱私保護。這一點已經(jīng)在國家藥品監(jiān)督管理局醫(yī)療器械技術(shù)審評中心發(fā)布的《深度學習輔助決策醫(yī)療器械軟件審評要點》中有所體現(xiàn):其要求數(shù)據(jù)采集時將個人信息脫敏以保護患者隱私,并要求在算法設(shè)計中考慮網(wǎng)絡(luò)安全防護。但是國家食藥監(jiān)局的這些要求僅針對人工智能醫(yī)療產(chǎn)品的設(shè)計而提出。而國家食藥監(jiān)局的評審人員是否具備就人工智能醫(yī)療產(chǎn)品之數(shù)據(jù)安全和隱私保護的評審能力,亦存有疑問。此外,就人工智能醫(yī)療產(chǎn)品上市后的數(shù)據(jù)安全和隱私保護,國家食藥監(jiān)局并無監(jiān)管權(quán)限,由此出現(xiàn)監(jiān)管主體的空缺問題。

        所以,對人工智能醫(yī)療產(chǎn)品的數(shù)據(jù)安全和隱私保護做上市前和上市后的全面監(jiān)管,僅有國家食藥監(jiān)局的作用是遠遠不夠的。為切實執(zhí)行個人信息隱私保護的法律和有效監(jiān)管人工智能醫(yī)療應(yīng)用中信息處理者的合規(guī)行為,政府應(yīng)當要成立一個專門負責執(zhí)行個人信息保護之法律的公權(quán)力機構(gòu),以提高其監(jiān)管能力。例如,歐盟《通用數(shù)據(jù)保護條例》第51條即要求所有歐盟成員國至少要建立一個獨立且有能力的公權(quán)力機構(gòu),全權(quán)負責監(jiān)管執(zhí)行《通用數(shù)據(jù)保護條例》。而我國對不同領(lǐng)域的個人信息,分別由網(wǎng)信部門、電信部門、公安部門等分裂式管理。若按此邏輯,人工智能醫(yī)療產(chǎn)品的數(shù)據(jù)安全和隱私保護,可能會根據(jù)其不同的使用者和應(yīng)用場合,由衛(wèi)生健康委員會或工商管理部門分別負責。顯然,欠缺一個獨立且有能力的專門監(jiān)管機構(gòu),對個人信息的法律保護則難以在實踐中落實。

        盡管現(xiàn)行法對個人信息的保護提高到《民法典》的高度,但是仍然缺少一個完整的個人信息的法律保護框架,尤其缺少應(yīng)對大數(shù)據(jù)環(huán)境下的有效監(jiān)管信息處理者行為的具體規(guī)則。再以《通用數(shù)據(jù)保護條例》為例,其第四章共20個條文不僅規(guī)定了數(shù)據(jù)控制者和處理者對隱私保護和數(shù)據(jù)安全的具體義務(wù),而且還針對大數(shù)據(jù)、新科技、對權(quán)利侵害有高風險的情形(例如人工智能醫(yī)療),設(shè)置了促進數(shù)據(jù)控制者和處理者合規(guī)的各種機制:包括數(shù)據(jù)控制者事先進行數(shù)據(jù)保護影響評估,數(shù)據(jù)控制者和處理者須任命數(shù)據(jù)保護專責人員,鼓勵數(shù)據(jù)控制者和處理者制定行業(yè)內(nèi)的行為準則,以及建立合規(guī)證書制度等。而其第八章共8個條文亦明確了數(shù)據(jù)控制者和處理者違規(guī)時的責任和罰則,以落實個人數(shù)據(jù)保護的“責任原則”。這些應(yīng)對大數(shù)據(jù)、人工智能新技術(shù)的監(jiān)管模式和方法值得我國借鑒。

        4 人工智能醫(yī)療與知識產(chǎn)權(quán)保護

        知識產(chǎn)權(quán)制度旨在保護智力創(chuàng)造者對其智力勞動成果享有的權(quán)利,從而激勵和促進人類智力創(chuàng)造活動的發(fā)展。在我國,人工智能技術(shù)屬于“涉及計算機程序的發(fā)明專利”[10]。但是,人工智能醫(yī)療是否能夠獲得專利保護,在法律上仍存有障礙。

        首先,《中華人民共和國專利法》(13)《中華人民共和國專利法》于1984年3月12日頒布,1985年4月1日實施。1992年,2000年、2008年修正。第二十五條規(guī)定,疾病的診斷和治療方法,不授予專利?!秾@麑彶橹改?2019)》第一章“不授予專利的申請”中第4.3項對此作了詳細說明。其中,“疾病的診斷和治療方法”是指“以有生命的人體或者動物體為直接實施對象,進行識別、確定或消除病因或病灶的過程”。之所以對疾病的診斷和治療方法不授予專利,出于兩個原因。其一,基于“人道主義的考慮和社會倫理的原因”,避免不當限制醫(yī)生選擇診療方法的自由。其二,疾病的診斷和治療方法適用于有生命的人體或動物體,無法在產(chǎn)業(yè)上利用。同時,《專利審查指南(2019)》澄清,那些“用于實施疾病診斷和治療方法的儀器或裝置以及在疾病診斷和治療方法中使用的物質(zhì)或材料”則具有可專利性。

        《專利法》排除疾病診斷和治療方法之可專利性的做法,與多數(shù)法域(例如歐洲、日本)的做法是一致的[22]。實踐中,某些利用計算機硬件手段收集患者健康信息并通過程序予以處理后得出其健康結(jié)論的技術(shù),就曾被專利審查部門認定為“疾病診斷方法”而被拒絕授予專利[23]。但是亦有觀點認為,隨著人工智能醫(yī)療技術(shù)對醫(yī)療診斷和治療的重要性和作用增加,從鼓勵創(chuàng)新的目的出發(fā),有必要對其可專利性問題再作思考,并建議對“由計算機實施”診斷和治療疾病的人工智能技術(shù)可以被考慮授予專利[23]。類似的觀點認為,人工智能醫(yī)療由軟件驅(qū)動機器設(shè)備完成,并不影響醫(yī)生選擇診療方法的自主性,而且人工智能醫(yī)療獲得診療結(jié)果的功能具有反復執(zhí)行效果,具有產(chǎn)業(yè)重復利用性,由此建議將具有診療功能的人工智能醫(yī)療技術(shù)與《專利法》第二十五條排除的“疾病的診斷和治療方法”相區(qū)分,從而使其獲得可專利性[23]。上述觀點是否能獲得更多共識以及立法者的認同,仍有待觀察。

        還需注意的是,《專利法》第五條規(guī)定,對違反法律、社會公德或者妨害公共利益的發(fā)明創(chuàng)造,不授予專利權(quán)。如果某項人工智能醫(yī)療技術(shù)存在違反個人信息隱私保護的法律的風險,或者由于數(shù)據(jù)選擇偏見或設(shè)計偏見使其在應(yīng)用上違反了平等原則或反歧視原則[9],那么該項人工智能醫(yī)療技術(shù)在申請專利保護時亦會遭遇法律障礙。

        5 結(jié)語

        人工智能科技的發(fā)展前景廣闊,在醫(yī)療領(lǐng)域的應(yīng)用潛力巨大。本文就人工智能醫(yī)療,分析討論了在現(xiàn)行法下人工智能法律地位、產(chǎn)品責任、數(shù)據(jù)安全和隱私保護、知識產(chǎn)權(quán)保護等法律問題和規(guī)管挑戰(zhàn)。一方面,在弱人工智能階段,人工智能很難具有法律主體地位,現(xiàn)行法將其視為法律關(guān)系的客體;另一方面,人工智能醫(yī)療對現(xiàn)行法中產(chǎn)品責任的相關(guān)規(guī)則、個人信息隱私保護的法律,以及專利法等均提出了諸多新問題。在監(jiān)管層面,就人工智能醫(yī)療器械或設(shè)備上市前后的監(jiān)管、對人工智能醫(yī)療涉及的數(shù)據(jù)安全和隱私保護的監(jiān)管都提出新的挑戰(zhàn),急需政府做出有效的應(yīng)對。需要注意的是,人工智能科技仍在持續(xù)發(fā)展中,某些人工智能醫(yī)療技術(shù)可能在較短的時間里被更新?lián)Q代。技術(shù)層面的不確定性也需要法律上的討論保持開放性與持續(xù)性,從而找到既能促進人工智能科技發(fā)展、又能公平合理保障持份者權(quán)益的法律對策。

        猜你喜歡
        人工智能法律信息
        法律解釋與自然法
        法律方法(2021年3期)2021-03-16 05:57:02
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        讓人死亡的法律
        山東青年(2016年1期)2016-02-28 14:25:30
        “互助獻血”質(zhì)疑聲背后的法律困惑
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        讓法律做主
        浙江人大(2014年5期)2014-03-20 16:20:27
        韩日美无码精品无码| 日本人视频国产一区二区三区| 最新中文字幕乱码在线| 亚洲一二三区免费视频| 久久久久久久波多野结衣高潮 | 中文字幕人妻精品一区| 亚洲成av人片在线观看| 成人免费无码大片a毛片软件 | 丝袜美女美腿一区二区| 日本a级黄片免费观看| 久久天天躁狠狠躁夜夜躁2014| 亚洲国产精品福利片在线观看| 中文字幕无码无码专区| 久久久国产精品ⅤA麻豆百度| 久久亚洲av午夜福利精品西区| 亚洲国产精品av麻豆网站| 国产a在亚洲线播放| 国产精品久久毛片av大全日韩| 成人伊人亚洲人综合网站222| 日本成人字幕在线不卡| 日本一区二区午夜视频| 成人区人妻精品一区二区三区| 中文字幕丰满乱子无码视频| 欧洲综合色| 日本道免费一区日韩精品| 黄色av亚洲在线观看| 亚洲国产另类精品| 久久久久久中文字幕有精品 | 麻豆AV免费网站| 亚洲av色香蕉第一区二区三区| 国产高潮迭起久久av| 久久人妻无码一区二区| 国产成人无码区免费网站| 亚洲精品国产熟女久久| 国产日产久久高清ww| 欧美金发尤物大战黑人| 丝袜欧美视频首页在线| 日韩av一区二区不卡在线| av狠狠色丁香婷婷综合久久| 成人免费xxxxx在线视频| 成人综合激情自拍视频在线观看 |