[中圖分類號]D99 [文獻(xiàn)標(biāo)識碼]A [文章編號]1008-2689(2025)05-0086-17
一、問題的提出
人工智能系統(tǒng)作為顛覆性的科學(xué)技術(shù)成果,從設(shè)計(jì)開發(fā)、投放市場到投人使用的全部環(huán)節(jié)都存在法律風(fēng)險(xiǎn)。例如在人工智能系統(tǒng)引導(dǎo)科研驅(qū)動方面,有學(xué)者[1持有如下觀點(diǎn):人工智能具備獨(dú)立且成熟的科研驅(qū)動邏輯,在賦予科學(xué)研究以新前景的同時,也存在諸如道德失范、責(zé)任模糊等驅(qū)動風(fēng)險(xiǎn);為了降低驅(qū)動風(fēng)險(xiǎn)與提升驅(qū)動韌性,需要對于人工智能系統(tǒng)的開發(fā)與應(yīng)用進(jìn)行規(guī)制。在教育領(lǐng)域的人工智能系統(tǒng)運(yùn)用中,有研究者[2挖掘了數(shù)據(jù)隱私與安全、技術(shù)目的與價值、責(zé)任歸屬與分配等典型的倫理風(fēng)險(xiǎn)。針對人工智能控制端、感知端和行動端的侵權(quán)風(fēng)險(xiǎn),我國學(xué)者整合了從基礎(chǔ)模型到基礎(chǔ)代理的模塊化治理框架,同時提議建立高風(fēng)險(xiǎn)場景下的精準(zhǔn)化治理機(jī)制。此外,針對人工智能系統(tǒng)主導(dǎo)下的機(jī)器人侵權(quán)風(fēng)險(xiǎn)、數(shù)據(jù)安全風(fēng)險(xiǎn)的刑事法律應(yīng)對等法律應(yīng)用問題,學(xué)界亦存在廣泛討論。分析研究現(xiàn)狀不難得出,對于人工智能系統(tǒng)的法律規(guī)制,基本會聚焦到法律風(fēng)險(xiǎn)這一核心要素上。由此,本文借鑒歐盟《人工智能法》的立法框架與制度設(shè)計(jì),研究如何以風(fēng)險(xiǎn)規(guī)制為抓手,解析人工智能風(fēng)險(xiǎn)規(guī)制的協(xié)同因素,厘清針對人工智能系統(tǒng)進(jìn)行法律風(fēng)險(xiǎn)規(guī)制的規(guī)范思路。
二、人工智能系統(tǒng)的法律風(fēng)險(xiǎn)界定
歐盟《人工智能法》對于人工智能系統(tǒng)的概念做出了權(quán)威定義,并與人工智能技術(shù)工作的國際組織以及現(xiàn)階段成果達(dá)成一致,以保證法律規(guī)制的確定性。在立法思路上,《人工智能法》規(guī)避了人工智能權(quán)利泛化4的不穩(wěn)定因素,暫時不對人工智能體是否具備法律權(quán)利進(jìn)行討論,轉(zhuǎn)而以參與人工智能活動的有關(guān)主體的權(quán)利義務(wù)人手,以風(fēng)險(xiǎn)為核心因素進(jìn)行法律架構(gòu)。在人工智能系統(tǒng)的概念界定上,歐盟委員會達(dá)成了一套“基于風(fēng)險(xiǎn)”的規(guī)制辦法,根據(jù)人工智能系統(tǒng)產(chǎn)生風(fēng)險(xiǎn)的可能性、風(fēng)險(xiǎn)強(qiáng)度與范圍等因素調(diào)整規(guī)制內(nèi)容[5]。此規(guī)制辦法意圖從人工智能系統(tǒng)的設(shè)計(jì)與使用風(fēng)險(xiǎn)為切入點(diǎn),搭建一套兼具比例原則與規(guī)制效能的約束性規(guī)則框架并推介使用。
從風(fēng)險(xiǎn)強(qiáng)度的角度出發(fā),歐盟委員會主要基于法律風(fēng)險(xiǎn)及其可能造成的損害程度,將人工智能系統(tǒng)劃分為低風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)以及禁止的人工智能系統(tǒng)三級類別。其中,歐盟人工智能高級別專家組在《值得信賴的人工智能的倫理準(zhǔn)則》中,制定了七項(xiàng)相關(guān)原則①,為高風(fēng)險(xiǎn)人工智能系統(tǒng)的概念界定筑牢了基礎(chǔ)。在此基礎(chǔ)上,《人工智能法》對于人工智能系統(tǒng)進(jìn)行引導(dǎo)與規(guī)制,意在促進(jìn)符合歐盟價值觀的人工智能系統(tǒng)的一體化設(shè)計(jì)與全球推廣運(yùn)用。
(一)正向規(guī)定:以權(quán)利保護(hù)為核心的法律風(fēng)險(xiǎn)規(guī)制路徑
《人工智能法》首先確定了“風(fēng)險(xiǎn)”的概念,將風(fēng)險(xiǎn)進(jìn)行了產(chǎn)品風(fēng)險(xiǎn)與基本權(quán)利風(fēng)險(xiǎn)的二元分類研判,同時還將風(fēng)險(xiǎn)做了一定程度的分級。其中,第六條對高風(fēng)險(xiǎn)人工智能系統(tǒng)做出了積極定義,即:用作產(chǎn)品安全組件的人工智能系統(tǒng)或者作為產(chǎn)品的人工智能系統(tǒng),在投放市場或者提供服務(wù)的條件下,應(yīng)當(dāng)被視為高風(fēng)險(xiǎn)人工智能系統(tǒng)。其次,《人工智能法》對于人工智能系統(tǒng)與相關(guān)產(chǎn)品的概念做出了清晰的梳理,在其附件一中援引了歐盟委員會的其它法案,將產(chǎn)品的概念向歐盟法律體系下的各個行業(yè)法、部門法進(jìn)行延伸。另外,在附件三中,歐盟委員會將高風(fēng)險(xiǎn)人工智能系統(tǒng)做了分類,包括但不限于如下用途:生物識別、關(guān)鍵設(shè)施管理、教育就業(yè)、公共服務(wù)、社會福利、執(zhí)法司法、移民管理和民主進(jìn)程。歐盟委員會及其他立法部門對每一種場景進(jìn)行了更為詳細(xì)的說明,通過按照用途劃分人工智能系統(tǒng)的手段,為人工智能風(fēng)險(xiǎn)的場景化治理奠定了基調(diào)。這不僅有助于將人工智能法與不同場景、業(yè)態(tài)下的法律體系形成聯(lián)動,進(jìn)而為投放于不同領(lǐng)域的人工智能治理確定相同范式,并平衡相關(guān)治理進(jìn)程中的基本權(quán)利保護(hù)水平。
1.路徑一:建立場景化風(fēng)險(xiǎn)治理與權(quán)利保護(hù)的勾稽關(guān)系
實(shí)際上,《人工智能法》通過還原行業(yè)場景的手段對高風(fēng)險(xiǎn)人工智能進(jìn)行種類界定的行為并非無跡可尋。在風(fēng)險(xiǎn)定義方面,歐盟委員會聚焦人工智能系統(tǒng)對《歐盟人權(quán)憲章》(以下簡稱《憲章》)保護(hù)的基本權(quán)利造成的負(fù)面影響,再通過將法律風(fēng)險(xiǎn)場景化、具象化,搭建風(fēng)險(xiǎn)治理與權(quán)利保護(hù)的勾稽關(guān)系。有學(xué)者指出場景是運(yùn)用好數(shù)據(jù)要素的核心場域,基于數(shù)據(jù)要素產(chǎn)生的人工智能運(yùn)用也同樣如此。既然人工智能系統(tǒng)最終要在應(yīng)用下實(shí)現(xiàn)其先進(jìn)價值,通過應(yīng)用場景對于人工智能系統(tǒng)風(fēng)險(xiǎn)做好界定,就成為至關(guān)重要的程序性環(huán)節(jié)。
在不同場景下,《人工智能法》界定為高風(fēng)險(xiǎn)的標(biāo)準(zhǔn)中,都存在對于基本權(quán)利保護(hù)的考量。這些權(quán)利包括:人的尊嚴(yán)權(quán)、尊重私人和家庭生活權(quán)、保護(hù)個人數(shù)據(jù)權(quán)、言論和信息自由權(quán)、集會和結(jié)社自由權(quán)、不受歧視權(quán)、受教育權(quán)、消費(fèi)者保護(hù)權(quán)、工人權(quán)利、殘疾人權(quán)利、性別平等、知識產(chǎn)權(quán)、獲取有效救濟(jì)和公平審判的權(quán)利、辯護(hù)權(quán)和無罪推定獲得權(quán)等。例如,在人工智能系統(tǒng)與特定自然人互動的場景下,考慮到人工智能系統(tǒng)可能會借助機(jī)器學(xué)習(xí)方式創(chuàng)造生成式內(nèi)容,而這種人工智能運(yùn)作模式難以時刻受到人類監(jiān)管,所產(chǎn)生的內(nèi)容可能存在操縱信息導(dǎo)向或者欺詐等具體風(fēng)險(xiǎn)。在這種場景下,《人工智能法》要求該類人工智能系統(tǒng)在使用前必須提前向自然人披露該人工智能系統(tǒng)的互動特征②,以保證自然人享有充分的知情權(quán)和決策權(quán)。同時,人工智能系統(tǒng)如需面向特定種族、性別、興趣、個人特點(diǎn)、興趣喜好、使用目的、弱勢群體等產(chǎn)生互動內(nèi)容或處理自然人的生物數(shù)據(jù),也須基于特定自然人群體的特點(diǎn),將產(chǎn)生交互的信息和通知以詳盡的、無障礙的方式提供給該群體,以保證群體的基本權(quán)利。
憑借以上條件,歐盟立法者從風(fēng)險(xiǎn)界定出發(fā),在立法領(lǐng)域完成快速反應(yīng),迅速建立起兼具權(quán)利保護(hù)、人工智能治理與法律風(fēng)險(xiǎn)規(guī)制的人工智能法框架,為人工智能技術(shù)在歐盟法域內(nèi)的發(fā)展提供了明確的法律基礎(chǔ),盡管這一部《人工智能法》尚未體現(xiàn)出歐盟《通用數(shù)據(jù)保護(hù)條例》(GeneralDataProtectionRegulation,簡稱GDPR)在數(shù)據(jù)治理領(lǐng)域一般的影響力,并且很多規(guī)范仍有待進(jìn)一步更迭或細(xì)化,但其基于權(quán)利保護(hù)視角,憑借風(fēng)險(xiǎn)場景化、具象化帶來的立法技術(shù)優(yōu)勢,在人工智能治理規(guī)范領(lǐng)域獨(dú)占螯頭,也為歐盟的人工智能法發(fā)展提供了足夠的容錯空間。
2.路徑二:推動形成立法前瞻性與法律一致性并存的制度背景
在通過風(fēng)險(xiǎn)場景化與權(quán)利保護(hù)相結(jié)合的手段解決立法框架問題和立法效率問題之外,歐盟立法者還在平衡立法前瞻性和法律一致性方面付出了較大努力。作為科學(xué)技術(shù)領(lǐng)域更迭迅速的新生代成果,人工智能技術(shù)及其衍生產(chǎn)品(人工智能系統(tǒng)/通用人工智能模型)對傳統(tǒng)法律框架形成了較大的沖擊。例如針對人工智能帶來的法律風(fēng)險(xiǎn)規(guī)制,立法者需要考慮是否同時對于人工智能應(yīng)用者和人工智能產(chǎn)品做出規(guī)制,如何界定實(shí)際風(fēng)險(xiǎn)與潛在風(fēng)險(xiǎn)之間的關(guān)系?如何合理分配特定人工智能系統(tǒng)生產(chǎn)、運(yùn)作中的權(quán)利與義務(wù),等…這些法律問題要求人工智能法必須具備一定前瞻性;同時,在人工智能的配套治理制度尚不完善的情況下,立法者還需保證人工智能法的運(yùn)作實(shí)施不產(chǎn)生法律沖突和執(zhí)法障礙。這就要求人工智能法必須充分考慮現(xiàn)存法律法規(guī)的既有影響,達(dá)成一定程度上的法律一致性?,F(xiàn)階段的《人工智能法》也須援引其他公約、條約、部門法等,對于制度內(nèi)容進(jìn)行補(bǔ)充。
例如:《人工智能法》通過援引《聯(lián)合國兒童權(quán)利公約》進(jìn)行規(guī)則補(bǔ)充,從制度層面明確對于兒童權(quán)利的保護(hù)②。由此可見,以權(quán)利保護(hù)為核心,以《憲章》下的基本權(quán)利為參考進(jìn)行具體延展,是《人工智能法》對高風(fēng)險(xiǎn)人工智能系統(tǒng)的基本規(guī)制手段。
同樣地,為保證執(zhí)法階段對于基本權(quán)利保護(hù)的法律一致性,《人工智能法》在執(zhí)法評估環(huán)節(jié)中同樣非常注重人工智能系統(tǒng)的受信賴程度,而受信賴程度仍然取決于對于歐盟及其成員國公民的基本權(quán)利保護(hù)。歐盟委員會認(rèn)為,人工智能技術(shù)會基于應(yīng)用情況和技術(shù)發(fā)展層次,對于公共利益和基本權(quán)利造成物質(zhì)性或非物質(zhì)性的損害,因此需要建立系統(tǒng)性的、層次分明的人工智能法,同時與歐盟法律框架中其它權(quán)利保護(hù)法達(dá)成高度一致。在充分考慮產(chǎn)品風(fēng)險(xiǎn)與基本權(quán)利風(fēng)險(xiǎn)的平衡下,歐盟委員會必然受到數(shù)據(jù)保護(hù)、消費(fèi)者保護(hù)、工會權(quán)利保護(hù)、勞資關(guān)系保護(hù)、產(chǎn)品缺陷救濟(jì)權(quán)保護(hù)等相關(guān)法律的影響,在編纂《人工智能法》時強(qiáng)化人工智能系統(tǒng)透明度以及運(yùn)作記錄留存等方面的義務(wù)設(shè)置,旨在增強(qiáng)損害救濟(jì)措施的實(shí)施效果。例如,在特定領(lǐng)域人工智能系統(tǒng)輸出預(yù)測、判斷、建議或輔助決策時,《人工智能法》會基于人類監(jiān)督原則強(qiáng)化自然人對于人工智能系統(tǒng)輸出內(nèi)容的控制權(quán),這種立法傾向顯然具備一定的前瞻性,旨在促進(jìn)社會不斷培養(yǎng)滿足專業(yè)領(lǐng)域需求的自然人參與人工智能系統(tǒng)日常審查監(jiān)控的活動,以滿足各領(lǐng)域的技術(shù)要求和規(guī)范需求。這既明確了人類對于人工智能產(chǎn)品的風(fēng)險(xiǎn)管控,又為人工智能的發(fā)展?fàn)I造了良好的制度保障。
(二)克減規(guī)定:建立以克減強(qiáng)度區(qū)分的風(fēng)險(xiǎn)監(jiān)管等級機(jī)制
1.通過強(qiáng)克減規(guī)定排除特殊目的人工智能系統(tǒng)的風(fēng)險(xiǎn)監(jiān)管
人工智能系統(tǒng)作為正在高速發(fā)展的技術(shù)成果,需要兼具受監(jiān)管空間和開放的實(shí)驗(yàn)空間,并且通過法律手段適當(dāng)納入風(fēng)險(xiǎn)緩解措施?!度斯ぶ悄芊ā吩陲L(fēng)險(xiǎn)概念的正向規(guī)定外附加了風(fēng)險(xiǎn)排除的克減規(guī)定,旨在支持創(chuàng)新、尊重科學(xué)自由,保護(hù)正常的科技研發(fā)活動。其次,基于國防民防、應(yīng)急管理、國際維和等特殊因素而運(yùn)作的人工智能系統(tǒng)業(yè)已在立法中受到豁免①??梢远匆姷氖牵度斯ぶ悄芊ā穼τ诳蒲?、軍事、應(yīng)急響應(yīng)等特殊用途下的人工智能系統(tǒng)的法律規(guī)制保留了克制的態(tài)度,給予該類人工智能系統(tǒng)的部署者、使用者等主體以全部的裁量空間,以關(guān)聯(lián)主體的特定資質(zhì)(例如科研資質(zhì)、軍事資質(zhì)等)為背書,完全將該類人工智能系統(tǒng)的風(fēng)險(xiǎn)討論排除在一般的法律規(guī)定之外。也即,《人工智能法》已經(jīng)建立強(qiáng)克減軌道下的風(fēng)險(xiǎn)監(jiān)測屏蔽制度,以保證該法案將在任何時刻內(nèi),均不對因此類目的而使用的人工智能系統(tǒng)產(chǎn)生高強(qiáng)度干預(yù),而是通過政府命令等更加靈活的模式進(jìn)行管理。除此之外,在立法設(shè)置上,利用豁免等方式劃定現(xiàn)階段的監(jiān)管范疇,也有助于厘清人工智能法的監(jiān)管脈絡(luò),為法規(guī)未來的調(diào)整保留足夠的迂回空間。
2.通過弱克減規(guī)定平衡對通常情境下人工智能系統(tǒng)的監(jiān)管力度
《人工智能法》通篇對于人工智能系統(tǒng)做出了嚴(yán)格的限制②,為防止該等實(shí)質(zhì)或形式限制對于歐盟人工智能技術(shù)與市場創(chuàng)新發(fā)展造成負(fù)面影響,歐盟委員會通過力度較弱的克減規(guī)定,劃清通常情況下風(fēng)險(xiǎn)認(rèn)定的最低標(biāo)準(zhǔn),以及排除認(rèn)定為具備一定等級風(fēng)險(xiǎn)的情況。例如,在第三章第六條的第三款規(guī)定中,如果認(rèn)定人工智能系統(tǒng)對自然人的健康、安全或基本權(quán)利無法構(gòu)成重大損害風(fēng)險(xiǎn),包括不對人類決策結(jié)果產(chǎn)生重大不利影響,則不應(yīng)被視為高風(fēng)險(xiǎn)人工智能系統(tǒng)。這款克減規(guī)定強(qiáng)調(diào)了“人類決策結(jié)果”“重大基本權(quán)利”等重點(diǎn)保護(hù)要素,并排除了通過其它要素定義人工智能系統(tǒng)為“高風(fēng)險(xiǎn)”的可能性。在排除條件上,這則條款補(bǔ)充了四項(xiàng)風(fēng)險(xiǎn)排除條件③。在這些排除條件中,除(d)款涉及條款修改的程序性規(guī)定,前三項(xiàng)條件都展現(xiàn)了一定的立法動機(jī),即“排除人工智能系統(tǒng)對人類決策進(jìn)行未知干涉”。同時,歐盟又利用補(bǔ)充條款對于《人工智能法》中的排除條件進(jìn)行了限制,即對于自然人進(jìn)行畫像的人工智能系統(tǒng)將始終被視為高風(fēng)險(xiǎn)系統(tǒng),以嚴(yán)格控制人工智能運(yùn)用造成的連帶法律風(fēng)險(xiǎn)。
由此可見,《人工智能法》關(guān)于風(fēng)險(xiǎn)評判的正向規(guī)定與克減規(guī)定呈現(xiàn)出耦合與互相約束的榫卯結(jié)構(gòu),反映出歐盟委員會對于監(jiān)管強(qiáng)度的審慎態(tài)度。同時,這種模式也正緩和了《人工智能法》草案階段受到詬病的實(shí)用性與確定性的不足④,體現(xiàn)了歐盟委員會對于人工智能治理中法律確定性的重視,有效緩解了歐洲人工智能企業(yè)承受“以‘財(cái)產(chǎn)規(guī)則為主導(dǎo)的GDPR”相同程度的監(jiān)管負(fù)擔(dān)問題8
三、人工智能系統(tǒng)的法律風(fēng)險(xiǎn)規(guī)制 理念與制度基礎(chǔ)
《人工智能法》制定了完善的法律風(fēng)險(xiǎn)規(guī)制措施,以保證歐盟法律框架能夠?qū)τ谌斯ぶ悄軓漠a(chǎn)生到運(yùn)作的全流程風(fēng)險(xiǎn)外溢做到事先預(yù)警和事后響應(yīng)。這套具體的風(fēng)險(xiǎn)規(guī)制措施建立在完整的規(guī)制理念與制度基礎(chǔ)上。規(guī)制理念決定了人工智能系統(tǒng)受到規(guī)制的本質(zhì)原因以及嚴(yán)格程度,制度基礎(chǔ)決定了人工智能系統(tǒng)風(fēng)險(xiǎn)規(guī)制的效力與規(guī)制進(jìn)路。
(一)對高風(fēng)險(xiǎn)人工智能系統(tǒng)的規(guī)制理念
1.建立以透明度、人類監(jiān)督與網(wǎng)絡(luò)安全原則為主的規(guī)制思維
針對人工智能系統(tǒng)投入使用而施加的一系列法律原則,是《人工智能法》權(quán)利義務(wù)框架建立的前提條件?!度斯ぶ悄芊ā返谑龡l明確規(guī)定了高風(fēng)險(xiǎn)人工智能系統(tǒng)的設(shè)計(jì)和開發(fā)程序中,應(yīng)確保相關(guān)操作具有足夠的透明度,使部署者能夠解釋系統(tǒng)的輸出結(jié)果并且進(jìn)行針對性處理。《人工智能法》支持建立適當(dāng)類型和程度的透明度義務(wù),其嚴(yán)格程度與人工智能系統(tǒng)風(fēng)險(xiǎn)呈現(xiàn)正比關(guān)系。例如:有限風(fēng)險(xiǎn)的人工智能系統(tǒng)僅僅承擔(dān)輕微的透明度義務(wù),這種輕微義務(wù)的設(shè)置可以簡化監(jiān)管流程,幫助人工智能更高效地運(yùn)作,同時還為富有創(chuàng)新力的人工智能群體降低了發(fā)展成本,是對于“監(jiān)管的創(chuàng)新悖論(innovationparadoxofregulation)”問題提出的良好解決方案;而高風(fēng)險(xiǎn)人工智能系統(tǒng)需要承擔(dān)更嚴(yán)格的透明度義務(wù)。這些義務(wù)包括但不限于:進(jìn)行更復(fù)雜的合格性認(rèn)證、向更高級別的主管部門提供更詳實(shí)的內(nèi)部審核報(bào)告、更高的市場準(zhǔn)入門檻等①
高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)附有適當(dāng)?shù)臄?shù)字格式或其他形式的使用說明,其中包括簡明完整、正確清晰的系統(tǒng)屬性信息。設(shè)置透明度的目的是保證高風(fēng)險(xiǎn)人工智能系統(tǒng)的自動化操作在合理的可預(yù)測范圍之內(nèi),能夠?yàn)閰⑴c人工智能系統(tǒng)設(shè)計(jì)、布局、使用、維護(hù)等活動的各自然人主體所準(zhǔn)確理解。人工智能系統(tǒng)的特點(diǎn)、能力與性能限制等指標(biāo)的體現(xiàn)來源于透明度原則,該原則為人類監(jiān)督與網(wǎng)絡(luò)安全兩項(xiàng)原則奠定了法律規(guī)制基調(diào),即高風(fēng)險(xiǎn)人工智能系統(tǒng)必須保證設(shè)計(jì)運(yùn)行的全過程透明,以便對其進(jìn)行高效準(zhǔn)確的規(guī)制。
第十四條人類監(jiān)督原則,旨在最大程度上減少高風(fēng)險(xiǎn)人工智能系統(tǒng)在按照預(yù)期目的使用或在合理預(yù)見的濫用條件下使用時,對于基本權(quán)利造成的法律風(fēng)險(xiǎn)。本條第一款中強(qiáng)調(diào)高風(fēng)險(xiǎn)人工智能系統(tǒng)從設(shè)計(jì)開發(fā)到投入使用,應(yīng)當(dāng)設(shè)置自然人全過程有效監(jiān)督的具體措施②。并且在此基礎(chǔ)上延展細(xì)化到提供者、部署者的義務(wù)體系,以確保準(zhǔn)確落實(shí)《人工智能法》的風(fēng)險(xiǎn)管理要求。在人類監(jiān)督原則的指導(dǎo)下,本條款為被指派進(jìn)行人類監(jiān)督的特定自然人,提供了監(jiān)督模式的參考與指引。人類監(jiān)督模式強(qiáng)調(diào)通過人類獨(dú)立的判斷力對于人工智能的使用風(fēng)險(xiǎn)做出事先預(yù)判、事中評估與事后規(guī)制。要求進(jìn)行監(jiān)督的人類對于特定人工智能具備規(guī)制能力,發(fā)揮人類獨(dú)立的決策能力,以防止人工智能系統(tǒng)對于人類決策的不利影響。
第十五條網(wǎng)絡(luò)安全原則,聚焦人工智能系統(tǒng)的內(nèi)部穩(wěn)定性與輸出結(jié)果的準(zhǔn)確性,增強(qiáng)對于高風(fēng)險(xiǎn)人工智能系統(tǒng)技術(shù)風(fēng)險(xiǎn)的化解能力。該條款要求高風(fēng)險(xiǎn)人工智能系統(tǒng)在完整生命周期內(nèi)保持高度一致。對于準(zhǔn)確性和穩(wěn)定性的判斷標(biāo)準(zhǔn),《人工智能法》鼓勵有權(quán)部門和利益相關(guān)方通過多邊協(xié)商的方式進(jìn)行標(biāo)準(zhǔn)制定。本條衍生的網(wǎng)絡(luò)安全保護(hù)的法律措施較為多元化,在人工智能系統(tǒng)內(nèi)部,本法支持自然人通過手動方式解決系統(tǒng)運(yùn)行中的故障問題,建議通過制定備份和故障安全計(jì)劃等替代模式來實(shí)現(xiàn)干預(yù)。針對人工智能系統(tǒng)在投放市場或提供服務(wù)后的自動化學(xué)習(xí)行為,本條主張通過更加完善的開發(fā)方式消除因操作偏差而對人類決策產(chǎn)生不利影響的風(fēng)險(xiǎn)。同時,本條第五款強(qiáng)調(diào),高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)當(dāng)具備抵御未授權(quán)第三方利用系統(tǒng)缺陷改變系統(tǒng)輸出結(jié)果的能力。對于系統(tǒng)缺陷進(jìn)行的攻擊手段做出示例,并且要求處理系統(tǒng)漏洞的技術(shù)解決方案應(yīng)當(dāng)具備適當(dāng)?shù)奶娲胧?/p>
2.界定風(fēng)險(xiǎn)管理系統(tǒng)架構(gòu)與加強(qiáng)源數(shù)據(jù)治理觀念
《人工智能法》倡導(dǎo)為高風(fēng)險(xiǎn)人工智能系統(tǒng)實(shí)施持續(xù)性的風(fēng)險(xiǎn)管理措施,并提出通過源數(shù)據(jù)治理的方式來踐行風(fēng)險(xiǎn)管理的規(guī)制理念[]。盡管風(fēng)險(xiǎn)管理系統(tǒng)尚未在現(xiàn)實(shí)層面做到完善,但已在理論層面完善了當(dāng)下時期內(nèi)風(fēng)險(xiǎn)管理系統(tǒng)的組織架構(gòu)。風(fēng)險(xiǎn)管理系統(tǒng)對于高風(fēng)險(xiǎn)人工智能系統(tǒng)的使用進(jìn)行規(guī)制,縱貫高風(fēng)險(xiǎn)人工智能系統(tǒng)完整生命周期的同時,也要隨著人工智能系統(tǒng)的發(fā)展進(jìn)行更新迭代?!度斯ぶ悄芊ā氛J(rèn)為,風(fēng)險(xiǎn)管理系統(tǒng)應(yīng)當(dāng)聚焦三種條件下的風(fēng)險(xiǎn)展開更迭過程,即對于基本權(quán)利產(chǎn)生損害的風(fēng)險(xiǎn)、預(yù)期范圍內(nèi)產(chǎn)生的其它風(fēng)險(xiǎn)、通過評估人工智能提供服務(wù)的數(shù)據(jù)分析得到的非預(yù)期風(fēng)險(xiǎn)。其中,預(yù)期范圍內(nèi)的風(fēng)險(xiǎn),既包括根據(jù)人工智能系統(tǒng)預(yù)期使用目的造成的已知風(fēng)險(xiǎn),也包括該系統(tǒng)在可合理預(yù)見的濫用條件下使用時可能出現(xiàn)的風(fēng)險(xiǎn)。
為使風(fēng)險(xiǎn)管理系統(tǒng)對于人工智能系統(tǒng)的規(guī)制產(chǎn)生具體的效果,本法對于風(fēng)險(xiǎn)管理系統(tǒng)的測試與運(yùn)行原則做出了要求。管理系統(tǒng)參與的風(fēng)險(xiǎn)概念被實(shí)施了部分限制,僅指通過技術(shù)開發(fā)層面提供充分的技術(shù)信息可以合理減輕或者消除的風(fēng)險(xiǎn)。也即風(fēng)險(xiǎn)管理必須具體可操作,并且必須可以通過技術(shù)反饋的途徑對管理進(jìn)程進(jìn)行掌握。同時,風(fēng)險(xiǎn)管理系統(tǒng)的設(shè)計(jì)必須具備前瞻性和綜合性,在采取管理措施時必須適當(dāng)考慮人工智能系統(tǒng)的應(yīng)用產(chǎn)生的廣泛影響。對于禁止的人工智能實(shí)踐和嚴(yán)格管制的高風(fēng)險(xiǎn)人工智能的使用,還須考慮到對社會、業(yè)態(tài)、歐盟價值觀產(chǎn)生的相互作用,并在規(guī)制施行環(huán)節(jié)做到適應(yīng)性平衡。為減弱或者消除人工智能系統(tǒng)的使用風(fēng)險(xiǎn),界定“風(fēng)險(xiǎn)管理系統(tǒng)”這一概念的進(jìn)步之處體現(xiàn)在對于人工智能使用風(fēng)險(xiǎn)的精準(zhǔn)把控與保留人工智能系統(tǒng)的開發(fā)測試空間,以保證受規(guī)制的人工智能系統(tǒng)在實(shí)現(xiàn)預(yù)期目標(biāo)的軌道上仍然能夠穩(wěn)定運(yùn)行。
數(shù)據(jù)作為交付人工智能系統(tǒng)進(jìn)行處理的原始資料,成為規(guī)制人工智能系統(tǒng)使用風(fēng)險(xiǎn)的介人因素。對數(shù)據(jù)的監(jiān)管實(shí)際上從源頭影響人工智能行業(yè)的發(fā)展[11],因此除設(shè)置風(fēng)險(xiǎn)管理系統(tǒng)之外,《人工智能法》對于人工智能系統(tǒng)的風(fēng)險(xiǎn)規(guī)制還基于數(shù)據(jù)治理的理念之上,特別是人工智能技術(shù)從現(xiàn)實(shí)收集到的源數(shù)據(jù)。本法強(qiáng)調(diào)對于利用數(shù)據(jù)訓(xùn)練模型技術(shù)進(jìn)行服務(wù)與運(yùn)行的高風(fēng)險(xiǎn)人工智能系統(tǒng),應(yīng)當(dāng)符合特定質(zhì)量標(biāo)準(zhǔn)的訓(xùn)練,例如訓(xùn)練能夠甄別源數(shù)據(jù)客觀性的能力。在驗(yàn)證和測試數(shù)據(jù)集使用風(fēng)險(xiǎn)的基礎(chǔ)上進(jìn)行管理。在加強(qiáng)源數(shù)據(jù)治理以增幅風(fēng)險(xiǎn)控制的規(guī)制模式下,《人工智能法》對于高風(fēng)險(xiǎn)人工智能系統(tǒng)進(jìn)行數(shù)據(jù)實(shí)踐做出了嚴(yán)格的全過程監(jiān)管規(guī)定。在訓(xùn)練與測試過程中,應(yīng)當(dāng)保留人工智能系統(tǒng)的設(shè)計(jì)目的、詳細(xì)的設(shè)計(jì)類型,厘清人工智能系統(tǒng)的數(shù)據(jù)來源與收集目的,說明數(shù)據(jù)的處理操作,對于數(shù)據(jù)經(jīng)處理所形成的信息內(nèi)容做出合理推定。在實(shí)踐過程中,相關(guān)人員、機(jī)構(gòu)須持續(xù)評估數(shù)據(jù)集的成分、體量與適用程度,針對可能損害自然人當(dāng)下和未來的基本權(quán)利,或者違反歐盟法律禁令的數(shù)據(jù)處理偏差進(jìn)行矯正。
在數(shù)據(jù)測試與人工智能系統(tǒng)訓(xùn)練環(huán)節(jié)中,《人工智能法》為人工智能系統(tǒng)處理源數(shù)據(jù)保留了大量的空間,但同時也對源數(shù)據(jù)進(jìn)行了較高級別的保護(hù)。例如,只有在處理合成數(shù)據(jù)和匿名數(shù)據(jù)等非源數(shù)據(jù)無法實(shí)現(xiàn)偏差檢測與矯正的條件下,才允許人工智能處理源數(shù)據(jù);對于特殊類型的源數(shù)據(jù),例如個人數(shù)據(jù),必須采取“假名化”等方式進(jìn)行數(shù)據(jù)保護(hù),并且遵守嚴(yán)格的規(guī)定,在經(jīng)過有關(guān)部門授權(quán)的情況下,保留訪問、處理記錄,承擔(dān)特定的保密義務(wù);在數(shù)據(jù)使用期截止時,除非有正當(dāng)理由支持并且經(jīng)過有關(guān)部門批準(zhǔn),必須及時刪除敏感源數(shù)據(jù)。由此可以證實(shí)的是,《人工智能法》對于人工智能系統(tǒng)進(jìn)行數(shù)據(jù)處理的原則,與歐盟的數(shù)據(jù)法體系一脈相承。
對于數(shù)據(jù)施行分層規(guī)制的理念,同樣影響著歐盟對人工智能系統(tǒng)的法律規(guī)制模式。近年來,歐洲共同數(shù)據(jù)空間的建設(shè),將基礎(chǔ)設(shè)施和數(shù)據(jù)治理機(jī)制進(jìn)行有效結(jié)合,旨在利用數(shù)據(jù)創(chuàng)新驅(qū)動的政策推動歐洲人工智能技術(shù)市場的競爭力與社會福利發(fā)展。同時,《歐洲數(shù)據(jù)戰(zhàn)略》支持營造安全高效的數(shù)據(jù)共享環(huán)境,為此歐盟委員會正試圖會同國際社會各界一道,制定強(qiáng)有力的治理機(jī)制和信任框架,其中包括統(tǒng)一規(guī)則和標(biāo)準(zhǔn)化規(guī)則制定[12]。這些理念與《人工智能法》中加強(qiáng)數(shù)據(jù)治理的基礎(chǔ)觀念具有高度一致性。
(二)人工智能系統(tǒng)風(fēng)險(xiǎn)管理的制度基礎(chǔ)
1.明確人工智能價值鏈與推動制度標(biāo)準(zhǔn)化進(jìn)程
人工智能技術(shù)的快速發(fā)展,使得對于人工智能系統(tǒng)的法律規(guī)制必須保證持續(xù)更新的狀態(tài)。通過引入人工智能價值鏈概念和推動人工智能法律標(biāo)準(zhǔn)化兩大制度基礎(chǔ),歐盟初步構(gòu)建了一套具備階段性和適應(yīng)性的人工智能法律框架。人工智能價值鏈將參與人工智能系統(tǒng)設(shè)計(jì)部署、投入使用、審核反饋等全過程的主體進(jìn)行聯(lián)系,在歐盟價值觀的引導(dǎo)下對于全鏈條上的主體進(jìn)行權(quán)利、義務(wù)與責(zé)任的分配,在促進(jìn)人工智能技術(shù)發(fā)展的基礎(chǔ)上,對人工智能系統(tǒng)產(chǎn)生良好的規(guī)制效果。在人工智能價值鏈中,多方相關(guān)主體對于人工智能系統(tǒng)產(chǎn)生的作用迥異,明確人工智能價值鏈上的權(quán)利義務(wù)與法律責(zé)任等因素,有利于培養(yǎng)人工智能系統(tǒng)相關(guān)方的人工智能素養(yǎng),進(jìn)而反哺人工智能法律的監(jiān)管效能與執(zhí)行效率。人工智能價值鏈?zhǔn)呛饬咳斯ぶ悄茱L(fēng)險(xiǎn)的一種新型標(biāo)準(zhǔn),通過適應(yīng)現(xiàn)階段技術(shù)發(fā)展與人工智能系統(tǒng)的使用反饋,為約束全鏈條上的主體提供理論參考。
在風(fēng)險(xiǎn)控制的國際化探討中存在一種范圍性共識,即行業(yè)自我監(jiān)管一般不能作為公共利益保護(hù)的可靠途徑,即使某領(lǐng)域的制度管理仍顯經(jīng)驗(yàn)不足,通常也需要正式的法律明確一條規(guī)范通路[13]。從這個觀點(diǎn)出發(fā)進(jìn)行觀察與分析,《人工智能法》為細(xì)分領(lǐng)域內(nèi)投放使用的人工智能系統(tǒng)做出了階段性、具體化的約束,并且在形式上要求人工智能系統(tǒng)滿足一定的標(biāo)準(zhǔn),例如通過評估認(rèn)證進(jìn)行合法性背書。歐盟委員會具備設(shè)置標(biāo)準(zhǔn)化規(guī)格的權(quán)力,有權(quán)在咨詢?nèi)斯ぶ悄芪瘑T會和其它利益相關(guān)方的基礎(chǔ)上,向歐洲標(biāo)準(zhǔn)化組織發(fā)出標(biāo)準(zhǔn)化請求,進(jìn)而推動針對人工智能系統(tǒng)更加行之有效的法律出臺。在發(fā)起標(biāo)準(zhǔn)化請求時,應(yīng)當(dāng)及時提供可交付使用的人工智能系統(tǒng)有關(guān)報(bào)告,便于委員會對特定人工智能系統(tǒng)進(jìn)行精確評估?!度斯ぶ悄芊ā穼τ谌斯ぶ悄芟到y(tǒng)的投放與使用設(shè)定標(biāo)準(zhǔn)化規(guī)格,意在減少人工智能系統(tǒng)在設(shè)計(jì)、測試、投放使用的全過程中產(chǎn)生的能源及其它資源消耗,同時促進(jìn)人工智能領(lǐng)域的投資與創(chuàng)新①。人工智能領(lǐng)域中標(biāo)準(zhǔn)化規(guī)則的發(fā)展,有利于通過對于形式的嚴(yán)格要求,提高人工智能法的立法水平,有利于提高法律確定性,輔助提升歐盟人工智能法的核心競爭力。
在人工智能系統(tǒng)使用的標(biāo)準(zhǔn)化進(jìn)程中,《人工智能法》強(qiáng)調(diào)加強(qiáng)標(biāo)準(zhǔn)化工作的全球合作,增強(qiáng)利益相關(guān)方的多邊治理,基于利益平衡的最終目的,鼓勵相關(guān)方的有效參與。該法為標(biāo)準(zhǔn)化流程設(shè)置了補(bǔ)充條款,在標(biāo)準(zhǔn)化條件尚不滿足或標(biāo)準(zhǔn)化規(guī)格缺失時②,由歐盟委員會制定共同規(guī)格作為替代方案。這種方案囊括了標(biāo)準(zhǔn)化規(guī)則不能適應(yīng)基本權(quán)利保護(hù)、標(biāo)準(zhǔn)化申請未被任何歐洲標(biāo)準(zhǔn)化組織接受等例外情況。同樣,共同規(guī)格的設(shè)置沒有降低對于高風(fēng)險(xiǎn)人工智能系統(tǒng)的風(fēng)險(xiǎn)控制要求,仍然保持了同等的風(fēng)險(xiǎn)評估標(biāo)準(zhǔn)。且共同規(guī)格僅僅作為臨時替代規(guī)則,歐洲標(biāo)準(zhǔn)化組織仍會在此基礎(chǔ)上嘗試通過歐盟委員會的標(biāo)準(zhǔn)化申請,并促成適格的人工智能法階段性出臺。人工智能治理的標(biāo)準(zhǔn)化進(jìn)程已經(jīng)成為具備一定國際影響力的人工智能立法觀念,在2021年,我國學(xué)者在研究中就認(rèn)為,我國亟需增強(qiáng)人工智能立法的標(biāo)準(zhǔn)化成效,需要強(qiáng)化標(biāo)準(zhǔn)研制和實(shí)驗(yàn)驗(yàn)證,針對重點(diǎn)行業(yè)和領(lǐng)域的技術(shù)標(biāo)準(zhǔn)尚待健全,特別是圍繞基礎(chǔ)數(shù)據(jù)、模型算法、產(chǎn)品服務(wù)和風(fēng)險(xiǎn)管理等重點(diǎn)指標(biāo)需要盡快完善[14]。此外,部分研究者提出重視正式標(biāo)準(zhǔn)與法律的協(xié)同作用,為技術(shù)標(biāo)準(zhǔn)保留準(zhǔn)用性接口,通過標(biāo)準(zhǔn)術(shù)語界定與法律概念銜接,為技術(shù)創(chuàng)新、制度審查和風(fēng)險(xiǎn)衡量與規(guī)制等工作建立制度基礎(chǔ)[15]
2.完善合格性評估與認(rèn)證登記流程
合格性評估和認(rèn)證登記是《人工智能法》幫助推行標(biāo)準(zhǔn)化流程的具體手段,并以人工智能價值鏈為理論引導(dǎo),對具體的人工智能系統(tǒng)實(shí)踐產(chǎn)生約束效力。不論提供者選擇統(tǒng)一標(biāo)準(zhǔn)或是共同規(guī)格作為制度參考,合格性評估都能給予人工智能系統(tǒng)提供者以多元的方式滿足歐盟的監(jiān)管要求。人工智能系統(tǒng)的提供者有權(quán)選擇以下任一程序履行法律義務(wù):
(1)基于人工智能企業(yè)內(nèi)部控制的合格性評估程序。這種程序要求人工智能系統(tǒng)提供者確立的質(zhì)量管理系統(tǒng)總體符合《人工智能法》第十七條的要求,以書面政策、程序或者指令的方式,完整記錄對于高風(fēng)險(xiǎn)人工智能系統(tǒng)的設(shè)計(jì)策略、技術(shù)控制、例行檢查程序、技術(shù)規(guī)格、數(shù)據(jù)收集等重要方面的行為模式。在此基礎(chǔ)上,完善風(fēng)險(xiǎn)管理系統(tǒng)的建設(shè)、實(shí)施和維護(hù)市場后監(jiān)測系統(tǒng)運(yùn)作,對于嚴(yán)重風(fēng)險(xiǎn)外溢事件做好預(yù)案,完善與國家主管機(jī)關(guān)和相關(guān)機(jī)構(gòu)(例如歐洲標(biāo)準(zhǔn)化組織)的溝通協(xié)作,強(qiáng)化企業(yè)信息記錄、問責(zé)框架和安全管理等問題?;谄髽I(yè)內(nèi)控的監(jiān)管模式,契合主要經(jīng)營或研發(fā)業(yè)務(wù)為人工智能系統(tǒng)的企業(yè),并且要求企業(yè)在與主管機(jī)關(guān)和相關(guān)機(jī)構(gòu)的交往中具備較強(qiáng)的信用程度,以通過企業(yè)自治的模式簡化主管機(jī)關(guān)對于相關(guān)人工智能系統(tǒng)的法律風(fēng)險(xiǎn)規(guī)制,節(jié)省通知機(jī)構(gòu)等各方的風(fēng)險(xiǎn)規(guī)制資源。
(2)基于質(zhì)量管理體系和技術(shù)文件的雙重合格性評估。這種雙重評估的模式較企業(yè)內(nèi)控模式更為嚴(yán)格,是符合大部分人工智能系統(tǒng)提供者的制度路徑。在這種路徑下,提供者或者授權(quán)代表需要提交其質(zhì)量管理系統(tǒng)的清單、技術(shù)文件、程序說明等詳細(xì)信息并經(jīng)過通知機(jī)構(gòu)的初步審查。經(jīng)過通知機(jī)構(gòu)評估且批準(zhǔn)的質(zhì)量管理系統(tǒng),若需進(jìn)行更改,需要報(bào)告通知機(jī)構(gòu)重新評估。若人工智能系統(tǒng)需要投放市場并面對不特定公眾提供服務(wù),則還需提供詳細(xì)的技術(shù)文件,以供通知機(jī)構(gòu)以遠(yuǎn)程訪問等形式無障礙訪問人工智能系統(tǒng)的數(shù)據(jù)集。若通知機(jī)構(gòu)在評估過程中用盡所有現(xiàn)行的評估方式,仍能夠證明人工智能系統(tǒng)的風(fēng)險(xiǎn)控制尚不充分,則可以在客觀證據(jù)的基礎(chǔ)上,審閱人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)、系統(tǒng)模型和相關(guān)參數(shù)。通知機(jī)構(gòu)對于提供者的測試流程若存在不滿之處,可以酌情進(jìn)行直接測試。通知機(jī)構(gòu)進(jìn)行審閱、測試等任何評估行為,必須遵守歐盟關(guān)于知識產(chǎn)權(quán)和商業(yè)秘密的法律規(guī)定。
在雙重評估結(jié)束后,若獲得通知機(jī)構(gòu)批準(zhǔn)認(rèn)可,則向人工智能系統(tǒng)提供者簽發(fā)合格性認(rèn)證和歐盟技術(shù)認(rèn)證補(bǔ)充文件,代表該人工智能系統(tǒng)風(fēng)險(xiǎn)處于可控范圍之內(nèi)。通知機(jī)構(gòu)仍然會對已經(jīng)通過評估的人工智能系統(tǒng)進(jìn)行可持續(xù)的監(jiān)督,并對人工智能系統(tǒng)的提供者進(jìn)行定期審計(jì)。在評估過程中,為了確保通知機(jī)構(gòu)評估結(jié)果的準(zhǔn)確性和真實(shí)性,人工智能系統(tǒng)的提供者需要為通知機(jī)構(gòu)的審核提供準(zhǔn)確信息等便利條件,包括但不限于提供者和授權(quán)代表的身份、地址等詳細(xì)信息,系統(tǒng)運(yùn)行組件信息,使用信息,系統(tǒng)狀態(tài)(提供服務(wù)、投放市場、召回等),既存的通知機(jī)關(guān)認(rèn)證文件或合格性證明。除某些有關(guān)部門用于移民和邊境管制等具備敏感性的人工智能系統(tǒng)外,其余人工智能系統(tǒng)的評估流程規(guī)定均體現(xiàn)出較強(qiáng)的透明度。
對于提供人工智能系統(tǒng)的任何個人或企業(yè)來說,需要特別針對高風(fēng)險(xiǎn)人工智能系統(tǒng)起草一份書面的歐盟合格性聲明作為背書,在投放市場或提供服務(wù)的10年內(nèi)提交至歐盟國家的人工智能主管部門進(jìn)行保存,并適時進(jìn)行更新。這則程序性規(guī)定要求登記備案流程必須同時滿足歐盟統(tǒng)一立法和歐盟成員國的立法要求,分別向成員國和歐盟提供一份合格性聲明,以供不同的監(jiān)管主體履行監(jiān)管責(zé)任。在此基礎(chǔ)上,為了給特殊情況下的人工智能系統(tǒng)使用提供合理空間,《人工智能法》保留了合格性評估的克減條件。歐盟的市場監(jiān)督管理機(jī)關(guān)可以授權(quán)在成員國境內(nèi),借助公共安全、生命健康權(quán)益與環(huán)境保護(hù)、維持工業(yè)和基礎(chǔ)設(shè)施等重要資產(chǎn)等正當(dāng)理由,跳過常規(guī)合格性評估程序,僅通過認(rèn)證登記流程,直接將特定高風(fēng)險(xiǎn)人工智能系統(tǒng)投入使用。如果基于公共安全和自然人生命健康權(quán)益理由,需要跳過合格性評估,則要求必須存在急迫的實(shí)質(zhì)威脅,高風(fēng)險(xiǎn)人工智能系統(tǒng)的使用主體必須是執(zhí)法機(jī)關(guān)或國防機(jī)關(guān),且在利用高風(fēng)險(xiǎn)人工智能系統(tǒng)后合理期限內(nèi)必須申請合格性評估,獲取歐盟的有效授權(quán)。在無法獲得有效授權(quán)的情況下,應(yīng)當(dāng)立即停止使用此高風(fēng)險(xiǎn)人工智能系統(tǒng),并且對該系統(tǒng)的所有產(chǎn)出進(jìn)行棄置處理。
根據(jù)《人工智能法》規(guī)定,經(jīng)通知機(jī)構(gòu)評估合格后,在投放市場提供服務(wù)前還應(yīng)經(jīng)過專門的認(rèn)證登記。通知機(jī)構(gòu)在認(rèn)證登記過程中需要承擔(dān)重要的信息義務(wù)。這種信息義務(wù)需要同時對上級通知機(jī)關(guān)和同級的通知機(jī)構(gòu)履行。需要向上級通知機(jī)關(guān)履行的信息義務(wù)主要集中在影響風(fēng)險(xiǎn)監(jiān)管的人工智能系統(tǒng)使用狀態(tài)信息上,包括技術(shù)文件評估、質(zhì)量管理體系認(rèn)證等文件的頒發(fā)生效和限制中止等信息,從市場監(jiān)督管理機(jī)關(guān)獲取的特定人工智能系統(tǒng)合格性評估要求,和可能影響人工智能系統(tǒng)合格性評估的跨境活動與分包活動上?!度斯ぶ悄芊ā犯郊辛信e的高風(fēng)險(xiǎn)人工智能系統(tǒng)在投放市場提供服務(wù)前,需要將人工智能系統(tǒng)的具體信息登記于歐盟數(shù)據(jù)庫。這個獨(dú)立數(shù)據(jù)庫由歐盟委員會和成員國合作創(chuàng)建,數(shù)據(jù)庫的功能規(guī)格和登記信息種類等詳細(xì)屬性由歐盟委員會在專家意見指導(dǎo)下確定,更新規(guī)格和屬性時,則由歐盟委員會和人工智能委員會共同決定。此數(shù)據(jù)庫的數(shù)據(jù)由人工智能系統(tǒng)提供者或其授權(quán)代表提供,參與合格性評估克減程序的特殊系統(tǒng)由公共機(jī)構(gòu)、團(tuán)體部署人員或者代表輸入數(shù)據(jù)庫。以上數(shù)據(jù)始終保持開源和機(jī)器易讀,在個人數(shù)據(jù)收集方面延續(xù)了歐盟的傳統(tǒng)觀念,僅收集必要的個人數(shù)據(jù)。歐盟委員會作為該數(shù)據(jù)庫的實(shí)際控制者,有義務(wù)向高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者、部署者以及公眾監(jiān)督提供技術(shù)支持和行政支持。
四、高風(fēng)險(xiǎn)人工智能價值鏈上的責(zé)任落實(shí)
“高風(fēng)險(xiǎn)人工智能價值鏈”形成了《人工智能法》對于人工智能技術(shù)發(fā)展的理念建構(gòu),在此理念下形成了獨(dú)特的制度體系,統(tǒng)合了標(biāo)準(zhǔn)化進(jìn)程與法律條款,同時兼容了質(zhì)量管理體系與技術(shù)文件全流程評估。價值鏈帶來的風(fēng)險(xiǎn)管理系統(tǒng)等制度成果為人工智能治理提供了良好的靜態(tài)制度框架。有學(xué)者認(rèn)為,風(fēng)險(xiǎn)這一核心要素用于提供監(jiān)管對象、證明監(jiān)管的合理性、構(gòu)建實(shí)施監(jiān)管的組織和程序以及確認(rèn)各方需要承擔(dān)的責(zé)任,因此“責(zé)任落實(shí)”作為人工智能制度反應(yīng)鏈的終端,在將抽象的治理框架轉(zhuǎn)化為具象的責(zé)任分配機(jī)制過程中發(fā)揮著決定性作用,成為確保風(fēng)險(xiǎn)規(guī)制實(shí)效的關(guān)鍵。
《人工智能法》以“高風(fēng)險(xiǎn)人工智能價值鏈”為邏輯起點(diǎn),通過明確價值鏈上各主體的角色定位與權(quán)利義務(wù)關(guān)系,構(gòu)建起以系統(tǒng)控制者為中心的分級義務(wù)體系。這一設(shè)計(jì)不僅延續(xù)了透明度、人類監(jiān)督與網(wǎng)絡(luò)安全等核心規(guī)制理念,更通過制度化的責(zé)任傳導(dǎo)機(jī)制,將風(fēng)險(xiǎn)管理、數(shù)據(jù)治理與標(biāo)準(zhǔn)化流程嵌入人工智能系統(tǒng)的全生命周期。本部分將聚焦于價值鏈上的責(zé)任落實(shí)路徑,探討分級義務(wù)體系的具體架構(gòu)及其與基本權(quán)利影響評估的協(xié)同效應(yīng),以揭示風(fēng)險(xiǎn)規(guī)制從制度設(shè)計(jì)到實(shí)踐運(yùn)行的內(nèi)在邏輯。
(一)形成以高風(fēng)險(xiǎn)人工智能系統(tǒng)控制者為中心的分級義務(wù)體系
《人工智能法》在人工智能風(fēng)險(xiǎn)管理的制度基礎(chǔ)上,圍繞高風(fēng)險(xiǎn)人工智能系統(tǒng)的控制者設(shè)置了既定的義務(wù)體系。這種義務(wù)體系以高風(fēng)險(xiǎn)人工智能價值鏈為理論展開,將價值鏈上的責(zé)任傳導(dǎo)至高風(fēng)險(xiǎn)人工智能系統(tǒng)相關(guān)的控制者。控制者可以大致分類為提供者、部署者、進(jìn)口者、分銷者等通過設(shè)計(jì)、投放、推送、傳播人工智能系統(tǒng)至市場的主體??刂普哒莆罩斯ぶ悄芟到y(tǒng)的實(shí)質(zhì)屬性和狀態(tài),是將人工智能系統(tǒng)風(fēng)險(xiǎn)監(jiān)管從制度層面轉(zhuǎn)化為現(xiàn)實(shí)層面的關(guān)鍵環(huán)節(jié)。通過細(xì)化控制者義務(wù),壓實(shí)制度基礎(chǔ),是《人工智能法》風(fēng)險(xiǎn)響應(yīng)機(jī)制的亮點(diǎn)。為了確保人工智能價值鏈上的責(zé)任得以履行,《人工智能法》確定了以提供者的義務(wù)為核心的體系,在對人工智能進(jìn)行實(shí)質(zhì)性修改的過程①中,任何分銷者、進(jìn)口者、部署者以及其它第三方均視為高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者,并承擔(dān)提供者的常規(guī)義務(wù)。而最初的提供者雖然不再被視為特定人工智能系統(tǒng)的提供者,但仍然需要承擔(dān)連帶責(zé)任,與監(jiān)管部門形成良好合作,提供技術(shù)準(zhǔn)入和必要協(xié)助。以上義務(wù)具備附隨性質(zhì),在合格性評估的條款中存在詳細(xì)規(guī)定。
1.夯實(shí)提供者、部署者的基礎(chǔ)義務(wù)
高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者具備部分基礎(chǔ)義務(wù),提供者首先應(yīng)當(dāng)確保人工智能系統(tǒng)在投放市場、進(jìn)人審查范圍時遵守《人工智能法》中有關(guān)禁正的人工智能實(shí)踐的有關(guān)規(guī)定,為高風(fēng)險(xiǎn)人工智能系統(tǒng)配備明顯的辨識符號,如歐盟CE標(biāo)識,登記商標(biāo)、聯(lián)系地址等表明信息的符號。同時提供者應(yīng)當(dāng)主動為系統(tǒng)設(shè)置質(zhì)量管理體系,妥善留存技術(shù)文件等具備明確信息的檔案,持續(xù)生成并保存高風(fēng)險(xiǎn)人工智能系統(tǒng)自動生成的運(yùn)作日志,便于與人工智能系統(tǒng)運(yùn)行的預(yù)期自標(biāo)進(jìn)行不間斷的修正,進(jìn)而確保人類監(jiān)督原則得以有效踐行。此外,提供者需要起草歐盟合格性聲明,履行歐盟制度基礎(chǔ)中的登記義務(wù),在人工智能風(fēng)險(xiǎn)外溢時采取必要的糾正措施,同時應(yīng)主管機(jī)關(guān)的合理要求對高風(fēng)險(xiǎn)人工智能系統(tǒng)擔(dān)負(fù)證明責(zé)任。提供者應(yīng)當(dāng)向成員國的市場監(jiān)督管理機(jī)關(guān)報(bào)告高風(fēng)險(xiǎn)人工智能系統(tǒng)引發(fā)的任何嚴(yán)重事故,并向部署者等有關(guān)主體共享嚴(yán)重事件的信息,共同開展風(fēng)險(xiǎn)評估和糾正調(diào)查。
與高風(fēng)險(xiǎn)人工智能系統(tǒng)的提供者相比,部署者能夠決定人工智能系統(tǒng)以何種方式在多大范圍內(nèi)發(fā)揮作用,部署者的決策行為擴(kuò)大了人工智能系統(tǒng)的實(shí)際影響力。部署者和提供者之間通常體現(xiàn)為一對多的關(guān)系,同一個部署者可能需要處理多個提供者的人工智能系統(tǒng),故部署者的義務(wù)通常指向包括提供者在內(nèi)的不特定社會群體?!度斯ぶ悄芊ā穼Σ渴鹫咦龀隽思夹g(shù)要求,部署者應(yīng)當(dāng)具備一定程度的技術(shù)素養(yǎng),能夠采取技術(shù)和組織措施掌握不同風(fēng)險(xiǎn)等級的人工智能系統(tǒng)使用方式,在此基礎(chǔ)上指派具備必要能力與權(quán)力的自然人對于多數(shù)人工智能系統(tǒng)進(jìn)行人工監(jiān)督。部署者在參與人工智能系統(tǒng)的使用、修改、監(jiān)管等活動時,若對于輸入數(shù)據(jù)做出了較大調(diào)整,則需要確保輸入系統(tǒng)的數(shù)據(jù)的目的與人工智能系統(tǒng)的預(yù)期目的相符,并且需要具備必要性。
部署者有監(jiān)測高風(fēng)險(xiǎn)人工智能系統(tǒng)運(yùn)行狀況的義務(wù),在必要情況下需要向提供者發(fā)出通知。作為監(jiān)測高風(fēng)險(xiǎn)人工智能系統(tǒng)運(yùn)行狀況的關(guān)鍵主體,部署者對于人工智能系統(tǒng)的風(fēng)險(xiǎn)應(yīng)具備敏感性,在風(fēng)險(xiǎn)外溢造成嚴(yán)重后果時,為及時控制風(fēng)險(xiǎn),《人工智能法》賦予部署者緊急情況下暫停系統(tǒng)使用的權(quán)能。部署者需要在高風(fēng)險(xiǎn)人工智能系統(tǒng)未經(jīng)登記或未通過合格性評估時,停止參與使用相關(guān)系統(tǒng),并且通知提供者和主管機(jī)關(guān)。部署者對于涉及生物信息和遠(yuǎn)程生物識別的人工智能系統(tǒng)的義務(wù)履行高度基于《通用數(shù)據(jù)保護(hù)條例》中有關(guān)數(shù)據(jù)保護(hù)的條例。例如,針對因調(diào)查刑事犯罪目的而使用高風(fēng)險(xiǎn)人工智能系統(tǒng)進(jìn)行生物識別的情況下,部署者不得無故拖延,應(yīng)當(dāng)在48小時內(nèi)請求司法機(jī)關(guān)或者具有司法審查權(quán)力的行政機(jī)關(guān)授權(quán)使用系統(tǒng),并且應(yīng)當(dāng)嚴(yán)格限縮該類人工智能系統(tǒng)的使用,不得普遍運(yùn)用于執(zhí)法或其它目的。為此,部署者還應(yīng)向市場監(jiān)督管理機(jī)關(guān)和國家數(shù)據(jù)保護(hù)機(jī)關(guān)提交有關(guān)系統(tǒng)使用的年度報(bào)告,對于義務(wù)履行情況做出全面的備案。結(jié)合現(xiàn)如今的人工智能系統(tǒng)發(fā)展情況可見,《人工智能法》賦予部署者更多的風(fēng)險(xiǎn)監(jiān)測義務(wù)和緊急情況下的風(fēng)險(xiǎn)規(guī)制權(quán)利,以釋放監(jiān)管部門的壓力。將法律風(fēng)險(xiǎn)規(guī)制進(jìn)行扁平化處理,從而建立影響范圍更廣的監(jiān)督鏈和更快速的風(fēng)險(xiǎn)反饋途徑。
2.補(bǔ)充進(jìn)口者、分銷者的衍生義務(wù)
人工智能系統(tǒng)的進(jìn)口者和分銷者義務(wù)是提供者義務(wù)的延伸,對進(jìn)口者和分銷者的義務(wù)進(jìn)行明確規(guī)定并且敦促落實(shí),能夠?yàn)楦唢L(fēng)險(xiǎn)人工智能系統(tǒng)的推廣使用增加保障。進(jìn)口者控制了人工智能系統(tǒng)的市場準(zhǔn)人,具備核驗(yàn)人工智能系統(tǒng)性質(zhì)的諸多義務(wù)。進(jìn)口者對于提供者執(zhí)行合格性評估、編制技術(shù)文件、人工智能系統(tǒng)的有關(guān)合格標(biāo)識和任命授權(quán)代表的情況有權(quán)做出調(diào)查和質(zhì)疑。如果經(jīng)過調(diào)查,有切實(shí)理由證明特定人工智能系統(tǒng)及其相關(guān)文件存在偽造風(fēng)險(xiǎn),進(jìn)口者不得將該系統(tǒng)投放市場,并將可能存在的風(fēng)險(xiǎn)如實(shí)公布于提供者、授權(quán)代表和市場監(jiān)督管理機(jī)關(guān)。人工智能系統(tǒng)若經(jīng)進(jìn)口者進(jìn)行處理,則進(jìn)口者應(yīng)當(dāng)將其名稱、登記編號、商標(biāo)地址等信息注明在人工智能系統(tǒng)上,并確保系統(tǒng)在進(jìn)口者處理過程中必須履行風(fēng)險(xiǎn)監(jiān)控義務(wù)。在登記認(rèn)證義務(wù)方面,進(jìn)口者在人工智能系統(tǒng)投放市場、提供服務(wù)后的10年內(nèi),需要保存一份由通知機(jī)關(guān)簽發(fā)的認(rèn)證副本和合格性聲明,為進(jìn)口者使用高風(fēng)險(xiǎn)人工智能系統(tǒng)提供便利條件。在通過認(rèn)證副本形式向有關(guān)機(jī)關(guān)進(jìn)行備案后,進(jìn)口者與提供者在與有關(guān)部門共同進(jìn)行合理風(fēng)險(xiǎn)規(guī)制活動中的法律義務(wù)是一致的。
分銷者是進(jìn)口者完成高風(fēng)險(xiǎn)人工智能系統(tǒng)的市場準(zhǔn)入后,參與人工智能系統(tǒng)處理的相關(guān)主體。分銷者與人工智能系統(tǒng)的市場投放有顯著聯(lián)系,分銷者的義務(wù)與進(jìn)口者的義務(wù)存在較大相同之處,例如:核實(shí)高風(fēng)險(xiǎn)人工智能系統(tǒng)合格性標(biāo)識、人工智能系統(tǒng)的常規(guī)風(fēng)險(xiǎn)監(jiān)控、與主管機(jī)關(guān)共同參與風(fēng)險(xiǎn)規(guī)制時的合作義務(wù)、人工智能系統(tǒng)風(fēng)險(xiǎn)外溢時的緊急處分義務(wù)等。在該基礎(chǔ)上,分銷者可以在無法實(shí)施有效糾正的情況下撤回或召回特定的高風(fēng)險(xiǎn)人工智能系統(tǒng),避免其進(jìn)入市場并流通。
(二)高風(fēng)險(xiǎn)人工智能系統(tǒng)的基本權(quán)利影響評估
為了維護(hù)人工智能價值鏈的運(yùn)行,推動價值鏈上各個主體的責(zé)任落實(shí),并且完善緊急情況下對于人工智能系統(tǒng)進(jìn)行處分行為的機(jī)制?!度斯ぶ悄芊ā窞槿斯ぶ悄芟到y(tǒng)使用風(fēng)險(xiǎn)設(shè)定了基本權(quán)利影響評估這一靈活的衡量標(biāo)準(zhǔn)。這一標(biāo)準(zhǔn)通常由部署者進(jìn)行評估,但特殊情況下,公法管轄機(jī)構(gòu)、提供以及幫助提供公共服務(wù)的人工智能提供者、進(jìn)口者、分銷者等主體也能夠通過這一標(biāo)準(zhǔn)對于人工智能系統(tǒng)可能產(chǎn)生的風(fēng)險(xiǎn)進(jìn)行有效控制。
通常情況下,在高風(fēng)險(xiǎn)人工智能系統(tǒng)提供服務(wù)前需要進(jìn)行評估,說明按照預(yù)期目的使用高風(fēng)險(xiǎn)人工智能系統(tǒng)的過程、使用期限和頻率、可能受影響的自然人和群體類型、可能產(chǎn)生的損害風(fēng)險(xiǎn)、人類監(jiān)督措施及其執(zhí)行情況,應(yīng)急管理機(jī)制和投訴機(jī)制的安排等。此類評估具備可持續(xù)性和借鑒性質(zhì),后續(xù)的人工智能系統(tǒng)控制者和處理者可以基于以往的基本權(quán)利影響評估做出更新。針對人工智能系統(tǒng)大量收集與使用數(shù)據(jù)的客觀情況,基本權(quán)利影響評估通常可以與數(shù)據(jù)保護(hù)影響評估同時進(jìn)行,此舉符合歐盟一體化數(shù)據(jù)保護(hù)和人工智能兼容的立法邏輯?;緳?quán)利評估是一種極基礎(chǔ)性質(zhì)的評估模式,其發(fā)起程序與執(zhí)行主體呈現(xiàn)出較大的靈活性,這種評估模式更貼近于一種人工智能框架下的區(qū)塊鏈模式,是建立在多元主體較高級別的人工智能素養(yǎng)基礎(chǔ)上的一種更廣泛的風(fēng)險(xiǎn)監(jiān)督模式,也是一種基于實(shí)踐經(jīng)驗(yàn)的事前風(fēng)險(xiǎn)控制途徑。
五、人工智能系統(tǒng)法律風(fēng)險(xiǎn)規(guī)制的創(chuàng)新點(diǎn)
在基礎(chǔ)制度上,《人工智能法》對于高風(fēng)險(xiǎn)人工智能系統(tǒng)的規(guī)制做出了創(chuàng)新嘗試。有學(xué)者認(rèn)為,歐盟帶有法典編纂功能或“一攬子解決”功能的立法模式對于其它國家不具有普適性,不建議借鑒;也有學(xué)者提出需要借鑒歐盟通過例證手段和專家建議稿的方式調(diào)整我國人工智能立法模式。[17]筆者認(rèn)為,不可盲目借鑒歐盟《人工智能法》的立法方式,但是在人工智能立法尚不完善之際,對于歐盟人工智能治理的前沿立法內(nèi)容①進(jìn)行適度的借鑒是必要的,尤其是對于重大風(fēng)險(xiǎn)的先進(jìn)技術(shù)發(fā)展的規(guī)制內(nèi)容,更必須未雨綢繆。例如,為適應(yīng)當(dāng)下具有機(jī)器學(xué)習(xí)能力的人工智能大模型的發(fā)展?fàn)顩r,將具有系統(tǒng)風(fēng)險(xiǎn)的通用人工智能模型的現(xiàn)實(shí)風(fēng)險(xiǎn)納人《人工智能法》規(guī)制范圍等。
(一)針對通用人工智能模型法律風(fēng)險(xiǎn)做出特殊規(guī)定
通用人工智能是自主智能的發(fā)展形態(tài),其概念通常表現(xiàn)為人工智能大模型或者算法的形態(tài),其現(xiàn)實(shí)代表就是以大語言模型為代表的通用人工智能模型。通用人工智能模型通常是對整個社會群體開放,更容易牽涉數(shù)據(jù)抓取與訓(xùn)練階段的一攬子法律風(fēng)險(xiǎn)②,因此相較于定向領(lǐng)域的人工智能系統(tǒng)的監(jiān)管,歐盟對于通用模型的監(jiān)管更為嚴(yán)格。由于通用模型這類人工智能系統(tǒng)當(dāng)下存在突出的風(fēng)險(xiǎn)治理問題,制定針對性的風(fēng)險(xiǎn)規(guī)制措施勢在必行。在理論層面,對于通用人工智能模型之一的生成式大語言模型,我國研究人員已經(jīng)剖析出包含算法風(fēng)險(xiǎn)、數(shù)據(jù)與網(wǎng)絡(luò)安全風(fēng)險(xiǎn)在內(nèi)的風(fēng)險(xiǎn)類型,并指出生成性劣質(zhì)信息治理、初始性信源污染、通用性倫理風(fēng)險(xiǎn)等治理問題[18]。針對通用人工智能模型是否存在系統(tǒng)風(fēng)險(xiǎn),《人工智能法》劃定了一套獨(dú)立的評估標(biāo)準(zhǔn)與相關(guān)主體義務(wù)體系。首先需要評估通用人工智能模型的影響能力,評估因素主要有:特定模型的參數(shù)數(shù)量大小、模型數(shù)據(jù)集大小、訓(xùn)練人工智能模型所使用的計(jì)算量、模型輸入輸出模式與具體類型、模型自主運(yùn)行程度、市場覆蓋范圍、已經(jīng)參與模型使用的注冊量等。這項(xiàng)評估重在判斷特定模型的影響力范圍是否超過可控水平;以及在一定范圍內(nèi),模型是否受到適當(dāng)?shù)娜祟惐O(jiān)督、其自主運(yùn)行程度是否對人類活動和基本權(quán)益產(chǎn)生負(fù)面影響。對此,如果通用人工智能模型存在風(fēng)險(xiǎn)外溢的隱患,提供者應(yīng)當(dāng)上報(bào)歐盟委員會,并且委員會對于特定模型是否存在系統(tǒng)性風(fēng)險(xiǎn)具有裁量權(quán)。對于特殊情況下,模型的系統(tǒng)風(fēng)險(xiǎn)是否存在,模型的提供者可以在具備充分證據(jù)的條件下發(fā)起異議,委員會在保留駁回異議的權(quán)力基礎(chǔ)上需要重新裁量。最后,歐盟委員會應(yīng)當(dāng)持續(xù)性更新具有系統(tǒng)性人工智能風(fēng)險(xiǎn)的清單,但不能影響知識產(chǎn)權(quán)和商業(yè)秘密保護(hù)的監(jiān)管。
(二)建立以“監(jiān)管沙盒”為介質(zhì)的測試監(jiān)督模式
監(jiān)管沙盒模式也被學(xué)界普遍認(rèn)定為一種適應(yīng)性監(jiān)管模式,初步應(yīng)用于計(jì)算機(jī)與金融領(lǐng)域[9]?!度斯ぶ悄芊ā废碌娜斯ぶ悄鼙O(jiān)管沙盒模式經(jīng)歷過兩次修改,在此過程中監(jiān)管沙盒的監(jiān)管力度逐步縮小,沙盒營造出的測試環(huán)境越來越接近現(xiàn)實(shí)情況。換言之,“監(jiān)管沙盒”制度的本意是跟現(xiàn)實(shí)無縫銜接,以期望在具體的實(shí)踐中去發(fā)揮人工智能的市場潛力,降低不確定風(fēng)險(xiǎn)[20]。《人工智能法》規(guī)定歐盟每個成員國建立至少一個人工智能監(jiān)管沙盒,并在條例生效兩年后投人運(yùn)作。各個沙盒可以由成員國聯(lián)合建立并且支持運(yùn)行。人工智能監(jiān)管沙盒的運(yùn)作可以輻射至地方級別,從而建立垂直的監(jiān)管體系。
建立監(jiān)管沙盒模式的目的在于支持創(chuàng)新的人工智能系統(tǒng)以更安全穩(wěn)妥的方式投入市場或者提供服務(wù)。提供者將與主管機(jī)關(guān)共同擬定具體的沙盒計(jì)劃,將創(chuàng)新用途的人工智能系統(tǒng)的開發(fā)培訓(xùn)、規(guī)范性測試等過程置于主管機(jī)關(guān)的監(jiān)督之中。有學(xué)者[21認(rèn)為,具體的監(jiān)管沙盒機(jī)制由創(chuàng)新者和主管部門共同負(fù)責(zé)創(chuàng)立,有助于打破信息壁壘,幫助創(chuàng)新者快速將前沿的技術(shù)操作分享給掌握風(fēng)險(xiǎn)管理主動權(quán)的監(jiān)管機(jī)關(guān),反向補(bǔ)償監(jiān)管機(jī)關(guān)的監(jiān)管效能;但同時也悲觀地預(yù)測監(jiān)管沙盒可能因監(jiān)管套利或逐利競爭等原因而成為形式化工具。不過《人工智能法》中對于監(jiān)管沙盒制度做出了針對性調(diào)整與更新,其實(shí)施效果或許會更趨于實(shí)質(zhì)化。
首先,《人工智能法》規(guī)定有關(guān)部門應(yīng)當(dāng)提供有效支持和持續(xù)監(jiān)督,從而在沙盒計(jì)劃中確定人工智能的風(fēng)險(xiǎn)。在沙盒中,人工智能系統(tǒng)如果通過了一系列測試,應(yīng)提供者或潛在提供者的要求,主管機(jī)關(guān)應(yīng)當(dāng)提供人工智能系統(tǒng)在沙盒監(jiān)管下成功提供服務(wù)的書面證明與退出報(bào)告,以擔(dān)保該人工智能系統(tǒng)風(fēng)險(xiǎn)規(guī)制的合格性。經(jīng)人工智能監(jiān)管沙盒測試的創(chuàng)新用途人工智能系統(tǒng),市場監(jiān)督管理機(jī)關(guān)和通知機(jī)關(guān)應(yīng)當(dāng)在合理范圍內(nèi)加速對其合格性評估的程序。監(jiān)管沙盒并非合格性評估的必要環(huán)節(jié),但可以促進(jìn)人工智能系統(tǒng)在風(fēng)險(xiǎn)規(guī)制中的快速發(fā)展。
其次,人工智能監(jiān)管沙盒的使用旨在通過分析沙盒中的人工智能系統(tǒng)運(yùn)作實(shí)踐,促進(jìn)風(fēng)險(xiǎn)規(guī)制法律的更新,同時強(qiáng)化人工智能法律的確定性?!度斯ぶ悄芊ā分С謪⑴c監(jiān)管沙盒的機(jī)構(gòu)與人工智能的相關(guān)主體以及主管機(jī)關(guān)分享實(shí)踐成果,并且鼓勵促進(jìn)循證的監(jiān)管模式。監(jiān)管沙盒的推行對于參與人工智能系統(tǒng)設(shè)計(jì)、部署、市場投放等企業(yè),尤其是小微企業(yè)的發(fā)展具有推動作用。值得注意的是,監(jiān)管沙盒并非國家機(jī)關(guān),其監(jiān)管效力更類似于行業(yè)協(xié)會的監(jiān)管效力。因此,監(jiān)管沙盒不能影響主管機(jī)構(gòu)的監(jiān)督和糾正權(quán)力。若監(jiān)管沙盒被主管機(jī)關(guān)證實(shí)存在無法消解基本權(quán)利的重大風(fēng)險(xiǎn),主管機(jī)關(guān)有權(quán)暫時中正沙盒的模擬測試過程。若沙盒中的測試導(dǎo)致第三方損害,設(shè)計(jì)者、提供者有義務(wù)承擔(dān)損害補(bǔ)救義務(wù)。同時,若提供者嚴(yán)格按照沙盒計(jì)劃的具體條款進(jìn)行測試且遵循了主管機(jī)關(guān)的技術(shù)指導(dǎo),各主管機(jī)關(guān)同樣嚴(yán)格履行了監(jiān)管義務(wù)和監(jiān)督職責(zé),則無需根據(jù)罰則向這些主體發(fā)起行政處罰。沙盒機(jī)制中的處罰豁免條款給予人工智能活動參與者和監(jiān)管者更大的空間推進(jìn)人工智能風(fēng)險(xiǎn)規(guī)制的創(chuàng)新實(shí)踐。
簡言之,人工智能監(jiān)管沙盒創(chuàng)造出可供主管機(jī)關(guān)、提供者、從業(yè)人員之間充分協(xié)調(diào)合作的空間,旨在為人工智能的風(fēng)險(xiǎn)規(guī)制提供實(shí)踐經(jīng)驗(yàn)和制度性建議。因此,對于沙盒的運(yùn)作體系,歐盟委員會需要通過實(shí)施法案對人工智能監(jiān)管沙盒的建立開發(fā)、實(shí)施運(yùn)行和監(jiān)督方式進(jìn)行規(guī)定。踐行法案建立起關(guān)于沙盒運(yùn)作的共同原則,包括參與沙盒的資格篩選、參與和退出監(jiān)管沙盒的具體程序(沙盒計(jì)劃和退出報(bào)告)、公平透明的沙盒測試標(biāo)準(zhǔn)等具體標(biāo)準(zhǔn)。此外,執(zhí)行法案也支持小微企業(yè)和初創(chuàng)企業(yè)免費(fèi)加入沙盒、鼓勵人工智能生態(tài)系統(tǒng)中相關(guān)參與者的廣泛加入,以期促進(jìn)公共部門與私營部門的協(xié)調(diào)合作。
同時,《人工智能法》明確了以沙盒運(yùn)作為中心的基礎(chǔ)設(shè)施的開發(fā),為更健全的法律風(fēng)險(xiǎn)規(guī)制條款的出臺提供現(xiàn)實(shí)基礎(chǔ)。
(三)支持公共利益目的下個人數(shù)據(jù)的人工智能處理
《人工智能法》對于個人數(shù)據(jù)和生物識別信息的保護(hù)較為嚴(yán)格,重視人工智能系統(tǒng)產(chǎn)生的,個人數(shù)據(jù)以及任何能夠鎖定具體個人的生物識別信息的風(fēng)險(xiǎn)控制。但是,《人工智能法》并未完全封閉人工智能系統(tǒng)對個人數(shù)據(jù)的收集與處理。主管機(jī)關(guān)有權(quán)因公共安全、公共衛(wèi)生、環(huán)境氣候問題、能源可持續(xù)供給、關(guān)鍵基礎(chǔ)設(shè)施安全、運(yùn)輸系統(tǒng)流動性、公共服務(wù)效率與質(zhì)量等公共利益開發(fā)特定的人工智能系統(tǒng),處理無法通過匿名化合成數(shù)據(jù)進(jìn)行替代的個人數(shù)據(jù)。通常情況下,該類人工智能系統(tǒng)需要通過監(jiān)管沙盒進(jìn)行訓(xùn)練與測試,并且需要具備有效的監(jiān)測機(jī)制和緊急停止的響應(yīng)機(jī)制。個人數(shù)據(jù)的人工智能處理必須處于隔離和受保護(hù)的數(shù)據(jù)處理環(huán)境中,只有獲得授權(quán)的人才能訪問數(shù)據(jù)。且此類人工智能系統(tǒng)的提供者必須根據(jù)歐盟數(shù)據(jù)保護(hù)法律共享收集的數(shù)據(jù)。沙盒中的個人數(shù)據(jù)處理日志必須在參與沙盒期間保留,并需確保任何此類處理都不會導(dǎo)致數(shù)據(jù)主體的決策出現(xiàn)偏差。
(四)為真實(shí)環(huán)境中的人工智能開發(fā)測試保留空間
人工智能監(jiān)管沙盒作為測試框架無法滿足真正的使用需求,人工智能系統(tǒng)歸根到底需要在現(xiàn)實(shí)世界中運(yùn)行。《人工智能法》對于真實(shí)環(huán)境中人工智能系統(tǒng)的測試做出了規(guī)定。首先,真實(shí)環(huán)境中的人工智能開發(fā)測試應(yīng)當(dāng)具備測試計(jì)劃,由委員會根據(jù)《人工智能法》第九十八條提及的審查程序通過的實(shí)施法案中進(jìn)行具體規(guī)定,同時測試計(jì)劃應(yīng)當(dāng)滿足歐盟或者成員國的倫理審查要求。服務(wù)提供者必須滿足所有條件?的情況下,才能在真實(shí)環(huán)境中進(jìn)行測試。
真實(shí)環(huán)境中的人工智能開發(fā)測試需要通過測試對象知情同意并授權(quán),在測試開始后的全過程中,提供者、部署者需要進(jìn)行持續(xù)有效的監(jiān)督,這種監(jiān)督應(yīng)當(dāng)能夠在理由充分時推翻和忽略人工智能系統(tǒng)的判斷、建議或決策結(jié)果。與監(jiān)管沙盒內(nèi)運(yùn)行的人工智能系統(tǒng)相似,成員國主管部門應(yīng)當(dāng)根據(jù)系統(tǒng)信息進(jìn)行沒有事先通知的遠(yuǎn)程或者現(xiàn)場檢查,以確保真實(shí)環(huán)境下人工智能系統(tǒng)的測試安全。在這種情況下,主管機(jī)關(guān)有權(quán)收集暫?;蚪K止測試的人工智能系統(tǒng)運(yùn)行結(jié)果并做最終報(bào)告。若存在任何真實(shí)環(huán)境中的人工智能測試造成損害,則根據(jù)客觀損害事實(shí),通過歐盟或其成員國的責(zé)任法做出補(bǔ)救與損害賠償。
《人工智能法》充分考慮到真實(shí)環(huán)境條件中的測試對象所面臨的風(fēng)險(xiǎn)。因此,測試對象的知情同意權(quán)是風(fēng)險(xiǎn)規(guī)制的重要因素。測試對象應(yīng)當(dāng)在測試前明確在真實(shí)環(huán)境條件下進(jìn)行測試的性質(zhì)與目的以及帶來的潛在風(fēng)險(xiǎn),與人工智能系統(tǒng)控制者協(xié)調(diào)真實(shí)環(huán)境下參與測試的條件。同時,《人工智能法》強(qiáng)調(diào)測試對象參與測試的權(quán)利保障,特別是無理由地拒絕和隨時退出真實(shí)環(huán)境測試的權(quán)利。測試對象可以要求推翻或者忽略人工智能系統(tǒng)的決策,從而控制人工智能系統(tǒng)的測試進(jìn)度。以上內(nèi)容應(yīng)當(dāng)納入知情同意書并且做記錄備案,以便測試對象在人工智能系統(tǒng)風(fēng)險(xiǎn)外溢造成損害時維護(hù)其合法權(quán)益。
六、對我國人工智能法的發(fā)展建議
在剖析歐盟《人工智能法》的規(guī)制邏輯與創(chuàng)新機(jī)制后,如何將其經(jīng)驗(yàn)本土化調(diào)適并轉(zhuǎn)化為中國人工智能立法的實(shí)踐指引,成為推動我國法治建設(shè)的重要命題。歐盟以風(fēng)險(xiǎn)分級、權(quán)利保護(hù)與技術(shù)創(chuàng)新協(xié)同為核心的立法圖景,為我國提供了兼具啟示性與反思性的參照系?;诖耍覈枇⒆慵夹g(shù)自主性、產(chǎn)業(yè)生態(tài)與治理傳統(tǒng),在平衡安全與發(fā)展、效率與公平的基礎(chǔ)上,構(gòu)建權(quán)責(zé)適配、動態(tài)兼容的人工智能法律框架。下文將從“寬嚴(yán)相濟(jì)”“守正創(chuàng)新”“機(jī)制立體”三重維度展開論述,探索我國人工智能法從原則確立到制度落地的可行路徑,以期為提升治理效能與全球規(guī)則話語權(quán)提供理論支撐。
(一)寬嚴(yán)相濟(jì):制定兼顧產(chǎn)業(yè)發(fā)展與風(fēng)險(xiǎn)規(guī)制的人工智能法
人工智能技術(shù)更迭迅速,相關(guān)立法需要做到對于新興人工智能技術(shù)成果的促進(jìn),同時兼顧人工智能產(chǎn)品帶來的潛在風(fēng)險(xiǎn),并進(jìn)行有效規(guī)制。借鑒歐盟《人工智能法》的立法圖景,歐盟委員會在法案中要求嚴(yán)格把控風(fēng)險(xiǎn)規(guī)制的程度,不得影響人工智能產(chǎn)業(yè)創(chuàng)新與投資引人。我國也有學(xué)者[16.22]指出,人工智能立法需要服務(wù)科技法治理的目標(biāo),既要促進(jìn)科技發(fā)展與應(yīng)用,又要預(yù)防和應(yīng)對科技帶來的風(fēng)險(xiǎn),于是將人工智能立法分為產(chǎn)業(yè)促進(jìn)法和風(fēng)險(xiǎn)治理法兩種類型。筆者認(rèn)為,兼顧人工智能產(chǎn)業(yè)發(fā)展需要做到良好的市場保護(hù),人工智能法需要為人工智能系統(tǒng)投放市場、投入使用提供準(zhǔn)確的法律依據(jù)。其次,促進(jìn)產(chǎn)業(yè)發(fā)展需要保護(hù)創(chuàng)新,人工智能立法需要與知識產(chǎn)權(quán)保護(hù)、反壟斷等立法范疇做到充分協(xié)調(diào)。
在產(chǎn)業(yè)發(fā)展方面,歐盟《人工智能法》序言中強(qiáng)調(diào),人工智能法的具體規(guī)則應(yīng)當(dāng)能夠創(chuàng)建符合歐盟價值觀的人工智能產(chǎn)業(yè)生態(tài),并且釋放歐盟內(nèi)部市場的數(shù)字化轉(zhuǎn)型潛力。特別是為初創(chuàng)企業(yè)在內(nèi)的小微企業(yè)進(jìn)入人工智能市場提供資金支持等措施。法案的監(jiān)管要求可能造成小微企業(yè)的負(fù)擔(dān)過重,模糊的規(guī)定也可能導(dǎo)致實(shí)施方面的困難[23]。我國立法可以立足我國國情的基礎(chǔ)上推出更詳細(xì)的質(zhì)量管理體系制度,使得微型企業(yè)能夠以簡化的方式履行歐盟設(shè)置的法律義務(wù)。在風(fēng)險(xiǎn)規(guī)制方面,我國的人工智能立法可以借鑒歐盟立法的創(chuàng)新點(diǎn),例如,設(shè)置監(jiān)管沙盒以及真實(shí)環(huán)境下的人工智能風(fēng)險(xiǎn)控制規(guī)則。通過監(jiān)管下的人工智能系統(tǒng)測試收集人工智能監(jiān)管經(jīng)驗(yàn),提升人工智能執(zhí)法的針對性和準(zhǔn)確性。在監(jiān)管框架的設(shè)置上,我國人工智能立法可設(shè)置相關(guān)評估流程,重視標(biāo)準(zhǔn)化組織和人工智能行業(yè)協(xié)會發(fā)揮的準(zhǔn)繩作用。
歐盟《人工智能法》以“風(fēng)險(xiǎn)分級”為核心,通過禁止性清單、高風(fēng)險(xiǎn)系統(tǒng)義務(wù)豁免等制度平衡安全與創(chuàng)新。在我國“基于場景”的人工智能治理機(jī)制下,可借鑒歐盟的“比例原則”,針對不同風(fēng)險(xiǎn)等級設(shè)計(jì)差異化治理框架,如下:
1.對高風(fēng)險(xiǎn)領(lǐng)域從嚴(yán)監(jiān)管。參照歐盟“附件三:高風(fēng)險(xiǎn)人工智能系統(tǒng)清單”,結(jié)合我國產(chǎn)業(yè)特征,劃定我國傳統(tǒng)關(guān)于醫(yī)療診斷、自動駕駛、公共安全等領(lǐng)域的“不可接受風(fēng)險(xiǎn)”與“高風(fēng)險(xiǎn)”系統(tǒng),搭配禁止性條款與嚴(yán)格限制條款。例如當(dāng)下“深度生成式”人工智能系統(tǒng)發(fā)展如火如荼,帶來的高風(fēng)險(xiǎn)治理問題也日漸嚴(yán)峻,對于該類高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)當(dāng)建立系統(tǒng)性的報(bào)告制度,并留存相應(yīng)技術(shù)文件,適用動態(tài)風(fēng)險(xiǎn)管理的制度路徑進(jìn)行監(jiān)管,側(cè)重風(fēng)控。
2.對于中低風(fēng)險(xiǎn)領(lǐng)域包容審慎。針對有限風(fēng)險(xiǎn)的人工智能系統(tǒng)(如人工智能客服、智能推薦系統(tǒng))僅設(shè)定透明度義務(wù),著重AI交互特征的披露;但需要在以《算法推薦管理規(guī)定》為核心要素之一的規(guī)制框架下細(xì)化義務(wù)履行的規(guī)定,例如:處理個性化推薦系統(tǒng)的平臺等主體應(yīng)告知用戶個性化推薦算法處理其個人信息可能對其造成的影響[24]。對于極低風(fēng)險(xiǎn)系統(tǒng)(如郵件過濾智能系統(tǒng)、系統(tǒng)屏保智能控制系統(tǒng))納入《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等既存制度框架進(jìn)行統(tǒng)籌管理,節(jié)約監(jiān)管成本的同時,提高人工智能重點(diǎn)領(lǐng)域的立法優(yōu)先級。
3.設(shè)置產(chǎn)業(yè)政策彈性促進(jìn)機(jī)制。參考?xì)W盟對小微企業(yè)的資金支持與政策措施,對初創(chuàng)企業(yè)提供相應(yīng)補(bǔ)貼,允許部分智能系統(tǒng)領(lǐng)域的設(shè)計(jì)者、部署者等主體通過自聲明模式替代第三方認(rèn)證,并且通過傳統(tǒng)經(jīng)濟(jì)法規(guī)則進(jìn)行事后規(guī)制,以充分激發(fā)市場活力和創(chuàng)新動力。
(二)守正創(chuàng)新:完善以人為本、與時俱進(jìn)的人工智能法
人工智能法的規(guī)制客體是人類監(jiān)督下自主運(yùn)行的智能系統(tǒng),人工智能風(fēng)險(xiǎn)難以規(guī)制的點(diǎn)在于智能系統(tǒng)具備理性思考和自主學(xué)習(xí)能力,并且能夠在此基礎(chǔ)上完成以往只有人類能夠自主做出的決策行為。歐盟以基本權(quán)利保護(hù)為立法主線,我國人工智能立法亦可以借鑒歐盟《人工智能法》對于基本權(quán)利保護(hù)的立法邏輯,并作出本土化調(diào)適,基于我國憲法和部門法的基本權(quán)利,制定適應(yīng)我國權(quán)利保護(hù)模式的人工智能法條款。例如,針對投放于就業(yè)雇工的人工智能系統(tǒng),需要避免針對特定年齡、性別、殘疾人等特殊群體的算法歧視,同時需要保護(hù)受雇者必要的隱私權(quán)利和在特定行業(yè)中的法律權(quán)利。對于投放于教育領(lǐng)域的人工智能系統(tǒng),需要警惕過度使用人工智能進(jìn)行成績評估、人才篩選等工作導(dǎo)致的受教育權(quán)失格問題等。人工智能法應(yīng)當(dāng)始終注重人類決策在人工智能風(fēng)險(xiǎn)規(guī)制中的作用,強(qiáng)化人類監(jiān)督的理念。同時,由于私權(quán)救濟(jì)是傳統(tǒng)社科法學(xué)中唯一能夠由個體主張而啟動的制度,人工智能立法應(yīng)當(dāng)注重私權(quán)救濟(jì)問題,尤其是涉及基本權(quán)利的救濟(jì)問題。我國學(xué)者提出建立以“基本原則一促進(jìn)發(fā)展一權(quán)益保護(hù)—安全監(jiān)督義務(wù)一國際合作”為主要框架的人工智能法[25],將權(quán)益保護(hù)置于安全義務(wù)之前,正是出于人本理念的影響。我國可借鑒歐盟范式,配套要求高風(fēng)險(xiǎn)系統(tǒng)上市前由跨部門委員會審查其對隱私、公平性等權(quán)利的潛在影響,評估報(bào)告摘要需向社會公開。
其次,人工智能法需要保持更新,以適應(yīng)人工智能技術(shù)水平的發(fā)展。有學(xué)者指出,人工智能立法要通過智能科技、智能要素和智能應(yīng)用三個層次展開[2]。歐盟《人工智能法》針對通用人工智能模型這類基于大數(shù)據(jù)進(jìn)行機(jī)器學(xué)習(xí)和自動訓(xùn)練的人工智能系統(tǒng)的技術(shù)特點(diǎn),設(shè)置了基于模型影響能力的分級風(fēng)險(xiǎn)規(guī)制制度。這部歐盟法律中,通用人工智能模型的風(fēng)險(xiǎn)規(guī)制恰好結(jié)合了這三個層次的核心要素。從智能科技的層面,《人工智能法》將通用人工智能模型視作高影響力和具備自主學(xué)習(xí)能力的技術(shù),厘清了大模型技術(shù)的潛在風(fēng)險(xiǎn)以及應(yīng)對模式;從智能要素層面,《人工智能法》重視人工智能模型投放使用的數(shù)據(jù)治理與監(jiān)管,支持人工智能模型算法的有益迭代,降低企業(yè)技術(shù)準(zhǔn)入門檻的同時加強(qiáng)獨(dú)立科學(xué)小組、人工智能行業(yè)協(xié)會等新興組織的多元監(jiān)督;從智能應(yīng)用角度,《人工智能法》對于通用人工智能模型作為人工智能系統(tǒng)的集成元件具備準(zhǔn)確認(rèn)知并做出定義,將自動載具駕駛、醫(yī)療系統(tǒng)、生物識別、金融活動等立法范疇融人人工智能立法中。
人工智能風(fēng)險(xiǎn)的立法規(guī)制需要細(xì)化到應(yīng)用場景的細(xì)節(jié)中,不斷更新風(fēng)險(xiǎn)評估與應(yīng)對機(jī)制。在持續(xù)更新的同時,需要注重人工智能法與基本法律的協(xié)同發(fā)展,考慮到法律生效時期的技術(shù)發(fā)展水平和相關(guān)主體對于人工智能技術(shù)及制度的認(rèn)知水平,發(fā)展授權(quán)性立法路徑的作用,在制度設(shè)計(jì)中為可能的法律調(diào)適留足空間。我國或可大幅借鑒歐盟《人工智能法》的監(jiān)管沙盒與真實(shí)測試協(xié)同機(jī)制:在雄安、浦東等自貿(mào)區(qū)設(shè)立“AI創(chuàng)新試驗(yàn)區(qū)”,允許企業(yè)在隔離環(huán)境中測試生成式人工智能合成技術(shù),同時將測試日志實(shí)時共享至監(jiān)管部門。在真實(shí)測試中,或可制定《真實(shí)環(huán)境人工智能測試管理?xiàng)l例》等制度文件,強(qiáng)制經(jīng)營具備特定風(fēng)險(xiǎn)智能系統(tǒng)的企業(yè)為測試對象購買責(zé)任保險(xiǎn),損害救濟(jì)適用《民法典》侵權(quán)責(zé)任編,但豁免通過沙盒測試的相關(guān)企業(yè)的行政處罰。
(三)機(jī)制立體:堅(jiān)持權(quán)責(zé)清晰、技術(shù)主導(dǎo)型的人工智能法
借鑒歐盟《人工智能法》的人工智能價值鏈的作用,筆者認(rèn)為,一套完整統(tǒng)一、邏輯自洽的人工智能價值體系是壓實(shí)人工智能治理各個環(huán)節(jié)責(zé)任、明確各主體權(quán)利義務(wù)關(guān)系的必要前提。中國人工智能法應(yīng)當(dāng)設(shè)置適應(yīng)性的人工智能價值體系,與中國人工智能標(biāo)準(zhǔn)化工作同步推進(jìn)。我國人工智能法及配套措施應(yīng)當(dāng)明確受人工智能影響的相關(guān)主體的權(quán)利義務(wù)規(guī)則,并支持人工智能素養(yǎng)的培養(yǎng)與更新,幫助人工智能系統(tǒng)處理者提升技術(shù)水準(zhǔn),同時適當(dāng)給予教育培訓(xùn)。人工智能立法應(yīng)當(dāng)力求權(quán)責(zé)清晰,明確人工智能系統(tǒng)參與者,包括公共服務(wù)機(jī)構(gòu)、政府主管部門、企業(yè)、研究機(jī)構(gòu)等法人與非法人組織的權(quán)責(zé),在此基礎(chǔ)上不斷考量人工智能獨(dú)立法律人格設(shè)置的可行性。在人工智能系統(tǒng)的風(fēng)險(xiǎn)規(guī)制中,設(shè)置指導(dǎo)性的人工智能倫理規(guī)則并推介使用。在人工智能的立法中,可以借鑒歐盟的“總則式立法”[27],在延申人工智能立法的法律維度的同時,發(fā)展人工智能法綜合性的挈領(lǐng)作用,用于指示配套規(guī)則和標(biāo)準(zhǔn)制定。例如,將《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等位階較低的規(guī)章制度進(jìn)行整合處理。
立體的機(jī)制來源于清晰的價值理念。例如,歐盟通過“價值鏈責(zé)任體系”與“標(biāo)準(zhǔn)化流程”構(gòu)建立體治理網(wǎng)絡(luò),我國可融合其經(jīng)驗(yàn)與本土實(shí)踐,進(jìn)行全鏈條責(zé)任體系設(shè)計(jì):提供者承擔(dān)相應(yīng)義務(wù),需公開訓(xùn)練數(shù)據(jù)來源、類型及偏差矯正措施,禁止使用未脫敏個人數(shù)據(jù)或倫理爭議數(shù)據(jù)集,如種族、宗教信仰信息;部署者或應(yīng)履行“實(shí)時風(fēng)險(xiǎn)監(jiān)測”義務(wù),對生物識別等系統(tǒng)設(shè)置“雙人復(fù)核”機(jī)制,發(fā)現(xiàn)異常時在一定時間內(nèi)暫停系統(tǒng)并報(bào)備;對于進(jìn)口或分銷者,應(yīng)建立“市場準(zhǔn)入雙審查”機(jī)制,既核查國產(chǎn)認(rèn)證標(biāo)識,也審核技術(shù)文件與數(shù)據(jù)跨境規(guī)范性證明。
其次,人工智能立法應(yīng)當(dāng)在技術(shù)主導(dǎo)下開展與執(zhí)行。我國應(yīng)搭配設(shè)置相關(guān)的技術(shù)認(rèn)證和動態(tài)監(jiān)管框架。設(shè)立國家級AI技術(shù)認(rèn)證中心,按風(fēng)險(xiǎn)等級實(shí)施“強(qiáng)制認(rèn)證”(針對高風(fēng)險(xiǎn)系統(tǒng))與“自愿認(rèn)證”(針對中低風(fēng)險(xiǎn)系統(tǒng))。通過“法律一標(biāo)準(zhǔn)”為核心邏輯搭建人工智能風(fēng)險(xiǎn)管控的總體框架也尤為重要,這種邏輯錨定人工智能產(chǎn)品的技術(shù)獨(dú)特性,通過標(biāo)準(zhǔn)和法律的分工配合完成對于人工智能產(chǎn)品的物理風(fēng)險(xiǎn)與倫理風(fēng)險(xiǎn)的雙向規(guī)制[28]。例如,自動駕駛系統(tǒng)需通過“多模態(tài)道路測試認(rèn)證”方可上市,認(rèn)證標(biāo)準(zhǔn)可參考聯(lián)合國UN-R157法規(guī)的標(biāo)準(zhǔn)設(shè)置①。同時,靜態(tài)制度需要搭配執(zhí)行性技術(shù)措施,例如構(gòu)建“AI系統(tǒng)全生命周期數(shù)據(jù)庫”,對于不同風(fēng)險(xiǎn)閾值的智能系統(tǒng)進(jìn)行穿透式監(jiān)管,實(shí)時追蹤高風(fēng)險(xiǎn)系統(tǒng)的部署狀態(tài),對異常數(shù)據(jù)流啟動自動預(yù)警。
同時,在風(fēng)險(xiǎn)監(jiān)測與排查中,人工智能行業(yè)內(nèi)可通過人工智能技術(shù)率先進(jìn)行內(nèi)生風(fēng)險(xiǎn)自查,深化對于算法程序架構(gòu)和代碼的設(shè)計(jì)審查,按照倫理規(guī)范進(jìn)行過濾、聚類、分類與賦值,實(shí)現(xiàn)倫理規(guī)則的代碼化,確保人工智能算法設(shè)計(jì)符合基本的倫理規(guī)范[29]。在有關(guān)部門對于人工智能及其產(chǎn)品進(jìn)行執(zhí)法時,也需要基于技術(shù)主導(dǎo)特征實(shí)施動態(tài)監(jiān)管和執(zhí)法協(xié)作機(jī)制,利用先進(jìn)技術(shù)對于人工智能技術(shù)以及相關(guān)數(shù)據(jù)進(jìn)行適度監(jiān)控,及時發(fā)現(xiàn)并且阻止違規(guī)行為[30]。
“技術(shù)主導(dǎo)性”還需體現(xiàn)在制度的國際接軌中,在第三屆“一帶一路”國際合作高峰論壇上,國家網(wǎng)信辦發(fā)布《全球人工智能治理倡議》,其中著重強(qiáng)調(diào)了要在世界范圍內(nèi)搭建具有共識性的治理框架[31]?!凹夹g(shù)主導(dǎo)”不僅指依據(jù)人工智能科技的技術(shù)發(fā)展水平制定適應(yīng)性的規(guī)制制度,也要遵循先進(jìn)的、與國際接軌的治理理念與方針政策。從立法到實(shí)施,需要不間斷地從專業(yè)機(jī)構(gòu)獲取實(shí)時信息。以審視的角度看,《人工智能法》通過技術(shù)特征制定規(guī)則的根本目的是通過技術(shù)咨詢等方式提供建議,幫助利益相關(guān)者平衡商業(yè)利益與非商業(yè)利益。同時,歐盟委員會保證開發(fā)團(tuán)隊(duì)的專業(yè)性和多樣性,鼓勵企業(yè)公民組織、學(xué)術(shù)研究組織、工會和消費(fèi)者保護(hù)組織等共同參與人工智能產(chǎn)品設(shè)計(jì)開發(fā)和行業(yè)守則的設(shè)定。我國可以參考?xì)W盟設(shè)立人工智能委員會、獨(dú)立科學(xué)小組、咨詢論壇,并加強(qiáng)與歐洲高性能計(jì)算聯(lián)合體、數(shù)字歐洲計(jì)劃下的人工智能實(shí)驗(yàn)機(jī)構(gòu)的通力合作的實(shí)踐,不斷整合人工智能科技以及立法實(shí)施的專業(yè)意見,促進(jìn)人工智能風(fēng)險(xiǎn)治理機(jī)構(gòu)協(xié)同增效。同時強(qiáng)化國際協(xié)同與標(biāo)準(zhǔn)互認(rèn),參與全球規(guī)則體系的塑造,在“一帶一路”合作中推廣中國人工智能認(rèn)證體系,推動我國人工智能系統(tǒng)各端口行業(yè)標(biāo)準(zhǔn)與歐盟區(qū)域性標(biāo)準(zhǔn)化組織(如CENELEC)互認(rèn),主導(dǎo)制定跨境數(shù)據(jù)訓(xùn)練、算法審計(jì)等國際規(guī)則,進(jìn)一步提
升治理話語權(quán)。
七、結(jié)論
歐盟《人工智能法》對于人工智能系統(tǒng)發(fā)展與運(yùn)作呈現(xiàn)出產(chǎn)業(yè)促進(jìn)和風(fēng)險(xiǎn)規(guī)制的二元愿景,但仍以風(fēng)險(xiǎn)規(guī)制為立法的基本目的。在歐盟價值觀下,從增設(shè)風(fēng)險(xiǎn)管理系統(tǒng)與加強(qiáng)源數(shù)據(jù)治理舉措,直至形成人工智能價值鏈,明確人工智能相關(guān)方的權(quán)利義務(wù)關(guān)系,基于人工智能風(fēng)險(xiǎn)控制的立法必將在世界范圍內(nèi)迅速發(fā)展?,F(xiàn)今,人工智能法尚未形成龐大規(guī)模,尚不具備成熟實(shí)踐,仍然處于實(shí)驗(yàn)性階段。人工智能法雖然在一定程度上脫離了傳統(tǒng)法學(xué)范疇,但仍然需要與傳統(tǒng)法學(xué)保持緊密協(xié)調(diào)與交互,同時激發(fā)行業(yè)協(xié)會、標(biāo)準(zhǔn)化組織等規(guī)制主體在人工智能風(fēng)險(xiǎn)治理中的創(chuàng)新型效應(yīng)。在人工智能立法中,我國應(yīng)當(dāng)重視人工智能業(yè)態(tài)發(fā)展,建立主體多元、權(quán)責(zé)清晰的人工智能風(fēng)險(xiǎn)治理機(jī)制,正確看待數(shù)據(jù)治理與人工智能規(guī)制之間的關(guān)系,將算法、算力等技術(shù)因素與倫理、慣例等制度因素統(tǒng)籌考量。加強(qiáng)人工智能法律與其它部門法的協(xié)同聯(lián)動,不斷豐富人工智能風(fēng)險(xiǎn)規(guī)制與產(chǎn)業(yè)促進(jìn)的中國實(shí)踐。
值得一提的是,歐盟在人工智能立法中堅(jiān)持推進(jìn)域外影響力的建設(shè),始終著力于打造一套全球性人工智能法參考規(guī)范。在人工智能技術(shù)的更新周期縮短,技術(shù)成果迭代加速的現(xiàn)階段,我國在立法實(shí)踐的基礎(chǔ)上,應(yīng)持續(xù)更新人工智能立法的模式與內(nèi)容,針對性擴(kuò)大我國人工智能法律的國際影響力。人工智能的技術(shù)成果具備使用場景多元化、成果受眾規(guī)?;奶卣?。因此,我國在弘揚(yáng)科技自立,不斷攻堅(jiān)技術(shù)高地的基礎(chǔ)上,也需注重發(fā)揮國際優(yōu)勢,建立人工智能成果在“一帶一路”中通暢的市場循環(huán),將我國主研的人工智能成果和良好制度推行至國際社會,利用良好產(chǎn)業(yè)政策促進(jìn)技術(shù)與人才回流,再將成熟的技術(shù)成果與制度模式在更大范圍內(nèi)進(jìn)行試點(diǎn)調(diào)整并促進(jìn)新一輪的穩(wěn)定循環(huán)。此外,應(yīng)當(dāng)注重我國從業(yè)人員乃至普通受眾等廣大主體的人工智能素養(yǎng)培育,明確人工智能風(fēng)險(xiǎn)規(guī)制與產(chǎn)業(yè)發(fā)展平衡性的重要觀念,從而賦能人工智能風(fēng)險(xiǎn)治理實(shí)效,切實(shí)鞏固人工智能技術(shù)的治理基礎(chǔ)。
[參考文獻(xiàn)]
[1]徐東波.人工智能驅(qū)動科學(xué)研究的邏輯、風(fēng)險(xiǎn)及其治
理[J].中國科技論壇,2024(5):120-129.
[2] 陳群志,李月雯.教育人工智能的倫理問題及應(yīng)對之策——基于海德格爾技術(shù)哲學(xué)的視角[J].浙江理工大學(xué)學(xué)報(bào)(社會科學(xué)版),2024,52(6):686-692.
[3]張欣.論人工智能體的模塊化治理[J].東方法學(xué),2024(3):129-142.
[4]康蘭平.人工智能法律研究的權(quán)利泛化挑戰(zhàn)與場景化因應(yīng)研究[J].大連理工大學(xué)學(xué)報(bào)(社會科學(xué)版),2021,42(1):98-106.
[5]European commission.EU AI Act [EB/OL]. (2024-06-13)[2024-06-14]. https://rtificialintelligenceact.eu/ai -act-explorer/.
[6] 丁曉東.人工智能風(fēng)險(xiǎn)的法律規(guī)制- 以歐盟《人工智能法》為例[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(5): 3-18.
[7]王磊.從“數(shù)據(jù)要素×”看中國數(shù)智化的法治路徑[J].長安大學(xué)學(xué)報(bào)(社會科學(xué)版),2024,26(2):71-81.
[8]宋華健.論生成式人工智能的法律風(fēng)險(xiǎn)與治理路徑[J].北京理工大學(xué)學(xué)報(bào)(社會科學(xué)版),2024,26(3):134-143.
[9]DAVID M. AI unleashed: Mastering the maze of the EU AI Act [J]. Regional Law Review,2024(5): 155-168.
[10]SCHUETT J. Risk management in the Artificial Intelli-gence Act [J]. European Journal of Risk Regulation,2024,15(2):367-385.
[11]汪慶華.人工智能的法律規(guī)制路徑:一個框架性討論[J].現(xiàn)代法學(xué),2019,41(2):54-63.
[12] GROZA T amp; ARCILA B B. The new law of theEuropean data markets: Demystifying the European datastrategy [J]. Global Jurist,2024,24(3): 321-364.
[13]CHANG D. AI regulation for the AI revolution [J].Singapore Comparative Law Review,2023: 130-170.
[14]王婧.從歐盟《人工智能法》提案看中國如何應(yīng)對人工智能帶來的社會風(fēng)險(xiǎn)和法律挑戰(zhàn)[J].網(wǎng)絡(luò)安全和信息化,2021(8): 42-44.
[15]張辛鑫,冀瑜.論歐盟《人工智能法案》中的標(biāo)準(zhǔn)化模式及對中國啟示[J].標(biāo)準(zhǔn)科學(xué),2024(5):39-46.
[16] 袁鋒,王子昊.人工智能規(guī)制中的分級分類監(jiān)管問題研究——對歐盟《人工智能法案》“基于風(fēng)險(xiǎn)”監(jiān)管方式的思考[J].政法學(xué)刊,2024,41(6):116-125.
[17]周漢華.論我國人工智能立法的定位[J].現(xiàn)代法學(xué),2024,46(5): 17-34,217.
[18] 支振鋒.生成式人工智能大模型的信息內(nèi)容治理[J].政法論壇,2023,41(4):34-48.
[19] 劉芳彤.互聯(lián)網(wǎng)金融監(jiān)管“沙盒模式”制度構(gòu)建[J].西部金融,2023(1):59-63.
[20] 易學(xué)文.論“監(jiān)管沙盒”制度的實(shí)踐哲學(xué)轉(zhuǎn)向- -以歐盟《人工智能法》為分析對象[J].南海法學(xué),2023,7(4): 11-19.
[21]ALLEN H J. Sandbox boundaries[J].VanderbiltJournal of Entertainment amp; Technology Law,2020,2(22): 299-322.
[22]龍衛(wèi)球.人工智能立法的“技術(shù)—社會 + 經(jīng)濟(jì)”范式——基于引領(lǐng)法律與科技新型關(guān)系的視角[J].武漢大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2020,73(1):65-76.
[23] 沃爾夫?qū)ざ嘁疗绽?《歐盟人工智能法案》的背景、主要內(nèi)容與評價——兼論該法案對勞動法的影響[J]環(huán)球法律評論,2024,46(3):5-27.
[24] 謝永江,楊永興,劉濤.個性化推薦算法的法律風(fēng)險(xiǎn)規(guī)制[J].北京科技大學(xué)學(xué)報(bào)(社會科學(xué)版),2024,40(1):77-85.
[25] 張凌寒.中國需要一部怎樣的《人工智能法》?——中國人工智能立法的基本邏輯與制度架構(gòu)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2024,42(3):3-17.
[26]鄭志峰.人工智能立法的一般范疇[J].數(shù)字法治,2023(6): 55-75.
[27] 董新義,梅貽哲.“人工智能法總則”建構(gòu)原則與理念——?dú)W盟立法經(jīng)驗(yàn)之鏡鑒[J].數(shù)字法治,2024(2):195-210.
[28] 朱家豪.智能網(wǎng)聯(lián)汽車的法律規(guī)制結(jié)構(gòu)研究[J].北京科技大學(xué)學(xué)報(bào)(社會科學(xué)版),2023,39(5):634-644.
[29] 黃靜秋.鄧伯軍.人工智能算法的倫理規(guī)制研究[J].北京科技大學(xué)學(xué)報(bào)(社會科學(xué)版),2025,41(2):88-96.
[30] 李賢森.民事域外取證與數(shù)據(jù)出境監(jiān)管的沖突及應(yīng)對[J].比較法研究,2025(1):204-222.
[31] 中華人民共和國網(wǎng)信辦.全球人工智能治理倡議[EB/OL].(2023-10-18)[2024-06-14].https://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm.
On Legal Risk Regulation of Artificial Intelligence Systems - A Case Study of the EU Artificial Intelligence Act
LI Xiansen, LI Tingkai (School of Law, Beijing Institute of Technology, Beijing 10oo24, China)
Abstract:The European Union’s“Artificial Intellgence Act” (hereinafter referred toasthe“Artificial Inteligence Act” or “this Act\") serves as the world's first technological law that conducts comprehensive supervision of the risksofartificial intelligence It offers novel ideas for global artificial intelligence legislation,emergingas a pioneering norm in the global legal supervision of artificial intelligence and presenting reference significance. The underlying regulatory logic of the “Artificial Inteligence Act” lies in the systematic regulation of technological risks,that is,with risk supervisionas thecoreapproach,after makinga comprehensive judgment byconsideringfactorssuch as theconcept of risk,risk levels,and assessment diffculty,extensive interventioniscarried out from aspects such as the development direction of artificial intellgence systems,prohibitive principles, the framework of rights and obligations,and damage remedy measures.For other countries,it is imperative to summarize and appropriately draw upon the legislative experience of the“Artificial Inteligence Act” and advance the progress ofrisk regulation of artificial intelligence systems. Chinese legislative workers can,on the basis of sorting out and summarizing the systematic legislative experience in the field of artificial inteligence governance of the European Union,conduct targeted innovation and comprehensive adaptation to China’s artificial intellgence legislation,and establish acomprehensiverisk evaluationstandard forartificial inteligence,consolidate rights and obligations in the artificial intelligence value chain, and promote the governance of artificial intelligence in China towards the direction of forward-looking risk, detailed responsibility,and clear regulation.
Key Words:EU Artificial Intellgence Act;high-risk artificial intellgence system;value chainresponsibility; risk regulation;innovation mechanism
北京科技大學(xué)學(xué)報(bào)(社會科學(xué)版)2025年5期