關(guān)鍵詞:可信人工智能安全倫理法律規(guī)制責任以人為本
一、以可信為基礎(chǔ)構(gòu)建人工智能治理法律制度的必要性
人工智能技術(shù)發(fā)展突飛猛進,在諸多領(lǐng)域取得了令人矚目的成就。但是,人工智能的發(fā)展,卻因為技術(shù)的復雜性、風險的不完全確定性、技術(shù)濫用、法律規(guī)制的缺位等因素,還未完全贏得社會的信任。
(一)人工智能發(fā)展中還存在侵蝕其可信性的諸多因素
其一,人工智能技術(shù)發(fā)展還存在諸多可知或不可知的風險。當前,人工智能存在著失控性風險、社會性風險、侵權(quán)性風險、歧視性風險、責任性風險五個方面的倫理安全風險。一項針對14-28歲的中國青年關(guān)于人工智能的調(diào)查結(jié)果與谷歌學術(shù)指數(shù)的比對結(jié)果顯示,人們對人工智能的擔憂,焦點主要在于其可能導致戰(zhàn)爭、操縱輿論、加劇環(huán)境破壞、用于犯罪人工智能化、沖擊民族文化、影響隱私與倫理、導致失業(yè)、大數(shù)據(jù)殺熟、人工智能軍備競賽、貧富分化等。顯然,這些情形直接影響了人們當下對于人工智能技術(shù)的信任,也表明人工智能的“可信”問題還沒得到完全解決。發(fā)展人工智能可能導致的道德風險包括“人們可能由于自動化而失業(yè)”“可能擁有過多或過少的閑暇時間”“可能會失去作為人的獨一無二的感覺”“人工智能系統(tǒng)的使用可能會走向不期望的終點”“人工智能系統(tǒng)的使用可能會導致責任感的喪失”“人工智能的成功可能意味著人類種族的終結(jié)”。
其二,人工智能技術(shù)還不完全可信。(1)人工智能技術(shù)還未真正達到人們想象的發(fā)達程度,總體上還處于專用人工智能而不是通用人工智能發(fā)展階段。人工智能固然能夠在圍棋等特定領(lǐng)域獲得快速精準的處理優(yōu)勢,但能處理全新問題的通用人工智能目前較為缺乏;目前的人工智能無法應(yīng)對特殊情境下的“異常值”問題,如能夠在天氣良好的情形下處理高速公路駕駛問題的人工智能不一定能夠應(yīng)對城市道路的復雜情景;目前的人工智能總體上還難以達到“安全、聰明、可信”的標準;人工智能理想與人工智能現(xiàn)實之間還存在鴻溝,如人工智能雖然可能與人交談家庭問題,但其實它根本不懂家庭。人工智能還存在超歸因錯誤、魯棒性的缺失、高度依賴大數(shù)據(jù)訓練的人工智能無法適應(yīng)全新的環(huán)境、容易導致社會偏見、錯誤的數(shù)據(jù)會引發(fā)回音室效應(yīng)、數(shù)據(jù)可能被公眾操縱、偏見疊加、容易陷入錯誤目標陷阱、被用于非法目的傷害公眾等不足。(2)深偽技術(shù)加劇了人們對真實性瓦解的擔憂。實踐中,“基于深度學習的深偽(deepfake)技術(shù)可以在圖像和視頻中實現(xiàn)‘換臉’,達到以假亂真的程度”“人們借用深偽技術(shù)和配對訓練可以生成視頻,讓人帶表情地說話”;普通人很難通過聲音、表情和嘴型變化辨別視頻的真假,而這些技術(shù)如果被用于普通人身上,則可能導致污證、勒索、欺詐、惡作劇的泛濫。(3)技術(shù)安全等問題未完全解決。人工智能的技術(shù)安全問題(如數(shù)據(jù)安全、網(wǎng)絡(luò)安全、算法安全、隱私安全),人工智能的應(yīng)用安全問題(如智能安防、輿情監(jiān)測、金融風控、網(wǎng)絡(luò)防護),人工智能的法律與倫理(如法律法規(guī)、標準規(guī)范、社會倫理)等問題,均未得到有效解決。此外,生成式人工智能會衍生出傳播虛假信息、侵害個人信息隱私、偏見歧視等問題,給大數(shù)據(jù)和人工智能產(chǎn)業(yè)的安全發(fā)展留下隱患。(4)與人工智能技術(shù)關(guān)聯(lián)的問題是,人工智能的良好運行高度依賴個人信息和數(shù)據(jù),而個人信息和數(shù)據(jù)管控本身還存在諸多問題,如App違反合法、正當、必要的原則收集與所提供服務(wù)無關(guān)的個人信息,“強制授權(quán)、過度索權(quán)、超范圍收集個人信息”大量存在。
其三,人工智能應(yīng)用不當導致了侵權(quán),致使人工智能不完全可信。(1)如2019年,臉書通過人工智能封停了54億個虛假賬戶,這些虛假賬戶大多是由程序自動創(chuàng)建的機器人程序,它們違規(guī)發(fā)布惡意信息,操縱輿論氛圍、傳播虛假信息,人工智能與人工智能之間的斗爭不斷升級。(2)存在不合理運用人工智能技術(shù)和人工智能技術(shù)遭到惡意濫用的情形。如人臉識別技術(shù)的廣泛普及,使得人臉數(shù)據(jù)采集變得輕而易舉,引發(fā)了民眾對面部數(shù)據(jù)泄露的廣泛擔憂。近期的報道如“上海已在全市嚴禁酒店強制刷臉”,實際上是對此前大規(guī)模違法行為的一種糾偏。
其四,人工治理的技術(shù)使用還存在與其宣示的價值取向不一致的情形,損害了人工智能發(fā)展的價值基礎(chǔ)。人工智能在技術(shù)發(fā)展存在極大不確定性的情況下就使用,易導致“惡性競爭、誤用、濫用甚至惡用”。如2016年11月美國總統(tǒng)大選中唐納德·特朗普被選為美國總統(tǒng),2016年英國就是否繼續(xù)留在歐盟舉行全民公投,結(jié)果支持退出歐盟的一方以微弱優(yōu)勢勝出,“在這兩個案例中,都有人認為推特等社交媒體平臺被用來傳播有利于最終勝利方的假新聞”, 這是因為人工智能有其特定的運作邏輯,“人工智能在其中所起的作用是根據(jù)你的點贊、評論,以及你點擊的相關(guān)的閱讀鏈接等行為去分析你的偏好,然后尋找到你也許會喜歡的新消息”,“向你展示你喜歡的東西,隱藏你不喜歡的”。
其五,規(guī)制人工智能的法律還不可信。傳統(tǒng)法律主要是為規(guī)制人的行為制定的,無法適用于對人工智能新技術(shù)的監(jiān)管。面對一項新技術(shù),國家直接監(jiān)管人工智能的法律規(guī)范闕如,且人們擔心過于嚴格的法律監(jiān)管會阻礙人工智能的技術(shù)創(chuàng)新;而規(guī)制隱私、安全、公平競爭等領(lǐng)域的法律,尚無法完全適應(yīng)人工智能發(fā)展與規(guī)制的需要。規(guī)制人工智能的法律不可信還源于:傳統(tǒng)法律難以有效規(guī)制人工智能;新的法律跟不上人工智能技術(shù)發(fā)展的步伐;人工智能的發(fā)展還存在很多技術(shù)上的不可預知風險,即便出臺人工智能治理的法律也很難做到針對性的監(jiān)管。
總之,技術(shù)和法律的發(fā)展還處在雙重不確定性中,人們自然難以建立起對人工智能及規(guī)制人工智能的法律的全然信任。而一項不可信的技術(shù),會解構(gòu)它的存在和發(fā)展的價值基礎(chǔ),導致它的發(fā)展喪失道義正當性。
(二)人工智能法為什么要強調(diào)信任
信任,是人際關(guān)系得以長久維系的橋梁,是社會關(guān)系得以拓展的基礎(chǔ),是社會發(fā)展的內(nèi)在條件,更是建立高效社會組織的基本前提。
1.信任是社會合作得以進行的基礎(chǔ)
人類最早的信任可能來自生物基因,為了維系直系親屬的生存尤其是后代的生存,人們會選擇信任“一個由1-10個人組成的群體(大約是我們的直系親屬的規(guī)模)”;個人之間的信任也許容易建立,但是,更大規(guī)模的信任即群體的信任的建立是困難的,因而,早期人們多選擇信任自己的部落成員;人類的信任史是從一對一關(guān)系開始的,之后通過市場、宗教和政府逐步建立了較為廣泛的信任;而現(xiàn)代國家成功的一個關(guān)鍵就是,“人民‘信任各種制度以及這些制度下的法治,并且不擔心自己的財產(chǎn)安全’”。信任是一種社會資本,“信任的作用像一種潤滑劑,它使一個群體或組織的運作更有效率”。
2.信任成功與否取決于信任拓展范圍的大小
人類社會的信任總體上經(jīng)歷了“從一個依靠關(guān)系和信任來加強合作的社會進入到一個由市場和法治對合作進行協(xié)調(diào)的社會”歷程;“技術(shù)的發(fā)展將我們的信任圈從我們的直系親屬和部落拓展到了國際社會中越來越多的區(qū)域”??傮w來看,一項拓展信任半徑越大的技術(shù),就越容易成為世界大多數(shù)人接受的技術(shù)。人工智能的信任拓展,是一個復雜的過程?!叭藱C之間信任鏈的產(chǎn)生過程常是:從陌生—不信任—弱信任—較信任—信任—較強信任—強信任?!?特定國家的人工智能技術(shù),無法不受世界上最發(fā)達的技術(shù)影響。人工智能技術(shù)的競爭,是全球性的,在很大程度上講,人工智能技術(shù)競爭的結(jié)果很可能形成“贏家通吃”的局面。因此,人工智能的發(fā)展,不僅要追求進步,而且必然應(yīng)追求“最優(yōu)”。
人工智能技術(shù)的發(fā)展程度,不僅是由技術(shù)決定的,而且是由規(guī)制人工智能的倫理、法律等規(guī)范決定的。技術(shù)和規(guī)范,共同推動著人工智能發(fā)展的水平和高度。那些真正發(fā)展得良好的技術(shù),必定也是法律保障有力、遵循了良好倫理規(guī)范的技術(shù)。由此,人們對人工智能技術(shù)的信任,就建立在保障人工智能發(fā)展的倫理規(guī)范和法律規(guī)范的基礎(chǔ)上。
二、人工智能獲得社會信任的法律基礎(chǔ)
不同時代社會信任的運作機理有所差異, 人工智能獲得社會信任需要依靠法律制度來保障,需要妥當監(jiān)管的法律制度為人工智能的可信予以背書。法律保障人工智能可信的關(guān)鍵在于捍衛(wèi)現(xiàn)代法治的傳統(tǒng)和憲法確認的公民的基本權(quán)利。
(一)人工智能的信任需要法律來保障
其一,傳統(tǒng)社會基于血緣等關(guān)系構(gòu)建了人際之間的信任,人與人之間的信任多建立在熟人關(guān)系基礎(chǔ)上。其優(yōu)點是,熟人之間需要進行的是多次博弈而不是一次行動。不足在于信任范圍非常小,這是因為傳統(tǒng)社會中人們的交往和合作主要建立在熟人關(guān)系的基礎(chǔ)上,工商業(yè)不發(fā)達,人們需要拓展的交往半徑也不需要太大。社會普遍化信任的匱乏,或者說人與人之間缺乏普遍信任,社會的“信任半徑”非常狹小。這種對家庭以外成員的低信任度狀況,既是由熟人文化傳統(tǒng)決定的,也是由小農(nóng)經(jīng)濟特點決定的。
其二,到近現(xiàn)代社會,法律力圖建構(gòu)的是一種打破血緣關(guān)系、促進陌生人合作的普遍信任機制。法律追求普遍性,強調(diào)法律面前人人平等,要求任何人不論其所處的地位或處境,都必須服從于法律和法院的司法管轄權(quán)?,F(xiàn)代社會共同體合作的基礎(chǔ),主要建立在平等交換、契約自由基礎(chǔ)上。以平等交換為核心內(nèi)容的國家法律制度,奠定了陌生人之間市場交往的信任基礎(chǔ)。
其三,人工智能時代的信任須建立在人工智能技術(shù)安全、確定性的法律管控和社會倫理引領(lǐng)的基礎(chǔ)上。技術(shù)是人工智能獲得可信的載體。技術(shù)視角下的人工智能信任建立在人對技術(shù)的信任基礎(chǔ)上,使人相信人工智能技術(shù)屬于“似人的技術(shù)”;技術(shù)視角下的信任主要是指“個體對信息技術(shù)的功能性、可靠性和有用性的信任信念”。數(shù)字技術(shù)促進數(shù)字經(jīng)濟信任的成功典型是早期淘寶的遠程交易,“買方擔心付款后賣方不發(fā)貨,而賣方也擔心發(fā)貨后收不到款。于是,2004年第三方支付平臺支付寶開始運行,由支付寶承擔買賣雙方的風險。數(shù)字交易留痕為信用評價提供了便利的技術(shù)手段”。從應(yīng)然角度講,人工智能要獲取整個社會的信任,最為基礎(chǔ)的是,它要向整個社會展示出自身的技術(shù)首先是可信的———不僅技術(shù)的確是智能的,而且是向善的,至少不能是作惡的。 在人工智能技術(shù)背景下,人工智能的可信問題就首先被轉(zhuǎn)換成了一個技術(shù)問題,即可信計算的問題。信息安全的最新國際標準ISO/IEC-15408將“可信”界定為:“參與計算的組件、操作或過程在任意的條件下是可預測的,并能抵御病毒和物理干擾”,且這種計算機系統(tǒng)的可信從用戶角度來看應(yīng)當是可論證的。可信計算的平臺的基本特征包括“真實報告系統(tǒng)的狀態(tài),同時絕不暴露自己的身份”,而要實現(xiàn)這一目標,平臺必須具備三個基本特征:(1)保護能力,核心是建立平臺屏蔽系統(tǒng)保護區(qū)域,確保數(shù)據(jù)的訪問須經(jīng)過授權(quán),以控制外部實體對敏感數(shù)據(jù)的訪問;(2)證明,即能夠確認信息的正確性,“外部實體可以確認保護區(qū)域、保護能力和信任源”;(3)完整性的度量、存儲和報告,“其基本原理是一個平臺可能被允許進入任何狀態(tài),但是平臺不能對其是否進入或者退出了這種狀態(tài)進行隱瞞和修改”。
以上三種關(guān)于信任的“理想類型”的共性在于,都力圖建立人與人之間的信任關(guān)系,以推動符合時代需要的社會合作。差異在于:(1)血緣關(guān)系、家族關(guān)系等具有鮮明的自然、天然屬性,因而建立于這些因素基礎(chǔ)上的人際信任范圍具有天然的有限性,信任輻射的半徑較小。與自然因素伴隨的問題是,基于傳統(tǒng)社會人際因素建立的人與人的關(guān)系往往是不平等的。等級性、差異化的人際信任關(guān)系結(jié)構(gòu),也決定了人與人之間的信任雖然緊密,但信任范圍必然十分有限。(2)現(xiàn)代法律制度的平等性特征使得它具有拓展更大信任半徑的內(nèi)在因素和可能。平等性是經(jīng)濟契約得以成立的基礎(chǔ),也是長久性互惠人際關(guān)系得以實現(xiàn)的基礎(chǔ)。進入關(guān)貿(mào)總協(xié)定(GATT)和世界貿(mào)易組織(WTO)時代,部分國家依靠雙邊或多邊條約、區(qū)域協(xié)定、國際規(guī)則,開拓了超越國家領(lǐng)域的法律合作范圍,市場化的信任得以大幅度擴展,信任合作具有了超越國家地理邊界的可能。依靠法律對產(chǎn)品生產(chǎn)質(zhì)量或服務(wù)質(zhì)量的管控以及法律對平等交易的保障,市場合作具有了無限可能。(3)人工智能產(chǎn)品或服務(wù)的信任關(guān)系建立,離不開契約型法律制度的基本保障。但人工智能技術(shù)背景下的信任,還有其獨特性,本質(zhì)上涉及人對技術(shù)的安全性、技術(shù)對個人信息保護程度、技術(shù)被運用的價值正當性等一系列技術(shù)問題的信任。要完成人工智能產(chǎn)品或服務(wù)的可信交易,需要滿足兩個基本條件:一是公平的市場交易制度,二是可信的人工智能產(chǎn)品。復雜的是,人工智能的可信,至少在目前,還無法完全依靠人工智能自身建立起來,它的可信,還需要依靠法律制度來保障,需要妥當監(jiān)管的法律制度為人工智能的可信予以背書。
(二)捍衛(wèi)現(xiàn)代法治的傳統(tǒng)和公民的基本權(quán)利系確保人工智能可信的關(guān)鍵
人們對人工智能技術(shù)的信賴,建立在人工智能技術(shù)的安全性、保障和規(guī)制人工智能的法律制度的正當性、規(guī)制人工智能發(fā)展的制度的價值正義性、人工智能技術(shù)的實踐運作對人類基本價值追求和人的基本權(quán)利維護的有效性的基礎(chǔ)上。智能技術(shù)被用于數(shù)字治理,可提升治理的效能,但智能技術(shù)的運用,涉及社會發(fā)展、技術(shù)創(chuàng)新、倫理維護、行政效率等多維度價值。人們的擔心在于:一是由于認知不能,人類無法預知人工智能的風險;二是擔心沒有合理的管控標準和法律制度,人工智能技術(shù)風險不能夠得到很好控制;三是擔心雖然預知了風險,也設(shè)定了法律制度,但是無法合理預知制度能否管控技術(shù)風險;四是由于法律制度設(shè)定偏差,導致法律設(shè)定的監(jiān)管人工智能的目標難以實現(xiàn);五是由于技術(shù)不透明,且技術(shù)問題屬于專業(yè)問題,一般公眾無法合理判斷一項技術(shù)是否被合理利用。作為一項具有高度不確定性風險的技術(shù),人們擔心企業(yè)或者社會管理者不能很好地管理人工智能的社會風險,而給自己、社會或者人類帶來不可逆的社會風險或者損害。因此,人工智能發(fā)展和規(guī)制人工智能發(fā)展的法律制度須具備價值正義性。人工智能技術(shù)本身不足以完全促進人對人工智能技術(shù)的信任,但合理的法律制度設(shè)定可保障這種信任的達成,提升人對人工智能技術(shù)的信任度。制度視角下的技術(shù)信任實際上是通過法律制度對信任關(guān)系的重新構(gòu)造,完成了對陌生人之間信任關(guān)系的構(gòu)造與拓展。
在支撐人工智能信任的技術(shù)維度、法律維度、倫理維度和實踐維度中,最為關(guān)鍵的是為人工智能發(fā)展設(shè)定法律監(jiān)管標準。這是因為,人工智能技術(shù)雖然具有一定的獨立性,但人工智能技術(shù)的發(fā)展方向必須由法律來引領(lǐng);人工智能倫理固然具有價值引領(lǐng)作用,但這種價值引領(lǐng)作用的發(fā)揮缺乏強制性,只有通過法律把這種價值的“善”轉(zhuǎn)化為強制的制度標準和具體的行為準則,倫理價值準則才具有真正得以實踐的可能性;而人工智能技術(shù)的實踐運作對人類基本價值追求和人的基本權(quán)利維護的有效性問題,也主要是對法律基本價值和憲法確立的公民基本權(quán)利保障的實踐,這一實踐如果與法律規(guī)定有偏差,就需要對其進行矯正。
三、可信人工智能法律構(gòu)建的倫理基礎(chǔ)與可信特征
包括我國在內(nèi)的許多國家均將“可信”作為人工智能的核心倫理原則,而“正當性”則是保障人工智能可信法律構(gòu)建的基礎(chǔ)。
(一)正當性是保障人工智能可信法律構(gòu)建的倫理基礎(chǔ)
全球關(guān)于人工智能治理可信問題的關(guān)注最初是在倫理文件中表達的。關(guān)于發(fā)展什么樣的人工智能, 未來生命研究院提出了“有益的人工智能”(2017), 英國上議院提出了“倫理性的人工智能”(2017),歐盟人工智能高級別專家委員會提出了“可信賴的人工智能”(2019),中國新一代人工智能治理委員會提出了“負責任的人工智能”。雖然存在一些爭議,但是國際社會在“可信賴的人工智能”“負責任的人工智能”等核心理念上可能會達成一致。
思考可信人工智能治理的德性基礎(chǔ),實際上是從根本上思考人類社會應(yīng)當發(fā)展什么樣的人工智能的目標問題。早在1942年,科幻作家阿西莫夫即給出了機器人發(fā)展的三大法則:“(1)一個機器不可傷害人類,或通過交互讓人類受到傷害。(2)一個機器人必須遵守人類發(fā)出的指令,除非指令與第一法則沖突。(3)一個機器人必須保護自身生存,只要這種保護不與第一和第二法則沖突。”當然,阿西莫夫為機器人設(shè)定的三大法則雖然為人工智能系統(tǒng)的構(gòu)建提供了高層次的指導原則,但是,如果做出每一步都要考慮它帶來的影響,又是不可操作的。
二十國集團強調(diào)了負責任與人工智能發(fā)展的可信賴特征。2019年6月,二十國集團貿(mào)易和數(shù)字經(jīng)濟部長會議公報中發(fā)布了《G20人工智能原則》,第1節(jié)提出了“負責任地管理可信賴AI的原則”。二十國集團向我們展示的人工智能的可信,是由一系列要素支撐的一個從客體到主體的價值體系??腕w指的是人工智能技術(shù)穩(wěn)健性、安全性和保障性,主體主要指人工智能服務(wù)的終極對象是人,人工智能技術(shù)無論如何發(fā)展,都要維持人的主體地位,捍衛(wèi)人類社會數(shù)千年來努力建構(gòu)起來的公平這一基本價值觀。
歐盟提出了人工智能發(fā)展的“卓越與信任”目標,可信是歐盟人工智能法設(shè)定的基本準則。如歐盟出臺的人工智能法在前言部分即提出,“本條例的適用應(yīng)符合《憲章》所載的歐盟價值觀,促進對個人、企業(yè)、民主和法治以及環(huán)境的保護,同時促進創(chuàng)新和就業(yè),并且使得歐盟成為采用可信人工智能的領(lǐng)導者”(前言第2部分);“促進歐洲以人為本的人工智能方法,并在安全、可信和合乎道德的人工智能發(fā)展方面成為全球領(lǐng)導者,同時確保按照歐洲議會的具體要求保護道德原則”(前言第8部分)。
美國將可信賴作為人工智能開發(fā)的一項原則。如美國總統(tǒng)拜登于2023年10月30日簽署頒布了《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》,該行政命令提出其總目標是“為所有人帶來正義、安全和機會”;提出了人工智能發(fā)展的政策原則包括:安全可靠;支持多元化的勞動力(包括支持工人);促進公平;保護隱私和公民自由;造福整個世界;評估和管理生物安全風險、減少合成內(nèi)容帶來的風險;倡導在政府使用人工智能的實踐中要管理風險,“對使用人工智能作出的不利決策給予人性考慮和補救措施”。
可信也是中國人工智能發(fā)展的基本標準。2021年9月25日國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》第3條提出了人工智能各類活動應(yīng)遵循的基本倫理規(guī)范之一就是確??煽乜尚牛氨U先祟悡碛谐浞肿灾鳑Q策權(quán),有權(quán)選擇是否接受人工智能提供的服務(wù),有權(quán)隨時退出與人工智能的交互,有權(quán)隨時中止人工智能系統(tǒng)的運行,確保人工智能始終處于人類控制之下”。2023年,中國發(fā)出的《全球人工智能治理倡議》強調(diào)了要“確保人工智能始終處于人類控制之下,打造可審核、可監(jiān)督、可追溯、可信賴的人工智能技術(shù)”。全國信息安全標準化技術(shù)委員會、大數(shù)據(jù)安全標準特別工作組發(fā)布的《人工智能安全標準化白皮書(2023版)》中,對可信問題的關(guān)注主要集中于人工智能的“透明度、可解釋性、健壯性與可控性”以及應(yīng)用安全風險管理與用戶對人工智能的信任之間的關(guān)系問題。
當然,多個主體關(guān)于“可信”的表達差別還較大:如前述的二十國集團關(guān)于“負責任地管理可信賴AI的原則”,幾乎包含了人工智能發(fā)展的所有倫理原則;歐盟的人工智能白皮書本身就將“卓越與可信”作為其題目,所以其關(guān)于人工智能發(fā)展的具體內(nèi)容表述,都必然與“卓越與可信”密切相關(guān);美國的人工智能行政命令也將“安全、可靠、值得信賴”放在一起進行表述;我國人工智能的“倫理規(guī)范”“治理倡議”“白皮書”,也把“可信”與人類自主、安全與隱私保護、可解釋與透明關(guān)聯(lián)起來闡述。從前述不同的文本來看,我們似乎很難說哪一項人工智能倫理原則與“可信”人工智能的發(fā)展是沒有關(guān)系的。雖然表述有所不同,但是概括起來看,有關(guān)人工智能可信的所有要求就是人工智能的發(fā)展要具有“正當性”。
可信被很多國家人工智能倫理確認為了一項基本倫理原則,這一原則的提出,是為了解決人工智能的價值對齊問題,即確保人工智能的目標與人類的目標一致,使其“行為和決定符合人類的價值、目標、道德考量”?!车?,單純從倫理準則角度構(gòu)建追求人工智能的可信存在諸多問題:(1)全球關(guān)于人工智能治理存在諸多爭議,不同準則之間的沖突日益凸顯,如“普惠發(fā)展與隱私保護”“安全可靠與非歧視要求的沖突”等;既有準則規(guī)范可能由私人部門提出,實際上是抵制政府監(jiān)管的借口等。(2)作為倫理準則的可信標準,主要是一種倡導性、自律性準則,缺乏有效的監(jiān)督執(zhí)行機制,強制性程度不足;準則的表達多采概括性概念,可操作性不強。因而,國家立法所要做的工作就是,將倫理準則轉(zhuǎn)化為法律準則,并通過更加具體的技術(shù)規(guī)則和法律規(guī)則設(shè)計,保障可信準則在人工智能產(chǎn)品或服務(wù)的研究、開發(fā)、設(shè)計、部署、使用、監(jiān)管等具體環(huán)節(jié)得到落實。
(二)現(xiàn)行可信人工智能的評估標準
何積豐院士提出,人工智能的可信特征包括四個方面,即:(1)魯棒性,即對未知情況具備一定的應(yīng)對能力;(2)自我反省,即對自身性能或錯誤能夠有所感知;(3)自適應(yīng),即能夠成為通用的系統(tǒng),能被應(yīng)用到新的環(huán)境;(4)公平性,如應(yīng)防止被不當力量訓練為種族歧視的智能。有學者提出了可信人工智能系統(tǒng)的質(zhì)量框架,包括:(1)尊重人類自治原則,含人權(quán)代理與監(jiān)督。這是最為重要的原則,人工智能應(yīng)當賦予人類新的權(quán)利而不是取代人類,且處于人類控制之下,不對人類基本權(quán)利或健康造成損害。(2)傷害預防原則,包括魯棒性、穩(wěn)定性、安全性(包括保密性、完整性、可用性)、可靠性、可問責性、隱私性、可重復性、準確性等。(3)可解釋性原則,包括透明性、可解釋性。(4)公平性原則,即確保群體或者個體不受偏見或歧視。(5)一般軟件質(zhì)量屬性,如兼容性、可維護性、功能適用性、可移植性、性能效率、易用性等。歐盟委員會人工智能獨立高級別專家組《用于自評估的可信人工智能評估清單》(ALTAI)指出,歐盟于2019年在《可信人工智能倫理指南》中提出了7項可信的要求:人類代理與監(jiān)督,技術(shù)魯棒性及安全性,隱私與數(shù)據(jù)治理,透明度,多樣性、非歧視性和公平性,社會和環(huán)境福祉,責任。
四、可信人工智能發(fā)展對法律構(gòu)建提出的要求
保障可信人工智能發(fā)展的路徑呈現(xiàn)出一定多元性,總體上是對技術(shù)、倫理和法律所作的不同程度的組合。為保障人工智能的可信發(fā)展,法律制度應(yīng)遵循一系列外在準則和內(nèi)在準則,前者包括以人為本原則、人類主導原則、技術(shù)中立原則,后者包括透明原則、安全原則、公平原則、隱私保護原則、可問責原則。
(一)保障可信人工智能發(fā)展的多元路徑與法律路徑
保障可信人工智能發(fā)展的路徑是多元的,大致包括:(1)側(cè)重行業(yè)技術(shù)保障的路徑。如中國信息通信研究院和京東探索研究院通過對全球范圍內(nèi)已經(jīng)發(fā)布的84份政策文件按照詞頻進行梳理發(fā)現(xiàn),當前人工智能治理原則已經(jīng)收斂在“透明性、安全性、公平性、可責、隱私保護等五個方面”,支撐可信的技術(shù)包括“穩(wěn)定性技術(shù)、可解釋性技術(shù)、隱私保護技術(shù)、公平性技術(shù)、可視化技術(shù)”等。(2)技術(shù)認證的客觀標準與倫理價值評價的主觀標準結(jié)合的路徑。如加拿大國家治理創(chuàng)新中心發(fā)布的《可信人工智能的雙軌認證方法》報告提出,“可信人工智能的發(fā)展出現(xiàn)了雙軌并行的趨勢:一條路徑側(cè)重于通過已成立的認證機構(gòu),使用客觀標準對嵌入軟件產(chǎn)品中的人工智能程序進行認證;另一條路徑則側(cè)重于驗證可信AI是否符合主觀標準,如價值觀、道德規(guī)范和法規(guī)的個人權(quán)利等”。(3)人工智能的風險防控路徑。中國信通院聯(lián)合清華大學、螞蟻集團發(fā)布的《可信AI技術(shù)和應(yīng)用進展白皮書(2023)》提出,針對人工智能固有技術(shù)風險持續(xù)放大,可信人工智能發(fā)展應(yīng)從應(yīng)用AI魯棒性技術(shù)對抗惡意攻擊(提升文本識別對抗能力、提升圖像偽造識別能力、提升生物核身檢測能力),利用AI可解釋性技術(shù)提升決策透明度,通過對營銷定價歧視糾偏、改善信息繭房現(xiàn)象、加強對弱勢群體保護等提高AI的公平性,在AI的實踐中,應(yīng)加強對數(shù)據(jù)模型安全和人臉識別隱私保護等。(4)法律、倫理、技術(shù)結(jié)合的路徑。2019年,歐盟人工智能高級別專家組發(fā)布了《可信人工智能的倫理指南》,提出人工智能在整個生命周期中需要滿足三個條件:合法性,即可信人工智能應(yīng)當依法合規(guī);道德性,即人工智能發(fā)展要符合道德原則、價值觀;穩(wěn)健性,即人工智能發(fā)展應(yīng)避免造成無意的損害或負面影響。這實際上提出了保障人工智能可信發(fā)展的綜合路徑,即綜合法律、倫理、技術(shù),保障人工智能的可信。
上述路徑總體上是將技術(shù)、倫理和法律做了不同組合,不同組合側(cè)重不一,呈現(xiàn)出來的規(guī)制路徑當然就有一定差異。(1)技術(shù)不足以保障人工智能的可信??尚湃斯ぶ悄艿慕㈦x不開技術(shù)準則,如開發(fā)、部署和使用人工智能的相關(guān)技術(shù)以及相關(guān)軟件、算法和數(shù)據(jù)技術(shù);重點監(jiān)控“對個人或社會造成傷害或危害”的高風險技術(shù)。但技術(shù)標準是人工智能發(fā)展目標實現(xiàn)的手段,甚至是人工智能法律管控目標實現(xiàn)的具體路徑。所以,我們應(yīng)把人工智能可信目標的實現(xiàn),植入一個相對更體系化的國家制度路徑。(2)倫理準則缺乏有效的強制力。人工智能的可信離不開倫理的保障。倫理作為一種社會評價標準,固然可以通過壓制個體意志與欲望的方式約束行為人,但它具有的是一種“弱強制力”,而且其運行遵循的是他律機制,無法真正保障人工智能的發(fā)展行進在正確的軌道上。(3)法律可以發(fā)揮國家的強制性與引領(lǐng)性來保障人工智能的可信。為人工智能設(shè)定法律標準,實際上是為人工智能的研究者、開發(fā)者、部署者等設(shè)定最為基本的標準,并通過法律的強制執(zhí)行性推動各項標準的落實,以防人工智能的發(fā)展偏離人類追求的價值目標,實現(xiàn)對人工智能產(chǎn)業(yè)發(fā)展的規(guī)制、引領(lǐng)作用。
(二)可信人工智能對法律提出的期待
可信是一種文化,一種基于技術(shù)發(fā)展而形成的人對人工智能的認知和信任狀態(tài)。為了保障人工智能的可信發(fā)展,法律制度的創(chuàng)設(shè)或者調(diào)整應(yīng)當遵循一系列外在準則和內(nèi)在準則。
1.可信人工智能法律構(gòu)建應(yīng)遵循的外在準則
外在準則構(gòu)成了人工智能發(fā)展的國家社會目標, 意在維護國家社會的福祉和法律的基本價值,是人工智能長遠發(fā)展的基本準則。外在準則主要是一種理念,它無法通過人工智能技術(shù)而直接得到落實,但它可以成為評判人工智能技術(shù)發(fā)展是否正當?shù)脑獪蕜t,是人工智能發(fā)展的總的引領(lǐng)性準則。
其一,以人為本,捍衛(wèi)人的基本權(quán)利。“以人為本”的理念,是我國在《全球人工智能治理倡議》中提出的重要理念。可信與以人為本、安全、合乎道德密切相關(guān),故歐盟人工智能法同樣提出了“以人為本”理念,強調(diào)“鑒于人工智能可能對社會產(chǎn)生的重大影響以及建立信任的必要性,人工智能及其監(jiān)管框架的發(fā)展必須符合《歐盟條約》第2條所載的歐盟價值觀、各項條約和《憲章》所載的基本權(quán)利和自由。作為前提條件,人工智能應(yīng)是以人為本的技術(shù)。人工智能應(yīng)作為人類的工具,最終目的是提高人類福祉”(歐盟人工智能法前言第8部分)?!叭斯ぶ悄芊▽W始終是面向‘人’的研究,是智能時代的人類為了避免自身引發(fā)的風險與災(zāi)難而展開的法律學問?!比斯ぶ悄芰⒎▓猿忠匀藶楸?,就應(yīng)當保護個人信息和數(shù)據(jù)等數(shù)據(jù)權(quán)利,保護人格權(quán)、人的自主決策(自治權(quán))和人類的主體性,還應(yīng)當重視對社會弱勢群體的權(quán)益保護。發(fā)展以人為本的人工智能,既應(yīng)從技術(shù)發(fā)展的角度來設(shè)定制度,還應(yīng)從人的基本權(quán)利的角度規(guī)制人工智能技術(shù)。以人為本還應(yīng)當認真考量新產(chǎn)業(yè)發(fā)展對傳統(tǒng)產(chǎn)業(yè)帶來的沖擊,如人工智能發(fā)展對傳統(tǒng)產(chǎn)業(yè)領(lǐng)域的就業(yè)替代,就是一個需要高度關(guān)注的問題。應(yīng)考慮到那些高度流程化的崗位是最先被人工智能替代的崗位,人工智能的發(fā)展,就必須與國家的特定政策緊密結(jié)合;國家應(yīng)當從稅收、勞動保障、就業(yè)培訓等角度完善相關(guān)法律和政策,以有效化解人工智能發(fā)展產(chǎn)業(yè)對就業(yè)造成的沖擊、社會保障問題。
以人為本的理念與憲法確定的人的基本權(quán)利之間具有密切的聯(lián)系。之所以要為人工智能設(shè)定法律制度,首先是因為人工智能的發(fā)展,衍生出了諸多傳統(tǒng)法律制度無法有效調(diào)整的法律問題,如果不能夠很好地規(guī)制這些問題,就會背離“以人為本”的發(fā)展目標。從更開闊的視野來看,人類之所以要規(guī)制人工智能,就是為了捍衛(wèi)生成于工業(yè)文明時期的久遠的法律傳統(tǒng)和維護人權(quán)的基本價值觀。諸如平等、自由、秩序等基本傳統(tǒng)價值,毫無疑問是規(guī)制人工智能的法律所首先必須堅持的。一是因為人工智能法律是整個國家法律體系的組成部分,所以在整體上必須與法律精神保持一致。二是因為人工智能的發(fā)展過程中,出現(xiàn)了某些動搖憲法所確認的公民基本權(quán)利的傾向,人工智能運用過程中發(fā)生的歧視、侵犯隱私等,均背離了憲法確認的價值準則。三是因為借助人工智能技術(shù)賦能,公權(quán)力的掌控者不斷拓展權(quán)力,而這種權(quán)力的運行,在技術(shù)上難以對其約束;很多時候,數(shù)字和人工智能領(lǐng)域的公權(quán)力擴張打破了“公權(quán)力,法律沒有授權(quán)不得行使”的一般準則。強調(diào)人工智能發(fā)展,遵守憲法和法律,就是為了堅持憲法、法律設(shè)定的基本原則,捍衛(wèi)憲法賦予公民的基本權(quán)利。四是因為學者們正在嘗試起草的人工智能法(學者建議稿),雖然也強調(diào)了“公平公正原則”“正當使用原則”“知識產(chǎn)權(quán)保護”等原則,但似乎對憲法確認的公民基本權(quán)利的保護問題很少直接提及,尤其是對通過約束公權(quán)力而保障私權(quán)利的問題強調(diào)較少,沒有很好地將人工智能立法與法律的傳統(tǒng)價值有效對接。人工智能示范法2.0(專家建議稿)存在同樣的問題。
其二,人類主導原則。人類主導原則是從人與機器關(guān)系的最終意義上說的。因為人工智能在很多方面代替人進行道德選擇和決策,但智能系統(tǒng)要為人類作決定,不能脫離人類倫理指導?!芭鋫渫暾麄惱順藴实娜斯ぶ悄軝C器將遵循其編程設(shè)定行事———它別無選擇”,“在絕大多數(shù)時候, 人工智能極有可能會反映其程序員的世界觀和倫理觀,然而這些程序員的信念并不統(tǒng)一”。當人工智能的決定不符合人類需要的時候,人類可以取代人工智能作出決定。人類主導原則還要求,人工智能的設(shè)定,還應(yīng)當尊重國別文化的多元性、尊重個體差異,并采取措施防止“人類對機器人的過度依賴”。
其三,技術(shù)中立原則。技術(shù)中立原則是設(shè)計人工智能法律制度時應(yīng)遵循的一項前置性原則。技術(shù)中立原則要求法律不應(yīng)限制人工智能與人類競爭,尤其是當人工智能更加高效的時候,“其宗旨是法律不應(yīng)當歧視人工智能”“人工智能可能更擅長某些領(lǐng)域的創(chuàng)新,倘若法律限制授予這類知識創(chuàng)新知識產(chǎn)權(quán),那么企業(yè)可能就不會使用人工智能進行發(fā)明創(chuàng)造”;但“人工智能法律中立原則并不是一個決定性的決策原則,而是一種適當?shù)哪驹瓌t,只有在具有充分理由的情況下才可以背離該默示原則”。例如,如果在交通事故中對普通駕駛?cè)税凑者^錯責任進行歸責,而對人工智能汽車采取嚴格責任原則予以歸責并要求車主承擔交通事故責任,那么就背離了技術(shù)中立原則,而適用過錯原則可能是妥當?shù)摹?/p>
2.可信人工智能法律制度構(gòu)建的內(nèi)在準則
內(nèi)在準則主要是法律技術(shù)性準則,這些準則大多可通過人工智能的技術(shù)設(shè)計、改進而得以落實。相對來說,內(nèi)在準則構(gòu)成了人工智能法律的操作性準則。
其一,透明原則。人工智能的透明,首先是為了保障公民的知情權(quán),讓人們了解人工智能是如何運作的。透明原則是為了防止人工智能被運用于不法目的或不正當目的,也有助于增強人的自主性,不透明的人工智能難以獲得人的信任。為此,一方面應(yīng)研發(fā)“更具透明度的模型算法,開發(fā)可解釋、可理解、可追溯的智能技術(shù)”;另一方面,對于達不到可解釋性要求的智能技術(shù)的應(yīng)用,應(yīng)當“限定算法在審判分析、疾病診斷和智能武器等可能涉及重大利益的應(yīng)用中的決策權(quán),通過‘人在回路’的系統(tǒng)設(shè)計,將最終的決策權(quán)掌控在人類手里”。
其二,安全原則。首先應(yīng)確保網(wǎng)絡(luò)安全、數(shù)據(jù)安全與算法安全。(1)可信意味著必須降低人工智能風險,采用“強制性標準”對風險進行管控,且風險管控措施應(yīng)符合比例原則,不能向人工智能開發(fā)者提出過高的要求(歐盟人工智能法第64部分)。(2)對風險宜進行分類管控或是分級管控。如2024年歐盟發(fā)布的人工智能法案將人工智能的風險分為四級,采取不同的限制措施。中國的人工智能法(學者建議稿)則將人工智能分為關(guān)鍵領(lǐng)域與一般領(lǐng)域進行管控,對關(guān)鍵領(lǐng)域進行重點管控。
其三,公平原則。與公平原則相對立的,往往是歧視和偏見。(1)由于人工智能的“智能”是習得的,所以克服人工智能偏見的重要一環(huán),就在于從人工智能的訓練數(shù)據(jù)入手預防偏見。核心是,在人工智能的模型訓練中, 排除那些明顯存在或者隱性存在文化偏見、性別歧視或種族歧視的數(shù)據(jù)集。(2)算法價格歧視是不公平的人工智能算法決策的現(xiàn)實表現(xiàn)之一。2020年復旦大學的一項研究報告顯示,在手機打車過程中,與非蘋果手機用戶相比,使用蘋果手機的用戶更容易被舒適型車輛司機接單,這一比例是非蘋果手機用戶的3倍;手機價格也與此密切相關(guān),“手機價位越高則越有可能被舒適性車輛接走”。算法價格歧視打破了傳統(tǒng)上人們信奉的市場應(yīng)遵循“童叟無欺”“不同人同價”的市場原則,轉(zhuǎn)而推行的是“千人千價”規(guī)則。顯然,類似的人工智能算法決策,背離了人的基本行為準則,破壞了社會確立的人際交往最為根本的原則———公平原則。 如果不能夠杜絕此類人工智能,那么人工智能的可信賴就無從談起。
其四,隱私保護原則。隱私不僅是一項民事權(quán)利,至少從全球視野觀察,隱私在很多國家被看作是一項憲法性權(quán)利,被認為“是自由思想和自由企業(yè)的重要潤滑劑”。隱私被侵犯,自然人的感知最為直接,顯然,一個無法保護隱私利益的人工智能,是無法被人們接受的。
其五,可問責原則。確保人工智能的部署、使用產(chǎn)生的法律責任是可問責的。問責是對侵權(quán)者追責,也是對受害者的救濟。
五、保障人工智能可信發(fā)展的具體法律制度
保障人工智能可信發(fā)展的具體法律制度,應(yīng)涵蓋設(shè)計、評估與測試等環(huán)節(jié),確立AI產(chǎn)品從概念到應(yīng)用的嚴格規(guī)范流程。同時,健全的監(jiān)督制度可以確保人工智能領(lǐng)域的透明與合規(guī),而完善人工智能的責任制度則可以明確責任歸屬,為AI的可信發(fā)展提供堅實的法律保障。
(一)設(shè)計、評估與測試制度
其一,設(shè)計階段的價值對齊制度。(1)法律應(yīng)當將價值對齊作為一項基本義務(wù)賦予人工智能設(shè)計者。人工智能技術(shù)在開發(fā)之初,設(shè)計者就應(yīng)當將倫理價值嵌入人工智能系統(tǒng)。人工智能所能開展的工作,本質(zhì)是邏輯推理。但是,人工智能的發(fā)展,必須追求道義。將人類的道德價值賦予人工智能似乎是一種可行的思路。當然,讓機器人執(zhí)行一些可簡單操作的道德準則相對容易,麻煩的是,人工智能經(jīng)常會面臨道德選擇困境,需要遵循阿西莫夫三大法則,還需要遵循不說謊、不欺騙、不偷盜、不傷害等原則,考慮財產(chǎn)損失、名譽損失、失業(yè)等因素,同時還應(yīng)尊重人類常識和基本價值觀。人工智能能否完成這一自我飛躍,似乎是難以回答的問題。但是,“我們需要經(jīng)由法律規(guī)定,任何以開放的方式與人類互動的人工智能,都必須理解并尊重人類的核心價值觀。例如,現(xiàn)有的針對盜竊和謀殺的禁令,像對人類一樣,同樣適用于人工智能,以及那些對人工智能進行設(shè)計、開發(fā)和部署的人”。所以,法律應(yīng)推動人工智能的開發(fā)者和部署者在深度人工智能機器中植入人類的價值因子,確保人工既具有邏輯理性,又能尊重人類的常識和價值觀,實現(xiàn)理性和價值的完美結(jié)合。(2)人工智能在開發(fā)階段就應(yīng)注意防止偏見和歧視。首先是識別人工智能必須遵守的倫理價值和規(guī)范,其次是將這些規(guī)范通過程序編碼寫入人工智能系統(tǒng),最后,為了驗證人工智能是否與特定價值和規(guī)范兼容,應(yīng)當對人工智能的規(guī)范和價值的有效性進行評估。如在人工智能的初始設(shè)計過程中,就應(yīng)當將隱私保護嵌入人工智能產(chǎn)品或服務(wù)系統(tǒng),采取主動的、預防性的、全周期的措施保護隱私,且應(yīng)當將最高的隱私保護標準作為默認設(shè)置。在技術(shù)上將倫理價值嵌入人工智能的基本方法是,“采用‘如果—那么’(if-then)結(jié)構(gòu),通過匹配條件部分和執(zhí)行結(jié)論部分來控制推理過程”,如可將“撓癢”的指令設(shè)定為“如果癢,則撓癢”的規(guī)則,人工智能就會執(zhí)行該指令。
其二,評估制度。人工智能開發(fā)者、提供者在開發(fā)、提供人工智能產(chǎn)品和服務(wù)前,可自行或委托第三方機構(gòu)對數(shù)據(jù)質(zhì)量、潛在偏見歧視、科技倫理審查情況、公共利益影響、保護措施等內(nèi)容進行安全風險評估。如歐盟委員會人工智能獨立高級別專家組《用于自評估的可信人工智能評估清單》在構(gòu)建人工智能的可信自評估體系時,將歐盟憲章、歐洲人權(quán)公約及其議定書和歐洲社會憲章作為基本參照,將非歧視、兒童權(quán)利保護、個人數(shù)據(jù)保護、是否尊重言論和信息自由以及/或集會與結(jié)社自由等對基本權(quán)利的影響作為基本評估內(nèi)容。評估的另一個對象是數(shù)據(jù)和信息源。“面向訓練數(shù)據(jù),打造訓練數(shù)據(jù)檢測工具,進行防投毒數(shù)據(jù)、侵權(quán)數(shù)據(jù)、有害數(shù)據(jù)的分析判斷,保證使用合法的數(shù)據(jù)進行訓練,防范與事實不符或有毒的內(nèi)容注入AI系統(tǒng)。面向生成內(nèi)容,打造內(nèi)容生成檢測工具,自動識別并報告通過人工智能技術(shù)生成的虛假、有害的內(nèi)容,確保內(nèi)容質(zhì)量,保護知識產(chǎn)權(quán)?!贝送?,對高風險人工智能系統(tǒng)在投放市場或提供服務(wù)之前,進行合格性評估。
其三,人工智能的安全測試制度。(1)為了保證安全,一是應(yīng)建立密碼技術(shù)管理制度,“密碼是安全的免疫基因,以密碼為基因的可信計算模型改變了傳統(tǒng)計算機封堵查殺式的被動防御,有效降低了安全風險”。二是可信計算,“核心是指通過在硬件設(shè)備上引入可信芯片,從結(jié)構(gòu)上解決計算機體系結(jié)構(gòu)簡化帶來的脆弱性問題。目前,可信計算3.0采用運算和防御并行的雙體系架構(gòu),在計算運算的同時進行安全防護,將可信計算技術(shù)與訪問控制機制結(jié)合,建立計算環(huán)境的免疫體系”。三是可信驗證,“主要是對人工智能系統(tǒng)做驗證、仿真、測試,這是一種很重要的智能手段,通過提供系統(tǒng)性訓練和測試的可信保證,從而對成果進行定量形式化驗證”。(2)設(shè)立沙盒監(jiān)管制度,強化安全測試和安全風險監(jiān)管。沙盒監(jiān)管應(yīng)在國家人工智能發(fā)展主管部門的監(jiān)督下進行,目的是為了測試并及時發(fā)現(xiàn)人工智能存在的重大安全風險,防止人工智能的開發(fā)給社會造成重大損害。人工智能開發(fā)者、提供者負有安全保障義務(wù),應(yīng)定期檢查和監(jiān)測人工智能的漏洞和安全風險,對于重大安全事件或重大安全事件風險,應(yīng)立即采取處置措施并報告主管部門。(3)人工智能提供者對人工智能生成內(nèi)容的標示制度。人工智能生成物提供者應(yīng)管控生成式人工智能生成內(nèi)容的真實性,因為“深度合成展現(xiàn)了其強大的能量和可能性,但其帶來效率和便利的同時,也帶來了伴生風險,一旦被濫用可能會給個人肖像、企業(yè)名譽等人格和財產(chǎn)權(quán)益損害,甚至對社會秩序、國家政治穩(wěn)定和安全造成巨大威脅”。由于人們很難將生成式人工智能的生成內(nèi)容與人類生成內(nèi)容區(qū)別開來,這些生成內(nèi)容“引發(fā)了大規(guī)模的誤導和操縱、欺詐、冒名頂替和欺騙消費者等新風險”,為了實現(xiàn)對生成內(nèi)容的可追蹤性,應(yīng)當采用“水印、元數(shù)據(jù)識別、證明內(nèi)容出處和真實性的加密方法、日志記錄方法、指紋或其他適當?shù)募夹g(shù)”或技術(shù)組合對人工智能生成內(nèi)容進行標記,以便機器能夠?qū)⑸蓛?nèi)容檢測出來(歐盟人工智能法第133條)。人工智能的生產(chǎn)者對人工智能生成信息應(yīng)添加隱式標識,建立信息溯源機制,確保標識的可追溯和安全。
(二)建立針對人工智能領(lǐng)域的監(jiān)督制度
雖然法律應(yīng)盡量不對人工智能的發(fā)展進行干預,但是,高危人工智能應(yīng)受到法律規(guī)制。國家應(yīng)當設(shè)立人工智能發(fā)展委員會,從宏觀層面指導和監(jiān)管國家的人工智能產(chǎn)業(yè)發(fā)展。針對人工智能的監(jiān)管應(yīng)當涵蓋人工智能開發(fā)的事前、事中和事后全鏈條,系統(tǒng)監(jiān)控人工智能事故,矯正人工智能發(fā)展中的問題。(1)采用“憲法性AI”的思路,用人工智能監(jiān)督人工智能,用“一個從屬的AI模型評估主模型的輸出是否遵循了特定的‘憲法性’原則(即原則或規(guī)則清單),評估結(jié)果被用于優(yōu)化主模型”。目的在于推進價值對齊,將對可信人工智能影響最大的法律原則,落實在人工智能發(fā)展技術(shù)中。雖然人工智能監(jiān)督人工智能是高效的,但考慮到人工智能法律監(jiān)督僅處在初期,故設(shè)置針對人工智能法律監(jiān)督的人類標注員依然是必要的、重要的。(2)分級監(jiān)督制度。針對人工智能決策,針對性地建立一級監(jiān)督制度或二級監(jiān)督制度。一級監(jiān)督制度針對部分自動化決策,即把人工智能決策作為專業(yè)人員決策的支持理由,如在醫(yī)療領(lǐng)域人工智能為人類提出的診斷預測和治療建議,刑事司法中人工智能對被告所作的風險評估,這些決策最終由人類來選擇;此等情形下,人工智能決策是人類決策的組成部分。二級監(jiān)督針對的是完全自動化決策,即在人工智能作出決定后,人類對智能化作出的決策進行監(jiān)督和糾正??傊?,“一級監(jiān)督在決策過程中具有構(gòu)成性作用,而二級監(jiān)督對一級監(jiān)督進行檢查和控制”。此外,還應(yīng)對技術(shù)發(fā)展帶來的權(quán)利侵蝕問題保持謹慎,對人工智能技術(shù)發(fā)展伴生或者引發(fā)的風險和問題強化監(jiān)管。如,針對“能夠設(shè)計并制造其他機器人的機器人,就應(yīng)在極度審慎和密切的監(jiān)督下完成設(shè)計”。(3)隱私保護監(jiān)督制度。人工智能應(yīng)能夠維護隱私,不對人的主體性地位構(gòu)成侵擾。故規(guī)制人工智能的法律, 必須傳承和堅守民法規(guī)定的自然人的隱私權(quán)和個人信息保護法規(guī)定的個人信息權(quán)。(4)權(quán)力制約監(jiān)督制度。數(shù)字和人工智能時代的權(quán)力制約,具有兩個維度,其一是對傳統(tǒng)意義上的國家公權(quán)力機關(guān)的權(quán)力制約;其二是對掌握數(shù)字資源和人工智能技術(shù)的平臺等“社會權(quán)力”的制約。如美國舊金山政府在修訂后的《停止秘密監(jiān)視條例》中強調(diào):“人臉識別侵害公民權(quán)利和公民自由的可能性大大超過了其聲稱的好處;這項技術(shù)將加劇種族不公正,并且威脅到我們的生活不受政府持續(xù)監(jiān)視的權(quán)利。”歐盟人工智能法第31條就有禁止公權(quán)力機關(guān)運用人工智能技術(shù)對人進行社會評分的條款。這些規(guī)定,體現(xiàn)了立法者對人工智能技術(shù)使用中的審慎態(tài)度,其本質(zhì)就是對國家等公權(quán)力制約這一傳統(tǒng)法治原則的堅守。算法決策(自動化決策)系統(tǒng)的出現(xiàn),意味著我們將部分生活決策交給了機器決策系統(tǒng),甚至私人公司濫用個人數(shù)據(jù)、公權(quán)力機關(guān)濫用智能技術(shù)推動大數(shù)據(jù)監(jiān)控等。因而,人工智能技術(shù)發(fā)展中,既要注重對國家等主體的權(quán)力制約,也要注重對平臺等社會主體掌握的數(shù)據(jù)權(quán)力、人工智能技術(shù)的運用權(quán)力進行制約。
(三)完善人工智能的責任制度
其一,人工智能的使用者為了安全、放心,當然期望人工智能的開發(fā)或銷售企業(yè)能夠承擔起全部責任。人工智能系統(tǒng)的設(shè)計者、開發(fā)者有義務(wù)保障系統(tǒng)的安全性、可靠性,“如果生產(chǎn)商或者程序員未遵守公認的學術(shù)標準,那么他們應(yīng)該為人工智能系統(tǒng)導致的損害承擔道德責任”。人工智能的設(shè)計者應(yīng)當承擔更多的責任,一是角色責任,設(shè)計者需要對人工智能的安全性、可靠性負責,并提供相應(yīng)的解釋和說明;二是前瞻性責任,即設(shè)計者應(yīng)當主動地考慮人工智能發(fā)展對用戶和社會的影響;三是回溯性責任,即“人工智能系統(tǒng)在生產(chǎn)調(diào)試和投放市場之后,出現(xiàn)了錯誤或產(chǎn)生了負面影響之后應(yīng)該承擔的責任”。其中,回溯性責任應(yīng)當是法律責任重點考量的問題,這種責任主要建立的是一種侵權(quán)責任或產(chǎn)品責任。對人工智能侵權(quán)責任的歸責,“可在一定程度上參考謝勒(Matthew.U.7Scherer)等提出的雙分支侵權(quán)體系,并在其基礎(chǔ)上進行擴展,對于獲得委員會認證或符合推薦性標準的產(chǎn)品,則在判斷產(chǎn)品提供者是否侵權(quán)時適用過錯責任原則;對于未獲得認證或不符合推薦性標準的產(chǎn)品,則在判斷產(chǎn)品提供者是否侵權(quán)時,適用嚴格責任原則”。
其二,在法律責任設(shè)定上,“應(yīng)輔以問責框架,包括免責聲明以及審查和補救機制等,以確保在開發(fā)、部署和使用之前和之后對人工智能系統(tǒng)及其結(jié)果負責和問責”。當然,法律責任的設(shè)定也存在一個政策選擇的問題,如同樣是針對自動駕駛,歐盟的主張是先制定規(guī)則,借規(guī)則引領(lǐng)技術(shù)發(fā)展,而美國的思路是發(fā)生問題后再思考規(guī)則;很明顯,責任歸屬和法律規(guī)則的嚴格化,很容易導致不遵守規(guī)則就無法進入市場的局面,易形成非關(guān)稅壁壘,阻礙新企業(yè)進入特定行業(yè)。在進行民事責任追究時,考慮到人工智能的用戶與算法等人工智能運營者信息與資源不對稱的現(xiàn)狀,立法可設(shè)立集體訴訟制度,保護人工智能用戶的權(quán)利。
其三,刑法應(yīng)增設(shè)相關(guān)責任條款,將對非法訪問AI或從事黑客攻擊的嚴重行為或讓人工智能運行實行犯罪的惡意軟件行為納入刑法調(diào)整范圍,賦予相應(yīng)的刑事責任。
結(jié)語
發(fā)展可信人工智能,是國際社會的基本共識。影響人工智能發(fā)展的因素有很多,信任是其中的關(guān)鍵因素之一。人工智能的發(fā)展,應(yīng)建立在可信基礎(chǔ)上??尚湃斯ぶ悄苤卫磉M程中的法律制度的構(gòu)建,應(yīng)以技術(shù)路徑為基礎(chǔ),融合倫理準則,溝通人工智能發(fā)展的外在準則和內(nèi)在準則,捍衛(wèi)現(xiàn)代法治傳統(tǒng),保障憲法確認的公民的基本權(quán)利;同時,應(yīng)當處理好人工智能發(fā)展中國際性與地方性、市場邏輯和治理邏輯、監(jiān)管的包容與審慎、權(quán)力制約與權(quán)利保護、道義與理性等關(guān)系。