摘 要:人工智能法的基本原則是人工智能法的重要組成部分。既有關于人工智能法基本原則的方案有三原則說、四原則說、八原則說等,這些方案存在設計體系性不足、話語層次不統(tǒng)一等問題。人工智能法基本原則的設計應以發(fā)展負責任的人工智能為主線,這一判斷既源于對立法目的的分析,也是有效加速和價值對齊理念的平衡?;谠撝骶€,人工智能法的基本原則又可以進行多個層次的展開。其中,第一層次原則包括支持發(fā)展創(chuàng)新原則和計算正義原則,前者主要指向對于人工智能發(fā)展的支持以及對于知識產(chǎn)權的保護,而后者又可以分為可信、安全和效益三項原則。
關鍵詞:人工智能 人工智能法 基本原則 治理
《全球人工智能治理倡議》指出:“當前,全球人工智能技術快速發(fā)展,對經(jīng)濟社會發(fā)展和人類文明進步產(chǎn)生深遠影響,給世界帶來巨大機遇。與此同時,人工智能技術也帶來難以預知的各種風險和復雜挑戰(zhàn)。”這揭示了人工智能對于人類社會的影響。由此,如何有效地利用人工智能,使其在推動社會進步的同時,最大限度地降低負面影響愈發(fā)成為各方的追求。這一方面需要提升對于技術的投入,不斷研發(fā)人工智能技術。另一方面則需要加強對于人工智能的治理,通過有效的策略規(guī)制人工智能可能引發(fā)的各種風險。法律作為調整社會關系的行為規(guī)范,理應對人工智能的發(fā)展和治理作出一定回應。對此問題,一些國家和地區(qū)已經(jīng)開始有所行動。例如,歐盟理事會已正式批準了歐盟《人工智能法案》。巴西參議院的一個委員會提交了一份報告,其中包含對人工智能監(jiān)管的研究以及一份人工智能法草案。在我國,制定統(tǒng)一的人工智能法也開始被更多提出。不僅《國務院2023 年度立法工作計劃》將人工智能法納入了立法計劃,同時,中國社會科學院也推出了《人工智能法示范法1.0(專家建議稿)》。
人工智能法的制定是一個系統(tǒng)性工作,從其他法律和《人工智能法示范法1.0(專家建議稿)》的內(nèi)容看,我國人工智能法的結構很可能采取的是總分結397cdce02dca091827d6b203b1a132793857d652eb96a4beb81c048d75b43fdc構。而在總則之中,一個重要的組成部分就是基本原則部分。其貫穿于整個人工智能立法,是對各項人工智能法制度與人工智能法規(guī)范起統(tǒng)帥和指導作用的立法方針,是一切人工智能活動主體均應遵循的行為準則,是解釋人工智能法律法規(guī)的依據(jù),也是補充法律漏洞、發(fā)展學說判例的基礎。盡管十分重要,但人工智能法作為一門全新的領域法學,其基本原則的完善度并不充足。無論是理論還是實踐,對該問題的分析都只是簡單地進行了探索,缺乏專門的系統(tǒng)性分析。有鑒于此,為給人工智能法的制定提供支持,本文將在反思當前人工智能法基本原則理論和實踐的基礎上,結合人工智能法領域的各種探索,構建人工智能法的基本原則體系,以更加科學地闡釋人工智能法的基本原則。
一、人工智能法基本原則的代表性觀點及其反思
當前人工智能法的相關理論和實踐所提出的基本原則主要有四種方案。其中,方案一是三原則說,分別是可信、安全和公平。在該方案中,可信原則主要指向算法基于可理解性、可靠性和可控性而能夠獲得人們的信任,其所指可信包括了可解釋性以及對于相關風險的治理。安全主要指向主體之間的互動安全、主體心理感知層面的信任安全和主體所處環(huán)境的穩(wěn)定。公平則主要是對歧視、不公平競爭和算法濫用的反對。
方案二同樣是三原則說,但內(nèi)容有所不同,分別為以人為本、計算正義和有益。其中以人為本強調人對于機器的優(yōu)位性以及對于人權的保障。計算正義主要指向加強對于人工智能的監(jiān)管和更多將人工智能用于權利保障。有益原則要求人工智能的應用應有利于人類社會的發(fā)展。
方案三是四原則說,分別是公平,可靠、可控、可信,安全和發(fā)展并重以及合規(guī)性。其中,公平包含全社會主體地位平等、分配公平和正當?shù)牟顒e對待三個方面??煽俊⒖煽?、可信強調人工智能系統(tǒng)應安全穩(wěn)定運行、保護人類自由意志和權利以及符合人類價值和道德理念。安全和發(fā)展并重強調人工智能法應在保障人工智能安全的同時促進技術創(chuàng)新。合規(guī)性則強調參與人工智能相關活動的主體要遵守規(guī)則并為自己的行為負責。
方案四是八原則說,分別是治理、以人為本、安全、公開透明可解釋、可問責、公平平等、綠色和促進發(fā)展創(chuàng)新。其中,治理原則主要強調的是包容審慎的監(jiān)管。以人為本原則要求人工智能具有可控性和有益性。安全原則關注的是人工智能及其相關網(wǎng)絡數(shù)據(jù)的安全保障。公開透明可解釋指向的是對于人工智能目的、原理和效果的說明??蓡栘熞髲氖氯斯ぶ悄芑顒拥闹黧w對其行為負責。公平平等要求人工智能及其相關活動不得對個人、組織實行不合理的差別待遇。綠色原則指向的是人工智能相關活動在保護環(huán)境和節(jié)約資源方面的要求。促進發(fā)展創(chuàng)新原則包括對于人工智能開發(fā)等活動的支持以及對知識產(chǎn)權的保護。
總的來說,由于人工智能法是一個新的領域,因此各方在基本原則這個問題上并未達成共識,也不存在爭鳴。從既有方案看,不同方案所提出的人工智能法基本原則主要存在以下幾方面問題。
首先,人工智能法基本原則的體系性不足?,F(xiàn)有的四套方案都采取了羅列的方式,分別列舉了人工智能法的基本原則。但這種方式忽視了人工智能法基本原則之間的關系。事實上,一部法律的基本原則之間也存在層次問題:“單純抽象原則的表述還不足以給法官在未來的司法實踐中提供足夠的價值指引,原則需要具體化。原則具體化的第一步就是對各類原則進行層次劃分?!睂Υ吮容^有代表性的理論是民法基本原則的一元論,其主張民法一般原則只有私法自治原則,其他原則都是圍繞該原則展開。而在既有人工智能法的討論中,各個方案似乎并未對此予以重視。事實上,一些方案已經(jīng)對此有了樸素的判斷,例如方案一將可理解性、可靠性和可控性作為可信原則的下位要求,但是其并未對不同原則之間的體系進行深挖。除上述問題外,各個方案也并未點明人工智能法基本原則的核心主線。無論是三原則說、四原則說還是八原則說,各個原則之間的關系都沒有被明確。事實上,法基本原則之間應滿足融貫性的要求,即不同原則應圍繞一定主線和脈絡展開。而這一脈絡應是人工智能法的核心價值。例如,環(huán)境法的邏輯主線在于將保護和發(fā)展相結合的可持續(xù)發(fā)展;證據(jù)法的邏輯主線以相關性為核心,所有原則都圍繞著相關性展開。同樣地,人工智能法的基本原則之間也不應該是簡單的并列關系,而是應圍繞著一定主線展開,這樣才能提升不同基本原則之間的協(xié)作性以及整體基本原則的系統(tǒng)性。
其次,人工智能法基本原則的表述統(tǒng)一性不足。從當前的幾種方案看,其提出的不少原則都具有一定相似性。這些原則有些表述可能差異不大,采取哪種表述都具有合理性,也不會引發(fā)太大歧義。但有些表述則需要甄選出最合適的說法。例如,以人為本原則、治理原則和計算正義原則都涉及對于人工智能的治理和權利的保護,但是不同的表述能否體現(xiàn)出人工智能法基本原則的特色則存在差異。而既有理論并未對這種表述差異予以分析。
最后,人工智能法基本原則話語層次存在差異。雖然對于人工智能法基本原則的討論不多,但是不同方案之間的話語表述已經(jīng)在一定程度上展現(xiàn)出了層次的差異,這并不利于就人工智能法基本原則達成共識。具體而言,這種差異更多是存在于對一些前提性問題層面的認知上。部分方案更加看重人工智能法在監(jiān)管和治理層面的價值,因此其所設計的原則也多偏重于監(jiān)管或治理。而部分方案則希望人工智能法起到促進人工智能發(fā)展的作用,因此也提出了促進發(fā)展創(chuàng)新等原則。而這種差異甚至造成了不同方案之間基本原則存在一定程度的沖突,例如八原則說的促進發(fā)展創(chuàng)新原則和四原則說的安全和發(fā)展并重原則就展現(xiàn)出了不太相同的觀念。從其他部門法的經(jīng)驗看,不同的話語體系可能會為立法工作添加障礙。例如,當前證據(jù)法的概念使用就存在英美法系話語、大陸法系話語、前蘇聯(lián)話語、中國實踐話語等體系,可采性、證據(jù)能力等概念關系錯綜復雜,這在一定程度上加深了證據(jù)立法的難度??紤]到人工智能法基本原則對于整個人工智能立法的重要意義,其話語體系的不統(tǒng)一將對人工智能立法造成更大傷害。
二、人工智能法基本原則的主線
基于前文分析不難發(fā)現(xiàn),人工智能法基本原則不清晰的原因很大程度上在于前置問題討論得不清晰。這種爭議的本質實際上是發(fā)展與治理之間的矛盾。對于該矛盾的分析,既要訴諸于法律層面,也要訴諸于技術層面?;诖耍瑸榱烁玫鼗貞獱幾h,理清人工智能法的基本原則,本文將首先明晰人工智能法基本原則的主線問題。
(一)法律層面分析:人工智能法的立法目的
立法目的是指立法者希望通過所立的法來獲得的結果。對于一部法律而言,立法目的是統(tǒng)攝整個立法的指導思想和立法宗旨?;凇澳康摹瓌t—規(guī)則”的衍生邏輯,一部法律的立法目的應衍生出基本原則,而法律原則與法律規(guī)則的相對關系決定了法律原則應當具有對于法律規(guī)則而言的周延性,即“原則性規(guī)則”。由此,人工智能法基本原則的確定前提是立法目的的明確,換言之,人工智能法基本原則需要根據(jù)人工智能法的立法目的而展開。由前文分析不難發(fā)現(xiàn),當前人工智能法立法目的的主要爭議可以歸結為“單一論”和“復合論”之爭,即以治理為主還是治理與發(fā)展并重。對于該問題的回答,可以分為內(nèi)外兩個方面。其中前者主要關注人工智能相關的各種規(guī)則和制度,而后者則指向其他規(guī)則和政策??偟膩砜矗伞皬秃险摗备泳哂泻侠硇?。
一方面,從內(nèi)部因素看,我國既有人工智能的相關規(guī)則在總體態(tài)勢上表現(xiàn)出了治理和發(fā)展并重的立場。無論是在人工智能發(fā)展還是治理方面,我國都頒布了一定數(shù)量的規(guī)則。就前者而言,《新一代人工智能發(fā)展規(guī)劃》《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設工作指引(修訂版)》等規(guī)則均是更偏向于促進人工智能的發(fā)展。而《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等規(guī)則更偏向于就人工智能進行治理和監(jiān)管。除此之外,在一些重要的場景之中,不少規(guī)則在立法目的上都表現(xiàn)出了復合論的特征。其中較為典型的代表是《生成式人工智能服務管理暫行辦法》,該規(guī)則第1 條明確指出:“為了促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益?!逼渲屑忍N含著推動生成式人工智能發(fā)展的目標,也體現(xiàn)著對于生成式人工智能進行限制的想法。
另一方面,從外部因素看,無論是《憲法》的規(guī)定還是國家對于人工智能的發(fā)展政策,也都體現(xiàn)了復合論的要求。一來,《憲法》中蘊含著發(fā)展和治理人工智能的雙重要求。其中,推動人工智能技術發(fā)展的依據(jù)主要來源于第14 條:“國家通過提高勞動者的積極性和技術水平,推廣先進的科學技術,完善經(jīng)濟管理體制和企業(yè)經(jīng)營管理制度,實行各種形式的社會主義責任制,改進勞動組織,以不斷提高勞動生產(chǎn)率和經(jīng)濟效益,發(fā)展社會生產(chǎn)力?!倍卫砣斯ぶ悄?,規(guī)制其可能引發(fā)的各種風險的依據(jù)主要來源于第33 條的“國家尊重和保障人權”。二來,當前國家整體人工智能的發(fā)展策略也在趨向于復合論。在人工智能發(fā)展的問題上,我國已經(jīng)表現(xiàn)出“不發(fā)展就是最大的不安全”的態(tài)度。2016 年全國人大批準的《國民經(jīng)濟和社會發(fā)展第十三個五年規(guī)劃綱要》提出,要“重點突破大數(shù)據(jù)和云計算關鍵技術、自主可控操作系統(tǒng)、高端工業(yè)和大型管理軟件、新興領域人工智能技術”。而2021 年的《國民經(jīng)濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標綱要》同樣指出“培育壯大人工智能、大數(shù)據(jù)、區(qū)塊鏈、云計算、網(wǎng)絡安全等新興數(shù)字產(chǎn)業(yè),提升通信設備、核心電子元器件、關鍵軟件等產(chǎn)業(yè)水平”。這無疑體現(xiàn)了國家對于發(fā)展人工智能的決心。從實踐看,國家對于人工智能發(fā)展的投入也在日益增加。據(jù)預測,到2030 年,我國人工智能核心產(chǎn)業(yè)規(guī)?;虺^1 萬億元,帶動相關產(chǎn)業(yè)規(guī)模超過10 萬億元。在發(fā)展的同時,我國也在積極投入到人工智能的治理工作之中。除了頒布各項治理規(guī)則外,也發(fā)表和參與了數(shù)項全球范圍內(nèi)的人工智能治理倡議。其中,2023 年發(fā)布的《全球人工智能治理倡議》指出:“各國應在人工智能治理中加強信息交流和技術合作,共同做好風險防范,形成具有廣泛共識的人工智能治理框架和標準規(guī)范,不斷提升人工智能技術的安全性、可靠性、可控性、公平性。”同時期簽署的《布萊切利宣言》也作出了相似的判斷:“人工智能還帶來了重大風險,包括在日常生活領域。為此,我們歡迎相關的國際努力,在現(xiàn)有論壇和其他相關舉措中審查和解決人工智能系統(tǒng)的潛在影響,并認識到需要解決對人權的保護、透明度和可解釋性、公平性、問責制、監(jiān)管、安全、適當?shù)娜藶楸O(jiān)督、道德、減輕偏見,隱私和數(shù)據(jù)保護等問題?!?/p>
(二)技術層面分析:有效加速與價值對齊的平衡
對于技術層面而言,同樣存在著發(fā)展與治理的爭議。其中,主張應大力發(fā)展人工智能而減少限制的一方被稱為有效加速者,其觀點可以稱為加速主義的延續(xù),主要認為人工智能發(fā)展是大勢所趨,貿(mào)然通過各種方式進行阻攔并不明智。但這種較為極端的觀點也受到了不小的反對,超級對齊、價值對齊、有效利他主義等觀點的支持者主張對人工智能要保持謹慎,應將人工智能的價值與人類的價值進行對齊。所謂人工智能的價值對齊(AI Alignment),就是讓人工智能系統(tǒng)的行為符合人類的目標、偏好或倫理原則。價值對齊是人工智能安全研究的一個核心議題。在理論上,如果一個強大的人工智能系統(tǒng)所追求的目標和人類的真實目的意圖和價值不一致,就有可能給人類帶來災難性后果。因此,“如何防止這種災難性的背離——如何確保這些模型捕捉到我們的規(guī)范和價值觀,理解我們的意思或意圖,最重要的是,以我們想要的方式行事——已成為計算機科學領域最核心、最緊迫的問題之一?!?/p>
從當前發(fā)展態(tài)勢看,有效加速和價值對齊之間的較量仍在繼續(xù)。2023 年末OpenAI 的CEO 更迭風波便揭示了不同立場之間的較量,盡管該風波很快被平息,但是不同觀念之間的較量卻仍在繼續(xù)——雖然持有效加速主義觀點的奧特曼再次回到CEO 的位置上,但OpenAI 也未放棄對于人工智能價值對齊工作的努力,其計劃投入20% 的計算資源,花費4 年的時間全力打造一個超級對齊系統(tǒng),意在解決超級智能的對齊問題。這種理念的爭議也并非僅發(fā)生于OpenAI 內(nèi)部。不少計算機專家認為,定義一套倫理教條并將其作為機器倫理的核心路線,對于靈活而有心智的人工智能而言,恐怕是毫無希望的。但人工智能倫理問題的研究者卻從未放棄對于人工智能價值問題的探索,盡管目前看來,無論是自上而下還是自下而上的價值框架對于人工智能價值對齊的實踐都存在困難,不過這仍然不妨礙不同研究的嘗試。
基于上述分析不難發(fā)現(xiàn),從技術視角看,人工智能的發(fā)展與治理之間仍然存在著爭論。事實上,從技術哲學的發(fā)展歷程看,這種有效加速與價值對齊的爭論并非新鮮事,在新技術產(chǎn)生與發(fā)展的過程中,很多時候都會存在這樣的爭論。既有如培根等技術樂觀主義者主張由科學家、技術專家來管理和運轉國家,亦有埃呂爾等技術悲觀主義者所主張的:“技術必須使人淪為技術動物……面對技術自主,不可能有人類的自主性?!倍鴱淖罱K態(tài)勢上看,發(fā)展與治理正在逐漸走向平衡,最終逐漸實現(xiàn)約納斯所言的“通過自愿的自我限制茁壯成長”。從這個意義看,有效加速與價值對齊之間亦有可能走向一種平衡或是中和。
(三)基本原則的主線:發(fā)展負責任的人工智能
法律和技術的雙重視角在人工智能治理與發(fā)展的問題上實現(xiàn)了不謀而合,即二者之間應該保持平衡。單純地強調發(fā)展可能會對人類社會造成難以評估的風險,甚至反而制約人工智能的發(fā)展。而單純地強調治理則有可能限制人工智能的發(fā)展??紤]到當前人工智能技術已經(jīng)成為推動人類進步、影響國際格局的重要力量,過于限制人工智能的發(fā)展也不利于推動社會發(fā)展以及搶占國際社會話語權。而各個國家和地區(qū)人工智能的規(guī)則設計也證明了這一點,當前比較有代表性的整合性規(guī)則,都在一定程度上關注了治理和發(fā)展兩個層面。例如,歐盟《人工智能法案》第1 條指出要“改善內(nèi)部市場的運作,促進以人為本、值得信賴的人工智能的應用,同時確保對健康、安全和《憲章》規(guī)定的基本權利,包括民主、法治和環(huán)境保護的高度保護,使其免受聯(lián)盟內(nèi)的人工智能系統(tǒng)的有害影響,并且支持創(chuàng)新?!泵绹蛾P于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》在強調人工智能要安全可靠的同時,也要求促進負責任的創(chuàng)新、競爭和合作,釋放技術潛力。因此,人工智能法的基本原則不應僅僅局限于人工智能的治理或是人工智能的發(fā)展,而應該同時強調二者的重要性。在前述四個方案所提出的原則中,與本文所分析的主線較為相近的是四原則說中的安全和發(fā)展并重原則:一方面,人工智能法應當保障人工智能安全。另一方面,人工智能法亦能夠促進人工智能技術的創(chuàng)新發(fā)展。如果把其中的安全理解為一種廣義的安全,既包括宏觀的國家安全、社會安全,也包括社會個體權利的安全,要求人工智能全生命周期都應該保持安全,避免各種風險,那么這與本文所指的治理含義較為近似,從這個意義上說,這一原則已經(jīng)可以作為人工智能法基本原則的展開基點。不過考慮到在人工智能的相關問題上,安全很多時候并不被做最廣義的理解,例如,美國《關于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》將安全和可靠作為并列的價值概念;歐盟《可信人工智能倫理指南》僅僅將安全作為數(shù)項要求之一,與隱私、公平等并列,發(fā)展與安全并重的說法可能會引發(fā)一定歧義。因此,本文認為可以將這一概念表述為發(fā)展負責任的人工智能。負責任的說法相較于安全要更加清晰,其在人工智能領域往往作為更高一層的整合性表述。例如,我國《新一代人工智能治理原則——發(fā)展負責任的人工智能》、美國《2024—2025 財年人工智能戰(zhàn)略:通過負責任的人工智能賦能外交》、加拿大《人工智能負責任發(fā)展蒙特利爾宣言》等。而我國在發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》之時,也確有將負責任作為人工智能治理的重要主線之意,強調無論是人工智能提供的產(chǎn)品還是服務,都應該是負責任的、全面的,應以增進人類共同福祉為目標,應該符合人類的價值觀和倫理道德,避免誤用,禁止濫用、惡用。
三、人工智能法基本原則的體系化展開
在明晰人工智能法基本原則的主線之后,需要進一步圍繞該主線展開其他人工智能法的基本原則。如前文所述,人工智能法的基本原則存在一定層級,需要按照邏輯進行排布??偨Y當前各方案提出的基本原則以及對于相關原則的詮釋和分析,并結合既有的人工智能相關規(guī)范,可以進一步在主線之下分為幾個層級(參見圖1)。
(一)第一層次原則:發(fā)展與治理的核心原則
發(fā)展負責任的人工智能作為人工智能法基本原則的主線,實際上存在兩個面向,一是發(fā)展面向,二是治理面向。這兩個面向也應分別存在一個整合性的原則加以統(tǒng)攝。
對于發(fā)展這一面向而言,當前各個方案所提出的原則中,實際上只有支持發(fā)展創(chuàng)新原則與此相關。而該原則較為直接地表述了對于人工智能發(fā)展和創(chuàng)新的支持,也比較符合發(fā)展面向的要求。從其他國家的規(guī)則看,發(fā)展面向上的基本原則也都以類似名稱展開。例如,美國《關于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》使用的是“促進負責任的創(chuàng)新、競爭和合作”。在內(nèi)容上,支持發(fā)展創(chuàng)新原則要求在支持經(jīng)濟、科技和社會發(fā)展的過程中,積極鼓勵和促進人工智能的創(chuàng)新和發(fā)展。這意味著政府、企業(yè)和社會應該為創(chuàng)新提供良好的環(huán)境和條件,包括法律支撐、政策支持、資金投入、人才培養(yǎng)等方面。
相較于發(fā)展面向,治理面向的第一層次原則表述則相對較多,比較契合的包括治理原則、以人為本原則和計算正義原則。其中,治理原則直接明了地指出了對于人工智能的治理,但該原則的問題在于代表性不足。人工智能法的基本原則不僅要滿足普遍性與規(guī)范性的形式要素,還要承載法規(guī)范體系的內(nèi)在價值,起到重要的“安全閥”功能。由此,治理原則就顯得過于寬泛。對于很多領域法或是回應型法,可能都要涉及到治理問題。例如環(huán)境法涉及環(huán)境治理問題,網(wǎng)絡法涉及網(wǎng)絡治理問題。那么以治理原則作為人工智能法的基本原則便存在標識性不足的問題。與治理原則相比,以人為本原則和計算正義原則的“安全閥”功能和標識性要更強,前者體現(xiàn)了人類在與機器比較中的優(yōu)位性,而后者則強調了人工智能發(fā)展過程中的正義價值關懷。二者比較而言,計算正義更加能體現(xiàn)人工智能法關于人與機器關系問題的關注,而以人為本原則顯得更寬泛,環(huán)境法等其他規(guī)則中也經(jīng)常涉及這一概念。因此,本文主張將計算正義原則作為治理面向上的基本原則。計算正義是正義原則在人的社會合作和創(chuàng)造活動被計算化過程中所應遵循的價值準則。計算正義原則的出現(xiàn)在一定程度上源于技術對社會的影響。以選舉為例,“普選”概念本身更多要求的是形式平等,在一定歷史階段內(nèi),完全的實質平等在任何國家和地區(qū)都是難以實現(xiàn)的。而人工智能的出現(xiàn)則可能會在一定程度上改變這一局面,這主要是由于人工智能個性化的信息收集成本低,因此,更容易收集到不同群體的信息并幫助其進行選舉。但這并不意味著人工智能輔助的選舉一定公平正義,因為人工智能也有可能出現(xiàn)錯誤甚至被操縱。這時便需要引入計算正義原則,保證人工智能參與社會活動應有利于實現(xiàn)社會正義。
(二)其他原則:圍繞第一層次原則的發(fā)散
在確定了發(fā)展和治理兩個層面的基本原則后,其他原則也應圍繞這兩個原則進一步展開。其中,圍繞支持發(fā)展創(chuàng)新原則進一步展開的原則并不多,總的來說可以分為兩個方面。一是對于人工智能發(fā)展的支持。國家等各個主體應對于人工智能發(fā)展的各項條件予以支持,為人工智能的發(fā)展提供有利的氛圍。對于該問題,我國《新一代人工智能發(fā)展規(guī)劃》指出要“根據(jù)基礎研究、技術研發(fā)、產(chǎn)業(yè)發(fā)展和行業(yè)應用的不同特點,制定有針對性的系統(tǒng)發(fā)展策略。充分發(fā)揮社會主義制度集中力量辦大事的優(yōu)勢,推進項目、基地、人才統(tǒng)籌布局,已部署的重大項目與新任務有機銜接,當前急需與長遠發(fā)展梯次接續(xù),創(chuàng)新能力建設、體制機制改革和政策環(huán)境營造協(xié)同發(fā)力”。而美國《關于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》也指出:“聯(lián)邦政府將為人工智能及相關技術促進一個公平、開放和競爭的生態(tài)系統(tǒng)和市場,以便小型開發(fā)商和企業(yè)家能夠繼續(xù)推動創(chuàng)新?!倍侵R產(chǎn)權保護。對于人工智能發(fā)展而言,最急迫、最為有效的便是知識產(chǎn)權保護,因為保護知識產(chǎn)權就意味著保護創(chuàng)新。也正是從這個角度出發(fā),《人工智能法示范法1.0(專家建議稿)》在詮釋支持發(fā)展創(chuàng)新原則時特別指出:“國家鼓勵人工智能研發(fā)和應用,依法保護人工智能領域知識產(chǎn)權,創(chuàng)新探索適應人工智能發(fā)展的知識產(chǎn)權制度。”此外,《國務院辦公廳關于進一步優(yōu)化營商環(huán)境降低市場主體制度性交易成本的意見》《“十四五”國家知識產(chǎn)權保護和運用規(guī)劃》《新一代人工智能發(fā)展規(guī)劃》等文件也都強調了人工智能知識產(chǎn)權保護的重要性。
相較于支持發(fā)展創(chuàng)新原則,計算正義原則的內(nèi)涵要更加豐富??偨Y當前各個方案,其提出的原則大體可以分為三個價值導向。一是與準確價值相關的原則,可靠、可信等相關原則更多是對于人工智能準確性的要求。當然,在人工智能倫理的相關問題上,一般使用可信的概念相對較多,因此本文延續(xù)這一表述。二是與安全價值相關的原則,主要是關于人工智能各種侵害人類風險的防范,與之相關的表述還包括公平、平等、可問責等。三是與效益有關的價值,其旨在強調人工智能發(fā)展的有益性,與之相關的原則包括綠色等。由此,可以把可信、安全和效益作為第二層次原則。
1. 可信
可信的人工智能的構建發(fā)端于人對技術倫理旨趣的審度,可信的存在邏輯在于人工智能創(chuàng)建了基于任務和目標信任得以產(chǎn)生的可能條件,并在與人類的交互之中呈現(xiàn)出某種關聯(lián)性的信任。結合既有理論和實踐看,可信的人工智能的要求除了既有方案中提出的穩(wěn)健、透明度或可解釋外,還應包括可追蹤。
第一,可信的人工智能要求技術具有穩(wěn)健性,能夠正確地處理分析問題,并對可能出現(xiàn)的錯誤作出預警。盡管人工智能的準確性總體令人滿意,但部分技術的穩(wěn)健性仍然不足以令人放心,機器錯誤的案例也并不罕見。例如,2018 年3 月,Uber 的自動駕駛汽車在亞利桑那州坦佩市進行測試時發(fā)生了一起車禍,一位婦女被撞倒并最終喪生。造成這起事故發(fā)生的主要原因并非是該車輛的人工智能系統(tǒng)未發(fā)現(xiàn)行人,而是該車輛將行人識別成了汽車。而這起事故并不僅是簡單的意外,據(jù)統(tǒng)計,在2016 年9 月至2018 年3 月之間,Uber 的自動駕駛汽車共發(fā)生了37 起碰撞事故,有兩起事故是車輛撞到了路邊的物體,其他的事故則都是追尾和車輛刮蹭。顯然,這樣的事故發(fā)生率難以贏得人類的信任。事實上,從人工智能的技術特性上看,其出現(xiàn)錯誤的情況在所難免。以源代碼錯誤為例,人工智能錯誤一般始于源代碼錯誤,而且很多時候并非有意為之。廣義地說,“源代碼”是在編程語言中具有特定含義的單詞和數(shù)學符號的組合。源代碼規(guī)定了計算機程序執(zhí)行哪些任務,程序如何執(zhí)行這些任務,以及程序執(zhí)行任務的順序。對于人工智能算法而言,其數(shù)百萬行代碼常常是由無數(shù)的源代碼拼湊而成,它們會存在簡單的轉錄錯誤、條件編程錯誤、軟件損壞或對遺留代碼的錯誤更新。當然,對于不同人工智能而言,其錯誤率勢必存在差異,而只有那些穩(wěn)健性較高的人工智能才可能受到人類的信任。
第二,除了穩(wěn)健性外,可信的人工智能還應該具有透明度。透明度是指智能化產(chǎn)品所依賴的技術、數(shù)據(jù)應該可以隨時被查詢,其結論應該可以被解釋。一般來說,人工智能的透明度分別指向透明性與可理解性兩個維度。透明性是指人工智能本身是可以被人類理解的,而可理解性意味著人類對基于人工智能作出的決策能夠達到一定的理解程度。例如,智能人臉識別系統(tǒng)對某張圖片進行識別并作出結論后,透明度要求人類可以理解該人臉識別系統(tǒng)是基于何種原因得出的結論。然而,當前不少人工智能的透明度不足已經(jīng)成為其有效應用的重要障礙,甚至這種透明度不足也成為了一些不正當行為的“工具”或是引發(fā)社會不公的源頭。例如,目前人工智能介入刑事司法的過程主要依靠系統(tǒng)的算法作出決策,而算法運行的過程存在透明度不足的弊端,極易導致強勢一方的“數(shù)字權威”,使得算法決策演變?yōu)閿?shù)字時代的精英統(tǒng)治。再如,“淘寶”對于用戶行為是否構成違約的判定是依據(jù)特定的用戶數(shù)據(jù)與海量用戶數(shù)據(jù)的關系,而如果用戶要對“淘寶”判定的違約行為進行質疑,則必須承擔充分舉證和合理解釋的義務,但是由于相關算法的透明度不足,指望用戶對數(shù)據(jù)異常進行舉證并作出解釋在有些情況下并不實際,這可能會給用戶帶來不小的損失。產(chǎn)生上述透明度問題的原因在于人工智能往往能夠開發(fā)出全新的觀察方式,甚至是思維方式,而這些方式具有較高的復雜性。以人工智能審查簽證為例,算法可能將簽證申請人的收入狀況、工作狀況、婚姻家庭狀況、犯罪記錄等內(nèi)容進行審查判斷,最后給出是否通過簽證的決策。而這一決策的科學性來源于人工智能技術基于大量案例的不斷調整,例如一些時候增加收入狀況的判斷比重或減少工作狀況的判斷比重等——直到其可以處理一系列新情況,并預測簽證通過的可能風險。然而,這種不斷學習和改變的過程很可能無法被人類通過既有的知識所解釋。造成這種理解困境的關鍵是,機器相關性的思維方式與人類因果性的思維方式存在一定程度的沖突,這種沖突引發(fā)了人類對機器思維的理解困境。當人類無法理解人工智能所提供的決策時,便無法預知人工智能是否會對人類造成損害。而為了避免上述危害事件的發(fā)生,人工智能的應用應具有透明度。
第三,可信的人工智能還意味著技術應該具有可追蹤性??勺粉櫺允侵笍募夹g的開發(fā)、部署、使用再到結論生成的任何環(huán)節(jié)都應該清晰記錄。人工智能的可追蹤性具有三方面意義,首先,可追蹤性可以幫助人類識別人工智能的錯誤原因,進而做出改進。人工智能具有高度復雜性和精密性,任何一個環(huán)節(jié)出現(xiàn)錯誤都可能引發(fā)最終的結果失真,例如,某個代碼輸入錯誤、某個數(shù)據(jù)標注存在問題等。此時就需要查詢相關記錄,以尋找錯誤的來源。否則,尋找錯誤來源將需要大量成本。其次,可追蹤性也是檢驗人工智能錯誤的重要方式。在一些關鍵領域,人工智能的應用往往需要慎之又慎,例如司法裁判、醫(yī)療等。而為了保障人工智能在應用的過程中不出現(xiàn)錯誤,就需要對技術進行實時檢驗,這時相關的記錄就可以發(fā)揮作用。例如,有關人員在審查時,可以查看某個人工智能系統(tǒng)的歷史錯誤及錯誤原因,并以此為基礎仔細檢查曾經(jīng)出現(xiàn)錯誤的地方是否已經(jīng)被調整。最后,可追蹤性也可以提升人工智能的可解釋性。在解釋人工智能運行的相關問題時,部分問題例如機器建立規(guī)則的方式,可能需要回溯到機器建立規(guī)則前去查看機器建立規(guī)則的全部流程。例如,一些算法工程師可能會設置不同的方法推動機器進行學習,此時,關于不同方案的記錄就對于分析機器建立規(guī)則的方法具有重要意義。以上三項內(nèi)容表明可追蹤性對于人工智能的風險控制與監(jiān)管均具有較為重要的意義,這也讓其成為可信人工智能的重要要求。
2. 安全
安全的人工智能要求相關技術應確??梢允艿饺祟惖目刂?,并以保障公民權利和人類安全為前提。結合既有理論和實踐看,安全的人工智能應可以抵御攻擊、公平公正、合規(guī)和可問責。
首先,安全的人工智能應可以抵御攻擊。人工智能同其他計算機技術一樣,需要轉化為數(shù)據(jù)和代碼并在計算機中運行。因此,其同樣可能遭到相似的攻擊,例如篡改源代碼、數(shù)據(jù)庫,甚至直接攻擊相關的硬件設施。這些攻擊可能導致機器癱瘓,進而阻礙社會的有效運轉。例如,對于計算機硬件的攻擊將導致人工智能無法有效運行。而智慧城市的建設很多時候高度依賴人工智能:“在以人工智能技術為核心的智能化時代,為推動復雜環(huán)境下的人機協(xié)同,城市空間基礎設施也必將融入更多的智能算法和知識庫。”一旦相關的硬件癱瘓,整個城市的運行都可能受到影響。而交通、教育、醫(yī)療等行業(yè)也可能面臨同樣的問題。除了機器癱瘓外,對于相關源代碼和數(shù)據(jù)的篡改可能導致機器作出錯誤決策,這甚至可能直接引發(fā)人工智能體“犯罪”。如前文所述,人工智能的決策質量與其所依賴的源代碼和數(shù)據(jù)密切相關。一旦這些數(shù)據(jù)被惡意篡改,人工智能便可能因此產(chǎn)生錯誤或極端的行為。例如,攻擊者通過篡改模型,讓機器對人類產(chǎn)生敵意,從而對他人實施暴力行為;再如通過篡改自動駕駛汽車的數(shù)據(jù),使其在行駛過程中故意駛向懸崖,造成嚴重后果。換言之,這種篡改可能直接對公民的人身財產(chǎn)權利造成不利影響。因此,人工智能的應用應保證其可以抵御攻擊。
其次,安全的人工智能應盡可能避免侵犯公民權利即具有合規(guī)性。人工智能應用不得當很可能對公民權利產(chǎn)生負面影響。以隱私權為例,當前算法系統(tǒng)的關聯(lián)技術甚至“知道你想做什么”,“數(shù)據(jù)主宰世界”的隱患正在侵蝕用戶信息生態(tài)環(huán)境。在大數(shù)據(jù)技術海量數(shù)據(jù)的要求下,“全數(shù)據(jù)”的追求使得數(shù)據(jù)收集者在獲取數(shù)據(jù)時為了保證準確性,大多會優(yōu)先考慮如何盡可能地獲取更多數(shù)據(jù),而不去考慮該數(shù)據(jù)的獲取是否合法或是否侵犯公民的隱私權。這勢必帶來一個十分嚴峻的問題——大數(shù)據(jù)信息是否“干凈”。對此,在開發(fā)和運用人工智能時,應最大限度地避免使用侵犯權利的算法與數(shù)據(jù):一是在開發(fā)和運用人工智能前,應嚴格評估技術所依賴的算法和數(shù)據(jù)是否存在侵權的情況。二是在開發(fā)和運用技術時,應對敏感內(nèi)容進行適當處理。例如,“數(shù)據(jù)脫敏”技術便對隱私權的保護具有重要意義。該技術可以在保留原始數(shù)據(jù)的業(yè)務價值、技術價值的前提下,對敏感信息進行脫敏、隱蔽處理。常見的脫敏手段包括替換、截取、加密、掩碼等。三是對于技術的開發(fā)和運用應盡可能保持克制,如果有可替代的信息和方法,則不應使用侵犯公民權利的信息和方法。此外,對于數(shù)據(jù)的獲取和使用要遵循比例原則。比例原則是指手段不得與所追求的目的不成比例,或手段必須與所追求的目的保持適當、正當、合理或均衡的匹配關系。有關人員在獲取和使用數(shù)據(jù)時,也應注意保持與目的相匹配。除隱私權之外,人工智能的開發(fā)和應用還有可能侵犯公民其他權利。深度偽造便是一個典型的案例。深度偽造是人工智能的經(jīng)典應用場景,其表現(xiàn)出了極強的“親民性”,公眾不需要任何技術基礎甚至不需要投入任何費用便可以輕而易舉地實現(xiàn)圖像、視頻和音頻的偽造。但該技術的濫用可能會侵犯到公民的名譽權、財產(chǎn)權和個人數(shù)據(jù)權等權利。視頻的“深度偽造”技術可被用于惡搞、色情、詆毀或污名化,如基于“深度偽造”技術的應用程序Deep Nude,可以實現(xiàn)“一鍵式”智能脫衣,被廣泛用于制作明星色情視頻,從而侵犯到明星的名譽權和隱私權。同時,音頻的“深度偽造”可被用于語音詐騙,從而侵犯到公民的財產(chǎn)權。基于上述分析,為了避免人工智能可能引發(fā)的各種法律風險,應不斷強調人工智能在權利保障方面的要求。
復次,安全的人工智能應公平公正?,F(xiàn)階段,人工智能的公平公正主要指向兩個方面。一是反對算法歧視。算法歧視是指依據(jù)算法所作自動決策實施的直接或間接歧視性行為。算法產(chǎn)生歧視的原因包括算法設計者的偏見、訓練數(shù)據(jù)的偏見和后天學習產(chǎn)生的偏見等。相較于傳統(tǒng)歧視,算法歧視依托于大數(shù)據(jù)、云計算等新興技術,具有更強的隱蔽性和廣泛性,其可能引發(fā)性別、民族、年齡、職業(yè)等各種歧視,進而對平等權造成更加嚴重的侵犯。當前,算法歧視的案例并不罕見。以我國為例,某公司在運用算法篩選簡歷時,因閆某某為“河南人”而拒絕其應聘。歧視是一個雜糅了文化、社會和道德觀念、歷史和時間的因素,對于何種行為構成歧視并不存在統(tǒng)一的標準。但如果算法僅僅根據(jù)地域拒絕應聘者,那么便構成歧視。為了避免這一問題,很多人工智能治理策略都制定了相關規(guī)則,例如《巴西人工智能法(草案)》規(guī)定受人工智能系統(tǒng)影響者,享有免受歧視和糾正歧視性偏見的權利:“有權反對歧視并糾正歧視性偏見,特別是在使用個人敏感數(shù)據(jù)導致:(a)對受保護的個人特征造成不成比例的影響,或(b)特定群體的人處于劣勢/ 脆弱,即使使用了明顯中立的標準。”美國《停止算法歧視法案》禁止算法決策的用戶以歧視性方式利用算法資格確定。由此,安全的人工智能也應該采取各種方式避免算法歧視的發(fā)生,這包括優(yōu)化數(shù)據(jù)來源、運用檢測工具等。二是對于弱勢群體的保護。人工智能的應用可能會引發(fā)熟練使用技術者與無法熟練使用技術者之間的差距,從而造成不平等。例如,人工智能輔助立法對于提升立法民主性具有重要意義。在傳統(tǒng)立法模式下,能夠參加相關立法論證會、座談會和研討會的專家學者以及利益相關者數(shù)量畢竟相對有限,多數(shù)普通民眾參與地方立法的通道并不十分順暢。同時,在地方立法草案意見征集過程中,由于不少地方仍然借助傳統(tǒng)意見征集模式,多數(shù)普通民眾難以擁有較為便利的渠道和方式來發(fā)聲。而人工智能輔助立法則可以通過對網(wǎng)絡信息的大數(shù)據(jù)分析,更好地展現(xiàn)民意。但是受人口老齡化和教育程度的影響,部分弱勢群體的網(wǎng)絡數(shù)據(jù)可能會相對缺乏,人工智能在輔助立法時,可能會因為缺失這些數(shù)據(jù)而導致在立法中無法反映該部分民眾的合理訴求,從而引發(fā)隱性歧視問題。因此,在人工智能應用的過程中,也應該注意通過各種方式保護弱勢群體的利益。
最后,安全的人工智能應在人類控制與監(jiān)督之下,這要求人類在與人工智能交互時應保持能動性。人類可以控制人工智能意味著“人們可以有效規(guī)制人工智能或者自主決定人工智能是否繼續(xù)執(zhí)行。有效的監(jiān)管是控制人工智能的一種形式,按照相應的治理框架和制度規(guī)則對算法進行約束和規(guī)訓,能夠確保人工智能與人類之間的主從關系并有效控制算法風險,使得人工智能不至于在與人的合作和對抗中失去控制。”人工智能三定律是對人工智能可控性的較好詮釋——“第一定律:人工智能機器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二定律:人工智能機器人應服從人的一切命令,但不得違反第一定律;第三定律:人工智能機器人應保護自身的安全,但不得違反第一、第二定律?!边@種可控性的實現(xiàn)應包括以下幾方面的要求。第一,即使在借助人工智能輔助決策的場合,也應該保證人類具有最終決策權。目前人工智能的廣泛應用使人類愈發(fā)依賴算法進行分析、預測、決策,甚至沉迷于算法推薦的信息之中,久之便將處于信息繭房中而不自知,最終被困于“算法牢獄”難以自拔?!靶畔⒗O房”效應一旦形成,便可能帶來無形風險。在此效應中,自動化算法精準推送定制化信息,看似滿足用戶需求,實則導致用戶陷入“井蛙”困境。用戶被鎖定在固定信息中,難以關注其他領域,導致思維固化、認知結構單一,模糊對現(xiàn)實社會的感知。此外,“信息繭房”還會引發(fā)回聲室效應和同質化效應。封閉的信息空間導致同類型信息循環(huán)顯現(xiàn),影響用戶對真實信息的獲取和判斷。以司法裁判為例,在司法裁判的過程中,快捷的人工智能一旦植入,很容易使法官產(chǎn)生潛在的依賴性。在判斷的過程中,如果過于依賴算法推薦結果,法官自身的分析能力將可能受到影響,甚至出現(xiàn)“機器裁判”的問題。為了避免這一問題,應不斷強調人在人機關系中的主導地位。第二,人工智能的應用應時刻處于人類的監(jiān)管之下。由于人工智能具有自主建立規(guī)則的能力,甚至在強人工智能以及超人工智能階段,機器可能具有一定自我意識,因此,人類應時刻堅持對于人工智能的監(jiān)管,否則可能會導致機器脫離人的控制。正如有論者指出:“長期來看,若人工智能具有深度學習能力之后,也會進行歸納和推理,有可能產(chǎn)生思維,從而脫離人的控制而獨立實施犯罪行為?!睘楸苊馍鲜鰡栴},人類需要就人工智能建立較為嚴格的監(jiān)督機制。最后,人工智能的各項活動應堅持問責制的原則,即從事人工智能研發(fā)、提供和使用活動的主體,應當分別對其研發(fā)、提供和使用活動負責。若人工智能可以在人類的監(jiān)督和控制之下,那么在責任分配時,就應該要求從事人工智能活動的人對此加以負責,以提升對于人工智能的監(jiān)管和相關權利的保障。
3. 效益
效益是指通過對資源的最優(yōu)配置,除去各種成本耗費后,實現(xiàn)資源使用價值在質上的極優(yōu)化程度和量上的極大化程度及其所得到的綜合效果。對人工智能技術而言,效益是指技術的使用總體上應起到正面作用。正如我國《新一代人工智能倫理規(guī)范》指出的那樣,人工智能的發(fā)展應增進人類福祉,促進社會發(fā)展。技術具有社會性,而技術的應用也應該在與人類社會基本的公序良俗相一致的基礎上推動社會進步。人工智能同樣如此,其應用和發(fā)展也應該遵循人類社會的要求,并推動人類社會的進步。綠色原則就是效益原則的組成部分。當今世界各國都在追求可持續(xù)發(fā)展:“在生態(tài)危機日益加劇的21 世紀,以生態(tài)系統(tǒng)為基礎的環(huán)境資源綜合管理、一體保護是相關法制建設的核心特征和發(fā)展方向,為各國環(huán)境法典所確認和保障?!蹦敲慈斯ぶ悄艿膽镁筒粦摀p害環(huán)境和浪費資源。再如,基因編輯技術在疾病的預防、診斷和治療等方面具有一些價值,但同時也存在較高的技術風險。當前世界各國均對于該項工作進行了嚴格的限制。而人工智能同樣可能在基因編輯的相關工作中加以應用,此時人工智能的使用就不得與人類社會倫理相背離。
除此之外,人工智能的應用也應帶動良好的社會氛圍,提升人類生活質量。例如,自動駕駛汽車可以提升人類出行的便利性與安全性,未來,甚至不會駕駛汽車的人,也有可能隨意出行,該技術便有利于人類生活水平的提升。但也需要注意的是,隨著人工智能應用深度的不斷提升,顯性和隱性的風險也在不斷提升。一個典型的案例是,自動駕駛汽車可能引發(fā)交通事故,造成人員傷亡。對此,應該正確認識和使用人工智能,避免過度夸大此類技術的作用和價值,正確評估人工智能的效益,保證其確實可以增進人類福祉。而若其帶來的風險已經(jīng)大于收益,那么就與效益原則相悖,便不應該再使用此類人工智能。
四、結語
為了更好地推動人工智能發(fā)展,限制其可能引發(fā)的各種風險,我國已經(jīng)將人工智能法的制定提上了議事日程。但系統(tǒng)性的人工智能法的制定并非易事,只有高質量的內(nèi)容才能真正起到統(tǒng)一立法的價值。而深入分析人工智能法的基本原則將有助于為人工智能法的制定提供指引。遺憾的是,人工智能法的相關問題尚屬于新鮮事物,加之于生成式人工智能的橫空出世,學界對于人工智能法基本原則的討論較為有限。有鑒于此,本文檢討了當前已經(jīng)出現(xiàn)的有限的各種人工智能法基本原則的版本,并在提出人工智能基本原則主線的基礎上,對不同的基本原則進行了層次性地劃分,以為更加科學地制定人工智能法提供支持。當然也需要指出的是,本文所探討的基本原則大多是在當前已經(jīng)提出的各項原則的基礎上進行分析,伴隨著人工智能的不斷發(fā)展,人工智能倫理和價值的研究也將日益豐富,人工智能法的基本原則也勢必需要進行動態(tài)化調整。對此,仍需要理論和實踐共同努力,不斷在人工智能法基本原則的問題上進行深入探索。值得欣喜的是,當前各方已經(jīng)開始將關注重點轉移到人工智能法的相關問題之上,該主題下的相關研討也在逐步增多,可以預見的是,對于人工智能法基本原則以及各類相關問題的研究將日益精進。