陳 光
(大連理工大學人文與社會科學學部,遼寧大連116024)
得益于計算機技術大幅改進和先進算法運用等因素的綜合作用,人工智能開發(fā)及應用近年來獲得突飛猛進的發(fā)展。考慮到在實踐層面人工智能巨大的發(fā)展?jié)摿ι形闯浞轴尫牛赡軒淼纳羁逃绊懹写^察,在制度層面的一些基礎理論問題仍需深入研討和形成共識,因此現(xiàn)階段體系化的人工智能立法條件并不成熟,而各國政府在人工智能制度回應方面也大都秉持一種政策引導和保障為主的開放態(tài)度。然而,長遠來看,構建一套科學合理的人工智能法律體系既是必要的也是必然的。當前,雖然學者們有關人工智能與法律關系問題的研究越來越深入,但是立法層面該如何有序推進人工智能法律體系的構建呢?筆者認為,試驗性立法(Experimental Legislation)或許是一個合理有效的策略選擇。
對于人工智能立法,各國立法者有著不同的態(tài)度和做法。就我國而言,人工智能立法雖然已被納入第十三屆全國人大常委會立法規(guī)劃,但中央層面尚未出臺人工智能相關的法律文件,這主要與我國在人工智能領域的政策導向有關。在2017年國務院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》中,我國人工智能發(fā)展的戰(zhàn)略目標分三步走,立法和法律體系的建設目標在三個階段中也分別有著不同的表述。其中,第一步即到2020 年目標為“部分領域的人工智能倫理規(guī)范和政策法規(guī)初步建立”;第二步即到2025年目標為“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”;第三步即到2030年目標為“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”。對此,鄭戈認為:“在目前這個階段,我國不會針對人工智能進行體系化的立法,試圖為技術發(fā)展留下足夠廣闊的想象力空間。只有在自動駕駛等技術發(fā)展已經相對成熟、產品亟待進入市場的應用領域,才會嘗試進行地方性、試驗性的立法。”[1]誠然,立法者不會也不宜在當前階段全面介入人工智能領域,但要實現(xiàn)國務院規(guī)劃中關于人工智能法律體系的構建目標,相關立法并非一定要等到自動駕駛等技術相對成熟或產品進入市場應用領域時才啟動。從現(xiàn)在到2025年第二步目標的實現(xiàn)也不過五年的時間,立法者應盡快在中央和地方兩個層面推進人工智能試驗性立法,為到2030 年建成更加完善的人工智能法律體系積累經驗和奠定基礎。
試驗性立法是立法者針對一些特殊領域或事務,先行輸出一套法律原則、規(guī)則或制度,經過一定時間后,根據法律實施過程中所反饋的信息,再行確定更為合理與穩(wěn)定的法律原則、規(guī)則或制度。試驗性立法的基本功能是通過對立法實施情況或信息的收集來提高立法質量從而更好地調整或規(guī)制有關事務或關系?!霸囼炐粤⒎?,體現(xiàn)出國家穩(wěn)健的法治觀,體現(xiàn)出國家的法治建設思維已經發(fā)展到新的成熟位階,希望通過小步快走、穩(wěn)健為先的價值取向,助推國家法治建設不斷前行?!保?]作為一種制度現(xiàn)象,近代以來的試驗性立法最早可追溯到法國路易十六時期,其目的在于更好地提升國家行政管理的效力。我國自改革開放以來,試驗性立法因其兼具改革與法治雙重屬性而被廣泛使用,并在社會主義法律體系建立健全過程中發(fā)揮了重要作用。我國立法法雖未直接使用“試驗性立法”的表述,但實際上規(guī)定了三種類型的試驗性立法。一是“暫時調整或停止適用”,即第13 條:“全國人民代表大會及其常務委員會可以根據改革發(fā)展的需要,決定就行政管理等領域的特定事項授權在一定期限內在部分地方暫時調整或者暫時停止適用法律的部分規(guī)定?!痹摋l所規(guī)定的試驗性立法針對的是我國正在進行的自貿區(qū)建設。二是“下位法先行規(guī)定”,如第9 條關于國務院可根據全國人大及其常委會授權就部分法律保留事項先行制定行政法規(guī)的規(guī)定,以及第73條和第82條分別關于先行制定地方性法規(guī)和地方政府規(guī)章的規(guī)定。三是“經濟特區(qū)立法”,即第74條規(guī)定:“經濟特區(qū)所在地的省、市的人民代表大會及其常務委員會根據全國人民代表大會的授權決定,制定法規(guī),在經濟特區(qū)范圍內實施?!背藝伊⒎ɑ顒邮褂迷囼災J?,黨內法規(guī)和公共政策等規(guī)范領域也經常采用試驗的方式。例如,為了加強和規(guī)范黨務公開工作,中共中央于2017年12 月印發(fā)了《中國共產黨黨務公開條例(試行)》。為了積極促進大數(shù)據發(fā)展,努力打造中國北方數(shù)據中心,哈爾濱市政府于2016 年8 月出臺了《哈爾濱市促進大數(shù)據發(fā)展若干政策(試行)》。總之,試驗性立法或以試驗方式先行實施某類規(guī)范在我國立法乃至制度建設實踐中扮演著重要角色。
試驗性立法之“試驗”可在空間和時間兩個維度上展開。換言之,試驗性立法既可以在特定區(qū)域或空間內進行也可以在特定時期內開展。在人工智能法律體系構建過程中,試驗性立法同樣有著功能優(yōu)勢。試驗性立法所具有的嘗試性、階段性和開放性等屬性同人工智能發(fā)展初期對于法律規(guī)則需求的特點具有很強的契合性。人工智能試驗性立法不屬于立法法規(guī)定的三種試驗性立法中的某一種,而是綜合了三種試驗性立法的內在理念,根據人工智能發(fā)展和規(guī)制需要所作的立法。人工智能試驗性立法是國家立法機關針對人工智能領域及受人工智能影響的相關領域所開展的具有探索性的專門立法。此類試驗性立法可以對現(xiàn)行法律體系中的某些原則或規(guī)制進行修改或者暫停適用,也可以由中央立法機關授權部分地方立法機關開展先行先試立法。概言之,人工智能試驗性立法可以在我國現(xiàn)行立法法中找到相應法律依據。對于試驗性立法在人工智能法律體系構建中的作用,我們可從以下三個方面來認識。
其一,試驗性立法能夠為人工智能的發(fā)展提供規(guī)則依據,表達的是立法者對于人工智能基本問題的規(guī)則態(tài)度,有助于立法者在人工智能領域的規(guī)范調整中掌握主動權。人工智能的出現(xiàn)和應用對現(xiàn)行的法律理論和制度體系提出了根本性的挑戰(zhàn)。然而,國家制定法的穩(wěn)定性以及立法的條件成熟度等要求都使得國家制定法很難及時地回應人工智能這一新事物所帶來的挑戰(zhàn)。如果國家制定法在一些關鍵性或基礎性問題上缺乏明確的態(tài)度,其他社會主體如公司或非政府組織等便會輸出相應的規(guī)則。盡管這有助于一定程度上填補人工智能規(guī)則調整的需要,但也會使過多非公益的訴求被引入相應的非國家規(guī)范之中。對此,英國學者Jacob Turner 指出,“工業(yè)引領規(guī)制論的支持者們或許會認為,既然工作能夠更好地了解科技的風險及潛能,那么最好就由公司來負責設定標準。然而,僅讓公司去自我規(guī)制而缺少政府參與監(jiān)督的做法是危險的”[3],原因在于,“政府存在的目的就是為了維護社會公眾的共同利益。當然,有些政府可能會受到利益集團的游說或腐蝕而背離此目標,但這種情形與政府運行的內在理念是不符的。相比而言,公司依公司法規(guī)定以實現(xiàn)公司所有者利益最大化為其基本追求?!保?]那么,如何讓國家或立法者在立法條件尚未完全成熟的情況下介入調整,在表明國家和立法者對人工智能一些基本問題的判斷或規(guī)則態(tài)度同時,避免出現(xiàn)諸如公司等自利性明顯的組織掌握人工智能規(guī)則調整主動權的現(xiàn)象呢?試驗性立法應該是一種最為適宜的立法模式選擇。試驗性立法的國家法屬性可以確保其在人工智能規(guī)范體系中的最高效力位階地位,而其嘗試性和階段性特點又為國家立法的及時調整提供了制度上的可能。
其二,試驗性立法能夠為人工智能相關法律的修改完善提供參考信息,為人工智能法律體系的構建與完善積累經驗。相較于在法律概念、法律原則和立法技術等方面的立法嘗試,試驗性立法主要在規(guī)則或制度內容的選擇方面能夠為之后的人工智能立法提供信息依據與經驗參考。例如,人工智能侵權的責任承擔問題是一個非?,F(xiàn)實的制度問題?,F(xiàn)行的侵權責任原理和制度能夠在多大程度上適用于人工智能的侵權行為,應當在法律上確定何種歸責原則和舉證責任規(guī)則,或者應對歸責原則和舉證責任規(guī)則做怎樣的調整等,對這些問題的回答都首先要在立法中加以實際規(guī)定從而才有被實踐檢驗的可能。有學者區(qū)分了作為工具的機器人和作為代理人的機器人這兩類不同類型機器人的侵權責任,認為:“目前關于嚴格產品責任、嚴格故障責任等方面的規(guī)定,更多強調對于工業(yè)機器人的使用,一般來說,也就是機器人作為人機互動的工具,關于機器人作為代理人的侵權行為責任的疑難案件正在涌現(xiàn)。合理分配舉證責任無法減輕這類機器人的無過錯責任;然而,法律制度也認可有限責任的形式,如數(shù)字特有產和強制保險的政策,以便在責任和風險分配中取得平衡?!保?]類似的制度反映在人工智能法律規(guī)制方面還有很多,立法者通過各種方式的試驗性立法將其融入現(xiàn)行法律規(guī)制體系之中,并通過規(guī)則或制度實施來不斷改進,確定更為科學、合理或有效的規(guī)則或制度內容,并以此來推動人工智能法律規(guī)則和制度的體系化進程。
其三,試驗性立法可將人工智能法律規(guī)制相關理論轉化為具體的法律原則、規(guī)則或制度,通過立法實踐及法律適用來轉化、檢驗和改進相應的理論體系,從而為人工智能法律體系的構建與完善提供更為科學系統(tǒng)的理論依據。近年來,學者們圍繞人工智能與法律問題展開了廣泛研討,在人工智能的法律人格或主體地位、人工智能侵權的責任承擔、人工智能創(chuàng)造物著作權歸屬與保護等問題上形成了不少理論認知,也提出了很多立法建議。例如,圍繞人工智能創(chuàng)造物的權利及其保護問題,有學者主張從觀念上將純粹“人工智能創(chuàng)作”結果區(qū)分為數(shù)據和表達兩個層面,相應的知識產權制度安排也應基于其雙重屬性進行架構。[5]也有學者認為:“對人工智能創(chuàng)作物直接按照人類作品的保護方式進行保護,必然會導致以激勵人類知識創(chuàng)新為核心的著作權制度在理論上難以自洽……將人工智能創(chuàng)作物納入鄰接權制度保護范圍進行保護,不僅可以從理論上明晰人類作品與人工智能創(chuàng)作物的界限,也可解決人工智能創(chuàng)作物法律保護的現(xiàn)實困境,不失為人工智能創(chuàng)作物法律保護的可行路徑?!保?]可見,學者們對人工智能創(chuàng)造物著作權歸屬與保護問題的理論探討,大都會伴隨對相關立法或制度安排的思考與建議。類似的理論分析與立法建議還反映在人工智能其他法律問題中,這些理論分析及立法建議的科學性、合理性或有效性只有通過立法轉化為實際的法律條文,才有可能獲得實踐驗證的機會。之所以說選擇試驗性立法更為妥當,是因為這種立法模式保持了對未來的開放性,既可以使相關理論獲得實踐轉化與檢驗的機會,也為及時修正和完善相關理論提供一個穩(wěn)定的預期。人工智能法律體系的構建過程需要這種不斷改進和完善的理論體系作為支撐。
當然,試驗性立法在構建人工智能法律體系過程中發(fā)揮著積極作用的同時,也面臨相應的困境或問題。其中,人工智能試驗性立法的確定性與協(xié)調性,是立法者以及理論研究者需要認真研究和解決的兩個基本問題。
荷蘭學者Sofia Ranchord?s 認為,試驗性立法表面上看似會對一些基本的法律原則如法律確定性原則、平等對待原則和比例原則等形成挑戰(zhàn),但實際上這些挑戰(zhàn)具有兩面性。對于法律確定性原則而言,試驗性立法在某些情形下是“友”(Friend),而在有些情況下則是“敵”(Foe)。[7]相較于平等對待原則和比例原則,人工智能試驗性立法對于確定性原則帶來的挑戰(zhàn),需要立法者更為謹慎的對待,也需要在理論上做出更好的闡釋。對于確定性的含義,我們可以從客觀文本和主觀認知兩個層面來理解。其中,客觀文本層面的確定性指的是人工智能試驗性立法所擬定的法律原則、法律規(guī)則甚至法律概念,其含義是明晰可知的,其效力有著充分的保障或實現(xiàn)機制等;而主觀認知層面的確定性則來自于理解或適用人工智能試驗性立法條款的主體,是相關主體對于試驗性立法內容明確性的認知以及在一定時間內相關法律原則或規(guī)則效力實現(xiàn)程度的心理預期。確定性在某種意義上可以被視為客觀之于主觀的一種互動關系。
就客觀文本層面的確定性而言,人工智能試驗性立法同其他一般性立法相比,并無十分特殊之處,確定性都是無法繞開的問題。我國立法法第6 條第2 款規(guī)定:“法律規(guī)范應當明確、具體,具有針對性和可執(zhí)行性?!边@是對立法文本確定性的明確要求,然而由于用來表達法律原則和規(guī)則的語言文字自身屬性使然,確定性只能是相對的。嚴格的確定性或精確性不僅是難以真正實現(xiàn)的,也是不經濟的?!胺山洕鷮W家從中發(fā)現(xiàn)了經濟學的邏輯,既然信息不是免費的,那么精確就一定不是無成本的,并且越是精確的表達,就需要耗費越高的信息成本。法律的精確性同樣應該以法律實施的目標為參照,且不能忽略成本的約束,過度精確的法律不僅是一種浪費,而且會帶來額外的麻煩?!保?]人工智能試驗性立法雖然同樣不追求終極意義上的確定性或精確性,但要平衡好試驗需要與確定性要求之間的關系?;诖_定性的需要,人工智能試驗性立法在一些基本性的原則或規(guī)則確定上,要表述明確、具體,具有針對性和可執(zhí)行性。不明確的規(guī)則表述會降低試驗性立法文本的質量和實施效果。然而,試驗性立法畢竟不同于最終的長期性立法,加之人工智能領域很多問題如何調整是最適宜的并不十分明確,這就要求試驗性立法在原則或規(guī)則表述方面要留有相應的調整或解釋彈性。因此,在人工智能試驗性立法客觀文本的確定性方面,可能要給法律適用尤其是司法留出更大的解釋空間,由司法者在個案裁判中彌補甚或矯正試驗性立法的不足。
就主觀認知層面的確定性而言,人工智能試驗性立法最大的確定性問題產生自相關主體對于試驗性立法效力持續(xù)性的擔憂。主觀認知層面的確定性會因認知主體的不同而有很大的差異。法官或專業(yè)執(zhí)法者對于法律確定性有著更為嚴謹?shù)慕缍藴屎妥非蟆G裾牙^指出:“法律的確定性問題是指法律是否總是對法律糾紛提供唯一正確的答案。這個問題也可以這樣來表述:所有的法律材料能否為法律糾紛提供唯一正確的答案。法律理論中有著形形色色的不確定性主張。不同的學者往往由于知識背景理論目的的不同而關注不同類型的不確定性?!保?]與法官和專業(yè)執(zhí)法者不同,守法者對法律確定性的認知會與他們的需求直接掛鉤,并主要在消極意義上來理解和適用法律。指引和預測是法律兩項基本的規(guī)范作用,一般的守法者(包括個體和組織)會根據法律原則或規(guī)則的要求,來決定自己的行為方式和內容,并據此來判斷或預測行為可能產生的法律效果。實踐中,一般的守法者關心的是他們的行為是否違反法律的強制性規(guī)定。只要不違反,他們就會選擇能夠帶來最大收益的行為方式,或者利用法律去創(chuàng)造相應的效益。這樣一來,主觀認知層面的確定性在一般的守法者那里主要體現(xiàn)為一種對法律原則和規(guī)則穩(wěn)定性的預期。如果試驗性立法能夠為他們在一定期限內帶來較為明確而穩(wěn)定的收益或收益預期,就表明試驗性立法具有很好的明確性。顯然,這也是一個客觀與主觀互動的過程。在確定性的主觀認知層面,一個最大的問題是,試驗性立法總是要設定一個試驗期限的,當這個試驗期限到來之后,有關法律原則和規(guī)則經過評估之后,是延續(xù)試驗期間的法律原則和規(guī)則還是會做出相應的變動,這是很難預先判定的。這將在很大程度上影響相關主體對人工智能試驗性立法確定性的認知。
如果說確定性之疑著眼于試驗性立法的文本屬性與實踐操作,那么協(xié)調性問題則涉及人工智能試驗性立法與現(xiàn)行法律制度和理論體系在概念、原則、規(guī)則以及理論基礎等方面的一致性或融洽性。試驗性立法協(xié)調性在此主要指法律原則和規(guī)則之間的和諧一致或不相沖突,屬于法律體系內的協(xié)調。人工智能的出現(xiàn)和應用不同于計算機或網絡出現(xiàn)和應用對法律制度和理論體系的影響,后者可以在已有的法律制度和理論體系中做出較好應對,而前者挑戰(zhàn)的是現(xiàn)行法律制度中的主體制度和倫理基礎。我們無法將人工智能法律制度與理論體系作為一個“規(guī)則孤島”和“理論孤島”,獨立于現(xiàn)行的法律制度與理論體系,而必須設法將兩者有機地融合在一起。這也是人工智能試驗性立法不能回避協(xié)調性問題的原因所在。
人工智能試驗性立法首先要協(xié)調好與現(xiàn)行法律制度在概念、原則和規(guī)則等方面的關系。作為立法調整的一個新領域,一些新的概念或法律術語不可避免地會被使用,如“人工智能”“機器人”和“深度學習”等。這些新概念如何在法律上加以界定,使其在具有法律意義同時又能被人工智能相關的或以外的法律法規(guī)所采用,是需要立法者在確定文本表述時應當仔細斟酌的。如果人工智能被賦予法律人格或主體地位,還會涉及對現(xiàn)有法律概念內涵和外延的調整問題,如“法律主體”“意思自治”和“過錯”等。如何避免人工智能試驗性立法在法律原則和規(guī)則層面同現(xiàn)行法律制度體系相沖突,也是立法者必須謹慎對待和處理的問題。例如,對于人工智能是否享有簽訂民事合同的權利問題,將會在今后的民商事交往中越來越多的遇到。這就需要在試驗性立法中加以明確規(guī)定。有學者研究了人機互動的可能性、原理及其控制等問題,認為機器人的認知能力可以使其參與一些社會交往活動,當然仍有一些機制或構造需要進一步開發(fā)和研究。[10]該研究表明人工智能或機器人在技術層面能夠做到自主簽訂民商事合同,這也是立法者從法律上加以制度認可的科學依據。不僅如此,區(qū)塊鏈技術的使用,使得很多合同在不需要借助自然人的輸入就可以完成簽訂等操作。對于此類合同的法律效力問題,很多法律文件都予以確認。2005 年聯(lián)合國大會通過并于2013 年生效的《聯(lián)合國國際合同使用電子通信公約》(United Nations Convention on the Use of Electronic Communications in International Contracts)第12條規(guī)定:“由自動信息系統(tǒng)和自然人或者自動信息系統(tǒng)之間所簽訂的合同,不應當僅僅因沒有自然人的審查或介入,而否認其法律效力和執(zhí)行力?!边@就意味著人工智能作為一方參與簽訂的合同具有法律效力,也即人工智能潛在地獲得了法律主體資格。當然,還有一種處理方式,那就是我國電子簽名法第9條所規(guī)定的,將發(fā)件人的信息系統(tǒng)自動發(fā)送的數(shù)據電文視為發(fā)件人發(fā)送。該規(guī)定并未賦予人工智能以獨立的法律人格,其仍然作為一種工具依附于自然人。但是,隨著人工智能在民商事活動領域應用的越來越廣泛,參與或承擔的民商事行為越來越獨立,承認其法律人格或主體地位已經勢在必行。人工智能試驗性立法對此顯然應當具有一定的前瞻性。如此便涉及這種新的規(guī)則或制度與現(xiàn)行相關法律規(guī)則或制度的協(xié)調問題。
張長丹認為:“人工智能對民法更深層次的挑戰(zhàn)在于擁有與現(xiàn)行法下自然人同等甚至更高智力水平的機器人的法律地位認定、機器人相互之間或與自然人之間建立的法律關系的認定、機器人造成他人損害時責任承擔問題已經對現(xiàn)行民事主體和民事責任規(guī)則提出挑戰(zhàn)?!保?1]人工智能對民法的上述挑戰(zhàn),表面上是規(guī)則的不協(xié)調,內在的是理論上的不兼容。之所以人工智能試驗性立法在規(guī)則或制度層面會出現(xiàn)協(xié)調問題,是因為人工智能的應用從理論上挑戰(zhàn)了支撐現(xiàn)行法律規(guī)則或制度的那套理論體系,而主體理論又在這套理論支撐體系中占據根本性地位?!爸悄軝C器人給人類帶來了許多法律問題,究其根本原因在于建構整個法律體系基礎的法律主體理論不再牢靠。從根本上解決智能機器人引發(fā)的法律問題,需要回溯法律主體發(fā)展的歷史脈絡及其發(fā)展邏輯,有限度地變動以人為中心的法律主體地位構造,以回應智能機器人出現(xiàn)所導致的法學難題?!保?2]在論述人工智能或機器人的法律人格或主體地位時,很多學者都會遵循一種歷史分析的思路,將奴隸、動物和公司等作為類比對象,認為給予人工智能或機器人以法律主體資格,是法律主體理論和制度自然發(fā)展的趨勢或結果,能夠化解很多法律難題。然而,人工智能或機器人同奴隸、動物和公司等畢竟具有很大的不同。人工智能或機器人已經擁有或者會逐漸擁有與人類相似甚至高于人類的意志能力或思維能力。是否賦予人工智能或機器人以法律主體地位,已不僅僅是個法律規(guī)則或法學理論問題,還是一個人類要慎重面對和解決的倫理問題。如此一來,立法者實際上陷入了一個兩難境地:如果不承認人工智能或機器人的法律人格,實踐中的很多問題難以根據現(xiàn)行法律規(guī)則或制度來有效解決,而如果承認人工智能或機器人的主體地位,盡管會在制度層面解決很多實踐問題,但會帶來新舊兩套規(guī)則系統(tǒng)的摩擦,甚至可能會引發(fā)人類對人工智能或機器人反控制的恐慌。
可見,協(xié)調性問題已非單純的法律概念、原則或規(guī)則的協(xié)調,而是牽涉很多深層次的理論甚至理念問題。那么,立法者該遵循怎樣的原則并在內容和技術上進行怎樣的設計,才能使人工智能試驗性立法在給人們帶來相對確定的預期同時,又能降低新舊兩套規(guī)則體系之間的排異性,以更好地實現(xiàn)試驗性立法的預定目標呢?
盡管立法者很難從根本上解決試驗性立法的確定性與協(xié)調性問題,但可以通過遵循特定的立法原則并運用相應的立法技術等,盡量降低兩者所包含的或可能帶來的負面影響。其中,立法原則是立法者在進行人工智能試驗性立法時所應遵循的基本理念或價值取向,對于人工智能法律規(guī)則的確定具有指引作用。這些立法原則也可以視為國家或立法者對于人工智能開發(fā)與利用的基本態(tài)度以及對整個人工智能法律體系構建的基本定位。
一是以人類為中心的原則。人工智能的設計、操作及應用等各個環(huán)節(jié)和各項活動以及法律規(guī)則或制度的創(chuàng)設和適用都要非常明確地將服務于人類的需要作為其首要的原則。2017 年荷蘭的研究機構Rathenau Instituut發(fā)布的一份題為《人工智能時代人的權利——機器人、人工智能和虛擬與增強現(xiàn)實所帶來的挑戰(zhàn)》的研究報告中指出:“我們發(fā)現(xiàn),這些技術的使用可以為人的權利的實現(xiàn)提供新的途徑,但同樣也會造成新的侵害。除了對個體的隱私權可能帶來多種影響外,數(shù)字化、虛擬化和自動化還會影響到人類的尊嚴、和平享用財產的權利、安全和不受侵犯的權利、自由表達的權利、不受歧視的權利、獲得公正審判的權利等。有必要指出的是,由于人工智能的使用,還會有很多其他未在本報告中列出的權利將受到影響?!保?3]鑒于人工智能對人的權利或自由可能帶來的各種影響,試驗性立法應當將維護自然人基本人身權與財產權、維護人類基本道德與價值準則作為貫徹以人類為中心原則的兩個子原則,并設計相應的規(guī)則或保障機制。
二是人工智能權利有限原則。人類為中心的權利理念建立在對尊嚴、自由和隱私等保護基礎之上,而人工智能權利的正當性基礎與之不同。對于如何在立法中限定人工智能的權利,張玉潔認為,我國在機器人權利的擬制上應當明確必要的權利邊界。對此可以采用“法律保留”的立法技術,限定機器人的權利。具體而言,立法者可將政治權利、自我復制權和緊急避險權等列為法律保留事項,即不得將上述權利授予機器人。[14]無論何時賦予人工智能以法律主體地位,無論對人工智能的權利范圍施以何種限制,立法者都應該明確的是人工智能畢竟不同于自然人,而后者才是一切價值的來源與服務對象。此外,還應當設定相應的制度或機制,確保有明確的主體對人工智能的行為負責并承擔相應的行為后果。
三是平衡與比例原則。試驗性立法承擔著保障人工智能有序發(fā)展與應用和規(guī)制人工智能可能帶來的風險這樣雙重使命或目標。平衡與比例原則要求立法者應當具有經濟理性,在對法律原則和規(guī)則進行價值判斷和選擇時也應當進行成本收益分析?!白鳛橹贫裙┙o的立法,隨著時代的發(fā)展和立法技術的完善,自我正當性的證成早已不能滿足于單純的價值判斷,更加符合真理性和科學性要求、解釋力更強的事實判斷漸成主流,由此,立法中的成本收益分析制度應運而生”[15]。立法者在進行人工智能試驗性立法時盡管要面臨著非常嚴肅的倫理或價值判斷與選擇,但成本收益分析的經濟思維也很重要。
四是多元規(guī)范分工協(xié)作原則。盡管試驗性立法在規(guī)范和保障人工智能發(fā)展和促進過程中發(fā)揮著重要角色,但仍需要對其他形式的規(guī)范保持開放性,并在分工基礎上實現(xiàn)規(guī)范協(xié)作。這不僅是人工智能試驗性立法階段應當遵循的一個基本原則,也應該是人工智能法律體系構建過程中立法者必須具有的一個基本認識。試驗性立法要給以公共政策和技術標準為代表的軟法等規(guī)范類型的作用留有相應空間,并將公共政策和軟法等規(guī)范所確定的目標和事務以法律原則和規(guī)則的方式落實。此外,隨著人工智能國際合作的加強,各類條約或協(xié)議也是重要的規(guī)范形式,試驗性立法對此類規(guī)范同樣不能忽視。概言之,人工智能試驗性立法應當保持規(guī)范的開放性,注重多元規(guī)范的協(xié)調與合作。
現(xiàn)階段,人工智能開發(fā)和應用對立法的基本需求主要體現(xiàn)在民商事和行政法律領域,即涉及人工智能法律人格或主體地位、責任承擔機制、技術研發(fā)、產業(yè)發(fā)展和行政規(guī)制措施等問題。當然,試驗性立法調整的內容要通過具體的法律原則、規(guī)則或制度等來實現(xiàn),“具體設計機器人法律制度時,應體現(xiàn)機器人倫理的基本內容,秉持承認與限制的基本原則:一是承認機器人的限制性主體地位;二是承認機器人權利,此種承認具有功利主義色彩,本質上是為了更好地實現(xiàn)人類利益”[16]。這與試驗性立法應遵循的基本原則是一致的,而且確定性和協(xié)調性問題也要在對相關事項或內容的調整中轉化為具體的規(guī)則或條款來加以解決。對于人工智能試驗性立法所應調整的主要內容,我們將其歸納為以下五個方面:
一是總則性內容,主要包括人工智能試驗性立法的政策與法律依據、立法宗旨、立法所遵循和貫徹的基本原則、適用對象與效力范圍,以及相關國家機關或社會組織的地位或基本職能等具有立法文本中總則屬性的普通條款。此外,針對人工智能試驗性立法的特殊性,在總則中還應當設置一些特殊條款,用以規(guī)定人工智能的法律地位、人工智能同自然人的基本關系、人工智能的類型、人工智能基本倫理,以及國家法之外的其他類型的規(guī)范在人工智能事務調整中的作用等內容。
二是人工智能相關的權利和義務問題,主要包括人工智能的主體地位及權利賦予和義務設定、自然人與人工智能互動中的權利義務、法人或其他社會組織與人工智能互動中的權利義務,以及與人工智能之間存在密切關系的主體的權利義務等。該部分內容中應當對人工智能的權利主體資格及有關限制加以規(guī)定,使其符合以人類為中心的基本原則和基本倫理,而對于人工以智能所享有的權利和義務則可以通過列舉式與概括式相結合的方式加以規(guī)定。
三是人工智能技術研發(fā)與產業(yè)發(fā)展相關法律問題,主要包括促進和規(guī)制人工智能技術研發(fā)、技術轉化、產品制造和產業(yè)發(fā)展等有關法律問題。該部分既涉及人工智能技術研發(fā)和轉化中的知識產權保護、權益分配等具體問題,也涉及人工智能產業(yè)及關聯(lián)產業(yè)發(fā)展等相對宏觀的問題。對此,應當從全球科技創(chuàng)新與競爭的視角,對如何推動我國人工智能技術創(chuàng)新和產業(yè)變革作出明確的法律回應與保障。這部分內容應注意同國家有關政策規(guī)定的協(xié)調。
四是人工智能行政規(guī)制主體及措施。人工智能是一把“雙刃劍”。在保障人類從中受益的同時,還應該通過立法規(guī)制其潛在的風險。行政規(guī)制依然是防范或抑制人工智能風險的基本方式。當然,行政規(guī)制的主體不限于行政機關,還應該將行業(yè)協(xié)會等有關社會組織納入其中。人工智能試驗性立法應當對行政機關或有關社會組織在規(guī)制人工智能風險中的職責、可采用的措施以及自身的規(guī)范性等問題作出規(guī)定。
五是人工智能相關的法律責任問題。從立法技術角度來看,無論是調整人工智能的義務性或強制性條款還是行政規(guī)制,都需要配以相應的責任條款。就內容完整性而言,法律責任的規(guī)定也是人工智能試驗性立法不可缺少的內容。承擔法律責任的主體既包括被賦予主體資格的人工智能,也包括與人工智能有密切關系的主體,還包括研發(fā)和使用人工智能的有關自然人或社會組織以及承擔行政規(guī)制職責的主體。法律責任的內容包括民事責任、行政責任和刑事責任三種基本類型,但要根據人工智能的特點和現(xiàn)行法律責任原理加以設定。
由于人工智能在實踐中表現(xiàn)為不同的樣態(tài),這會對試驗性立法調整內容的確定產生影響。上述五個方面的內容只是從一般意義上概括了人工智能試驗性立法應該包括的內容,難以涵蓋所有應然的或可能的調整內容,需要立法主體根據現(xiàn)實的立法需求并借助相應的立法技術科學合理地在相關立法中確定相應的內容。
人工智能試驗性立法從理論設想轉化為立法實踐,應當在我國現(xiàn)行立法體制框架內并根據相關的法律規(guī)定來操作。對于人工智能試驗性立法的實現(xiàn)路徑,本文主要從立法主體與權限確定、立法模式選擇和日落條款與立法后評估設置三個方面加以闡述。
首先,就立法主體與權限而言,國務院是現(xiàn)階段進行人工智能試驗性立法的最適合主體,國務院各部門和省級地方立法機關可以在各自的立法權限范圍內,根據全國人大決議或國務院相關立法制定相應的規(guī)范性法律文件。由于人工智能技術的開發(fā)與應用會對現(xiàn)行一些基本法律制度產生根本性影響,所以,就立法權限而言,全國人大及其常委會在理論和制度上是最為適當?shù)牧⒎ㄕ{整主體。然而,考慮到人工智能的開發(fā)與應用尚處于初期,許多問題有待進一步觀察并且相關社會關系也不夠穩(wěn)定,由國務院以行政法規(guī)的方式加以調整可以保持更好的實踐靈活性。立法法第9條規(guī)定:“第八條規(guī)定的事項尚未制定法律的,全國人民代表大會及其常務委員會有權作出決定,授權國務院可以根據實際需要,對其中的部分事項先制定行政法規(guī)?!背肆⒎嘞薜脑?,第9條關于全國人大及其常委會就某些事項授權國務院制定行政法規(guī)的規(guī)定本身具有試驗屬性或導向。這層涵義在立法法第65 條的規(guī)定中有著非常明顯的體現(xiàn)。根據第65 條的規(guī)定,國務院根據憲法和法律制定行政法規(guī),“應當由全國人民代表大會及其常務委員會制定法律的事項,國務院根據全國人民代表大會及其常務委員會的授權決定先制定的行政法規(guī),經過實踐檢驗,制定法律的條件成熟時,國務院應當及時提請全國人民代表大會及其常務委員會制定法律?!憋@然,該條規(guī)定可以作為國務院開展人工智能試驗性立法的直接依據。由國務院根據全國人大及其常委會授權進行人工智能試驗性立法,一方面可以確保該類立法能夠在全國范圍內得以實施,有助于增強相關主體對于試驗性立法確定性的主觀預期;另一方面也有助于保障試驗性立法的質量,尤其在文本內容上盡可能地實現(xiàn)所創(chuàng)設的原則與規(guī)則同現(xiàn)行法律制度與理論相協(xié)調。此外,國務院各部門和省級地方立法主體可以依據國務院所頒行的試驗性行政法規(guī),在其立法權限內制定相應的試驗性實施細則或規(guī)定,或者在必要時根據全國人大常委會的特別授權決議,就人工智能領域特定事項開展試驗性立法。
其次,在立法模式選擇方面,人工智能試驗性立法可根據調整對象或內容的需要選擇綜合型立法模式或單一型立法模式。國務院既可以制定諸如《人工智能民事條例》《人工智能行政規(guī)制條例》等具有通則屬性的綜合型行政法規(guī),也可以制定諸如《人工智能侵權責任條例》《人工智能商業(yè)保險條例》和《人工智能產業(yè)發(fā)展促進條例》等專門規(guī)定某一領域事務的單一型行政法規(guī)。需要指出的是,無論是綜合型還是單一型的立法模式所創(chuàng)制的人工智能行政法規(guī)都應當被視為一種特別法,在行政法規(guī)體系中適用“特別法優(yōu)于一般法”原則,并且只要不違反憲法和法律的基本原則或理念,在人工智能領域也具有優(yōu)先適用的法律效力。這也是解決人工智能法律體系內協(xié)調的重要機制。
最后,作為試驗性立法,日落條款和立法后評估條款是必備條款,應當加以合理設置。在立法實踐中,日落條款并非一定要與試驗性立法結合使用,但試驗性立法原則上一定要包含有日落條款。對于日落條款和試驗性條款的關系,黎娟認為:“與日落條款類似,試驗性立法同樣具有暫時性特征,它也限定了規(guī)范的適用期限或范圍。然而,不同的是,試驗性立法允許立法規(guī)范突破現(xiàn)有法律,其主要目的在于將突破性規(guī)范發(fā)展為正式的或不變的(permanent)規(guī)則。據此,試驗性立法與日落條款的最大區(qū)別在于是否強調正式規(guī)則的最終形成。試驗性立法旨在將暫時性規(guī)范發(fā)展為正式甚至是永久性的法律規(guī)范,而日落條款或法案往往隨著預先設定期限的到來而最終‘隕落’。”[17]既然試驗性立法的目的在于探索新的法律原則和規(guī)則的正式或長期設定,那么就需要借助日落條款來啟動立法后評估活動,從而為試驗性立法如何轉化為長期性立法提供決策依據。換言之,日落條款在人工智能試驗性立法中主要發(fā)揮兩項基本功能:一是設定日落條款所在的試驗性立法的試驗期限;二是規(guī)定試驗性立法試驗期限屆滿前一定時期內立法者應當啟動并完成立法后評估。其中,試驗性立法的試驗期限在各國立法實踐雖然沒有統(tǒng)一的規(guī)定或要求,但一般會根據立法調整的對象確定在3至5年,過長或者過短都會影響到試驗的效果以及相關信息的準確性。我國人工智能試驗性立法可以根據所調整對象或內容的特點以及立法屬于綜合型還是單一型的行政法規(guī),并結合《新一代人工智能發(fā)展規(guī)劃》中關于人工智能法律體系構建的階段性目標要求,將試驗期限確定為3年或5年。在試驗期限屆滿前半年,立法者應當啟動立法后評估,就該部試驗性立法的實施效果、存在問題等進行科學而全面的評估,并就如何改進或處理該部試驗性立法做出新的立法決策。
人工智能的應用和發(fā)展離不開立法規(guī)制?!白龊萌斯ぶ悄芊矫娴牧⒎üぷ饕殉蔀槲覈鴵屨紘H人工智能產業(yè)制高點、掌握國際話語權的重要基礎和前提?!保?8]當然,人工智能法律體系的建立和完善是一個漸進的過程,因為立法條件需要隨著人工智能技術改進和廣泛應用而不斷成熟。試驗性立法在建構科學合理的人工智能法律體系過程中扮演著探索者角色。從這個意義上講,人工智能試驗性立法是一項目標導向的活動:一是為人工智能的開發(fā)與應用提供法律規(guī)則,協(xié)調相關主體的利益關系或交往關系;二是為人工智能法律體系的建構與完善收集信息和積累經驗。因此,立法者可以基于實用主義立場和結果主義導向,在不違背有關立法原則前提下,對試驗性立法的確定性與協(xié)調性問題進行技術性處理。畢竟在人工智能技術發(fā)展如此迅猛并且將對現(xiàn)行法律制度和理論體系形成根本性沖擊的今天,立法者需要更大的魄力去探索或嘗試,在逐步構建人工智能法律體系的同時,及時推進這套新體系融入現(xiàn)行法律制度與理論體系之中。