李 旭
(湖南師范大學 馬克思主義學院,湖南 長沙410000)
人工智能科技的跨越式發(fā)展已迅速推動我國多領域的聯(lián)動進步,其應用之廣、影響之深已成為我國新時代的新引擎。人工智能使人類進入“智能時代”,體驗“智能生活”,不過這種智能時代與生活卻給人以復雜的雙重情感表征。一方面,人工智能可指引我們破解現(xiàn)有諸多領域的困境,帶領我們探索神秘未知領域的奧妙,擔任工具角色更好地服務于人類的生活和工作。另一方面,我們目前生活在“弱人工智能時代”,但是科技的發(fā)展呈指數倍態(tài)勢,或許在不久的未來,我們會面臨新的“智能拐點”,屆時“強人工智能”甚至“超人工智能”將會統(tǒng)馭人類生活。在各種制度尚有缺陷、尚未有效建立前,且存在尚無法約束的法外空間,或許人工智能將會是人類親手建造并開啟的“潘多拉魔盒”。因此,人工智能的科技革新并非一帆風順,會面臨諸多未知艱巨的挑戰(zhàn)。比如,如何讓人工智能獲得感情、思維、自我意識等技術難關;如何進行預先立法來防范人工智能法律風險的法律制度難關等等。這些已成為社會公眾共同關心的重點、熱點問題,事實上,未來人工智能的發(fā)展會超出法律的可控邊界這一趨勢是極可能的。中共十九屆四中全會《中共中央關于堅持和完善中國特色社會主義制度 推進國家治理體系和治理能力現(xiàn)代化若干重大問題的決定》(簡稱《決定》)提出:“建立健全運用互聯(lián)網、大數據、人工智能等技術手段進行行政管理的制度規(guī)則。”可見,黨與國家對人工智能技術予以高度重視,通過風險管控來降低人工智能所帶來的風險已成為共識與當務之急。
法律風險一般是指由于合約在法律范圍內無效而無法履行,或者合約訂立不當等原因引起的風險。根據《巴塞爾新資本協(xié)議》,法律風險是一種特殊類型的操作風險,包括但不限于因監(jiān)管措施和民商事糾紛解決而產生的罰款或懲罰性賠償所帶來的風險敞口。而本文人工智能技術法律風險的定義為:在人工智能技術的發(fā)展進程中,由于智能化程度的高低差異,使得智能技術處于或超出法律的邊界而引發(fā)的一系列法律問題,包括風險發(fā)生的概率(可能性、危險性)及風險導致的后果(期待損失值、損失的不確定性)。
無論是哪種類型的人工智能(弱、強、超),只要涉及大數據,都有可能因使用大數據而造成個人信息侵權。[1]而個人信息與個人隱私有重合交叉,根據Daniel J. Solove 和Paul M. Schwartz 的觀點,個人信息的精髓是一種隱私,在法律上作為隱私受到保護。且《中華人民共和國民法總則》(簡稱《民法總則》)將隱私權與個人信息置于同一章下的人格權編制度中,充分說明了二者的高度相關性。此外,隨著互聯(lián)網智能化的不斷發(fā)展,雖呈現(xiàn)出諸多立法對個人隱私權保護明顯增強的態(tài)勢,但若落到實處,反而難以令人滿意。特別是互聯(lián)網智能化與商業(yè)智能化浪潮的出現(xiàn),網絡社交、娛樂、購物等網絡平臺實名制度的建立及個人征信機制的確立,每個人的實時信息都被網絡大數據、區(qū)塊鏈技術所容納,個人信息由于脫離本體而寄托于技術載體的特征使得個人隱私的保護難度不斷攀升。事實上,人工智能的日益進步和發(fā)展,必然會增強站在人工智能發(fā)展前沿的那些“大數據控制者”的能力,使越來越多的人難以保護自己的隱私和自由。[2]而這一態(tài)勢必然致使傳統(tǒng)隱私權的保護與現(xiàn)實的逐漸脫節(jié)。
個人信息與個人隱私的保護有賴于人工智能的本質支撐,即人工智能的“感知—推理—學習—行動”四個環(huán)節(jié)均以大數據為內驅力。人工智能的服務系統(tǒng)需要對個人信息進行“收集—分析—使用”,才能更好地為人們提供精準化、高效化服務。在這一系列環(huán)節(jié)中,將涉及如何更好地使用個人信息數據來有效保護個人隱私的難題。比如,在智能傳播環(huán)境下,為了使個人數據的商業(yè)價值最大化,控制傳播權的媒體公司利用智能技術擴大傳播力,吞噬人們的隱私。同時,隨著公眾獨立傳播能力的提高,“迷戀個人曝光”和窺探他人隱私的行為持續(xù)增長,人們隱私面臨的風險也越來越大。[3]再如,我們在進行網絡搜索后,后臺便會保留搜索瀏覽痕跡,在多次操作后,該技術平臺便會對多次瀏覽痕跡進行關聯(lián)分析,進而推送各種相關信息。顯然,我們的隱私信息在不自覺狀況下已泄露給一些網絡平臺。正如Lori Andrews 所言:我們的時代不再是零隱私的時代,而是消極隱私的時代,我們的隱私到處都被偷窺,甚至在我們自己的朋友圈或微博上,隱私權已經不復存在,它在你毫無準備地輕觸鍵盤的那一刻消失了。[4]或許我們的數字信息將比我們真實的自己更重要、更有價值。
人工智能技術欲獲得快速發(fā)展與廣泛運用,就必須以產品形式投入實踐環(huán)節(jié),而在產品使用過程中,不可避免地會產生侵權問題,包括人工智能產品本身質量問題而產生的侵權,或是人工智能產品被不當使用而產生的侵權。例如,2016 年5 月,特拉斯發(fā)生了世界上第一起自動駕駛汽車因系統(tǒng)故障而產生的車禍。而以目前的消費趨勢,消費者更愿意購買經過計算機處理的標準化產品。[5]而確定侵權責任涉及人工智能的法律主體地位問題,須予以區(qū)別對待。在弱人工智能狀態(tài)下,人工智能產品僅具有工具屬性,不具備自主意識,不能獲得法律主體地位;而在強人工智能與超人工智能狀態(tài)下,人工智能產品具有獨立自主意識,可自主實施行為,這類智能技術產品可以獲得法律主體地位。前者會產生受人類控制的“輕微”侵權后果,而后者可能會產生超越人類控制邊界的“嚴重”侵權后果。
人工智能技術最大的威脅莫過于其刑事風險。一方面,智能產品研發(fā)方或使用方不當利用,甚至將其作為犯罪工具而造成的刑事后果;另一方面,人工智能產品具備獨立自主意識后可能會形成犯罪動機、產生犯罪意圖、甚至實施犯罪行為而造成的刑事后果。前者可能使某些傳統(tǒng)犯罪形式造成的危害后果加深、程度加重、面積變廣,即產生“量變”;后者可能致使新型犯罪形式的出現(xiàn),其犯罪表現(xiàn)更加智能,危害后果更深,即產生“質變”。這些后果可能對人類的生存構成巨大威脅,即對人類造成傷害或毀滅人類。例如,有學者預言:“在人工智能時代,人類的神圣地位將會消亡、不復存在,人類將變成機器人的奴隸,成為機器人飼養(yǎng)的動物,還有可能被機器人隨意宰殺?!保?]未來的人工智能技術可能會逐漸進化至非常強大,脫離人類為其設定的“法律制度”與“道德紅線”,亦有可能會產生“反叛意識”,進而對抗人類,而人類又如何對此進行限制呢?如果其施行犯罪后,人類該如何對待這類“犯人”?是否應該像人類一樣承擔刑事處罰?這些問題值得進一步深究。
人工智能時代的到來是對人類中心主義的巨大挑戰(zhàn),必將對人類各個行業(yè)形成巨大沖擊,屆時將導致人類與其密不可分的“勞動”相分離,引發(fā)一系列失業(yè)問題。就像比爾·蓋茨和埃隆·馬斯克所表示的那樣,“人工智能將使世界各地的許多人失業(yè)”,“它有著不可思議的潛力,然而,它也帶來了巨大的危險,應該審慎地追求,并投入足夠的思想來改變我們的社會”[7]。不僅如此,它也是對馬克思“勞動價值論”原理的挑戰(zhàn),“勞動”使得人類區(qū)別于其他物種,但是當人工智能替代人類勞動時,“勞動”這一特質將與人類逐漸分離,人類將成為這一偉大創(chuàng)造物的配角或淪為其附庸。《中華人民共和國勞動法》(簡稱《勞動法》)中對“勞動者”有清晰的界定,即“勞動者”主要是“自然人”,本質是“人”而非“物”。比如蘇寧發(fā)布的“臥龍一號”自動送貨機器人,順豐與京東研發(fā)的配送貨物的無人機,其實質仍是“物”。但是,當人工智能技術越來越進步,步入成熟階段時,或許它將站在“勞動”的金字塔頂端,從而形成“勞動壟斷”,或許它將進入《勞動法》,成為勞動法的主角。研究表明,“人工智能技術在金融服務、安全保障、客戶服務等領域的應用,其效率和準確性都遠遠超出了人類”[8]。也有研究者表明,人工智能“在改變勞動就業(yè)市場格局的基礎上,也給勞動法制改革帶來了空前挑戰(zhàn)”[9]。
人工智能技術的進步將會對行政決策與立法產生一定影響。一方面,當科技時代以人為中心時,即在弱人工智能狀態(tài)下時,人們主要的行為內容便是依靠行政公法手段來對人工智能的決策與行為予以規(guī)制,但是由于規(guī)制有一定的標準,且此標準程度較低,在數據安全方面與數據共享方面尤為突出,并存在一定制度分歧,可能引發(fā)行政規(guī)制主體(尤其是國家或地區(qū))內部萌生不協(xié)調因素。另一方面,當科技時代以“人工智能”為中心時,即在強人工智能或超人工智能狀態(tài)下時,人類擔憂的是利用人工智能技術進行決策與立法或人工智能自主決策與立法可能會給法治社會帶來的影響。一是人工智能的行政主體地位并不明確,倘若發(fā)生決策與立法的失誤時,引發(fā)的追責困難問題;二是人工智能自主決策與立法難以由人為加以控制,超出行政行為主體的認知范疇,且決策與立法的合理性、合法性、程序正當性、高效實用性等難以預測。
當下,人工智能技術已被世界各國廣泛應用于軍事領域,涉及核心的軍事指揮系統(tǒng)、強大的軍事裝備環(huán)節(jié)、高效的后勤保障系統(tǒng)、先進的軍事訓練方案等,覆蓋海陸空甚至網絡空間等領域。例如:在空軍領域,有美國的“RQ-4 全球鷹戰(zhàn)略無人機”;在陸軍領域,有法國的“FELIN 單兵作戰(zhàn)系統(tǒng)”;在海軍領域,有世界上最大的無人水上機器人“美國無人駕駛軍艦‘海上獵鷹’”;在網絡空間領域,美國將網絡攻擊也視為戰(zhàn)爭行為,作為第五作戰(zhàn)領域。雖然,人工智能技術在軍事應用方面已取得較大成效,但是,人工智能技術本身所具有的自主性、非理智性、不可靠性、不可預測性等特征可能會引發(fā)一系列國際法風險。尤其是人工智能武器的運用,更加劇了這種風險。一般而言,“人工智能武器是指將人工智能應用于軍事目的的武器系統(tǒng)。它是一種能夠識別、分析甚至選擇目標以施加武力的機器,不需要人力資源的參與或干預,或是具有先進的自動控制能力,基于對世界的主動感知做出自主決策,直接或間接地實現(xiàn)軍事偵察目的或軍事攻擊目的的新型先進武器”[10]。
其一,作為人工智能武器最高形式的自主武器作戰(zhàn)系統(tǒng)的運用,應該嚴格遵守戰(zhàn)爭法的法律規(guī)范,但其使用可能會造成違反國際法的后果,倘若對攻擊目標識別錯誤,造成誤判,將會導致其行為違反國際人道法原則。假使有些國家將“自主開火權”賦予該武器,可能使自主武器成為戰(zhàn)爭的“最佳代理”,屆時人類將遭遇難以承受的嚴重后果。
其二,人工智能系統(tǒng)可能使人類依賴于其強大的軍事指揮模擬系統(tǒng)、輔助決策系統(tǒng),甚至依賴其執(zhí)行指揮作戰(zhàn)任務,倘若將軍事決策權交于人工智能,可能會因其決策失誤而引起嚴重的國際政治風險。
其三,依賴于數據與算法的人工智能具有不確定性與不可預測性,本身具有質量和安全風險。如果其數據庫與算法遭到破壞與攻擊,將會使算法偏離原有路徑,人工智能武器將難辨敵我,會嚴重挑戰(zhàn)武裝沖突法的區(qū)分原則與比例原則。
其四,世界各國可能會為了保證其軍事領域的實力或優(yōu)勢,不在人工智能武器上加以設限,大規(guī)模研發(fā)與使用,導致全球范圍內上演激烈而緊張的軍備競賽,給國際關系增添諸多不確定性因素。
1.研發(fā)者與設計者的主觀因素。人工智能通俗來說就是人類的一種獨創(chuàng)性作品,該作品的創(chuàng)作主體即研發(fā)者與設計者的主觀價值追求會對人工智能的外化行為產生諸多影響。由于人工智能依賴于互聯(lián)網、大數據、算法三大核心要素,而人工智能的外化行為主要就是算法的外化,而算法的價值以研發(fā)者與設計者的主觀價值為依托,倘若研發(fā)者與設計者的人文情懷、感性經驗、利益衡量、道德倫理、公平正義、社會理解等價值觀念被融入算法,由于此類價值觀念具有不確定性、不可預測性,難免產生一系列法律風險。
2.使用者的主觀因素。人工智能被研發(fā)者與設計者所創(chuàng)造出來時,已然成為脫離于其創(chuàng)作主體的獨立產品,該產品使用者的主觀價值決定了人工智能法律風險的發(fā)生與否。由于我們現(xiàn)在生活在弱人工智能時代,人工智能此時并無獨立自我意識與行為,只能由其使用者來進行操控,而其使用者的主觀目的、內在動機、利益追求等價值觀念會決定人工智能的外在行為,倘若此價值觀念呈惡性態(tài)勢,那將會引發(fā)諸多法律風險。
1.算法疏漏。人工智能技術依賴人類編寫的算法進行系統(tǒng)運作,但是,“當算法觸發(fā)一些自動動作(如自動傷害行為)時,人類便會被排除在此循環(huán)之外,只能被動性地接受結果”,且“危險在于沒有人能夠確保算法的設計是準確無誤的,尤其是當它與許多算法交互時”。[11]此外,在人工智能的算法運行中,即“在其不可預測的序列中更容易發(fā)生一些小的疏漏,這可能會導致更大、更具破壞性的事故”[12]。如果放任由人工智能調整復雜的社會關系,極有可能引發(fā)社會治理的混亂,進而引發(fā)一系列不可預知的法律風險。
2.數據不足。數據是人工智能的主要原料,算法是人工智能的技術工具。當代社會,數據更新與發(fā)展的速度非常之快,若人工智能沒有足夠龐大、實時更新的數據為原料,就無法準確、快速、成熟地將其創(chuàng)作主體的思維、邏輯、經驗轉化為算法,也就無法實現(xiàn)精準的行為外化,從而發(fā)生行為失誤、遲滯等不利后果。若某些重要領域應用了沒有足夠數據支撐的人工智能技術,其造成的后果更為嚴重,極易致使法律風險的形成。
3.行為失控。人工智能依賴于大數據的持續(xù)“喂養(yǎng)”,作為一種前所未有的方式,大數據可以通過對海量數據的分析獲得有價值的產品和服務或獲得洞察力。作為計算機科學的一個分支,人工智能技術憑借大數據容量大、種類多、速度快、復雜化、變化快等特征使通過“智能感知—推理—學習—行動”四個環(huán)節(jié)成為一門基于多學科互相滲透的綜合性學科,旨在通過收集、分析、使用海量數據并借助機器對人類大腦予以模擬。倘若人工智能的感知、推理與學習能力不斷深化,以致達到對人腦的高度模擬,使其擁有自我意識、情感、思維與創(chuàng)造力或自我決策、自我執(zhí)行的能力時,人類將無法預知該意識的內容與趨勢,對其行動全然未知并不可理解,就似昆蟲無法探知與理解人類如何進行思考與行為一般,它將是由人類造就并脫離人類掌控的智能頂端技術,并且其行為的“善”與“惡”不可預知。這種寄托于人工智能技術自身道德的做法,極易對人類產生重大威脅,也自然會產生許多不可預測的法律風險。
中共十九屆四中全會《決定》提出:“加強重要領域立法,以良法保障善治。”人工智能技術作為科技發(fā)展的重要領域,必須要有相應的立法措施為其立法,才能構建完善的法律體系。但是,人工智能技術的進步與立法并不同步,即立法具有遲延性與滯后性。因此,除了立法措施外,亦可采取以下應對路徑來應對未來人工智能可能引起的法律風險。
在智能化時代,每個人的個人信息與隱私將是其價值的外現(xiàn),真正對其實現(xiàn)保護便是使其處于“自由”狀態(tài)?!叭欢?,在數據和信息繁榮的背后,個人基礎數據、設備數據、網絡數據和行為數據等隱私和信息將面臨巨大的安全風險”[13]。為此,亟須對個人信息與個人隱私加強保護。
1.明確個人信息與個人隱私的保護范圍。在《中華人民共和國民法典》(簡稱《民法典》)人格權編分別對隱私權與個人信息的基本內容予以細致規(guī)定。一方面,《民法典》第一〇三二條對自然人隱私權明確規(guī)定為“不愿為他人知曉的私密空間、私密活動和私密信息等”,這將其設置為一種排他性權利。另一方面,《民法典》第一〇三四條對個人信息明確規(guī)定為“以電子或者其他方式記錄的能夠單獨或者與其他信息結合識別特定自然人的各種信息”,且對收集個人信息的具體原則與免責事由、信息主體享有的權利等加以規(guī)定。由此可看出此規(guī)定的明顯表征:將二者分別進行不同的規(guī)定,對二者范圍予以明確界定,未將二者等同;將個人信息予以擴張,增加電話號碼、電子郵箱地址與行蹤信息。
2.堅持并遵守目的正當原則、必要原則與告知同意原則。一方面,三項原則的平行并用,從橫向進行保護。正當目的原則包括四要素:服務相關、目的具體特定、信息方有一致明確的理解、合法。這就要求信息業(yè)者在收集數據之前,要確保收集信息目的的正當性,即收集到的信息與所提供的服務相關、具體、清晰、合法。如“裸貸”這種以“裸”換“貸”的信息收集方式,不僅違反了民法的公序良俗原則,還明顯違反了正當目的原則。必要原則具體包含三個要素:信息必需且充足、服務相關、必要且不過量。這就要求信息業(yè)者需要確保收集到的信息是實現(xiàn)其服務功能的最小信息。告知同意原則包含兩個要素:對方充分告知與個人自愿同意。這要求信息業(yè)者在收集個人信息時,必須充分告知服務與產品信息并經個人自愿同意。另一方面,告知同意原則受目的正當原則與必要原則的限制,類似上下位關系,進而從縱向進行保護。這就要求信息業(yè)者在收集個人信息時,首先要考慮目的是否正當、必要。只有在符合此前提下,才能考慮征得信息主體的同意這一條件,若個人信息的收集與使用目的無關,將失去要求信息主體同意的前提。[14]如荷蘭數據保護局對谷歌數據融合事件的調查報告案件,由于谷歌目的不清、主動收集用戶信息,違反了目的正當與必要原則,即便用戶同意,也是違法行為。
3.增強自然人個人信息與隱私的自主控制能力與主動防御能力。在智能化時代,個人信息具有被全方位收集、永久性存儲的特點,個人隱私具有動態(tài)化、場景化、相對性、持久性等特征,可通過立法賦予自然人對其個人信息的刪除、更正權利,并且在權利的范圍上,“它需要進一步擴展,以涵蓋所有類型的個人信息處理行為,信息主體應具有更完整的個人信息權,包括轉讓權、異議權和限制權”[15]。并且,這些權利應遵循目的正當性、行為必要性、涉他無害性的要求,信息業(yè)者在個體合法行權時不得以任何理由加以拒絕,如此,可強化個人對信息與隱私的自控力與防御力。
1.弱人工智能狀態(tài)下的責任承擔。在此關系下,人工智能尚不具備法律主體地位,“也就是說,人類對人工智能的態(tài)度還處于人工智能薄弱的階段。大數據雖然在發(fā)揮作用,但本質上仍處于工具化階段,與傳統(tǒng)產品并無區(qū)別”[16]。故此,縱使其造成侵權后果,其背后的數據擁有者也不應該承擔責任,而一般應由人工智能產品的生產方與銷售方承擔多數責任,銷售方承擔過錯責任,生產方有免責事由時不承擔責任。若使用時存在過失,當使用方與操作方為同一主體時,便由其分擔相應責任,當使用方與操作方非屬同一主體時,應遵循“誰的行為誰承擔”的原則。
2.強人工智能狀態(tài)下的責任承擔。在此關系下,人工智能產品具有一定法律主體地位,一般應由產品生產方承擔多數責任,銷售方有過錯時才承擔責任。而使用方則相當于人工智能產品“監(jiān)護人”的角色,當使用方盡到監(jiān)管職責時,侵權責任由具備獨立意識的人工智能產品與其生產方承擔責任,而當使用方未盡到監(jiān)管職責時,侵權責任由使用方、人工智能產品及其生產方承擔相應責任。
3.超人工智能狀態(tài)下的責任承擔。在此關系下,人工智能產品具備法律主體地位,完全具備獨立自主意識,此時不存在產品使用方與銷售方承擔責任的問題,而由生產方與人工智能產品共同擔責。不論生產方有無免責事由,只要該智能產品存在侵權行為并造成侵權后果,不論后果嚴重與否,生產方均應與該智能產品共同承擔責任。
4.可成立人工智能監(jiān)管部門,出臺人工智能物保險制度。一方面,可在人工智能產品進入市場前進行檢測調查,降低其侵權概率。另一方面,保險制度的設計,可以保證侵權損害程度的最小化。
1.確定研發(fā)者與使用者的刑事責任。首先,倘若其故意利用人工智能技術或產品實施犯罪危害行為,應將人工智能技術或產品視作其“犯罪工具”,所有刑事責任均應當由研發(fā)者或使用者承擔。倘若人工智能產品通過深度學習,具備了一定獨立自主意識,可自主決定犯罪行為或判斷犯罪方式,若該智能產品故意實施了犯罪行為,此時智能產品實現(xiàn)的仍是研發(fā)者的延伸意識,刑事責任應當由研發(fā)者承擔,智能產品本身不承擔刑事責任。其次,倘若以當時的人工智能技術無法預見危害結果的發(fā)生,最終致使危害結果發(fā)生的,研究人員和使用者沒有義務預見此有害后果。如果當時的人工智能技術能夠完全預見有害后果的發(fā)生,研發(fā)者由于“疏忽大意”或“過于自信”而沒有預見,最終導致危害結果發(fā)生的,研發(fā)者應按具體情況承擔相應過失責任。同樣,倘若使用者未按照要求進行使用,導致危害結果發(fā)生的,也將按具體情況承擔相應過失責任。
2.刑事責任主體地位的界定。此問題需分別討論:一方面,“智能機器人具有工具屬性,是人類改造世界的工具,完全在人類設計和編制的程序范圍內進行,它不具備在獨立意志和意識支配下的辨認和控制能力,不能成為刑事責任主體”[17]。另一方面,“隨著科學技術的出現(xiàn),不受人類設計和編程程序控制、具有獨立意志和意識、能夠獨立決策和執(zhí)行行為的智能機器人成為可能。在我看來,這種機器人會成為刑事責任的主體”[17]。界定刑事責任主體符合當下“罪責自負”原則,無論智能產品的犯罪后果是否應由研發(fā)者或使用者承擔,都不影響智能產品刑事責任主體地位的獲得與刑事責任的承擔。
3.增設相關罪名?!霸谖磥砩鐣?,濫用人工智能進行犯罪可能會成為一種常態(tài)”[1]。由此,必須對刑法體系予以完善。有學者認為,“在罪名的選擇上,暫時可以考慮設立‘濫用人工智能罪’和‘人工智能事故罪’”[18]。確實,增設該罪名可針對當下實情起到預防作用,應在刑法分則的危害國家安全犯罪、人身安全犯罪、公共安全犯罪、財產類犯罪這四大重要犯罪類型中增設相關“人工智能犯罪類罪名”,并遵循高度概括原則、情勢緊迫原則和簡單少量原則。也可以在刑法總則編設置總括性原則:更改或刪除數據原則、調整或修正程序原則、終止或銷毀實體原則等。
算法所形成的人工智能雖然不能直接決定勞動立法的價值取向,但它會影響勞動形式和勞動力市場環(huán)境,進而影響勞動法的價值選擇。[19]由于人工智能技術的影響,勞動方與雇傭方的“和諧穩(wěn)定關系”將被打破,故此,應重塑勞動法立法價值,且勞動法立法價值應著重強調勞資雙方的“和諧”與勞動者就業(yè)的“穩(wěn)定”。
1.重塑和諧價值?!昂椭C”意味著勞資雙方成為一個協(xié)調有序的利益、事業(yè)、命運與使命共同體,勞動方通過就業(yè)平臺發(fā)揮專長實現(xiàn)自身價值,雇傭方通過勞動者創(chuàng)造的價值實現(xiàn)自身利益,二者互為所需?!秳趧臃ā窇獙⑷斯ぶ悄芤暈閯谫Y雙方有效合作的溝通媒介,而非替代者,實現(xiàn)人機靈活性合作,才能實現(xiàn)對勞動者的尊重。
2.重塑穩(wěn)定價值。“穩(wěn)定”意味著勞動者就業(yè)的持續(xù)性、長期性,《勞動法》應充分考慮勞動者的就業(yè)需求,但技術的發(fā)展使得人們對“收入穩(wěn)定”的需求大于“崗位穩(wěn)定”的需求,這是社會發(fā)展的必然態(tài)勢?!拔鞣絿乙恢痹谂σ苑€(wěn)定的收入彌補工作穩(wěn)定的犧牲”[20],西方發(fā)達國家這一經驗或許值得我國借鑒。最后,在基本生活保障制度的建立上,我們可以考慮“無條件”社會保障制度的建立[19],建立一張保障勞動者就業(yè)的“安全網”,才能為勞動者抵御逆境提供保證。
1.依托行政主體對未來風險進行預測。風險預測本身具有不確定性,但是可以最大限度地綜合考慮各種可能因素,“隨著研究方法的多樣化,通過對歷史數據的全面調查分析,通過情景模擬、災害反演、數值試驗等,獲得不同的致災因子強度和相應的概率值,是一種更可靠的方法。并以此為依據,繪制出滿足減災實際需要的圖表或方程,對不同發(fā)生概率下特定強度的風險源進行定性定量分析”[21]。如此,便可以通過“風險圖表法”“風險曲線法”“公式法”對人工智能技術可能會帶來的致災因子進行定性與定量分析,提前預知風險發(fā)生概率、風險發(fā)生強度及風險大致走向,進而將預測結果作為制定規(guī)制計劃與方案的充分依據,力求形成科學性、合理性的規(guī)制結果。換句話說就是,“根據技術手段,監(jiān)管主體有權采取各種行政行為,防止可能造成社會危害或損害他人權利的行為發(fā)生,即有權要求被監(jiān)管主體從事具體的實體性或程序性行為,最后,有權要求被監(jiān)管主體對因風險監(jiān)管而損害其合法權益的相對人進行賠償”[22]。
2.將法律編入算法,并保證決策程序公開透明。一方面,人工智能依靠大數據與算法進行系統(tǒng)運作,研發(fā)者可通過編程將法律規(guī)則或原則、法律精神編入算法之中,使其容納法律一般規(guī)范與社會主義核心價值觀等法治要素,并將技術規(guī)范與法律規(guī)范按照合適比例予以調配,且將法律規(guī)范設置成為技術規(guī)范發(fā)揮作用的必經程序,最后通過程序語言使其發(fā)揮功用,從而改進人工智能系統(tǒng)的運行規(guī)則,達到理想預期效果。另一方面,行政程序越來越強調公眾參與度、程序公開化與透明化、程序可追溯性,以來保障公眾知情權、參與權及監(jiān)督權。在人工智能時代,應該更加注重對人工智能的設計原則、運行原理、學習過程及決策與立法程序、重要決策的依據與行為產生的基礎予以公開化與透明化,必要時可做出適當解釋與說明,以此來防止“黑箱算法”與“暗箱操作”。
1.建立人工智能專業(yè)性國際組織。聯(lián)合國曾采取召開非正式會議與成立致命性自主武器系統(tǒng)(法律)政府專家組的方式對人工智能技術進行干預,[23]但是聯(lián)合國的此項干預機制在目前的情勢下顯得無能為力?!?016 年,我國曾呼吁將全自動武器置于國際法的控制之下”[24]。遺憾的是,此呼吁未有成效。為此,可建立一個人工智能專業(yè)性國際組織的多邊機構,作為世界各國人工智能軍事應用問題的管控與協(xié)商交流平臺,使世界各國在人工智能軍事應用領域達成一致。
2.制定相應國際規(guī)則,加強國際學術交流。目前,世界各國都發(fā)布了在人工智能武器領域的支持政策文件,例如:2018 年,美國國防部發(fā)布面向2040年的《無人系統(tǒng)綜合路線圖》,旨在大幅提升機器人和無人作戰(zhàn)平臺在美軍兵力中的比重;2018 年11月,英國國防部發(fā)布《2018—2028 國家武器裝備計劃》,采購包括潛艇、水面戰(zhàn)艦和輔助艦只、航空支援、陸軍技術和武器裝備等。[25]從這些政策文件可以看出,各國仍在日益加強人工智能武器在軍事領域應用的力度,這對戰(zhàn)爭法與武裝沖突法構成極大威脅,必須有相應措施來解決這一重大問題。因此,制定權威的國際規(guī)則,盡快將人工智能武器的軍控問題提上國際議程,是國際社會的當務之急。[25]另外,加強人工智能軍事應用的國際學術交流是十分必要的。通過各種國際組織和多邊、雙邊學術平臺,探討人工智能軍事應用的相關問題,并充分討論,達成共識,為國際社會智能軍事應用條約提供理論指導。[26]
3.加強國際合作。人工智能武器在軍事領域的廣泛運用,其產生的問題并非一國之力可以解決。因此,需要加強國際合作,積極開展多邊協(xié)商交流與談判,使世界各國攜手同行、共商共治,并制定一部規(guī)制各國國際性法律文件的“軟法”,以求逐步推進國際共識的達成。
人工智能的法律風險是一個非常龐大的問題類別,既包括人工智能對現(xiàn)行法律的挑戰(zhàn),也包括人工智能給未來社會帶來的不確定性和不可預測性。因此,不僅需要明確人類與人工智能之間的關系,而且需要根據部門法的不同特性對法律風險予以細化分類。由于人工智能的法律風險可能涉及法律的各個部門,本文不能一一予以列舉,只能針對較為重要的部門法領域進行論述,并提出相應解決方案。無論何時,都應堅持一個底線,那就是一旦人工智能裝備的存在或活動對人類造成傷害時都應該停止使用并加以限制?;蛟S這樣,才能從源頭上抑制人工智能技術可能帶來的法律風險。又或許,人工智能給人類帶來的并非風險,而是最大多數人的最大幸福,正如功利主義法學派代表人物邊沁所說的那樣。