亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        論我國人工智能的法治化進程:現狀、挑戰(zhàn)與革新

        2019-03-18 07:36:05張玉潔
        廣州大學學報(社會科學版) 2019年2期
        關鍵詞:人工智能法律

        張玉潔

        在高科技的飛速發(fā)展變革中,人工智能作為一種幫助人類更好地生活的工具,同其他科學技術有著明顯的區(qū)別。它既可以獨立決策,也能夠自主行動。但科技便利往往伴隨著科技風險,人們已經意識到人工智能潛在的危險與挑戰(zhàn),例如機器人占據就業(yè)崗位、無人駕駛汽車的碰撞風險、機器人倫理等問題。而在法律領域,人工智能對法律職業(yè)的挑戰(zhàn)并不僅限于取代某些法律崗位,更重要的是沖擊最基本的法治理念與法治秩序。傳統(tǒng)上,法律是人的有限理性產物,因而也是以有限理性的常人為標準設立的行為規(guī)范。但對于迅速超越人類極限的人工智能而言,這些規(guī)范措施有可能失去調節(jié)能力。因此,那些擁有大數據資源和人工智能技術的企業(yè)借助法律監(jiān)管空白的漏洞,并利用隱蔽的算法與技術來規(guī)避某些法律領域的規(guī)制,從而獲得更多的經濟利益。為了破解這種困局,學界與實務界應當在人工智能自主性、互動性等特征的基礎上,反思人工智能技術在現行法律體系的現實境遇與挑戰(zhàn),并創(chuàng)設出符合我國科技發(fā)展與法治國家建設的新型人工智能法律治理模式。

        一、人工智能應用的法律現狀

        (一)數據隱私、算法歧視與法律規(guī)制實踐

        算法與數據構成人工智能的兩大核心無形要件,也被視為人工智能的“神經”與“血液”。目前,機器學習、神經網絡、智能認知系統(tǒng)或演進算法都是人工智能算法的不同表現形式。它不是傳統(tǒng)意義上的編程,而是突破了程序員手動編寫程序的束縛。換句話說,傳統(tǒng)電腦控制的機器只能按照既有程序運行。但人工智能算法則不同。倘若人工智能機器人按照智能算法加工某些網絡素材、數據,那么人工智能機器人不僅可以按照人類的要求完成制作,甚至可以擺脫命令者的智力限制,創(chuàng)造出更為優(yōu)質的成果。[1]而大數據技術發(fā)展,進一步提升了人工智能算法的功能優(yōu)勢。一般認為,大數據信息具有“大量、多樣、快速、價值密度低、復雜度的特征”。[2]人工智能算法與大數據信息的結合,能夠將碎片化、非結構性的大數據信息加以整合。而且,借助大數據存儲和人工智能算法,可以使得個案(少量)樣本分析發(fā)展成整體(超大數據)分析,使得決策結果越來越精準。這樣,政府和網絡平臺就能夠更準確地做出行為預測和公眾決策分析,進而預先干預某些違法行為。

        然而,大數據的價值是同人工智能算法等高新技術緊密連接的,這也意味著,大數據與算法的實際掌握者主要聚集于技術領域專家及其組合體(如研發(fā)機構、高科技公司以及政府組織等),且難以擴展至普通公眾。由此導致我國“大數據+算法”的人工智能治理模式顯現出三種治理難題:(1)由于人類根本無法感知和理解非結構化的大數據信息,所以,人工智能算法究竟如何處理大數據信息以及如何獲得決策,尚處于人工智能算法獨自掌握的“決策暗箱”。要想打開人工智能的“決策暗箱”,讓法律治理與監(jiān)管進入到人工智能技術的算法運行與決策機制中來,勢必需要法律專家和人工智能專家展開更深入的合作。(2)由于技術手段的欠缺,人工智能時代的個人預測與觀察能力將遠遠無法滿足于人類發(fā)展需求。即便普通人可以通過觀察、統(tǒng)計、分析而發(fā)現某些社會規(guī)律和自然規(guī)律,但互聯網的特性使得大數據信息分散于整個網絡虛擬空間中,人類發(fā)現的能力和效率將遠遠不及人工智能算法的計算效率。加之人類自行分析數據所獲得的社會規(guī)律未必具有普適性。因此,人工智能算法與大數據的結合,在某種程度上會進一步放大人類智力、效率同人工智能算法的差距。(3)由于計算機算法對個人網絡搜索記錄的甄別,導致個人頻繁獲得相關的信息。例如:在大數據時代,我們都在以互聯網方式——淘寶,微博、微信披露著個人信息,并遭受網絡服務提供者的侵權。[3]公民利用互聯網搜索信息往往是基于自由意志的、碎片化的行為,但這并不意味著公民同意互聯網平臺收集并利用這些碎片信息,更不意味著網絡服務能夠抵消公民個人權益的損失。無論上述信息是否有助于公民個人做出選擇,它實質上都侵犯了公民的隱私意愿以及網絡信息多樣性權利。因此,法學界對網絡服務提供者濫用計算機算法與大數據控制權的行為,已然形成了某種共識,即網絡服務提供者在過度獲取公民信息。有鑒于此,在人類智力無法勝任且人工智能算法優(yōu)勢明顯的領域,人類“趨利避害”的本能會自然地接納人工智能算法。這樣,人工智能算法不再局限于一種高科技的分析手段,而將發(fā)展為人類行動的前置依據。據此,算法監(jiān)管與算法治理難題將跳脫于實驗室及其科研人員的道德自律,轉而尋求國家法律的強制性控制。因此,我國“需要把握大數據時代公共安全保障的新變化、新特征,在面對挑戰(zhàn)的同時尋求法律應對?!盵4]

        (二)量化分析、審判效率與智能司法的探索

        自20世紀70年代人工智能領域同法律領域相結合以來,世界各國在法律的智能化實踐上已經取得了一定的成果。例如:為了提升法律服務的效率,美國“黑石探索”公司(Blackstone discovery Company)基于大量的法律文件分析,研發(fā)了法律文本分析系統(tǒng)。該系統(tǒng)具有服務成本低、準確度高(比人工分析高出40%)等優(yōu)勢,由此導致許多中小型律師事務所的發(fā)展受到阻礙。此外,還有Legal Zoom、Onomatics、Lex Machine等人工智能法律系統(tǒng)均對傳統(tǒng)的法律服務領域帶來了強大沖擊。而在司法裁判上,美國司法系統(tǒng)目前主要利用COMPAS、PSA和LSI-R等人工智能法律軟件來輔助法官量刑。這些軟件模型的作用場域主要聚焦在以下五個領域:犯罪人的社會關系、犯罪人的生活方式、犯罪人的個性、犯罪人的家庭以及其他社會影響因素的合理排除等。[5]由于人工智能法律軟件能夠綜合分析單一刑事案件與其他社會因素之間的交叉影響,進而能夠更為科學地判斷出犯罪人的社會危害性,進而提升了法官自由裁量的科學性,減輕了法官工作量,提高了司法效率。

        人工智能法律系統(tǒng)的司法適用,同樣也推動了我國司法實踐的發(fā)展。以山東省高級人民法院的法律問答機器人實踐應用為例。該法律問答機器人在研發(fā)過程中,主要利用法律專業(yè)、大數據與人工智能等軟件技術的結合,以現有司法案例數據庫和法律文本為數據源,同時動態(tài)性地引入法官評測這一人為矯正機制,由此構建起一個專業(yè)的法律智能服務平臺。其功能主要體現在以下三個方面:(1)提供案件信息査詢功能,便于訴訟當事人了解司法程序,提升司法的透明度。(2)提供簡單型法律糾紛的解決機制。(3)為訴訟參與人提供訴訟風險評估報告,預先獲得司法訴訟中的權益預期。而在2017年5月,上海市“刑事案件智能輔助辦案系統(tǒng)”正式上線試運行。該系統(tǒng)“以大數據、人工智能等新技術為支撐,制定了證據標準、規(guī)則指引,將其嵌入數據化的辦案程序中,為辦案人員提供統(tǒng)一適用、方便快捷、可數據化的辦案指引”。[6]這套案件智能輔助系統(tǒng)的主要功能包括:(1)實現案卷的類型化分配。案件智能輔助系統(tǒng)通過預先設定好的關鍵詞識別與分類系統(tǒng),對待決案件中的作案人員、作案時間、作案地點、作案手段、被害人情況等因素加以整合分析,進而極大地提高了審判人員的案件識別效率。(2)根據刑事案件的不同階段,制定了不同的證據標準指引。例如:在庭審階段,法官可以通過輸入主要案情,檢索出不同法官處理該類案件時的經驗總結,并據此提供相應的案件審理思路,如證據種類的劃分與認定、證據鏈的相互印證以及必要證據的判斷標準等,從而減少了法官個體判斷的差異性、主觀性,甚至是恣意性。(3)針對不同的證據,該系統(tǒng)提供了證據校驗功能。在證據審查過程中,案件智能輔助系統(tǒng)會對提交的每個證據均進行交叉審查。一旦發(fā)現證據鏈中存在瑕疵證據或者證據鏈斷裂等異常現象時,該系統(tǒng)將提醒法官注意該異?,F象,從而提高了證據審查的科學性、準確性。

        然而,人工智能技術是一把雙刃劍。作為智能技術,它能夠節(jié)約勞動力,提升勞動效率;而作為一種缺乏充足驗證的新興工具,其先進性同時也伴隨著巨大的社會風險。從中美兩國的人工智能法律系統(tǒng)實踐應用來看,它們在決策機制透明度、決策因素歧視以及正當法律程序等問題上飽受社會公眾與法學家們的質疑與批評。以美國司法系統(tǒng)中COMPAS軟件對犯罪人的再犯風險評估為例,該軟件可以通過分析犯罪人的性格、社會關系網絡以及生活環(huán)境等要素,確定犯罪人重新犯罪的風險系數,進而幫助法官做出更為科學的量刑。然而,非營利組織ProPublica發(fā)現,在COMPAS再犯風險系數中,黑人再犯風險明顯高于白人,并且實踐證明,該軟件認為可能再犯罪人數與實際再犯罪人的正確率僅為20%。[7]由此觀之,人工智能技術的司法適用,最主要的問題在于它如何解決人工智能技術標準化設計背后所衍生的個案判斷問題——這是人工智能與法律結合必須解決的首要問題。就目前來看,盡管各國將人工智能與法律的結合體定位為“司法裁判的輔助工具”,但該工具的確在實踐中產生了實質性損害后果。因此,人工智能社會化應用的司法適用難題不在于質詢司法效率與司法信息化改革,而在于提醒司法機關關注那些“看不到”的非正義。

        (三)科技創(chuàng)新、責任分配與法律變革

        隨著人工智能技術的發(fā)展,人工智能產品的自主決策活動以及人機溝通能力,在法律領域構建出一種新型的“行為—結果(責任)”關系,并且自主決策活動與損害結果之間的因果關系也變得越來越難以判定。為了更為清晰地展現人工智能時代“因果關系”責任認定模式的弊端,在此引入“無人駕駛汽車”這一社會化基礎較好的人工智能應用,以便于回應上述責任認定模式的現實難題。

        無人駕駛汽車的公共道路實驗已經成為各國立法關注的重要問題。2017年5月,德國聯邦議會通過了一部法案,對《德國道路交通法》進行了修改。該法案允許高度自動化和完全自動化的汽車作為交通工具,在公共道路上行駛。同時,為了保證德國國家法符合1968年《維也納道路交通公約》關于車輛駕駛員的規(guī)定,在德國還規(guī)定無人駕駛汽車主駕駛位后必須乘坐一名乘客,以便及時接手汽車行駛權。新法案下,車輛駕駛員一方面會陷入智能操作與人工操作切換的混亂局面,另一方面也困惑于如何避免法律責任。[8]而美國的《自動駕駛法》(Self Drive Act)采取了一種有別于德國無人駕駛汽車規(guī)制的路徑:行政法治模式。在行政法治模式下,美國通過“聯邦—州”的縱向行政職權配置方式,要求各州履行無人駕駛汽車的監(jiān)管職權及其安全責任,并要求交通行政部門制定無人駕駛汽車的安全標準和公眾評價標準等事項。[1]借由州立法責任與無人駕駛汽車生產廠商的安全保障義務,美國得以通過行政立法的手段實現實驗時期無人駕駛汽車的責任劃分。但是這種責任劃分方式也有其局限性。一旦無人駕駛汽車發(fā)展到社會運營階段,基于無人駕駛汽車而發(fā)生的交通事故歸責就成為人工智能技術社會化應用的一大難題:國家立法或者將此歸結為企業(yè)產品瑕疵責任;或者將其歸結為使用者過失責任;亦或視為人工智能產品決策錯誤的自主責任。倘若將無人駕駛汽車的錯誤決策視為“企業(yè)產品瑕疵責任”或“使用者過失責任”,無疑將加重生產者和使用者的注意義務。這是因為,企業(yè)生產無人駕駛汽車的數量越多,承擔交通責任的風險和概率越高;而對于使用者而言,自身的主觀過失構成交通安全責任的合理起點,但無人駕駛汽車的自主決策或者錯誤決策卻無法歸結為使用者“主管過失”,否則無人駕駛汽車駕駛員的注意義務將遠高于普通汽車。反觀無人駕駛汽車的自主責任認定,現代法律體系又缺乏有效的處罰手段——拆除硬件或重置軟件程序等比擬人類刑罰的措施,根本無法從人工智能產品上實現責任價值。

        綜上所述,傳統(tǒng)刑法關于“因果關系”的歸責模式幾乎無法套用于人工智能技術及其產品,甚至可能誘發(fā)人類借助人工智能產品實施違法犯罪行為的惡果。與此同時,在互聯網領域,現在人工智能和大數據技術正在引領“行為—結果”因果關系模式逐步走向“多行為—結果”的相關性分析模式。例如:當不確定數量的多數人搜索“香蕉”圖片時,選擇圖片A、B、C、D……的概率遞減,那么,基于選擇概率的高低可以獲得一個搜索行為與搜索結果的相關性分析,即圖片A最接近普通公眾的“香蕉”認知。而普通的單一“行為—結果(責任)”關系認定,有可能產生錯誤的“香蕉”辨識認知。對比上述兩種模式可以發(fā)現,人工智能可以進行全數據分析,進而提升結果的可信度;而單一因果關系的出現僅在人類只能對有限數據進行分析的情況下才有必要存在。如果人工智能已經可以進行全數據分析的話,那么基于因果關系歸責的刑事責任認定機制將讓步于“相關性分析”模式,現代刑事司法理念在人工智能時代也將面臨一次巨變。

        二、人工智能對現行法律體系的挑戰(zhàn)

        (一)主體性挑戰(zhàn)

        機器人屬于法律上的物還是人,眾說紛紜。一種觀點認為機器人屬于物,原因是它只能遵循算法和規(guī)則,而不能理解,不具有人的思維、感情和社交能力。就目前而言,自主決策能力以及決策結果的缺陷仍是機器人暴露出來的最大問題。在日本福島核輻射事件中,機器人進入泄露區(qū)域是最佳選擇,但是機器人需要預先設定各種線路。由于線路長度所限,無法進入指定區(qū)域,人工操作機器人的精準度偏低,并且機器人操作耗費的能量遠遠大于人類。因此,目前的弱人工智能機器人只是人為操控的工具,不能獨立思考并做出獨立決策行為。另一種觀點認為,機器人應該具有法律上的擬制人格。那些反對機器人有法律人格的觀點,只是建立在目前機器人不能思考、不能感知的有限范圍之內。而目前人工智能的發(fā)展方向是從數據(Data)向知識(Knowledge)轉變。因此,立法者不能僅從人工智能的現有情況做出判斷。綜觀人工智能的發(fā)展史,人工智能機器人將經歷三個階段的發(fā)展:輔助人類階段、與人類共生共存階段、可能控制人類階段。目前的人工智能水平尚處于第一階段的初期階段。也就是說,人工智能機器人目前僅是人類的工具,法律只需要做細微調整就能適應人工智能帶來的法律問題。但是,鑒于當前人工智能技術的發(fā)展速度,人工智能的社會化應用從第一階段邁向第二階段,也僅是個時間問題。因此,按照人工智能的發(fā)展趨勢,在機器人擁有了一定的感知能力和自主決策能力的情況下,立法者通過法律擬制的方式賦予機器人主體資格,并非是一種脫離社會實踐的空想。但在這一主體擬制說的背后,法學界仍需回應機器人主體資格的憲法基礎與人權基礎。

        人之所以為人,來自于人本身的尊嚴以及由此產生的基本人權,如生命權、發(fā)展權、言論自由等。如果將法律人格賦予機器人,那么機器人的權利范圍有哪些?權利以何為邊界呢?一部分人一直在擔憂,指令和代碼會摧毀人類之間的語言交往,機器人的社會化應用則會淘汰大批的基礎勞動工人,而機器人主體資格的憲法賦權,將引發(fā)人類社會可持續(xù)發(fā)展的恐慌。面對上述風險與危機,悲觀主義者過度擴大了人工智能所帶來的社會風險。實際上,人工智能發(fā)展的基本脈絡就是用智能化的機器人來緩解人口老齡化,提升工作效率等問題。而在法律領域,人工智能技術與法律的結合,不僅改變了社會公眾了解法律的方式,也提升了法律糾紛的解決效率。為此,不管人工智能帶來的是機遇還是災難,人類首先應當將科技風險限制在可控的范圍之內:一方面,機器人與人的交流,應當建立在人類自然語言基礎之上,而非計算機語言(即“0”和“1”的二進制算法)。另一方面,人類創(chuàng)造機器人,總會基于某種需求,側重機器人的某些功能。因此,憲法賦予機器人的法律人格是基于機器人的功能約束而創(chuàng)設的有限權利、有限自由。再一方面,三次科技革命淘汰了諸多工種,但結果卻是推動了人類分工協(xié)作體系的不斷發(fā)展,創(chuàng)造出一大批新的崗位,促進了人類社會的整體進步。由此觀之,在未來人工智能技術的飛速發(fā)展下,機器人可以在有限的范圍內擁有法律人格,獲得法律主體地位。但人們也應當清晰地認識到,現行法律體系并未對此做好準備。這也意味著,機器人的主體性挑戰(zhàn)已然開始,法律變革將近。

        (二)知識產權的體系性危機

        在人工智能技術的飛速發(fā)展中,知識產權的法律挑戰(zhàn)是討論最為熱烈的話題。目前該話題的核心焦點就在于,基于人工智能技術所創(chuàng)造、研發(fā)出來的新事物,能否歸結為新的作品,誰擁有知識產權?例如:騰訊財經利用自動化新聞寫作機器人“Dreamwriter”,創(chuàng)作出新聞稿《8月CPI漲2%創(chuàng)12個月新高》。[9]那么,該新聞稿的著作權如何歸屬呢?[10]根據我國《著作權法》第2條的規(guī)定,公民、法人和其他組織的作品依法受到著作權保護,但并未涉及機器人作品的著作權問題。倘若將機器人作品歸結為“職務作品”,則不符合《著作權法》第16條的適用條件——《著作權法》僅認定“公民為完成法人或者其他組織工作任務所創(chuàng)作的作品”屬于職務作品,而不包括機器人。上述事例只是人工智能社會化應用與我國現行知識產權法律體系相沖突的一個縮影,但學者之間卻產生了強烈的觀點分化。

        對于人工智能創(chuàng)造物的法律性質而言,王遷認為,“在現階段,人工智能生成的內容只是應用某種算法、規(guī)則和模板的結果,與為形成作品所需的智力創(chuàng)作相去甚遠?!盵11]易繼明認為,作品的獨創(chuàng)性并非是指該作品與現有作品的差異性,而是人們在創(chuàng)作該作品過程中所呈現的獨立、自主的主觀思考。目前的人工智能技術僅是通過數據庫的大量分析,實現不同作品的碎片式整合,并沒有超越于前人作品的內容。因此也不應當將目前的人工智能創(chuàng)造物視為“作品”。但隨著“深度學習”技術的不斷發(fā)展,未來的人工智能技術創(chuàng)造物可能發(fā)展為一種創(chuàng)新性作品。[12]按照前述邏輯,人工智能作品的性質歸屬主要依賴于人工智能技術的發(fā)展階段:弱人工智能階段和強人工智能階段。這兩大階段表現出來的技術成熟度,將會影響人工智能作品的最終性質。按照易繼明的觀點,弱人工智能階段的人工智能創(chuàng)造物依靠人為設定程序而定,那么該創(chuàng)造物則不屬于作品;而在強人工智能階段,機器人已經逐步向自主學習的方向發(fā)展,逐漸獨立于人類的規(guī)則預定、價值預設。每個人工智能機器人可以產生出不同的結果和判斷。此時,機器人創(chuàng)作物應該視為作品。

        另外,人工智能創(chuàng)作物的版權歸屬問題,是屬于所有者、使用者還是設計者?首先,設計者只是對于其模擬人腦的算法或者過程進行介入,與投入消費者使用之后作品的產生沒有關聯。其次,機器人創(chuàng)造物是應社會發(fā)展需求而產生的,機器人在當前仍屬于公民或法人的所有物,那么,基于隸屬關系,人工智能機器人所“創(chuàng)作”的作品也應屬于所有人。但就現行法律體系而言,在人工智能技術,所有權人和使用權人無法明確劃分權利歸屬的情況下,作品歸屬問題表面上看來是關于誰來收取作品權益的問題,實際上其背后所衍生出來的深度問題是,現行知識產權法律體系關于“作品”“創(chuàng)造”等基礎概念,在面對人工智能作品時已經面臨崩潰。倘若由于所有權人或者使用權人已經支付了人工智能機器人的購買對價或租賃對價,將人工智能作品的知識產權劃分給所有權人或者使用權人,那么,在人工智能社會化應用不斷提升的情況下,每個擁有人工智能機器人的人類都可以被稱之為“作家”“發(fā)明家”。由此,知識產權法律體系存在的價值將大打折扣。有鑒于此,現行知識產權法律體系如何回應人工智能時代的創(chuàng)作需求,如何面對人工智能機器人自我創(chuàng)作、研發(fā)的制度危機,就成為我國乃至全世界必須解決的問題。

        (三)法律歸責機制的困惑

        目前,人工智能機器人所引發(fā)的社會恐慌,主要源自于機器人損害責任的承擔問題。從現行法律體系的運作機制來看,既然尚未承認人工智能機器人的法律主體地位,那么由機器人導致的損害責任可能參照《侵權責任法》和《產品質量法》的交叉規(guī)制路徑,即由人工智能產品的生產者承擔損害賠償責任。其考慮是,盡管企業(yè)經營的目的是營利,但并不能忽視其所帶來的社會問題。企業(yè)生產機器人獲得了巨大盈利。而它作為社會的一部分,作為社會問題的制造者,就應該承擔與產品風險相適恰的社會責任,這也是目前公司法領域所提倡的修正自由主義責任觀。在人工智能發(fā)展過程中,企業(yè)常常面臨以下責任形式的拷問:(1)個人信息權、隱私權保護下的企業(yè)責任。機器人在接受指令或者自主運行的過程中,難免會收集使用者的個人信息,比如登錄信息、財產狀況、信用等,這些信息都屬于個人隱私。隱私作為人類的底線防守,他人、社會組織以及政府機關都不得隨意侵犯。因此,之前,人工智能生產廠商有必要預先詢問當事人是否同意機器人收集、使用用戶數據與信息。(2)侵權責任中的生產者責任。機器人侵權分為是人類利用人工智能機器人對他人及其財產(包括機器人)造成損害、機器人自身的產品設計瑕疵而造成的損害。對于前者,機器人只是人類實施侵權行為的手段和工具,具體責任依然歸于侵權人。但對于后者,由于人工智能產品仍處于研發(fā)與試用階段,因此,機器人瑕疵又可以分為智能系統(tǒng)瑕疵和物理制造瑕疵。在這種情況下,因機器人設計瑕疵而引發(fā)的侵權責任,會是一種更為復雜的歸責情形。

        在既有法律制度的框架下,機器人缺少法律人格,會進一步加劇責任分配制度的復雜性。既有責任分配機制要求機器人的行為或者決策能夠歸因于制造商、所有人、使用者等特定法律主體的錯誤意志,并且這些主體能夠預見并避免機器人的加害行為。但是在人工智能機器人具備了強自主決策能力、深度學習能力的情況下,上述法律框架無法應對強人工智能機器人所造成的損害。一方面,證明產品設計缺陷(尤其是人工智能系統(tǒng)層面的缺陷)將變得異常困難;另一方面,事故的發(fā)生可能無法合理歸因于智能機器人的設計或者制造缺陷。一個能夠自主學習的人工智能系統(tǒng)的行為部分依靠其后天的經歷,即使最細心的設計者、編程者以及制造者都無法控制或者預期人工智能系統(tǒng)的后天學習方向——微軟的聊天機器人Tay在Twitter上學習歧視性語言便是有力證據[13]。因此,在人工智能產品的生產者、使用者、所有者等主體之間尋找適格責任主體,只是當下法律變革的一個權宜之計;賦予人工智能機器人獨立的法律人格,才是未來法律體系變革的最終方向。

        三、面向人工智能時代的法律革新

        法律對人工智能的發(fā)展具有促進和保障作用,但法律進化的速度卻遠遠落后于人工智能的發(fā)展速度,而且法律規(guī)范的制定理念直接決定了人工智能的社會發(fā)展趨勢:(1)作為一種機器人保護機制,機器人權利會壓縮人類的活動空間,進而威脅人類的安全(這也是倫理學家對人工智能的研發(fā)持反對態(tài)度的主要原因);[14](2)作為一種社會發(fā)展手段,賦予機器人權利有助于彌補法律體系同機器人社會化應用之間的裂痕,削減老齡化社會所帶來的勞動力短缺問題。這就意味著,為了保障人類的安全與可持續(xù)發(fā)展,國家不得不限縮公民的權利(如信息權、勞動權、著作權等),進而改變原有的“權利—義務”分配方案,賦予機器人必要的主體資格,從而維持經濟、社會的可持續(xù)發(fā)展。在機器人的社會化應用不可回避的現代社會,立法者應當通過法治方式重新構思人類與人工智能之間的關系與法治模式。

        (一)構建“戰(zhàn)略—法律—標準”三級人工智能規(guī)范

        人工智能技術對傳統(tǒng)法律制度帶來了巨大挑戰(zhàn),以至現有的法律理念與規(guī)則在高新技術面前幾乎無所適從。在這種情況下,法律制度的自我創(chuàng)新、變革已無需多言。而尋求一個人類與人工智能創(chuàng)造物之間穩(wěn)定關系的基本規(guī)范,將是我國(乃是世界各國)目前立法的一個重要任務。目前,歐洲議會已著手制定人工智能機器人的立法草案。[15]我國在人工智能領域發(fā)展相對滯后,但相關立法活動應未雨綢繆,組建構建“國家戰(zhàn)略—基本法律—標準體系”三級人工智能規(guī)范。

        首先,我國應當盡快出臺“人工智能發(fā)展戰(zhàn)略”,以此作為國家和各地方政府制定人工智能政策的依據。人工智能發(fā)展戰(zhàn)略的制定,首先應當理清人類與人工智能關系,進而確定國家戰(zhàn)略的宏觀方向。因此,我國的人工智能發(fā)展戰(zhàn)略應當以人類與人工智能的協(xié)同發(fā)展為方向,做好人工智能社會化應用的整體性謀略和全局性安排——國家層面人工智能發(fā)展統(tǒng)籌協(xié)調部門的建立已屬必然?!案鶕覒?zhàn)略,中央職能部門往往首先做出反應,快速地將國家戰(zhàn)略落實為政府政策……而地方政府……實質性地推出優(yōu)惠和補貼政策?!盵16]從而構建起人工智能發(fā)展的具體戰(zhàn)略目標、戰(zhàn)略任務、戰(zhàn)略措施,將人工智能發(fā)展同行政體制改革、經濟體制改革以及互聯網行業(yè)發(fā)展一體建設。

        其次,我國應當就人工智能的研發(fā)與應用制定專門性的人工智能基本法律框架。其重點包括人工智能的法律地位、人工智能的權利邊界、人工智能損害后果的責任分擔、人工智能風險的法律控制等內容。從權利類型生發(fā)的歷史邏輯來看,早期的人身權、財產權、政治權利等權利類型被視為人類的“天生權利”或“基本權利”,并體現出較強的人身依附性。但隨后產生的動物權利、法人權利等權利類型,開始將擬制權利融入到傳統(tǒng)權利體系中,以應對社會發(fā)展過程中的物種多樣性壓力和多元市場經營行為??紤]到人工智能創(chuàng)造物的非“人”性,權利擬制將成為人工智能創(chuàng)造物獲得法律主體地位的技術性解決方案。同時,由于人工智能創(chuàng)造物的產生及存在價值來自于其本身所具備的具體功能。因此,關于人工智能的基本法律框架應當根據人工智能創(chuàng)造物的具體功能加以建構。

        再次,制定人工智能發(fā)展標準。從各國的人工智能立法與政策來看,鼓勵性條款、引導性條款較多,而關于人工智能發(fā)展細則的條款較為稀少。究其原因,各國對人工智能立法持保守態(tài)度。例如:歐盟和德國通過小范圍地修改既有民事規(guī)則和交通法,來改善人工智能活動的法律適恰性。這僅是在立法條件不完備的情況下做出的折中選擇,既鼓勵了人工智能創(chuàng)新,又保障公民的權利。但引導性立法較多并不意味著各國立法的效率低下。實際上,各國立法只是在人工智能發(fā)展初期確立了一個基本法律框架,而人工智能發(fā)展的核心引導規(guī)則主要體現在人工智能研發(fā)、制造標準體系上。綜觀世界各國對人工智能發(fā)展的國家戰(zhàn)略、國家立法以及國家政策,無不顯示出各國搶占人工智能領域行業(yè)標準的決心。以美國無人駕駛汽車立法為例。美國內華達州率先通過州立法的形式,允許無人駕駛汽車在該州公共道路上測試,并明確要求無人駕駛汽車必須滿足安全標準、保險標準、測試標準,并針對后續(xù)試用階段制定更為嚴格的標準。[17]由此觀之,人工智能的標準化才是當前真正規(guī)制人工智能行業(yè)的重要標桿。

        (二)建立專門的人工智能監(jiān)管機制

        目前,人工智能已經成為各國推動科技創(chuàng)新,建立創(chuàng)新型國家的重要戰(zhàn)略支點。但在科技強國這一戰(zhàn)略目標之外,各國政府紛紛加強對人工智能技術的監(jiān)管,防范人工智能社會化應用中的潛在風險。為了進一步規(guī)范我國人工智能技術的研發(fā)與應用,我國應當在以下三個方面加強人工智能技術的監(jiān)管:(1)設立專門的人工智能監(jiān)管機構。由于人工智能產品涉及的領域較廣,技術的專業(yè)性要求較高,這就要求監(jiān)管機構必須具備相關的專業(yè)知識,并配備足夠的專業(yè)人才。因此,設立專門性的人工智能監(jiān)管機構是人工智能時代國家治理的必然要求。(2)確立行業(yè)協(xié)會的輔助監(jiān)管模式。人工智能的行政監(jiān)管會對各級政府帶來巨大的監(jiān)管負擔和監(jiān)管壓力,同時可能過度限制人工智能技術的合理研發(fā)與試用。為此,在全國深化“放管服”改革背景下,我國對人工智能技術的監(jiān)管,應當建立“政府主導+行業(yè)協(xié)會輔助”的監(jiān)管模式。其中,行業(yè)協(xié)會輔助政府監(jiān)管人工智能技術的研發(fā)與試用,能夠最大化地利用行業(yè)協(xié)會的專業(yè)性和高技術人才優(yōu)勢,準確把握人工智能技術的社會價值,減輕政府監(jiān)管壓力,提升監(jiān)管質量和效率。在此情況下,“行業(yè)協(xié)會輔助監(jiān)管”模式同專門性人工智能監(jiān)管機構的協(xié)調、對接,實際上是對人工智能領域高技術特征的創(chuàng)新性回應,也能夠有效地做到人工智能技術風險的預先控制。(3)構建人工智能產品的強制登記制度。受人工智能產品批量化生產的影響,人類很難從同一型號機器人中辨識出個體差異。這也對政府監(jiān)管人工智能產品造成了嚴重困擾。為了提升不同機器人的辨識度,辨明不同機器人的活動與責任,就必須通過特殊的身份辨識系統(tǒng)來確定其獨特性。這就要求我國在人工智能產品的監(jiān)管上建立起人工智能產品的強制登記制度,并且實行分級分類監(jiān)管模式,即依照人工智能產品的不同用途和功能,來確立該類人工智能產品的管理等級和登記制度。

        (三)確定人工智能的分類侵權責任體系

        人工智能的最大挑戰(zhàn)就在于,現行法律體系對它缺乏有效的追責機制——這是社會責任混亂的起點,也是當前世界各國通行秩序(法治)崩塌的導火索。因此,人工智能的責任配置,遠比賦予機器人法律主體地位更為迫切。實際上,就目前階段而言,人工智能機器人的法律責任尚能夠參照《侵權責任法》《產品質量法》的規(guī)制路徑加以解決。例如:按照《侵權責任法》的責任追究范式,如果人工智能機器人的活動對他人造成了實際損害或精神損害,人工智能機器人的使用者可以承擔相關的法律責任;人工智能機器人的開發(fā)者有過錯的,最終使用者承擔責任后可以向開發(fā)者追償。但在判斷開發(fā)者過錯程度時,可能需要區(qū)分算法生成與運用方面的差異。如果人工智能算法本身存在漏洞,那么,該人工智能機器人最終出現歧視風險和失控問題的概率就更高,相應地,人工智能機器人的創(chuàng)造者、生產者承擔的法律責任也應當相對較大;如果該人工智能機器人采取深度學習技術,并由人工智能系統(tǒng)自身發(fā)展和完善決策機制,那么,作為人工智能機器人的創(chuàng)造者、生產者,其主觀惡意和過錯較小,由此導致創(chuàng)造者、生產者可以獲得更大的免責空間。除此之外,我國也應當在產品質量法律體系下進一步理清人工智能生產廠商的生產責任,明確人工智能產品的生產標準、合理缺陷以及責任范圍。為了應對人工智能潛在風險所造成的生產者賠償壓力,我國應當在《保險法》的基礎上,建立人工智能領域的專門性保險法律與保險賠償體系,用于保證生產廠商的償付能力,提高人工智能產品侵權的賠償率。

        人工智能對法律體系的挑戰(zhàn)與革新,是當下法學界與社會爭相探討的重要問題。無論是人工智能引發(fā)了人機關系危機,還是人工智能技術的規(guī)制難題,都反映出人們對人工智能規(guī)范化應用的某種愿望。為此,盡管強人工智能對當前的人類活動影響較小,但由于人工智能技術發(fā)展迅速,立法者一方面需要對人工智能的社會化應用給予足夠的關注,甚至是做出一定的立法規(guī)制;另一方面也要積極滿足社會公眾對“日益增長的美好生活需要”的向往,實現社會的共建共治共享。尤為重要的是,世界各國均在爭奪人工智能技術的主導地位?這是關于國家科技競爭力的核心指標之一。除了人工智能研發(fā)領域之外,我國法律實務界與學術界也應保持自身的先進性,對人工智能時代的法律變革做出預判。

        猜你喜歡
        人工智能法律
        法律推理與法律一體化
        法律方法(2022年1期)2022-07-21 09:17:10
        我校新增“人工智能”本科專業(yè)
        法律解釋與自然法
        法律方法(2021年3期)2021-03-16 05:57:02
        法律適用中的邏輯思維
        法律方法(2019年3期)2019-09-11 06:27:06
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        IT經理世界(2018年20期)2018-10-24 02:38:24
        數讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 04:56:22
        讓人死亡的法律
        山東青年(2016年1期)2016-02-28 14:25:30
        国产大学生自拍三级视频| 男人边吻奶边挵进去视频| 亚洲欧美精品91| 一区二区三区国产精品| 亚洲天堂亚洲天堂亚洲色图| 成年女人a级毛片免费观看| 性色av无码一区二区三区人妻| 欧美日本免费一区二| 国产av三级精品车模| 亚洲男女内射在线播放| 少妇性l交大片| 久久精品国产亚洲5555| 青青草绿色华人播放在线视频| 粗大猛烈进出高潮视频大全| 黑人巨大av在线播放无码| 国产AV国片精品有毛| 精品国产精品久久一区免费| 揄拍成人国产精品视频| 国产呦系列呦交| 精品免费一区二区三区在| 亚洲乱码av中文一区二区第八页| 精品久久久久久无码专区| 台湾佬娱乐中文22vvvv| 亚洲第一区无码专区| 国产精品亚洲一区二区三区在线看| 亚洲av无码无限在线观看| 亚洲a∨无码一区二区| 特黄三级一区二区三区| 在线观看 国产一区二区三区| 亚洲成av人片在线观看麦芽| 一区二区无码中出| 国产一区二区三区在线观看免费版 | 婷婷一区二区三区在线| 亚洲av日韩综合一区尤物| 玩弄白嫩少妇xxxxx性| 亚洲熟妇20| 免费在线av一区二区| 中国娇小与黑人巨大交| 日日碰狠狠躁久久躁96avv| 99久久精品国产亚洲av天| 国产一级一片内射视频播放 |