汪慶華
摘 要:中國、美國和歐盟在人工智能的法律規(guī)制上初步呈現(xiàn)出自身的特點(diǎn)。面對(duì)人工智能技術(shù)的發(fā)展,中國通過分散式的立法對(duì)它在電子商務(wù)、新聞內(nèi)容推薦以及智能投顧等領(lǐng)域的應(yīng)用進(jìn)行了回應(yīng),算法公開透明是貫穿于這些層級(jí)各異的立法的共同要求。美國則是通過司法判例對(duì)算法的法律性質(zhì)進(jìn)行了明確,在搜索引擎算法的案例中,它被看成言論,刑事輔助審判系統(tǒng)中的算法則被認(rèn)定為是商業(yè)秘密。與中國、美國的個(gè)別化進(jìn)路形成鮮明對(duì)比的是,歐盟通過對(duì)個(gè)人數(shù)據(jù)權(quán)利的嚴(yán)格保護(hù),形成了對(duì)人工智能的源頭規(guī)制模式。在數(shù)字經(jīng)濟(jì)成為經(jīng)濟(jì)發(fā)展的新動(dòng)力的背景下,這三種模式體現(xiàn)了在數(shù)據(jù)權(quán)利保護(hù)和人工智能產(chǎn)業(yè)發(fā)展平衡問題上的不同側(cè)重。
關(guān)鍵詞:人工智能;算法;法律規(guī)制;自動(dòng)化決策
中圖分類號(hào):DF37
文獻(xiàn)標(biāo)志碼:A?DOI:10.3969/j.issn.1001-2397.2019.02.04
人工智能①
和法律的遭遇會(huì)在兩個(gè)層面呈現(xiàn)出來。在享受人工智能帶來的技術(shù)紅利的同時(shí),需要對(duì)它可能帶來的風(fēng)險(xiǎn)和挑戰(zhàn)進(jìn)行回應(yīng),這意味著需要對(duì)人工智能進(jìn)行法律規(guī)制。但同時(shí)大數(shù)據(jù)技術(shù)、云計(jì)算、人工智能的發(fā)展又為現(xiàn)有的法律提供動(dòng)力,立法、司法和法律執(zhí)行將會(huì)以一種從來沒有過的方式借助算法而實(shí)現(xiàn)變革。大數(shù)據(jù)和人工智能技術(shù)不僅會(huì)帶來社會(huì)生產(chǎn)力的變革,同時(shí)也帶來了社會(huì)生產(chǎn)關(guān)系的變化。在討論人工智能法律規(guī)制的時(shí)候,需要厘清的重點(diǎn)在于理解現(xiàn)有的法律概念、法律規(guī)則和法律體系的力量何在。弗蘭克·伊斯特布魯克法官的《賽博空間和馬的法律》 [1]一文深刻揭示了這樣的道理。正如不需要專門的關(guān)于馬的立法,其實(shí)也并不需要專門就互聯(lián)網(wǎng)、人工智能技術(shù)來進(jìn)行專門的立法。這種觀念當(dāng)然和美國的普通法傳統(tǒng)有關(guān),無論時(shí)代怎么變遷,從封閉的農(nóng)業(yè)社會(huì)到信息化、智能化社會(huì),普通法規(guī)則得以延續(xù)下來,保持著它們的生命力。在大陸法系國家,法的安定性則是原有法律規(guī)則和法律體系適用到科技前沿領(lǐng)域的基礎(chǔ)性考量。
德國新的《道路交通法》在自動(dòng)駕駛汽車侵權(quán)問題上沿用車輛所有人嚴(yán)格責(zé)任體現(xiàn)了這一思路。關(guān)于自動(dòng)駕駛汽車對(duì)美國現(xiàn)有規(guī)制體系的挑戰(zhàn)及其回應(yīng)的討論,參見:Brian A. Browne. Self-Driving Cars: On the Road to a New Regulatory Era [J]. Journal of Law, Technology &the Internet,2017, 8(1):1-19.但是在一些方面,現(xiàn)有的法律框架無法涵蓋人工智能在具體領(lǐng)域應(yīng)用中所帶來的一系列問題,這意味著在一定程度上需要反思現(xiàn)有法律框架。人工智能技術(shù)的發(fā)展將改變?nèi)藗儗?duì)法律的認(rèn)知,重塑法律的規(guī)則形態(tài),乃至法律的價(jià)值導(dǎo)向[2]。人工智能時(shí)代法律制度的設(shè)計(jì)必須要考慮風(fēng)險(xiǎn)社會(huì)的現(xiàn)實(shí),并兼容一定程度的不確定性[3]。
法律一般不對(duì)實(shí)踐中沒有定型的經(jīng)驗(yàn)、社會(huì)中沒有成熟的關(guān)系進(jìn)行調(diào)整。目前,人工智能的技術(shù)也只是局限在具體領(lǐng)域,并沒有形成通用人工智能。就人工智能發(fā)展的階段而言,一般認(rèn)為存在著弱人工智能、強(qiáng)人工智能和超人工智能三個(gè)階段。弱人工智能又稱為專門人工智能,指不能真正實(shí)現(xiàn)推理和解決問題的智能機(jī)器,它們并沒有真正的智能,只能實(shí)現(xiàn)單一任務(wù),比如語音識(shí)別、自動(dòng)駕駛、圖像識(shí)別等等;強(qiáng)人工智能具人類所有認(rèn)知能力,它有知覺和意識(shí),可以由同一個(gè)智能系統(tǒng)執(zhí)行不同的認(rèn)知任務(wù);超人工智能在所有領(lǐng)域超過人類,所有認(rèn)知功能超過人類。目前人工智能的發(fā)展仍然處于弱人工智能階段,因此當(dāng)前并不能夠制定出關(guān)于人工智能的完整的法律制度。人工智能在過去的二十年中,在機(jī)器學(xué)習(xí)、知識(shí)圖譜、自然語言處理、計(jì)算機(jī)視覺、人機(jī)交互、生物特征識(shí)別等相關(guān)技術(shù)方面取得了突破,并表現(xiàn)出技術(shù)平臺(tái)開源化、專用人工智能向通用人工智能發(fā)展以及從感知智能向認(rèn)知智能邁進(jìn)的趨勢(shì)。人工智能技術(shù)和行業(yè)領(lǐng)域的深度融合在制造、金融、醫(yī)療該文討論了患者的安全、隱私,尤其是醫(yī)療器械監(jiān)管和數(shù)據(jù)保護(hù)法對(duì)醫(yī)療機(jī)器人的影響。醫(yī)療領(lǐng)域的機(jī)器人有幾種主要類型:手術(shù)機(jī)器人、常規(guī)任務(wù)機(jī)器人以及個(gè)人看護(hù)機(jī)器人。機(jī)器人通過利用云端的數(shù)據(jù),也許有一天可以做出實(shí)時(shí)的診斷決定,醫(yī)療機(jī)器人會(huì)變得越來越具有自主性。、交通、商業(yè)等傳統(tǒng)行業(yè)帶來了突破性變革。
人工智能的法律規(guī)制需要和具體的領(lǐng)域結(jié)合起來,并不存在對(duì)人工智能的一般化的法律規(guī)制。就人工智能技術(shù)發(fā)展水平及其當(dāng)下應(yīng)用而言,采取“傳統(tǒng)法律修正”的模式是一種可行的進(jìn)路。算法往往和應(yīng)用場(chǎng)景、商業(yè)模式相結(jié)合。在每一個(gè)細(xì)分領(lǐng)域里,存在著不同的規(guī)制方法、進(jìn)路和手段。法律對(duì)人工智能的規(guī)制需要具體化和場(chǎng)景化,以避免在人工智能這一寬泛的表述之下的各說各話。人工智能在電子商務(wù)、精準(zhǔn)醫(yī)療人工智能在深刻改變著醫(yī)療行業(yè),由于大數(shù)據(jù)和強(qiáng)有力的機(jī)器學(xué)習(xí)技術(shù),各種創(chuàng)新手段被用來推進(jìn)診所醫(yī)療的過程、推動(dòng)醫(yī)學(xué)研究以及提高效率。機(jī)器人的涉及和利用必須要最大化安全性能,對(duì)用戶隱私保持敏感性。參見:P W. Nicholson Price II. Artificial Intelligence in Health Care: Applications and Legal Issues, SciTech Lawyer, 2017,14(10). 和自動(dòng)駕駛等領(lǐng)域有著廣泛的應(yīng)用和實(shí)踐,而法律在這些領(lǐng)域的規(guī)制的方法、手段、強(qiáng)度和密度應(yīng)該存在差異 關(guān)于自動(dòng)駕駛帶來的法律規(guī)則的系統(tǒng)討論,包括道路測(cè)試監(jiān)管、自動(dòng)駕駛汽車市場(chǎng)準(zhǔn)入、準(zhǔn)入后監(jiān)管的方式方法,參見:李磊.論中國自動(dòng)駕駛汽車監(jiān)管制度的建立[J].北京理工大學(xué)學(xué)報(bào),2018(2):127-130;關(guān)于自動(dòng)駕駛汽車的侵權(quán)責(zé)任的法律分析,參見:張力,李倩.高度自動(dòng)駕駛汽車交通侵權(quán)責(zé)任構(gòu)造分析[J],浙江社會(huì)科學(xué),2018(8).。電子商務(wù)將互聯(lián)網(wǎng)的技術(shù)運(yùn)用于商業(yè)領(lǐng)域,形成各種平臺(tái)和共享經(jīng)濟(jì)。在這個(gè)領(lǐng)域中,政府監(jiān)管的重要目的在于促進(jìn)競(jìng)爭和反壟斷,保護(hù)消費(fèi)者權(quán)利,維護(hù)市場(chǎng)秩序。人工智能廣泛運(yùn)用于醫(yī)療領(lǐng)域,智能輔助手術(shù)、機(jī)器人護(hù)士、機(jī)器人看護(hù),醫(yī)療成本的增加和老齡化社會(huì)的到來將會(huì)進(jìn)一步推動(dòng)對(duì)智能醫(yī)療的需求?;ヂ?lián)網(wǎng)醫(yī)療因?yàn)樯婕皞€(gè)人的生命健康、醫(yī)療及其相關(guān)數(shù)據(jù)往往屬于個(gè)人敏感數(shù)據(jù)。政府在設(shè)計(jì)監(jiān)管模式的時(shí)候,必然采取高準(zhǔn)入、嚴(yán)許可的進(jìn)路,比如美國的《健康保險(xiǎn)可攜帶和責(zé)任法》(Health and Insurance Portability and Accountability Act)制定了一系列安全和隱私標(biāo)準(zhǔn),就保險(xiǎn)公司、醫(yī)療服務(wù)提供者如何用電子的方式傳輸、訪問和存儲(chǔ)受保護(hù)的健康信息做了詳細(xì)而嚴(yán)格的規(guī)定。
目前,歐洲和美國在自動(dòng)駕駛領(lǐng)域都已經(jīng)有比較成熟的立法。德國在2017年新修訂了《道路交通法》,為高度和全自動(dòng)駕駛提供法律依據(jù)
以下關(guān)于德國新《道路交通法》內(nèi)容的討論,參考了埃里克希爾根多夫:《自動(dòng)駕駛的規(guī)制之路——對(duì)〈德國道路交通法〉最新修訂的說明》。微信公眾號(hào)“人大未來法治研究院”。2018.4.12.。該法明確了高度自動(dòng)駕駛和全自動(dòng)駕駛車輛的法律含義,它指帶有為完成駕駛?cè)蝿?wù)而能供控制車輛的技術(shù)設(shè)備,而且駕駛員可隨時(shí)解除自動(dòng)駕駛功能或切換到人工駕駛模式。在法律責(zé)任分配方面,立法者追求簡約化的規(guī)則,尋求自動(dòng)駕駛問題和傳統(tǒng)的道路交通法兼容,在自動(dòng)駕駛的規(guī)制中沿用傳統(tǒng)道路交通法的規(guī)則?;诜ǖ陌捕ㄐ钥剂?,車輛所有人原則上承擔(dān)無過錯(cuò)責(zé)任,這一歸責(zé)方式為新版《道路交通法》所延續(xù)。相較于責(zé)任分配問題的守成,德國新《道路交通法》中關(guān)于數(shù)據(jù)處理的條款尤其值得關(guān)注。該法第63條規(guī)定,當(dāng)車輛控制模式從人工向技術(shù)系統(tǒng)切換或者技術(shù)系統(tǒng)向人工系統(tǒng)切換時(shí),必須記載位置和時(shí)間信息。當(dāng)系統(tǒng)要求駕駛員接管對(duì)車輛的控制或者系統(tǒng)出現(xiàn)技術(shù)故障時(shí),也應(yīng)保存相應(yīng)信息。平臺(tái)向主管機(jī)關(guān)傳輸保存的數(shù)據(jù)的義務(wù)也是其中的亮點(diǎn)。遺憾的是,該法并沒有去處理自動(dòng)駕駛碰撞可能會(huì)帶來的倫理困境問題 Jeffrey K Gurney對(duì)自動(dòng)駕駛車輛是否應(yīng)該做出倫理決定進(jìn)行了探討。他假設(shè)了六種道德困境,從法律和倫理的視角考察在碰撞情境下如何進(jìn)行算法優(yōu)化。在倫理上考量了康德主義和功利主義兩個(gè)面向,在法律維度上則考察了碰撞優(yōu)化算法的侵權(quán)行為和刑法含義。參見:Jeffrey K Gurney. Crashing into the Unknown: An Examination of Crash-Optimization Algorithms Through the Two Lanes of Ethics and Law [J]. Albany Law Review, 2016(79):183.。
美國加州則在2012年通過了州的立法,即SB1298 Vehicles: Autonomous Vehicles: Performance and Safety Requirement,確立了促進(jìn)和保障無人駕駛汽車安全的立法理念,對(duì)自動(dòng)技術(shù)、自動(dòng)駕駛汽車進(jìn)行了定義和規(guī)制。歐美在自動(dòng)駕駛領(lǐng)域的立法為差別化、場(chǎng)景化的人工智能監(jiān)管提供了具體的例證。
一、人工智能規(guī)制的立法進(jìn)路及其趨勢(shì)
就人工智能的法律應(yīng)對(duì)而言,我國目前更多的是從產(chǎn)業(yè)政策促進(jìn)、扶持和發(fā)展的角度對(duì)人工智能提供行政指導(dǎo)。2017年國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》突出地反映了這一思路。人工智能技術(shù)被定位為國家戰(zhàn)略。此后各部委和各地方政府也結(jié)合當(dāng)?shù)貙?shí)際出臺(tái)了規(guī)章性質(zhì)的人工智能產(chǎn)業(yè)發(fā)展規(guī)劃。工信部出臺(tái)了《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018-2020年)》推動(dòng)人工智能的科技研發(fā)和產(chǎn)業(yè)化發(fā)展。浙江省人民政府出臺(tái)了《新一代人工智能發(fā)展規(guī)劃》,涉及智能醫(yī)療、智能金融、智能商務(wù)等領(lǐng)域,提出加快人工智能技術(shù)攻關(guān)和深度應(yīng)用。
在監(jiān)管層面上,目前對(duì)人工智能的法律規(guī)制在電子商務(wù)、數(shù)據(jù)安全和智能投顧領(lǐng)域的立法中已經(jīng)有個(gè)別條款分別涉及?!峨娮由虅?wù)法》規(guī)定,電子商務(wù)經(jīng)營者根據(jù)消費(fèi)者的興趣愛好、消費(fèi)習(xí)慣等特征向其推銷商品或服務(wù)的搜索結(jié)果的,應(yīng)當(dāng)同時(shí)向該消費(fèi)者提供不針對(duì)其個(gè)人特征的選項(xiàng),尊重和平等保護(hù)消費(fèi)者合法權(quán)益。這是在法律層面對(duì)大數(shù)據(jù)/算法殺熟的回應(yīng)。大數(shù)據(jù)殺熟作為差別化定價(jià),是企業(yè)經(jīng)營者利用機(jī)器學(xué)習(xí)算法,對(duì)每個(gè)消費(fèi)者的消費(fèi)偏好、消費(fèi)習(xí)慣和消費(fèi)能力等信息進(jìn)行分析,構(gòu)建定價(jià)模型,對(duì)同樣的商品或服務(wù)實(shí)行不同的定價(jià)。借助大數(shù)據(jù)技術(shù),企業(yè)獲得了關(guān)于消費(fèi)者的完整信息,從而能夠?qū)οM(fèi)者進(jìn)行畫像,最大程度地獲得消費(fèi)者剩余。此外,《電子商務(wù)法》第40條規(guī)定,對(duì)于競(jìng)價(jià)排名的商品或服務(wù),應(yīng)當(dāng)顯著標(biāo)明“競(jìng)價(jià)”。這對(duì)算法提出了信息披露義務(wù),保障消費(fèi)者的知情權(quán)、自主性和選擇權(quán)。
就我國目前的人工智能法律規(guī)制而言,《電子商務(wù)法》屬于法律淵源中法律層級(jí)的,另外還有規(guī)章層級(jí)的《數(shù)據(jù)安全管理辦法》(征求意見稿)也對(duì)算法進(jìn)行了相應(yīng)的規(guī)制。《辦法》規(guī)定,“網(wǎng)絡(luò)運(yùn)營者利用大數(shù)據(jù)和人工智能等技術(shù),通過算法自動(dòng)合成的新聞信息、博文、帖子、評(píng)論等,應(yīng)當(dāng)以顯著方式表明‘合成字樣?!本W(wǎng)絡(luò)運(yùn)營者利用算法進(jìn)行新聞推送,被課加了披露義務(wù)以促進(jìn)算法透明。在移動(dòng)互聯(lián)網(wǎng)時(shí)代,算法新聞業(yè)蓬勃發(fā)展,算法內(nèi)容生成日益成熟。在互聯(lián)網(wǎng)內(nèi)容市場(chǎng)上,用戶內(nèi)容生產(chǎn)、機(jī)器內(nèi)容生產(chǎn)、混合內(nèi)容生產(chǎn)交相輝映,形成了海量的內(nèi)容信息。從內(nèi)容生產(chǎn)到內(nèi)容推薦,算法在新聞業(yè)扮演著越來越重要的角色。對(duì)于算法推薦的規(guī)制,除了披露義務(wù)之外,規(guī)范信息流程、報(bào)備模型參數(shù)、違規(guī)行為懲處等長效機(jī)制都是法律制度設(shè)計(jì)需要考量的要素[4]。
2018年3月28日,中國人民銀行、銀保監(jiān)會(huì)、證監(jiān)會(huì)、外匯局聯(lián)合發(fā)布《關(guān)于規(guī)范金融機(jī)構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》(以下簡稱“指導(dǎo)意見”)。該指導(dǎo)意見對(duì)人工智能在金融領(lǐng)域的應(yīng)用進(jìn)行了規(guī)制,從勝任性要求、投資者適當(dāng)性以及透明披露方面對(duì)智能投顧中的算法進(jìn)行穿透式監(jiān)管。美國證監(jiān)會(huì)在2017年2月發(fā)布的《智能投顧監(jiān)管指引》中將“智能投顧”定義為基于網(wǎng)絡(luò)算法的程序,利用創(chuàng)新技術(shù)為用戶提供全權(quán)委托的賬戶管理服務(wù)的注冊(cè)投資顧問。智能投顧依托于互聯(lián)網(wǎng),具有委托的特殊性,它為用戶提供全權(quán)委托的賬戶管理服務(wù),即在客戶和運(yùn)營者簽署全權(quán)委托協(xié)議的前提下,允許受托人未經(jīng)客戶同意買賣證券[5]。
《指導(dǎo)意見》明確,運(yùn)用人工智能技術(shù)開展投資顧問業(yè)務(wù)應(yīng)當(dāng)取得投資顧問資質(zhì)。金融機(jī)構(gòu)運(yùn)用人工智能技術(shù)開展資產(chǎn)管理業(yè)務(wù)除了要遵守投資者適當(dāng)性、投資范圍、信息披露、風(fēng)險(xiǎn)隔離等一般性規(guī)定外,還應(yīng)當(dāng)向金融監(jiān)督管理部門報(bào)備人工智能模型的主要參數(shù)以及資產(chǎn)配置的主要邏輯,為投資者單獨(dú)設(shè)立智能管理賬戶,充分提示人工智能算法的固有缺陷和使用風(fēng)險(xiǎn),明晰交易流程,強(qiáng)化留痕管理,嚴(yán)格監(jiān)控智能管理賬戶的交易頭寸、風(fēng)險(xiǎn)限額、交易種類、價(jià)格權(quán)限等。這意味著智能投顧必須要取得行政許可,這是由金融業(yè)的專業(yè)性和高風(fēng)險(xiǎn)性決定的。此外,報(bào)備智能投顧模型的主要參數(shù)意味著算法黑箱的打開,算法透明得到了一定程度的貫徹。
《指導(dǎo)意見》還規(guī)定了運(yùn)用智能投顧的金融機(jī)構(gòu)的披露義務(wù)。金融機(jī)構(gòu)應(yīng)當(dāng)根據(jù)智能投顧的業(yè)務(wù)特點(diǎn),建立合理的投資策略和算法模型,充分提示智能投顧算法的固有缺陷和使用風(fēng)險(xiǎn),為投資者單設(shè)智能投顧賬戶,明晰交易流程,強(qiáng)化留痕管理,嚴(yán)格監(jiān)控智能投顧的交易頭寸、風(fēng)險(xiǎn)限額、交易種類、價(jià)格權(quán)限等?!吨笇?dǎo)意見》更強(qiáng)調(diào)在智能模型缺陷或者羊群效應(yīng)的背景下,金融機(jī)構(gòu)必須進(jìn)行人工介入。金融機(jī)構(gòu)委托外部機(jī)構(gòu)開發(fā)智能投顧算法,應(yīng)當(dāng)要求開發(fā)機(jī)構(gòu)根據(jù)不同產(chǎn)品投資策略研發(fā)對(duì)應(yīng)的智能投顧算法,避免算法同質(zhì)化加劇投資行為的順周期性。金融機(jī)構(gòu)應(yīng)當(dāng)針對(duì)由此引發(fā)的市場(chǎng)波動(dòng)風(fēng)險(xiǎn)制定應(yīng)對(duì)預(yù)案。因算法同質(zhì)化、編程設(shè)計(jì)錯(cuò)誤、對(duì)數(shù)據(jù)利用深度不夠等人工智能算法模型缺陷或者系統(tǒng)異常,導(dǎo)致羊群效應(yīng)、影響金融市場(chǎng)穩(wěn)定運(yùn)行的,金融機(jī)構(gòu)應(yīng)當(dāng)采取人工干預(yù)措施,強(qiáng)制調(diào)整或者終止智能投顧業(yè)務(wù)。
在監(jiān)管手段上,金融監(jiān)管部門對(duì)智能投顧的法律規(guī)制采取了組合拳的方式,這可以為我們討論其他領(lǐng)域的法律監(jiān)管提供有益的思考。智能投顧是沒有法律人格地位的智能機(jī)器人為投資人提供咨詢意見,這對(duì)以往以金融從業(yè)者為監(jiān)管對(duì)象的監(jiān)管模式產(chǎn)生了挑戰(zhàn),需要重構(gòu)義務(wù)體系。智能投資顧問是投資咨詢機(jī)構(gòu)業(yè)務(wù)的延伸,投資咨詢機(jī)構(gòu)應(yīng)當(dāng)被識(shí)別為受托人,承擔(dān)信義義務(wù)和合規(guī)義務(wù)。智能投資顧問模式下應(yīng)當(dāng)要穿透算法設(shè)定法律義務(wù),一方面要避免算法黑箱逃避責(zé)任,另一方面應(yīng)當(dāng)為人工智能在投顧行業(yè)的發(fā)展保留充分空間[6]。
在監(jiān)管方式上,金融監(jiān)管部門運(yùn)用監(jiān)管科技應(yīng)對(duì)金融科技的興起[7]。英國金融監(jiān)管局在2015年最新提出Reg Tech的概念,并將它定義成利用最新技術(shù)手段,促進(jìn)金融機(jī)構(gòu)更有效達(dá)到監(jiān)管要求。金融機(jī)構(gòu)在利用智能投顧開展資產(chǎn)管理業(yè)務(wù)的時(shí)候,必須要獲得行政許可、獲得資質(zhì);報(bào)備模型參數(shù)、實(shí)現(xiàn)算法透明和算法可解釋性;制定預(yù)案、適時(shí)人工干預(yù)。
我國目前對(duì)人工智能的法律規(guī)制以分散式立法的方式分布在不同層級(jí)的法律規(guī)范中,對(duì)精確營銷、算法新聞和智能投顧進(jìn)行了相應(yīng)的規(guī)制。智能投顧中對(duì)算法的穿透式監(jiān)管對(duì)將來人工智能的法律規(guī)制具有重大的啟示意義,在行政許可準(zhǔn)入、算法透明化要求和主體責(zé)任承擔(dān)等方面為人工智能法律規(guī)制框架的構(gòu)建提供了參考。
二、人工智能的司法規(guī)制及其法律定位
無論是人工智能還是機(jī)器人,如果去掉附著在它們身上的擬人化想象,它是基于算法通過數(shù)據(jù)自主學(xué)習(xí)的一套計(jì)算機(jī)制,本質(zhì)在于算法和數(shù)據(jù)[8]。本文在討論人工智能規(guī)制的時(shí)候,將不去區(qū)分人工智能和算法之間的區(qū)別,將它們作為同一概念處理。美國聯(lián)邦法院和州法院在判例中對(duì)算法的性質(zhì)、人工智能輔助量刑算法的合憲性、新技術(shù)條件下的個(gè)人隱私保護(hù)進(jìn)行了回應(yīng),延續(xù)了其一貫的普通法的傳統(tǒng),通過司法對(duì)人工智能的應(yīng)用予以合法性的認(rèn)肯,對(duì)其中隱含的風(fēng)險(xiǎn)予以規(guī)制,并將隱私保護(hù)擴(kuò)張到手機(jī)位置信息。司法判例或者將算法定性成商業(yè)秘密,或者在關(guān)于搜索引擎算法的判決中,將它看成是言論[9]。將搜索引擎的算法當(dāng)作言論的主張?jiān)趯W(xué)者中激起了廣泛的爭論。
(一)算法作為言論自由
2003年的Search King V. Google Tech., Inc.,堪稱搜索引擎領(lǐng)域算法第一案。該案中,Google對(duì)搜索王的網(wǎng)頁排名進(jìn)行了降序乃至于刪除,搜索王將Google告到了法院。俄克拉荷瑪州法院認(rèn)為,網(wǎng)頁排名是一種意見,它涉及特定網(wǎng)站對(duì)某一檢索指令響應(yīng)的意義。搜索引擎根據(jù)算法生成的結(jié)果是它的言論。Google的主張,算法是言論得到了法院的支持。四年之后,Longdon v. Google 案中,聯(lián)邦地區(qū)法院也支持了算法是言論的主張參見:Langdon v. Google, Inc., 474 F. Supp. 2d 622, 629-30 (D. Del. 2007).。
應(yīng)該說,美國法院為搜索公司提供了基于第一修正案的言論保護(hù),為企業(yè)的發(fā)展提供了廣闊的空間。由于大數(shù)據(jù)技術(shù)的中立性、無國界使得算法性質(zhì)問題具有了普遍的理論意義,加拿大學(xué)者Veenu Goswami則主張基于加拿大判例和加拿大人權(quán)憲章,應(yīng)當(dāng)將基于算法產(chǎn)生的內(nèi)容置于言論的范疇之內(nèi),應(yīng)受憲法上的言論自由的保護(hù)[10]。
不過,就搜索引擎算法是否是言論,在理論上仍然有激烈的反對(duì)意見。更進(jìn)一步的問題在于,即使司法對(duì)此已經(jīng)給出了正面的回答,這一定性是否推廣到所有領(lǐng)域的算法仍然是懸而未決的問題。這些司法判例帶來了美國法學(xué)界對(duì)搜索引擎中的算法的法律屬性的激烈而持續(xù)的討論
吳修銘(Tim Wu)認(rèn)為搜索引擎并非屬于第一修正案所保護(hù)的言論,他對(duì)法院將搜索結(jié)果等同于意見的觀點(diǎn)進(jìn)行了激烈地批評(píng)。(參見:Tim Wu,Machine Speech [J]. University of Pennsylvania Law Review,2013 , 161(6):1525-1531.)。
(二)算法作為商業(yè)秘密
在美國刑事訴訟領(lǐng)域,算法廣泛運(yùn)用于預(yù)測(cè)個(gè)體是否會(huì)重新犯罪,以及是否到庭,從而影響定罪、量刑以及保釋。一些公司開發(fā)了輔助量刑工具,目前在美國有三種風(fēng)險(xiǎn)評(píng)估軟件,COMPAS, PSA和LSI-R,超過一半以上的州利用它們來輔助法官量刑。在算法的幫助下可以借助其預(yù)測(cè)功能來降低羈押率,提高法官裁判的公正性和效率。這種運(yùn)用算法來輔助法官自由裁量的做法引發(fā)了廣泛的討論和批評(píng),在算法的準(zhǔn)確性、算法考慮不相關(guān)的社會(huì)因素以及算法的正當(dāng)程序三個(gè)方面引發(fā)了普遍的質(zhì)疑[11] 。2016年的威斯康星州的Loomis案對(duì)這些問題進(jìn)行了司法上的回應(yīng)。
在State v. Loomis, 881 N.W. 2d 749 (Wisconsin, 2016)一案中,魯米斯因駕車槍擊案而遭受刑事指控。威斯康星州法院在量刑的時(shí)候借助了Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) 軟件, 并基于COMPAS的評(píng)估判處魯米斯六年監(jiān)禁外加五年監(jiān)外執(zhí)行。魯米斯以法院對(duì)COMPAS評(píng)估的依賴侵犯了他的正當(dāng)程序權(quán)利和平等保護(hù)權(quán)為由提起上訴;具體到刑事案件,被告有獲得個(gè)別化量刑考量和基于準(zhǔn)確信息量刑的權(quán)利,而COMPAS評(píng)估報(bào)告提供的內(nèi)容是類型化的,無法充分考慮個(gè)人特殊性,而且NORTHPOINTE主張COMPAS算法是公司的商業(yè)秘密,無法校驗(yàn)它的客觀性和可靠性。威斯康辛州最高法院認(rèn)為,性別作為參數(shù)進(jìn)入算法,其目的是為了算法準(zhǔn)確性而非為了歧視,因此沒有侵犯被告的平等權(quán)。其次,COMPAS所分析的數(shù)據(jù)依賴于公開的刑事犯罪記錄和被告提供的數(shù)據(jù)。被告有機(jī)會(huì)驗(yàn)證數(shù)據(jù)的準(zhǔn)確性,他對(duì)可靠性的挑戰(zhàn)是沒有依據(jù)的。最后,由于評(píng)估結(jié)論并非法院量刑的唯一依據(jù),法院所要求的個(gè)別化對(duì)待的權(quán)利得到了保障。
從本案判決可以看出,在算法公平和商業(yè)秘密之間,法院在這個(gè)案件中站在了商業(yè)秘密一邊,法院并沒有要求企業(yè)公布算法參數(shù)和模型。這一司法立場(chǎng)有助于促進(jìn)技術(shù)創(chuàng)新和人工智能產(chǎn)業(yè)的發(fā)展。但算法公平性的問題仍然懸而未決。
當(dāng)認(rèn)為算法會(huì)帶來歧視性的結(jié)果的時(shí)候,根本原因在于作為算法基礎(chǔ)的數(shù)據(jù)中隱含著民族、種族和性別的偏見。Anupam Chander認(rèn)為算法透明沒有辦法改變這種輸入性的歧視,有效的補(bǔ)救措施應(yīng)當(dāng)是,設(shè)計(jì)算法的時(shí)候必須擁有充分的意識(shí),考慮到現(xiàn)有數(shù)據(jù)中潛藏著的歧視[12]。作為算法決策的一種表現(xiàn)形式,利用大數(shù)據(jù)對(duì)個(gè)人打分,決定我們是否是可信賴的貸款者,勤勉的員工,可靠的房客,高價(jià)值的消費(fèi)者。Danielle Keats Citron和Frank Pasquale主張,正當(dāng)程序應(yīng)該要為此類的人工智能評(píng)分系統(tǒng)可能帶來的歧視提供基本保障,監(jiān)管者應(yīng)當(dāng)可以檢測(cè)系統(tǒng)以確保其公平性和正確性,個(gè)人有權(quán)要求糾正對(duì)他們進(jìn)行錯(cuò)誤分類而帶來不利影響的機(jī)器決策。缺乏正當(dāng)程序的保護(hù),偏見和武斷的數(shù)據(jù)基礎(chǔ)上的算法必然帶來污名化的后果[13]。
三、人工智能的源頭規(guī)制:數(shù)據(jù)權(quán)利與免于自動(dòng)化決策
2018年5月25日正式實(shí)施的歐盟《一般數(shù)據(jù)保護(hù)條例》是迄今為止關(guān)于個(gè)人數(shù)據(jù)保護(hù)范圍最為廣泛,權(quán)利類型最為多樣的立法 參見:京東法律研究院.歐盟數(shù)據(jù)憲章:《一般數(shù)據(jù)保護(hù)條例》GDPR評(píng)述及實(shí)務(wù)指引[M].北京:法律出版社,2018.關(guān)于該保護(hù)條例的介紹,以及與數(shù)據(jù)保護(hù)相關(guān)的隱私預(yù)期和風(fēng)險(xiǎn)規(guī)制,參見:丁曉東.什么是數(shù)據(jù)權(quán)利?——從歐洲《一般數(shù)據(jù)保護(hù)條例》看數(shù)據(jù)隱私的保護(hù).華東政法大學(xué)學(xué)報(bào)[J],2018(4):39-53.。它通過訪問權(quán)、修改權(quán)、刪除權(quán)、可攜帶權(quán)等具體權(quán)利的規(guī)定確立了個(gè)人數(shù)據(jù)決定權(quán)。作為權(quán)利束,個(gè)人數(shù)據(jù)決定權(quán)內(nèi)容廣泛多樣。這一權(quán)利束中的內(nèi)容除了可攜帶權(quán)有利于在人工智能企業(yè)之間形成競(jìng)爭、促進(jìn)產(chǎn)業(yè)發(fā)展之外,其他的權(quán)利都對(duì)人工智能的發(fā)展構(gòu)成了直接的限制。
《一般數(shù)據(jù)保護(hù)條例》更賦予數(shù)據(jù)主體以免于自動(dòng)化決策的權(quán)利,這是對(duì)算法黑箱和程序不正義的直接排除 Seth Katsuya Endo, Technological Opacity & Procedural Injustice [J]. Boston College Law Review 2018, 59(3):821. Endo描述了不透明的技術(shù)如何侵蝕了正當(dāng)程序和民眾參與的規(guī)范。關(guān)于人工智能問題,始終存在著鼓勵(lì)創(chuàng)新和權(quán)利保護(hù)之間的平衡,歐盟數(shù)據(jù)保護(hù)通則顯然傾向了后者,而歐盟沒有領(lǐng)先的全球性互聯(lián)網(wǎng)企業(yè)也從一個(gè)側(cè)面說明了歐洲法律政策的取舍。對(duì)于這個(gè)問題的討論,可以參見:鄭戈.在鼓勵(lì)創(chuàng)新與保護(hù)人權(quán)之間:法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn).探索與爭鳴[J],2016(7):79-85.。在當(dāng)代人的生活中,自動(dòng)化決策扮演著越來越重要的角色,從貸款、投資、雇傭乃至交友,都成為算法決定的對(duì)象 [14]?!稐l例》21條明確規(guī)定:“數(shù)據(jù)主體有權(quán)根據(jù)其特殊情況,在個(gè)人數(shù)據(jù)被處理的過程中行使反對(duì)數(shù)據(jù)畫像的權(quán)利。在以直接營銷為目的個(gè)人數(shù)據(jù)處理活動(dòng)中,數(shù)據(jù)主體有權(quán)隨時(shí)反對(duì)因?yàn)樵撋虡I(yè)行為目的處理其個(gè)人數(shù)據(jù),包括有權(quán)反對(duì)與直接營銷有關(guān)的數(shù)據(jù)畫像。數(shù)據(jù)主體反對(duì)因直接營銷目的處理數(shù)據(jù)的,個(gè)人數(shù)據(jù)不得再因該目的被處理。首次與數(shù)據(jù)主體溝通時(shí),第一款和第二款所述的權(quán)利應(yīng)該明確提請(qǐng)數(shù)據(jù)主體注意,且明確將該權(quán)利與任何其他的信息相區(qū)分。在信息社會(huì)服務(wù)的情況下,盡管歐盟2002《隱私和電子通信指令》另有規(guī)定,數(shù)據(jù)主體可以通過自動(dòng)化方式,基于技術(shù)規(guī)范行使其反對(duì)權(quán)。根據(jù)本條例第89條第1款所述的個(gè)人數(shù)據(jù)因科學(xué)、歷史研究或統(tǒng)計(jì)的目的被處理的,數(shù)據(jù)主體有權(quán)在特定情形下反對(duì)處理其個(gè)人數(shù)據(jù),除非這種處理對(duì)執(zhí)行公共利益的任務(wù)是必要的?!钡?2條進(jìn)一步明確,如果某種包括數(shù)據(jù)畫像在內(nèi)自動(dòng)化決策會(huì)對(duì)數(shù)據(jù)主體產(chǎn)生法律效力或者造成類似的重大影響,數(shù)據(jù)主體有權(quán)不受上述決策的限制。
根據(jù)第29條工作組指引,在下述情形中,不得使用自動(dòng)化決策。比如解除合同;對(duì)法律所提供的某一具體的社會(huì)福利的獲取或喪失;嬰幼兒補(bǔ)貼或住房補(bǔ)貼;拒絕入境某個(gè)國家或者是否認(rèn)公民身份。上述情形具有的共同特點(diǎn)就是自動(dòng)化決策已經(jīng)影響到行政相對(duì)人的權(quán)利義務(wù)。
除了第21條的規(guī)定之外,《一般數(shù)據(jù)保護(hù)條例》“序言”(又稱為“鑒于”條款)第71條規(guī)定,數(shù)據(jù)主體應(yīng)有免于受制于自動(dòng)化處理手段對(duì)其個(gè)人進(jìn)行精準(zhǔn)評(píng)價(jià),以及對(duì)其產(chǎn)生法律效果或重要影響的情況,比如,自動(dòng)拒絕無人介入的在線信用申請(qǐng)或電子招聘。該等處理包括“用戶畫像”,包含任何形式的個(gè)人數(shù)據(jù)自動(dòng)化處理以對(duì)自然人進(jìn)行精準(zhǔn)評(píng)價(jià),特別是對(duì)自然人產(chǎn)生法律效果或重要影響的,針對(duì)于自然人的工作表現(xiàn)、經(jīng)濟(jì)狀況、健康狀況、個(gè)人偏好、興趣、信譽(yù)、行為習(xí)慣、位置或行蹤相關(guān)的分析和預(yù)測(cè)。該條進(jìn)一步規(guī)定,任何情況下,這些數(shù)據(jù)處理應(yīng)當(dāng)有適當(dāng)?shù)谋Wo(hù)措施,包括獲得認(rèn)為干預(yù)的權(quán)利、表達(dá)觀點(diǎn)的權(quán)利、評(píng)估后達(dá)成決定的解釋權(quán)以及獲得救濟(jì)的權(quán)利。盡管按照歐洲的法律慣例,立法的背景/序言條款具有幫助理解條款意涵的目的,并不具有直接的法律效力。學(xué)界有觀點(diǎn)指出,該條結(jié)合第22條、以及第13、14條關(guān)于數(shù)據(jù)主體知情權(quán)的規(guī)定,可以認(rèn)定GDPR規(guī)定了自動(dòng)決策的可解釋權(quán):數(shù)據(jù)主體有權(quán)要求對(duì)自動(dòng)決策的算法進(jìn)行解釋,有權(quán)在不滿意算法決策的時(shí)候選擇退出該《條例》是否賦予了算法解釋權(quán)帶來了廣泛的爭議。相反觀點(diǎn)可以參見騰訊研究院(編).《歐盟〈通用數(shù)據(jù)保護(hù)條例〉詳解》[M], 2018:25-26.該書并不認(rèn)為該《條例》賦予了數(shù)據(jù)主體以算法解釋權(quán),也不認(rèn)同這些條款對(duì)數(shù)據(jù)權(quán)利的保護(hù)會(huì)導(dǎo)致深度學(xué)習(xí)違法。。
歐盟《一般數(shù)據(jù)保護(hù)條例》涉及到人工智能數(shù)據(jù)保護(hù)和隱私權(quán)利的所有面向?!稐l例》區(qū)分一般數(shù)據(jù)和敏感數(shù)據(jù),對(duì)后者進(jìn)行更為嚴(yán)格的保護(hù)。第9條明確,除非各成員國立法授權(quán),辨識(shí)種族或民族出身、政治觀點(diǎn)、宗教或哲學(xué)信仰、工會(huì)成員的個(gè)人數(shù)據(jù)以及以識(shí)別自然人為目的的基因數(shù)據(jù)、生物特征數(shù)據(jù)、健康數(shù)據(jù)、自然人的性生活或性取向的數(shù)據(jù)的處理應(yīng)當(dāng)禁止。
《條例》所確立的數(shù)據(jù)最小化原則對(duì)人工智能行業(yè)的發(fā)展有直接的影響。人工智能要精確和有效地服務(wù)其設(shè)計(jì)目的,就需要處理大量的數(shù)據(jù)以實(shí)現(xiàn)持續(xù)的機(jī)器學(xué)習(xí)的目的。為了實(shí)現(xiàn)歐盟《一般數(shù)據(jù)保護(hù)條例》所要求的數(shù)據(jù)最小化原則,企業(yè)必須闡明它們?yōu)槭裁葱枰占吞幚頂?shù)據(jù),以及它們進(jìn)行數(shù)據(jù)處理獲得了什么成果。這就相當(dāng)于要求企業(yè)證明收集是具有相關(guān)性的,滿足了必要原則,沒有進(jìn)行過度收集??紤]到大數(shù)據(jù)是算法的燃料,對(duì)數(shù)據(jù)的監(jiān)管實(shí)際上從源頭影響到人工智能行業(yè)的發(fā)展。歐盟也清楚地意識(shí)到了這一點(diǎn),所以在出臺(tái)全世界關(guān)于個(gè)人數(shù)據(jù)保護(hù)最為嚴(yán)格的立法《一般數(shù)據(jù)保護(hù)條例》之后不久,歐盟又推出了《非個(gè)人數(shù)據(jù)自由流動(dòng)條例》,鼓勵(lì)和促進(jìn)非個(gè)人數(shù)據(jù)的自由流動(dòng)和共享,禁止數(shù)據(jù)本地化要求,以推動(dòng)建立統(tǒng)一的歐洲數(shù)字市場(chǎng)。
四、法律的人工智能規(guī)制
人工智能技術(shù)的發(fā)展為法律規(guī)制提出了現(xiàn)實(shí)要求,而法律領(lǐng)域也越來越深刻地受到人工智能的影響,法律和科技人員的合作將成為常態(tài)[15]。法律人向技術(shù)人員解釋法律規(guī)則的要求,而技術(shù)人員在設(shè)計(jì)產(chǎn)品的時(shí)候要將法律規(guī)則考慮進(jìn)去。
《一般數(shù)據(jù)保護(hù)條例》的默認(rèn)隱私原則展示了大數(shù)據(jù)時(shí)代人工智能技術(shù)對(duì)于立法行為的本質(zhì)性改變,我們可以將法律所追求的價(jià)值和原則嵌入式地植入產(chǎn)品中。法律規(guī)制體系也將發(fā)生重要的變革,將從對(duì)事物的規(guī)制轉(zhuǎn)變成對(duì)代碼的規(guī)制[16]。默認(rèn)隱私原則帶來的設(shè)計(jì)隱私就是這一變革最為重要的體現(xiàn)?;ヂ?lián)網(wǎng)巨頭企業(yè)在其人工智能倫理的主張中也體現(xiàn)了默認(rèn)隱私或默認(rèn)倫理的訴求,比如谷歌公司在其關(guān)于人工智能技術(shù)開發(fā)的原則中也包含設(shè)計(jì)隱私的內(nèi)容。
就司法而言,通過智慧司法提升司法效率,促進(jìn)司法公平是這一輪司法改革最為重要的目標(biāo)和特點(diǎn)。最近增設(shè)北京互聯(lián)網(wǎng)法院、廣州互聯(lián)網(wǎng)法院更是將其意蘊(yùn)拓展到了網(wǎng)絡(luò)治理主權(quán)的層面。就司法領(lǐng)域的人工智能而言[17],它對(duì)算法歧視和算法黑箱的回應(yīng)更為急迫,如何以平等原則和正當(dāng)程序回應(yīng)算法歧視和算法黑箱將是司法人工智能領(lǐng)域的持久性話題[18] 。
在執(zhí)法領(lǐng)域,因?yàn)樽詣?dòng)化決策的普及,將會(huì)出現(xiàn)法律的自動(dòng)執(zhí)行。2018年,深圳為了優(yōu)化營商環(huán)境,利用互聯(lián)網(wǎng)技術(shù)提升政務(wù)服務(wù)水平,就普通高校畢業(yè)生落戶深圳實(shí)現(xiàn)秒批(無人干預(yù)自動(dòng)審批)
參見深圳市人民政府辦公廳.關(guān)于印發(fā)《深圳市普通高校應(yīng)屆畢業(yè)生引進(jìn)和落戶“秒批”(無人干預(yù)自動(dòng)審批)工作方案》的通知(2018).。這是法律自動(dòng)執(zhí)行的生動(dòng)形象的例子。無人干預(yù)自動(dòng)審批可以被看成是全自動(dòng)具體行政行為的表現(xiàn)形式。全自動(dòng)行政導(dǎo)致具體行政行為成立要件中行政主體的意思表示的缺失,大量行政法上的程序權(quán)利被自動(dòng)化決策所架空,這需要加強(qiáng)自動(dòng)化決策方面的行政立法,以實(shí)現(xiàn)人工智能的運(yùn)用和公民權(quán)利保護(hù)的平衡[19]。法律自動(dòng)化執(zhí)行的過程中,可以借鑒歐盟的經(jīng)驗(yàn),當(dāng)決策涉及到減損公民權(quán)利或增加公民義務(wù)的時(shí)候,公民有免于自動(dòng)化決策的權(quán)利。
結(jié)?語
總的來說,并不存在關(guān)于人工智能的一般化的法律規(guī)制。相關(guān)的法律規(guī)制應(yīng)當(dāng)是和具體場(chǎng)景結(jié)合起來的,存在立法、司法和技術(shù)的三種形式。以此作為對(duì)中國、美國和歐盟的人工智能法律規(guī)制主要模式的概括,略去了這三個(gè)法域?qū)θ斯ぶ悄芤?guī)制時(shí)候可能兼采的其他形式。比如,美國也存在大量的對(duì)數(shù)據(jù)和隱私保護(hù)的聯(lián)邦和州立法,和通過司法規(guī)制人工智能形成互補(bǔ),相得益彰。
我國目前采用的是一種分散式立法的方式,在《電子商務(wù)法》《數(shù)據(jù)安全管理辦法》《金融機(jī)構(gòu)資理業(yè)務(wù)指導(dǎo)意見》等不同層級(jí)的法律淵源的具體條款中涉及到了對(duì)人工智能的法律規(guī)制。本文通過這些法律規(guī)范的分析初步勾勒出我國對(duì)人工智能進(jìn)行法律規(guī)制的路徑,這并不意味著它能夠或已經(jīng)窮盡我國法律對(duì)人工智能/算法的規(guī)制。除了上述立法之外,總體來說,人工智能時(shí)代+的特點(diǎn)并沒有能夠很好地反映到立法中。當(dāng)務(wù)之急是修改現(xiàn)有的法律,使得它能夠兼容大數(shù)據(jù)和人工智能技術(shù)在具體領(lǐng)域和場(chǎng)景中的應(yīng)用,對(duì)數(shù)據(jù)處理商和法院信息部門在法院司法決策中日益重要的位置予以正視[20]。就本文討論的內(nèi)容而言,《證券法》第171條《證券投資顧問業(yè)務(wù)暫行規(guī)定》第12條規(guī)定,證券投資咨詢機(jī)構(gòu)不得代理委托人做出投資決策。因此,智能投顧和禁止證券投資咨詢?nèi)珯?quán)委托的規(guī)定存在沖突。智能投顧的高度智能化意味著在投資建議、指令執(zhí)行、自動(dòng)調(diào)倉等環(huán)節(jié)具有聯(lián)動(dòng)性和連續(xù)性,這只有在全權(quán)委托條件下才能實(shí)現(xiàn)[21]。《民事訴訟法》也需要進(jìn)行修訂或出臺(tái)互聯(lián)網(wǎng)管轄方面的司法解釋,使得互聯(lián)網(wǎng)法院的管轄、審理、送達(dá)等具體運(yùn)作的環(huán)節(jié)上能夠?qū)崿F(xiàn)網(wǎng)上受理,網(wǎng)上審理,網(wǎng)上執(zhí)行的目標(biāo)
2018年9月6日,最高人民法院通過了《關(guān)于互聯(lián)網(wǎng)法院審理案件若干問題的規(guī)定》,以司法解釋的方式從制度上對(duì)這個(gè)問題進(jìn)行了初步的回應(yīng)。該司法解釋在總結(jié)杭州互聯(lián)網(wǎng)法院實(shí)踐的基礎(chǔ)上,規(guī)定了法院的受案范圍、建立了在線訴訟平臺(tái)、完善了網(wǎng)絡(luò)訴訟規(guī)則。。《道路交通安全法》需要進(jìn)行相應(yīng)的調(diào)整,以兼容現(xiàn)有的無人駕駛技術(shù)。
歐盟的進(jìn)路實(shí)際上抓住了人工智能的本質(zhì)。歐盟《一般數(shù)據(jù)保護(hù)條例》以源頭治理的方式,從個(gè)人對(duì)數(shù)據(jù)的自決權(quán)出發(fā)建構(gòu)個(gè)人數(shù)據(jù)權(quán)利體系,從而直接影響到人工智能的產(chǎn)品設(shè)計(jì)和技術(shù)發(fā)展。所有的人工智能都是建立在算法和算力的基礎(chǔ)上的。算法的燃料就是大數(shù)據(jù)。當(dāng)對(duì)數(shù)據(jù)進(jìn)行嚴(yán)格保護(hù)的時(shí)候,其實(shí)就在源頭對(duì)人工智能進(jìn)行了規(guī)制。
參考文獻(xiàn):
[1] Frank Easterbrook.Cyberspace and the Law of Horse[J]. University of Chicago Legal Forum,1996: 207-216.
[2] 李晟. 略論人工智能語境下的法律轉(zhuǎn)型[J].法學(xué)評(píng)論,2018(1):106.
[3] Anjanete H. Raymond. Information and the Regulatory Landscape: A Growing Need to Reconsider Existing Legal Frameworks[J]. Washington and Lee Journal of Civil Rights and Social Justice ,2018, 24 (2).
[4] 方師師.算法如何重塑新聞業(yè):現(xiàn)狀、問題與規(guī)制[J].新聞與寫作,2018(9):11-19.
[5] 吳燁,葉林.“智能投顧”的本質(zhì)及規(guī)制路徑[J].法學(xué)雜志,2018(5):22.
[6] 高絲敏.智能投顧模式中的主體識(shí)別和義務(wù)設(shè)定[J].法學(xué)研究,2018(5):40-57.
[7] 張家林.監(jiān)管科技(Reg Tech)發(fā)展及其應(yīng)用研究——以智能投顧為例[J].金融監(jiān)管研究,2018(6):76-93.
[8] 胡凌.人工智能的法律想象[J].文化縱橫,2017(4):108-116.
[9] 左亦魯.算法與言論——美國的理論與實(shí)踐[J].環(huán)球法律評(píng)論,2018(5):122-139.
[10] Veenu Goswami.Algorithms, Expression and the Charter[J]. A Way Forward For Canadian Courts.Western Journal of Legal Studies ,2017,1(1):3-17.
[11] 李本.美國司法實(shí)踐中的人工智能:問題與挑戰(zhàn)[J].中國法律評(píng)論,2018(2):54-55.
[12]Anupam Chander. The Racist Algorithm [J]. Michigan Law Review ,2017,115(6):1027.
[13]Dianelle Keats Citron & Frank Pasquale. The Scored Society: Due Process for Automated Predictions[J]. Washington Law Review ,2014,89:1.
[14] Danielle Keats Citron. Technological Due Process[J]. Washington University Law Review, 2008, 85(6):1249.
[15] 鄭戈.算法的法律與法律的算法,[J].中國法律評(píng)論,2018(2):75.
[16] Paul Ohm, Blake Reid. Regulating Software When Everything Has Software[J]. George Washington Law Review ,2016, 84(6):1672-1702.
[17] 吳習(xí)彧.司法裁判人工智能化的可能性及問題[J].浙江社會(huì)科學(xué),2017(4):51-56.
[18] Pauline T. Kim. Auditing Algorithms for Discrimination [J]. University of Pennsylvania Law Review Online ,2017,166 :189.
[19] 查云飛.人工智能時(shí)代全自動(dòng)具體行政行為研究[J].比較法研究,2018(5):167-179.
[20] 季衛(wèi)東.人工智能時(shí)代的司法權(quán)之變[J].東方法學(xué),2018 (1):133.
[21] 李文莉, 楊玥捷.智能投顧的法律風(fēng)險(xiǎn)及監(jiān)管建議[J].法學(xué), 2017(8): 17.