胡潔人 施子涵
當前,人工智能成為新一輪科技革命的重要方向。人工智能產(chǎn)業(yè)的發(fā)展對于全球智能制造的產(chǎn)業(yè)升級、探索新的經(jīng)濟增長引擎有著積極的作用。與此同時,人工智能的高速發(fā)展也為個人隱私保護、網(wǎng)絡(luò)安全、知識產(chǎn)權(quán)保護等帶來了新的挑戰(zhàn)。世界各國、各地區(qū)已意識到了上述問題,并已經(jīng)就人工智能的法律監(jiān)管開展了有益探索。本文將介紹歐盟、日本對人工智能的法律監(jiān)管實踐,為我國人工智能的監(jiān)管與規(guī)制提供可供參考的域外經(jīng)驗。
作為人工智能發(fā)展的先進地區(qū),歐洲對于人工智能的法律規(guī)制起步較早。2016年5月,歐盟議會法律事務(wù)委員會發(fā)布了《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》。2017年2月16日,歐盟議會法律事務(wù)委員會通過了全球首個“關(guān)于制定機器人民事法律規(guī)制的決議”。在決議中,歐盟法律事務(wù)委員會從長計議,提出了關(guān)于人工智能法律地位的規(guī)劃。歐盟法律事務(wù)委員會分析了人工智能的特征,認為人工智能具備通過交換數(shù)據(jù)獲得自主性的能力、在交互中不斷學習的能力以及根據(jù)環(huán)境調(diào)整自己行為的能力。對于部分人工智能已經(jīng)發(fā)展出了某些自主和認知能力的情況,歐盟考慮到之后人工智能可能涉及的責任分配問題,提議對高級的人工智能建立登記準入制度,同時賦予其電子人格以促進這類人工智能的登記。近年來,歐盟法律事務(wù)委員會對于人工智能可能帶來的風險類型作出劃分。2021年4月12日,歐盟委員會在其《人工智能法案》提案中進一步細化了人工智能準入標準,將人工智能系統(tǒng)分成四個風險級別,分別是不可接受的風險、高風險、有限風險和極低風險,每個風險類別都有相應(yīng)的應(yīng)用場景和監(jiān)管措施,具體分類情形如下:
首先是不可接受的風險級別。其具體應(yīng)用場景包括采用潛意識技術(shù)或有目的的操縱或欺騙技術(shù)明顯損害或?qū)嵸|(zhì)性扭曲人的行為和能力的系統(tǒng)、利用個人或社會群體的弱點或已知的人格特征或社會經(jīng)濟狀況用于損害或?qū)嵸|(zhì)性扭曲該人或該群體的系統(tǒng)、利用人的社會行為或人格特征進行社會評分并對個人造成有害后果或歧視性待遇的系統(tǒng)、在公眾場所的“實時”遠程生物識別系統(tǒng)等。上述系統(tǒng)在《人工智能法案》的監(jiān)管下是被完全禁止的。
人工智能成為新一輪科技革命的重要方向
其次是高風險級別。其具體應(yīng)用場景包括:(1)在歐盟統(tǒng)一立法規(guī)制范圍內(nèi)作為產(chǎn)品的安全組件或本身屬于產(chǎn)品且其需要第三方符合性評估機構(gòu)開展評估的AI系統(tǒng);(2)涉及生物識別和分類、可能威脅人的生命和健康的關(guān)鍵基礎(chǔ)設(shè)施、可能決定人的受教育機會或職業(yè)培訓、就業(yè)、員工管理和獲得自營職業(yè)、獲得和享受基本的私人和公共服務(wù)、可能影響人的基本權(quán)利的執(zhí)法活動、移民、庇護和邊境控制管理、司法和民主程序等領(lǐng)域,且符合分級標準的獨立人工智能系統(tǒng)。針對上述高風險AI系統(tǒng),歐盟《人工智能法案》允許相關(guān)主體在履行事前評估等義務(wù)后投放市場或投入使用,并進行事中、事后的持續(xù)監(jiān)測。
再次是有限風險級別。與人類互動的系統(tǒng)、情緒識別系統(tǒng)、生物特征分類系統(tǒng)、生成或操縱內(nèi)容系統(tǒng)均被歸為有限風險級別的人工智能系統(tǒng)。針對上述系統(tǒng),歐盟《人工智能法案》雖然不要求相應(yīng)主體履行事前評估等義務(wù),但其仍需遵循相應(yīng)的透明度義務(wù)。
最后是極低風險級別。極低風險級別的人工智能系統(tǒng)包括允許自由使用人工智能電子游戲、垃圾郵件過濾器等,由于上述系統(tǒng)在客觀上風險極低,故歐盟《人工智能法案》允許相應(yīng)主體依據(jù)自由意志部署和使用。
近年來,世界各國、各地區(qū)的人工智能開發(fā)機構(gòu)或公司已在或?qū)⒏叭毡鹃_設(shè)據(jù)點,其中既有專注于人工智能底層技術(shù)的研究機構(gòu)或公司,也有聚焦生成式人工智能(AI繪畫等)、醫(yī)療人工智能(CAD、輔助診療)等特定領(lǐng)域的初創(chuàng)公司。之所以日本會受到人工智能開發(fā)者的青睞,成為開發(fā)者們的出海目的地,是因為其采取了開放包容的人工智能監(jiān)管模式,日本也因此被世界各國、各地區(qū)的人工智能開發(fā)者視為“天堂”。
宏觀而言,首先,日本目前并無一部專門規(guī)制人工智能的法律,只有在特定的應(yīng)用場域下,如人工智能的開發(fā)、學習、訓練、生成、創(chuàng)作、運用,相關(guān)法律中的條文才能夠被適用,這些條文零散分布于日本的著作權(quán)法、個人信息保護法、醫(yī)生法、律師法等法律之中。其次,由于上述這些條文內(nèi)容繁雜,且原則性規(guī)定較多、實用性較弱,所以日本各政府部門多結(jié)合自身主管領(lǐng)域的特定應(yīng)用場域,自行制定了一些政策性文件、指導性文件。由于此類文件制定主體不一,因此觀點也各異,有些是從人工智能開發(fā)者的立場出發(fā),有些則是站在人工智能使用者的角度進行考量。
日本在2018年討論修改著作權(quán)法時,立法者在保護著作權(quán)人權(quán)利與鼓勵人工智能產(chǎn)業(yè)發(fā)展中,選擇了促進人工智能產(chǎn)業(yè)發(fā)展。
微觀來看,日本對于數(shù)據(jù)保護領(lǐng)域、特定身份職業(yè)資質(zhì)領(lǐng)域中人工智能的監(jiān)管,與世界各國的差異并不大,并無足以使其成為開發(fā)者天堂的特別之處。但是在知識產(chǎn)權(quán)領(lǐng)域,尤其是著作權(quán)保護領(lǐng)域,日本對于人工智能的監(jiān)管則與眾不同。
需要說明的是,人工智能從其被開發(fā)到投入應(yīng)用大體可以被分為兩個階段:第一階段為學習、訓練階段,也被稱為開發(fā)階段;第二階段為生成、創(chuàng)作階段,也被稱為應(yīng)用階段。在第二階段中,日本也沒有給予人工智能開發(fā)者、使用者特殊豁免,著作權(quán)侵權(quán)的認定思路以及懲罰措施與其他國家也并無區(qū)別。其監(jiān)管的特殊之處,主要集中在人工智能的開發(fā)階段。
根據(jù)日本著作權(quán)法的規(guī)定,在人工智能的開發(fā)、學習、訓練過程中使用作品的,無需取得著作權(quán)人的同意。也就是說,用于人工智能進行機器學習、深度學習的材料,即便是具有著作權(quán)的作品,如文字作品、美術(shù)作品等,無論該種機器學習、深度學習是否以營利為目的,就算相關(guān)主體未取得著作權(quán)人的同意,也不會侵犯相關(guān)作品權(quán)利人的著作權(quán)。之所以日本采取如此程度的寬松監(jiān)管,主要是因為其在2018年討論修改著作權(quán)法時,立法者在保護著作權(quán)人權(quán)利與鼓勵人工智能產(chǎn)業(yè)發(fā)展中,選擇了促進人工智能產(chǎn)業(yè)發(fā)展,意圖引領(lǐng)人工智能產(chǎn)業(yè)蓬勃發(fā)展,故而采取了該種立法模式。
雖然日本業(yè)界對立法所存在的著作權(quán)人權(quán)利保護不周問題也提出了質(zhì)疑,但目前日本政府并無調(diào)整監(jiān)管思路的意思或行動,反而有意繼續(xù)維持發(fā)達國家中相對寬松的人工智能開發(fā)、學習監(jiān)管環(huán)境,堅持以開放包容的人工智能監(jiān)管模式歡迎海外人工智能開發(fā)者的到來。
(胡潔人,浙江大學城市學院法學院特聘研究員、博士生導師;施子涵,同濟大學法學院碩士研究生)
編輯:薛華? ? icexue0321@163.com