□文/曹建峰
10大建議!看歐盟如何預(yù)測AI立法新趨勢
□文/曹建峰
法律,是人類社會正常運行的規(guī)范,當(dāng)然對于AI也不例外。相對于人工智能的發(fā)展速度,法律總是略顯緩慢,這使得人們開始擔(dān)心缺少法律規(guī)范的AI是否對人類社會產(chǎn)生不可預(yù)測的影響。因此,提前制定AI趨勢的法律規(guī)范對AI發(fā)展具有良好的推動作用,而在這一方面,歐盟快人一步,率先開始考慮人工智能民事立法,并提出十項立法建議,旨在建立良好的AI發(fā)展環(huán)境。下面,跟隨這十項建議,讓我們一起解讀AI立法新趨勢。
2016年以來,人工智能不僅受到科技公司熱捧,人工智能在智力游戲、自動駕駛、語音和圖像識別、翻譯等諸多領(lǐng)域取得重大突破,谷歌、臉書、微軟等科技巨頭收購人工智能創(chuàng)業(yè)公司的速度已經(jīng)快趕上這些公司的創(chuàng)立速度。而且,各國政府(比如美國、英國等)以及一些社會公共機構(gòu)(比如UN、IEEE等)開始積極關(guān)注人工智能的法律、倫理、社會、經(jīng)濟等影響,密集出臺戰(zhàn)略文件和報告。
在人工智能法律和倫理研究方面,以UN和IEEE最為突出。2016年8月,UN下屬COMEST(科學(xué)知識和科技倫理世界委員會)發(fā)布《機器人倫理初步報告草案》,認(rèn)為機器人不僅需要尊重人類社會的倫理規(guī)范,而且需要將特定倫理準(zhǔn)則編寫進機器人中。2016年12月,IEEE發(fā)布《合倫理設(shè)計:利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景(第一版)》,就一般原則、倫理、方法論、通用人工智能(AGI)和超級人工智能(ASI)的安全與福祉、個人數(shù)據(jù)、自主武器系統(tǒng)、經(jīng)濟/人道主義問題、法律等八大主題給出具體建議。
歐盟走得更遠(yuǎn),開始考慮針對機器人和人工智能出臺民事法律規(guī)則,并為人工智能研發(fā)和審查人員制定倫理守則,確保在整個研發(fā)和審查環(huán)節(jié)中,將人類價值予以考慮,使最終面向消費者和社會的機器人能夠符合人類利益。
早在2015年1月,歐盟議會法律事務(wù)委員會(JUR I)就決定成立一個工作小組,專門研究與機器人和人工智能發(fā)展相關(guān)的法律問題。2016年5月,法律事務(wù)委員會發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》(Draft R eport with R ecommendations to the Commission on Civil Law R ules on R obotics,簡稱《報告草案》);同年10月,發(fā)布研究成果《歐盟機器人民事法律規(guī)則》(European Civil Law R ules in R obotics)。
在這些報告和研究的基礎(chǔ)上,2017年1月12日,法律事務(wù)委員會以12票贊成、2票反對、2票棄權(quán),通過一份決議(resolution),在其中提出了一些具體的立法建議,要求歐盟委員會就機器人和人工智能提出立法提案(在歐盟只有歐盟委員會有權(quán)提出立法提案)。當(dāng)然,歐盟委員會并無義務(wù)遵守這一要求,但如果其拒絕這么做,就必須陳述其理由。2017年2月16日,歐盟議會以396票贊成、123票反對、85票棄權(quán),通過這份決議。可以預(yù)見,推進人工智能法律和倫理研究,包括可能的立法和監(jiān)管措施,未來將成為歐盟立法議程的一個核心。
曹建峰 碩士,騰訊研究院研究員,主要研究方向為網(wǎng)絡(luò)安全、網(wǎng)絡(luò)隱私、人工智能、網(wǎng)絡(luò)知識產(chǎn)權(quán)等
1、成立歐盟人工智能監(jiān)管機構(gòu)
人工智能的發(fā)展將會帶來很多新問題。法律事務(wù)委員會呼吁成立一個專門負(fù)責(zé)機器人和人工智能的歐盟機構(gòu),負(fù)責(zé)就技術(shù)、倫理、監(jiān)管等問題提出專業(yè)知識,以更好抓住人工智能的新機遇,并應(yīng)對從中產(chǎn)生的挑戰(zhàn)。
考慮到人工智能的當(dāng)前發(fā)展和投資,需要給予這一新機構(gòu)充分預(yù)算,配備監(jiān)管人員以及外部的技術(shù)和倫理專家,對人工智能應(yīng)用開展跨領(lǐng)域、跨學(xué)科的監(jiān)測,確認(rèn)行業(yè)最佳實踐,并適時提出監(jiān)管措施。
2、需要人工智能倫理準(zhǔn)則
人工智能雖然可能賦能于人,帶來效率的提高;但是,相伴而來的人類安全、隱私、尊嚴(yán)、正義、自治、數(shù)據(jù)所有權(quán)等風(fēng)險,卻也不容忽視。因此,在機器人和人工智能的設(shè)計、研發(fā)、生產(chǎn)和利用過程中,需要一個指導(dǎo)性的倫理框架,確保其以符合法律、安全、倫理等標(biāo)準(zhǔn)的方式運作。比如,機器人設(shè)計者應(yīng)當(dāng)考慮一個“一鍵關(guān)閉”功能,以便可以在緊急情況下將機器人關(guān)閉。
在其《報告草案》中,法律事務(wù)委員會提出了所謂的“機器人憲章”(Charter onR obotics)。這一憲章針對人工智能科研人員和研究倫理委員會(R EC),提出了在機器人設(shè)計和研發(fā)階段需要遵守的基本倫理原則。對機器人科研人員而言,諸如人類利益、不作惡、正義、基本權(quán)利、警惕性、包容性、可責(zé)性、安全性、可逆性、隱私等都是需要認(rèn)真對待的事項。
此外,需要倫理審查委員會對人工智能設(shè)計和研發(fā)進行把關(guān),確保機器人符合人類社會的倫理、法律等規(guī)范;這個委員會應(yīng)當(dāng)是跨學(xué)科的,同時吸納男性和女性參與者。
3、重構(gòu)責(zé)任規(guī)則:強制保險機制和賠償基金
自動駕駛汽車、工業(yè)機器人、護理機器人等類型的人工智能產(chǎn)品可能完全或者部分脫離人類的控制,在這些人工智能產(chǎn)品具有自主學(xué)習(xí)、判斷和完善的能力的情況下,一旦對人類和財產(chǎn)造成損害,其設(shè)計者和開發(fā)者是否應(yīng)當(dāng)承擔(dān)嚴(yán)格責(zé)任,抑或承擔(dān)有限責(zé)任?當(dāng)具有自主學(xué)習(xí)能力的人工智能系統(tǒng)造成損害,讓其設(shè)計者和開發(fā)者承擔(dān)責(zé)任可能遭遇原因力(因果關(guān)系)和可預(yù)見性這兩大難題,這給既有的民事侵權(quán)責(zé)任規(guī)則帶來了挑戰(zhàn)。
對此,法律事務(wù)委員會提出了兩個建議:
第一個建議是,對機器人適用強制保險機制,這類似于針對機動車的強制險,由機器人的生產(chǎn)者或者所有者負(fù)責(zé)購買,以便對機器人造成的損害進行責(zé)任分配。
第二個建議是,設(shè)立賠償基金。這一制度有兩大目的,其一,對強制險未予覆蓋的損害進行賠償;其二,讓投資人、生產(chǎn)者、消費者等多方主體參與這一機制,從而形成賠償基金。
4、長期來看,考慮賦予復(fù)雜的自主機器人法律地位(電子人,electronic onic persons)的可能性
界定監(jiān)管對象(即智能自主機器人)是機器人立法的起點。對于智能自主機器人,法律事務(wù)委員會提出了四大特征:(1)通過傳感器或借助與其環(huán)境交換數(shù)據(jù)(互聯(lián)性)獲得自主性的能力,以及分析那些數(shù)據(jù);(2)從經(jīng)歷和交互中學(xué)習(xí)的能力;(3)機器人的物質(zhì)支撐形式;(4)因其環(huán)境而調(diào)整其行為和行動的能力。
此外,應(yīng)當(dāng)提出機器人分類標(biāo)準(zhǔn),并建立高級機器人登記制度,目的在于實現(xiàn)可追溯性,并促進進一步推薦性規(guī)范的落實。
在主體地位方面,機器人應(yīng)當(dāng)被界定為自然人、法人、動物還是物體?是否需要創(chuàng)造新的主體類型(電子人),以便復(fù)雜的高級機器人可以享有權(quán)利,承擔(dān)義務(wù),并對其造成的損害承擔(dān)責(zé)任?未來,隨著更復(fù)雜的機器人的出現(xiàn),需要就機器人的法律地位問題展開更多探討。
5、知識產(chǎn)權(quán)方面,明確人工智能的“獨立智力創(chuàng)造”(own intellectuuaall creattiioonn)
第一,法律事務(wù)委員會建議歐盟委員會就與軟硬件標(biāo)準(zhǔn)、代碼有關(guān)的知識產(chǎn)權(quán)提出一個更平衡的路徑,以便在保護創(chuàng)新的同時,也促進創(chuàng)新。
第二,對于計算機或者機器人創(chuàng)作的可版權(quán)作品,需要提出界定人工智能的“獨立智力創(chuàng)造”的標(biāo)準(zhǔn),以便可以明確版權(quán)歸屬。
6、注重隱私和數(shù)據(jù)保護
在針對人工智能和機器人制定政策時,應(yīng)當(dāng)按照必要性原則和比例原則,保障隱私和數(shù)據(jù)保護。在這一方面,需要進一步完善通過設(shè)計保護隱私(privacy by design)、默認(rèn)保護隱私(privacy by default)、知情同意、加密等概念的標(biāo)準(zhǔn)。
此外,當(dāng)個人數(shù)據(jù)成為“流通物”,各種服務(wù)可以就其進行交易,更頻繁的數(shù)據(jù)流動將成為可能,這可能帶來數(shù)據(jù)所有權(quán)等需要明確的新問題。需要特別強調(diào)的是,將個人數(shù)據(jù)作為“流通物”使用,在任何情況下都不得規(guī)避涉及隱私和數(shù)據(jù)保護的基本原則。
7、推進標(biāo)準(zhǔn)化工作和機器人的安全可靠性
一是標(biāo)準(zhǔn)化。國際層面,歐盟委員會應(yīng)繼續(xù)致力于技術(shù)標(biāo)準(zhǔn)的國際統(tǒng)一。歐盟層面,需要建立相應(yīng)的標(biāo)準(zhǔn)化框架,以免造成歐盟各成員國之間標(biāo)準(zhǔn)的不統(tǒng)一以及歐盟內(nèi)部市場的分裂。
二是機器人的安全可靠性。在現(xiàn)實場景中測試自動駕駛汽車等機器人技術(shù),對于識別和評估其潛在風(fēng)險是至關(guān)重要的。
8、針對具有特定用途的機器人和人工智能出臺特定規(guī)則
法律事務(wù)委員會呼吁就特定類型的機器人出臺特定監(jiān)管規(guī)則,也即,進行特殊立法。需要采取特殊立法的機器人類型包括,自動駕駛汽車、護理機器人、醫(yī)療機器人、無人機、人類修復(fù)和增強(human repair and enhancement,即,為修復(fù)和補足受損器官和人體功能而存在的機器人)。
9、關(guān)注人工智能的社會影響
機器人和人工智能的發(fā)展將導(dǎo)致重大社會變革,諸如工作崗位和結(jié)構(gòu)的變遷、人機交互對人類道德的影響(比如護理機器人和被看護者之間的情感關(guān)系)、教育等。法律事務(wù)委員會督促歐盟委員會密切追蹤這些趨勢,包括新的就業(yè)模式、稅收和社會系統(tǒng)(比如收入分配制度)的可行性等。
10、加強國際合作
當(dāng)前,機器人和人工智能在全球都是熱點中的熱點,被推到了投資和創(chuàng)業(yè)的風(fēng)口浪尖。在這樣的背景下,加強國際合作是十分可取的,一方面,諸如《維也納道路交通公約》《海牙交通事故公約》等相關(guān)國際協(xié)議需要修改。另一方面,需要針對機器人和人工智能尋求并確立新的國際標(biāo)準(zhǔn),以促進其更好地造福于人類。
手機掃碼閱讀
當(dāng)前,人工智能不僅是以互聯(lián)網(wǎng)為首的產(chǎn)業(yè)界競相追逐的對象,而且是世界范圍內(nèi)的公共政策熱議的焦點。無論是產(chǎn)業(yè)界領(lǐng)袖發(fā)出生存危機等擔(dān)憂,還是政府針對人工智能的法律、倫理、社會影響等問題頻發(fā)官方報告,抑或是學(xué)術(shù)界對人工智能歧視、偏見、不公正、責(zé)任等問題的熱議,都足以表明,人們在人工智能第三次發(fā)展浪潮之際,對人工智能對人類社會影響的擔(dān)憂幾乎超過了對以往任何科技(包括原子核技術(shù))的擔(dān)憂。
2017年1月,人工智能研究機構(gòu)Future of Life Institute召集人工智能、法律、倫理、哲學(xué)等領(lǐng)域眾多專家和學(xué)者召開2017阿西洛馬會議(2017 Asilomar conference),并形成了23條AI原則,作為AI研究、開發(fā)和利用的指南,截至目前,已經(jīng)有接近1000名人工智能研究人員為這些原則背書。而在此前,美國白宮、英國、IEEE、斯坦福大學(xué)(即AI100)等都嘗試出臺AI指南,確保人工智能以符合人類社會規(guī)范的方式運作,并服務(wù)于人類利益。此外,政府和企業(yè)背書并提供研究資金支持的人工智能法律、倫理等研究項目也在不斷增多。如前所述,歐盟等國家和地區(qū)針對機器人、人工智能或者自動駕駛汽車、無人機等特殊人工智能系統(tǒng)的立法和監(jiān)管也在緊鑼密鼓地進行著。
國外和國際上所有這些討論、研究、指南和立法都有助于幫助人們更好地認(rèn)知人工智能技術(shù)對諸如法律、道德、價值、稅收、收入分配、教育、就業(yè)等人類社會制度的影響,但是,正如對所有新興技術(shù)的恐慌和擔(dān)憂一樣,對人工智能的擔(dān)憂和規(guī)制也不能走過了頭,以免法律等規(guī)則成為阻礙人工智能創(chuàng)新和發(fā)展的桎梏。在這方面,美國白宮的人工智能報告就明智地認(rèn)識到,現(xiàn)在就對人工智能進行廣泛的監(jiān)管是不可取的。一方面,沒必要進行激進的監(jiān)管變革,另一方面,在必要性的前提下,以及在充分考慮人工智能的影響的基礎(chǔ)上,對人工智能進行漸進式監(jiān)管。