“控制既是效果也是導(dǎo)因,而認(rèn)為控制是某種由你來施展的概念是對于進(jìn)步的真正阻礙。”
一份文件、巨大挑戰(zhàn)
國務(wù)院在2017年7月8日印發(fā)了一份名為《新一代人工智能發(fā)展規(guī)劃》的通知,正式把以人工智能為導(dǎo)向的科技與經(jīng)濟(jì)發(fā)展列為中國未來的專注焦點(diǎn),列入國家戰(zhàn)略層面的系統(tǒng)布局,希望能借此強(qiáng)化自身的國際競爭力。其中,人工智能發(fā)展的戰(zhàn)略目標(biāo)是分成三個(gè)階段:首先要求人工智能的總體技術(shù)和應(yīng)用到2020年與世界先進(jìn)水平同步,相關(guān)產(chǎn)業(yè)成為新的重要經(jīng)濟(jì)增長點(diǎn),而相關(guān)技術(shù)應(yīng)用要成為改善民生的新途徑;繼而要求人工智能的基礎(chǔ)理論到2025年實(shí)現(xiàn)重大突破,其中的部分技術(shù)與應(yīng)用要達(dá)到世界領(lǐng)先水平,并成為帶動產(chǎn)業(yè)升級和經(jīng)濟(jì)轉(zhuǎn)型的主要?jiǎng)恿Γ蛔罱K則是要求人工智能的理論、技術(shù)與應(yīng)用總體在2030年達(dá)到世界領(lǐng)先水平,成為世界主要人工智能的創(chuàng)新中心,并讓智能經(jīng)濟(jì)、智能社會取得明顯成效,為躋身創(chuàng)新型國家前列、成為經(jīng)濟(jì)強(qiáng)國奠定重要基礎(chǔ)。1
《通知》對整個(gè)社會提出了一系列的巨大挑戰(zhàn):人們必須有效運(yùn)用以工智能作為未來社會經(jīng)濟(jì)發(fā)展的基礎(chǔ),否則即可能在競爭中面臨被淘汰的命運(yùn)。這意味著人們?nèi)粘I钆c行為模式的各種基礎(chǔ)設(shè)施,今后或?qū)⒚媾R一次乃至多次大規(guī)模的更新改版。例如,所有的鍋碗瓢杓、家用電器等日常用品以及各種交通工具都將全面“智能化”,給人們帶來前所未見的便利。
然而,這也意味著許多前未曾見的問題與挑戰(zhàn)將會出現(xiàn)。因此,《通知》明確要求必須“制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”,包括“相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。開展與人工智能應(yīng)用相關(guān)的民事與刑事責(zé)任確認(rèn)、隱私和產(chǎn)權(quán)保護(hù)、信息安全利用等法律問題研究,建立追溯和問責(zé)制度,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任等。重點(diǎn)圍繞自動駕駛、服務(wù)機(jī)器人等應(yīng)用基礎(chǔ)較好的細(xì)分領(lǐng)域,加快研究制定相關(guān)安全管理法規(guī),為新技術(shù)的快速應(yīng)用奠定法律基礎(chǔ)?!?
道德制約與法律原則
早在近代對人工知能的探索剛剛萌芽的1942年,科幻小說家艾薩克·艾西莫夫(Исаак Ю?дович Ози?мов or Isaac Asimov,1920-1992,見左下圖(圖片來源:互聯(lián)網(wǎng)))已在他的小說中闡述了所謂的“機(jī)器人三定律”(Three Laws of Robotics)或“艾西莫夫法則”(Asimovs Laws):一、機(jī)器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;二、除非違背第一法則,機(jī)器人必須服從人類的命令;三、在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。3
后來經(jīng)過一系列的調(diào)整,到了1985年出版的《機(jī)器人與帝國》(也是艾西莫夫的最后一部科幻小說)中,他又進(jìn)一步把“艾西莫夫法則”演繹為對機(jī)器人的四項(xiàng)定律。它們是:第零法則:機(jī)器人不得傷害人類族群,或因不作為(袖手旁觀)使人類族群受到傷害;第一法則:除非違背第零法則,機(jī)器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;第二法則:除非違背第零或第一法則,機(jī)器人必須服從人類的命令;第三法則:在不違背第零至第二法則下,機(jī)器人必須保護(hù)自己。4
艾氏創(chuàng)造出這四項(xiàng)法則的原意主要是為了他的小說提供必要的框架,而其本人也對這四項(xiàng)法則在具體的實(shí)踐上如何能夠緊密無縫地協(xié)調(diào)操作也表達(dá)了某種程度的懷疑。5但它們還是產(chǎn)生了巨大的影響,也成為歐洲聯(lián)盟機(jī)器人民事法規(guī)則委員會(EU Commission on Civil Law Rules on Robotics)在2015年向歐洲議會所提呈的一項(xiàng)決議與相關(guān)建議事項(xiàng)(草案)的基礎(chǔ)。6
歐盟議會已于2017年2月16日以396:123票、85票棄權(quán)正式通過了這項(xiàng)名為《機(jī)器人民事法規(guī)則》(Civil Law Rules on Robotics,以下簡稱歐盟《機(jī)器人規(guī)則》)的決議。7決議本身并無法律效力,還需要?dú)W盟議會與歐盟理事會(European Council)依據(jù)“一般立法程序”(ordinary legislative procedure)的要求先責(zé)成歐盟委員會(European Commission)依據(jù)決議中的建議事項(xiàng)提出具體的立法草案,然后再由兩個(gè)部門分別通過;如果委員會決定不采取那些建議事項(xiàng)時(shí),就必須向理事會及議會提出報(bào)告和說明。8另外必須特別指明,這個(gè)《決議》只是要求對人工智能的“民間使用與開發(fā)”(civil use and development)予以規(guī)制,軍事性的發(fā)展與用途顯然不在其列。
決議在《一般原則》部分的第一條(前言第T段)明確采納了“艾西莫夫法則”。但由于這些要求并不能真正被轉(zhuǎn)化為機(jī)器語言或代碼,因此還是只能對從事人工智能“機(jī)器人”的設(shè)計(jì)者、生產(chǎn)者與操作者而設(shè)。換句話說,整套《機(jī)器人規(guī)則》實(shí)際上的立足點(diǎn)還是對自然人所設(shè)置的基本道德規(guī)范,在具體的執(zhí)行上目前還有著一定程度的困難,畢竟人類的道德判斷與價(jià)值觀本身就不是統(tǒng)一的,而且可以因時(shí)、因地、因人而異,非常錯(cuò)綜復(fù)雜。9緊接的第二個(gè)原則一方面要維系對于危險(xiǎn)承擔(dān)、侵權(quán)責(zé)任與透明度的傳統(tǒng)規(guī)制,另一方面又需兼顧與機(jī)器人的研究、創(chuàng)新和開發(fā)之間的相互平衡,便不難看出其中的微妙性與復(fù)雜性,尤其是其要強(qiáng)調(diào)對于“人工智能”的開發(fā)應(yīng)聚焦于如何補(bǔ)強(qiáng)人類的能力(complimenting human capabilities)而非取代人類。
這意味著在具體的法律制定上,必須采取穩(wěn)扎穩(wěn)打、步步為營、謹(jǐn)小慎微的態(tài)度與做法,在沒有經(jīng)過充分的風(fēng)險(xiǎn)與效益評估之前絕不能躁進(jìn)或冒進(jìn)。10《決議》建議要對于“智能機(jī)器人”建立通行于歐盟地區(qū)的一套完整注冊登記制度以便于管理,并從制定下列的若干法規(guī)開始:
(一)機(jī)器人工程人員的道德行為規(guī)范;
(二)相關(guān)倫理道德研究委員會的規(guī)范;
(三)設(shè)計(jì)者的認(rèn)證許可;
(四)使用者的認(rèn)證許可。endprint
當(dāng)以上法規(guī)制定完成后,人們方再根據(jù)“機(jī)器人”與“人工智能”的實(shí)際發(fā)展?fàn)顩r,適時(shí)從民事相關(guān)責(zé)任的角度推出對應(yīng)的規(guī)制。《決議》在此等于確立了一個(gè)根本原則:人工智能無論如何發(fā)展,最終要受到法律規(guī)制的依然是人(無論是自然人或法人)而不是任何的機(jī)器或裝置,也因此,最終如有任何可能獲得某種權(quán)利但也同時(shí)要承擔(dān)相關(guān)風(fēng)險(xiǎn)與法律責(zé)任的,也必須是人而非任何的機(jī)器或裝置。否則,機(jī)器或裝置作為可獲取權(quán)利的工具,卻也可能成為人類推卸責(zé)任的“替罪羔羊”,這絕不是任何立法所希望發(fā)生的情形。既有的科技法律規(guī)制一向采取“技術(shù)中立”的立場,上述基本原則不但符合此一立場,維持了整個(gè)法制體系的一致性,也是讓相關(guān)的研發(fā)得以持續(xù)進(jìn)行的重要保證,不至于讓相關(guān)的人員與市場無所適從。11
“人工智能”如何定義?
既然要考慮對“人工智能”所可能會產(chǎn)生的問題給予某種法律規(guī)制,那么首先必須處理的就是人工智能的定義問題。歐盟議會的《決議》已責(zé)成歐盟委員會對于網(wǎng)絡(luò)物理體系(cyber physical systems)、自動化系統(tǒng)(autonomous systems)、智能自動化機(jī)器人(smart autonomous robots)以及它們的附屬類型等提出適用于整個(gè)歐盟的一般性定義?!稕Q議》并列出了五個(gè)關(guān)于“智能機(jī)器人”(smart robot)的特征來做為考量:
(一)通過感應(yīng)器和/或與其周圍環(huán)境的信息交換(互連性interconnectivity)所獲得的自我管理能力(autonomy)以及對于這些信息的交換與分析;
(二)從經(jīng)驗(yàn)與互動中的自我學(xué)習(xí)(可供選取的非必要條件);
(三)至少具有少許的物理支持(a minor physical support);
(四)使其行為與行動適應(yīng)于周圍的環(huán)境;
(五)不具備生物學(xué)意義上的“生命”。
在歐盟內(nèi)部針對這個(gè)《決議》草案文本所提出的相關(guān)論證報(bào)告中,可以看到從一開始人們在名稱的使用上便產(chǎn)生了相當(dāng)大的爭議。報(bào)告認(rèn)為,使用“智能機(jī)器人”這樣的名稱本身就具有極大的挑戰(zhàn)性,因這為會誤導(dǎo)人們認(rèn)為相關(guān)技術(shù)的發(fā)展將與文明社會直接產(chǎn)生沖突。報(bào)告建議考慮僅使用諸如“自我管理性機(jī)器人”(autonomous robot)等較具關(guān)聯(lián)性的名稱(但這類建議最終顯然未被接受)。此外,基于科學(xué)與文化的理由,報(bào)告認(rèn)為在《決議》中提及所謂的機(jī)器人意識與“艾西莫夫法則”是錯(cuò)誤的,因?yàn)槟侵皇亲鳛樾≌f的架構(gòu)基礎(chǔ),在先天上就注定會有相當(dāng)程度的含混不明之處,完全不適宜作為法律的規(guī)制;而且那也僅是針對機(jī)器的操作功能而設(shè),事實(shí)上既無法轉(zhuǎn)化為可供操作的機(jī)器語言,也無法對從事設(shè)計(jì)的工作人員做出有效的規(guī)制。12
此外,上述所列舉的五項(xiàng)特征顯然避開了一個(gè)關(guān)鍵而困難的考量因素:人為控制。究竟一個(gè)機(jī)器或裝置要在何種程度上擺脫人為或外部的控制(取得獨(dú)立性),才算是具備了“人工智能”?這一問題恐怕在先天上和技術(shù)上就寓含了許多難以解決的困難。例如,從事醫(yī)療的納米裝置(nano-devices),其本身就同時(shí)具備了偵測、器官修補(bǔ)與施打藥物等多重功能。這樣的裝置也是一種超微型機(jī)器人,每一個(gè)單位都蘊(yùn)含了相當(dāng)規(guī)模的大數(shù)據(jù)和自我操作能力。這種裝置大量注射到人體中后,可以直接穿透細(xì)胞壁與細(xì)胞膜,而與細(xì)胞核內(nèi)的去氧核糖核酸產(chǎn)生互動,從而進(jìn)行標(biāo)靶式的精準(zhǔn)治療。但也正是如此,就更加需要外在的人為監(jiān)督與控制,以確保整個(gè)操作在有序的狀態(tài)下進(jìn)行。換句話說,表面上這些微型機(jī)器人在血管里跑來跑去,貌似在做它們自己該做的工作,沒有受到任何控制;但從某一個(gè)角度來說,控制發(fā)生在機(jī)器人注射到身體之前,計(jì)算機(jī)程序從一開始就設(shè)定了機(jī)器人可操作的范圍,那么在這種情形中,可否視為機(jī)器人仍然受到某種控制?
“人工智能”是否應(yīng)賦予“人格”?
參酌美國聯(lián)邦政府的分析,當(dāng)前關(guān)于“人工智能”的研究與發(fā)展已經(jīng)經(jīng)過了兩波的發(fā)展,而目前很可能正在展開第三波的進(jìn)程。13實(shí)際的情況是,“人工智能”還都是為了服務(wù)于人而設(shè)(因此與其照英語的字面翻譯為“人工智能”,倒不如稱為“智能人工”更為貼切),所有的“人工智能”或“智能機(jī)器人”在先天的設(shè)計(jì)與定義上最終都不能完全擺脫人的控制,從而至少在可見的未來,在法律規(guī)制上也難以享有獨(dú)立的“人格”。如同所有人在生理上的各項(xiàng)感知與功能都由自主與非自主兩個(gè)系統(tǒng)所組成,兩者必須相互搭配、相輔相成。但在法律規(guī)制上,并不因?yàn)榱碛幸粋€(gè)極為精巧、平行存在而且?guī)缀跬耆皇軅€(gè)人意志控制的非自主神經(jīng)系統(tǒng),法律就必須賦予每個(gè)人兩個(gè)人格權(quán)?!叭斯ぶ悄堋本酮q如人類非自主神經(jīng)系統(tǒng)與功能的延伸。
從一個(gè)反向的視角來思考,在探討究竟是否要對“人工智能”賦予任何法律地位乃至權(quán)益之前,或許需要處理的先決問題是:一旦人工智能造成了問題或損害,如果能夠證明其符合侵權(quán)行為的要件,那么究竟應(yīng)該由誰來承擔(dān)風(fēng)險(xiǎn)與損害賠償責(zé)任?須知機(jī)器或裝置完全沒有辨別是非的能力,更無從“了解”其從事特定工作或行為的性質(zhì)為何,完全不具有任何能夠承擔(dān)責(zé)任的“健全神智”(sanity)或“行為能力”可言。對于人的行為(作為或不作為),法律也需要先確定當(dāng)事人具有行為能力才課以相應(yīng)的義務(wù)與責(zé)任。所以,至少在可預(yù)見的未來,具有“人工智能”的機(jī)器或裝置本身是既不需要也根本無法承擔(dān)危險(xiǎn)或肩負(fù)責(zé)任的。
接下來的問題是:對于幼兒或心智耗弱的人而言,雖然法律上只給予限制行為能力,但基于人人平等與保護(hù)社會弱勢族群的基本公共政策,法律仍對未成年人賦予人格權(quán)與受限的財(cái)產(chǎn)權(quán),在具體的權(quán)利行使上則必須經(jīng)由其監(jiān)護(hù)人的許可。14那么對于“人工智能”而言,是否也要將其視為“弱勢族群”而給予相當(dāng)于未成年人的人格與財(cái)產(chǎn)權(quán)保護(hù),然后由其開發(fā)者或所有人來擔(dān)任“監(jiān)護(hù)人”,承擔(dān)部分或全部的義務(wù)與責(zé)任?無論采取何種政策,都將對未來的法制發(fā)展造成相當(dāng)大的沖擊。不過至少在特定機(jī)器或裝置所能處理的范圍內(nèi)而言,其強(qiáng)大的功能,恐怕會使得人們很難再將它們視為“弱勢”了。endprint
“人工智能”能否開創(chuàng)知識產(chǎn)權(quán)?
可以確知的是,“人工智能”在可見的未來仍將只作為輔助性的工具。固然對于“人工智能”本身的開發(fā)、設(shè)計(jì)、后臺的軟件操作程序等等或有可能獲得專利權(quán)、著作權(quán)或是商業(yè)秘密的保護(hù),那么,人工智能所開發(fā)或生成的作品是否能夠享有知識產(chǎn)權(quán)呢?
以著作權(quán)為例?!恫疇柲峁s》在第一條便開宗明義地指出,該公約是“為保護(hù)作者對其文學(xué)和藝術(shù)作品……”而制定的,通說認(rèn)為這就已經(jīng)明確了著作權(quán)的保護(hù)制度是為了保護(hù)自然人(作者)的創(chuàng)意作品而設(shè)。15美國版權(quán)局在其最新(第三)版的《美國版權(quán)局實(shí)踐指南》中也特別表明了此點(diǎn),并針對猿猴自拍照所產(chǎn)生的問題例示其不受著作權(quán)的保護(hù)。16因此,除非特定作品能具體指向特定的“人”為其作者,目前在美國,凡是純粹由“人工智能”所開發(fā)出來的創(chuàng)作都無法獲得著作權(quán)而直接進(jìn)入公共領(lǐng)域。歐盟議會的《決議》只是提出了一些呼吁其委員會未來在擬議立法草案時(shí)應(yīng)該在知識產(chǎn)權(quán)方面注意到的一些基本事項(xiàng),但并未直接觸及這個(gè)問題。
對此,已有中外學(xué)者認(rèn)為,由“人工智能”所生成的內(nèi)容只要符合了“獨(dú)創(chuàng)性”的要求,就可視為代表其設(shè)計(jì)者或開發(fā)者的意志所產(chǎn)生的創(chuàng)作,并由該“人工智能”的所有人(包括投資人)或開發(fā)人獲得著作權(quán),否則在欠缺激勵(lì)的情況下,“人工智能”的所有人或開發(fā)人將欠缺甚至不再具有持續(xù)投入研發(fā)的積極性(有些類似“職務(wù)創(chuàng)作”的概念)。17不過這個(gè)主張恐怕還需要克服一些難點(diǎn):既然“人工智能”是通過摘取并組合相當(dāng)數(shù)量的人的知識、意見、思維與觀點(diǎn)等所匯集而成的大數(shù)據(jù)所組成,那么是否所有(或至少是“主要”)的“貢獻(xiàn)者”也應(yīng)該被視為共同的開發(fā)者,從而相關(guān)的任何權(quán)益(包括著作權(quán))也應(yīng)該由他們來共享?反過來說,如果主要的參與者或貢獻(xiàn)者無法從中獲得相應(yīng)或符合一定比例的權(quán)益,那么是否也會導(dǎo)致他們因?yàn)榍啡奔?lì)而失去參與的積極性?然而如果一項(xiàng)權(quán)利是由多數(shù)人所共享,是否又意味著該權(quán)利名存實(shí)亡,因?yàn)檫@很容易大幅增加交易成本,從而導(dǎo)致難以從事后續(xù)性的許可或其他使用(至少潛在的合作對象很可能會望之卻步)?無論如何,這是個(gè)非常值得關(guān)注的問題。由于知識產(chǎn)權(quán)一向關(guān)乎非常微妙的動態(tài)性平衡,相關(guān)舉措必須謹(jǐn)小慎微、步步為營,尤其需要借助各種的實(shí)證調(diào)研與分析來論證。另外必須注意的,前述相關(guān)問題是未來全球都要面對的挑戰(zhàn),閉門造車無益于解決問題,人們應(yīng)通過國際性的對話機(jī)制(例如世界知識產(chǎn)權(quán)組織或世界貿(mào)易組織等)來集思廣益。
控制與便利的平衡
最近的一條流行語是“未來已來”,用這四個(gè)字形容“人工智能”領(lǐng)域尤其貼切,而“未來來自過去”的說法則與其更加貼合。人類對于數(shù)據(jù)信息的儲存和使用可以至少上溯到一萬八千多年以前18,而現(xiàn)代意義上的“大數(shù)據(jù)”使用(運(yùn)用計(jì)算機(jī)技術(shù))則可至少追溯到1881年美國聯(lián)邦政府對人口調(diào)查數(shù)據(jù)信息的處理。19到了二十一世紀(jì),我們更是見到了數(shù)據(jù)信息的爆量產(chǎn)出。谷歌公司的原行政總裁艾瑞克·史密特(Eric Schmidt)曾在2010年的“科技經(jīng)濟(jì)會議”(Techonomy Conference)的演講中表示,截至當(dāng)時(shí),人類每兩天所創(chuàng)造出的數(shù)據(jù)或信息量就等同于人類文明創(chuàng)始到2003年的信息總量。20時(shí)至今日,信息量的飆速累積更是遠(yuǎn)遠(yuǎn)超出了人們的想像。
物極必反,對所有的政府、企業(yè)、研究機(jī)構(gòu)乃至消費(fèi)者而言,在面對不可思議的浩繁數(shù)據(jù)信息之時(shí),必然無可避免地會遭遇到兩難境地:如果真能坐擁天下所有的信息,事實(shí)上卻形同一無所知,因?yàn)槿绱她嫶蟮男畔⒘恐粫屓嗣H徊恢鶑模环粗?,如果沒有辦法掌握到任何的信息,也自然形同盲啞喑聾,無法做出正確的研判,讓自己失去競爭力。21因此如何能去蕪存菁,在這兩者之間找到一個(gè)符合成本效益的平衡,并做好系統(tǒng)性的管理、分析,已經(jīng)成為所有人都無法回避的挑戰(zhàn)。從社會公益的立場而言,前述問題也成為如何避免加劇貧富與文化、教育差距的試金石。
對于所有的消費(fèi)者而言,將來“所有權(quán)”的概念恐將益加“空殼化”,表面上的“擁有”已經(jīng)不再具有如何實(shí)質(zhì)性的意義。例如,以往購買鍋碗瓢杓起碼可以用上十年甚至更久,對于制造商這都屬于“耐久性”的產(chǎn)品(durable goods),必須不斷去開發(fā)新的消費(fèi)族群才能維持一定的運(yùn)營。但是在可預(yù)見的未來,由“人工智能”作為后臺支撐的“智能產(chǎn)品”,為了讓鍋與爐灶能夠連通對話、控制火候,所有的鍋爐都會加裝芯片并受到來自某個(gè)“云”的軟件程序所操控,而且不定期就必須有所更新。結(jié)果一個(gè)本來可以用到十年的鍋,卻可能因?yàn)橄鄬?yīng)的軟件不再支持,而每隔三、五年就得更換一次。此時(shí)“耐久性”已在不經(jīng)意間轉(zhuǎn)化成了“更新性”,制造商可以取得更多次的獲利。所有權(quán)被“知識產(chǎn)權(quán)化”,各種買賣實(shí)際上逐漸被“使用許可”給替代,對于任何產(chǎn)品的使用方式與持續(xù)時(shí)間都掌握在他人的手中,并依靠各種智能軟件的平臺和運(yùn)算來“決定”,無論是鍋碗瓢杓、打印機(jī)或是電子書,乃至出門乘坐的交通工具,甚至自己的居所等等,將莫不如此。
這樣的產(chǎn)品“購買”(或“許可”使用)與使用方式其實(shí)早已行之有年,上述對智能產(chǎn)品的描述,不正是目前人們對于智能手機(jī)、電腦與打印機(jī)等裝置使用方式的寫照?而其背后最重要的操作,就是通過對個(gè)人或其他各種相關(guān)信息的獲取(從而可以累積為所謂的“大數(shù)據(jù)”)來換取更為精準(zhǔn)到位的服務(wù)。換句話說,這就是消費(fèi)者必須放棄對各種信息的控制,或是說讓廠家取得對信息更多的控制來換取自身的便利(雖然有的功能消費(fèi)者可能完全不需要)。同樣的情況更凸顯在以“共享”為標(biāo)榜的服務(wù)上。現(xiàn)時(shí)風(fēng)靡的“共享單車”很可能只是未來“共享汽車”(而且是自動駕駛)乃至其他各種大眾服務(wù)的序曲。22為了競爭,通過“人工智能”對大數(shù)據(jù)的操作管理,每一輛到府接送的自動駕駛汽車都將走向完全為使用者量身訂制的“客制化服務(wù)”,當(dāng)乘客上車時(shí)可能會發(fā)現(xiàn)車內(nèi)已調(diào)整為乘客所喜好的顏色、座位距離、溫度與濕度,乃至于播放乘客所喜歡的音樂或其他娛樂節(jié)目等等。但這樣的愿景同樣必須以乘客自愿放棄或提供其個(gè)人的各種相關(guān)信息作為前提。endprint
因此,未來的相關(guān)法律規(guī)制也就有必要適當(dāng)有效地在控制與便利之間尋找適當(dāng)?shù)钠胶?。人們究竟是否愿意為了自身的種種便利、安全或其他考慮而將原本要由自己做出的判斷或決策轉(zhuǎn)交由人工智能裝置來從事,從而也必須隨之失去一部分對于自身相關(guān)事物(與事務(wù))的控制?除了上述對于如何定義、如何擬制為人的問題外,目前在法律規(guī)制的層面,我們還可以看到的最具關(guān)鍵性的問題,大約存在于隱私權(quán)的保障、不同平臺數(shù)據(jù)庫之間的橫向交叉運(yùn)用與管理、知識產(chǎn)權(quán)的賦予和維權(quán)以及各種智能產(chǎn)品的瑕疵擔(dān)保與侵權(quán)責(zé)任(包括在進(jìn)入全自動化之前的過渡階段的風(fēng)險(xiǎn)承擔(dān)、損害賠償責(zé)任與黑客破壞造成的重大危害或損失等)配置等四個(gè)面向。這都需要人們一方面未雨綢繆、悉心論證,另一方面提出各種備案,以供隨時(shí)討論立法。23
結(jié)論:兩個(gè)反思
這個(gè)平衡的探索過程,至少會引發(fā)兩個(gè)反思。第一個(gè)反思可追溯至英國人亨利·邁因爵士(Sir Henry J. S. Maine)在十九世紀(jì)中葉所出版的巨著《古代法》。他在這部巨著中以一句簡短的描述,對整個(gè)人類法制的進(jìn)程做出了一個(gè)經(jīng)典性的總結(jié):“迄今為止,社會進(jìn)展的走向就是從身份到契約的運(yùn)動?!?4其中所寓含的一層意義是,整個(gè)社會的互動和交易已經(jīng)從垂直走向了水平,也就是從以往只論出身的社會階層高低從而得以享有不同的待遇,走向人人平起平坐的對等互動,在不違反公共政策的情形下,甚至還可以用私人間的合同(自律)取代法律的規(guī)定(公律),而且在公共政策上還考慮到消費(fèi)者往往是處于某種相對弱勢的地位,因此刻意矯枉過正,通過制定諸如《消費(fèi)者權(quán)益保護(hù)法》等特別的立法來抬高消費(fèi)者的協(xié)商議價(jià)地位,例如制造商對所有購買者的產(chǎn)品瑕疵承擔(dān)責(zé)任等規(guī)定。
然而對于以“人工智能”所帶動的產(chǎn)品或服務(wù)而言,“許可”勢將在相當(dāng)?shù)某潭壬先〈鷤鹘y(tǒng)的買賣成為一切交易互動的基礎(chǔ)。在先天和本質(zhì)上,任何“許可”協(xié)定都是一個(gè)“不平等條約”,與買賣的法律關(guān)系迥然不同。這樣的發(fā)展是否意味著人們其實(shí)又逐漸的從契約走回到了身份(雖然此處的“身份”與兩千年前的狀況已然有所不同,但卻又有些驚人的近似性,例如,按照使用者不同的付費(fèi)層級享有截然不同的服務(wù)內(nèi)涵)?
第二個(gè)反思是一個(gè)假設(shè)性、純粹學(xué)理上的問題,但卻反映出一種潛在隱憂。假如歐洲在歷史上沒有經(jīng)過一千多年的“黑暗時(shí)代”,也就是假設(shè)在莫札特所處的十八世紀(jì)就已經(jīng)出現(xiàn)了今天所能看到的各種科技,那么他是否會利用這些高科技工具在他短暫的34年生命中創(chuàng)作出更多不朽的樂曲?抑或他反而會沈迷于各種網(wǎng)絡(luò)賭博、游戲與社交網(wǎng)絡(luò)等(據(jù)一些傳記的描述,莫札特頗好嬉游賭博),反而成為一個(gè)默默無名、對社會無大貢獻(xiàn)的潦倒?jié)h?換句話說,工具的便利性是否果真會帶動更多的創(chuàng)新?
這當(dāng)然是個(gè)無解的問題,不過至少有一點(diǎn)可以確定,就是莫札特已經(jīng)把他所有的音樂作品都寫到了紙上,從而使其完整地保留了下來。否則,如果他適用了當(dāng)時(shí)流行的科技來儲存文檔,后人很有可能根本無法從那些已經(jīng)被完全淘汰掉的載體(例如讀卡機(jī)、軟碟等等)中重新讀取他的作品了。這也就提醒我們,人類一方面貌似在開創(chuàng)各類新型的大數(shù)據(jù),但在另一方面,也同時(shí)不自覺地大量丟失各種寶貴的信息數(shù)據(jù),導(dǎo)致自己的固有文化資產(chǎn)不斷流失。因此,各種大數(shù)據(jù)之間未來如何能彼此順利無縫的接軌,又能如何平穩(wěn)順利地從一個(gè)技術(shù)平臺過渡升級到另一個(gè)新的平臺,都將是對“人工智能”運(yùn)行的巨大挑戰(zhàn)。
總而言之,從“大數(shù)據(jù)”到“共享經(jīng)濟(jì)”到物聯(lián)網(wǎng)(Internet of Things),再到自動化機(jī)器人和“人工智能”,其法律規(guī)制或?qū)⒉粩嗌婕翱刂婆c便利的拉鋸、交換與權(quán)衡。在這個(gè)快速發(fā)展的過程中,由于還有太多不確定的因素,政府固然需要扮演某種角色,但為了避免對于其中的微妙平衡造成不當(dāng)干擾,尤其是不當(dāng)?shù)囟髿⑾嚓P(guān)的研發(fā)與商機(jī),政府必須做到謹(jǐn)小慎微、步步為營。因此,當(dāng)前階段,政府相關(guān)法規(guī)的岀臺不宜太快,而應(yīng)刻意保持一定程度的滯后。如果確有需要制定規(guī)則,那么,在相關(guān)的定義還尚未明確之前,政府只適合從事框架式的“輕度規(guī)制”。打比方說,政府只需要規(guī)范關(guān)于環(huán)境保護(hù)、操作與人身安全以及基本責(zé)任承擔(dān)的框架性規(guī)定即可,至于究竟是誰要在這樣的框架內(nèi)來搭建相關(guān)的平臺、需要多少投融資、如何設(shè)計(jì)建設(shè)平臺,則悉由參與者依據(jù)市場的實(shí)際狀況而定。一旦平臺搭成,由誰來登臺表演、演出何種節(jié)目等,政府都不需置喙,也應(yīng)交由市場去自行決定,這就是所謂的“讓凱撒的歸凱撒”。唯有如此,才能有效地釋放出巨大的動力,幫助達(dá)成國務(wù)院《新一代人工智能發(fā)展規(guī)劃》所提出的挑戰(zhàn)與目標(biāo),把中國的整個(gè)市場引領(lǐng)到一個(gè)新的境界!
“控制既是效果也是導(dǎo)因,而認(rèn)為控制是某種由你來施展的概念是對于進(jìn)步的真正阻礙?!?/p>
—史蒂夫·格蘭德25endprint