亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的角色定位及責(zé)任表達

        2023-08-29 15:12:26王瑋
        關(guān)鍵詞:法律責(zé)任人工智能

        摘 要:法律上人工智能的主體人格討論是人工智能在法律框架下觸及具體問題的一種理論假設(shè)。要真正完成人工智能的角色定位,有必要在傳統(tǒng)法律主體人格的理論下,對現(xiàn)階段人工智能的法律人格學(xué)說進行檢視,圍繞物的內(nèi)涵來確立其本質(zhì)屬性,以期在法律責(zé)任制度的框架下論證人工智能物格地位的現(xiàn)實合理性?,F(xiàn)階段,人工智能仍應(yīng)定位于物,這不僅是法律視域下對人工智能諸多現(xiàn)實問題進行制度表達的實踐考量,更是未來解決人工智能技術(shù)在帶給我們便捷歡欣與強人工智能無法約束的二重矛盾的重要理論思考。

        關(guān)鍵詞:人工智能;主體人格;客體物格;法律責(zé)任

        一、問題的提出

        進入21世紀(jì),全球的科技創(chuàng)新進入高速發(fā)展活躍期,新的產(chǎn)業(yè)變革已經(jīng)出現(xiàn),以人工智能為代表的科技革命正在重構(gòu)全球版圖,經(jīng)濟結(jié)構(gòu)也發(fā)生了重大變換①。2017年7月8日,《新一代人工智能發(fā)展規(guī)劃》將人工智能的技術(shù)發(fā)展分為三步,第二步便是到2025年,人工智能要在基礎(chǔ)理論上實現(xiàn)重大突破,形成較為完備的法律法規(guī)和政策體系,以加強未來對人工智能技術(shù)的管控與評估。2022年7月,為進一步落實《新一代人工智能發(fā)展規(guī)劃》,推動經(jīng)濟高質(zhì)量發(fā)展,科技部等六部門以場景創(chuàng)新建設(shè)為方向,印發(fā)《關(guān)于加快場景創(chuàng)新以人工智能高水平應(yīng)用促進經(jīng)濟高質(zhì)量發(fā)展的指導(dǎo)意見》。該文件以人工智能的場景創(chuàng)新為方向,為人工智能多領(lǐng)域的發(fā)展提供了契機,但是文件中并未提及人工智能法律主體人格的地位問題。毫無疑問,面對新技術(shù)與舊制度之間可能發(fā)生的適用混亂,從法律框架下對人工智能進行合理的定位已成為緊迫的現(xiàn)實問題。

        以發(fā)展的視角看,人工智能的未來應(yīng)是更為自由的智能體,進而逐步擺脫人機關(guān)系的束縛。人類或許終要不可避免地退出人機關(guān)系的舞臺,從而讓人工智能獨立地從事社會活動[1]。而人工智能法律主體人格賦予與否的問題,不僅是在法律框架內(nèi)規(guī)范治理相關(guān)智能行為的邏輯起點,亦是解決當(dāng)下人工智能法律責(zé)任問題的“鑰匙”。越來越多的學(xué)者(彭誠信[2]、張玉潔[3]、郭少飛[4]等)也開始認(rèn)為,應(yīng)當(dāng)賦予人工智能法律人格并使之成為獨立的法律主體。然而,這一做法是否會對人的主體性地位產(chǎn)生挑戰(zhàn),人工智能這個新型的法律主體能否規(guī)范合理地納入現(xiàn)有的法律規(guī)范體系,仍需進一步論證。據(jù)此,有必要認(rèn)真審視人工智能的法律主體人格,重新對人工智能進行角色定位,并在法律責(zé)任制度框架下予以表達,從而達到引導(dǎo)技術(shù)應(yīng)用、增進人類福祉的目的。

        二、人工智能的人格否定

        在人工智能廣泛應(yīng)用的今天,賦予人工智能獨立的主體人格究竟是解決行為責(zé)任“靈丹妙藥”還是在開啟智能時代無法控制的“潘多拉魔盒”?對此問題,有必要在傳統(tǒng)法律主體人格的理論上做出相應(yīng)判斷。

        (一)傳統(tǒng)法律主體人格理論

        自羅馬法發(fā)展以來,法律上就一直存在著法律人格的概念,法律人格乃是法律對高等智慧生物的自然人進行界定從而使之成為法律主體的結(jié)果。只有真正具備法律意義上的人格,方可在法律中實現(xiàn)其主體性價值。而主體性又作為現(xiàn)代法律制度的根本基石,始終將人置于至高的法律地位,并強調(diào)人是一切社會活動的最終歸宿,一切的社會活動都應(yīng)當(dāng)服從“人是目的而非手段”這一道德實踐法則[5]。由此觀之,法律主體人格應(yīng)當(dāng)是法律制度為了滿足人類生活的現(xiàn)實需要而設(shè)置的一種語言概念,實際上是對社會中人最高地位的間接表達。

        從內(nèi)在的理論要素分析,傳統(tǒng)法律主體人格應(yīng)當(dāng)包含主體、行為和責(zé)任三種能力。第一,主體要素能力。法律主體應(yīng)是一種人格人,其特征有三:具有意志;屬于目的性存在;能夠自律[6]。人作為一種具有自我反省與理性思考的高等智慧生物,傳統(tǒng)認(rèn)識中,只有人才能進行辨別、判斷與選擇。辨別與判斷的過程是一個極為復(fù)雜的過程,人獨特的思考能力會在反復(fù)思索中通過自己的意志有目的地做出相應(yīng)的判斷,以此自愿地做出符合內(nèi)心真意的選擇。第二,行為要素能力。法律主體的行為能力主要是指法律主體可以通過自身的作為或者不作為引起法律關(guān)系變動的效果,此種行為是一種有意識的自覺行為,也包含了主體可以行使的權(quán)利與應(yīng)當(dāng)履行的義務(wù)。第三,責(zé)任要素能力。獨立法律主體人格的重要特征之一是在做出法律行為的過程中,具備獨立的責(zé)任能力,無需借助外力而能夠進行自我答責(zé)。

        縱觀人格制度的發(fā)展,除自然人的法律人格外,法人的人格實為對傳統(tǒng)法律主體人格制度的另一大創(chuàng)新。理由在于,法人人格獨有的社會功能賦予了其獨立民事主體地位的必要性,在促進物的社會流通、交易便捷和交易安全的功能上,法人人格發(fā)揮著重要作用。不僅如此,自然人與法人二元主體模式也賦予了法律人格創(chuàng)設(shè)的正當(dāng)性理由,即法人的主體并不是憑空捏造,而是由自然人本身的主體性延伸而來。法人一切的權(quán)利、行為皆是通過現(xiàn)實中的自然人的權(quán)利、行為得以詮釋。換言之,法人始終基于其背后的自然人得以構(gòu)造與發(fā)展,二者之間具有密不可分的關(guān)系并進行了充分的主體性契合。從這一意義上思考,要在當(dāng)下法律框架內(nèi)完成其他脫離人的主體性創(chuàng)設(shè)是艱巨的。

        (二)人工智能法律人格學(xué)說

        究竟能否賦予人工智能獨立的法律主體人格,有必要對現(xiàn)階段人工智能主體人格的不同學(xué)說做進一步分析。當(dāng)下關(guān)于人工智能法律主體人格的學(xué)說爭論,主要有以下三種:完全人格說、有限人格說和擬制人格說。

        1. 完全人格說

        完全人格說認(rèn)為,應(yīng)該直接賦予人工智能和一般自然人同等的法律主體資格。自從2017年沙特政府宣布世界上第一個公民身份的機器人索菲亞誕生開始,關(guān)于人工智能法律主體人格的爭論從未中止。索菲亞是完全人格說的現(xiàn)實體現(xiàn),其與自然人具有同等的公民身份,已然可以行使與自然人一樣的權(quán)利。周詳認(rèn)為,現(xiàn)代的人工智能具備了權(quán)利主體的智能性這一本質(zhì)要素,智能機器人“人格化”也并不存在法律方法論上的困難,相反具有適應(yīng)社會發(fā)展的正向功能性[7]。所謂正向功能性并非法律技術(shù)或邏輯的考量,而是以法社會學(xué)的視角看,人工智能的發(fā)展趨勢是符合社會目的性的??傊耆烁裾f主要是通過對社會形勢及人類需求的判斷,將人工智能從客體物上升到主體人的地位,進而賦予其法律主體人格。

        2. 有限人格說

        有限人格說認(rèn)為,現(xiàn)實中人工智能的法律人格并非完全的,而應(yīng)當(dāng)是有一定限度的。有限性分別體現(xiàn)在幾個方面。其一,意識范圍的有限性。人工智能與一般物最大區(qū)別在于其具備了一定的自主意識,但該意識范圍并不能等同于自然人的范圍,尤其在自我決策的問題上,要保持一定的原則底線。其二,個人行為的有限性。人工智能本身實施的行為并非沒有依據(jù),而是應(yīng)當(dāng)受到其背后算法的約束,即受到人工智能生產(chǎn)者或使用者的限制。其三,責(zé)任能力的有限性。人工智能的責(zé)任能力與自然人、法人、非法人組織的獨立責(zé)任能力不同,雖然可以獨立自主地參與到民事活動中,但是責(zé)任承擔(dān)卻是有限的,并不能獨立承擔(dān)所有責(zé)任,人工智能只具備有限的責(zé)任能力[8]。袁曾指出,“人工智能的本質(zhì)仍是工具,其服務(wù)人類社會發(fā)展的屬性并未改變,根據(jù)人工智能獨立的行為能力,應(yīng)賦予其法律人格,由于人工智能承擔(dān)行為后果的能力有限,故而其人格應(yīng)當(dāng)是有限的法律人格,適用特殊的法律規(guī)范。”[9]總的來說,有限人格說主張人工智能在意識范圍、個人行為、責(zé)任能力存在不同限度的有限性。

        3. 擬制人格說

        在羅馬法的法學(xué)思考中,法律人最重要的一大創(chuàng)制是用法律擬制的思維來處理與人類依附相關(guān)但又有別于人類的事物或行為,比如法人人格擬制。當(dāng)今人工智能革命也可嘗試在法學(xué)理論上及法律規(guī)范框架下將人工智能納入擬制的傳統(tǒng),這樣的依據(jù)在于,人工智能已經(jīng)超出了一般物的范疇但是又沒有改變作為工具服務(wù)人類的附庸性角色。人格擬制的技術(shù)選擇不僅可以走出傳統(tǒng)法律意義對人工智能物的束縛,更通過法律擬制的手段而賦予了一定范圍內(nèi)的法律主體資格,最終做到人類與人工智能和諧共舞[10]。今天人類社會的發(fā)展,已經(jīng)逐漸步入非唯人類中心主義的時代,要嘗試摒棄陳舊的功利主義“人之外皆是工具”的認(rèn)知,認(rèn)真對待像人工智能一樣的非人實體,在法律擬制問題上要進行多方位的思考與嘗試。擬制人格說通過擺脫傳統(tǒng)僵硬物的認(rèn)識從而賦予人工智能獨立的法律人格,為解決人類與人工智能復(fù)雜的社會生活關(guān)系提供了依據(jù),但從理論到實踐是否真正可行,仍需要進一步思考。

        (三)人工智能法律人格評價

        1. 對完全人格說評價

        對于完全人格說,學(xué)者們之所以主張完全人格理論,主要有以下幾項依據(jù):(1)人工智能除了自主決策之外,已經(jīng)能夠從不同的事件經(jīng)驗中自我更新、自我進步,甚至可以作為義務(wù)承擔(dān)者的身份參加到民事法律關(guān)系中,進而承擔(dān)相應(yīng)的法律責(zé)任;(2)人工智能已經(jīng)初現(xiàn)與人類似的部分道德行為。隨著人工智能技術(shù)的不斷提升,在與人的交流互動中,人工智能能夠進行情感交流與釋放,尤其在涉及人與人之間基本的道德倫理,這種認(rèn)識便愈發(fā)堅定。在大數(shù)據(jù)信息化智能時代的今天,人工智能不管是否受到人類的支配與約束,亦不能阻止其平等地獲取尊重與行使權(quán)利,甚至像人一樣表達同情與關(guān)愛;(3)責(zé)任平衡的補位。這方面考量出自當(dāng)侵害事件發(fā)生后,當(dāng)人工智能不具備獨立的法律主體資格,人工智能的設(shè)計者、銷售者、使用者對于責(zé)任的承擔(dān)是否過重?完全人格理論選擇了應(yīng)當(dāng)賦予人工智能法律主體資格的決定,但是作為機器的人工智能,如何具體承擔(dān)后續(xù)的責(zé)任則值得探索。完全人格說從社會發(fā)展的視角固然將人工智能放置于類似于“自然人”的法律地位,但在現(xiàn)實條件下,人工智能技術(shù)仍面臨著諸多技術(shù)難題,還不能全面準(zhǔn)確地嵌入人類的生活,這是必須進行的現(xiàn)實考量。

        2. 對有限人格說評價

        有限人格說在一定程度上彌補了完全人格說,已經(jīng)考慮到其意志范圍、行為義務(wù)、責(zé)任能力的有限性。但從現(xiàn)有法律視角出發(fā),有限責(zé)任說則更給我們帶來一系列的法律難題。依據(jù)其本身各項能力的“有限性”,是否應(yīng)當(dāng)適用特殊的法律規(guī)范?適用的范圍又應(yīng)如何界定?在有限人格的視角下權(quán)利又應(yīng)當(dāng)如何分擔(dān)?再如在責(zé)任承擔(dān)問題上,智慧型人工智能作為一種可以進行獨立意思表示的特殊主體,盡管獨立實施了某一個行為,但由于其算法主體本身的有限性,并不能將所有的責(zé)任只歸于一體,是否應(yīng)當(dāng)考量背后實際生產(chǎn)者或使用者的責(zé)任?不同利益主體之間的責(zé)任天平又該如何傾斜?有限人格說盡管在理論上存在可能性,但由于其特殊的有限性,在人工智能發(fā)展尚未成熟穩(wěn)定的今天,在現(xiàn)有法律體系下貿(mào)然構(gòu)造特殊的法律規(guī)范無疑會過分增加立法的負(fù)擔(dān)。

        3. 對擬制人格說評價

        擬制人格說是人工智能在面對人物之間矛盾無法調(diào)和進而不斷權(quán)衡的結(jié)果。通過擬制獨立的人格,把人工智能提升到主體的法律地位,然后盡可能地確定與之相關(guān)的法律關(guān)系及權(quán)利義務(wù)關(guān)系[11]。當(dāng)然,不同學(xué)者對于人工智能擬制人格說的肯定,多數(shù)是源自對現(xiàn)代法人人格擬制制度的思考。但與法人不同,對人工智能的法律人格擬制應(yīng)當(dāng)考慮到以下兩方面的問題:一是關(guān)于社會普遍適用性的問題。當(dāng)下的人工智能技術(shù)只能在特定的范圍和領(lǐng)域為一定行為,并不像法人制度能夠廣泛地適用于社會生活,在社會普適性上仍有不足。第二,與人主體性地位的關(guān)系。法人擬制之所以能夠準(zhǔn)確順利地契合現(xiàn)有的制度框架,一個重要的原因在于法人并未對自然人的主體性地位提出挑戰(zhàn),法人與自然人二者之間是有機統(tǒng)一的關(guān)系。反觀如果直接對人之外的人工智能進行人格擬制,則可能會造成更多的社會矛盾,其帶來的實際效益或法律糾紛并未得到削減??梢哉f,擬制人格說是在考量社會實效的基礎(chǔ)上對現(xiàn)行法律制度的一種變通,其實質(zhì)是將人工智能放置在了與人等同的主體地位。

        三、人工智能的物之確立

        通過對傳統(tǒng)法律人格理論及人工智能主體人格的學(xué)說分析,當(dāng)下人工智能仍不具備創(chuàng)設(shè)獨立法律主體人格的現(xiàn)實條件。這也進一步將人工智能推向客體物的領(lǐng)域,究竟什么是物,人工智能是否真正屬于客體的范疇并滿足物的基本特征,是否能夠被涵攝進而無縫對接到物的法律世界中,有待深入論證。

        (一)傳統(tǒng)法律中物的認(rèn)識

        物這一概念是羅馬法學(xué)家抽象思維創(chuàng)造的結(jié)果。羅馬法中的物有廣義狹義之別,廣義的物是相對于人的范疇,指人以外的一切。狹義的物指財產(chǎn)。狹義物的概念從廣義物的概念發(fā)展而來。通常所謂羅馬法之物僅指狹義之物,可分有體物和無體物。當(dāng)下立法中將物作為一個重要概念加以規(guī)定,是大陸法系長久以來的立法傳統(tǒng)。如《德國民法典》第90條規(guī)定:本法所稱物,謂有體的標(biāo)的?!度毡久穹ǖ洹返?5條規(guī)定:本法所稱之物,為有體物。一般來說,作為“物”應(yīng)具備以下特征:有體性、可支配性、價值性。

        過去十年,對于物的認(rèn)識一直處在不斷深化之中。為應(yīng)對當(dāng)代經(jīng)濟社會物的種類多極化、復(fù)雜化的現(xiàn)實,法律對于物的制度認(rèn)識應(yīng)當(dāng)加以深化,從而來概括不同類型的物。楊立新提出和創(chuàng)設(shè)了物格概念和物格制度[12],民法體系中物的世界從此有了新的發(fā)展。物可以分為一般物格、特殊物格、倫理物格三個層次。一般物格為最普通的物,與人的感情較遠。特殊物格則是建立在現(xiàn)代科學(xué)技術(shù)不斷發(fā)展的前提下,傳統(tǒng)一般意義上的物已經(jīng)被一般物格所包含,對于新興的尤其是離人的感情較近的物無法判斷,如脫離人之外的器官、人體輔助性器械等具備部分身份性特征的實物是否可以納入物的范疇?特殊物格隨即應(yīng)運而生,特殊物格在一定程度上更看重物的使用價值,當(dāng)然其也適用財產(chǎn)的法律規(guī)則。最后的倫理物格則賦予了物最高的法律地位,其與人的感情聯(lián)系最為緊密,這個時候的物已經(jīng)初步具備了倫理屬性,關(guān)系到人的利益,一定程度上可以做出與人類似的倫理性活動。

        就人類發(fā)展而言,人類走出野蠻時代后,人自然而然成為物的支配主體,人類之外者,本質(zhì)上皆屬人類的工具。人對于物的掌握,早已隨著科技進步而不斷地提高,羅馬法所確立的物,已經(jīng)遠遠不能包括現(xiàn)代民法物的范圍,當(dāng)今民法上物的形態(tài)已經(jīng)從單一化走向多極化。面對物的認(rèn)識不斷深化,人工智能要想擺脫自身工具性逃離物的范疇,有必要分析其本身的構(gòu)造特征。這為人工智能中物的屬性研究提供了導(dǎo)向。

        (二)人工智能中物的基本屬性

        第一,人工智能的構(gòu)成屬于物的范疇。人工智能的構(gòu)成,可以分為硬件與軟件兩種。硬件當(dāng)然屬于客觀實體物,但由算法系統(tǒng)與大數(shù)據(jù)構(gòu)成的軟件是否可以納入物的范圍?盡管數(shù)據(jù)與系統(tǒng)都是摸不著的無體物,但其仍屬于人類科技進步的產(chǎn)物,屬于產(chǎn)品的范疇,并不能和人大腦的智慧置于同等的地位。近代民法從康德哲學(xué)體系中抽象出了“人以外全是物”之理念,導(dǎo)致了人與物的二元對立[13]。人工智能盡管初步具備意識性行為,但其依舊不能打破人物二分的私法格局。人工智能作為科學(xué)技術(shù),只能是人類進行社會行為的服務(wù)者,自身并不能作為目的,就像人工智能不能擁有與人一樣的自主性,其只是服務(wù)于人類社會的一種無形工具。

        第二,對人工智能的支配決定其屬于物。人工智能的快速發(fā)展,引發(fā)了人工智能是否受人類支配的討論。盡管人工智能已經(jīng)高度發(fā)達,但必須承認(rèn)的是人工智能仍是受人支配的輔助物。追溯物的支配性特征,要回歸物本身的概念,物作為一種被法律認(rèn)可的存在,法律上并不關(guān)注物究竟是自然存在還是社會或虛擬存在,更不會對物作詳細(xì)的列舉式說明,法律更多關(guān)注的是在適用過程中物的社會價值,即如何通過支配物更好滿足人的社會需求,這是真正意義上物的特征。對于物的支配,史尚寬在《民法總論》中論述,物者,謂有體物及法律上具能支配之自然力[14]。王利明在《中國民法典草案建議稿及說明》中對物的定義是,為人力所控制并且具有經(jīng)濟價值的有體物[15]。孟勤國[16]、楊立新[17]等也都表達了物應(yīng)為人力控制的觀點。人工智能作為新興的科技產(chǎn)品,無論如何智能性,終歸要受制于人的支配,從這個認(rèn)識上,其已經(jīng)具備了物的支配特征。

        第三,人工智能是存在于人身之外能夠滿足人類某種需要的物。物的一個重要特征在于,存在于人身之外并能夠滿足人類的需要。人身之內(nèi)是不能作為物的,如組成身體的部分器官,因其具有絕對的身份性故不能當(dāng)成物來看。從現(xiàn)實生活看,人工智能并不具備獨特的身份性,其仍是存在于人身之外的產(chǎn)品,主要目的仍是滿足人類自身發(fā)展的需要,其應(yīng)當(dāng)被納入民法物的調(diào)整范圍,并以此來確定歸屬和利用的秩序。

        (三)人工智能發(fā)展了物的內(nèi)涵

        平等是人類永遠的價值訴求,但差序或許是無法回避又永遠無法消除的現(xiàn)實[18]。人工智能是不是物之所以會引發(fā)學(xué)術(shù)的爭論,一個重要的原因在于,人工智能實質(zhì)上發(fā)展了物的內(nèi)涵。人工智能不同于一般物,人工智能的部分行為已經(jīng)初具倫理性與可預(yù)見性,進而產(chǎn)生了人工智能作為物的理論質(zhì)疑。比如從人工智能的社會性角度而言,在算法規(guī)則的支撐下,人工智能可以像人一樣進行有效的互動,甚至成為領(lǐng)域的專家,這就傳達出一個錯誤的訊號,即人工智能已經(jīng)可以真正等同于人。

        實質(zhì)上,人工智能欠缺人獨有的理性。比較人工智能的算法科學(xué),當(dāng)今法律關(guān)于人的界定是建立在以康德為代表的德國古典哲學(xué)對人本質(zhì)的深刻認(rèn)識基礎(chǔ)之上,有深厚的法哲學(xué)基礎(chǔ)[19]。理性使人類認(rèn)識到,人自己是萬物的尺度,并決心通過構(gòu)建法律制度來規(guī)范現(xiàn)代生活秩序。人工智能盡管實現(xiàn)了由一般工具到智慧型工具的轉(zhuǎn)型,具備了人的外觀,但其行為的規(guī)律仍是通過數(shù)據(jù)背后的算法,算法的難易程度代表著人工智能處理信息的能力。相比較社會中的自然人,人工智能沒有在社會中進行真實的生活,人的喜怒哀樂情緒表達也是通過其背后的算法進行展現(xiàn),甚至可以說,人工智能本身內(nèi)在價值觀賦予及其基本行為方式的建構(gòu),完全可以追溯至該人工智能的生產(chǎn)者、研發(fā)者。

        康德認(rèn)為:“人雖然有著種種的感性欲望,但人主要的行為并不由這些欲望決定,決定其行為的永遠是理性,正因為這樣,才能對人的行為進行道德評價?!盵20]民事法律制度亦是對“理性本位”的深刻闡釋,通過理性進而對民事法律中的主客體加以區(qū)分辨別??梢哉f,理性作為民事主體的人獨特的認(rèn)識能力,如同旗幟一樣走在人類社會認(rèn)知的最前面,指引著人類社會未來的發(fā)展方向。對于人工智能的理性認(rèn)識應(yīng)當(dāng)是,要充分肯定科學(xué)技術(shù)進步的價值,但也要確保人本身的主體地位、自由和人格尊嚴(yán)不受侵害,始終樹立尊重人類人格的法律底線[21]。人工智能發(fā)展了物的范疇,卻不能超越人所特有的理性,究其根本,人工智能的創(chuàng)設(shè)始終是以服務(wù)人類為目標(biāo),而非成為人類社會中自然人中的一員。如果將人工智能通過算法構(gòu)建實行的部分道德性、法律性的單一行為視為其具備與人同等的法律主體人格的依據(jù),這樣的結(jié)論是欠妥的。

        四、人工智能的責(zé)任表達

        通過對人工智能物的角色定位,有必要在現(xiàn)有法律框架下考量其契合性。作為物的人工智能是否能夠真正納入現(xiàn)有的責(zé)任體系,實現(xiàn)責(zé)任理論的充分表達。有必要對人工智能的責(zé)任主體、責(zé)任行為、責(zé)任承擔(dān)做進一步研究,以確證人工智能物的定位合理性。

        (一)責(zé)任主體的清晰明確

        在責(zé)任主體的問題上,人工智能作為新興的科學(xué),其中仍包含著諸多不確定的未知領(lǐng)域,貿(mào)然將其設(shè)置為法律主體,將為現(xiàn)有的法律責(zé)任制度帶來顛覆性挑戰(zhàn)。但在客體范圍內(nèi)對人工智能的責(zé)任主體進行分析,可以保證物為人用,實現(xiàn)人工智能的安全穩(wěn)定。梳理與人工智能責(zé)任主體的相關(guān)事件,大致可以分為三類,即因生產(chǎn)缺陷而發(fā)生的侵害事件、使用者未盡到注意義務(wù)而產(chǎn)生的侵害事件和人工智能自主決策模式下的侵害事件。

        第一,人工智能生產(chǎn)缺陷而引發(fā)的責(zé)任事件。該類責(zé)任承擔(dān)主體較為簡單,應(yīng)由制造該產(chǎn)品的生產(chǎn)者來承擔(dān)責(zé)任。追溯侵權(quán)責(zé)任法設(shè)立的根源,侵權(quán)責(zé)任法重要功能是對行為自由與權(quán)益保護做進一步的平衡。產(chǎn)品責(zé)任亦是如此,之所以在法律上規(guī)定產(chǎn)品責(zé)任屬于無過錯責(zé)任,重要理由在于,通過立法對不同群體的利益進行調(diào)試與選擇,顯然,立法者選擇了保護使用者的利益。剖析《民法典》第1166條對無過錯責(zé)任的規(guī)定,在適用人工智能產(chǎn)品責(zé)任的問題上,受害人自身有無過錯完全不影響侵權(quán)責(zé)任的成立,僅需證明產(chǎn)品缺陷與受到損害之間存在因果關(guān)系即可。其理由在于,正是由于人工智能生產(chǎn)者的過錯而直接導(dǎo)致了損害事件的發(fā)生,作為設(shè)計控制整個生產(chǎn)程序的社會生產(chǎn)者,面對社會眾多的智能產(chǎn)品使用者,流通市場之前,其應(yīng)當(dāng)具備謹(jǐn)慎的注意義務(wù),擔(dān)負(fù)起更多的社會責(zé)任。

        第二,使用者未盡到注意義務(wù)而產(chǎn)生的侵害事件。弱人工智能時代的今天,多數(shù)人工智能的操作仍需要使用者來主動發(fā)送指令。如此一來,使用者在行為層面上的過錯,也是有效責(zé)任機制的重要組成部分。面對侵害事件的發(fā)生,生產(chǎn)者已經(jīng)盡到了相應(yīng)的告知義務(wù)、產(chǎn)品警示義務(wù)后,因使用者沒有盡到合理的注意義務(wù)發(fā)生的侵害事件,應(yīng)當(dāng)由使用者承擔(dān)相應(yīng)的侵權(quán)責(zé)任。于使用者而言,盡管智能產(chǎn)品使用風(fēng)險的增加會對市場需求產(chǎn)生不利影響,但卻盡可能給予了受害者最大的保護,這樣安全權(quán)衡的結(jié)果是恰當(dāng)可取的。

        第三,人工智能自主決策模式下的侵害事件。從某種意義上說,人工智能的自主決策,往往伴隨著強人工智能時代的到來。這個時代的人工智能由于其本身的智能性,故其所依賴的“算法”會更為復(fù)雜。因為“算法”對普通人來說其本身就是一個“黑箱”,要求他們理解人工智能自主決策背后算法的合理性更是難上加難。更為嚴(yán)重的是,甚至面對連技術(shù)的創(chuàng)造者都無法解釋致害真正原因的事故,人工智能生產(chǎn)者再利用責(zé)任豁免條款②進行抗辯將更增加侵害事件中因果關(guān)系的證明難度。面對一系列的“復(fù)雜算法”,受害人在尋求因果關(guān)系的過程中,傳統(tǒng)侵權(quán)責(zé)任歸責(zé)的因果關(guān)系鏈條是否會因人工智能高度的自主行為而被打破?反觀,若在此種情形下免除人工智能的生產(chǎn)者等的責(zé)任,受害人利益該如何保護?言及至此,自我學(xué)習(xí)、自我更新、自主決策的人工智能生產(chǎn)者似乎又有不可回避的責(zé)任。作為生產(chǎn)者,在處理如此復(fù)雜的人工智能算法產(chǎn)品時,其應(yīng)當(dāng)具備一定的可預(yù)見性,即是否可能會直接威脅到人類安全。這個意義上而言,其不可避免要承擔(dān)相應(yīng)的產(chǎn)品責(zé)任,應(yīng)給予受害者相應(yīng)物質(zhì)補償、精神慰藉,這也是人工智能技術(shù)進步過程中生產(chǎn)者的社會擔(dān)當(dāng)。

        (二)責(zé)任行為的可解釋性

        探討人工智能的法律責(zé)任問題,可以通過人工智能行為可解釋性的全新思路來推進。廖備水指出,隨著對人工智能技術(shù)與系統(tǒng)認(rèn)識的不斷深化,可解釋性已然成為對人工智能系統(tǒng)的新的要求,特別是在一些高風(fēng)險決策領(lǐng)域[22]。如果對高風(fēng)險領(lǐng)域中人工智能的決策處于模糊的認(rèn)識,勢必會引發(fā)人類安全問題。不僅如此,人工智能的可解釋性問題也需要在哲學(xué)世界里有章可循,因為哲學(xué)賦予了人工智能正當(dāng)?shù)牡匚慌c長久的生命力,未來人工智能的發(fā)展方向,需要我們將更多的精力投入人工智能本身的“思想”中,分析其背后的可解釋性。也只有將人工智能的解釋性問題思慮周全,才能進一步解決人工智能涉及的法律責(zé)任問題??傊斯ぶ悄艿目山忉屝詥栴},是處理人工智能法律責(zé)任問題的關(guān)鍵[23]。

        從行為解釋角度上而言,按照拉倫茨的觀點,法律在適用的過程中應(yīng)當(dāng)實現(xiàn)事實與規(guī)范二者之間的對向交流,即目光要始終穿梭于案件事實與法律規(guī)范之間,在可能適用的法律規(guī)范中要保證案件事實的未加工性;在已經(jīng)確定的案件事實中,將能夠適用該事實的法律規(guī)范盡可能精確化[24]。對于人工智能而言,需要做的首先是保證人工智能本身決策背后的數(shù)據(jù)原始性,要弄清楚這一問題,就必須解釋清楚人工智能是如何在現(xiàn)實環(huán)境中進行判斷進而作出算法決策,對該行為的解釋決定了人工智能能否對自己的行為承擔(dān)法律責(zé)任。

        要研究清楚人工智能主體本身行為背后的決策理由,在當(dāng)下仍是屬于是技術(shù)難題。比較明顯的是,無法找尋在決策行為中是否具有過錯,更無法探尋人工智能背后的善與惡,在法律責(zé)任的研究上,具有不可解釋性。顯然,法律責(zé)任的核心內(nèi)涵是行為人的內(nèi)在精神方面和自我控制能力,最起碼,不能要求一個獨立的法律主體對自己不理解和無法控制的事態(tài)承擔(dān)道德或法律責(zé)任。這就是法律責(zé)任或道德責(zé)任中歸責(zé)的一個重要條件,即控制力。人工智能要對自己的行為有足夠的控制力,這樣的行為才是真正屬于自己的行為,而不是被外在因素所完全決定的。在這一意義上,現(xiàn)實人工智能還遠遠未達到此程度。人工智能行為的背后主要是生產(chǎn)者的算法介入,遠遠未達到實施自我控制的行為,換言之,人工智能生產(chǎn)者在生產(chǎn)時所設(shè)定的目的對其后續(xù)的自主性有決定性的影響。故此,從法律責(zé)任上考察作為獨立法律主體的智能機器人的可解釋性是不現(xiàn)實的,只有將其置于客體物的地位,才具備嵌入現(xiàn)有法律責(zé)任框架的合理性。

        (三)責(zé)任承擔(dān)的現(xiàn)實可能

        責(zé)任是否能夠獨立承擔(dān)是判斷獨立法律人格的重要依據(jù),人工智能是否可以獨立擔(dān)責(zé)是必須直面的現(xiàn)實問題。盡管不少學(xué)者主張授予人工智能實體法律人格以使之成為獨立的法律主體來對自己的行為實現(xiàn)責(zé)任的承擔(dān),但直接賦予其所謂的權(quán)利不管是在道德層面還是在法律層面上都是值得商榷的,主張機器人承擔(dān)自身“行為”責(zé)任更是不可能[25]。人工智能只能被動地輸入指令,而非主動做出理性的選擇,只有將其置于物的地位,才能化解責(zé)任承擔(dān)的現(xiàn)實困境。

        一方面,從民法上看,選擇哪一個主體承擔(dān)賠償責(zé)任應(yīng)當(dāng)符合效率性的功能,直接讓人工智能作為法律主體來承擔(dān)責(zé)任并不是明智的選擇。在侵權(quán)責(zé)任法的世界里,主體性法律人格的人工智能與自然人人格是等同的,這意味著人工智能將與生產(chǎn)者、銷售者、使用者等多個主體共同擔(dān)責(zé),是否會存在算法黑洞進而造成歸責(zé)錯誤?結(jié)論是肯定的。因為人工智能本身是由其生產(chǎn)者研發(fā)設(shè)計,最了解人工智能本身的是生產(chǎn)者,在利益驅(qū)動下極易滋生逃避法律懲罰的投機心理。故而,人工智能的責(zé)任承擔(dān)應(yīng)當(dāng)回歸其產(chǎn)品的屬性,方可提高責(zé)任效率、預(yù)防法律的適用混亂。

        另一方面,即使人工智能的主體責(zé)任歸屬明確,證據(jù)事實有力,直接對其實施相應(yīng)的懲罰是否具備現(xiàn)實意義?因人工智能沒有獨立的財產(chǎn),無法對其執(zhí)行財產(chǎn)性懲罰,即使進一步賦予其經(jīng)濟能力,該懲罰遠遠不能與社會經(jīng)濟生活中的人對財產(chǎn)的認(rèn)知比擬。而將控制人工智能行為的電腦程序進行無害化修改,甚至刪除人工智能的記憶儲存、對相關(guān)控制程序采取恢復(fù)出廠設(shè)置等原始化處理等方式[26]都不能發(fā)揮根本性的作用,不能滿足對自然人道義倫理上的精神補償。在文化極度繁榮,人類精神世界豐富發(fā)展的今天,精神的補償在某些場合、某些時刻要大于物質(zhì)上的賠償,人與人之間關(guān)系的相處并非完全由物質(zhì)財產(chǎn)來決定。將人工智能定位于物,回歸傳統(tǒng)法律意義上的私法主體或許仍是人工智能時代責(zé)任承擔(dān)的不二選擇。

        五、結(jié)語

        法律人格的重要使命在于將不同的現(xiàn)實實體與作為主體的人進行區(qū)分。在人格認(rèn)識不斷深化的過程中,或許會通過一定的標(biāo)準(zhǔn)主動篩選個別物并嘗試建立起新型人格化的特殊主體,進而維護以之為中心的法律秩序[27]。站在智能技術(shù)領(lǐng)域的十字路口,對人工智能法律主體人格進行討論之時,是與否的思維容易左右搖擺。當(dāng)下,人工智能的發(fā)展方興未艾,人工智能作為純粹主體解釋力不足,各種學(xué)說觀點又差強人意,這使得人工智能在發(fā)展的過程中不免會產(chǎn)生許多疑慮。我國有學(xué)者曾經(jīng)敏銳地預(yù)測到,人工智能的自主意識已經(jīng)實現(xiàn)了巨大飛躍,并在社會生活中扮演著重要的角色,其擺脫人類的純粹工具地位而獲取主體身份將是一個必然的趨勢,與之相關(guān)的法律關(guān)系主體制度設(shè)計也將面臨重大變革[28]。但人工智能發(fā)展到今天,將其置于客體物格的地位仍是保障人民權(quán)利、維護社會安全的必要選擇。因為從法律的價值上看,法律的重要價值是為現(xiàn)實人類的生存和發(fā)展服務(wù),任何一個時代的法律規(guī)則都應(yīng)以實現(xiàn)該法律的價值為終極目標(biāo)。人工智能作為新時代科學(xué)技術(shù)的產(chǎn)物,其存在意義同樣在于服務(wù)人類社會。若人的主體性在人工智能時代衰微,則現(xiàn)代文明難以存續(xù)[29]。在這一目標(biāo)上,人工智能物的定位與現(xiàn)行法律制度是相輔相成的,也只有在現(xiàn)實基礎(chǔ)上將人工智能作為客體嵌入現(xiàn)有的物的法律框架內(nèi),才是當(dāng)今信息時代人工智能的發(fā)展方向。

        注 釋:

        ① 節(jié)選習(xí)近平總書記2018年5月28日在中國科學(xué)院第十九次院士大會、中國工程院第十四次院士大會上講話。

        ② 《產(chǎn)品質(zhì)量法》第41條,產(chǎn)品投入流通時引起損害的缺陷尚不存在或當(dāng)時的科技水平尚不能發(fā)現(xiàn)缺陷存在,生產(chǎn)者不承擔(dān)賠償責(zé)任。

        參考文獻:

        [1] 趙秉志,袁彬.人工智能的刑法主體價值問題研究[J].河北法學(xué),2022,40(9):2-14.

        [2] 彭誠信,陳吉棟.論人工智能體法律人格的考量要素[J].當(dāng)代法學(xué),2019,33(2):52-62.

        [3] 張玉潔.論人工智能時代的機器人權(quán)利及其風(fēng)險規(guī)制[J].東方法學(xué),2017(6):56-66.

        [4] 郭少飛.算法法人的理論證立及構(gòu)成要素探析[J].東方法學(xué),2021(5):93-109.

        [5] 鄭智航.平衡論視角下個人免受自動化決策的法律保護[J].政法論叢,2022(4):94-105.

        [6] 劉練軍.人工智能法律主體論的法理反思[J].現(xiàn)代法學(xué),2021,43(4):73-88.

        [7] 周詳.智能機器人“權(quán)利主體論”之提倡[J].法學(xué),2019(10):3-17.

        [8] 許中緣.論智能機器人的工具性人格[J].法學(xué)評論,2018,36(5):153-164.

        [9] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):50-57.

        [10] 范進學(xué).人工智能法律主體論:現(xiàn)在與未來[J].政法論叢,2022(3):3-17.

        [11] 張紹欣.法律位格、法律主體與人工智能的法律地位[J].現(xiàn)代法學(xué),2019,41(4):53-64.

        [12] 楊立新.民法物格制度研究[M].北京:法律出版社,2008.

        [13] 劉云生.近代人格理論建構(gòu)與人工智能民法定位[J].人工智能法學(xué)研究,2018(1):71-79.

        [14] 史尚寬.民法總論[M].北京:中國政法大學(xué)出版社,2000.

        [15] 王利明.中國民法典草案建議稿及說明[M].北京:中國法制出版社,2004.

        [16] 孟勤國.論中國民法典的現(xiàn)代化與中國化[J].東方法學(xué),2020(4):159-169.

        [17] 楊立新.我國民事權(quán)利客體立法的檢討與展望[J].法商研究,2015,32(4):23-28.

        [18] 王春梅,馮源.技術(shù)性人格:人工智能主體資格的私法構(gòu)設(shè)[J].華東政法大學(xué)學(xué)報,2021,24(5):69-80.

        [19] 劉洪華.論人工智能的法律地位[J].政治與法律,2019(1):11-21.

        [20] [德]康德.法的形而上學(xué)原理——權(quán)利的科學(xué)[M].沈叔平,譯.北京:商務(wù)印書館,1991.

        [21] 楊立新.從民法通則到民法總則:中國當(dāng)代民法的歷史性跨越[J].中國社會科學(xué),2018(2):72-97.

        [22] 廖備水.論新一代人工智能與邏輯學(xué)的交叉研究[J].中國社會科學(xué),2022(3):37-54.

        [23] 劉艷紅.人工智能的可解釋性與AI的法律責(zé)任問題研究[J].法制與社會發(fā)展,2022,28(1):78-91.

        [24] [德]卡爾·拉倫茨.法學(xué)方法論[M].陳愛娥,譯.北京:商務(wù)印書館,2020.

        [25] 解正山.對機器人“法律人格論”的質(zhì)疑——兼論機器人致害民事責(zé)任[J].暨南學(xué)報(哲學(xué)社會科學(xué)版),2020,42(8):84-97.

        [26] 付其運.人工智能非主體性前提下侵權(quán)責(zé)任承擔(dān)機制研究[J].法學(xué)雜志,2021,42(4):83-90.

        [27] 江平,龍衛(wèi)球.法人本質(zhì)及其基本構(gòu)造研究——為擬制說辯護[J].中國法學(xué),1998(3):71-79.

        [28] 馬長山.智能互聯(lián)網(wǎng)時代的法律變革[J].法學(xué)研究,2018,40(4):20-38.

        [29] 陸幸福.人工智能時代的主體性之憂:法理學(xué)如何回應(yīng)[J].比較法研究,2022(1):27-38.

        作者簡介:王瑋(1996- ),男,山西懷仁人,華南理工大學(xué)碩士研究生,研究方向為民商法。

        猜你喜歡
        法律責(zé)任人工智能
        我校新增“人工智能”本科專業(yè)
        性騷擾的用人單位法律責(zé)任研究
        反歧視評論(2021年0期)2021-03-08 09:13:16
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        下一幕,人工智能!
        強化生產(chǎn)者環(huán)境保護的法律責(zé)任
        依法治國須完善和落實法律責(zé)任追究機制
        水資源保護中政府法律責(zé)任的完善
        一级无码啪啪| 日躁夜躁狠狠躁2001| 无码国产精品一区二区免费16| 欧美成人精品福利在线视频| 国产精品中文字幕日韩精品| 国产人妖乱国产精品人妖| 亚洲国产精品va在线播放| 精品亚洲日韩国产一二三区亚洲| 亚洲毛片av一区二区三区| 亚洲写真成人午夜亚洲美女| 国内精品伊人久久久久网站| 国产精品午睡沙发系列| 成美女黄网站18禁免费| 日本一区二区三区不卡在线| 少妇中文字幕乱码亚洲影视| 最新亚洲av日韩av二区| 亚洲综合色婷婷七月丁香| 国产的自拍av免费的在线观看| 先锋五月婷婷丁香草草| 亚洲一区二区三区偷拍女厕| 国产成人综合久久三区北岛玲| 加勒比东京热一区二区| 亚洲国产成人片在线观看| 这里只有久久精品| 久久爱91精品国产一区| 一二三区无线乱码中文在线| 久久国内精品自在自线图片| 精品国产一区二区三区AV小说| 性色av一区二区三区密臀av| 国产成人无码精品久久久免费| 一区二区三区国产亚洲网站| 男人天堂av在线成人av| 蜜桃国产精品视频网站| 成人亚洲精品777777| 爱a久久片| 日本久久一级二级三级| 嫩草伊人久久精品少妇av| 性xxxx视频播放免费| 中文字幕午夜AV福利片| 漂亮人妻被强了中文字幕| 闺蜜张开腿让我爽了一夜|