費艷穎 謝雨含
[摘? 要]人工智能發(fā)展浪潮提高了社會發(fā)展的智能化水平,促進人類社會進行新一輪技術變革。一方面,人們的日常生活充分享受了人工智能所帶來的便利,另一方面,由于人工智能作為一項新興技術,其在發(fā)展應用過程中也會引發(fā)一系列新興的法律問題。人工智能體作為人工智能技術的現(xiàn)實轉(zhuǎn)化,探析人工智能體的法律地位是解決現(xiàn)實問題的前提指向與核心抓手,可以通過以人工智能的現(xiàn)實轉(zhuǎn)化為切入點,分析現(xiàn)階段人工智能技術發(fā)展境況,對學界觀點進行闡述與評析,分析人工智能體作為法律主體的理論必要與現(xiàn)實可能,提出具有指向性的針對人工智能體法律地位的具體規(guī)制路徑。
[關鍵詞]人工智能體;法律地位;責任歸屬;行為能力;法律風險
[中圖分類號]D921? [文獻標識碼]A? [文章編號]1672-2426(2023)08-0053-07
[收稿日期]2023-06-15
[基金項目]遼寧省社會科學規(guī)劃基金重點項目“遼寧人工智能產(chǎn)業(yè)發(fā)展的法治保障研究”(L21AFX002),主持人? ? ? ? ? ? ? ?費艷穎。
[作者簡介]費艷穎(1965— ),女,遼寧營口人,大連理工大學人文與社會科學學部教授、博士生導師,主要從事? ? ? ? ? ? ? ?人工智能法學研究。
謝雨含(2000— ),女,內(nèi)蒙古赤峰人,大連理工大學人文與社會科學學部碩士研究生,主要從事人工? ? ? ? ? ? ? ?智能法學研究。
人工智能體,是人工智能的實在化、具體化,屬于人工智能技術與外在物質(zhì)形態(tài)結(jié)合的實體,是人工智能在現(xiàn)實生活中的具體應用表現(xiàn)。人工智能與人工智能體相互依存、不可割裂,前者是后者的關鍵核心技術,后者是前者的現(xiàn)實形態(tài)與應用實體。針對目前人工智能的發(fā)展現(xiàn)況,《人工智能標準化白皮書(2008年)》根據(jù)技術、產(chǎn)業(yè)和標準化的發(fā)展將其分為三個發(fā)展階段:第一階段利用知識驅(qū)動人工智能體,可稱為計算智能階段,在這一發(fā)展階段,機器具備初步的邏輯推演能力,并未達到智能化水平;第二階段是在數(shù)據(jù)驅(qū)動下的人工智能體,可稱為感知智能階段,要求人工智能體能說會聽、能看會認,對一些基本指令進行簡單操作;第三階段是利用算法、算力與大數(shù)據(jù)技術共同驅(qū)動下的人工智能體,可稱為認知智能階段,即讓計算機能夠獨立思考、進行深度學習,對人類的部分工作進行輔助或代替。目前,人工智能的發(fā)展處于感知智能階段的初期,即當前人工智能處于“弱人工智能”發(fā)展階段。
法律主體是法律關系中最為本質(zhì)的基礎性概念,是構成法律關系的原點。一般法理意義上的法律關系主體是指法律關系的參與者,即在法律關系中能夠享有權利和履行義務的人。法律主體的概念有三個特性:首先,法律主體的概念具有時代發(fā)展性,法律主體的概念與標準并不是與生俱來、一成不變的,而是在不同的歷史階段被時代賦予了不同的內(nèi)涵和意義;其次,法律主體的概念是伴隨著人類認知水平和現(xiàn)實生活需要而不斷豐富和發(fā)展的;最后,責任承擔概念與法律主體概念緊密相連,法律關系主體的確立意味著其具有承擔法律責任的義務,也就是說,法律關系主體是法律責任構成的前提與基礎。
近年來對人工智能體法律關系主體地位的研究,即人工智能體究竟是法律上的“人”還是“物”抑或是介于兩者之間的特殊存在,已經(jīng)成為法學界激烈討論的熱點問題之一。面對紛繁復雜的人工智能法律難題,必須回歸至其基本前提——是否具有法律人格。隨著人工智能的發(fā)展,法律主體范圍也相應發(fā)生變化,對于人工智能體的法律主體資格的探析也會進一步發(fā)展,尤其是在責任能力方面,可以說,人工智能體是否具有獨立承擔責任的能力是判定人工智能體是否具有法律主體地位的核心問題。
一、關于人工智能體法律地位的現(xiàn)有學說及其局限
針對人工智能體是否具有法律主體地位的辨析可以為人工智能發(fā)展所帶來的法律問題提供解決路徑,推動人工智能技術在法律的框架下行穩(wěn)致遠。對于人工智能體是否可以被賦予法律主體地位這一命題的討論,學界主要形成了三種觀點,即肯定說、否定說與折中說。學者們基于對人工智能發(fā)展的不同認識與思考維度形成了三種迥異的學術觀點,三種學說瑕瑜互見,既是對人工智能體是否應被賦予法律主體地位的學術突破,亦存在著基于人工智能體發(fā)展認識上的不足。
(一)“肯定說”“否定說”和“折中說”之對比
1.肯定說。顧名思義,“肯定說”是主張賦予人工智能體法律地位的。伴隨著社會的進步與發(fā)展,法律主體的外延范圍不斷進行擴展,支持“肯定說”的學者們認為人工智能由于其高智性,理應具有相應的法律關系主體地位,可以在法律上被視為獨立的人格存在,并且伴隨科技的飛速發(fā)展,賦予人工智能體以法律主體地位是無法阻擋的時代浪潮。
持“肯定說”的學者對人工智能體的發(fā)展持積極態(tài)度,認為人工智能體的發(fā)展注定會突破原有法律關系主體認定的框架。部分學者從歷史發(fā)展的角度考慮,認為法律主體資格認定的標準隨著時代的發(fā)展而發(fā)生變化,其內(nèi)涵與外延都在不斷豐富與完善,在人工智能發(fā)展的未來,可以通過法律擬制的方式對人工智能體法律關系主體地位加以認定。
2.否定說?!胺穸ㄕf”認為人工智能體不應該被賦予法律主體地位,支持該學說的學者認為,人工智能體歸根結(jié)底是作為輔助人的工具而存在,不論其發(fā)展形式如何變化,也不論其智能化發(fā)展形態(tài)如何趨近于“人”,其根本屬性自始至終都是輔助人的工具,是法律關系的客體,不具有人類作為法律關系主體所具有的行為能力和責任能力。吳漢東認為,人工智能的獨立意志、學習的知識都是人類通過技術為其創(chuàng)設的,根本上其并不具備人之心性與靈性,無法與人類等同而論,不能賦予其法律地位。[1]人工智能技術的發(fā)展是為了給人類的生活提供便利,其本質(zhì)為算法與概率,人工智能技術的發(fā)展與運用處于人類的設計與控制之下,因此無須賦予人工智能體以法律主體地位。
3.折中說。“折中說”巧妙地避開了“肯定說”與“否定說”的對立觀點,對是否應該賦予人工智能體以法律主體地位既不肯定,也不否定。其中以“第三種物質(zhì)說”為“折中說”的代表觀點。該觀點將人工智能體的性質(zhì)界定為一種處于人與物之間的第三種特殊存在,同時將人工智能體是否具有自主意識作為判別標準,對不同類別的人工智能體進行區(qū)別看待,認為弱人工智能不具備法律主體地位的資格,而對于超人工智能,因為其發(fā)展程度超過人類所賦予的技術能力,且其具備了獨立思考和行動的能力,具有成為法律關系主體的可能。
(二)“肯定說”“否定說”和“折中說”之局限
肯定說、否定說和折中說都存在著一定的局限。對于“肯定說”而言,目前人工智能處于感知智能的初期發(fā)展階段,人工智能體不具有獨立思考的能力,它們只是程序的被動執(zhí)行者,是作為“輔助者”被應用于現(xiàn)實生活中,它們沒有感情,無法應對突發(fā)的變化,與人類存在著根本上的差異。歸根結(jié)底,當前人工智能體的存在依賴于人的操控。假若根據(jù)部分學者所持意見將其擬制為法律主體,從根本上回避了針對人工智能技術本質(zhì)的拷問,當前人工智能體的行為都是取決于自然人的意思表示,沒有自己的思想與行為,與人的關系依然是無法割裂的。又如部分學者所持的“電子人格說”,而電子人格作為一種新興概念,其范圍標準都不明確,對于其配套理論目前也并不完善,亦忽視了現(xiàn)階段人工智能的實際發(fā)展情況。
“否定說”采用“一刀切”的方式對人工智能體的法律主體地位進行全盤否定,而忽略了人工智能體的自主學習能力和獨立思考能力。就目前發(fā)展階段而言,人工智能尚處于“弱人工智能”的發(fā)展階段[2],但對于人工智能的發(fā)展前景,是現(xiàn)階段無法估計和預料的。結(jié)合目前人工智能體表現(xiàn)出來的趨向于人的學習能力和智能水平[3],將其長期定位于法律關系的客體勢必不足以滿足社會發(fā)展的現(xiàn)實需求。
“折中說”對尖銳的“是”與“非”問題進行回避,但實際上對于法律主體地位的確定應予以明確,否則易引發(fā)更大的問題。分析“折中說”則可以發(fā)現(xiàn),實際上“折中說”將人工智能整體進行割裂處理,它作為客體的同時又以主體身份存在,同時,提出“第三種物質(zhì)”概念,并不符合當前法律體系的規(guī)定,不具有現(xiàn)實可操作性。此外,“折中說”雖然對人工智能體的法律地位進行了有條件的部分認可,但是它對于人工智能體的發(fā)展仍然處于一種回避的中立態(tài)度,通過對人工智能體的權責劃分,最終回歸到將人作為最終責任承擔者,不具有時代發(fā)展的前瞻性。
“肯定說”對當前人工智能發(fā)展階段認識不清,有部分盲目樂觀之嫌;而“否定說”無法應對人工智能體向高智化發(fā)展的時代大勢,因此結(jié)合兩家之言,本文認為可以在人工智能體發(fā)展的高級階段賦予其法律主體地位。在智能化技術高速發(fā)展的階段,傳統(tǒng)的法律主體理論勢必無法滿足發(fā)展中的人工智能體的權責歸屬與責任承擔。此外,人工智能體的發(fā)展本質(zhì)上是研究人類的智能,探索人腦、利用人腦,而人類是有著高級智慧,能夠發(fā)掘自身潛能并加以利用的復雜個體集合,這也就意味著人工智能體發(fā)展的高級階段要具備全面的認知和學習能力,形成對外界事物的全面認知,有著獨立思考與自主行動的能力,實現(xiàn)與人類的深度對話,雖然其脫胎于人類,但不能以單純的行為對象對其進行界定,而要將其視為獨立的存在,賦予其法律上獨立的人格,使其擁有獨立的權利能力與責任能力,在法律的框架內(nèi)得到規(guī)制與保護。
二、賦予人工智能體法律主體地位的理論必要與現(xiàn)實可能
人工智能的核心是利用智能技術模擬或?qū)崿F(xiàn)人類的學習行為,從而為人類生活創(chuàng)造便利。伴隨著人類社會進入智能化時代,人工智能技術的發(fā)展將促使人工智能體進行深度學習,更大范圍地參與到社會生活當中,更深度地融入智能社會。從理論層面與現(xiàn)實角度梳理賦予人工智能體以法律地位的必要性與可能性,將人工智能體納入法律關系主體范圍進行考量,能為應對人工智能發(fā)展所面臨的法律困境提供思考維度。
(一)賦予人工智能體法律主體地位的理論必要
第一,從法律主體范圍擴張的規(guī)律來看,法律主體的認定標準隨著時代發(fā)展而不斷發(fā)展變化。法律主體的范圍并非一定不易的[4],而是隨著社會發(fā)展而不斷進行拓展,逐漸涵蓋了各類主體;自然人也并非天然即擁有法律關系主體地位,也并非每一個法律主體自其誕生以來都是平等的。隨著經(jīng)濟發(fā)展,出現(xiàn)了法人、合伙企業(yè)等不具有法律實體但卻同樣具有法律人格的主體,因此,賦予法律關系主體地位已經(jīng)從倫理本位逐漸發(fā)展為“滿足社會的需要”的價值本位,目前對于法律主體人格的判定并不要求當然具有倫理性,這一具有價值趨向性的判別標準已經(jīng)成為是否賦予法律主體地位的主要考量。而人工智能是以“人”為導向進行研發(fā)的,具備類人的學習和行動能力。社會的經(jīng)濟增長有賴于經(jīng)濟創(chuàng)新為其提供發(fā)展動力,因此想要人工智能獲得長足的發(fā)展,勢必要為其提供新的發(fā)展動能。
第二,賦予人工智能體法律主體地位的根本目的是化解人類所面臨的由人工智能發(fā)展所帶來的法律風險。法律的創(chuàng)設旨在為維護人類利益提供方法與途徑,人不是手段,而是目的。在法律上賦予人工智能以主體人格,根本目的亦在于解決人工智能體帶來的法律風險,法律制度的創(chuàng)設和更新都是將滿足人類的需求和推動人類的發(fā)展作為其出發(fā)點和落腳點。而人工智能的發(fā)展也是一把雙刃劍,在為人類生活帶來便利的同時,也產(chǎn)生了相應的社會問題。因此,賦予人工智能體法律主體地位[5],使人工智能體在一定程度上可以對自己的行為承擔相應的責任,對人工智能體生產(chǎn)者、使用者、所有者、受害者的責任進行明晰,亦可以有效推動人工智能的發(fā)展,也會對司法的發(fā)展產(chǎn)生促進作用。
第三,認定人工智能體法律主體地位能夠為解決人工智能體帶來的法律風險提供現(xiàn)實解決方案。目前,伴隨著人工智能科技的革新發(fā)展,人工智能體不斷涌現(xiàn),在其廣泛應用到社會生活的同時,也會引發(fā)一系列新的法律問題,例如,人工智能體所創(chuàng)造的作品是否具有著作權;無人駕駛汽車導致的侵權損害應如何歸責;甚至于計算機程序之間因為無法兼容而導致的算法競爭。在這種境況之下,再將人工智能體視為法律關系“客體”看待,已不足以解決人類社會所面臨的人工智能發(fā)展與應用所導致的問題,而通過賦予人工智能體以法律主體地位,破除“非人即物”的固有觀念,可以為人工智能發(fā)展問題的解決提供切實有效的法律路徑。
(二)賦予人工智能體法律主體地位的現(xiàn)實可能
人工智能體理論上具備賦予其法律主體地位的必要性,賦予人工智能體法律主體地位也具備現(xiàn)實實現(xiàn)的可能性。
第一,從人工智能技術自身發(fā)展而言,能否賦予其法律主體地位,本質(zhì)上即要分析人工智能體是否符合法律關系主體的構成要素。首先,在民法基本法的理論框架下,法律關系主體必須具備權利能力與行為能力,成為法律關系主體的權利來源于獨立的法律人格,即第一層面的權利能力。李永軍認為,權利能力是法律技術性的表達且無倫理性,那么只要人工智能更具有智能性,并向人的行為靠攏,就可以被賦予權利能力。在未來的強人工智能階段,人工智能體的發(fā)展更趨向于人的行動,并可以進行獨立思考,具備高智性的特點,人工智能體有被賦予權利能力的現(xiàn)實可能。其次,人工智能體成為法律主體要求其具備相應的責任能力,即可以對自身行為承擔責任,這是成為法律關系主體的必然要求。對于未來強人工智能階段人工智能體的責任承擔問題,可以通過設立人工智能儲備基金或者對人工智能體架設強制性保險機制來解決。最后,人工智能體是否具有獨立的意志,即人工智能體是否可以在不受人類干預的情況下獨立、完整地作出自主判斷,并進行相關活動。《人工智能標準化白皮書(2018版)》早在2018年就已經(jīng)提出了人工智能獨立思考的可能性,人工智能體的獨立意志有賴于智能技術的發(fā)展與創(chuàng)新,就目前而言,人工智能體確實依賴于人類的編程與操作,但在強人工智能階段,人工智能體的發(fā)展勢必會突破現(xiàn)有的技術局限,因而對于人工智能體是否具有獨立的意志,應以發(fā)展的眼光看待。
第二,從人工智能體的現(xiàn)實應用路徑看。首先,在人工智能體主體身份方面,2017年沙特授予人工智能機器人“索菲亞”以公民身份[6],這是全球第一位擁有公民身份的機器人,對“索菲亞”的公民身份的承認并不單純是對其身份的認可,更深層次而言,公民身份獲得的前提是對其法律主體或者權利主體資格的肯定[7];美國國家公路安全交通局將Google無人駕駛汽車所采用的人工智能體認定為司機;日本基于個案賦予陪護機器人“帕羅”以戶籍地位。其次,在知識產(chǎn)權歸屬方面,南非被認為是世界上第一個授予人工智能發(fā)明專利的國家——將一種基于分形幾何的連鎖食品和飲料容器的專利確定“達布斯”(統(tǒng)一感知的自主引導裝置)為其發(fā)明者;百度發(fā)布的《百度人工智能專利白皮書2022》中顯示,截至2022年4月,百度全球人工智能專利申請超過2.2萬;北京聯(lián)合出版有限公司將署名為人工智能體“小冰”的“人類史上首部人工智能靈思詩集”進行出版。此外,目前生成式人工智能ChatGPT的廣泛應用,其生成物是否具有知識產(chǎn)權引發(fā)激烈討論。最后,在人工智能體的責任分配方面,伴隨著人工智能的深度學習能力的發(fā)展,例如達·芬奇手術機器人、無人駕駛汽車等可能會出現(xiàn)的侵權風險,也亟須賦予其法律主體地位,使其在法律上承擔相應的責任成為現(xiàn)實可能。因此,賦予人工智能體以獨立的法律主體地位亦是社會發(fā)展的現(xiàn)實需求。
三、人工智能體法律地位的系統(tǒng)規(guī)制
將人工智能體發(fā)展納入法律治理的框架之下,通過系統(tǒng)規(guī)制對人工智能體的法律地位予以明確,規(guī)范人工智能發(fā)展,協(xié)調(diào)人工智能體與社會主體之間可能潛在的法律沖突,通過技術規(guī)范與倫理保障,推動人工智能與法治社會的協(xié)調(diào)發(fā)展。通過立法回應與制度關照,實現(xiàn)良法善治,推動人類社會與人工智能發(fā)展的同心同向同力同行。[8]
(一)探索人工智能體的立法架構
第一,要對人工智能體的法律地位進行明確界定。以人工智能技術迅猛發(fā)展的勢頭,在未來其勢必會突破現(xiàn)有立法框架的窠臼。目前,我國雖然在宏觀政策與行業(yè)規(guī)劃上對人工智能發(fā)展予以肯定與支持,并逐步從人工智能技術的旁觀者發(fā)展為引領人,但對于人工智能體的法律地位仍沒有明確的法律規(guī)范進行界定。法律具有滯后性,但法律的制定要求立法者能夠具備前瞻性。因此,我國需要補足人工智能體法律規(guī)范的短板,通過制定與完善相關法律法規(guī),對不同發(fā)展階段的人工智能體從法律層面予以界定并加以規(guī)制,以法律促進人工智能技術的良性發(fā)展,以人工智能技術的發(fā)展推動法律的完善與進步。
第二,要對人工智能體權利的標準與范圍進行明確。人工智能體發(fā)展到高級階段,具備深度學習能力與在獨立意志支配下的自主行動能力,需要對它的權利邊界進行明確的劃定。人工智能體的發(fā)展初衷是更好地滿足人類的需求,那么人工智能體法律上的權利義務關系亦應在人類所設的標準之下,其權利的行使也應該在嚴格的限制之中。面對發(fā)展著的人工智能技術,不能采用列舉法對人工智能體的權利加以規(guī)制,而應對人工智能體的權利范圍進行兜底式規(guī)制。在對人工智能體權利標準與范圍的劃分這一問題上,要結(jié)合現(xiàn)實社會的實際發(fā)展需求,既要賦予其相應的權利,也要對其權利行使的標準與范圍進行嚴格限定,實現(xiàn)人工智能技術的長效發(fā)展。
(二)明確人工智能體侵權行為的責任歸屬
明確人工智能體侵權行為的責任歸屬,可以說是處理人工智能體侵權問題的痛點與難點。
第一,目前,我國法律尚未對人工智能體法律地位進行界定,加之由于無法明確人工智能體的責任歸屬,使人工智能體歸責后續(xù)責任承擔問題一直處于懸而未決的困境之中。將人工智能體視為法律關系主體,是人工智能體承擔侵權責任的先決條件?!吨腥A人民共和國民法典》明確規(guī)定,承擔侵權責任要求主體必須適格。當前,人工智能體并非適格的侵權責任主體,針對《中華人民共和國民法典》中有關侵權責任編的具體規(guī)定無法進行適用。在人工智能技術高度發(fā)展的前提下,應賦予人工智能體以法律主體地位,使人工智能體成為適格的法律關系主體,使其具有參與法律關系的“入場券”,為其侵權責任承擔提供路徑[9]。通過賦予其法律主體地位也為其擁有獨立財產(chǎn)權提供了基礎條件,為其后續(xù)責任承擔提供了可能。
第二,在理論上即便對人工智能體的法律地位予以認可,但在短期內(nèi)其無法實現(xiàn)與人類比肩的責任能力,即它雖然具有完整的權利能力,但其責任能力的承擔范圍可能并不能與完全能夠承擔獨立責任的法律主體相比,但作為法律關系的主體,參與到社會活動當中,相應地,其理應承擔相應的法律責任。承認人工智能體獨立的法律人格可能更有助于厘清法律關系,劃分人工智能體具體的權利義務,將致害責任進行合理分擔,更好地將人工智能發(fā)展納入法制軌道中。例如,為人工智能體強制投保責任保險,將人工智能體可能存在的現(xiàn)實風險利用保險進行轉(zhuǎn)移;又如設立人工智能體發(fā)展基金,為人工智能體獨立承擔責任提供現(xiàn)實基礎。
(三)加強人工智能領域的技術保障
第一,要對人工智能設計程序加強技術規(guī)范。人工智能體根植于人工智能技術,至于強人工智能,縱使它可以進行獨立思考并進行深度學習,在創(chuàng)設之初也都是采用人工智能設計程序?qū)ζ溥M行編寫方可使其不斷發(fā)展,人工智能設計程序造就了人工智能體的“性格”,決定了它在后續(xù)深度學習中與人類社會的契合度,以及以何種姿態(tài)參與到社會生產(chǎn)生活中。例如,在與人類的相處之中,可以成立專家團加強對人工智能技術的管控,進行技術報備,設立統(tǒng)一的程序編寫平臺對其進行實時評估等。
第二,要對人工智能開發(fā)階段的程序設計提高適用門檻。對開發(fā)階段的編寫代碼進行實質(zhì)審查,對安全性、保密性、合規(guī)性進行全過程監(jiān)管,從開發(fā)源頭避免人工智能體在實際應用中的可能性風險。例如,可以在開發(fā)程序設計內(nèi)部設置風險預警機制,一旦發(fā)現(xiàn)有疑似違規(guī)行為,立即進行警示反應并溯源到具體行為人,以技促技,為人工智能的發(fā)展保駕護航。
(四)完善人工智能領域的法律監(jiān)管與倫理規(guī)范
法律是調(diào)整社會關系的主要工具,但法律具有不可避免的滯后性,因為為了保證法律的權威性和公平性,需要經(jīng)過嚴格且漫長的立法程序。在法律保障層面,一方面,要通過法律適用對人工智能發(fā)展進行正向引導與規(guī)制,如不能及時加以規(guī)制,易使人工智能發(fā)展不受約束,可能會存在人工智能體擾亂社會秩序、威脅社會安定的風險;另一方面,可以通過政府介入,對人工智能技術的發(fā)展進行引導與管控,同時建立專業(yè)機構進行實時綜合監(jiān)管,使設計、研發(fā)成員遵守倫理規(guī)則并積極承擔社會責任,使相應的制度與機構配套協(xié)調(diào)發(fā)展。此外,人工智能法律監(jiān)管的機制設立需要接入國際人工智能法律監(jiān)管機制的軌道當中,為防范人工智能技術發(fā)展所帶來的潛在法律問題,需要及時對人工智能法律監(jiān)管機制進行提質(zhì)升級,并借鑒國外的優(yōu)秀經(jīng)驗。
此外,在注重法律保障的同時,也要兼顧倫理規(guī)范保障。《人工智能倫理治理標準化指南(2023版)》從全球戰(zhàn)略角度加強倫理規(guī)范在人工智能發(fā)展領域的應用,以期建立人工智能倫理治理標準體系與具體標準研制規(guī)范。人工智能發(fā)展的倫理規(guī)范機制可以將人本位思想作為中心思想貫穿于人工智能的發(fā)展過程。賦予人工智能體法律主體地位的目的在于更好地保障人類的合法權益。人工智能技術的發(fā)展本質(zhì)上是為了更好地為人類服務并在現(xiàn)實生活中為其提供便利,因此,在確立人工智能倫理規(guī)范時必須堅持人本位的中心思想。同時,確立人本位的中心思想是為了使人工智能研發(fā)、創(chuàng)造、發(fā)展的全過程都可以始終將滿足人類的發(fā)展需求作為目標和方向,尊重人的尊嚴與價值。此外,人工智能倫理規(guī)范的確立需要遵循協(xié)調(diào)發(fā)展原則。人工智能技術的發(fā)展為現(xiàn)代生活的智能化發(fā)展提供了新契機,同時由于人工智能在一些體力型工作上大規(guī)模應用,取代了傳統(tǒng)人力,使就業(yè)崗位減少,對工作崗位的要求越來越專業(yè)化、高素質(zhì)化,因此,在推動人工智能發(fā)展的同時,也需要協(xié)調(diào)由于其發(fā)展所帶來的不相適宜的問題。
四、結(jié)語
人工智能技術的進步推動了社會生活的智能化發(fā)展,為現(xiàn)代人類生活創(chuàng)設了更多便利,也給人類社會帶來了一系列新的發(fā)展問題,同時在一定程度上對人類的生存發(fā)展提出了挑戰(zhàn)[10]。就目前人工智能的發(fā)展現(xiàn)狀,結(jié)合未來的發(fā)展前景,將人工智能體長期歸類于法律關系的客體,不僅會阻礙人工智能技術的長遠發(fā)展,同時對于解決人工智能體所引發(fā)的法律問題與潛在風險也毫無裨益。對于是否應肯定人工智能體法律主體地位,應該在秉持謹慎性的同時,在一定的發(fā)展背景下對法律主體范圍進行擴張解釋,為人工智能發(fā)展釋放新動能。當然,我們不能放棄嚴謹性的原則,對人工智能體在一定條件下被賦予法律主體的后續(xù)制度安排,也要進一步統(tǒng)籌優(yōu)化,為其具體適用提供完善的程序和制度保障。賦予人工智能體法律主體地位是時代發(fā)展的現(xiàn)實要求[11],也是推動人工智能技術發(fā)展的必然選擇,我們要進一步加強相關制度的構建和法律保障,為人工智能發(fā)展所帶來的問題提供法律路徑,通過法律促進人工智能的長足發(fā)展。
參考文獻:
[1]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017,35(5):128-136.
[2]汪慶華.人工智能的法律規(guī)制路徑:一個框架性討論[J].現(xiàn)代法學,2019(2):54-63.
[3]呂尚彬,黃榮.智能技術體“域定”傳媒的三重境界:未來世界傳播圖景展望[J].現(xiàn)代傳播(中國傳媒大學學報),2018(11):37-45.
[4]劉云.論人工智能的法律人格制度需求與多層應對[J].東方法學,2021(1):61-73.
[5]彭誠信,陳吉棟.論人工智能體法律人格的考量要素[J].當代法學,2019(2):52-62.
[6]程承坪.論人工智能的自主性[J].上海交通大學學報(哲學社會科學版),2022(1):43-51.
[7]范進學.人工智能法律主體論:現(xiàn)在與未來[J].政法論叢,2022(3):3-17.
[8]李海娟.人工智能主體化的法律應對——以未來強人工智能的出現(xiàn)為視角[J].對外經(jīng)貿(mào),2022(10):76-79.
[9]姚遠,劉迎迎.人工智能法律主體性的考察和探究[J].青島科技大學學報(社會科學版),2019(1):85-90.
[10]何欣蔚,夏建國.人工智能法律主體地位問題研究[J].大學教育,2020(10):143-146.
[11]程龍.人工智能體刑事訴訟被追訴人地位審思[J].學術交流,2020(7):79-93.
責任編輯? 宋桂祝