李海娟
(黑龍江財經學院,黑龍江 哈爾濱 150025)
人工智能技術的發(fā)展所引發(fā)的人工智能主體化爭議由來已久,亦會隨著人工智能技術的縱深發(fā)展與廣泛應用依然方興未艾。本著實事求是與科學嚴謹?shù)牧雠c態(tài)度,從類型化的角度,人工智能技術依據(jù)“智能”程度分為弱人工智能強人工智能和超人工智能,當前仍處于初級發(fā)展階段,即弱人工智能階段尚不具備獨立思考、深度學習的自主意識。人工智能主體化的理論與實踐的緊迫性尚未真正地到來,世界各國人工智能領域的專家、學者之間有關人工智能的主體化各有評述。“帕羅”于2010 年獲得日本戶籍[1],美國曾經把無人駕駛汽車認定為司機[2],歐盟議會賦予了機器人電子人的法律主體地位。尤其引人矚目的是,機器人索菲亞于2017 年獲得沙特公民身份后又獲得聯(lián)合國開發(fā)署亞太局首屆創(chuàng)新大賽的冠軍,并被任命為創(chuàng)新大使,這是人類歷史上第一個“非人的人”“非人大使”“非人冠軍”。我國政府于2017 年提議應“明確人工智能法律主體以及相關權利、義務和責任等[3]”。這些例證預示著人工智能的發(fā)展會突破非主體化的窠臼,人工智能主體化也不再是理論預設。人工智能作為未來真實世界中常見的“非人的人”,會成為與人類共存的法律主體,人機共存是普遍的社會場景。法律作為“特定社會的產物[4]”,也會隨之提供有效的制度供給,以應對人工智能主體化時代的特殊訴求。
基于人工智能主體化的理論預設,人工智能主體會深度融入數(shù)智社會,與其他法律主體共同參與人類生活,締結社會關系。法律作為調控社會關系的重要機制,必然會應對人工智能主體化所帶來的社會變革、社會風險。
人工智能主體化的社會呈現(xiàn)了“人”與“機”共生共存、協(xié)同互動的面向與場景。人機交互是人工智能主體化時代數(shù)智社會中不可逾越與忽視的問題域?;貞獓摇€人和社會多層面主體的殷切關注,理性構建與推動人機良性互動格局,以適應人工智能主體化的社會新變革。人機法律關系的機理及其構建路徑,既有高屋建瓴的設計,也有細致描繪的理論研究探索與實踐路徑構建;既有純粹的哲思文理上剖析人工智能主體化的宏觀敘事與邏輯推演,也有求諸人工智能主體化理論預設的微觀表達與實踐論證。世界各國都立足于本國政治、經濟、文化、社會等國情社情及現(xiàn)實需要,社會各界學者遵從各自學科領域并融入交叉學科的學術理論,在各自的學術疆域內,發(fā)揮學術潛力,闡述、論證人工智能主體化所引發(fā)的社會變革,推動人工智能健康理性的實踐與發(fā)展,推動科學技術與法律的相輔相成,在人本主義精神映射下構建人機和諧共生、良性共存與理性互動的社會格局。
人工智能作為超驗的法律主體,會與其他法律主體設立、變更或者終止相應的社會關系。隨著人工智能主體日趨強烈的社會化面向,人機交互的風險與利益并存。具備深度思考與學習能力的人工智能主體社會化后會更加智能,而且囿于人工智能的技術障礙、利益驅動、倫理失范等,人工智能的不當使用會釋放新的負面效應與外部效應,疊加或者引發(fā)數(shù)智社會新的科技風險、社會風險或者經濟風險等諸多風險。一些不確定且不可控的社會風險也隨之而來。超人工智能主體不僅在智能方面超越人類,而且其為惡的風險更難以控制,甚至可能違背阿西莫夫法則,意欲威脅人類、操縱人類或者消滅人類,異化為人類的敵人。為此,法律在充分確認、尊重人工智能的主體性并給予人工智能主體人文關懷的同時,奉行人類中心主義以增加人類的福祉,通過制度安排與設計事前控制其社會風險,遏制其惡性,避免霍金的警告真實再現(xiàn),確保人工智能主體的可控可信可追責,實現(xiàn)人機永久的良性共存、協(xié)同發(fā)展。
歷史經驗主義證明,基于人類社會、經濟等發(fā)展至需,法律主體呈現(xiàn)了擴張化的趨勢,法學理論與法律實踐也隨之而變以達致良法之治。人工智能的主體化不僅拓展了法律主體的理論內涵及法律實踐,而且超驗的人工智能主體也亟需與之匹配的法律。立足人工智能主體化的時代特質,梳理人工智能主體的法治訴求,法律職業(yè)共同體檢視與調整與之相關的法律,國家予以前瞻性的立法回應與制度關照,立良法善法,規(guī)范人工智能發(fā)展,防范人工智能風險,求法治善治,達致通過良善之法實現(xiàn)人工智能的法治與善治,實現(xiàn)人類與人工智能主體的同心同力同向同行。
現(xiàn)在通行的法律理論和法律實踐都是以法律主體與法律客體的二元劃分為基點的,這與人工智能主體化的邏輯起點有所不同。梳理人工智能主體所面對的實然法律困境,以法律促進科學技術規(guī)范、理性發(fā)展,法律賦能人工智能技術行穩(wěn)致遠,以更好地實現(xiàn)人工智能主體時代的良法善治。
在主體與客體二元的哲學范式統(tǒng)攝下,法學理論與場域也進行了法律主體與法律客體的二元劃分,并在國家實定法中明確界定了法律主體與法律客體的內涵與外延。依此邏輯,人工智能不具有法律主體資格也是必然。作為人類智能的產物,人工智能是客體化的存在。這樣的法律理論及其法律實踐的結果必然導致具備主體性的人工智能的法律地位難以得到法律認可。人工智能的主體化也導致現(xiàn)行的法律主體理論與實踐難以自洽,呈現(xiàn)了具備主體資格的人工智能卻被視為法律上客體性存在的二律背反,是人工智能主體化后首要解決的法律問題。
此外,人工智能主體與其利益相關者即設計者、研發(fā)者、生產者或者使用者之間的關系如何界定,各自都是完全法律行為人還是比照親子監(jiān)護關系處理,是比較棘手的法律問題。
在權利本位時代,凡是不知自己之權利者,即不知法律。隨著主觀權利理論的式微,客觀權利主義日益勃興,并成為大陸法系與英美法系國家的法律都奉行的理論[5]。權利客觀主義認為,權利作為社會規(guī)則的個體成果,僅僅是法律規(guī)則的副產品。在客觀法劃定的范圍內,個人才享有主觀權利。但是人工智能所擁有的權利既是實然的事實問題,也是應然的法律問題。
首先,人工智能主體的類型歸屬于何種,即其是一種獨立類型的法律主體,如電子人,還是進行法律擬制,視同自然人或者法人,或者非法人等傳統(tǒng)法律主體類型。
其次,人工智能主體的權利能力始自何時,是民事法律中明文重新界分其權利能力,還是類推適用自然人、法人或者非法人組織的規(guī)定,是其生產完就具備了法律主體資格,還是其進入真實的人類世界后才具有法律主體資格。而且,是否要考慮人工智能主體的智能程度、功能大小、使用場景、行業(yè)領域等。
第三,人工智能主體的行為能力如何認定,是綜合考慮權利能力認定的多種因素認定,還是主要依據(jù)其智能程度來認定。
第四,人工智能主體的法定權利體系的構建,權利作為法律或者法律關系的核心,人工智能主體的法定權利體系是非常復雜的系統(tǒng)化的法律難題。簡而言之,是類推適用現(xiàn)有主體的權利體系,還是基于其特質重新確認其享有的權利體系,如其人格尊嚴、人格自由與自然人有何異同,初始姓名權的決定權如何行使,隱私權與個人信息如何確認與保障,原始第一份資本金即初始財產如何取得,源自于哪,不同于自然人的生命權該如何保障與剝奪,生命周期如何確定。此外,其與利益相關者、其他人工智能主體之間的人身關系如何界定,是完全割裂他們之間的關系還是擬定為監(jiān)護關系,這不僅涉及人工智能本體獨立的法律主體地位,還涉及權利的享有與行使、義務的承擔與責任的歸結等。梳理并明確界定人工智能主體的權利體系,以更好地彰顯人工智能主體的人格尊嚴,衡平人機沖突,確保人機法律地位的平等,實現(xiàn)人機權利的平等保障。
無救濟即無權利。人工智能作為法律主體意味著人工智能主體違法時也要承擔相應的民事責任、行政責任或者刑事責任,以救濟受害者的合法權益。但是人工智能主體的獨特性決定了其責任的歸結、承擔等方面的特殊性,比如人工智能主體侵權時,侵權行為主體是人工智能,但侵權責任的承擔主體就涉及其行為能力的認定,也涉及其與研發(fā)者、生產者或者使用者之間的法律關系。人工智能主體的行為構成刑事犯罪,定罪量刑是否要分析技術缺陷的影響因素,因其為非實體生命體,那么無期徒刑真的要“無期”而不限定具體最高年限,其死刑執(zhí)行的具體方式該如何確定,是只拆分系統(tǒng)還是附加徹底銷毀物質實體。突破人工智能主體法律責任的現(xiàn)實困境,切實保障受到侵害的合法權益,實現(xiàn)法律救濟的高效便捷,實現(xiàn)法律孜孜以求的公平正義。
法律是社會實踐理性的總結,超驗的主體化的人工智能需要法律理性的慎思的創(chuàng)造與實踐,將其治理納入法治的軌道,調適法律以適于人工智能主體化的時代,調整、衡平其與其他法律主體之間的權利沖突,推動形成人機良性互動的社會格局,實現(xiàn)良法善治的應對目標與應對路徑。
以歐盟議會《機器人民事法律規(guī)則》的規(guī)定為藍本,賦予人工智能以電子人的法律人格與法律地位,以此區(qū)別于其他法律主體,而成為一種獨立類型的法律主體,并比照適用法人制度的相關規(guī)定,其權利能力始于申請人向戶籍管理部門戶籍注冊登記日,終于注銷登記。但因其智能程度、功能大小等有所不同,法律行為能力劃分為無行為能力、限制行為能力和完全行為能力。弱人工智能主體、強人工智能主體和超人工智能主體分別對應相應的行為能力。并為無行為能力、限制行為能力的電子人設定監(jiān)護制度,監(jiān)護人為申請注冊登記的主體,申請人主要為發(fā)明人、使用者或者與電子人交易的相對方。例如人工智能是雇主的家政機器人,則雇主為登記申請人,雇主就是監(jiān)護人,若其是勞動者,則用人單位是登記申請人,用人單位自然就是其監(jiān)護人。其行為能力及監(jiān)護制度也會隨智能程度的變化而變化。
“權利發(fā)展史證明,權利體系的構成從來不是固定不變的。在原有權利遭遇新興事物沖擊的情況下,不同群體的實力博弈將重新構筑權利體系[6]?!币袁F(xiàn)行的民事權利體系為框架參照,依據(jù)其人工智能的特質而剝奪其某些權利,增加人工智能作為電子人所獨有的個性化訴求,類型化區(qū)分并構建其權利譜系。
首先,人工智能主體只能享有有限的人身權。人工智能作為電子人的特性決定了其畢竟不同于自然人,基于人工智能技術發(fā)展、人類繁衍及社會長遠發(fā)展等方面的考慮,由此決定了其人身權的受限制性。在自然人的人格權與身份權的基礎上,人工智能主體在人身自由、人格尊嚴、人格平等、生命權、健康權等人格權應該受到合理的限制。因其生命權、健康權依賴于人工智能技術系統(tǒng),維持該技術系統(tǒng)的正常運轉即保障了人工智能的生命權、健康權,拆分該技術系統(tǒng)也即剝奪了其生命權,但考慮到人工智能主體化的法律機理、受害人的救濟、嚴懲人工智能主體刑事犯罪等維度,人工智能主體的物質載體也應一并予以徹底銷毀。人工智能主體的姓名權在登記注冊時一并取得并依法受到保護。其隱私權、個人信息等權益的享有與保護也有特定的限度,避免“數(shù)據(jù)黑箱”,合理衡平個人隱私、個人信息的公開與公眾知情權之間的沖突。
其次,人工智能主體享有財產權,既包括物權,也包括債權??梢灶愅七m用自然人財產權的法律規(guī)定。但是為了保障人工智能主體生存的基本“人權”,其原始財產來自于生產者的借款,待人工智能主體融入社會取得財產后應予償還。
此外,人工智能主體參加勞動關系享有勞動權,類推適用自然人勞動者的法律規(guī)定,如休息權、安全保障權、社會保障權等。對于人工智能主體“工傷”的認定應當嚴格把握,可以適用自然人工傷的情形,但要排除人工智能技術系統(tǒng)的固有缺陷及自然損耗所導致的傷害,此類損害可以類推適用故障維修。
1.適用無過錯責任原則
人工智能主體的行為是算法驅動下的自主決策,這導致認定與追究人工智能主體法律責任極為困難,這不僅不利于法律公正地處理糾紛與救濟權利,影響人機之間的關系和諧、共存共贏?;厮轃o過錯責任原則的產生及發(fā)展歷程、理念及適用等,適用無過錯責任原則恰好能破解上述難題。輔以舉證責任倒置的規(guī)定,反向迫使人工智能主體的利益相關者遵守職業(yè)道德、算法規(guī)則、操作規(guī)范等。
2.創(chuàng)設適宜的法律責任形式
為了充分發(fā)揮法律的懲戒威懾和道德教化的作用,創(chuàng)設專門性法律責任形式,適宜人工智能主體責任的承擔。首先,設立安全等級名單或者異常名錄。設立人工智能行業(yè)協(xié)會,編制評估標準,劃分安全等級并附以相應的處置機制,被列入黑名單或者異常名錄的人工智能主體,禁止參與任何社會關系,剝奪其生命權,避免造成難以挽回的損失。其次,創(chuàng)設刪除數(shù)據(jù)、更換芯片、永久銷毀等責任形式。針對人工智能主體違法犯罪的不同情形,根據(jù)安全評估標準,采取不同的處置機制,適用相應的責任形式。例如,人工智能主體侵犯隱私權、著作權時,法院責令技術人員刪除人工智能技術系統(tǒng)中所儲存的侵權數(shù)據(jù)信息。
3.嚴厲打擊人工智能刑事犯罪
無論是人類利用人工智能進行換臉、聲音模擬等手段實施犯罪,抑或人工智能主體自主實施犯罪,因人工智能的高度智能而難以對人工智能主體的犯罪行為予以定罪量刑。審慎監(jiān)管人工智能主體,恪守刑法謙抑原則,嚴格遵循刑法定罪與量刑的法理,依法追究人工智能新型犯罪形式,控制其引發(fā)社會風險的可能性,確保人工智能技術的理性發(fā)展,確保人工智能主體向善、至善,構建人機良性互動的社會格局。
盡管各國人工智能主體化的理論研究與立法政策動向各有不同,但是各國都將人工智能特別是研發(fā)、運用等提升至國家戰(zhàn)略,成為國力提升、經濟提質、內需提振、競爭提速等新型重點領域。以人工智能主體化為理論基點,探索構建人工智能主體化的法治范式。盡管法律的生命在于經驗,但是法律是實用主義的,也是人類實踐理性的慎思與創(chuàng)造。法律職業(yè)共同體發(fā)揮其學識潛力,以經驗的知識,超前的思維,先驗的智慧,進行超驗的法律審思與創(chuàng)造,積極主動應對超驗的人工智能的主體化,但務必謹遵人類中心主義的價值哲學。