唐 婧
(南京大學 法學院,江蘇 南京 210000)
陪伴式人工智能平臺興起于注意力經(jīng)濟熱潮中,在情感識別方面以超出一般人工智能平臺的算法能力,通過情感計算與平臺用戶建立連接,用戶可能在此交互過程中對陪伴式人工智能產(chǎn)生情感依賴,因此在發(fā)生侵權(quán)事件時,陪伴式人工智能平臺不僅可能對用戶造成財產(chǎn)、隱私等實體損害,還可能造成精神損害。進一步分析發(fā)現(xiàn),陪伴式人工智能平臺的算法能力已經(jīng)超出傳統(tǒng)技術(shù)中立理論的范疇,因而不應(yīng)當允許平臺以“技術(shù)中立”進行侵權(quán)責任的抗辯。在責任生成的理論和現(xiàn)實邏輯方面,從平臺微觀角度和社會宏觀角度加以論證,結(jié)論是應(yīng)當對陪伴式人工智能平臺施加相對嚴苛的責任。而在責任規(guī)制的具體路徑方面,權(quán)宜之計是充分利用已有的分散式規(guī)則,且在具體運用中保持嚴格的規(guī)制態(tài)度,如采取舉證責任倒置等辦法,先行解決司法實踐的困難。理想的方式是在陪伴式人工智能發(fā)展成熟之時以通用規(guī)則進行規(guī)范。
陪伴式人工智能軟件是一種由人工智能驅(qū)動,旨在提供情感支持、交流和陪伴的平臺,能夠通過文本對話、人機交互和生成技術(shù)等方式與用戶進行互動。在數(shù)字化變革的浪潮中,依托算法的應(yīng)用,陪伴式人工智能平臺已經(jīng)發(fā)展到能夠分享用戶的感受和情緒的階段,即具有情感識別和情感計算的功能。如此強大的算法能力引發(fā)一系列現(xiàn)實問題,一個直接的表現(xiàn)是司法實踐中逐漸出現(xiàn)由陪伴式人工智能平臺引發(fā)的侵權(quán)法律爭議。在民法典頒布后人格權(quán)司法保護典型民事案例中,有一例人工智能軟件擅自使用自然人形象創(chuàng)設(shè)虛擬人物構(gòu)成侵權(quán)的“AI陪伴”軟件侵害人格權(quán)案[1]。法院經(jīng)審理后認為用戶與以何某的姓名、肖像等互動素材生成的AI角色設(shè)定身份關(guān)系,并通過該AI軟件“調(diào)教”角色,從而形成與何某真實互動的體驗,這涉及自然人的人格自由和人格尊嚴,構(gòu)成侵權(quán)。同時,法院否認了案涉軟件平臺的“中立技術(shù)服務(wù)提供者”地位,最終判決該人工智能軟件與用戶構(gòu)成共同侵害原告肖像權(quán)的行為。此案明確了自然人的人格權(quán)及于其虛擬形象,這無疑對于虛擬現(xiàn)實等新技術(shù)的發(fā)展有更好的規(guī)制意義。但是,裁判結(jié)果中對于案涉軟件算法應(yīng)用的評價標準是否合理仍存在爭議。軟件平臺和用戶一同承擔侵權(quán)責任的判決結(jié)果似乎與傳統(tǒng)的“技術(shù)中立”觀點背道而馳。
現(xiàn)行法中對網(wǎng)絡(luò)平臺責任的規(guī)定可以簡要分類為信息安全主體義務(wù)、處理反饋義務(wù)、配合監(jiān)督檢查義務(wù)、個人信息保護義務(wù)以及包括避風港責任在內(nèi)的相關(guān)義務(wù),如表1所示。其中,由國家網(wǎng)信辦、工業(yè)和信息化部、公安部聯(lián)合發(fā)布并于2023年1月實施的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第十七條提到了顯著標識義務(wù)。這一規(guī)定主要針對深度合成技術(shù)與服務(wù)的主體責任和義務(wù)。然而,盡管深度合成技術(shù)與陪伴式人工智能平臺所提供的技術(shù)存在交叉,但是陪伴式人工智能平臺的技術(shù)核心并不在于深度合成,其并非真正意義上的深度合成技術(shù)平臺,因此將此規(guī)定直接“遷移”并且應(yīng)用于解決當前司法實踐的困境似乎并不完全適配。
表1 現(xiàn)行法中網(wǎng)絡(luò)平臺責任的相關(guān)規(guī)定
學界對于此類依托算法而運行的平臺的責任分配也存在不同意見。比如就算法之于人工智能平臺的基礎(chǔ)地位來看,從算法層面入手探究對平臺的問責路徑存在一定的正當性,但是有學者認為對算法進行問責需要具體呈現(xiàn)算法造成的實際損害,然而在現(xiàn)實中很難在算法實施者與算法侵害者之間建立起必要的因果關(guān)系[2]。還有學者提出考慮到傾向于利好互聯(lián)網(wǎng)產(chǎn)業(yè)發(fā)展的政策選擇和既有的司法裁判,采取相對寬容的價值選擇,因此不應(yīng)當在生成維度對人工智能服務(wù)提供者課以一般性義務(wù),但如果在事實層面能以合理成本避免侵權(quán)內(nèi)容的再次生成,則在事后移除維度可對其課以相應(yīng)義務(wù)[3]。學界對于人工智能平臺應(yīng)該承擔的責任觀點各異,但大多停留在歸納整理人工智能平臺帶來的法律風險與對應(yīng)的規(guī)制框架構(gòu)想上,卻沒有為其構(gòu)想提供具有證成性的理論邏輯和具有普適性的現(xiàn)實方案,有落入“稻草人謬誤”之嫌。
基于前述問題,陪伴式人工智能平臺產(chǎn)生于特殊的注意力經(jīng)濟熱潮中,且由于涉及情感計算,在人格權(quán)侵權(quán)等與自然人直接相關(guān)的法律風險方面顯著高于一般的人工智能平臺。那么,在法律存在空白地帶的情況下,此經(jīng)濟模式下自身擁有強大算法能力的平臺是否可以繼續(xù)以“技術(shù)中立”“技術(shù)無錯”作為平臺免責的正當性基礎(chǔ),抑或是應(yīng)當賦予平臺一種專屬的責任,這是研究陪伴式人工智能平臺算法應(yīng)用評價標準無法避開的問題。本文擬探討用戶通過陪伴式人工智能平臺實施侵權(quán)行為時,平臺是否應(yīng)當分擔相關(guān)侵權(quán)責任的問題。具體而言,從微觀層面,理清陪伴式人工智能平臺的底層運行邏輯,分析算力的深刻變革引發(fā)歸責理論路徑的變化,從而帶來的算法應(yīng)用評價標準的改變;從宏觀層面,在注意力經(jīng)濟時代,比較陪伴式人工智能平臺侵害救濟的整體社會成本與收益,探究平臺歸責的現(xiàn)實必須性。
陪伴式人工智能平臺產(chǎn)生于注意力經(jīng)濟浪潮中。注意力經(jīng)濟是數(shù)字化社會發(fā)展過程出現(xiàn)的一種經(jīng)濟新樣態(tài),它不僅會對社會生產(chǎn)生活產(chǎn)生影響,甚至還重塑著人們的認知進而影響情感和行為模式[4]。具體來說,數(shù)字化社會最顯著的特征是信息過載。信息過載的直接后果是人們的注意力變得分散和稀缺。也正因此,注意力逐漸變成一種珍貴的受到搶奪的資源,因為在以數(shù)據(jù)和信息構(gòu)建的網(wǎng)絡(luò)世界中,獲得注意力就意味著巨大經(jīng)濟利益的獲得。注意力經(jīng)濟初期,吸引大眾注意的手段相對簡單和常規(guī),比如應(yīng)用通過手機彈窗對用戶進行通知和提醒、網(wǎng)站通過無限滾動的方式用短時間的大量信息吸引用戶停留等。然而,隨著信息從大量變得巨量再到超量,用戶趨于疲憊,常規(guī)的吸引方式無法持續(xù)捕捉到足量的注意力,網(wǎng)站以及應(yīng)用平臺開始利用更高級別的算法技術(shù)對用戶進行深入的偏好計算,這意味著其吸引手段從大眾化走向個性化,信息呈現(xiàn)樣態(tài)從靜態(tài)向動態(tài)轉(zhuǎn)變。初始的具體表現(xiàn)為通過分析用戶的歷史瀏覽進行個性化推薦。而陪伴式人工智能平臺所依托的無疑是一種比算法個性化推薦還要深入的技術(shù)。通過使用自然語言處理和情感分析技術(shù),陪伴式人工智能平臺可以理解用戶的語言和情感表達,并根據(jù)這些信息提供個性化的回應(yīng)和支持,這一功能契合了當前社會人們普遍需要陪伴的心理需求。經(jīng)過一段時間,用戶將對其專屬的陪伴式人工智能產(chǎn)生情感依賴。這一過程存在極大的法律風險,主要體現(xiàn)在情感連接形成過程中的信息雙向供需:在需求層面,侵權(quán)人利用陪伴式人工智能平臺對目標人群的偏好信息進行定向和操縱,以求在個人注意力爭奪中獲得優(yōu)勢地位;在供給層面,侵權(quán)人用來作為吸引源的信息本身可能來自于目標人群以外的第三方群體,比如未經(jīng)授權(quán)的明星肖像、語音等信息。
前述法律風險和一般平臺侵權(quán)案件的法律風險存在一定差異,這是因為注意力經(jīng)濟背景下的情感依賴不同于通常的物質(zhì)或者心理依賴,它是陪伴式人工智能平臺“精心設(shè)計”的運行規(guī)則下的風險產(chǎn)物,在此情境中如果允許平臺在發(fā)生侵權(quán)事件后仍以“技術(shù)中立”進行抗辯,從事實層面將明顯超出傳統(tǒng)技術(shù)中立理論所保護的范疇。
2.2.1 傳統(tǒng)技術(shù)中立理論的應(yīng)用前提
“技術(shù)中立”發(fā)軔于美國索尼案,最初被作為平衡技術(shù)進步和版權(quán)保護的解釋工具。技術(shù)中立原則缺乏制定法的依據(jù),但是其在判例法體系下不斷發(fā)展完善。司法實踐對技術(shù)中立原則的修正過程中,技術(shù)中立被廣泛應(yīng)用于技術(shù)密集型領(lǐng)域,并逐漸明確了技術(shù)中立不應(yīng)脫離普通法中以過錯為基礎(chǔ)的責任規(guī)則。以我國《民法典》第一千一百九十七條對網(wǎng)絡(luò)服務(wù)提供者侵權(quán)責任的規(guī)定為例,判斷此類技術(shù)提供者是否與用戶承擔連帶責任的關(guān)鍵在于其是否明知或者應(yīng)當知道用戶行為侵權(quán)但未采取措施,這是衡量技術(shù)提供者對技術(shù)使用者侵權(quán)行為帶來的損害結(jié)果是否具有過錯的關(guān)鍵。而技術(shù)中立的內(nèi)涵在于如果技術(shù)提供者無法預料或控制一個技術(shù)被用于合法用途或非法用途,則無需僅因技術(shù)成為侵權(quán)工具而使提供者為他人的侵權(quán)行為負責[5]??梢姡夹g(shù)中立主要通過否定技術(shù)提供者“應(yīng)當知道”技術(shù)使用者利用技術(shù)實施侵權(quán)行為的推斷,從而阻斷了技術(shù)提供者承擔連帶責任的追責路徑。
無法否認的是,承認技術(shù)中立很大程度上體現(xiàn)了結(jié)果導向的簡單功利主義立場。這是因為一項新技術(shù)產(chǎn)生之初往往能為社會生產(chǎn)力注入新的活力,從而在短時間內(nèi)為社會經(jīng)濟帶來較大幅度的增長,這種增長在社會進入平穩(wěn)或者乏力的發(fā)展階段時尤具吸引力。追求效用的理性集體會自發(fā)地在立法中傾向于保護新技術(shù)的應(yīng)用不受到影響,因而采取格外寬松的法律政策,包括在已有法律規(guī)則框架中以“技術(shù)中立”的立場給新技術(shù)以“優(yōu)待地位”??梢哉f,在相當長的一段時間里,立法者達成了一種默認的觀念,即為了激勵新技術(shù)的發(fā)展,使技術(shù)的自由價值讓位于法律的秩序價值。
然而,除去現(xiàn)實需要的考量,從源頭探尋技術(shù)中立的價值取向,會發(fā)現(xiàn)此種中立理念來源于對技術(shù)具有“純粹目的工具性”的認定。對技術(shù)的工具性判定,最早可以追溯到亞里士多德,他認為相對于理論與實踐活動而言,“技藝”是一種工具性活動。韋伯對于技術(shù)本質(zhì)的判斷和亞里士多德是一致的,他判定技術(shù)的本質(zhì)是工具理性[6]。這些傳統(tǒng)的對技術(shù)本質(zhì)的探尋延伸出技術(shù)本身并不帶有道德或法律責任的觀點。如果將技術(shù)等同于工具,那么必須承認工具的一大特性在于“片面可控性”。具體來說,工具本身與人類的操縱存在隔閡,即使人類能在某一方面應(yīng)用工具產(chǎn)生積極效益,但往往無法控制工具在每一應(yīng)用方面都保持相似的積極作用。
2.2.2 注意力經(jīng)濟引發(fā)技術(shù)中立的要件變化
然而,注意力經(jīng)濟的發(fā)展打破了技術(shù)“片面可控”的工具屬性。在這場以爭奪網(wǎng)絡(luò)用戶注意力為核心的變革中,雖然技術(shù)后果因為技術(shù)的迅速迭代而變得不可預測,但是技術(shù)本身的能力超越了以往的片面可控性質(zhì)。在人工智能高速發(fā)展的今天,技術(shù)的進程在極短的時間間隔內(nèi)實現(xiàn)一次次突破,達到以指數(shù)方的速率向前推進的狀態(tài)[7]。陪伴式人工智能平臺所依托的算法已經(jīng)具有在單位時間內(nèi)容納數(shù)以萬計的數(shù)據(jù)和信息實時流動、交互和更新的能力,對數(shù)據(jù)和信息內(nèi)容的研判及審查有著全面的覺察能力、高度的感知能力和快速的處理能力。雖然當前算法技術(shù)存在黑箱問題,導致侵權(quán)人進行信息利用時的具體過程難以被清晰呈現(xiàn),但是算法可以分析出侵權(quán)的所有可能路徑并識別最后的侵害結(jié)果??梢哉f,當前算法技術(shù)的發(fā)展水平已經(jīng)不再滿足技術(shù)中立的應(yīng)用條件。
追究技術(shù)中立要件變化的根源,可以發(fā)現(xiàn)由于技術(shù)本身具有強烈的應(yīng)用性和明顯的經(jīng)濟目的性,經(jīng)濟往往成為技術(shù)發(fā)展的動力和方向。當前技術(shù)的迅速發(fā)展和革新是在注意力經(jīng)濟背景下完成的。這種變化遵循基本的鏈式反應(yīng):注意力經(jīng)濟的出現(xiàn)使得技術(shù)發(fā)展到新的水平,新的技術(shù)水平突破了傳統(tǒng)技術(shù)中立理論的應(yīng)用要件。這一變化是無法逆轉(zhuǎn)的。正如馬爾庫塞所認為的,技術(shù)理性把一切都還原成單一向度的東西[8]。在技術(shù)發(fā)展得并沒有如此智能的時代,人們崇拜技術(shù)的理性,并賦予它中立地位,這既是對技術(shù)的保護,也是對技術(shù)的要求。但是當今的現(xiàn)實環(huán)境并不是單一維度的,經(jīng)濟發(fā)展到一定程度會展現(xiàn)出多種樣態(tài),并將這種多樣性傳遞到技術(shù)本身。面對變革后的技術(shù),如果依然賦予其中立地位,會引發(fā)消極的后果:隨著陪伴式人工智能應(yīng)用范圍的擴大,此種技術(shù)在社會系統(tǒng)中將逐漸具有基礎(chǔ)地位,其自主性邏輯會愈發(fā)強大,其反主體性將愈發(fā)深沉,即對人的主體性的削弱作用會愈發(fā)強烈[9]。因此,在注意力經(jīng)濟下,必須以價值理性來修正工具理性,對曾經(jīng)“置身事外”的平臺賦予責任,否則陪伴式人工智能等一系列新技術(shù)難以行穩(wěn)致遠。
陪伴式人工智能平臺是網(wǎng)絡(luò)平臺歷經(jīng)數(shù)字化、智能化、算法化的特殊產(chǎn)物,探究其侵權(quán)責任的生成應(yīng)當遵循從一般到特殊的研究步驟。在傳統(tǒng)網(wǎng)絡(luò)平臺時代,平臺主要發(fā)揮著產(chǎn)品和服務(wù)的第三方中介功能。對于可能的侵權(quán)隱患,法律基于“避風港原則”對傳統(tǒng)網(wǎng)絡(luò)平臺賦予了“通知-刪除”責任。這一責任主要是考慮到一方面囿于平臺技術(shù)的局限性,平臺無法全面審查信息;另一方面,過度苛責平臺會造成平臺負擔加重,不利于新生事物的發(fā)展。但隨著網(wǎng)絡(luò)平臺趨向數(shù)字化和智能化發(fā)展,“避風港原則”向著“紅旗原則”轉(zhuǎn)變,網(wǎng)絡(luò)平臺被加以“標注-提醒”責任,這意味著網(wǎng)絡(luò)平臺的角色逐漸向“守門人”轉(zhuǎn)變??梢园l(fā)現(xiàn),針對網(wǎng)絡(luò)平臺技術(shù)的進步,立法者傾向于讓平臺承擔更多的責任。
而當算法技術(shù)大范圍應(yīng)用后,網(wǎng)絡(luò)平臺的發(fā)展走向了又一個高潮。以算法為底層運行邏輯的平臺向著強人工智能方向發(fā)展,其性能趨近于人類本身,其運行的原理和程序均發(fā)生了更加實質(zhì)和深刻的變化[10]。陪伴式人工智能平臺作為此類平臺的典型代表,其性質(zhì)遠遠脫離過去法律法規(guī)對于一般網(wǎng)絡(luò)平臺的定義,但變革后的平臺承擔的民事責任相對滯后。因此,針對人工智能平臺來說,尤其是其中具有特殊性的陪伴式人工智能平臺,應(yīng)當賦予進一步的實質(zhì)責任。由于算法是人工智能平臺的基礎(chǔ),因此在分析陪伴式人工智能平臺的責任之前,應(yīng)先對其依托的算法進行應(yīng)用評價標準界定。算法應(yīng)用的評價標準是一個復雜的問題,采取寬松還是嚴格的評價標準需要結(jié)合該項算法的風險后果考慮。而陪伴式人工智能最直觀的算法風險在于用戶隱私和道德倫理。一方面,陪伴式人工智能使得人工智能系統(tǒng)與用戶之間能直接交互,可能導致個人隱私被泄露的概率上升,因為陪伴式人工智能對用戶的反饋機制背后涉及訪問和處理大量用戶個人數(shù)據(jù),如聲音、圖像和行為數(shù)據(jù),這使得個人信息更容易遭受不當使用的風險。另一方面,陪伴式人工智能可能在倫理和道德問題上缺乏判斷力,例如,在情感支持方面,它們?nèi)狈φ嬲那楦欣斫饽芰?,只是模擬情感表達,這可能對用戶心理健康產(chǎn)生負面影響。隱私和倫理方面的風險直接關(guān)系到個人權(quán)益,并可能發(fā)展為危及公共安全和社會秩序的隱患。因此,在為陪伴式人工智能平臺建立相應(yīng)的責任追究機制時,應(yīng)當采取嚴格的態(tài)度。如果對陪伴式人工智能平臺苛以相對嚴格的責任,可以從以下兩方面進行具體的解釋:
第一,從平臺個體的微觀角度來看,當前人工智能平臺的強大算法能力本身賦予了其在侵權(quán)行為檢測和自動屏蔽方面的壓倒性優(yōu)勢。弱人工智能時代對侵權(quán)行為的識別主要依靠人工審核和舉報機制,不僅效率低下,而且容易出現(xiàn)時間延遲和審核疏漏的情況。但隨著人工智能平臺在體量和技術(shù)能力方面不斷成長,平臺發(fā)現(xiàn)侵權(quán)和避免侵權(quán)的能力大大提升[11]。當前,算法能夠批量自動地整理和歸納信息,在這一過程中同時完成對信息的識別,并對特定信息實現(xiàn)篩選功能。可以說,算法技術(shù)隨著平臺的迭代而不斷更新,如今的算力使得算法技術(shù)不再是被保護角色,而逐漸成為足以自動監(jiān)督、保護平臺運行生態(tài)的主動角色。具體來說,這種算力應(yīng)用到陪伴式人工智能平臺,平臺算法可以自動分析用戶生成的內(nèi)容和數(shù)據(jù),辨別其中存在的侵權(quán)跡象,從而確保用戶能夠享受到更加安全、清潔的陪伴體驗,避免與侵權(quán)內(nèi)容和行為接觸。在價值判斷層面,相對嚴格的歸責原則體現(xiàn)的是法律應(yīng)當“譴責”具備歸責屬性的行為領(lǐng)域,從而在另一層面上預防責任的發(fā)生[12]。算力的發(fā)展使得傳統(tǒng)網(wǎng)絡(luò)服務(wù)提供者的責任認定規(guī)則發(fā)生了變化,平臺本身變得“可譴責”。而在平臺的客觀運行機制層面,對陪伴式人工智能平臺的“苛責”與控制論是契合的??刂普搹娬{(diào)責任的分配應(yīng)基于各方對事件發(fā)生過程中控制力的不同程度。如果某一方具備實際的控制權(quán)、管理權(quán)或能夠采取預防措施,但未能履行相應(yīng)的義務(wù)以防止侵權(quán)行為,那么該方可能被認為承擔一定的責任[13]??刂普撝赋?,任何組織之所以能夠保持自身的內(nèi)在穩(wěn)定性,是由于它具有取得、使用、保持和傳遞信息的方法[14]。陪伴式人工智能平臺掌握著算法技術(shù),即使算法結(jié)果因為算法過程存在黑箱而不可控,但是對算法的運用卻是平臺能夠掌握的??傮w看來,要求有能力控制侵權(quán)行為產(chǎn)生的平臺承擔控制義務(wù),存在情理上的正當性和事實上的可行性。
第二,從社會整體的宏觀角度來看,由于陪伴式人工智能平臺的直接服務(wù)對象是人的情感,一旦發(fā)生侵權(quán)事件,陪伴式人工智能平臺失控的危害遠超一般人工智能平臺,與之相關(guān)的人可能不僅會遭到財產(chǎn)方面的損失,更為重要的是可能在精神層面造成難以磨滅的傷害,即從社會事故成本角度來看,陪伴式人工智能平臺的侵權(quán)結(jié)果成本過于龐大。正因此,比起事后追責,更應(yīng)當關(guān)注事前的預防。已經(jīng)有許多學者意識到對于人工智能平臺,僅僅依靠以往基于實踐經(jīng)驗的事后環(huán)節(jié)規(guī)制,已經(jīng)無法應(yīng)對迅速迭代發(fā)展的技術(shù)風險[15]。而基于平臺現(xiàn)有的算力,可以發(fā)現(xiàn)平臺通過算法進行控制的成本必然小于危害發(fā)生后的事故成本。因此,對陪伴式人工智能平臺施以嚴格的責任,將成為平臺進行事前規(guī)制的規(guī)則動力。
明確對陪伴式人工智能平臺施加相對嚴格的算法應(yīng)用評價標準后,接下來涉及具體規(guī)制路徑的選擇。需要說明的是,當前我國并無對于算法侵權(quán)責任承擔的一般性規(guī)定。盡管存在部分法律和草案提及了平臺在使用算法過程中應(yīng)承擔的義務(wù),但義務(wù)規(guī)定較為零散且缺乏針對性,這直接影響了算法侵權(quán)糾紛的法律適用[16]。究其原因,是因為當前人工智能雖然已經(jīng)從弱人工智能向具有認知能力的強人工智能轉(zhuǎn)變,但其仍存在不穩(wěn)定性,因此并不存在對人工智能的一般化的法律規(guī)制。這就要求在規(guī)制路徑的選擇上需要和具體的領(lǐng)域結(jié)合起來[17]。具體到陪伴式人工智能平臺的規(guī)制,在我國侵權(quán)法當前以過錯責任為主,無過錯責任為補充的二元歸責體系下,一方面,無過錯責任的適用具有嚴格的法定性,在法律沒有明確規(guī)定情況下,無法將其運用于陪伴式人工智能平臺的規(guī)制中;另一方面,如果適用單一的過錯責任原則,過錯的證明是一大困難,原因在于盡管陪伴式人工智能的算法風險可以確定,但是其算法應(yīng)用和侵權(quán)結(jié)果之間的因果關(guān)系難以被徹底澄清,存在算法黑洞,因而強大算力壓制下的被侵權(quán)者或陷入難以舉證的困境。對于陪伴式人工智能平臺的責任規(guī)制來說,這兩種歸責方式似乎都存在不足之處。盡管如此,如果完全脫離傳統(tǒng)歸責原則,直接為陪伴式人工智能平臺的歸責尋找一種全新的路徑又可能落入“唯立法主義”的窠臼,最終走進“一個技術(shù)創(chuàng)新對應(yīng)新型風險,新型風險對應(yīng)一次專門立法”的誤區(qū)[18]。因此采取修正的做法是更為合適的,即從傳統(tǒng)歸責原則出發(fā),結(jié)合陪伴式人工智能平臺的底層運行邏輯進行責任規(guī)制方法的改進,并在司法實踐中進行個案的靈活運用。具體可行的思路如下:
首先,在充分應(yīng)用已有的分散式規(guī)則的同時,考慮陪伴式人工智能的特殊性,采取漸進的方式搭建針對其進行規(guī)制的具體框架。當前,我國已經(jīng)有許多針對不同類型人工智能的規(guī)制規(guī)則,它們雖然分散于不同層級的法律淵源的具體條款中,且在技術(shù)上與陪伴式人工智能存在一定差距,但可以借鑒這些規(guī)制辦法所蘊含的共性思路,以構(gòu)建關(guān)于陪伴式人工智能平臺的技術(shù)標準、法律法規(guī)、監(jiān)管措施以及行業(yè)自律機制等方面的規(guī)制框架。
其次,采取修正的做法解決當前司法實踐的難題。一方面,針對過錯責任歸責中被侵權(quán)人舉證困難的問題,可以引入舉證責任倒置與減輕的原則。由于陪伴式人工智能平臺的核心算法由平臺掌控,即侵權(quán)行為施行的全部信息均在平臺控制范圍,相比于被侵權(quán)人,平臺距離過錯證據(jù)較近。采取舉證責任倒置與減輕的原則從程序上對處于舉證弱勢地位的被侵權(quán)人予以救濟,不失為一種可行的辦法[19]。另一方面,針對司法實踐中已經(jīng)發(fā)生的與陪伴式人工智能平臺相關(guān)的侵權(quán)案件,司法機關(guān)在整體態(tài)度上應(yīng)當采取嚴格的標準衡量陪伴式人工智能平臺的過錯,對其系統(tǒng)的算法、數(shù)據(jù)訓練過程、決策模型等進行詳細調(diào)查和分析,以了解其是否合理、可靠,并且符合法律、倫理和公共利益的要求,這有助于倒逼陪伴式人工智能平臺減少黑盒決策和不可預測的行為概率,提高系統(tǒng)的信任度。相關(guān)監(jiān)管機構(gòu)還可以建立獨立的案后審查機制,尤其針對侵權(quán)案件發(fā)生頻率較高的陪伴式人工智能平臺進行重點關(guān)注,以確保已有規(guī)制措施的有效執(zhí)行和追蹤新樣態(tài)的不當行為。
最后,當未來陪伴式人工智能平臺技術(shù)發(fā)展到穩(wěn)定水平之際,即意味著系統(tǒng)的功能、性能和風險可預見性已達到一定程度,并已在不同應(yīng)用領(lǐng)域中得到了廣泛驗證,屆時結(jié)合已有的規(guī)則和司法實踐的經(jīng)驗教訓,考慮社會的需求和公眾的利益,在技術(shù)趨于穩(wěn)定的基礎(chǔ)上,建立起全面、準確和適應(yīng)性強的陪伴式人工智能規(guī)制的通用規(guī)則。
在當前的社會經(jīng)濟環(huán)境中,人們追求精神層面的情感陪伴的需求日益強烈,陪伴式人工智能平臺便“投其所好”,以其虛擬智能的特性提供情感體驗,這一算法技術(shù)的突破使得相關(guān)的侵權(quán)糾紛不再是“理論的假想”,而已經(jīng)現(xiàn)實地出現(xiàn),這預示著與人工智能相關(guān)的技術(shù)應(yīng)用,可能成為今后一個階段為大家所直接感知的、突出的治理對象。針對陪伴式人工智能平臺行為的規(guī)范和平臺責任的分配,將成為未來立法的重點。