內(nèi)容摘要:因人工智能系統(tǒng)的不可解釋性、不可預(yù)測(cè)性和自適應(yīng)性,人形機(jī)器人自主侵權(quán)責(zé)任面臨難以認(rèn)定的困境。人形機(jī)器人自主致人損害屬高風(fēng)險(xiǎn)人工智能領(lǐng)域,對(duì)此人形機(jī)器人提供者應(yīng)承擔(dān)產(chǎn)品責(zé)任,履行產(chǎn)品安全可控保障義務(wù);大模型提供者僅需履行充分的透明度告知義務(wù),與人形機(jī)器人提供者承擔(dān)共同侵權(quán)責(zé)任;人形機(jī)器人使用者須按照說(shuō)明正確使用產(chǎn)品,其承擔(dān)的侵權(quán)責(zé)任不宜過(guò)度偏離原有類(lèi)型。通過(guò)層次化確立信息披露、可反駁的過(guò)錯(cuò)和因果關(guān)系推定,不再要求過(guò)錯(cuò)與因果關(guān)系具備一一對(duì)應(yīng)性,可使受害者獲得公平救濟(jì)的同時(shí)兼顧產(chǎn)業(yè)發(fā)展。
關(guān)鍵詞:人形機(jī)器人自主侵權(quán)侵權(quán)責(zé)任大模型過(guò)錯(cuò)因果關(guān)系推定
中圖分類(lèi)號(hào):DF522 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1674-4039-(2024)03-0077-87
人形機(jī)器人是一種仿照人類(lèi)外形和行動(dòng)的機(jī)器人,集仿生學(xué)和機(jī)器電控原理于一體。人工智能大模型的出現(xiàn)補(bǔ)全了人形機(jī)器人實(shí)現(xiàn)能力躍升的技術(shù)基礎(chǔ)。不同于以往局限于特定領(lǐng)域的模型訓(xùn)練,大模型強(qiáng)大的泛化能力讓人形機(jī)器人通用性的實(shí)現(xiàn)成為可能。未來(lái)人形機(jī)器人有望被廣泛應(yīng)用于危險(xiǎn)作業(yè)、工業(yè)制造、醫(yī)療護(hù)理、農(nóng)業(yè)物流、家政服務(wù)等領(lǐng)域,解放人類(lèi)勞動(dòng)力。2023年10月國(guó)家工業(yè)和信息化部印發(fā)《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見(jiàn)》,開(kāi)宗明義指出:“人形機(jī)器人集成人工智能、高端制造、新材料等先進(jìn)技術(shù),有望成為繼計(jì)算機(jī)、智能手機(jī)、新能源汽車(chē)后的顛覆性產(chǎn)品,將深刻變革人類(lèi)生產(chǎn)生活方式,重塑全球產(chǎn)業(yè)發(fā)展格局?!?/p>
人形機(jī)器人的自主行為給侵權(quán)責(zé)任認(rèn)定帶來(lái)挑戰(zhàn)。在一個(gè)人形機(jī)器人中,可以集成眾多用于感知、導(dǎo)航、控制的人工智能系統(tǒng),其算法的不可解釋性、不可預(yù)測(cè)性及自適應(yīng)性使消費(fèi)者無(wú)法獲得公平的侵權(quán)救濟(jì)。因此有必要對(duì)自主侵權(quán)責(zé)任認(rèn)定進(jìn)行探討,為人形機(jī)器人產(chǎn)業(yè)的可信賴(lài)發(fā)展提供激勵(lì)相容的清晰指引。
一、人形機(jī)器人自主侵權(quán)責(zé)任認(rèn)定的挑戰(zhàn)和路徑選擇
隨著人工智能系統(tǒng)的納入,人形機(jī)器人能夠以“感知—決策—控制”模式進(jìn)行自主決策行動(dòng),其自主侵權(quán)風(fēng)險(xiǎn)主要體現(xiàn)為運(yùn)行過(guò)程中因判斷不準(zhǔn)所造成的物理上的傷害。數(shù)據(jù)偏差是造成此類(lèi)傷害的主要原因,如因缺乏低光照環(huán)境的典型測(cè)試數(shù)據(jù)而產(chǎn)生識(shí)別障礙進(jìn)而撞傷他人;或?qū)τ谒烧臋C(jī)器人,若算法訓(xùn)練集中在樹(shù)上或地面上成熟水果的檢測(cè)和定位,則有可能因缺乏對(duì)旁邊的人或物品的判斷數(shù)據(jù)進(jìn)而造成傷害?!?\"〕
人工智能產(chǎn)品對(duì)其運(yùn)行軌跡的自主決策是基于概率得出的,人類(lèi)無(wú)法解釋其邏輯,存在算法黑箱。特別是人形機(jī)器人需完成人類(lèi)各種連續(xù)復(fù)雜的動(dòng)作,物理交互頻繁且操作因果性多,其算法難度遠(yuǎn)高于自動(dòng)駕駛,〔2\"〕自主決策更呈現(xiàn)不透明性。因?yàn)槿斯ぶ悄墚a(chǎn)品的自主行為不能為人類(lèi)所預(yù)設(shè),相關(guān)研究曾提出應(yīng)賦予人工智能產(chǎn)品本身的責(zé)任主體地位,由其獨(dú)立承擔(dān)侵權(quán)責(zé)任?!?\"〕未來(lái)人形機(jī)器人具備類(lèi)人的“大腦”“小腦”和外形,似乎更加有可能獲得“電子人”法律主體地位。然而該路徑具有一定的不合理性。
首先,實(shí)際上與人工智能主體配套的保險(xiǎn)金或責(zé)任基金等制度仍由背后的受益者產(chǎn)品提供者或使用者所承擔(dān),單獨(dú)設(shè)立人工智能主體并無(wú)實(shí)際意義。此外,設(shè)立新責(zé)任主體還需配備足夠的損害賠償資金,否則受害人將無(wú)法獲得充分賠償,侵權(quán)行為的負(fù)外部性無(wú)法內(nèi)部化。而常規(guī)的資金配置制度均有一定的上限,如創(chuàng)設(shè)法人只要滿足最低注冊(cè)資本要求即可,而強(qiáng)制責(zé)任險(xiǎn)亦有最高賠償額的限制?!?\"〕
其次,人工智能的不可預(yù)測(cè)性并不能作為人工智能產(chǎn)品提供者或使用者豁免責(zé)任的理由。投入市場(chǎng)的人工智能產(chǎn)品仍應(yīng)當(dāng)是可控的,否則將使受害者承擔(dān)不公平的后果。人形機(jī)器人的人工智能系統(tǒng)控制其安全運(yùn)行,防止其造成他人人身財(cái)產(chǎn)損害,屬于高風(fēng)險(xiǎn)領(lǐng)域,〔5\"〕應(yīng)遵循安全可控標(biāo)準(zhǔn)。2024年3月13日通過(guò)的歐盟人工智能法(以下簡(jiǎn)稱(chēng)AIA)〔6+〕序言(47)便強(qiáng)調(diào),越來(lái)越多的自主機(jī)器人,無(wú)論是在制造領(lǐng)域還是在個(gè)人協(xié)助和護(hù)理領(lǐng)域, 都應(yīng)該能夠在復(fù)雜的環(huán)境中安全運(yùn)行并執(zhí)行其功能,特別是當(dāng)人工智能系統(tǒng)作為產(chǎn)品的安全組件時(shí),只有安全和符合要求的產(chǎn)品才能進(jìn)入市場(chǎng)。此外,人形機(jī)器人產(chǎn)業(yè)還須遵循機(jī)械行業(yè)相關(guān)標(biāo)準(zhǔn)。2023年通過(guò)的歐盟機(jī)械條例〔7\"〕特別回應(yīng)了人工智能自主性問(wèn)題,指出自主機(jī)械的運(yùn)行應(yīng)該是可控的,其自主控制系統(tǒng)不應(yīng)使機(jī)械超出預(yù)設(shè)的任務(wù)和活動(dòng)空間行動(dòng)。
最后,要求人類(lèi)承擔(dān)責(zé)任可促使人形機(jī)器人相關(guān)責(zé)任主體(如提供者或使用者)承擔(dān)相關(guān)保障義務(wù),通過(guò)貫穿全生命周期的數(shù)據(jù)偏差審查、人工監(jiān)督、風(fēng)險(xiǎn)管理體系、質(zhì)量管理體系、后市場(chǎng)監(jiān)測(cè)體系等制度協(xié)同治理人形機(jī)器人風(fēng)險(xiǎn)問(wèn)題。
歐盟作為曾經(jīng)的“電子人”主要倡導(dǎo)者也已不再堅(jiān)持該路徑?!?\"〕對(duì)此本文認(rèn)為應(yīng)通過(guò)重構(gòu)侵權(quán)責(zé)任認(rèn)定規(guī)則來(lái)解決人形機(jī)器人的復(fù)雜性、不透明性和不可預(yù)測(cè)性問(wèn)題。首先,過(guò)錯(cuò)標(biāo)準(zhǔn)化,以行政合規(guī)義務(wù)標(biāo)準(zhǔn)衡量民事侵權(quán)的注意義務(wù)?!?\"〕過(guò)錯(cuò)的標(biāo)準(zhǔn)化能夠在有效降低侵權(quán)風(fēng)險(xiǎn)的同時(shí)提高法律適用的確定性。標(biāo)準(zhǔn)的制定應(yīng)注意合比例性,〔10\"〕不應(yīng)設(shè)立超出各責(zé)任主體控制力的合規(guī)義務(wù)。其次,責(zé)任層次化,通過(guò)層層遞進(jìn)的方式確立過(guò)錯(cuò)及因果關(guān)系推定規(guī)則。為確保消費(fèi)者不因人工智能產(chǎn)品的復(fù)雜性而承擔(dān)不合理的風(fēng)險(xiǎn),可適當(dāng)加重相關(guān)侵權(quán)主體的責(zé)任,但不宜過(guò)度偏離原有的責(zé)任類(lèi)型及認(rèn)定規(guī)則,對(duì)此應(yīng)進(jìn)行精細(xì)化的制度設(shè)計(jì)。
二、人形機(jī)器人提供者的責(zé)任認(rèn)定
在人形機(jī)器人致人損害的情形中,人形機(jī)器人的提供者和使用者、大模型提供者及外部攻擊者(如數(shù)據(jù)投毒)均有可能是侵權(quán)主體。由于發(fā)生外部攻擊更多是難以追溯攻擊者,此時(shí)可直接要求人形機(jī)器人提供者就未履行網(wǎng)絡(luò)安全等保障義務(wù)承擔(dān)連帶責(zé)任,故下文將針對(duì)前三種侵權(quán)主體的責(zé)任認(rèn)定規(guī)則進(jìn)行層次化構(gòu)造。
(一)產(chǎn)品責(zé)任
對(duì)于人形機(jī)器人運(yùn)行過(guò)程中造成的人身財(cái)產(chǎn)損害,人形機(jī)器人提供者(即人形機(jī)器人生產(chǎn)者)〔11'〕承擔(dān)的是產(chǎn)品責(zé)任。其中,人工智能系統(tǒng)因控制產(chǎn)品運(yùn)行,也應(yīng)納入產(chǎn)品責(zé)任范疇。傳統(tǒng)的產(chǎn)品責(zé)任法中,產(chǎn)品通常是有形動(dòng)產(chǎn)(tangible\"movable'item),〔12'〕軟件因無(wú)形性有可能被歸入服務(wù)而不受產(chǎn)品責(zé)任法的規(guī)制。然而軟件也可用于控制有形產(chǎn)品的安全運(yùn)行,產(chǎn)生有形的結(jié)果。歐盟專(zhuān)家組報(bào)告指出,此類(lèi)軟件達(dá)到功能相等的效果,如手機(jī)上下載的某一控制軟件,應(yīng)受產(chǎn)品責(zé)任規(guī)制?!?3'〕2024年3月12日通過(guò)的歐盟產(chǎn)品責(zé)任指令(以下簡(jiǎn)稱(chēng)PLD)〔14'〕便將軟件納入規(guī)制范疇,其序言(13)指出,操作系統(tǒng)、固件、計(jì)算機(jī)程序、應(yīng)用程序或人工智能系統(tǒng)等軟件在市場(chǎng)上越來(lái)越常見(jiàn),在產(chǎn)品安全方面發(fā)揮著越來(lái)越重要的作用,為了法律的穩(wěn)定性,應(yīng)明確軟件是適用無(wú)過(guò)錯(cuò)責(zé)任的產(chǎn)品。不同于僅提供信息的服務(wù)(如僅提供生成式內(nèi)容或診療建議〔15'〕),人形機(jī)器人的人工智能系統(tǒng)直接控制產(chǎn)品的物理運(yùn)行,屬產(chǎn)品責(zé)任范疇。GPT等生成式大模型納入人形機(jī)器人后,協(xié)助其理解人類(lèi)語(yǔ)言及拆解任務(wù)并生成執(zhí)行方案,〔16amp;〕同樣控制產(chǎn)品運(yùn)行,也應(yīng)納入產(chǎn)品責(zé)任加以規(guī)制更為合適。故下文將基于產(chǎn)品責(zé)任進(jìn)行制度設(shè)計(jì)。
產(chǎn)品責(zé)任雖為無(wú)過(guò)錯(cuò)責(zé)任,但仍須證明缺陷的存在及缺陷與損害結(jié)果之間存在因果關(guān)系。關(guān)于其舉證責(zé)任如何分配問(wèn)題,我國(guó)司法實(shí)踐有兩種不同路徑,誰(shuí)主張誰(shuí)舉證或舉證責(zé)任倒置。在采用舉證責(zé)任倒置的判例中,法院認(rèn)為“因受專(zhuān)業(yè)技術(shù)知識(shí)等因素的限制,一般消費(fèi)者很難及時(shí)發(fā)現(xiàn)產(chǎn)品缺陷并防止其造成的危險(xiǎn),當(dāng)發(fā)生與產(chǎn)品質(zhì)量相關(guān)的人身或財(cái)產(chǎn)損害時(shí),只要生產(chǎn)者不能證明其不存在免責(zé)事由,就應(yīng)當(dāng)承擔(dān)損害賠償責(zé)任”?!?7amp;〕然而并非所有產(chǎn)品都面臨舉證困境,比如簡(jiǎn)單產(chǎn)品的缺陷可能是顯而易見(jiàn)的,如椅子倒塌?!?8amp;〕而對(duì)于復(fù)雜的產(chǎn)品還可以申請(qǐng)專(zhuān)家鑒定。因此不能一概而論地采用舉證責(zé)任倒置方式,否則將造成產(chǎn)品提供者利益失衡的結(jié)果。細(xì)究而言,我國(guó)對(duì)產(chǎn)品責(zé)任也并未規(guī)定舉證責(zé)任倒置規(guī)則,理應(yīng)認(rèn)為舉證責(zé)任并未倒置。在歐盟產(chǎn)品責(zé)任中,受害者同樣須證明缺陷及缺陷與損害結(jié)果之間存在因果關(guān)系(PLD第10.1條)。本文認(rèn)為,對(duì)于舉證責(zé)任分配,仍應(yīng)在誰(shuí)主張誰(shuí)舉證的基礎(chǔ)上,再針對(duì)人形機(jī)器人產(chǎn)品的復(fù)雜性進(jìn)行層層遞進(jìn)的兼顧利益平衡的規(guī)則設(shè)計(jì)。
(二)基于信息披露的缺陷推定
對(duì)于復(fù)雜的產(chǎn)品,可考慮確立舉證責(zé)任減輕的相關(guān)規(guī)則。產(chǎn)品越復(fù)雜,生產(chǎn)者和消費(fèi)者之間的信息不對(duì)稱(chēng)性就越大,例如證明藥物缺陷可能需要消費(fèi)者未掌握的專(zhuān)業(yè)信息。歐盟PLD評(píng)價(jià)文件顯示,對(duì)于復(fù)雜的產(chǎn)品,證明缺陷及缺陷與損害之間的因果關(guān)系的成本高昂且極其困難,無(wú)法舉證在消費(fèi)者敗訴原因中占比高達(dá)53%。對(duì)此,首先可考慮引入信息披露規(guī)則?!?9amp;〕
信息披露是解決信息不對(duì)稱(chēng)的有效路徑。歐盟人工智能責(zé)任指令(以下簡(jiǎn)稱(chēng)AILD)影響評(píng)估指出,當(dāng)存在提供者、使用者、外部攻擊者等多個(gè)潛在侵權(quán)人時(shí),進(jìn)行信息記錄并披露有助于判別是因?yàn)檎l(shuí)的過(guò)錯(cuò)造成損害的發(fā)生?!?0amp;〕在復(fù)雜的案件中,信息披露規(guī)則已被歐盟成員國(guó)廣泛適用,并由歐洲法院引入?!?1amp;〕我國(guó)也有相關(guān)實(shí)踐,如民法典第1222條規(guī)定:“患者在診療活動(dòng)中受到損害,有下列情形之一的,推定醫(yī)療機(jī)構(gòu)有過(guò)錯(cuò):……(二)隱匿或者拒絕提供與糾紛有關(guān)的病歷資料;(三)遺失、偽造、篡改或者違法銷(xiāo)毀病歷資料。”
歐盟此次PLD修訂便確立了相關(guān)信息披露規(guī)則。第9.1條規(guī)定,若原告其提出的事實(shí)和證據(jù)足以支持其賠償請(qǐng)求的合理性,則由被告應(yīng)原告之請(qǐng)求,披露其所掌握的相關(guān)證據(jù)。第10.2(a)條規(guī)定,若被告未依據(jù)第9.1條披露相關(guān)證據(jù),應(yīng)推定產(chǎn)品存在缺陷。
信息披露規(guī)則也與人工智能的行政合規(guī)義務(wù)相契合。由于產(chǎn)品的復(fù)雜性及提供者與消費(fèi)者地位的不對(duì)稱(chēng)性,行業(yè)標(biāo)準(zhǔn)多要求控制產(chǎn)品安全運(yùn)行的人工智能系統(tǒng)履行信息記錄義務(wù)。相較于非物質(zhì)性損害的人格權(quán)侵權(quán),人形機(jī)器人不當(dāng)運(yùn)行所造成的人身財(cái)產(chǎn)損害為物質(zhì)性損害,屬高位階權(quán)益,應(yīng)受到更高程度的保護(hù)。依據(jù)歐盟AIA,保障人身財(cái)產(chǎn)安全的產(chǎn)品安全組件〔22$〕屬于高風(fēng)險(xiǎn)人工智能系統(tǒng),應(yīng)履行強(qiáng)制性信息記錄義務(wù)[第6.1(a)條及第12條]。若未進(jìn)行相應(yīng)的信息記錄,則應(yīng)承擔(dān)舉證不利的后果[PLD序言(46)]。若信息記錄顯示,產(chǎn)品提供者未遵循AIA所規(guī)定的數(shù)據(jù)質(zhì)量、人工監(jiān)督或網(wǎng)絡(luò)安全等實(shí)質(zhì)性風(fēng)險(xiǎn)防范要求,則可認(rèn)定產(chǎn)品存在缺陷。
(三)基于算法黑箱的缺陷及因果關(guān)系推定
由于人工智能產(chǎn)品的不可解釋性,即便披露信息也可能無(wú)法查證被告是否存在過(guò)錯(cuò)?!?3$〕首先可依靠風(fēng)險(xiǎn)管理系統(tǒng)等專(zhuān)業(yè)化流程,解釋缺陷的發(fā)生。歐盟AILD提案序言(26)便指出,鑒于在實(shí)踐中,當(dāng)被告是人工智能系統(tǒng)提供者時(shí),原告可能很難證明其不合規(guī),因此還應(yīng)規(guī)定將提供者在風(fēng)險(xiǎn)管理系統(tǒng)內(nèi)采取的步驟和風(fēng)險(xiǎn)管理系統(tǒng)的結(jié)果(即是否采取某些風(fēng)險(xiǎn)管理措施)納入合規(guī)認(rèn)定當(dāng)中。風(fēng)險(xiǎn)管理系統(tǒng)是AIA要求提供者遵守的強(qiáng)制性規(guī)定,旨在降低風(fēng)險(xiǎn),可以作為評(píng)估合規(guī)的有效衡量因素。
當(dāng)然風(fēng)險(xiǎn)管理流程也并不能徹底解決認(rèn)定困境。有專(zhuān)家便指出,要證明用于開(kāi)發(fā)人工智能系統(tǒng)的數(shù)據(jù)集或給定系統(tǒng)的準(zhǔn)確度水平確實(shí)不足,可能并不容易。〔24$〕2023年歐盟數(shù)據(jù)保護(hù)委員會(huì)(EDPS)也特別指出,即便被告表面上遵循了AIA所規(guī)定的注意義務(wù),自動(dòng)化決策的操縱、歧視等風(fēng)險(xiǎn)仍然會(huì)發(fā)生,仍需立法者進(jìn)一步研究?!?5$〕對(duì)此可進(jìn)行進(jìn)一步制度設(shè)計(jì)。
若提供者為僅有的潛在過(guò)錯(cuò)方(即使用者不存在過(guò)錯(cuò)),可推定產(chǎn)品具有缺陷。歐盟PLD第10.2(c)條便新增規(guī)定,原告證明損害是由產(chǎn)品在可合理預(yù)見(jiàn)的使用過(guò)程中或在通常情況下發(fā)生的明顯故障所造成的,應(yīng)推定產(chǎn)品存在缺陷。因?yàn)閷?duì)于明顯存在故障的情況,比如玻璃瓶在可合理預(yù)見(jiàn)的使用過(guò)程中爆炸,缺陷的存在無(wú)可爭(zhēng)議,所以要求原告證明缺陷是不必要的(PLD序言(46))。就人形機(jī)器人而言,物理上的運(yùn)行故障是顯而易見(jiàn)的,只要其在合理運(yùn)行過(guò)程中造成傷害,無(wú)論是具體哪個(gè)組件存在缺陷,均須承擔(dān)產(chǎn)品責(zé)任?!?68〕
在難以證明使用者合理運(yùn)行的情形下,由于人工智能系統(tǒng)的復(fù)雜性,可考慮降低證明標(biāo)準(zhǔn),不要求達(dá)到高度蓋然性。歐洲法院已設(shè)立規(guī)則,允許法院在沒(méi)有決定性證據(jù)的情形下,只要可獲得的事實(shí)證據(jù)具有足夠說(shuō)服力,便可推定因果關(guān)系存在。如疫苗和多發(fā)性硬化癥發(fā)病之間的因果關(guān)系,可從該疾病在注射疫苗后不久出現(xiàn),并且沒(méi)有與該疾病相關(guān)的家族病史來(lái)推斷?!?7$〕歐盟PLD第10.4條便新增規(guī)定,即使被告披露了證據(jù),但由于技術(shù)上和科學(xué)上的復(fù)雜性,若原告在證明產(chǎn)品缺陷或因果關(guān)系或兩者上面臨過(guò)度困難,并已證明缺陷或因果關(guān)系或兩者很可能存在,法院則應(yīng)考慮案件所有的相關(guān)情況,推定缺陷或因果關(guān)系存在。PLD序言(48)進(jìn)一步指出,機(jī)器學(xué)習(xí)具有技術(shù)上的復(fù)雜性,原告難以分析數(shù)據(jù)及解釋人工智能系統(tǒng)的內(nèi)部運(yùn)行。在涉人工智能系統(tǒng)的賠償中,原告既不需要解釋人工智能系統(tǒng)的具體特點(diǎn),也不需要解釋這些特點(diǎn)如何使因果關(guān)系更加難以證明,法院應(yīng)據(jù)此裁定存在過(guò)度困難,但應(yīng)當(dāng)允許被告對(duì)包括存在過(guò)度困難在內(nèi)的所有要件提出反駁。
通過(guò)對(duì)過(guò)錯(cuò)及因果關(guān)系推定逐步推進(jìn)的層次化設(shè)計(jì), 不再要求過(guò)錯(cuò)與因果關(guān)系具備一一對(duì)應(yīng)性,可解決人工智能產(chǎn)品的不可解釋性問(wèn)題。
三、大模型提供者的責(zé)任認(rèn)定
在人形機(jī)器人產(chǎn)業(yè),大模型賦能可產(chǎn)生飛躍性的技術(shù)突破,研發(fā)出廣泛應(yīng)用于各種場(chǎng)景的產(chǎn)品。2023年國(guó)家工信部《人形機(jī)器人創(chuàng)新發(fā)展指導(dǎo)意見(jiàn)》便提出“以大模型等人工智能技術(shù)突破為引領(lǐng)”的產(chǎn)業(yè)發(fā)展方向。
大模型又稱(chēng)基礎(chǔ)模型或通用模型,通常通過(guò)自我監(jiān)督、無(wú)監(jiān)督或強(qiáng)化學(xué)習(xí)等各種方法在大量數(shù)據(jù)上進(jìn)行大規(guī)模訓(xùn)練,顯示出顯著的通用性和勝任各種不同任務(wù)的能力,并可集成到各種下游系統(tǒng)或應(yīng)用中?!?8%〕當(dāng)前人形機(jī)器人大模型發(fā)展的技術(shù)難點(diǎn)在于缺乏高質(zhì)量訓(xùn)練數(shù)據(jù)。不同于生成式大模型能夠從海量公開(kāi)文本中獲得數(shù)據(jù)訓(xùn)練,人形機(jī)器人所需的動(dòng)作數(shù)據(jù)難以大量獲得,相關(guān)技術(shù)研究正在攻克難題,比如利用合成數(shù)據(jù)。目前生成式人工智能大模型產(chǎn)業(yè)已形成基于大模型上下游合作的生態(tài),上游大模型開(kāi)放應(yīng)用程序接口(API)等供下游軟件開(kāi)發(fā)者接入,現(xiàn)已有用于辦公、社交文娛、商業(yè)營(yíng)銷(xiāo)、家庭助理等場(chǎng)景的軟件接入其中?!?9%〕同理,未來(lái)人形機(jī)器人大模型的引入也將形成上游大模型提供者+下游產(chǎn)品提供者的生態(tài)鏈。為避免重復(fù)訓(xùn)練和資源浪費(fèi),未來(lái)大模型可能會(huì)由擁有超高算力、海量數(shù)據(jù)、高效算法的幾家科技巨頭或科研機(jī)構(gòu)集中提供?!?0+〕而下游公司則在接入大模型的基礎(chǔ)上進(jìn)一步設(shè)計(jì)人形機(jī)器人產(chǎn)品,如設(shè)計(jì)上層執(zhí)行器、運(yùn)動(dòng)控制的方案及硬件部件等??梢?jiàn),大模型提供者本身不一定是人形機(jī)器人產(chǎn)品提供者,因此界定其責(zé)任認(rèn)定標(biāo)準(zhǔn)尤為重要。
(一)大模型提供者與人形機(jī)器人提供者的責(zé)任區(qū)分
大模型的出現(xiàn)對(duì)已有的過(guò)錯(cuò)標(biāo)準(zhǔn)研究帶來(lái)了新的挑戰(zhàn)。歐盟AIA的主要規(guī)制思路是以人工智能系統(tǒng)的預(yù)期用途劃分風(fēng)險(xiǎn)層級(jí),具備通用性的大模型顯然無(wú)法被直接納入其中。歐盟2023年6月AIA提案修正案曾對(duì)大模型苛以類(lèi)似高風(fēng)險(xiǎn)人工智能的合規(guī)義務(wù),〔31%〕但該路徑引發(fā)極大爭(zhēng)議。
歐盟AIA希望高風(fēng)險(xiǎn)人工智能應(yīng)達(dá)到“安全”“可靠和準(zhǔn)確”[序言(47)],技術(shù)穩(wěn)健性是高風(fēng)險(xiǎn)人工智能系統(tǒng)的關(guān)鍵要求[序言(75)],提供者在設(shè)計(jì)和開(kāi)發(fā)高風(fēng)險(xiǎn)人工智能系統(tǒng)時(shí),應(yīng)使其達(dá)到適當(dāng)?shù)臏?zhǔn)確性、穩(wěn)健性,并在其整個(gè)生命周期內(nèi)始終保持一致(第15條)。而對(duì)于已有的生成式大模型,因訓(xùn)練數(shù)據(jù)的海量性,虛假信息和機(jī)器幻覺(jué)問(wèn)題難以完全克服,顯然無(wú)法達(dá)到“可靠準(zhǔn)確”標(biāo)準(zhǔn)。若僅因大模型未來(lái)可能被用于高風(fēng)險(xiǎn)用途,便要求其達(dá)到與潛在高風(fēng)險(xiǎn)用途同等的安全可靠標(biāo)準(zhǔn),將付出不可估量的成本和代價(jià)?!?2+〕對(duì)此應(yīng)采用包容謹(jǐn)慎態(tài)度,促進(jìn)產(chǎn)業(yè)發(fā)展。有觀點(diǎn)便主張,對(duì)于生成式大模型的侵權(quán)注意義務(wù)的判斷,可采用現(xiàn)有技術(shù)水平標(biāo)準(zhǔn),若現(xiàn)有技術(shù)水平無(wú)法控制其輸出結(jié)果的準(zhǔn)確性,生成式模型提供者則不應(yīng)承擔(dān)責(zé)任?!?3+〕
不同于生成式大模型,人形機(jī)器人領(lǐng)域的動(dòng)作大模型跟物理運(yùn)行有關(guān),預(yù)期的主要用途也大致用于產(chǎn)品安全組件,屬于高風(fēng)險(xiǎn)領(lǐng)域,似乎應(yīng)遵循安全可控標(biāo)準(zhǔn)。然而在構(gòu)建動(dòng)作大模型時(shí),仍需在極大程度上擴(kuò)大模型的數(shù)據(jù)、參數(shù)、算力來(lái)提升模型的效果,并通過(guò)“暴力美學(xué)”以訓(xùn)練GPT的方法來(lái)訓(xùn)練人形機(jī)器人?!?4+〕訓(xùn)練數(shù)據(jù)的海量化及模型的復(fù)雜化也意味著對(duì)數(shù)據(jù)質(zhì)量及輸出結(jié)果準(zhǔn)確性的把控難度極大提高。嚴(yán)格要求大模型提供者遵守安全可控的技術(shù)標(biāo)準(zhǔn),可能需要花費(fèi)巨大的成本。
動(dòng)作大模型雖然未來(lái)很可能用于產(chǎn)品安全組件,但基于模型通用性特點(diǎn),也有可能用于其他用途,直接作為高風(fēng)險(xiǎn)人工智能加以監(jiān)管可能會(huì)對(duì)產(chǎn)業(yè)帶來(lái)寒蟬效應(yīng)。根據(jù)上下游產(chǎn)業(yè)模式,人形機(jī)器人產(chǎn)品提供者才是真正決定實(shí)際用途的一方,大模型提供者實(shí)際上無(wú)法介入下游的風(fēng)險(xiǎn)把控?!?5#〕上游人形機(jī)器人大模型可能無(wú)法完全保證在所有應(yīng)用場(chǎng)景中均安全運(yùn)行,下游人形機(jī)器人提供者則可考慮設(shè)計(jì)產(chǎn)品在特定的安全環(huán)境中運(yùn)行,比如封閉環(huán)境、規(guī)劃路線或設(shè)置運(yùn)行條件,保證其即便發(fā)生故障也不會(huì)對(duì)相關(guān)公眾產(chǎn)生損害。同時(shí),下游人形機(jī)器人提供者還可以在大模型的基礎(chǔ)上進(jìn)行再訓(xùn)練,通過(guò)調(diào)整模型參數(shù)或使用標(biāo)注數(shù)據(jù)訓(xùn)練以適配下游任務(wù),從而保證人形機(jī)器人運(yùn)行的安全性。特別是當(dāng)大模型采用開(kāi)源模式,下游產(chǎn)品提供者還可以直接修改源代碼和參數(shù)進(jìn)行適配,進(jìn)一步提高對(duì)安全風(fēng)險(xiǎn)的管控力?!?6#〕。
因此在法律概念及其相應(yīng)的保障義務(wù)上,應(yīng)區(qū)分大模型提供者和人形機(jī)器人提供者。歐盟AIA便嘗試通過(guò)“用戶界面”等方式區(qū)分大模型提供者和人工智能系統(tǒng)提供者。其序言(97)在界定合規(guī)義務(wù)的相應(yīng)概念中指出,“雖然人工智能模型是人工智能系統(tǒng)的重要組成部分,但其本身并不構(gòu)成人工智能系統(tǒng)。人工智能模型需要添加更多的組件,例如用戶界面,才能成為人工智能系統(tǒng)”。大模型提供者向下游人形機(jī)器人開(kāi)發(fā)者提供的庫(kù)或API訪問(wèn)應(yīng)視為大模型被集成到人工智能系統(tǒng)中, 成為人工智能系統(tǒng)的一部分。而下游人形機(jī)器人開(kāi)發(fā)者才屬于AIA所規(guī)定的“高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者”,〔37#〕因其將大模型用于控制產(chǎn)品安全運(yùn)行的高風(fēng)險(xiǎn)用途,由其承擔(dān)一系列高風(fēng)險(xiǎn)人工智能系統(tǒng)的合規(guī)義務(wù)。同理,在侵權(quán)領(lǐng)域,僅提供大模型的提供者并非直接提供產(chǎn)品一方,不應(yīng)直接適用產(chǎn)品責(zé)任中的“安全可控”標(biāo)準(zhǔn)。歐盟立法修訂過(guò)程中路徑變化也支持這一觀點(diǎn)。不同于早期對(duì)大模型提供者施加類(lèi)似于高風(fēng)險(xiǎn)合規(guī)義務(wù), 議會(huì)通過(guò)的AIA版本不再要求其承擔(dān)保證數(shù)據(jù)質(zhì)量和輸出結(jié)果準(zhǔn)確的一系列高風(fēng)險(xiǎn)合規(guī)義務(wù),至于大模型未來(lái)的行為守則,則由人工智能辦公室聯(lián)合產(chǎn)業(yè)及相關(guān)國(guó)家主管部門(mén)另行制定(第56條)。
(二)大模型提供者的共同侵權(quán)責(zé)任
目前對(duì)于大模型的立法正處于探索階段,本文認(rèn)為在未來(lái)侵權(quán)領(lǐng)域可考慮采用尊重行業(yè)發(fā)展的做法。若大模型提供者并未直接參與人形機(jī)器人的生產(chǎn),僅提供庫(kù)或API訪問(wèn),則由人形機(jī)器人提供者承擔(dān)產(chǎn)品責(zé)任,履行產(chǎn)品安全可控的標(biāo)準(zhǔn)。大模型提供者只有在未能履行合理的風(fēng)險(xiǎn)告知和透明度義務(wù)時(shí),才視為具有過(guò)錯(cuò),進(jìn)而承擔(dān)共同侵權(quán)責(zé)任。
人形機(jī)器人提供者(即高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者)需要充分了解大模型及其功能,才能設(shè)計(jì)出安全可控的產(chǎn)品并履行相應(yīng)的安全保障義務(wù)。因此大模型提供者需要履行適度的透明度措施,包括起草和不斷更新文件,以及提供有關(guān)通用人工智能模型的信息,供下游提供者使用[AIA序言(101)]。議會(huì)通過(guò)的AIA中透明度便是大模型提供者僅有的主要合規(guī)義務(wù)?!?8#〕在侵權(quán)責(zé)任中,大模型提供者的過(guò)錯(cuò)標(biāo)準(zhǔn)可界定為其是否充分履行了透明度義務(wù)。
僅要求透明度的過(guò)錯(cuò)標(biāo)準(zhǔn)可為產(chǎn)業(yè)發(fā)展留下靈活空間。首先通過(guò)市場(chǎng)選擇,若大模型提供者在風(fēng)險(xiǎn)告知中說(shuō)明了當(dāng)前模型技術(shù)水平的局限性,那么下游產(chǎn)品提供者有可能選擇不采用該模型。而為了使大模型能夠有廣泛的適用性和盈利性,大模型提供者亦有動(dòng)力進(jìn)一步修正模型,提高訓(xùn)練的準(zhǔn)確度。該制度設(shè)計(jì)并不會(huì)給大模型提供者留下逃逸法律的缺口??赡軙?huì)有觀點(diǎn)認(rèn)為,大模型提供者為規(guī)避法律責(zé)任風(fēng)險(xiǎn),可以通過(guò)另設(shè)公司進(jìn)行產(chǎn)品設(shè)計(jì)。但人形機(jī)器人產(chǎn)品投入市場(chǎng)仍應(yīng)經(jīng)過(guò)嚴(yán)格的評(píng)估流程?!?9#〕如歐盟機(jī)械條例便要求,涉及自主行為的安全組件或機(jī)械執(zhí)行安全保障功能,須通過(guò)合格性評(píng)估后方可投入市場(chǎng)?!?0#〕因此在安全風(fēng)險(xiǎn)方面仍有相關(guān)制度予以約束,確保產(chǎn)品安全可控。同時(shí),不要求大模型訓(xùn)練直接達(dá)到安全可控的技術(shù)標(biāo)準(zhǔn),可為大模型技術(shù)萌芽和演進(jìn)預(yù)留發(fā)展空間。大模型的技術(shù)改進(jìn)需要過(guò)程,如GPT-4就在GPT-3的基礎(chǔ)上降低了虛假信息的風(fēng)險(xiǎn)。
透明度義務(wù)可設(shè)置為編制并不斷更新模型的技術(shù)文件, 包括其培訓(xùn)和測(cè)試過(guò)程及其評(píng)估結(jié)果,列明所需要的要素[AIA第53.1(a)條]。透明度義務(wù)的履行標(biāo)準(zhǔn)應(yīng)達(dá)到使人工智能系統(tǒng)的提供者能夠很好地了解通用人工智能模型的能力和局限性[AIA第53.1(b)(i)條],并對(duì)其所陳述的信息的準(zhǔn)確性承擔(dān)保障義務(wù)。若人形機(jī)器人提供者在大模型限定的安全范圍內(nèi)設(shè)計(jì)產(chǎn)品卻發(fā)生了風(fēng)險(xiǎn)告知以外的損害,則可考慮推定大模型提供者未履行合理的透明度義務(wù),具有過(guò)錯(cuò)。因大模型提供者和人形機(jī)器人提供者之間存在合作,并非分別實(shí)施侵權(quán)行為(我國(guó)民法典第1171條),而是共同實(shí)施侵權(quán)行為,應(yīng)共同承擔(dān)連帶責(zé)任(我國(guó)民法典第1168條)。
四、人形機(jī)器人使用者的責(zé)任認(rèn)定
因人工智能的復(fù)雜性,使用者責(zé)任問(wèn)題越發(fā)引起重視,不少呼聲認(rèn)為其應(yīng)該承擔(dān)過(guò)錯(cuò)推定甚至是嚴(yán)格責(zé)任。〔418〕然而通常情況下使用者作為消費(fèi)者只需承擔(dān)一般過(guò)錯(cuò)責(zé)任,立法修改不宜過(guò)度偏離原有責(zé)任類(lèi)型,可考慮參照上文所述的人形機(jī)器人提供者的過(guò)錯(cuò)和因果關(guān)系推定規(guī)則設(shè)立補(bǔ)充性規(guī)則。
(一)高度危險(xiǎn)使用者的無(wú)過(guò)錯(cuò)責(zé)任
使用者承擔(dān)嚴(yán)格責(zé)任路徑因過(guò)于嚴(yán)苛而未被歐盟委員會(huì)所采納。歐盟委員會(huì)最終沿襲了傳統(tǒng)侵權(quán)責(zé)任的劃分標(biāo)準(zhǔn),建議未來(lái)可考慮對(duì)“公共場(chǎng)所造成多數(shù)人人身財(cái)產(chǎn)危險(xiǎn)”的專(zhuān)業(yè)使用者設(shè)立嚴(yán)格責(zé)任,譬如現(xiàn)有責(zé)任類(lèi)型中自動(dòng)駕駛汽車(chē)責(zé)任便是典型例子。相反,僅在封閉環(huán)境下運(yùn)行的固定的機(jī)器人,因其只對(duì)特定的少數(shù)人存在傷害風(fēng)險(xiǎn),無(wú)需承擔(dān)嚴(yán)格責(zé)任,〔42#〕如智能割草機(jī)或智能廚房爐子?!?3#〕對(duì)于“公共場(chǎng)所造成多數(shù)人人身財(cái)產(chǎn)危險(xiǎn)”定義,歐盟專(zhuān)家組成員將其概括為危險(xiǎn)技術(shù),〔44#〕符合我國(guó)高度危險(xiǎn)的無(wú)過(guò)錯(cuò)責(zé)任涵蓋范圍。未來(lái)可考慮將從事高度危險(xiǎn)作業(yè)的人工智能產(chǎn)品使用者納入其中。
責(zé)任的設(shè)立須考慮產(chǎn)品的風(fēng)險(xiǎn)畫(huà)像及運(yùn)行環(huán)境(即是否造成公共場(chǎng)所多數(shù)人人身財(cái)產(chǎn)危險(xiǎn))及人工智能系統(tǒng)所引起的事故發(fā)生率。歐盟委員會(huì)建議可分步進(jìn)行,由于高度危險(xiǎn)責(zé)任往往需要配置強(qiáng)制責(zé)任險(xiǎn)制度,可先由保險(xiǎn)行業(yè)獲得充足的精算數(shù)據(jù)后再將其一并納入立法考量。〔45#〕
(二)高風(fēng)險(xiǎn)部署者基于信息披露的過(guò)錯(cuò)推定
對(duì)于高風(fēng)險(xiǎn)專(zhuān)業(yè)使用者,可考慮設(shè)立信息披露義務(wù)。人形機(jī)器人使用者若存在損害他人人身財(cái)產(chǎn)的可能性,可視為高風(fēng)險(xiǎn)使用者,但應(yīng)排除個(gè)人在非職業(yè)活動(dòng)中使用人工智能系統(tǒng)的情形。
歐盟AIA引入部署者(deployer)概念,首次為專(zhuān)業(yè)的高風(fēng)險(xiǎn)使用者設(shè)立了強(qiáng)制性行政合規(guī)義務(wù)。其序言指出,人工智能系統(tǒng)風(fēng)險(xiǎn)也可能來(lái)自其使用方式。因此,高風(fēng)險(xiǎn)人工智能系統(tǒng)的部署者在確?;緳?quán)利得到保護(hù)方面起著至關(guān)重要的作用。部署者最了解高風(fēng)險(xiǎn)人工智能系統(tǒng)將如何具體使用,因此能夠識(shí)別開(kāi)發(fā)階段未預(yù)見(jiàn)的潛在重大風(fēng)險(xiǎn),因?yàn)椴渴鹫吒鼫?zhǔn)確地了解使用環(huán)境、可能受影響的人群或群體,包括弱勢(shì)群體。鑒于人工智能系統(tǒng)的性質(zhì)及其使用可能對(duì)安全和基本權(quán)利造成的風(fēng)險(xiǎn),包括需要確保適當(dāng)監(jiān)測(cè)人工智能系統(tǒng)在現(xiàn)實(shí)生活中的表現(xiàn),為部署者規(guī)定具體的責(zé)任是適當(dāng)?shù)摹!?6#〕
高風(fēng)險(xiǎn)人工智能系統(tǒng)部署者的主要合規(guī)義務(wù)是采取適當(dāng)?shù)募夹g(shù)和組織措施,確保按照使用說(shuō)明使用高風(fēng)險(xiǎn)的人工智能系統(tǒng)(AIA第26.1條)。部署者若對(duì)輸入數(shù)據(jù)行使控制權(quán),則應(yīng)確保輸入數(shù)據(jù)與高風(fēng)險(xiǎn)人工智能系統(tǒng)的預(yù)期目的相關(guān)并具有充分代表性(AIA第26.4條)。此外,部署者還應(yīng)指派具備必要能力、培訓(xùn)和權(quán)力以及必要支持的自然人進(jìn)行人工監(jiān)督(AIA第26.2條),確保機(jī)器在其運(yùn)行過(guò)程中不會(huì)對(duì)公眾造成人身財(cái)產(chǎn)損害。
部署者若無(wú)法履行相應(yīng)的義務(wù)標(biāo)準(zhǔn),則可視為具有過(guò)錯(cuò)。譬如高度自主的清潔機(jī)器人的使用說(shuō)明書(shū)列明了傳感器需要的氣象或照明條件以及安全移動(dòng)所需的地形條件,那么運(yùn)行該機(jī)器人的公司若使其未能接觸充分的數(shù)據(jù)輸入(如光照太低)或?qū)⑵渲糜诰哂袚p害風(fēng)險(xiǎn)的環(huán)境當(dāng)中(如有許多行人經(jīng)過(guò)的凹凸地面),則違反了相應(yīng)的注意義務(wù),具有過(guò)錯(cuò)?!?7+〕
依據(jù)AIA合規(guī)義務(wù), 高風(fēng)險(xiǎn)部署者應(yīng)留存該高風(fēng)險(xiǎn)人工智能系統(tǒng)自動(dòng)生成的日志(AIA第26.6條)。AILD影響評(píng)估特別指出,依據(jù)AIA規(guī)定記錄的信息有助于查明過(guò)錯(cuò),如證明其傳感器是否已正確清潔?!?8+〕因此,可考慮設(shè)立高風(fēng)險(xiǎn)部署者信息披露義務(wù),以緩解舉證困境。若高風(fēng)險(xiǎn)人工智能系統(tǒng)部署者拒絕受害者披露其所掌握的相關(guān)證據(jù)的請(qǐng)求,法院應(yīng)有權(quán)下令要求上述主體披露此類(lèi)證據(jù)。為支持該請(qǐng)求,請(qǐng)求權(quán)人必須提供足以證明其損害賠償索賠合理性的事實(shí)和證據(jù)(AILD提案第3.1條)。且只有在請(qǐng)求權(quán)人已盡一切適當(dāng)努力從被告處收集相關(guān)證據(jù)但仍無(wú)法獲取的情況下,法院方可要求相關(guān)主體披露證據(jù)(第3.2條)。若被告未遵守法院作出的披露或保全證據(jù)令,法院應(yīng)當(dāng)推定被告未能盡到注意義務(wù)(第3.5條)。
為實(shí)現(xiàn)利益平衡,信息披露規(guī)則的義務(wù)主體可暫限于高風(fēng)險(xiǎn)部署者。一是其他使用者暫無(wú)強(qiáng)制性記錄義務(wù),未必留存相關(guān)信息。二是設(shè)置過(guò)高的行政合規(guī)義務(wù)也并不合適。通常情況下消費(fèi)者并無(wú)承擔(dān)合規(guī)義務(wù)之必要,歐盟立法曾將“使用者”修改為“部署者”,目的便是與普通使用者拉開(kāi)界限。那么如何界定“部署者”概念便尤為重要。歐盟AIA第3(4)條將其解釋為,“在授權(quán)下使用人工智能系統(tǒng)的任何自然人或法人,包括公共機(jī)關(guān)、機(jī)構(gòu)或其他團(tuán)體,但在個(gè)人非職業(yè)活動(dòng)中使用人工智能系統(tǒng)的情況除外”。根據(jù)人工智能系統(tǒng)的類(lèi)型,該系統(tǒng)的使用可能會(huì)影響到部署者以外的人,如為決定是否發(fā)放貸款而使用決策系統(tǒng)的銀行。在人形機(jī)器人領(lǐng)域,可理解為可能對(duì)他人造成人身財(cái)產(chǎn)損害的專(zhuān)業(yè)使用者,如在公開(kāi)場(chǎng)合使用高度自主清潔機(jī)器人的公司?!?9+〕此外,部署者并不局限于公司,歐盟AILD影響評(píng)估曾認(rèn)為,自動(dòng)駕駛汽車(chē)的駕駛員也屬于部署者?!?0+〕
(三)基于算法黑箱的過(guò)錯(cuò)及因果關(guān)系認(rèn)定
自適應(yīng)人工智能的出現(xiàn)使其在運(yùn)行過(guò)程中也能持續(xù)性自主學(xué)習(xí),系統(tǒng)所遵循的算法規(guī)則也會(huì)根據(jù)使用時(shí)的輸入數(shù)據(jù)進(jìn)行調(diào)整和改變。自動(dòng)駕駛汽車(chē)領(lǐng)域已采用自適應(yīng)模式,例如特斯拉數(shù)據(jù)來(lái)源的影子模式。位于車(chē)端后臺(tái)運(yùn)行的自動(dòng)駕駛模型將收集其執(zhí)行輸出與駕駛員操作不一致的異常數(shù)據(jù)用于模型糾偏。在人形機(jī)器人領(lǐng)域,自適應(yīng)機(jī)器人同樣是未來(lái)的發(fā)展方向。
自適應(yīng)人工智能使用者在使用過(guò)程中有可能共同參與了人工智能的訓(xùn)練,因人工智能的不可解釋性,即便進(jìn)行信息披露,其輸入數(shù)據(jù)是否錯(cuò)誤及是否與損害結(jié)果存在因果關(guān)系可能難以認(rèn)定。歐洲議會(huì)主張應(yīng)適用過(guò)錯(cuò)及因果關(guān)系推定,〔51#〕但因使用者多為普通消費(fèi)者身份,可能會(huì)過(guò)于嚴(yán)苛。
1.過(guò)錯(cuò)認(rèn)定
對(duì)于是否由使用者承擔(dān)過(guò)錯(cuò)推定責(zé)任, 歐盟至今尚未達(dá)成一致意見(jiàn),AILD提案也并未制定相關(guān)條款。對(duì)此,可分情形討論。
相較而言,不同于算法歧視,物理運(yùn)行的輸入錯(cuò)誤實(shí)際上較為容易被發(fā)現(xiàn)。有觀點(diǎn)便指出,因?yàn)闄C(jī)器人不應(yīng)撞傷他人,使用者若正常使用并不會(huì)發(fā)生損害,反之,非正常使用很容易被發(fā)現(xiàn),比如偏離預(yù)設(shè)的運(yùn)行軌跡或撞傷物品。但若是人工智能無(wú)人機(jī)以最快最經(jīng)濟(jì)為目標(biāo)自主決定送貨路線,那么就無(wú)人機(jī)對(duì)某特定區(qū)域的延遲送貨決定, 很難判斷是由于該區(qū)域居民購(gòu)買(mǎi)力低而形成算法歧視,還是因?yàn)閮H僅是送貨最有效率的方式而已。再如人工智能人事系統(tǒng)歧視女性應(yīng)聘者,可能無(wú)法發(fā)現(xiàn)是因?yàn)橄到y(tǒng)提供者原有的訓(xùn)練數(shù)據(jù)歧視,還是系統(tǒng)投入使用后面試者的訓(xùn)練數(shù)據(jù)歧視所造成?!?2#〕
目前人形機(jī)器人產(chǎn)業(yè)主要致力于動(dòng)作通用性的突破,屬物理運(yùn)行領(lǐng)域,且人形機(jī)器人使用者控制力有逐步減弱的趨勢(shì)。雖然第一階段可能仍然需要人工干預(yù)和糾偏,此時(shí)使用者仍可能參與數(shù)據(jù)訓(xùn)練;但第二階段則可能實(shí)現(xiàn)完全自主行動(dòng),此時(shí)使用者不需要進(jìn)行人工干預(yù)和數(shù)據(jù)輸入,則更無(wú)需因輸入數(shù)據(jù)錯(cuò)誤無(wú)法查明而承擔(dān)過(guò)錯(cuò)推定責(zé)任。
若未來(lái)人形機(jī)器人涉及算法歧視決策,我國(guó)個(gè)人信息保護(hù)法也有相關(guān)條款加以規(guī)制,〔53+〕其第24條第3款規(guī)定“通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定”,侵權(quán)時(shí)適用的便是個(gè)人信息處理的過(guò)錯(cuò)推定責(zé)任?!?4#〕
2.因果關(guān)系推定
在人形機(jī)器人使用者參與數(shù)據(jù)訓(xùn)練的情形下,因人工智能的不可解釋性,若提供者和使用者均存在輸入數(shù)據(jù)錯(cuò)誤,有可能無(wú)法確定哪個(gè)錯(cuò)誤數(shù)據(jù)才是造成損害的決定性因素,進(jìn)而無(wú)法確定具體侵權(quán)人。此時(shí)可考慮適用因果關(guān)系推定。
因果關(guān)系推定的適用具有制度基礎(chǔ)。歐盟專(zhuān)家組報(bào)告指出,對(duì)于無(wú)法確定具體侵權(quán)人的情形,各成員國(guó)法律多進(jìn)行因果關(guān)系推定,并適用共同責(zé)任或分別責(zé)任?!?5#〕我國(guó)民法典第1170條也規(guī)定,二人以上實(shí)施危及他人人身、財(cái)產(chǎn)安全的行為,其中一人或者數(shù)人的行為造成他人損害,不能確定具體侵權(quán)人的,行為人應(yīng)承擔(dān)連帶責(zé)任。
為應(yīng)對(duì)算法黑箱,只要原告能證明人工智能系統(tǒng)的輸出(或無(wú)法輸出)導(dǎo)致?lián)p害發(fā)生,則可考慮不再要求進(jìn)一步證明被告過(guò)錯(cuò)與損害性輸出之間存在因果關(guān)系(AILD提案第4.1條)。AILD提案第4條還對(duì)因果關(guān)系推定進(jìn)行了層次化設(shè)計(jì)。若高風(fēng)險(xiǎn)使用者未符合使用或監(jiān)督說(shuō)明中的要求,或未遵循AIA相關(guān)規(guī)定,沒(méi)有在適當(dāng)?shù)那闆r下暫?;蛑袛嗥涫褂茫蜉斎肱c系統(tǒng)預(yù)期用途無(wú)關(guān)的數(shù)據(jù),法院可考慮適用因果關(guān)系推定(第4.3條)。〔56P〕而對(duì)于非高風(fēng)險(xiǎn)人工智能系統(tǒng),因果關(guān)系推定僅適用于極其難以證明的情形(第4.5條)。對(duì)于個(gè)人在非專(zhuān)業(yè)活動(dòng)中使用人工智能的,因果關(guān)系推定僅適用于實(shí)質(zhì)性干擾或未依要求保障人工智能系統(tǒng)運(yùn)行條件的使用情形(第4.6條)。當(dāng)然,過(guò)錯(cuò)與人工智能損害性輸出之間的因果關(guān)系應(yīng)存在合理可能性,比如未履行備案等行政手續(xù)〔570〕或違反歧視保障義務(wù)則不會(huì)產(chǎn)生物理運(yùn)行損害的結(jié)果。
引入因果關(guān)系推定規(guī)則有利于在總體上提升產(chǎn)品的安全水平。使用者已被認(rèn)定具有過(guò)錯(cuò),在此基礎(chǔ)上再進(jìn)行因果關(guān)系推定并不會(huì)對(duì)其科以過(guò)高的責(zé)任, 反而能促使其遵循說(shuō)明正確使用產(chǎn)品,進(jìn)而提升人工智能產(chǎn)業(yè)的整體合規(guī)水平,使受人工智能影響的社會(huì)公眾集體受益。
至于提供者和使用者承擔(dān)的是連帶責(zé)任還是按份責(zé)任,考慮到使用者的弱勢(shì)地位,按比例承擔(dān)按份責(zé)任可能更為合適。歐盟專(zhuān)家組報(bào)告也指出,現(xiàn)代侵權(quán)法至少在某些情形下規(guī)定了比例責(zé)任,可依據(jù)每個(gè)潛在侵權(quán)人造成損害的可能性減少相應(yīng)的賠償數(shù)額?!?80〕就我國(guó)高空拋物致害責(zé)任而言,也有觀點(diǎn)主張應(yīng)以每位住戶造成損害的可能性概率承擔(dān)比例責(zé)任?!?90〕在人形機(jī)器人致害案件中,法院可綜合考量案件的所有情況,運(yùn)用自由裁量權(quán),依概率裁定較為公平的賠償比例。
本文系國(guó)家社科基金項(xiàng)目“私法適用中再分配問(wèn)題的法律經(jīng)濟(jì)學(xué)研究”(項(xiàng)目批準(zhǔn)號(hào):22BFX177)的階段性研究成果。