張凌寒
內(nèi)容摘要:算法的廣泛應(yīng)用使得平臺運(yùn)行日益自動(dòng)化,加劇了網(wǎng)絡(luò)平臺事前的主觀過錯(cuò)認(rèn)定機(jī)制困境,導(dǎo)致現(xiàn)有平臺監(jiān)管追責(zé)機(jī)理模糊化、治理節(jié)點(diǎn)滯后、責(zé)任設(shè)置不符合比例原則。人工智能時(shí)代的平臺監(jiān)管,既應(yīng)符合平臺底層的技術(shù)邏輯,也應(yīng)符合主客觀相一致、責(zé)罰相適應(yīng)的法律原則。因此,應(yīng)穿透網(wǎng)絡(luò)平臺運(yùn)行的技術(shù)面紗,將平臺監(jiān)管的觸角和追責(zé)視角直接指向背后的算法責(zé)任。技術(shù)原理是中立的,但是技術(shù)的應(yīng)用是包含主觀意圖的,應(yīng)將平臺算法設(shè)計(jì)部署的主觀過錯(cuò)作為問責(zé)依據(jù)。平臺的主觀過錯(cuò)認(rèn)定需明晰可回溯的問責(zé)點(diǎn),可通過算法評估制度設(shè)置,并以算法備案制度事前固定問責(zé)點(diǎn)。事后可要求平臺根據(jù)備案內(nèi)容作出算法解釋,說明設(shè)計(jì)的目的和預(yù)期后果,結(jié)合客觀損害結(jié)果予以歸責(zé)。平臺算法法律責(zé)任的設(shè)置上,對于本身的設(shè)計(jì)過錯(cuò)作為實(shí)質(zhì)責(zé)任予以歸責(zé),如果平臺提供虛假備案與解釋則承擔(dān)不真實(shí)解釋責(zé)任。
關(guān)鍵詞:算法 平臺監(jiān)管 主觀過錯(cuò) 算法備案 算法解釋 算法問責(zé)
中圖分類號:DF51? 文獻(xiàn)標(biāo)識碼:A? 文章編號:1674-4039-(2021)03-0022-40
一、問題的提出:平臺算法自動(dòng)化加劇的歸責(zé)難題
長期以來,網(wǎng)絡(luò)平臺責(zé)任的視野一直被動(dòng)地停留在事后的嚴(yán)格責(zé)任或者間接責(zé)任式的歸責(zé)模式,平臺責(zé)任追究的社會(huì)效果與法律效果均不盡如人意。網(wǎng)絡(luò)平臺時(shí)常自辯自己處于技術(shù)中立的地位,無法承受“海量數(shù)據(jù)處理”之重。公眾雖然是受保護(hù)方,但也時(shí)常認(rèn)為平臺可能在作為“責(zé)任兜底之筐”而承擔(dān)過重的責(zé)任。更重要的是,網(wǎng)絡(luò)平臺監(jiān)管部門的法律責(zé)任設(shè)置和事后歸責(zé)機(jī)理模糊化,調(diào)整對象不明確,責(zé)任設(shè)置似乎也不符合比例原則,因此常被詬病是“事故型問責(zé)”或“按需求監(jiān)管” 〔1 〕。原因在于,針對平臺的監(jiān)管和法律責(zé)任設(shè)置,更多在事后根據(jù)危害結(jié)果要求平臺承擔(dān)責(zé)任,事前主觀過錯(cuò)認(rèn)定機(jī)制模糊不清,導(dǎo)致必要性、合理性存疑,難免產(chǎn)生平臺委屈、公眾同情、監(jiān)管部門底氣不足的情況。〔2 〕
然而,平臺主觀過錯(cuò)認(rèn)定機(jī)制的模糊不清的問題在人工智能時(shí)代進(jìn)一步加劇。ABC技術(shù)(即算法Algorithm、大數(shù)據(jù) Big Data、云存儲(chǔ) Cloud) 〔3 〕進(jìn)一步削弱了認(rèn)定主觀過錯(cuò)的基礎(chǔ):第一,平臺對生產(chǎn)資源、用戶的控制只提供“輕鏈接”,地位似乎更加中立。例如,網(wǎng)約車平臺、外賣平臺只是提供了供需雙方的匹配服務(wù),與生產(chǎn)資料并沒有太強(qiáng)的黏性。第二,算法使得平臺運(yùn)行更加自動(dòng)化,人為干預(yù)日益減少。例如內(nèi)容平臺傳統(tǒng)的“通知-刪除”機(jī)制、電商平臺的定價(jià)依賴算法, 〔4 〕算法出現(xiàn)的錯(cuò)誤常被平臺解釋為“技術(shù)事故” 〔5 〕。按照傳統(tǒng)平臺責(zé)任理論,基于“平臺是技術(shù)中立的介質(zhì)屬性” 〔6 〕,平臺責(zé)任的“行為人與責(zé)任人相分離” 〔7 〕,平臺的自動(dòng)化似乎必然導(dǎo)向更輕的平臺主觀過錯(cuò),進(jìn)而導(dǎo)向更輕的平臺責(zé)任。
與此種推論相悖,各國近年來卻不約而同地加強(qiáng)了平臺責(zé)任,平臺責(zé)任嚴(yán)格化似乎有愈演愈烈的趨勢。我國不僅不斷加強(qiáng)平臺信息管理的主體責(zé)任, 〔8 〕也加強(qiáng)了平臺壟斷、不正當(dāng)競爭行為的法律規(guī)制?!? 〕2019年歐盟通過《歐盟版權(quán)指令》,其中第13條要求臉書、YouTube等平臺積極監(jiān)測其用戶的內(nèi)容,加強(qiáng)版權(quán)審核?!?0 〕就連一向主張寬松產(chǎn)業(yè)政策的美國,也出現(xiàn)了革新平臺中立地位、加強(qiáng)平臺責(zé)任的趨勢。2019年美國參議院的《停止支持互聯(lián)網(wǎng)審查法案》主張取消大型科技公司在《通信內(nèi)容端正法》第230條之下所自動(dòng)享有的責(zé)任豁免?!?1 〕與此同時(shí),科技企業(yè)也按照政策導(dǎo)向展開自我規(guī)制,如“劍橋丑聞”后臉書放棄了自稱“內(nèi)容中立平臺”的立場開始人工審核內(nèi)容。〔12 〕
理論與現(xiàn)象的撕裂引發(fā)思考。顯然,傳統(tǒng)的平臺追責(zé)思路無法應(yīng)對技術(shù)與社會(huì)的發(fā)展。只要監(jiān)管指向平臺的行為,面臨的都是自動(dòng)化的“技術(shù)面紗”。如何形成符合主客觀相一致的法理和平臺技術(shù)邏輯的問責(zé)思路,尤其是明確平臺在主觀過錯(cuò)方面的認(rèn)定機(jī)制與以此為基礎(chǔ)的歸責(zé)機(jī)制、責(zé)任體系,是人工智能時(shí)代平臺責(zé)任基礎(chǔ)理論面臨的重大議題。
二、主觀過錯(cuò)認(rèn)定機(jī)制缺失下的平臺監(jiān)管困境
由于平臺主觀過錯(cuò)認(rèn)定機(jī)制的缺失和模糊,現(xiàn)有的平臺監(jiān)管存在兩大缺憾:其一,現(xiàn)有平臺追責(zé)思路不符合技術(shù)邏輯,仍遵循“主體—行為—責(zé)任”的傳統(tǒng)思路,但平臺運(yùn)行自動(dòng)化的技術(shù)邏輯使其缺乏事前過錯(cuò)的認(rèn)定機(jī)制,導(dǎo)致只能依據(jù)事后結(jié)果被動(dòng)追責(zé),治理節(jié)點(diǎn)滯后。其二,現(xiàn)有平臺責(zé)任的設(shè)置缺乏對不同層次主觀過錯(cuò)的考量,不符合主客觀相一致、責(zé)罰相當(dāng)?shù)姆ɡ恚沟闷脚_責(zé)任設(shè)置缺乏體系性、合理性。不符合比例原則,既損害法律的權(quán)威性,也使得法律法規(guī)受到基于功能主義設(shè)置、缺乏規(guī)范和理論基礎(chǔ)的質(zhì)疑。
(一)平臺主觀過錯(cuò)認(rèn)定缺失下的事后被動(dòng)監(jiān)管
由于平臺主觀過錯(cuò)的認(rèn)定機(jī)制面臨著“技術(shù)中立面紗”與“行為人與責(zé)任人相分離”的困境,監(jiān)管部門只能在危害結(jié)果發(fā)生后啟動(dòng)監(jiān)管和追責(zé),具體追責(zé)時(shí)卻往往找不到、理不清追責(zé)的基礎(chǔ)和理由,陷于實(shí)際上的嚴(yán)格責(zé)任或者無過錯(cuò)責(zé)任。
從規(guī)范論的角度看,主觀過錯(cuò)是平臺承擔(dān)民事責(zé)任或行政處罰的要件。早在2000年的《互聯(lián)網(wǎng)信息服務(wù)管理辦法》就強(qiáng)調(diào)平臺在“發(fā)現(xiàn)”的前提下,對用戶發(fā)布的不法內(nèi)容有避免傳播的義務(wù)?!?3 〕我國原侵權(quán)責(zé)任法第36條規(guī)定,在平臺“知道”或者“應(yīng)當(dāng)知道”發(fā)生侵權(quán)行為時(shí),對損害結(jié)果承擔(dān)直接或連帶侵權(quán)責(zé)任。〔14 〕我國網(wǎng)絡(luò)安全法為平臺設(shè)定的“網(wǎng)絡(luò)安全保護(hù)義務(wù)”,也要求平臺對違法信息的處置以“發(fā)現(xiàn)違法信息”為前提,對于“未被發(fā)現(xiàn)”或“未能被發(fā)現(xiàn)”的違法信息不承擔(dān)法律責(zé)任?!?5 〕換句話說,平臺的法律責(zé)任是一種過錯(cuò)責(zé)任,過錯(cuò)形態(tài)包括注意與過失。2020年我國修訂的行政處罰法也體現(xiàn)了考量行政相對人主觀過錯(cuò)、追求公平正義的精神?!?6 〕
損害結(jié)果發(fā)生之后,法律責(zé)任的追究必然要回溯平臺的主觀過錯(cuò),過錯(cuò)的認(rèn)定卻遭遇兩重障礙。其一,過錯(cuò)認(rèn)定面臨“技術(shù)中立”的抗辯。例如快播案中,其創(chuàng)始人王欣在法庭的抗辯理由即為“技術(shù)是中立的” 〔17 〕。今日頭條創(chuàng)始人張一鳴在多個(gè)場合提到“算法是沒有價(jià)值觀的” 〔18 〕。其二,面臨著“行為人與責(zé)任人相分離”的難題。用戶違法后平臺是否要承擔(dān)法律責(zé)任?平臺方一貫主張自己是嚴(yán)格的“傳輸介質(zhì)屬性”,要區(qū)分內(nèi)容服務(wù)提供者和網(wǎng)絡(luò)服務(wù)提供者。〔19 〕由此可見,由于“技術(shù)中立面紗”與“行為人與責(zé)任人分離”兩個(gè)障礙,對平臺追責(zé)的基礎(chǔ)和理由并不明晰。
這兩種過錯(cuò)的認(rèn)定障礙造成監(jiān)管部門只能根據(jù)危害結(jié)果對平臺的主觀過錯(cuò)作出倒推,導(dǎo)致實(shí)踐層面和規(guī)范層面的嚴(yán)重后果。從實(shí)踐層面來看,監(jiān)管部門只能根據(jù)違法結(jié)果倒推主觀過錯(cuò)。例如,2015 年國家工商總局發(fā)布阿里巴巴“涉嫌在明知、應(yīng)知、故意或過失等情況下為無照經(jīng)營、商標(biāo)侵權(quán)、虛假宣傳、傳銷、消費(fèi)侵權(quán)等行為提供便利、實(shí)施條件” 〔20 〕。根據(jù)結(jié)果倒推主觀過錯(cuò),陷入了實(shí)質(zhì)上的“嚴(yán)格責(zé)任”或“無過錯(cuò)責(zé)任”式的追責(zé)模式。
從規(guī)范層面來看,倒推導(dǎo)致法律只能不斷擴(kuò)大平臺的事前注意義務(wù)范圍。二十年來,網(wǎng)絡(luò)平臺的注意義務(wù)范圍不斷擴(kuò)張。我國不斷強(qiáng)化網(wǎng)絡(luò)平臺的主體責(zé)任與社會(huì)責(zé)任,將對信息的主動(dòng)監(jiān)控義務(wù)加諸網(wǎng)絡(luò)平臺,客觀上無限擴(kuò)張了“過失”的注意義務(wù)范圍?!?1 〕此舉使平臺追責(zé)的主觀過錯(cuò)得以合理化,但也必然導(dǎo)致了平臺責(zé)任的構(gòu)成要件與法律后果的不明。與其說主體責(zé)任適用于平臺監(jiān)管是一種理論革新,不如說是為了使平臺承擔(dān)責(zé)任達(dá)到主客觀相一致作出的理論妥協(xié)。
由于主觀過錯(cuò)認(rèn)定機(jī)制的缺失,導(dǎo)致平臺責(zé)任的追究缺乏正當(dāng)性,形成了客觀上“出事找平臺”的事后監(jiān)管被動(dòng)局面。監(jiān)管部門被批評隱藏于平臺的幕后,避免自身直接面對網(wǎng)絡(luò)海量信息監(jiān)管可能帶來的行政復(fù)議與行政訴訟;平臺責(zé)任的設(shè)置則被批評呈現(xiàn)“管道化”趨勢 〔22 〕,承擔(dān)了過于沉重的私人審查義務(wù)?!?3 〕
(二)平臺過錯(cuò)層次不明下的責(zé)任體系混亂
平臺責(zé)任缺乏明晰的主觀過錯(cuò)認(rèn)定機(jī)制,導(dǎo)致實(shí)踐中對平臺的追責(zé)具有隨意性,平臺責(zé)任難以符合主客觀相一致的基本原則,缺乏可預(yù)見性。因此,現(xiàn)實(shí)的平臺執(zhí)法往往被詬病為“按需求處罰”或“運(yùn)動(dòng)式執(zhí)法”,也導(dǎo)致了平臺監(jiān)管容易走向過度預(yù)防而脫離法治框架。
缺乏清晰的主觀過錯(cuò)認(rèn)定機(jī)制,導(dǎo)致實(shí)踐中平臺法律責(zé)任體系的混亂和隨意。第一,實(shí)踐中的平臺責(zé)任嚴(yán)重缺乏層次性。網(wǎng)絡(luò)安全法及其相關(guān)法規(guī)中平臺責(zé)任形式包括責(zé)令整改、警告、罰款等?!?4 〕在網(wǎng)絡(luò)平臺的監(jiān)管實(shí)踐中,責(zé)令整改已經(jīng)成為最主要的行政措施。2020年江蘇省網(wǎng)安部門依據(jù)網(wǎng)絡(luò)安全法辦理的580起行政案件中,責(zé)令限期整改430家次,占執(zhí)法總量的74%?!?5 〕第二,實(shí)踐中的平臺監(jiān)管存在嚴(yán)重的隨意性。以網(wǎng)絡(luò)安全法第47條平臺未盡到“網(wǎng)絡(luò)信息管理義務(wù)”為例,存在個(gè)案罰與不罰、責(zé)任程度不一的情況。有的平臺被頂格罰款從重處罰,有的則不予處罰僅予責(zé)令整改?!?6 〕平臺監(jiān)管中缺乏對平臺是否盡到注意義務(wù)的主觀過錯(cuò)的論證和考量,導(dǎo)致了從重處罰與免于處罰缺少有力的說理論證,平臺責(zé)任呈現(xiàn)邏輯的混亂與監(jiān)管的隨意。平臺責(zé)任呈現(xiàn)實(shí)質(zhì)上的“客觀歸責(zé)”,即僅以結(jié)果作為追究責(zé)任的原因,難免被詬病“按需求處罰” 〔27 〕。
這種責(zé)任體系的混亂造成了平臺與監(jiān)管部門雙輸?shù)木置妗钠脚_的角度看,是否承擔(dān)法律責(zé)任并不取決于是否履行了注意義務(wù),而取決于監(jiān)管部門是否開展了相關(guān)的專項(xiàng)治理及其治理力度?;ヂ?lián)網(wǎng)行業(yè)常常擔(dān)憂不可預(yù)測的運(yùn)動(dòng)式執(zhí)法帶來的行業(yè)寒冬,長此以往極易因恐懼處罰而失去創(chuàng)新動(dòng)力。從監(jiān)管部門的角度看,主觀過錯(cuò)層次考量的缺失使平臺責(zé)任陷入扁平化、缺乏體系性的特點(diǎn),客觀上呈現(xiàn)“要么約談,要么關(guān)?!钡膬蓸O化趨勢。這使得法律責(zé)任的設(shè)置和監(jiān)管執(zhí)法行動(dòng)并不符合比例原則,具有“事故型問責(zé)”特征而喪失執(zhí)法的權(quán)威性。更嚴(yán)重的后果是監(jiān)管部門缺乏體系性和層次性的治理策略,而又有避免風(fēng)險(xiǎn)的強(qiáng)烈動(dòng)機(jī),因此只能不斷加強(qiáng)對平臺的行為控制。這種預(yù)防型的行為管制具有與生俱來的“越嚴(yán)越好”和“越早越好”的內(nèi)在擴(kuò)張邏輯,極易脫離法治的框架走向過度預(yù)防。
由此可見,平臺監(jiān)管和追責(zé)中缺乏對主觀過錯(cuò)層次的考量,使得平臺法律責(zé)任的設(shè)置不符合權(quán)責(zé)一致、責(zé)罰相當(dāng)?shù)姆稍瓌t,具有了不確定和難以捉摸的特性。這既損害了監(jiān)管部門的權(quán)威性,又使得平臺法律責(zé)任的設(shè)置缺乏合比例性和體系性,平臺監(jiān)管日趨走向嚴(yán)格監(jiān)管。
三、平臺問責(zé)原理:主客觀相一致的算法責(zé)任
平臺算法自動(dòng)化運(yùn)行造成了“主體—行為—責(zé)任”傳統(tǒng)理論下的“責(zé)任鴻溝”,其實(shí)質(zhì)是以缺失控制權(quán)作為理由主張“無過錯(cuò)則無責(zé)任”。為此,人工智能時(shí)代的平臺責(zé)任設(shè)置必須既符合平臺的技術(shù)邏輯,也符合法律責(zé)任主客觀相一致的法律原理。技術(shù)原理是中立的、沒有主觀過錯(cuò)的,但技術(shù)的應(yīng)用如算法的設(shè)計(jì)與部署是包含價(jià)值觀和主觀意圖的,這是法律追責(zé)之根本指向,也是平臺承擔(dān)法律責(zé)任的根本依據(jù)。平臺監(jiān)管的需求不是嚴(yán)格監(jiān)管而是精準(zhǔn)監(jiān)管,在平臺責(zé)任的設(shè)置中加入主觀過錯(cuò)的考量,可以使平臺責(zé)任設(shè)置具有體系性與合比例性。
(一)平臺算法問責(zé)的適用場景:彌合“責(zé)任鴻溝”
平臺算法問責(zé)主要適用于如下場景:當(dāng)損害(危害)是由算法造成時(shí),平臺主張算法自動(dòng)運(yùn)行“技術(shù)中立”而不應(yīng)承擔(dān)法律責(zé)任時(shí),應(yīng)對平臺算法問責(zé)并考察平臺在算法設(shè)計(jì)或運(yùn)行方面的主觀過錯(cuò),用以彌合平臺算法自動(dòng)化運(yùn)行造成的“責(zé)任鴻溝”。
“責(zé)任鴻溝”是2004年由安德利亞斯·馬提亞提出的概念,所指的是算法自主學(xué)習(xí)使得算法的設(shè)計(jì)者和運(yùn)營者未能預(yù)測未來及其運(yùn)行產(chǎn)生的后果,人對機(jī)器的行動(dòng)并沒有足夠的控制權(quán),因此無法要求其承擔(dān)傳統(tǒng)的機(jī)器制造者和操作者的過錯(cuò)責(zé)任。〔28 〕依照傳統(tǒng)的歸責(zé)原則,一個(gè)法律主體只有在其知曉自己的行為及其后果,并且可以自由選擇是否作為的時(shí)候,才應(yīng)該承擔(dān)法律責(zé)任?!?9 〕因此,對于機(jī)器運(yùn)行造成的損害結(jié)果,傳統(tǒng)責(zé)任理論一般追究制造者的責(zé)任,如果操作者按照制造者設(shè)計(jì)的具體意圖操作,就意味著其對責(zé)任的繼承和接受。“責(zé)任鴻溝”的本質(zhì)是算法的設(shè)計(jì)部署者主張因?qū)λ惴ㄟ\(yùn)行缺乏控制力,因此無主觀過錯(cuò)則無責(zé)任。在平臺算法自動(dòng)運(yùn)行造成損害結(jié)果時(shí),判定應(yīng)啟動(dòng)算法問責(zé)制一般應(yīng)符合如下場景:
第一,算法運(yùn)行而非人的行為造成了損害結(jié)果。這是因?yàn)?,如果人的行為在損害結(jié)果的產(chǎn)生中占據(jù)了主要地位,則一般會(huì)落入“主體—行為—責(zé)任”的法律責(zé)任框架。而一旦算法的自動(dòng)化決策對結(jié)果呈現(xiàn)占據(jù)主導(dǎo)地位,則會(huì)產(chǎn)生“責(zé)任鴻溝”。舉例而言,大眾耳熟能詳?shù)摹按髷?shù)據(jù)殺熟”背后是算法的差異化定價(jià),因此會(huì)產(chǎn)生是否合法的討論。而如果由人來進(jìn)行“消費(fèi)越多,價(jià)格越高”的價(jià)格歧視行為則顯然是不合理的。
第二,算法的形式多為平臺的“基礎(chǔ)服務(wù)”或“一般規(guī)則”?!盎A(chǔ)服務(wù)”是指平臺算法搭建的平臺交易架構(gòu)與流程,包括但不限于數(shù)據(jù)收集、存儲(chǔ),認(rèn)證與信息安全,糾紛解決機(jī)制 〔30 〕,行為控制激勵(lì)機(jī)制 〔31 〕等。從表面上看算法是全自動(dòng)的決策,實(shí)際上算法根據(jù)預(yù)先設(shè)定的輸入會(huì)自動(dòng)觸發(fā)后果。算法也經(jīng)常以平臺運(yùn)行“一般規(guī)則”的形式出現(xiàn),包括但不限于算法的分配、派單、排序、推薦等功能。在平臺設(shè)定的目標(biāo)內(nèi),算法的規(guī)則對平臺內(nèi)的個(gè)體普遍適用,自動(dòng)生成結(jié)果。如電子商務(wù)中的全自動(dòng)定價(jià)、叫車平臺上的司機(jī)與乘客匹配、外賣平臺上的用戶信用評價(jià)、短視頻平臺上的內(nèi)容推薦等。
第三,損害常表現(xiàn)為由多方因素造成而難以確定責(zé)任來源。有時(shí)數(shù)據(jù)的來源和數(shù)據(jù)質(zhì)量都可能造成算法運(yùn)行的損害結(jié)果。例如,在德國前第一夫人貝蒂娜·武爾夫起訴谷歌誹謗責(zé)任一案中,谷歌提出的抗辯理由就是“搜索聯(lián)想詞由算法根據(jù)實(shí)時(shí)數(shù)據(jù)等自動(dòng)生成,客觀無法控制”。〔32 〕算法運(yùn)行的不利后果并非孤立、靜態(tài)、割裂的,而可能是數(shù)據(jù)、算法和平臺相互聯(lián)結(jié)聚合而成的結(jié)果。
以上三種情形,都可被平臺用來抗辯并未存在主觀過錯(cuò),因而無須承擔(dān)法律責(zé)任。面對算法帶來的平臺“責(zé)任鴻溝”,平臺責(zé)任理論以擴(kuò)張平臺安全保障義務(wù)來應(yīng)對,這導(dǎo)致平臺被不恰當(dāng)?shù)仡惐葹樘峁┙?jīng)營場所的商家,面臨著平臺責(zé)任被無限擴(kuò)大化的風(fēng)險(xiǎn)。從平臺和消費(fèi)者的角度來看,這些平臺責(zé)任分配上的不確定性都是創(chuàng)新和產(chǎn)業(yè)發(fā)展的障礙。明確平臺法律責(zé)任追究的理論基礎(chǔ)與依據(jù),是保障平臺發(fā)展與消費(fèi)者權(quán)利的共同需求。
(二)平臺為算法承擔(dān)過錯(cuò)責(zé)任的理據(jù)
算法平臺即利用算法構(gòu)建商業(yè)模式、爭奪用戶流量,又利用算法的自動(dòng)性試圖減輕甚至避免監(jiān)管與責(zé)任。技術(shù)原理雖然是中立的,但是平臺對算法的設(shè)計(jì)和部署是包含價(jià)值觀和主觀意圖的,對算法運(yùn)行的結(jié)果是有基本預(yù)見的。這是法律追責(zé)的根本指向,也是對平臺算法問責(zé)的根本依據(jù)。將算法設(shè)計(jì)部署的主觀過錯(cuò)作為平臺追責(zé)的根本依據(jù)有三項(xiàng)理據(jù):
1.平臺作為算法設(shè)計(jì)者嵌入了主觀意圖
首先,算法隱含了平臺的價(jià)值觀和主觀意圖。例如,十年前有學(xué)者即提出“設(shè)計(jì)隱私”理念,主張平臺在算法設(shè)計(jì)時(shí)就應(yīng)將保護(hù)用戶隱私的價(jià)值嵌入平臺架構(gòu)。我國在2019年開展的App治理專項(xiàng)行動(dòng)中,也將“嵌入代碼、插件”和“提供注銷功能”等設(shè)計(jì)層面的算法作為治理對象,違反者則認(rèn)定為具有不當(dāng)收集個(gè)人信息的故意?!?3 〕由此可見,平臺算法對基本交易規(guī)則和基礎(chǔ)服務(wù)的默認(rèn)設(shè)置并不能抹殺其嵌入了設(shè)計(jì)者主觀意圖的實(shí)質(zhì)。
事實(shí)上,平臺很多時(shí)候也承認(rèn)對算法設(shè)計(jì)和部署的主觀意圖。在搜索王與谷歌的案件中,搜索王公司聲稱谷歌的惡意篡改網(wǎng)頁排名算法導(dǎo)致其訪問量急劇下降?!?4 〕谷歌工程師直言這是谷歌故意編輯的結(jié)果,因其享有“作為言論者的權(quán)利” 〔35 〕。滴滴出行科技有限公司某高管也曾定義涉及強(qiáng)奸殺人惡性案件的“順風(fēng)車”服務(wù)是“性感的社交場景”?!?6 〕可見,平臺算法的設(shè)計(jì)部署即蘊(yùn)含著平臺的主觀意圖和價(jià)值判斷。
其次,算法深度學(xué)習(xí)的“技術(shù)黑箱”也無法抹殺平臺設(shè)計(jì)算法的主觀意圖。深度學(xué)習(xí)使得算法輸入可以為提取得到的多種特征,輸出可以為目標(biāo)任務(wù)的標(biāo)簽或者數(shù)值,本質(zhì)上構(gòu)建了一種復(fù)雜的非線性變換。算法的輸出目標(biāo)一旦被設(shè)立,就會(huì)自動(dòng)通過深度學(xué)習(xí)接近這一目標(biāo)?!?7 〕換句話說,算法自動(dòng)學(xué)習(xí)向深層架構(gòu)發(fā)展,它的規(guī)則和運(yùn)作方式很可能讓開發(fā)者都無法理解。
最后,實(shí)質(zhì)上,深度學(xué)習(xí)的平臺算法同樣適用算法問責(zé)制,因?yàn)樗惴ㄖ皇墙栌缮疃葘W(xué)習(xí)獲得了“異質(zhì)自治權(quán)”。歸根結(jié)底,算法只是在人類設(shè)定的目標(biāo)范圍內(nèi),起到了替代人類的作用。從哲學(xué)的角度來看,責(zé)任只能歸因于具有自主行動(dòng)能力的道德主體(人)?,F(xiàn)階段的弱人工智能算法可以被理解為在復(fù)雜的環(huán)境中無需人工監(jiān)督,具有自動(dòng)收集、處理和輸出數(shù)據(jù)的能力?!?8 〕這種自動(dòng)化的能力確切地說應(yīng)被稱為“異質(zhì)自治權(quán)”,也就是在目標(biāo)范圍內(nèi)為算法提供的最高程度的自治權(quán),而非無限的自治權(quán)。〔39 〕換句話說,平臺系統(tǒng)中,自動(dòng)運(yùn)行的算法被人類賦予要完成的任務(wù),由算法自行決定完成這些任務(wù)的方式。深度學(xué)習(xí)造成的算法黑箱內(nèi)的技術(shù)細(xì)節(jié),并無法掩蓋設(shè)計(jì)開發(fā)算法的主觀意圖。以“劍橋丑聞”為例,監(jiān)管部門即使不知曉“劍橋分析”的算法源代碼,也不妨礙其了解算法運(yùn)行目的在于定向投放政治廣告操縱選舉。〔40 〕
2.平臺作為算法使用者具備運(yùn)行控制力與合規(guī)義務(wù)
當(dāng)平臺不是算法的設(shè)計(jì)者,而僅為算法的使用者時(shí),平臺也需因其具備對算法運(yùn)行的控制力而承擔(dān)算法問責(zé)的后果。平臺屢屢將算法運(yùn)行中“控制力缺失”作為抗辯法律責(zé)任的理由,最為常見的是平臺以“行為人與責(zé)任人相分離” 〔41 〕作為抗辯理由。
“行為人與責(zé)任人分離”是指對平臺法律追責(zé)的原因,往往是由用戶或者第三方行為引發(fā)的,平臺并不“生產(chǎn)”違法內(nèi)容,因此不應(yīng)為此承擔(dān)法律責(zé)任。例如,微博上的用戶發(fā)布侵犯他人名譽(yù)權(quán)的內(nèi)容,行為人是提供“內(nèi)容信息提供”的用戶而非平臺。這一觀點(diǎn)源自1996年美國《通信內(nèi)容端正法案》第230條交互式計(jì)算機(jī)服務(wù)者不被視作提供內(nèi)容信息的出版商,因此為網(wǎng)站和互聯(lián)網(wǎng)服務(wù)提供商提供了強(qiáng)大的豁免權(quán)。〔42 〕之后,2000年的美國數(shù)字千禧版權(quán)法案(CDMA)沿襲了這一對互聯(lián)網(wǎng)產(chǎn)業(yè)寬松包容的政策,確立“通知—?jiǎng)h除”規(guī)則,允許網(wǎng)絡(luò)平臺被動(dòng)中立無需主動(dòng)發(fā)現(xiàn)和介入違法事實(shí)。在我國平臺民事責(zé)任的認(rèn)定中,也經(jīng)常將平臺認(rèn)定為“幫助侵權(quán)”行為,而主張平臺承擔(dān)較輕的法律責(zé)任。
實(shí)際上,算法賦予網(wǎng)絡(luò)平臺對信息流的自動(dòng)處理能力,使得平臺的法律責(zé)任早已超越了“網(wǎng)絡(luò)服務(wù)提供者”而獨(dú)立化。平臺貌似并不生產(chǎn)具體內(nèi)容,只是通過算法對具體網(wǎng)頁(商戶、內(nèi)容)進(jìn)行排序與呈現(xiàn)。然而,比起內(nèi)容生產(chǎn)者,平臺算法所起到的屏蔽、推送、排序?qū)τ脩艚邮盏男畔⒕哂懈鼜?qiáng)大的干預(yù)作用。從信息論的角度來說,平臺算法顯著降低了海量網(wǎng)絡(luò)信息的混亂程度,將用戶需要的信息以“關(guān)鍵詞——店鋪排名”或者“關(guān)鍵詞——搜索建議”的形式提供給用戶,這本身就是信息,平臺也是此種意義上的“信息生產(chǎn)者”。無論是搜索引擎、新聞網(wǎng)站,還是電閃管平臺,都扮演著這種信息生產(chǎn)者的角色。例如,淘寶網(wǎng)站雖然不直接出售商品,但其算法決定了商家是否能呈現(xiàn)于消費(fèi)者的頁面中。淘寶搜索規(guī)則在2010年7月8日的調(diào)整將小商家排序靠后導(dǎo)致流量急劇下降,導(dǎo)致淘寶網(wǎng)眾多商家的聚眾抗議事件?!?3 〕
因此,即使平臺僅為算法的使用者,也需要為算法運(yùn)行承擔(dān)責(zé)任。以谷歌為例,2016年谷歌發(fā)現(xiàn)“希特勒”的自動(dòng)補(bǔ)足是“希特勒是英雄”,以及“猶太人”自動(dòng)補(bǔ)足為“猶太人是邪惡的”之后,出手對搜索的自動(dòng)聯(lián)想結(jié)果進(jìn)行了修改限制?!?4 〕早在2009年,我國監(jiān)管部門因谷歌算法的自動(dòng)聯(lián)想功能涉嫌傳播淫穢色情內(nèi)容要求其整改,谷歌隨即表示“將徹查所有的服務(wù),并采取一切必要措施來解決搜索結(jié)果中存在的問題”,此舉與被認(rèn)為谷歌完全有能力控制搜索算法的結(jié)果,而并非其一貫宣稱的由算法自動(dòng)生成?!?5 〕“責(zé)任鴻溝”只是平臺規(guī)避法律責(zé)任的工具,隨時(shí)可以根據(jù)需要拿出或者收起。
退一步說,即使不從平臺對算法控制力的角度論證,世界各國的實(shí)踐也要求平臺承擔(dān)算法運(yùn)行(數(shù)據(jù)處理活動(dòng))的合規(guī)義務(wù)。無論是歐盟一般數(shù)據(jù)保護(hù)條例(GDPR)第35條,還是我國個(gè)人信息保護(hù)法(草案)第54條,均要求平臺對算法運(yùn)行對“個(gè)人的影響及風(fēng)險(xiǎn)程度”,以及“所采取的安全保護(hù)措施是否合法、有效并與風(fēng)險(xiǎn)程度相適應(yīng)”承擔(dān)合規(guī)義務(wù)。這就要求平臺在對涉及個(gè)人數(shù)據(jù)處理的重要問題上先進(jìn)行自我評估,將有可能侵犯用戶數(shù)據(jù)的行為作出相應(yīng)的決策以及應(yīng)對數(shù)據(jù)侵犯的措施,進(jìn)而將數(shù)據(jù)處理影響評估內(nèi)容報(bào)告給相關(guān)機(jī)構(gòu)。因此,即使平臺不是算法的設(shè)計(jì)者而僅為部署和運(yùn)行者,也需承擔(dān)相應(yīng)的注意義務(wù)與合規(guī)義務(wù)。
3.平臺對算法結(jié)果輸出負(fù)有注意義務(wù)
實(shí)時(shí)數(shù)據(jù)成為算法輸出結(jié)果的重要因素。即使平臺在算法設(shè)計(jì)、運(yùn)行上均無過錯(cuò),也需要為因數(shù)據(jù)問題造成的算法損害結(jié)果承擔(dān)責(zé)任,理由如下:
第一,平臺作為算法設(shè)計(jì)者時(shí),具有自主性的算法對外部實(shí)時(shí)網(wǎng)絡(luò)環(huán)境作出的反應(yīng)方式并非完全不可預(yù)測,其對不良數(shù)據(jù)的反應(yīng)能力仍在算法設(shè)計(jì)范圍內(nèi)。假定算法在上線后就有了修改自身的能力,這種能力并非從天而降,仍是算法設(shè)計(jì)者為其產(chǎn)品提供的能力。并且,這種對實(shí)時(shí)數(shù)據(jù)的反應(yīng)能力并非沒有限度,而是在事先劃定的范圍之內(nèi)進(jìn)行的。很顯然,平臺如果作為算法設(shè)計(jì)者,應(yīng)將算法對實(shí)時(shí)數(shù)據(jù)的反應(yīng)輸出能力設(shè)定在安全范圍內(nèi),以免發(fā)生不良后果。
第二,平臺作為算法使用者時(shí),應(yīng)設(shè)計(jì)算法的干預(yù)和嵌入安全機(jī)制。對于更復(fù)雜的算法,可能需要遠(yuǎn)程監(jiān)控,以便在人們認(rèn)為即使有潛在危險(xiǎn)時(shí)(即使在遠(yuǎn)程)加強(qiáng)安全措施。以2020年4月判決的“螞蟻金服訴企查查案”為例,企查查推送的涉及螞蟻微貸的清算信息,因算法運(yùn)行推送方式的設(shè)置問題,引發(fā)公眾將歷史清算信息誤認(rèn)為即時(shí)信息,發(fā)布了“螞蟻金服破產(chǎn)清算”的算法錯(cuò)誤結(jié)果。這一案例顯示,即使算法自動(dòng)抓取數(shù)據(jù)得出結(jié)果,平臺仍應(yīng)負(fù)有審查算法結(jié)果的注意義務(wù)。正如判決書所言:“大數(shù)據(jù)企業(yè)對于收集、發(fā)布的數(shù)據(jù)信息仍具有基本的注意義務(wù),對于發(fā)布的重大負(fù)面敏感信息,應(yīng)當(dāng)通過數(shù)據(jù)過濾、交叉檢驗(yàn)等數(shù)據(jù)處理,確保數(shù)據(jù)質(zhì)量?!?/p>
第三,平臺算法投放前要充分進(jìn)行線上環(huán)境的安全測試。算法應(yīng)經(jīng)過數(shù)據(jù)的“訓(xùn)練”,確保它能夠應(yīng)對現(xiàn)實(shí)生活中的數(shù)據(jù)風(fēng)險(xiǎn),否則不應(yīng)將其投放市場。例如,微軟的AI聊天算法Tay在推特上運(yùn)行了幾個(gè)小時(shí)后,就發(fā)表了同情納粹的言論?!?6 〕微軟顯然并沒有設(shè)計(jì)這一結(jié)果出現(xiàn),但是其作為設(shè)計(jì)部署者應(yīng)該能夠預(yù)見到將一個(gè)機(jī)器人暴露在推特這個(gè)不乏騷擾和仇恨言論平臺上的危險(xiǎn),也應(yīng)設(shè)計(jì)程序記錄這些惡意的影響來源于哪里。算法從環(huán)境中習(xí)得適應(yīng)性行為,因此平臺保證算法在設(shè)計(jì)、部署階段進(jìn)行足夠的訓(xùn)練,在訓(xùn)練中需模擬實(shí)時(shí)環(huán)境,給算法足夠的犯錯(cuò)機(jī)會(huì),這是系統(tǒng)運(yùn)行和改善性能的可行路徑。
平臺的算法運(yùn)行造成的危害后果可能是多方作用的結(jié)果,但這并不足以使平臺逃避其算法責(zé)任。在這種情況下,對于任何算法的最終運(yùn)行結(jié)果,可能有多個(gè)潛在的責(zé)任方?!?7 〕但不論算法通過深度學(xué)習(xí)如何演變,平臺作為設(shè)計(jì)者和部署者都對算法演變有一定的義務(wù),包括監(jiān)督記錄其運(yùn)行和防止危害結(jié)果出現(xiàn)?!?8 〕這也是巴爾金所提出的“制造者義務(wù)體系”,涉及封閉式和開放式的算法中要求嵌入審計(jì)日志,或提前考慮到開放式算法的權(quán)限控制?!?9 〕
在法律應(yīng)以平臺設(shè)計(jì)部署算法的主觀意圖為追責(zé)之指向的前提下,需要澄清的是平臺算法責(zé)任是一種過錯(cuò)責(zé)任,但并不意味著過錯(cuò)責(zé)任是算法責(zé)任的唯一歸責(zé)原則。如同在侵權(quán)責(zé)任領(lǐng)域,過錯(cuò)責(zé)任是默認(rèn)的責(zé)任形態(tài),但也同時(shí)存在著特殊侵權(quán)形態(tài)的無過錯(cuò)責(zé)任或公平責(zé)任形態(tài)。算法的應(yīng)用形態(tài)并不局限于商業(yè)平臺,已經(jīng)被廣泛應(yīng)用于信用評分、政府管理甚至是司法審判中,不同場景下的算法責(zé)任不可能適用同樣的歸責(zé)原則,必然會(huì)隨著算法所處理的數(shù)據(jù)所涉利益的性質(zhì)發(fā)展出不同樣態(tài)的歸責(zé)原則。某些應(yīng)用于公民自由、重要權(quán)利等特定部門的算法,就應(yīng)如同巴爾金指出的那樣,承擔(dān)公共責(zé)任,以類似環(huán)境侵權(quán)的嚴(yán)格責(zé)任要求算法避免對社會(huì)公平的污染效應(yīng)?!?0 〕即使在筆者所限定的平臺算法論域,算法可能用來導(dǎo)航、新聞推薦、投放競選廣告和動(dòng)態(tài)定價(jià),除基本的過錯(cuò)責(zé)任原則外,不應(yīng)否認(rèn)其他歸責(zé)原則適用的可能性。有學(xué)者提出,平臺某些領(lǐng)域的運(yùn)行應(yīng)嵌入公共義務(wù),承擔(dān)一定的公共責(zé)任,這既可能通過擴(kuò)大平臺注意義務(wù)的形式實(shí)現(xiàn),也可能以改變歸責(zé)原則的方式落地。〔51 〕
(三)平臺算法問責(zé)的合理性與可行性
平臺算法問責(zé),從客觀方面符合平臺底層的技術(shù)邏輯,使平臺監(jiān)管的觸角穿透平臺的技術(shù)面紗而直觸其底層技術(shù)——算法。平臺算法問責(zé)符合主客觀相一致的法理,可使平臺責(zé)任合理化、精細(xì)化、體系化。
1.平臺算法問責(zé)符合平臺技術(shù)邏輯
從底層技術(shù)邏輯的角度來看,算法在網(wǎng)絡(luò)平臺的硬件基礎(chǔ)設(shè)施(架構(gòu))、應(yīng)用程序均扮演著核心角色,決定了平臺的運(yùn)行模式,塑造了用戶的習(xí)慣與價(jià)值觀。將算法直接作為平臺監(jiān)管的對象,可以改變現(xiàn)有監(jiān)管層次過淺的現(xiàn)狀,升級傳統(tǒng)的“主體—行為—責(zé)任”的監(jiān)管路徑。算法應(yīng)用給平臺力量帶來了根本性變革,從“生產(chǎn)關(guān)系適應(yīng)生產(chǎn)力”的角度看,原有的平臺監(jiān)管對象應(yīng)相應(yīng)革新,以適應(yīng)算法技術(shù)帶來的平臺角色和地位的演變。
黨的十九屆四中全會(huì)提出“數(shù)據(jù)作為生產(chǎn)要素參與分配” 〔52 〕,算法就是收集處理數(shù)據(jù),挖掘數(shù)據(jù)價(jià)值的生產(chǎn)工具。平臺類型的演進(jìn)實(shí)質(zhì)是算法技術(shù)的演進(jìn)。無論何種類型的平臺,掌握的算法越先進(jìn),就越能在數(shù)字經(jīng)濟(jì)的時(shí)代取得和鞏固競爭優(yōu)勢。例如,2006年美國視頻平臺奈飛推出了百萬美元大獎(jiǎng),獎(jiǎng)勵(lì)打敗原有個(gè)性化推薦算法的隊(duì)伍,后因此取得長足發(fā)展,算法是平臺“競爭必備工具”的理念深入人心?!?3 〕同時(shí),算法也可維護(hù)平臺巨頭企業(yè)的商業(yè)優(yōu)勢,例如谷歌新聞以算法自動(dòng)化推薦代替人工編輯,由于新聞?lì)I(lǐng)域輿情更新頻率極高,要求算法不斷累計(jì)數(shù)據(jù)重建架構(gòu),谷歌為此投入了大量基礎(chǔ)設(shè)施,價(jià)值高達(dá)數(shù)十億美元,使得其他平臺企業(yè)無力與之抗?fàn)?。?4 〕
平臺運(yùn)行的技術(shù)邏輯是算法,平臺商業(yè)價(jià)值和競爭優(yōu)勢的基礎(chǔ)是算法,但是,損害國家利益、社會(huì)公共利益和公民個(gè)人權(quán)益的原因也是算法。尤其需要注意的是,平臺通過算法以“作為”的形式作出了某些不當(dāng)行為。今日頭條旗下“內(nèi)涵段子”被關(guān)停是因其推薦算法“只要價(jià)值不要價(jià)值觀”?!?5 〕近年來飽受詬病的“大數(shù)據(jù)殺熟”事件本質(zhì)是算法的差異化定價(jià)策略。哈佛大學(xué)教授朱波夫的《監(jiān)控資本主義》揭示了算法是平臺商業(yè)邏輯之根本,它不僅引導(dǎo)用戶行為、侵害消費(fèi)者隱私,更影響市場秩序與社會(huì)公平?!?6 〕這與“主體—行為—責(zé)任”邏輯下平臺未盡到注意義務(wù),以“不作為”的方式實(shí)施違法行為的認(rèn)識迥然不同。算法應(yīng)當(dāng)成為監(jiān)管問責(zé)的核心對象。
“主體—行為—責(zé)任”思路下,法院疲于將層出不窮的平臺算法與傳統(tǒng)服務(wù)類型比對,以確定網(wǎng)絡(luò)服務(wù)提供者的類型。這種思路忽視了平臺算法對不同數(shù)據(jù)的實(shí)質(zhì)控制力,可能造成平臺不當(dāng)逃避責(zé)任。以“微信小程序案”為例,杭州互聯(lián)網(wǎng)法院認(rèn)為微信小程序類似于《信息網(wǎng)絡(luò)傳播權(quán)條例》(以下簡稱《條例》)中規(guī)定的“接入服務(wù)提供者”,僅提供單純的互聯(lián)網(wǎng)接入服務(wù)。而實(shí)際上,《條例》對平臺功能區(qū)分為存儲(chǔ)服務(wù)和接入服務(wù),是基于臺式機(jī)時(shí)代網(wǎng)頁HTTP協(xié)議跳轉(zhuǎn)的鏈接行為,在移動(dòng)互聯(lián)網(wǎng)App時(shí)代早已發(fā)生改變。〔57 〕用戶可以基于微信與小程序直接鏈接的算法和內(nèi)置于微信內(nèi)的搜索引擎、排序算法進(jìn)入微信小程序。因此,平臺通過算法對侵權(quán)的微信小程序具有控制力。法院甚至在傳統(tǒng)平臺主體類型外被迫創(chuàng)新平臺服務(wù)主體類型,也使得平臺責(zé)任的設(shè)置具有了不可預(yù)見性。例如,在2017年的“阿里云案”二審中,北京知識產(chǎn)權(quán)法院認(rèn)為,阿里云公司提供的云技術(shù)服務(wù)既不是自動(dòng)接入、傳輸服務(wù)提供者,也不是儲(chǔ)存、緩存服務(wù),或是連接搜索鏈接服務(wù)提供者,而屬于侵權(quán)責(zé)任法第36條的其他網(wǎng)絡(luò)服務(wù)提供者?!?8 〕由此可見,法院知曉云服務(wù)與傳統(tǒng)存儲(chǔ)、接入平臺主體類型的本質(zhì)區(qū)別,但又苦于現(xiàn)行法律中沒有對應(yīng)的主體類型,只能通過解釋的方法將其歸類為“其他網(wǎng)絡(luò)服務(wù)提供者”。傳統(tǒng)的“主體—行為—責(zé)任”路徑必然造成司法實(shí)踐中越來越多類似的困境。
近兩年來,世界各國逐漸重視算法在平臺監(jiān)管的核心地位,將算法作為監(jiān)管對象的立法動(dòng)作頻出。2019年美國國會(huì)議員提出《算法問責(zé)法案》,擬對用戶在100萬人以上的平臺公司進(jìn)行算法審查。〔59 〕2019年澳大利亞競爭與消費(fèi)者委員會(huì)宣布計(jì)劃設(shè)立專門分支機(jī)構(gòu)“主動(dòng)監(jiān)視”平臺算法運(yùn)行,賦予其要求披露算法詳細(xì)信息的權(quán)限?!?0 〕我國網(wǎng)絡(luò)監(jiān)管部門也意識到平臺言論呈現(xiàn)的意識形態(tài),其很大程度是算法對網(wǎng)絡(luò)信息內(nèi)容排序、推送、屏蔽的結(jié)果,2019年的立法中要求平臺“優(yōu)化個(gè)性化算法推薦技術(shù)” 〔61 〕。可以預(yù)見的是,將算法作為平臺監(jiān)管的直接對象是人工智能時(shí)代的大勢所趨。
2.考察主觀過錯(cuò)可使平臺責(zé)任精細(xì)化
主觀過錯(cuò)既是我國行政監(jiān)管考量的基本要素,也是我國平臺責(zé)任立法的已有實(shí)踐,只有對算法設(shè)計(jì)部署中存在的主觀過錯(cuò)進(jìn)行網(wǎng)絡(luò)平臺監(jiān)管,方可實(shí)現(xiàn)法律預(yù)防違法行為、促進(jìn)網(wǎng)絡(luò)產(chǎn)業(yè)積極發(fā)展的意義。要求平臺因不同程度的主觀過錯(cuò)而承擔(dān)不同程度的法律責(zé)任,符合法律責(zé)任主客觀相一致的基本原則。
第一,從現(xiàn)有規(guī)范角度來說,無論是侵權(quán)責(zé)任的過錯(cuò)責(zé)任原則,還是刑法的罪責(zé)刑相適應(yīng)原則,主觀過錯(cuò)均對法律責(zé)任的存在與輕重具有決定性作用。以我國原侵權(quán)責(zé)任法第36條為例,平臺在接到通知后主觀狀態(tài)轉(zhuǎn)為“故意”,相應(yīng)的法律責(zé)任也升格為了“連帶責(zé)任”。在行政監(jiān)管中,主觀過錯(cuò)亦是責(zé)任要件,行為人若其決定從事違反行政法上義務(wù)之行為,即得對其非難而要求其承擔(dān)責(zé)任?!?2 〕主觀過錯(cuò)的不同程度決定了法律責(zé)任的輕重不同。根據(jù)行政處罰法第 25、26 條的規(guī)定,在決定是否對違法行為人從輕處罰、減輕處罰甚至是不予處罰時(shí),相對人違法時(shí)的主觀狀態(tài)是重要的考量要素之一。在我國行政法體系中對風(fēng)險(xiǎn)防控要求最高的藥品監(jiān)管管理法中,對藥品生產(chǎn)者、藥品銷售者的責(zé)任原則也是過錯(cuò)責(zé)任原則?!?3 〕
具體到網(wǎng)絡(luò)監(jiān)管領(lǐng)域,網(wǎng)絡(luò)安全法的立法目的之一在于“促進(jìn)經(jīng)濟(jì)社會(huì)信息化健康發(fā)展”。因此,將主觀過錯(cuò)程度納入法律責(zé)任追究的考量中,既可以避免客觀歸責(zé)的嚴(yán)厲制裁帶來的打擊平臺守法積極性的后果,又可以為平臺提供接受法律追責(zé)的心理基礎(chǔ),提升平臺對處罰的可接受程度。將主觀過錯(cuò)作為平臺責(zé)任考量要素也符合我國一貫的立法實(shí)踐。最高人民法院的司法解釋曾就平臺主觀過錯(cuò)如何認(rèn)定給出過詳細(xì)指引,對網(wǎng)絡(luò)服務(wù)提供者是否“知道”設(shè)置了一系列考量因素?!?4 〕
第二,從價(jià)值考量角度來說,主觀過錯(cuò)作為平臺追責(zé)要素方可體現(xiàn)公平正義的基本理念。行為人的主觀過錯(cuò)、危害性與責(zé)罰相當(dāng),方才具有法律責(zé)任的正當(dāng)性。依據(jù)懲罰程度的不同實(shí)現(xiàn)對惡性違法行為的預(yù)防功能,從而盡可能地增強(qiáng)行政處罰預(yù)防功能的有效性。從我國網(wǎng)絡(luò)安全法第二章可以看到,其立法目的之一在于“促進(jìn)經(jīng)濟(jì)社會(huì)信息化健康發(fā)展”。將主觀過錯(cuò)納入平臺責(zé)任的考量,使平臺監(jiān)管從嚴(yán)格監(jiān)管走向精準(zhǔn)監(jiān)管,可以促進(jìn)網(wǎng)絡(luò)產(chǎn)業(yè)積極發(fā)展。
從反面論證,如果平臺反對法律考察算法設(shè)計(jì)部署的主觀過錯(cuò),可能導(dǎo)致嚴(yán)格責(zé)任的適用,使得平臺面對更為嚴(yán)厲的監(jiān)管來分散平臺運(yùn)行的風(fēng)險(xiǎn)。與嚴(yán)格責(zé)任(適用于某些產(chǎn)品責(zé)任案件)相比,更寬松的合理性標(biāo)準(zhǔn)可能會(huì)鼓勵(lì)使用機(jī)器,從而促進(jìn)創(chuàng)新和提高安全性。〔65 〕同樣,考察主觀過錯(cuò)使得責(zé)任可以在設(shè)計(jì)者、使用者和其他主體之間合理分配。當(dāng)算法過程導(dǎo)致有害的結(jié)果時(shí),主觀過錯(cuò)具有可追溯性,可促使監(jiān)管部門發(fā)現(xiàn)故障的根源,為其分配責(zé)任并懲罰或至少教育責(zé)任者成為可能?!?6 〕
將算法作為平臺底層技術(shù)邏輯作為監(jiān)管對象,并在監(jiān)管中將平臺主觀過錯(cuò)作為考量,不是為了平臺嚴(yán)格監(jiān)管而是為了精準(zhǔn)監(jiān)管。這不僅符合主客觀相一致、責(zé)罰相當(dāng)?shù)姆ɡ?,也符合我國法律的一貫精神,更加符合奉法?qiáng)國、良法善治的理念和精神。那么下一個(gè)需要回答的問題是,如何在算法的自動(dòng)化運(yùn)行中判定和度量主觀過錯(cuò)呢?
四、平臺算法問責(zé)路徑:平臺的主觀過錯(cuò)認(rèn)定機(jī)制
平臺算法問責(zé)的制度構(gòu)建目的在于促進(jìn)理想或有益的結(jié)果、防止不良或有害結(jié)果的產(chǎn)生,并確保適用于人類決策的法律可以有效應(yīng)用于算法決策?!?7 〕清晰的主觀過錯(cuò)認(rèn)定機(jī)制對于平臺的算法問責(zé)至關(guān)重要,這意味著平臺設(shè)計(jì)、部署和應(yīng)用算法的主觀過錯(cuò)有著具體界定和表述,應(yīng)該是在生產(chǎn)和生活實(shí)踐中可觀測、可區(qū)分的,在技術(shù)上可度量、可標(biāo)定的?!?8 〕平臺算法的主觀過錯(cuò)應(yīng)包含哪些內(nèi)容?平臺自動(dòng)化運(yùn)行的主觀過錯(cuò)如何固定?
(一)過錯(cuò)的事前固定:算法備案制度
平臺因算法被問責(zé)的原因是其未履行法律和道德的義務(wù),并無法向利益相關(guān)方解釋和證明其無主觀過錯(cuò)。合理的平臺算法問責(zé)有賴于清晰的主觀過錯(cuò)認(rèn)定,需通過算法評估、備案與審計(jì)對平臺事前和運(yùn)行中的問責(zé)點(diǎn)進(jìn)行固定,以有效評估平臺是否可以評估、控制、糾正算法帶來的危害。
1.平臺算法備案的內(nèi)容:算法評估與審計(jì)
第一,平臺算法備案的目的在于設(shè)置問責(zé)點(diǎn),相關(guān)具體制度包括算法評估、算法運(yùn)行監(jiān)管以及算法審計(jì)。這樣既能避免事后平臺隱瞞與錯(cuò)誤披露的可能,也可預(yù)防風(fēng)險(xiǎn),避免錯(cuò)誤的計(jì)算反復(fù)被適用于海量主體而使損害彌散化。以風(fēng)險(xiǎn)預(yù)防為目的的事前監(jiān)管已經(jīng)成為立法實(shí)踐的選擇。例如,歐盟一般數(shù)據(jù)保護(hù)條例的數(shù)據(jù)處理評估制度(DPIA)即是針對高風(fēng)險(xiǎn)數(shù)據(jù)處理活動(dòng)對數(shù)據(jù)控制者設(shè)置的預(yù)警自查義務(wù)?!?9 〕在事前問責(zé)點(diǎn)的設(shè)置中,算法審計(jì)也發(fā)揮著重要作用,往往與評估制度被同時(shí)使用。例如我國個(gè)人信息保護(hù)法(草案)第53條規(guī)定,個(gè)人信息處理者應(yīng)定期對個(gè)人信息處理活動(dòng)、采取的保護(hù)措施等是否符合法律、行政法規(guī)的規(guī)定進(jìn)行審計(jì);第54條明確提出利用個(gè)人信息進(jìn)行自動(dòng)化決策應(yīng)進(jìn)行事前的風(fēng)險(xiǎn)評估。紐約大學(xué)的AI Now研究院也提出了類似的算法影響評估(AIA)制度,要求在重要的公共部門使用算法前,應(yīng)采取的關(guān)鍵步驟來確定何時(shí)以及如何產(chǎn)生潛在危害,包括增加其專業(yè)知識和能力以有效實(shí)施和評估算法系統(tǒng),并允許第三方審計(jì)公共部門的算法?!?0 〕
第二,需要進(jìn)行評估與審計(jì)的算法范圍。應(yīng)以算法處理的數(shù)據(jù)所涉及的利益、對用戶行為的干預(yù)程度、社會(huì)動(dòng)員程度為標(biāo)準(zhǔn),確立不同的算法風(fēng)險(xiǎn)等級并設(shè)定不同的監(jiān)管標(biāo)準(zhǔn)。國家應(yīng)圍繞高敏感、高風(fēng)險(xiǎn)算法建設(shè)“關(guān)鍵算法系統(tǒng)監(jiān)督網(wǎng)絡(luò)”,而對于相對低風(fēng)險(xiǎn)算法降低監(jiān)管強(qiáng)度。例如,歐盟一般數(shù)據(jù)保護(hù)條例的數(shù)據(jù)處理評估制度,要求受到評估的算法系統(tǒng)從事“高風(fēng)險(xiǎn)數(shù)據(jù)處理活動(dòng)”;又或德國數(shù)據(jù)倫理委員會(huì)提出的算法風(fēng)險(xiǎn)評估方案,主張對數(shù)字服務(wù)企業(yè)使用的算法進(jìn)行五級風(fēng)險(xiǎn)評級的制度,對不同級別的算法采取不同強(qiáng)度的監(jiān)管。〔71 〕我國立法將某些算法應(yīng)用定義為“具有輿論屬性或社會(huì)動(dòng)員能力的互聯(lián)網(wǎng)信息服務(wù)”,并要求其進(jìn)行自行安全評估。
第三,算法問責(zé)點(diǎn)考量與記錄的內(nèi)容。日后的算法問責(zé)需要清晰的問責(zé)點(diǎn),因此相關(guān)制度應(yīng)著重平臺設(shè)計(jì)部署算法的目的、風(fēng)險(xiǎn)與過程控制能力。
其一,為考察算法設(shè)計(jì)部署目的設(shè)置的問責(zé)點(diǎn),應(yīng)包括對算法設(shè)計(jì)的目的、與算法設(shè)計(jì)與應(yīng)用必要性相稱的評估。當(dāng)一個(gè)算法系統(tǒng)有多個(gè)價(jià)值目標(biāo)時(shí),則必須將目標(biāo)之間的優(yōu)先級透明化。例如,自動(dòng)駕駛汽車可能旨在減少交通事故死亡人數(shù),降低其對環(huán)境的影響,減少嚴(yán)重傷害,縮短運(yùn)輸時(shí)間,避免財(cái)產(chǎn)損失并提供舒適的乘車體驗(yàn)。當(dāng)這些目標(biāo)沖突時(shí)哪個(gè)優(yōu)先?在2018年優(yōu)步公司的自動(dòng)駕駛汽車事故中,優(yōu)步公司則被指責(zé)過于追求運(yùn)輸速度,因其系統(tǒng)一直判斷行人為“不明障礙物”而不減速,最后一秒識別出行人后則為時(shí)已晚?!?2 〕人與算法系統(tǒng)之間的主要區(qū)別之一是:人能夠協(xié)商有沖突的價(jià)值或規(guī)則,而算法系統(tǒng)需要在設(shè)計(jì)時(shí)就考慮這些價(jià)值的優(yōu)先順序?!?3 〕
其二,為考察算法設(shè)計(jì)部署風(fēng)險(xiǎn)(影響)設(shè)計(jì)的問責(zé)點(diǎn),具體內(nèi)容應(yīng)包括對算法可能產(chǎn)生的公共利益、公民權(quán)利等風(fēng)險(xiǎn)的評估,包括風(fēng)險(xiǎn)的來源、性質(zhì)、特殊性和嚴(yán)重性等。有他國實(shí)踐主張算法的設(shè)計(jì)部署者應(yīng)提供更為廣泛的評估,包括算法應(yīng)用對人權(quán) 〔74 〕、隱私 〔75 〕和數(shù)據(jù)保護(hù) 〔76 〕的影響等;有的學(xué)者主張算法設(shè)計(jì)部署應(yīng)提供“社會(huì)影響聲明”“歧視影響評估”〔77 〕,甚至“人類影響聲明” 〔78 〕等,對此應(yīng)根據(jù)平臺與算法的功能進(jìn)行場景化的界定。
其三,為考察平臺對算法風(fēng)險(xiǎn)與過程控制能力而設(shè)置的問責(zé)點(diǎn),應(yīng)包括處理可能發(fā)生風(fēng)險(xiǎn)的預(yù)案與措施。具體包括相關(guān)技術(shù)信息的留存措施、處理相關(guān)風(fēng)險(xiǎn)的技術(shù)措施、與相關(guān)部門溝通與協(xié)助的措施等。比如,歐盟一般數(shù)據(jù)保護(hù)條例第35條要求數(shù)據(jù)控制者實(shí)施數(shù)據(jù)安全影響評估。正如聯(lián)合國國際治理論壇專家報(bào)告所言,平臺應(yīng)采取“持續(xù)性、前瞻性和反應(yīng)性”的步驟來保證相關(guān)技術(shù)滿足其風(fēng)險(xiǎn)評估的技術(shù)需求。〔79 〕以上問責(zé)點(diǎn)的設(shè)置為確保準(zhǔn)確性和可審計(jì)性提供了重要的信息——通過進(jìn)行敏感性分析、有效性檢查和糾錯(cuò)過程,敦促平臺仔細(xì)調(diào)查錯(cuò)誤和不確定的領(lǐng)域,并在需要的情況下啟動(dòng)第三方的算法審計(jì)。
2.平臺算法備案制度具體規(guī)則
算法評估與審計(jì)的內(nèi)容需要通過算法備案的形式予以固定。算法備案是行政機(jī)關(guān)作出的一種存檔備查的行為,其目的在于獲取平臺設(shè)計(jì)部署的具有潛在危害和風(fēng)險(xiǎn)的算法系統(tǒng)的相關(guān)資訊,以固定問責(zé)點(diǎn)為今后的行政監(jiān)管提供信息基礎(chǔ)。算法備案可根據(jù)算法風(fēng)險(xiǎn)等級,內(nèi)部自行備案或向監(jiān)管部門備案,用于日后對平臺主觀過錯(cuò)的考量。
第一,算法備案的性質(zhì)。平臺算法問責(zé)的目標(biāo)在于問責(zé)點(diǎn)的固定,而非設(shè)置行政許可或前置的審批程序。其對本身報(bào)備的事項(xiàng)(算法應(yīng)用)并不產(chǎn)生直接的法律效果,其目的不像行政許可那樣在于“解禁”,而在于通過對其事后進(jìn)行的審查、監(jiān)督來保障備案事項(xiàng)于公益的無害。在這種情況下,備案本身即存在著監(jiān)督效應(yīng)。要求平臺經(jīng)過行政審批方可部署算法,勢必會(huì)降低平臺對于創(chuàng)新的追求動(dòng)力,也會(huì)大大減緩平臺應(yīng)對市場競爭的速度。因此,僅要求平臺對于一定風(fēng)險(xiǎn)級別的算法進(jìn)行信息披露,而不以行政部門審批作為部署條件,才能在保證事后監(jiān)管問責(zé)清晰的情況下,不阻礙產(chǎn)業(yè)的發(fā)展。
第二,算法備案的對象。算法備案應(yīng)根據(jù)不同算法風(fēng)險(xiǎn)等級,要求平臺進(jìn)行自我備案或向監(jiān)管部門備案。將監(jiān)管部門作為備案對象,可避免向公眾披露而造成商業(yè)秘密泄露與算法被不當(dāng)使用。例如,網(wǎng)絡(luò)用戶在掌握搜索引擎排名權(quán)重等信息后,可能通過搜索引擎優(yōu)化(SEO)技術(shù)對排名和搜索建議進(jìn)行操縱。在各國制度中,也一般將監(jiān)管部門作為信息披露的對象。諸如美國的《算法問責(zé)制(草案)》擬要求平臺對監(jiān)管部門(FTC)披露信息 〔80 〕,澳大利亞反壟斷部門的平臺算法監(jiān)管措施也僅限于對監(jiān)管部門的披露 〔81 〕。需要指出的是,盡管備案沒有許可的強(qiáng)制效力,信息留存或向監(jiān)管部門披露本身對于平臺來說就形成了監(jiān)管的威懾力。
第三,算法備案的形式。算法備案的形式可通過官方發(fā)布模板,通過平臺填寫模板的方式備案算法部署的目的、風(fēng)險(xiǎn),評估過程控制方案。備案內(nèi)容可用于日后一旦發(fā)生客觀損害結(jié)果后對平臺主觀過錯(cuò)的考量,并可供監(jiān)管部門在算法生命周期中持續(xù)使用及定期審核。
參考各國算法規(guī)制的模式,采取平臺就核心算法向監(jiān)管部門的備案制度,可達(dá)到政府監(jiān)管與行業(yè)自律的平衡、信息披露與商業(yè)秘密的平衡、源頭治理與事后追責(zé)的平衡。過度依賴事后追責(zé)難免造成損害結(jié)果的彌散化,而對風(fēng)險(xiǎn)預(yù)防的過度追求必然導(dǎo)向嚴(yán)格的事前規(guī)制,難免抑制產(chǎn)業(yè)發(fā)展也使監(jiān)管負(fù)擔(dān)過重。不同的技術(shù)機(jī)理意味著需要不斷從技術(shù)源頭尋找最新、最關(guān)鍵的治理節(jié)點(diǎn)和工具,并將其納入治理機(jī)制之中,以實(shí)現(xiàn)治理的可持續(xù)性?!?2 〕算法備案制度正式從源頭設(shè)置治理節(jié)點(diǎn),以備案方式為事后追責(zé)提供工具。同時(shí),源頭技術(shù)治理還有一個(gè)重要內(nèi)容,就是在技術(shù)底層賦予人工智能“善用”的基因。要求平臺在部署算法之前自我評估可能帶來的風(fēng)險(xiǎn),就是將倫理嵌入技術(shù)的具體過程。
(二)過錯(cuò)的事后認(rèn)定:獨(dú)立的算法解釋環(huán)節(jié)
如何在危害結(jié)果發(fā)生之后對平臺的主觀過錯(cuò)進(jìn)行認(rèn)定?監(jiān)管部門事前備案內(nèi)容可判斷平臺是否具有故意或者過失的主觀過錯(cuò),并以此為依據(jù),結(jié)合客觀的損害結(jié)果直接進(jìn)行行政處罰與問責(zé)。在此過程中平臺需進(jìn)行算法解釋。算法解釋是認(rèn)定主觀過錯(cuò)進(jìn)行平臺問責(zé)的必經(jīng)程序。
第一,算法解釋在平臺責(zé)任認(rèn)定中具有程序上的必要性,并應(yīng)在平臺算法問責(zé)中成為獨(dú)立設(shè)置的環(huán)節(jié)。算法解釋在平臺責(zé)任認(rèn)定中具有行政程序上的必要性,這是平臺接受行政處罰前的不可或缺的陳述、申辯,是行政法原則保障的行政相對人的基本程序性權(quán)利。平臺因算法的設(shè)計(jì)部署而接受行政處罰是一種法律上的不利后果,如果缺乏陳述與申辯環(huán)節(jié)將是嚴(yán)重的程序瑕疵。聽證、陳述、申辯的主要功能是確保當(dāng)事人參與到行政程序中進(jìn)行意見表達(dá),算法解釋則是這一環(huán)節(jié)在平臺算法問責(zé)的行政活動(dòng)中的具體體現(xiàn)。
第二,算法解釋在平臺責(zé)任的認(rèn)定中具有功能上的必要性,但其過去一直作為具體案件事實(shí)查明、行政處罰程序的一部分呈碎片化狀態(tài),而未引起注意。具體案件的算法解釋以認(rèn)定(排除)平臺的法律責(zé)任為限,程序上多由法庭調(diào)查發(fā)起,并未與審理過程分離形成單獨(dú)的程序。如個(gè)性化推薦算法向用戶推送隆胸廣告,用戶以百度侵害其隱私權(quán)提起訴訟。承辦法官撰文詳細(xì)介紹原告獲得算法利用其Cookie數(shù)據(jù)投放個(gè)性化推薦廣告的過程,也是基于在審理過程中獲得的自動(dòng)化決策的算法解釋?!?3 〕在監(jiān)管部門的要求下,平臺也需進(jìn)行算法的體系性解釋。例如,“魏則西事件”后,聯(lián)合調(diào)查組進(jìn)駐百度,其調(diào)查和監(jiān)管過程包含著要求百度對競價(jià)排名算法進(jìn)行解釋。最終調(diào)查組要求百度采用以信譽(yù)度為主要權(quán)重的排名算法并落實(shí)到位,實(shí)際上審查的就是其設(shè)計(jì)考量的價(jià)值取向而非內(nèi)部的技術(shù)細(xì)節(jié)。因此,算法解釋并非創(chuàng)制的制度,而是一直存在于我國司法與行政的實(shí)踐中。
第三,從監(jiān)管成本、監(jiān)管對象的角度,算法解釋都應(yīng)成為平臺算法問責(zé)制對主觀過錯(cuò)考察的獨(dú)立環(huán)節(jié)。事后的算法解釋行為本身是監(jiān)管考察的對象。算法解釋發(fā)生在客觀的損害結(jié)果發(fā)生之后,此時(shí)平臺對監(jiān)管部門的算法解釋也會(huì)受到法律的評價(jià),解釋中的隱瞞、虛假解釋等行為可能構(gòu)成相應(yīng)的法律責(zé)任。為監(jiān)管部門提供虛假解釋將承擔(dān)不實(shí)解釋的法律責(zé)任。事后的算法解釋是對平臺分配的合規(guī)的舉證責(zé)任。在監(jiān)管部門啟動(dòng)的有關(guān)算法的調(diào)查和行政處罰中,平臺等互聯(lián)網(wǎng)企業(yè)承擔(dān)著自證合規(guī)的舉證責(zé)任。算法解釋的內(nèi)容包含要求對算法本身合法性和合理性的審查,類似于因具體行政行為提起訴訟后,對抽象行政行為的附帶性審查。應(yīng)考慮將證明算法合法、合理、無歧視的責(zé)任分配給算法使用者和設(shè)計(jì)者。
(三)責(zé)任設(shè)置:平臺的實(shí)質(zhì)責(zé)任與虛假解釋責(zé)任
平臺法律責(zé)任的設(shè)置,應(yīng)根據(jù)主觀過錯(cuò)的程度輕重分層次設(shè)置。對于故意和過失的平臺算法的主觀過錯(cuò),施以主客觀相一致的實(shí)質(zhì)責(zé)任。對于提供虛假算法備案與虛假解釋的平臺,則施加類似于證券虛假陳述責(zé)任的虛假備案與虛假解釋責(zé)任。
1.主客觀相一致的平臺實(shí)質(zhì)責(zé)任
平臺的實(shí)質(zhì)責(zé)任,是指平臺由于算法設(shè)計(jì)、部署與運(yùn)行中的故意或過失,承擔(dān)的法律責(zé)任。平臺算法責(zé)任的設(shè)置,應(yīng)符合主客觀相一致、責(zé)罰相當(dāng)?shù)姆ɡ?。根?jù)平臺的主觀過錯(cuò)形態(tài)設(shè)置不同層次的法律責(zé)任。
第一,平臺的過錯(cuò)范圍應(yīng)具有多重層次和豐富內(nèi)涵。算法責(zé)任的主觀過錯(cuò)包括故意、過失形態(tài)。其一,過錯(cuò)的范圍應(yīng)涵蓋現(xiàn)行法律規(guī)定,并將其明確化。其二,過錯(cuò)的內(nèi)涵應(yīng)吸納不得對用戶行為操縱、保障用戶自治性等技術(shù)倫理內(nèi)容。其三,應(yīng)鼓勵(lì)平臺算法通過主動(dòng)承諾的形式,擴(kuò)大自身注意義務(wù)的范圍。以美國聯(lián)邦貿(mào)易委員會(huì)對臉書的5億美元罰款事件為例,其罰款的依據(jù)是臉書于2012年自身作出的企業(yè)隱私政策。當(dāng)企業(yè)自己主動(dòng)提供了隱私政策和承諾之后,監(jiān)管部門方有理由對其違背隱私政策的行為以“欺騙性貿(mào)易”的名義予以處罰。其四,對待“關(guān)鍵算法”,國家應(yīng)直接制定相關(guān)技術(shù)標(biāo)準(zhǔn),違反則為存在主觀過錯(cuò)。
第二,平臺的算法責(zé)任應(yīng)實(shí)現(xiàn)動(dòng)態(tài)治理,即不僅包括在設(shè)計(jì)部署時(shí)的責(zé)任,也包括算法運(yùn)行過程中的責(zé)任。當(dāng)平臺使用算法違反現(xiàn)有的法律或法規(guī)時(shí),監(jiān)管機(jī)構(gòu)應(yīng)首先檢查平臺是否能夠及如何有效地證明他們有控制權(quán),以確保算法按預(yù)期行事。如果發(fā)生重大損害并且不存在此類控制措施,或者技術(shù)人員在滿足此標(biāo)準(zhǔn)方面存在疏忽與過失,則該技術(shù)人員行為應(yīng)有可能受到處罰。如果這些控制措施是徹底的并得到適當(dāng)實(shí)施,監(jiān)管機(jī)構(gòu)可能會(huì)確定平臺沒有采取疏忽行為或有意傷害的行為。
第三,平臺實(shí)質(zhì)責(zé)任的設(shè)置應(yīng)與主觀過錯(cuò)相符合。從社會(huì)角度來看,由于公司的瘋狂、疏忽、故意忽視或無能而傷害消費(fèi)者的錯(cuò)誤與由于公司努力創(chuàng)新而傷害消費(fèi)者的錯(cuò)誤之間存在顯著差異。同樣,公司違反規(guī)定并對消費(fèi)者或競爭對手造成重大損害的行為,以及造成很少或根本沒有傷害的行為應(yīng)該加以區(qū)分?!?4 〕
2.平臺虛假備案與解釋的虛假陳述責(zé)任
如果平臺提供虛假備案與解釋,則承擔(dān)不真實(shí)解釋責(zé)任,類似于公司法、證券法中的虛假陳述責(zé)任。虛假備案與解釋的形態(tài)具體包括作出違背真相的虛假備案、誤導(dǎo)性解釋、干擾性披露、信息重大遺漏、不當(dāng)?shù)膫浒概c解釋行為等。平臺需要對虛假備案與解釋承擔(dān)法律責(zé)任,是因?yàn)樵谄脚_算法問責(zé)制的制度框架下,平臺的信息披露義務(wù)是具有強(qiáng)制性的,披露目的具有公益性。歐盟一般數(shù)據(jù)保護(hù)條例的實(shí)踐經(jīng)驗(yàn)表明,如果沒有一個(gè)明確的定義,平臺就有可能以最無害的方式來解釋它們的算法?!?5 〕
平臺進(jìn)行算法的虛假備案與陳述可能有多重表現(xiàn)形式。除了故意的虛假備案,平臺可能通過混淆的方法提供干擾性披露。平臺可能通過披露大量冗余干擾性數(shù)據(jù),混雜在關(guān)鍵數(shù)據(jù)中,以此妨礙解釋關(guān)鍵數(shù)據(jù)內(nèi)容?!?6 〕《黑箱社會(huì)》的作者帕斯奎爾稱這種行為為“混淆”,就是指刻意增加冗余信息,以此來隱藏算法秘密帶來混淆?!?7 〕此外,也需關(guān)注在技術(shù)條件局限作用下導(dǎo)致的信息披露不能。正如詹娜·伯勒爾所提醒的,算法相關(guān)信息披露不實(shí)的原因可能涉及故意隱瞞、信息的復(fù)雜性或者專門機(jī)器學(xué)習(xí)本身的復(fù)雜性?!?8 〕具體平臺算法虛假備案與解釋的制度超出了本文篇幅范圍,將是未來的研究方向。
結(jié)? 語
平臺治理與算法規(guī)制均是人工智能時(shí)代的重要的法學(xué)議題。平臺借助算法技術(shù)鏈接資源、自動(dòng)運(yùn)行,取得和鞏固市場優(yōu)勢地位。算法嵌入平臺搭建架構(gòu)、調(diào)配資源,實(shí)現(xiàn)技術(shù)對社會(huì)的深刻變革,智能平臺就是兩者深度融合的具體體現(xiàn)。人工智能時(shí)代,法律如何應(yīng)對這種生產(chǎn)方式與社會(huì)關(guān)系的深刻變革,是本文的關(guān)切所在。
法律相對平臺技術(shù)的滯后性導(dǎo)致了平臺監(jiān)管中的問題。傳統(tǒng)的“主體—行為—責(zé)任”的平臺追責(zé)框架受到平臺運(yùn)行自動(dòng)化的沖擊,主觀過錯(cuò)的認(rèn)定和責(zé)任承擔(dān)理論出現(xiàn)錯(cuò)位,導(dǎo)致了現(xiàn)有監(jiān)管中主觀過錯(cuò)認(rèn)定機(jī)制不清、責(zé)任設(shè)置不符合比例原則的困境,理論層面也要面對“平臺責(zé)任中行為人與責(zé)任人相分離”“平臺本應(yīng)技術(shù)中立所以承擔(dān)的是無過錯(cuò)責(zé)任”的詰問。監(jiān)管層次過淺、監(jiān)管時(shí)點(diǎn)滯后、監(jiān)管機(jī)制模糊的問題,需要構(gòu)建新的平臺算法問責(zé)機(jī)制來解決。
一方面,筆者主張將平臺責(zé)任的理論基礎(chǔ)深化至平臺底層邏輯——算法層面,從而使得平臺責(zé)任獨(dú)立化,解決“平臺責(zé)任中行為人與責(zé)任人相分離”的理論誤區(qū);另一方面,筆者主張考察算法設(shè)計(jì)部署的主觀過錯(cuò),解決“平臺技術(shù)中立”的理論誤區(qū)。這需要建立平臺算法備案制度來事前固定問責(zé)點(diǎn),并設(shè)置獨(dú)立的算法解釋制度來認(rèn)定平臺主觀過錯(cuò),解決監(jiān)管時(shí)點(diǎn)滯后與監(jiān)管機(jī)理不清的問題。平臺從提供“連接”服務(wù)走向智能化與自動(dòng)化后,網(wǎng)絡(luò)平臺應(yīng)當(dāng)基于“算法責(zé)任”的主觀過錯(cuò),以“客觀損害結(jié)果”和之前已經(jīng)事先存在的“算法責(zé)任”相結(jié)合,建立權(quán)責(zé)一致、責(zé)罰相當(dāng)?shù)谋O(jiān)管框架與法律責(zé)任體系。
如何打造“負(fù)責(zé)任”的人工智能?平臺的算法問責(zé)應(yīng)該是制度建設(shè)邁出的第一步。人工智能算法營造了運(yùn)行自動(dòng)化、損害風(fēng)險(xiǎn)化的假象,深度學(xué)習(xí)算法、人工智能主體性被反復(fù)言說,實(shí)際上為平臺(或人工智能、機(jī)器人生產(chǎn)企業(yè))規(guī)避責(zé)任提供了理論基礎(chǔ)?!?9 〕將人工智能法律制度落地細(xì)化為平臺算法監(jiān)管,實(shí)際上是將人工智能應(yīng)用與監(jiān)管場景化,一方面可以避免對人工智能不求甚解的恐懼,另一方面也可以消除理論界一些夸大其詞的判斷。技術(shù)帶來的風(fēng)險(xiǎn)必須由人來負(fù)責(zé),如果不能解決“誰負(fù)責(zé)”的問題,那么所有的治理努力最終都將毫無意義。當(dāng)然,政策制定者必須認(rèn)識到,平臺算法問責(zé)制的目標(biāo)不是要實(shí)現(xiàn)完美無誤的算法,而是要將風(fēng)險(xiǎn)降至最低,正如汽車安全標(biāo)準(zhǔn)不要求汽車百分之百安全,而是盡可能合理地安全一樣。創(chuàng)新技術(shù)與固有思維之間的沖突與激蕩,必將伴隨人工智能技術(shù)發(fā)展的過程。如何建立具備足夠的包容之心和適應(yīng)能力的動(dòng)態(tài)治理機(jī)制,是人工智能時(shí)代的學(xué)者和政策制定者必須思考的問題。
Abstract: The platform increasingly operates automatically as algorithms playing more important role. However, it leads to blurriness of platform's subjective fault. As a result, legal responsibility setting of platform does not conformed to the principle of proportionality. The governance of platform should be consistent with both the underlying technical logic of the platform and the legal principle of subjective and objective consistency. Therefore, the "technical veil" of the operation of the network platform should be penetrated, and the tentacles of platform supervision and the perspective of recourse should be directed to the algorithmic responsibility behind. The subjective fault of the platform algorithm design and deployment should be taken as the basis of accountability. The subjective fault of the platform needs to be identified as a clear and traceable accountability point, which can be set by the algorithm evaluation system and fixed in advance by the algorithm record system. Afterwards, the platform can be required to make algorithmic explanation according to the record. In the setting of the legal responsibility of the platform algorithm, the fault of its own design is imputed as the substantive responsibility, and the platform providing false record and explanation bears the responsibility of untrue explanation.
Key words: algorithm; platform regulation; subjective fault; algorithm filing; algorithm explanation; algorithm accountability