劉蓓 孫世擎
[摘要]隨著近些年人工智能的快速發(fā)展與應(yīng)用,人類進(jìn)入了信息數(shù)據(jù)化的科技時(shí)代,越來越多的領(lǐng)域依靠大數(shù)據(jù)的算法決策來做出決定,大到銀行業(yè)的貸款許可,小到網(wǎng)絡(luò)平臺(tái)的購(gòu)物選擇,人們生活在巨大的數(shù)據(jù)網(wǎng)鏈下,各種信息被匯總、分析、排序,并用于決策,形成了一張關(guān)于相對(duì)人進(jìn)入特定領(lǐng)域的通行證。然而需要考量的是,如果算法化決策是錯(cuò)誤的,那么在相對(duì)人無從知曉具體決策過程的情況下又該如何維護(hù)自己的權(quán)益呢?這一點(diǎn)我國(guó)相關(guān)法律制度并無規(guī)定,而單純?cè)煤贤`約責(zé)任、侵權(quán)責(zé)任、知情權(quán)等無法達(dá)到救濟(jì)效用。通過理論衡量,唯有配置獨(dú)立的解釋請(qǐng)求權(quán)才能平衡算法化決策使用者與相對(duì)人之間失衡的權(quán)力關(guān)系。而在構(gòu)建“解釋請(qǐng)求權(quán)”中需要對(duì)其稱謂進(jìn)行統(tǒng)一,同時(shí)對(duì)解釋請(qǐng)求權(quán)的權(quán)利義務(wù)主體予以準(zhǔn)確界定,闡述權(quán)利義務(wù)相互印證的法律內(nèi)容,對(duì)其適用范圍進(jìn)行限制,為“解釋請(qǐng)求權(quán)”的構(gòu)建提供學(xué)理儲(chǔ)備。
[關(guān)鍵詞]算法決策;解釋請(qǐng)求權(quán);權(quán)力衡平;權(quán)利構(gòu)造
[作者簡(jiǎn)介]劉蓓(1983-),女,法學(xué)博士,長(zhǎng)春工業(yè)大學(xué)計(jì)算法學(xué)研究所副教授;孫世擎(1995-),女,長(zhǎng)春工業(yè)大學(xué)公共管理學(xué)院碩士研究生(長(zhǎng)春130022)。
一、算法解釋請(qǐng)求權(quán)之稱謂統(tǒng)一
(一)解釋權(quán)請(qǐng)求權(quán)出世:配置新型權(quán)利,衡平權(quán)力關(guān)系
隨著人工智能發(fā)展水平的提升,人工智能對(duì)人類生活的影響日益深入。2016年著名棋手李世石與阿爾法狗的人機(jī)大戰(zhàn),最終以1:4的比分落下帷幕,該事件的發(fā)生使得人工智能話題被推上了熱搜,也讓更多的人認(rèn)識(shí)到了人工智能的重要性。而現(xiàn)今,人工智能已經(jīng)應(yīng)用到生產(chǎn)生活的諸多領(lǐng)域,基于此,一些商業(yè)性企業(yè)開始運(yùn)用大數(shù)據(jù)的算法來進(jìn)行商業(yè)決策,比如,銀行業(yè)利用數(shù)據(jù)算法來計(jì)算貸款人的誠(chéng)信度、還款能力等,進(jìn)而辨別貸款方是否符合貸款條件;上海市法院于2019年首次在庭審中運(yùn)用了人工智能輔助辦案系統(tǒng),通過人工智能的協(xié)助保證案件證據(jù)的真實(shí)可靠以提高審判效率,加之智能量刑系統(tǒng)和法律文書智能系統(tǒng)的運(yùn)用,一定程度上實(shí)現(xiàn)了司法審判智能化。不僅如此,就連在網(wǎng)絡(luò)平臺(tái)購(gòu)物,智能系統(tǒng)都會(huì)根據(jù)消費(fèi)者平時(shí)瀏覽記錄數(shù)據(jù)進(jìn)行分析、判斷,進(jìn)而推送相關(guān)產(chǎn)品。
人工智能之所以能夠針對(duì)相對(duì)人做出信息決策,依據(jù)的就是系統(tǒng)背后的大數(shù)據(jù)算法,網(wǎng)絡(luò)系統(tǒng)收集了大量的相對(duì)人信息,然后進(jìn)行匯總、分析、判斷,直至做出影響相對(duì)人的決策,這一過程又稱之為算法決策。在這一過程中,由于算法方式具有一定的隱蔽性,技術(shù)手段又極具專業(yè)性特征,相對(duì)人根本無從得知并理解決策的依據(jù),一旦所做出的算法決策系錯(cuò)誤的,將對(duì)相對(duì)方產(chǎn)生不利影響,魏則西事件就是一起典型案例。由于百度公司競(jìng)價(jià)排名,推送錯(cuò)誤的信息鏈接,導(dǎo)致魏則西被誘導(dǎo),并為此付出了慘重的代價(jià)。在這種情況下,相對(duì)人處于被動(dòng)的封閉狀態(tài),更遑論對(duì)算法計(jì)算過程的認(rèn)知。而諸如此類的事件更是頻繁出現(xiàn),2019年,美國(guó)佛羅里達(dá)州高速公路上發(fā)生了一起交通事故,起因在于一車主在使用特斯拉Model S電動(dòng)轎車時(shí),啟動(dòng)了自動(dòng)駕駛模式,由于系統(tǒng)在探測(cè)路況時(shí)自動(dòng)忽略了前方帶有泊車標(biāo)識(shí)的半掛車,導(dǎo)致兩輛車發(fā)生了碰撞,特斯拉車主也在此次事故中身亡。車主家屬認(rèn)為對(duì)于此次事故特斯拉公司應(yīng)負(fù)主要責(zé)任,其生產(chǎn)的自動(dòng)化轎車存在產(chǎn)品缺陷,但美國(guó)監(jiān)查部門則認(rèn)為特斯拉在本次事故中無責(zé)。美國(guó)高速公路安全管理局(NHT-SA)經(jīng)檢測(cè)后聲稱,并未發(fā)現(xiàn)自動(dòng)駕駛轎車存在產(chǎn)品設(shè)計(jì)、質(zhì)量性能上的缺陷,自動(dòng)化系統(tǒng)作為一種智能載體其本身存在一定的局限性和不可預(yù)測(cè)性,因此要求使用者具備高度注意義務(wù),車主在發(fā)現(xiàn)障礙后未及時(shí)采取行為制止,存在責(zé)任。該事件的發(fā)生讓人們對(duì)自動(dòng)化駕駛的安全性能產(chǎn)生懷疑,同時(shí)對(duì)自動(dòng)化決策帶來的損害而受害人卻無法得以維權(quán)的現(xiàn)象陷入沉思,以法律規(guī)制自動(dòng)化決策的呼聲在學(xué)理界蔓延開來。因此,需要構(gòu)建算法解釋權(quán)對(duì)算法決策進(jìn)行規(guī)制,也是為相對(duì)人配置符合現(xiàn)實(shí)所需的新型權(quán)利,以衡平算法決策使用者與相對(duì)人之間失衡的權(quán)力關(guān)系。
(二)解釋權(quán)請(qǐng)求權(quán)稱謂:選擇與統(tǒng)一
在理論探討中,關(guān)于“算法解釋”的權(quán)利稱謂不盡相同,包括算法受解釋權(quán)、算法可解釋權(quán)、算法解釋權(quán)、算法解釋請(qǐng)求權(quán)等不同表述。研究的開始有必要對(duì)相關(guān)稱謂與權(quán)利內(nèi)涵進(jìn)行銜接、界定、統(tǒng)一。
張凌寒教授認(rèn)為,“算法解釋權(quán)”是指當(dāng)算法化決策的結(jié)果對(duì)相對(duì)人產(chǎn)生不利影響時(shí),相對(duì)人有權(quán)要求做出該決策的使用者給出合理解釋并更正錯(cuò)誤。承擔(dān)解釋義務(wù)的主體是算法決策使用者,享有算法解釋權(quán)的主體是相對(duì)人,然而“算法解釋權(quán)”稱謂本身似乎使權(quán)利主體模糊難辨。其次,“算法解釋權(quán)”具有強(qiáng)制性意味,是法律賦予相對(duì)人的一種絕對(duì)性權(quán)利,也意味著是算法決策使用者的義務(wù),如若不予履行將會(huì)受到懲處。賦予相對(duì)人絕對(duì)解釋權(quán),將會(huì)導(dǎo)致以下問題:1.權(quán)利主體范圍泛濫。如果賦予解釋權(quán),是不是在文義解釋上可以理解為,凡是算法決策使用者做出的決定,任何人都享有主張解釋的權(quán)利?2.權(quán)利范圍無法界定。是不是不管算法決策使用者做出何種決定,都必須提供相應(yīng)的算法計(jì)算說明?3.算法使用者負(fù)擔(dān)過重?!八惴ń忉寵?quán)”如果具有絕對(duì)性特征,不管相對(duì)人是否主張解釋權(quán),使用人都具有絕對(duì)解釋義務(wù)。雖然使用者較之相對(duì)人掌握更多的算法技術(shù),但由于算法領(lǐng)域具有復(fù)雜性、模糊性等特征,導(dǎo)致使用者并不能全面提供明確的解釋,而“算法解釋權(quán)”的存在會(huì)給使用者施加額外的壓力,打擊其使用算法的積極性。由此,針對(duì)算法決策配置以絕對(duì)“解釋權(quán)”尚存有瑕疵,無法合理地分配權(quán)利義務(wù)體系,難以實(shí)現(xiàn)算法決策使用者與相對(duì)人之間權(quán)力衡平的初衷。
“算法可解釋權(quán)”的稱謂源自“算法的可解釋性”,系美國(guó)加州伯克利大學(xué)的研究者們所提出,其含義是指在算法計(jì)算過程中另行設(shè)計(jì)一款算法方式來對(duì)該計(jì)算過程進(jìn)行監(jiān)督記錄,以達(dá)到對(duì)計(jì)算結(jié)果的解讀,突破原計(jì)算過程的不可知性特征。“可解釋權(quán)”的稱謂從語(yǔ)義上講強(qiáng)調(diào)的是“解釋”的可行性特征,是賦予算法解釋的手段,是法律對(duì)于解釋行為的認(rèn)可,其實(shí)質(zhì)在于強(qiáng)調(diào)解釋的必要,但無法從本質(zhì)上辨別其權(quán)利屬性,無法判定是絕對(duì)權(quán)還是請(qǐng)求權(quán),因此,如若配置“可解釋權(quán)”將導(dǎo)致權(quán)利的內(nèi)涵從根本上產(chǎn)生模糊,適用上將產(chǎn)生歧義。
“算法受解釋權(quán)”。按照法律用語(yǔ)規(guī)范來講,“受”字表示的是“接受”,其本身帶有被動(dòng)性特征,雖然在算法決策的權(quán)利體系中相對(duì)方確實(shí)屬于接受解釋的一方,其權(quán)利定位也明確,但是按照行為延續(xù)合理性出發(fā),應(yīng)首先需要發(fā)生“解釋請(qǐng)求權(quán)”,對(duì)應(yīng)的才是相對(duì)方的“接受解釋權(quán)”。在我國(guó)現(xiàn)行法律關(guān)系中,與之類似的如“優(yōu)先受償權(quán)”,首先就需要發(fā)生“賠償請(qǐng)求權(quán)”,然后才對(duì)應(yīng)發(fā)生“優(yōu)先受償權(quán)”。我國(guó)在法律上很少采用“受”的權(quán)利稱謂,而且按照我國(guó)語(yǔ)法使用習(xí)慣,“受”帶有后續(xù)性,要以一定法律關(guān)系的產(chǎn)生為基礎(chǔ)。因此,“算法受解釋權(quán)”無法作為算法決策相對(duì)方的先行救濟(jì)性權(quán)利予以適用,不予考慮。
“算法解釋請(qǐng)求權(quán)”。“請(qǐng)求權(quán)”一說來源于德國(guó)民法典,我國(guó)作為大陸法系國(guó)家,法律體系的構(gòu)成深受德國(guó)民法典的影響。無論是薩維尼的法律關(guān)系理論,亦或溫德沙伊德的請(qǐng)求權(quán)體系,德國(guó)民法典體系突出的本質(zhì)在于個(gè)人主義,以人與人之間的特定行為出發(fā)去分析所衍生的法律關(guān)系以及權(quán)利關(guān)系。而本文旨在探討請(qǐng)求權(quán)性質(zhì)的權(quán)利體系,因此暫且拋開對(duì)薩維尼理論的研究,著重分析溫德沙伊德理論下的請(qǐng)求權(quán)之概況。所謂的請(qǐng)求權(quán)在其觀點(diǎn)理論中被認(rèn)為是一種法律秩序的轉(zhuǎn)讓,因特定法律事實(shí)的發(fā)生進(jìn)而作為一種命令發(fā)布出去,要求實(shí)施特定的行為,針對(duì)的對(duì)象既可以是特定主體亦可以是不特定主體。
按照溫德沙伊德理論的觀點(diǎn),請(qǐng)求權(quán)適用的主體是人,規(guī)范著人與人之間的特定行為,而作出算法決策的則是人工智能,即機(jī)器,是否可受請(qǐng)求權(quán)之規(guī)制?例如2017年10月26日,沙特阿拉伯授予香港漢森機(jī)器人公司生產(chǎn)的機(jī)器人索菲亞公民身份。作為史上首個(gè)獲得公民身份的機(jī)器人,突破了傳統(tǒng)公民之法律意義,擁有了法律意義上的“人”的權(quán)利義務(wù),那么機(jī)器產(chǎn)生的行為被納入法律規(guī)制的范疇是否合理?當(dāng)下智能系統(tǒng)應(yīng)用廣泛、頻繁,但是機(jī)器化并不能代表精準(zhǔn)化,時(shí)而出現(xiàn)的算法錯(cuò)誤現(xiàn)象也從客觀層面上侵害著權(quán)利人的利益。雖然在表現(xiàn)形式上體現(xiàn)為智能算法造成相對(duì)人的損害,而非“人”這個(gè)主體形態(tài),也并非法律秩序中發(fā)布命令的指向?qū)ο螅悄軝C(jī)器的運(yùn)行還需要人為地輸人指令,因此要揭開算法的面紗探尋指令者與相對(duì)人之間的請(qǐng)求權(quán)基礎(chǔ)。
請(qǐng)求權(quán)其實(shí)質(zhì)屬于救濟(jì)性權(quán)利,深入研究請(qǐng)求權(quán)的范疇可知,其救濟(jì)的權(quán)利包含兩類:一是針對(duì)權(quán)利本身的救濟(jì),又稱之為“原權(quán)請(qǐng)求權(quán)”,是依附權(quán)利本身所衍生出來的,即對(duì)于法律賦予民事主體之權(quán)利相伴隨的;二是針對(duì)權(quán)利受有損害時(shí),賦予此種救濟(jì)權(quán)以抵抗損害,請(qǐng)求加害方對(duì)其侵權(quán)行為采取一定的補(bǔ)救措施,使相對(duì)方破損的權(quán)利恢復(fù)到不受侵害的圓滿狀態(tài)。“算法解釋請(qǐng)求權(quán)”稱謂之合理性在于,不僅可以間接在法律體系上對(duì)“解釋權(quán)”存在的合法性、獨(dú)立性予以承認(rèn),針對(duì)“解釋權(quán)”即“原權(quán)”本身賦予一定的保護(hù)性功能,同時(shí)又可以提供相應(yīng)救濟(jì)措施,使受損害權(quán)利恢復(fù)到圓滿狀態(tài)。在法理基礎(chǔ)之上,請(qǐng)求權(quán)系相對(duì)權(quán),針對(duì)的主體是特定的,之所以為“算法解釋權(quán)”配置“請(qǐng)求權(quán)”之特性,其根本在于互聯(lián)網(wǎng)所面對(duì)的是不特定的眾多民事主體,因其具有廣泛性特征,如果不加以一定的要件限制,極易造成權(quán)利體系的混亂,直接影響整個(gè)法律體系的穩(wěn)定。解釋請(qǐng)求權(quán)“出世”的目的就在于建立自動(dòng)化決策相對(duì)人數(shù)據(jù)權(quán)的救濟(jì)機(jī)制。
綜合上述對(duì)四種“算法解釋”稱謂之法理分析,從語(yǔ)義角度剖析,本質(zhì)都是賦予相對(duì)人一定的“解釋”之權(quán)利,但各稱謂在其表述的內(nèi)涵及性質(zhì)上的側(cè)重點(diǎn)仍存有重大差別。在此辨析上,本文傾向“解釋請(qǐng)求權(quán)”之稱謂?!八惴ń忉屨?qǐng)求權(quán)”實(shí)質(zhì)就是為了保護(hù)因不利或錯(cuò)誤算法決策受損害的相對(duì)方,在立法上構(gòu)建新型“解釋請(qǐng)求權(quán)”,請(qǐng)求算法使用者對(duì)算法決策過程、結(jié)果予以解釋解讀,使相對(duì)方明晰損害產(chǎn)生的因果關(guān)系,進(jìn)而維護(hù)自身的合法權(quán)益。同時(shí)由于請(qǐng)求權(quán)在學(xué)理上屬于相對(duì)權(quán),指向主體特定,權(quán)利義務(wù)內(nèi)容特定,因此將其定義為“解釋請(qǐng)求權(quán)”更能充分反映立法的核心目的。
二、算法解釋請(qǐng)求權(quán)之權(quán)利內(nèi)容
算法解釋請(qǐng)求權(quán)的關(guān)注點(diǎn)在于使用者、開發(fā)者與相對(duì)方之間明顯失衡的權(quán)利義務(wù)關(guān)系,目的在于限制自動(dòng)化決策使用者、開發(fā)者較為強(qiáng)勢(shì)的地位,使博弈雙方處于相對(duì)平衡的狀態(tài),使錯(cuò)誤決策而溢出的負(fù)外部性通過風(fēng)險(xiǎn)內(nèi)部化的手段得以解決,據(jù)此,算法解釋請(qǐng)求權(quán)適用的權(quán)利義務(wù)主體應(yīng)針對(duì)決策類算法的使用人、設(shè)計(jì)者和相對(duì)人。
(一)權(quán)利、義務(wù)主體
1.權(quán)利主體:決策類算法的相對(duì)人。算法解釋請(qǐng)求權(quán)作為一種“請(qǐng)求,,.j生質(zhì)的權(quán)利,在債法理論中是屬于特定雙方主體之間的權(quán)利義務(wù),即相對(duì)人請(qǐng)求與之具有法律關(guān)系的主體實(shí)施一定行為的權(quán)利,要求權(quán)利義務(wù)主體具有明確性。按照權(quán)利義務(wù)的走向,相對(duì)人作為經(jīng)濟(jì)地位、知識(shí)信息不對(duì)稱的弱勢(shì)一方,其權(quán)利應(yīng)予以特別的保護(hù),應(yīng)該賦予其算法解釋權(quán)權(quán)利主體的身份,在算法化決策錯(cuò)誤或者對(duì)自身造成不利影響的時(shí)候相對(duì)人有權(quán)向使用者請(qǐng)求解釋,但權(quán)利主體的范圍應(yīng)予以限定。由于網(wǎng)絡(luò)平臺(tái)受眾廣,如果將解釋權(quán)授予任意相對(duì)人的話,則加劇了算法決策使用者的責(zé)任負(fù)擔(dān),因此應(yīng)將權(quán)利義務(wù)限定在具備法律關(guān)系的雙方主體之間,即雙方之間產(chǎn)生法律權(quán)益方可適用,否則將造成該權(quán)利的濫用。
2.義務(wù)主體:決策類算法的使用人、開發(fā)者??v觀我國(guó)互聯(lián)網(wǎng)領(lǐng)域的發(fā)展態(tài)勢(shì),真正精尖的技術(shù)手段大多壟斷在算法決策使用者手中,由于其具備雄厚的資金以及掌握著算法的核心技術(shù),在開發(fā)、使用算法決策中扮演著領(lǐng)導(dǎo)者的角色,而且能夠通過算法決策影響相對(duì)方的權(quán)益。很明顯,在此過程中使用者始終保持裁判者的地位,為了權(quán)利義務(wù)之平衡,也為了保護(hù)相對(duì)方的權(quán)益,不得不將使用者納人義務(wù)人之范疇。
與此之外,還存在一種情況,即算法化決策使用者與開發(fā)者之間的角色分離,使用者也不一定詳盡地掌握該決策的計(jì)算過程,在相對(duì)人主張解釋時(shí),算法化決策使用者無法予以明確的釋明,導(dǎo)致未及時(shí)妥善履行相應(yīng)的義務(wù)。為了避免此現(xiàn)象的發(fā)生,應(yīng)當(dāng)將算法決策開發(fā)者也納人權(quán)利義務(wù)體系中,在算法決策使用者無法提供完善詳盡的解答時(shí),開發(fā)者應(yīng)承擔(dān)該項(xiàng)義務(wù)的補(bǔ)充責(zé)任,而在開發(fā)者不盡職履行此補(bǔ)充義務(wù)時(shí)也要追究其相應(yīng)的法律責(zé)任,以衡平算法化決策使用者、開發(fā)者、相對(duì)人三者之間的關(guān)系。
(二)權(quán)利、義務(wù)內(nèi)容
1.權(quán)利內(nèi)容。眼下越來越多的領(lǐng)域引入算法決策對(duì)相對(duì)方的社會(huì)需求予以干涉,依據(jù)算法決策給相對(duì)方貼上了數(shù)據(jù)標(biāo)簽。從信息匯總、篩選、分析,到自動(dòng)化排序,直至最終的決策這一過程都是不透明的,相對(duì)方無法判斷信息的準(zhǔn)確度,對(duì)決策正確與否也無法掌握,“算法解釋請(qǐng)求權(quán)”就是要賦予相對(duì)方知悉算法決策依據(jù)的權(quán)利,相對(duì)方基于此有權(quán)向算法使用者、開發(fā)者請(qǐng)求公開自動(dòng)化決策所依據(jù)的信息。但是需要考慮的是,采用自動(dòng)化決策的主體通常為擁有數(shù)以億計(jì)用戶的互聯(lián)網(wǎng)企業(yè)或大型公司,其面對(duì)的相對(duì)方數(shù)量是無法預(yù)估的,如果不對(duì)權(quán)利主體的權(quán)利范圍進(jìn)行清晰準(zhǔn)確的界定,那么將會(huì)給自動(dòng)化決策使用者、設(shè)計(jì)者帶來過重的解釋負(fù)擔(dān)。因此,需明確在“算法解釋請(qǐng)求權(quán)”項(xiàng)下配備何種權(quán)利內(nèi)容。
首先,相對(duì)方要求解釋的算法內(nèi)容要與自身權(quán)益受損具有相關(guān)性。自動(dòng)化決策使用者、開發(fā)者創(chuàng)建算法系統(tǒng)是為了通過采集信息,進(jìn)行數(shù)據(jù)加工、分析,以得出個(gè)體的綜合特征。針對(duì)商業(yè)領(lǐng)域來說,自動(dòng)化決策便于在商業(yè)運(yùn)營(yíng)過程通過信息識(shí)別篩選客戶,獲得更大的商機(jī);針對(duì)生活服務(wù)機(jī)構(gòu)領(lǐng)域,通過對(duì)個(gè)人信息的匯總從而評(píng)價(jià)個(gè)人基本信用信息,以便在提供相關(guān)服務(wù)時(shí)采取有效的措施。因此,針對(duì)相對(duì)方權(quán)益產(chǎn)生損害的算法決策,包括錯(cuò)誤的決策以及對(duì)其自身利益造成不利影響的決策,才能有權(quán)向使用者和開發(fā)者主張解釋。
其次,相對(duì)方有權(quán)要求自動(dòng)化決策使用者、開發(fā)者針對(duì)算法決策提供可理解性的回復(fù)。自動(dòng)化決策本身就要求使用者和創(chuàng)建者具備專業(yè)的知識(shí)體系和掌握科學(xué)的技術(shù)方法,對(duì)于自動(dòng)化決策運(yùn)行的規(guī)則、方式、整個(gè)系統(tǒng)的框架有清晰的認(rèn)知;而相對(duì)方大多是普通個(gè)體,沒有機(jī)會(huì)亦沒有能力接觸到專業(yè)的算法領(lǐng)域,對(duì)于科技算法晦澀難懂的語(yǔ)法公式更是難以理解,在知識(shí)力量懸殊的情況下,如若相對(duì)方提出解釋的請(qǐng)求,而使用者、開發(fā)者利用其具備算法知識(shí)和掌握的科學(xué)技術(shù)之優(yōu)勢(shì)地位,提供較為復(fù)雜的解釋,相對(duì)方對(duì)此并不理解,“算法解釋請(qǐng)求權(quán)”僅僅要求使用者、開發(fā)者給予決策解釋,而現(xiàn)實(shí)卻是相對(duì)方行使了權(quán)利卻沒有獲得充足的保障,這與構(gòu)建“算法解釋請(qǐng)求權(quán)”的目的背道而馳。而使用者、開發(fā)者在提供相應(yīng)的解釋后已然完成了法律義務(wù),這就導(dǎo)致相對(duì)方權(quán)利用盡而無法通過其他救濟(jì)手段維權(quán)。因此,要對(duì)解釋的標(biāo)準(zhǔn)進(jìn)行明確的界定,以便相對(duì)方易于理解自動(dòng)化決策的依據(jù)。
最后,相對(duì)方有權(quán)針對(duì)自動(dòng)化決策提起雙重結(jié)構(gòu)解釋權(quán),即事后具體解釋和事后更新解釋?!八惴ń忉屨?qǐng)求權(quán)”究其本質(zhì)屬于一種事后救濟(jì)手段。在決策作出之前,個(gè)人信息只是儲(chǔ)存在自動(dòng)化系統(tǒng)中,使用者、開發(fā)者并沒有根據(jù)信息而做出任何對(duì)相對(duì)方不利的行為,相對(duì)方也無法主張解釋請(qǐng)求權(quán)。只有在決策作出之后對(duì)相對(duì)方自身利益產(chǎn)生影響的前提下,方可請(qǐng)求對(duì)方予以解釋。事后具體解釋可以使相對(duì)方知悉做出不利決策依據(jù)的具體事項(xiàng),排查是否存在數(shù)據(jù)引用誤差或者算法方式偏差,相對(duì)方可以針對(duì)具體錯(cuò)誤來主張整改修正,此為相對(duì)方第一次權(quán)利之行使。由于不利決策具有可補(bǔ)正性,通過更新數(shù)據(jù)信息和改變算法方式來使決策得以修正,但存在一個(gè)問題,即修正后決策的準(zhǔn)確程度是否可信。基于此問題,應(yīng)該賦予相對(duì)方第二次救濟(jì)的權(quán)利,即針對(duì)更新后的決策請(qǐng)求使用者、開發(fā)者提供必要的解釋說明的義務(wù)。
2.義務(wù)內(nèi)容。我國(guó)《憲法》明確規(guī)定了公民的人格尊嚴(yán)不受侵犯,雖未曾細(xì)致闡述,但根據(jù)“雖然并不以原則的形態(tài)為憲法或法律所明定。但在憲法或法律之規(guī)定中,終究已有規(guī)定以該原則為其規(guī)范基礎(chǔ)”。對(duì)于算法解釋的相對(duì)方來說,自動(dòng)化決策所采集的信息屬于個(gè)人隱私,相對(duì)方有權(quán)對(duì)個(gè)人數(shù)據(jù)信息享有知悉的權(quán)利,有權(quán)保護(hù)自己的隱私權(quán)、捍衛(wèi)平等地位。而對(duì)于算法使用者及開發(fā)者來說,對(duì)相對(duì)方的個(gè)人化需求享有絕對(duì)的話語(yǔ)權(quán),這就意味著,算法決策的使用者、開發(fā)者在自動(dòng)化決策領(lǐng)域勢(shì)必要擔(dān)負(fù)起義務(wù)主體的責(zé)任。在針對(duì)相對(duì)方作出決策,尤其是可能對(duì)相對(duì)方的權(quán)益產(chǎn)生重大影響時(shí),使用者、開發(fā)者就負(fù)有解釋說明的義務(wù)。但是這也并不意味著使用者、設(shè)計(jì)者的義務(wù)就是絕對(duì)無條件的,正如上述對(duì)主體權(quán)利范疇的細(xì)化,基于權(quán)利義務(wù)具有相對(duì)性,因此也應(yīng)當(dāng)對(duì)義務(wù)范疇予以明確界定,以防止使用者、設(shè)計(jì)者承擔(dān)無限制的義務(wù)重?fù)?dān)。第一,在解釋標(biāo)準(zhǔn)化上要對(duì)應(yīng)權(quán)利內(nèi)容,要求解釋具有相關(guān)性和可理解性。第二,自動(dòng)化決策使用者、設(shè)計(jì)者負(fù)有雙重解釋之義務(wù)。
三、算法解釋請(qǐng)求權(quán)適用范圍與限制
(一)公法領(lǐng)域
在行政領(lǐng)域中,國(guó)家倡導(dǎo)科技創(chuàng)新、堅(jiān)持創(chuàng)新引領(lǐng),主張?jiān)谛姓?wù)領(lǐng)域中引進(jìn)大數(shù)據(jù)和人工智能,力求打造數(shù)據(jù)政務(wù)服務(wù)平臺(tái),深入推進(jìn)政務(wù)數(shù)據(jù)匯聚,實(shí)現(xiàn)信息的全覆蓋,甚至通過算法決策來對(duì)相對(duì)方作出行政處罰。一方面,在權(quán)利地位上行政機(jī)關(guān)與相對(duì)人本身就處于不平等地位,行政機(jī)關(guān)屬于國(guó)家的管理機(jī)構(gòu),法律賦予其決策職能,有權(quán)針對(duì)相對(duì)人實(shí)施一定的決策行為;另一方面,行政機(jī)關(guān)本身所具有的法律專業(yè)性以及威懾性,使得處于弱勢(shì)地位的相對(duì)方無法完全保障自身權(quán)益。為了避免出現(xiàn)這種現(xiàn)象,我國(guó)早在行政立法時(shí)就明確規(guī)定正當(dāng)程序原則,其涵義在于要求行政機(jī)關(guān)在行使行政職權(quán)時(shí)遵守法律規(guī)定的正當(dāng)性程序。正當(dāng)性原則最早源于英國(guó)的“自然正義”這一概念,要求行政機(jī)關(guān)要以最低限度的公正作為行使權(quán)力的底線,在行政機(jī)關(guān)作出不利于公民的行政決定時(shí)需要充分聽取公民的意見,同時(shí)公民有權(quán)要求行政機(jī)關(guān)示明該行政決定的依據(jù)。我國(guó)行政法領(lǐng)域中也規(guī)定了正當(dāng)程序原則,在行政機(jī)關(guān)實(shí)施行政行為時(shí)加以法律限制,必須按照法定程序辦理,尤其在對(duì)相對(duì)方作出不利行政決策時(shí),要充分提供解釋說明,如若沒有提供合理的解釋,相對(duì)方可以依此提起行政復(fù)議,審查行政決策的正確性。正當(dāng)程序原則與解釋請(qǐng)求權(quán)在功能上具有一些重合效用,都是相對(duì)方在面對(duì)不利決策時(shí),有權(quán)向做出決策者主張解釋說明之權(quán)利。換言之,一些情況下“解釋請(qǐng)求權(quán)”可以被正當(dāng)程序原則所覆蓋,如此一來,相對(duì)方可以直接援用現(xiàn)有的正當(dāng)程序原則的救濟(jì)手段。
司法領(lǐng)域中,一直在研發(fā)人工智能法律系統(tǒng),也對(duì)此進(jìn)行了深刻的法理學(xué)探討,不僅為了適應(yīng)人工智能的發(fā)展熱潮更是在于對(duì)法律實(shí)踐本身的迎合。法院正在嘗試引入了人工智能輔助審判系統(tǒng)來協(xié)助司法工作者處理訴訟案件事宜,通過將案件事實(shí)、法律法規(guī)條文、指導(dǎo)案例等信息輸入智能系統(tǒng),通過大數(shù)據(jù)的對(duì)比分析從而做出相應(yīng)的判決裁定。那么面臨的一個(gè)問題就是,在數(shù)據(jù)信息存在錯(cuò)誤或算法分析存有瑕疵的情況下,導(dǎo)致做出的決策損害了相對(duì)方權(quán)益時(shí),又有何救濟(jì)舉措?針對(duì)這一問題,我國(guó)現(xiàn)有法律規(guī)定了相對(duì)方在對(duì)司法機(jī)關(guān)的行政行為存有異議,認(rèn)為損害自身合法權(quán)益時(shí),有權(quán)提起司法審查,司法機(jī)關(guān)有義務(wù)針對(duì)行為的準(zhǔn)確性予以審查,并給出合理的解釋。司法審查之法律效能在維護(hù)相對(duì)方因自動(dòng)化決策受有損害方面與“算法解釋請(qǐng)求權(quán)”效用存在部分重合,因此,司法審查當(dāng)然也可以部分代替解釋請(qǐng)求權(quán)予以援用。
雖然一些情況下,“算法解釋請(qǐng)求權(quán)”可以被行政復(fù)議審查以及司法審查所替代,但是法律并不是包羅萬(wàn)象的,而司法實(shí)務(wù)中的復(fù)雜性更是無法預(yù)料,針對(duì)行政復(fù)議以及司法審查來說,由于審查之后的結(jié)果可能并不能充分滿足相對(duì)方的需求,導(dǎo)致相對(duì)方在援用現(xiàn)有救濟(jì)途徑后仍無法保護(hù)其受損權(quán)益,那么此時(shí)構(gòu)建“算法解釋請(qǐng)求權(quán)”就具有必要性。諸如“知情權(quán)”,既含有民事屬性又具有公法屬性,但無法以“知情權(quán)”匹配“算法解釋請(qǐng)求權(quán)”,原因在于“知情權(quán)”對(duì)應(yīng)的系誠(chéng)信告知義務(wù),告知范圍僅包含鏡面表象,其實(shí)質(zhì)原因仍隱藏于陰影之后,無法探析。更遑論針對(duì)算法決策形成的復(fù)雜理論、晦澀難懂的專業(yè)術(shù)語(yǔ),即使使用者履行了告知義務(wù),相對(duì)方也難以理解算法領(lǐng)域的奧秘。反觀“算法解釋請(qǐng)求權(quán)”對(duì)應(yīng)的則是解釋義務(wù),不僅要求使用者針對(duì)算法決策的結(jié)果予以解釋,還包含決策形成的過程、依據(jù)、數(shù)據(jù)信息、公式算法等內(nèi)容?!八惴ń忉屨?qǐng)求權(quán)”較“知情權(quán)”的優(yōu)勢(shì)在于,其救濟(jì)目的是使受有損害方知悉致?lián)p原因,進(jìn)而采取一定的補(bǔ)救措施,以期衡平算法決策使用者與相對(duì)方之間不對(duì)等的權(quán)利義務(wù)法律關(guān)系。綜上所述,在公法領(lǐng)域中設(shè)立“算法解釋請(qǐng)求權(quán)”以作為補(bǔ)充性權(quán)利是必要的,這些可能存在的情形都是需要在設(shè)立新型權(quán)利之前必須全面考慮的問題。
(二)私法領(lǐng)域
算法決策除了在公法領(lǐng)域適用外,在私法領(lǐng)域更是普遍適用,例如對(duì)公民信用要求最為嚴(yán)格的金融領(lǐng)域,普遍搭建了大數(shù)據(jù)平臺(tái),通過對(duì)相對(duì)方信息的匯總,利用一定的算法公式從而得出相對(duì)方的信譽(yù)等級(jí),以確定是否為其提供金融服務(wù);有的高校為了驗(yàn)證獲取貧困獎(jiǎng)學(xué)金的學(xué)生情況是否屬實(shí),通過校園網(wǎng)絡(luò)對(duì)貧困學(xué)生的在線消費(fèi)予以實(shí)時(shí)監(jiān)控,對(duì)比分析出貧困學(xué)生的整體消費(fèi)水平,以確定是否符合發(fā)放獎(jiǎng)學(xué)金的條件;醫(yī)療領(lǐng)域通過將病理信息、醫(yī)藥配方、治療技術(shù)等輸入到數(shù)據(jù)庫(kù)中,數(shù)據(jù)系統(tǒng)通過自動(dòng)識(shí)別分析得出相應(yīng)的診斷。
以上實(shí)例表明,人工智能已經(jīng)滲入到社會(huì)生活的方方面面,算法決策更是成為一種普遍化的現(xiàn)象。當(dāng)一種新生現(xiàn)象盛行時(shí)隨之而來的將會(huì)是一系列法律問題。對(duì)于算法領(lǐng)域我國(guó)目前并沒有相關(guān)法律法規(guī)可以援用,而因?yàn)樗惴ㄥe(cuò)誤導(dǎo)致決策損害相對(duì)方權(quán)益的情況確是與日俱增。權(quán)利的空缺、利益的侵蝕,影響著法治的平衡,構(gòu)建新型權(quán)利體系,應(yīng)提上日程。
(三)適用限制——從人機(jī)關(guān)系切入
當(dāng)然,算法解釋請(qǐng)求權(quán)的適用范圍亦會(huì)隨著人工智能時(shí)代的到來而不斷調(diào)整,但在人工智能發(fā)展方興未艾之時(shí),仍應(yīng)嚴(yán)格把握算法解釋請(qǐng)求權(quán)的適用范圍,以避免算法開發(fā)者和使用者背負(fù)過于沉重的解釋成本而遏制創(chuàng)新動(dòng)機(jī)。
算法開發(fā)者、使用者與相對(duì)方在算法解釋的相互對(duì)抗過程中逐漸形成了一種普遍規(guī)則,衍生出一種行業(yè)自治規(guī)制,為人工智能的發(fā)展奠定了相對(duì)安全的自治環(huán)境。這也意味著當(dāng)人工智能發(fā)展至特定“風(fēng)險(xiǎn)拐點(diǎn)”,必須介入公權(quán)力予以制止和修正,其手段、尺度應(yīng)在不妨礙創(chuàng)新的范圍內(nèi)保護(hù)相對(duì)方的權(quán)利。
1.主要限制人參與不足的決策類算法。根據(jù)當(dāng)下人工智能發(fā)展態(tài)勢(shì)預(yù)期,人工智能的最終發(fā)展走向?qū)?shí)現(xiàn)無人操縱,在開啟人工智能系統(tǒng)后,無需開發(fā)者或是使用者向系統(tǒng)內(nèi)輸入進(jìn)一步的算法指令,系統(tǒng)憑借其所儲(chǔ)存的數(shù)據(jù)庫(kù)信息,自行辨別分析并運(yùn)行,甚至針對(duì)所存在的錯(cuò)誤予以自主修正,從而實(shí)現(xiàn)完全的個(gè)體獨(dú)立化。但是由于算法本身存在系統(tǒng)漏洞、程序瑕疵、數(shù)據(jù)不完整等特點(diǎn),會(huì)導(dǎo)致決策無法把控,可能造成出乎意料甚至無法挽回的安全性問題,這也是眾多學(xué)者擔(dān)憂的一點(diǎn)。而“算法解釋請(qǐng)求權(quán)”的構(gòu)建正是為了遏制此類問題的發(fā)生,如果不限制人工智能任其肆意發(fā)展,而人類算法決策的監(jiān)控力度并不能與其發(fā)展速度相適應(yīng),那么勢(shì)必會(huì)出現(xiàn)算法決策錯(cuò)誤的問題,而“算法解釋請(qǐng)求權(quán)”是在適當(dāng)介入干預(yù)的前提下,對(duì)人工智能的發(fā)展規(guī)律予以風(fēng)險(xiǎn)防控。
“算法解釋請(qǐng)求權(quán)”構(gòu)建的目的在于防止完全自動(dòng)化決策現(xiàn)象的發(fā)生,避免因機(jī)器自由化而產(chǎn)生無法預(yù)測(cè)的風(fēng)險(xiǎn),通過相應(yīng)公權(quán)力的介入賦予相對(duì)方一定的解釋請(qǐng)求權(quán),從而保護(hù)相對(duì)方利益。為了防止智能自由化而出現(xiàn)無法防控的風(fēng)險(xiǎn),歐盟理事會(huì)于2016年4月在《一般數(shù)據(jù)保護(hù)條例》中針對(duì)自動(dòng)化決策作出了特別規(guī)定,即自動(dòng)化決策的使用者、開發(fā)者在運(yùn)營(yíng)數(shù)據(jù)系統(tǒng)作出決策時(shí),要采取適當(dāng)?shù)拇胧┍Wo(hù)數(shù)據(jù)主體的個(gè)人合法權(quán)利及自由,數(shù)據(jù)主體有權(quán)向數(shù)據(jù)控制者實(shí)施人為干預(yù)、表達(dá)自身觀點(diǎn),并針對(duì)決策結(jié)果享有同意與否的權(quán)利。但這并不意味著人為參與的合理程度不受任何限制,采取事先審查規(guī)制,數(shù)據(jù)主體在實(shí)施干預(yù)行為前需要對(duì)自動(dòng)化決策的依據(jù)、結(jié)果進(jìn)行一定的審查后,針對(duì)明顯不合理的決策方有權(quán)主張決策使用者、開發(fā)者予以修正。另外,人為審查義務(wù)應(yīng)作為算法解釋請(qǐng)求權(quán)相對(duì)應(yīng)的重要義務(wù)之一,不能由于審查主體自身持有的“算法依賴"而使審查僅具有表面特征,應(yīng)深入充分審查決策結(jié)果,并依據(jù)對(duì)自動(dòng)化決策合理性的審查決定是否針對(duì)決策結(jié)果采取同意、修正、廢除的表意,防止以“走過場(chǎng)”的心態(tài)敷衍了事。
2.主要限制對(duì)相對(duì)方的權(quán)益影響較大的決策類算法。算法(Algorithm)是指解題方案的準(zhǔn)確而完整的描述,是一系列解決問題的清晰指令,算法代表用系統(tǒng)的方法描述解決問題的策略機(jī)制。據(jù)算法應(yīng)用的場(chǎng)景和具備的功能來看,體現(xiàn)評(píng)價(jià)、排序、過濾、推送功能的算法較為常見。占據(jù)壟斷地位的互聯(lián)網(wǎng)企業(yè)幾乎構(gòu)成了現(xiàn)代人生活不可或缺的一部分,但其服務(wù)主要是根據(jù)用戶自身的瀏覽記錄和后臺(tái)數(shù)據(jù)庫(kù)存儲(chǔ)的信息,僅對(duì)用戶的選擇產(chǎn)生細(xì)微的影響。用戶在面對(duì)此種算法時(shí),可以通過調(diào)整自身的瀏覽記錄信息從而改變網(wǎng)絡(luò)推送信息的類型。這種可以通過自身行為得到救濟(jì)的算法并不是算法解釋請(qǐng)求權(quán)關(guān)注的重點(diǎn),其權(quán)利的目的更多的在于為博弈雙方提供平衡的法律地位,更多的關(guān)注處于弱勢(shì)地位的相對(duì)方,賦予相對(duì)方法律武器維護(hù)自身的權(quán)益,據(jù)此算法解釋請(qǐng)求權(quán)暫時(shí)應(yīng)適用于決策類算法的使用人。例如銀行針對(duì)貸款人的信用評(píng)價(jià)算法、保險(xiǎn)機(jī)構(gòu)針對(duì)參保人的保險(xiǎn)精算算法、司法智能審判系統(tǒng)所做出的裁判以及犯罪預(yù)警系統(tǒng)的智能執(zhí)法等等,這些算法的決策直接影響相對(duì)方的特定權(quán)力,而對(duì)于相對(duì)方來說,有些權(quán)利一旦喪失造成的傷害可能會(huì)是永久性的。在關(guān)于保護(hù)相對(duì)方權(quán)益的法律內(nèi)容上,歐盟理事會(huì)在《一般數(shù)據(jù)保護(hù)條例》第22條第1款中有明確規(guī)定:“對(duì)于僅基于自動(dòng)化數(shù)據(jù)處理的決策,包括特征分析,若其產(chǎn)生的法律效力涉及數(shù)據(jù)主體,或?qū)λ蛩蓄愃频闹匾绊懀瑒t他或她有權(quán)不成為此決策的對(duì)象”??芍谧詣?dòng)化決策對(duì)自身產(chǎn)生重大影響,相對(duì)方有權(quán)直接對(duì)該決策結(jié)果予以否定,從而避免受其結(jié)果的約束。