亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能司法決策的合法性辨疑

        2021-11-29 23:49:01孫慶春
        關(guān)鍵詞:司法權(quán)合法性法官

        陳 銳,孫慶春

        (重慶大學(xué) 法學(xué)院,重慶 400045)

        人工智能技術(shù)的發(fā)展使一些原本被認為只能由人類才能完成的工作開始由人工物來補充或替代,這種情形不斷地將人們對人工智能的認知向更加確信的方向推進。在司法領(lǐng)域亦是如此,人工智能技術(shù)方法的改進使得人們對司法人工智能有了更多的期待——使用人工智能進行司法決策。然而,人工智能參與司法決策不可避免地會面臨這樣一個問題,即其應(yīng)否被允許?這關(guān)涉到司法人工智能與社會合法性(legitimacy)判斷系統(tǒng)的兼容性問題,是人工智能參與司法決策首先需要解決的問題。對此,學(xué)界往往從道德主體性、權(quán)力合法性、司法錯誤歸責(zé)以及程序正義等方面質(zhì)疑其合法性,進而反對人工智能參與實質(zhì)性的司法決策。那么,人工智能參與司法決策不具有合法性嗎?本文旨在對這種論斷進行反思,以澄清一些關(guān)于司法人工智能的認識誤區(qū),從而為司法人工智能參與司法決策掃清理論上的障礙。

        一、人工智能司法決策的合法性質(zhì)疑

        從司法人工智能的簡史來看,合法性追問幾乎與人工智能的司法應(yīng)用是同步的,并伴隨著人工智能技術(shù)的發(fā)展而起伏。在法律專家系統(tǒng)階段,雖有學(xué)者持續(xù)致力于司法人工智能的建模工作,但皆沒有達到與其初衷相匹配的法律論證系統(tǒng)。在這樣的技術(shù)水平上,人們普遍認為,司法人工智能是不可能的也是不被允許的。近年來,在大數(shù)據(jù)與機器學(xué)習(xí)技術(shù)的支持下,新一代的司法人工智能逐漸克服了規(guī)則推理與小數(shù)據(jù)時代案例推理的技術(shù)局限,通過將原有的司法經(jīng)驗應(yīng)用于待決案件,使得“基于不完全、不確定或不一致的知識而進行的法律推理”變得可能與有效起來。在法律實踐領(lǐng)域,法律人工智能系統(tǒng)的層出不窮便是一個證明。

        然而,這并沒有改變學(xué)界對人工智能司法決策合法性判斷的結(jié)論。從現(xiàn)有文獻來看,學(xué)者們對于人工智能參與司法決策仍表達了一種普遍的質(zhì)疑與擔(dān)憂,即人工智能不應(yīng)被用于實質(zhì)性的司法決策,即使其具備了相應(yīng)的司法能力[1-3]。這種否定性觀點無疑為司法人工智能的應(yīng)用設(shè)置了一道“先驗”屏障,使得人工智能參與司法決策無論如何都不被允許??紤]到司法人工智能合法性判斷的兩個特性:一是技術(shù)指向性,即合法性判斷的對象是人工智能技術(shù)及其方法論,技術(shù)方法在一定程度上決定了合法性判斷的結(jié)果;二是認識導(dǎo)向性,即不同的認識論前提會導(dǎo)致不同的合法性判斷結(jié)果。本文認為,在新的技術(shù)時代條件下,這種論斷不僅缺乏對司法人工智能技術(shù)方法的考察,而且存在一種錯誤的認識論指導(dǎo)。因此,無論是從致知還是從致用的角度看,都應(yīng)認真對待。

        在詳細評判之前,有必要簡單介紹支持該論斷的理由及其理論假設(shè)。約略而言,這種論斷主要包括以下四個方面的論證:(1)若準(zhǔn)許人工智能進行司法決策,將引起人類法官的主體性危機。該論證假定了在司法決策的可能性與道德主體性之間存在可通約性,即認為若肯定人工智能可進行司法決策,則實質(zhì)上等于肯定了人工智能的道德主體地位,那必然會引起法官的主體性危機。有學(xué)者甚至憂心忡忡地提醒人們:人工智能司法決策可能意味著機器的統(tǒng)治與人類文明的終結(jié),其無異于“開門揖盜、引狼入室”[2]。(2)若準(zhǔn)許人工智能進行司法決策,會產(chǎn)生權(quán)力的合法性危機。該類論證大多從“權(quán)力論”出發(fā),質(zhì)疑人工智能司法決策的權(quán)力淵源與權(quán)力運行的合法性。它認為,從權(quán)力的來源看,法官的司法權(quán)有明確的法律授權(quán),而人工智能司法決策卻沒有法律上的根據(jù),故其合法性高度成疑;就權(quán)力的運行而言,若由人工智能取代法官進行司法決策,可能會偏離司法的公共屬性,并影響司法權(quán)的獨立運行[4]。(3)若準(zhǔn)許人工智能進行司法決策,在出現(xiàn)司法錯誤時,會帶來歸責(zé)難的問題,甚至?xí)鹈黠@的責(zé)任真空。由于人工智能進行司法決策,遵循的是一種相關(guān)性與概率論的邏輯,因此,它不僅無法確保個案裁判的“穩(wěn)當(dāng)熨帖”,而且會產(chǎn)生概率性錯誤[5-6],此時就會面臨司法錯誤無法歸責(zé)的窘境[7]。(4)若準(zhǔn)許人工智能司法決策,會危及程序正義的實現(xiàn)。持這種觀點的學(xué)者傾向于將司法人工智能的算法解釋為“黑箱”,認為其因缺乏透明性而極易產(chǎn)生“先天”或“人為”的偏見[8-9],或因形式上的不透明而減損了必要的司法程序[6],進而損害程序正義。

        上述論證顯然延續(xù)了人文主義看待技術(shù)哲學(xué)問題的一貫路徑,帶有濃厚的倫理論色彩。不可否認,在這種人文或倫理的批判中包含有真理的成分,它極大地深化了人們對科學(xué)技術(shù)意義的思考。但人工智能司法決策并不是一個純理論的思辨性問題,它更多的是一個工程實現(xiàn)的問題,單純的倫理批判并不會產(chǎn)生有效的建議?;诖?本文將重點對上述四個論證進行逐條辨疑,并探討一種有關(guān)人工智能司法決策的可能路徑,以破除上述否定性觀點為人工智能司法決策設(shè)置的“先驗屏障”。

        二、人工智能司法決策會引起人類法官的主體性危機嗎?

        反對或批判人工智能司法決策的大多數(shù)論證首先是從倫理的層面展開的,它們主張,若準(zhǔn)許由人工智能進行司法決策,實質(zhì)上等于肯定了人工智能的道德主體地位,進而會危及人類法官的主體性地位。

        持上述反對意見者大多傾向于將人工智能視為一種威脅人類主體性的“類人”的存在。這一理解顯然受到了心靈哲學(xué)(例如Searle的“中文屋論證”)對人工智能批判的影響,以及早期人工智能學(xué)家對人工智能模糊定義的影響。Turing在著名的“圖靈測試”中,將一個系統(tǒng)具有智能性的標(biāo)準(zhǔn)定義為:如果該系統(tǒng)的回答和反應(yīng)與人類的無法區(qū)別,那么,該系統(tǒng)便是智能的??陀^地說,該定義不僅無法反映人工智能的真正本質(zhì),而且因其模糊性而制造了一個理解的誤區(qū),即人工智能是對人類智能的模仿或復(fù)制。根據(jù)這一理解,人工智能就是一種人類模仿計劃,以期在機器上再現(xiàn)人類的自然能力,其結(jié)果就是:人們必然會追溯到心靈、意識與主觀性來認識與評價人工智能。

        但實際上,作為工程科學(xué)的分支,人工智能的研究很少與人類思維的運作有關(guān),它“與生物有機體的關(guān)系主要是隱喻性或啟發(fā)性的”[10]16,因此,理應(yīng)更多地從工程技術(shù)哲學(xué)的角度對其進行認識與評價。工程技術(shù)哲學(xué)主張從工程學(xué)的角度認識技術(shù),從抽象的理論知識回歸到具體的技術(shù)實踐。工程技術(shù)哲學(xué)認為,技術(shù)本質(zhì)上是一套改造自然世界以滿足人類需要的方法或產(chǎn)物。根據(jù)這種解釋,人工智能只不過是一個通過工程技術(shù)有效而自動地解決問題的方法或系統(tǒng)。作為人類制造活動的產(chǎn)物,人工智能系統(tǒng)并未超出人工物的范疇,它的存在完全是心智依賴性的,它是什么或即將成為什么完全取決于人類[11]225。這決定了人工智能對人類的依附關(guān)系,也決定了司法人工智能不可能成為一種“類人”的存在。

        一些學(xué)者可能會以“人工智能的自主性日益加強”為據(jù)而反對上述觀點。由于人工智能的自主性日益增強,使得人工智能的行動范圍會超出人類意向的范圍,因此存在擺脫對人的依附、進而成長為獨立道德主體的可能性。但這一觀點明顯建立在對“自主性”的多義解釋或隱喻性修辭之上。當(dāng)我們使用“自主性”一詞時,通常意味一種完全的自由、獨立或主導(dǎo),其不僅體現(xiàn)在計劃的執(zhí)行方面,更體現(xiàn)在計劃的制定與目的的自我確立方面。盡管人工智能已超越那種對具體行動進行直接編程的技術(shù)階段,但所謂的人工智能“自主性”仍只是在計劃執(zhí)行的意義上而言的,與目的生成、行動規(guī)劃無涉。也就是說,人工智能只能在人類預(yù)先設(shè)定的程序或算法規(guī)則內(nèi)運行,就像僵住癥患者需要借助別人的意識來行動一樣,對于這種意義上的“自主性”,更合適的表述或許是“自動性”。即使人工智能借助所謂的自主學(xué)習(xí)獲得了一定的環(huán)境自適應(yīng)性——根據(jù)不同的經(jīng)驗數(shù)據(jù)生成不同的規(guī)則前提,但它不會產(chǎn)生超出經(jīng)驗數(shù)據(jù)范圍之外的規(guī)則,更不會改變“加工數(shù)據(jù)”的目的本身。這種意義上的“自主性”并不構(gòu)成對人工智能工具本質(zhì)的真正挑戰(zhàn),更不會派生出所謂的“主體性”擔(dān)憂。

        仍有學(xué)者會質(zhì)疑為什么作為工具的人工智能可以進行司法決策?尤其是在這些司法決策關(guān)涉人類主體該如何行動之類的問題時,這一質(zhì)疑就變得特別嚴肅起來。正如本文論證的,人類與司法人工智能的關(guān)系只是一種使用與被使用關(guān)系,人們之所以設(shè)計出司法人工智能,有著明確的目的,那就是服務(wù)于人類的司法需要。在上述關(guān)系中,人工智能只是在司法事務(wù)上分擔(dān)了法官的負擔(dān),是對法官的一種功能強化,就像工業(yè)機器人分擔(dān)工人的勞動一樣,我們并不會由于工業(yè)機器人逐漸分擔(dān)了人的勞動,將人從繁重的勞動中解放出來,而擔(dān)憂人的主體性會喪失。盡管司法人工智能從事的是腦力勞動,其本質(zhì)及其與人類的關(guān)系并未從根本上改變,其存在的意義在于擴展人類的能力。因此,人工智能只是強化了人類的主體性,而非削弱更非危及其主體性。

        三、人工智能司法決策存在權(quán)力合法性危機嗎?

        質(zhì)疑人工智能司法決策合法性的第二類論證意在表明人工智能不具備權(quán)力上的合法性。這一合法性質(zhì)疑主要包括兩方面內(nèi)容:其一,在權(quán)力的淵源方面,人工智能司法決策未獲得公共授權(quán),若準(zhǔn)許人工智能司法決策,將會與人民主權(quán)原則相抵觸;其二,在權(quán)力運行方面,若準(zhǔn)許人工智能進行司法決策,由人工智能所代表的技術(shù)權(quán)力將侵蝕或重構(gòu)司法權(quán)力,并因而可能會從根本上消解司法的獨立運行。下文將對上述兩方面內(nèi)容進行剖析。

        (一)權(quán)力淵源的合法性問題

        現(xiàn)代法治國家是以人民主權(quán)為基礎(chǔ)的,人民授權(quán)是一切權(quán)力的根據(jù),同時也是司法權(quán)的合法性源泉。在對人工智能司法決策表示質(zhì)疑的人看來,若準(zhǔn)許人工智能進行司法決策,就存在權(quán)力淵源的合法性問題,因為人工智能未能獲得人民的公共授權(quán)。而且,若由人工智能取代法官進行司法決策,無異于變相地為公民強加了“服從于人工智能的法律義務(wù)”,繼而會偏離司法的公共屬性[4]。

        這一質(zhì)疑明顯混淆了“作為國家職能的司法權(quán)”與“法官的司法職權(quán)”。雖然二者在權(quán)力淵源上都可追溯到人民主權(quán),但法官的司法職權(quán)與作為國家職能的司法權(quán)存在本質(zhì)區(qū)別:與立法權(quán)、行政權(quán)相對的司法權(quán)是國家職能劃分的結(jié)果,具有明顯的外部性;而法官行使的司法職權(quán)更多的是法院內(nèi)部分工的結(jié)果,具有明顯的內(nèi)部性。作為國家職能之司法權(quán)通常由法院來行使,其直接淵源為憲法或組織法;而作為法官之司法職權(quán)則通常由法官個體來行使,其直接淵源為法官法。若從公共授權(quán)的角度看,審判權(quán)應(yīng)屬于國家審判機關(guān)——法院,而非法官個人,法官只是具體行使而已。例如,我國憲法與法院組織法均明確規(guī)定,人民法院依照法律規(guī)定獨立行使審判權(quán)。這種權(quán)力隸屬關(guān)系也表現(xiàn)在司法責(zé)任的分配方面,即司法錯誤的責(zé)任主體主要是法院(或國家)。由此可見,司法權(quán)的直接主體是法院,法官的職權(quán)及其合法性均源于法院的內(nèi)部分工,司法人工智能并不會改變這種權(quán)力隸屬關(guān)系。在這個意義上講,即使由人工智能替代法官進行司法決策,也不會破壞司法權(quán)的公共屬性,更不會引起司法權(quán)的合法性危機。

        顯然,在這種權(quán)力結(jié)構(gòu)與隸屬關(guān)系中,人工智能司法決策并不會將“服從人工智能的法律義務(wù)”強加給公民。司法裁判的權(quán)力屬于法院,其直接表現(xiàn)就是:裁判文書只能以法院的名義進行制作、發(fā)布,且因此具有法律效力。因此,在司法裁判中,是擁有司法權(quán)的法院而非法官個體賦予司法裁判以權(quán)威性的,在某種意義上講,公民服從的是法院的權(quán)威、法律的權(quán)威,而非法官個人的權(quán)威,因此,所謂的“服從人工智能的法律義務(wù)”只不過是危言聳聽罷了。

        (二)權(quán)力運行的合法性問題

        運用人工智能進行司法決策會威脅司法權(quán)的獨立運行嗎?一些學(xué)者質(zhì)疑人工智能司法決策會威脅司法權(quán)的獨立運行:一方面是私權(quán)力(技術(shù)平臺)對司法獨立的影響;另一方面是一般國家權(quán)力對司法權(quán)的控制或消解[12]。但本文認為,在合理的規(guī)制框架下,運用人工智能進行司法決策不是威脅而是保證了司法權(quán)的獨立運行。

        從一般意義上而言,人工智能技術(shù)本身不會影響司法獨立。眾所周知,獨立性是保障司法公正的必要條件,這為各司法文明所普遍認可。但司法獨立不是絕對的,而是需要進行必要的規(guī)制。在人工智能進行司法決策時,算法恰恰起到了必要規(guī)制的作用,它不僅規(guī)范著人工智能的運行,而且規(guī)范著司法決策的過程,既可以摒除法官基于偏私的主觀判斷而濫權(quán),又可以極大地屏蔽其他權(quán)力對司法權(quán)的外部干預(yù)。因此,司法人工智能在排除外部干擾與規(guī)制司法權(quán)力的內(nèi)部運行兩個方面都具有明顯優(yōu)勢。就此而論,關(guān)于人工智能會消解司法獨立性的論斷顯然難以成立。

        但是,一些學(xué)者從“技術(shù)即權(quán)力”的假設(shè)出發(fā)對此進行質(zhì)疑,認為人工智能代表的技術(shù)權(quán)力本身對法律的權(quán)力構(gòu)成了挑戰(zhàn)。本文認為,盡管這種泛化的權(quán)力論在一定程度上揭示了權(quán)力演化的本質(zhì),但其并不適于解釋制度性權(quán)力。以司法權(quán)為例,其首要特征在于制度性,即在特定的司法制度框架下產(chǎn)生與運行。泛化的權(quán)力則不然,其不具有制度性與規(guī)范性,僅僅是一種泛指的可能性?!凹夹g(shù)即權(quán)力”并沒有比“糧食即權(quán)力、石油即權(quán)力、金錢即權(quán)力”表達更多的內(nèi)容。人們?nèi)绱苏務(wù)摰臋?quán)力,并不包含司法權(quán)所具有的那種制度性意義。在“技術(shù)即權(quán)力”這一命題之下,人工智能技術(shù)代表了一種權(quán)力,也可以說電力技術(shù)代表了一種權(quán)力,二者沒有本質(zhì)區(qū)別。司法的技術(shù)史表明,每一次技術(shù)變革都是對司法權(quán)運行基礎(chǔ)的更迭,是對司法獨立的保障而非破壞。如果沒有理由指責(zé)歷次的技術(shù)革新破壞了司法權(quán)的獨立運行,也就沒有理由指責(zé)人工智能。

        當(dāng)然,這種質(zhì)疑可能從另一角度提出,如“代碼即法律”[13]6。在人工智能司法決策的情境下,它以“算法即法律”的形式呈現(xiàn)出來。根據(jù)其解釋,代碼或算法作為一種必然的、根本的規(guī)制對網(wǎng)絡(luò)空間或人工智能情境的參與者施加規(guī)則,而代碼或算法的設(shè)計者或控制者(科技平臺)則獲得了施加規(guī)制的權(quán)力。有代碼或算法的地方,必然有施加這種權(quán)力的科技平臺,它們以制定“法律”的方式從根本上影響著司法權(quán)的獨立運行。但是,本文認為,這種解釋基于一種錯誤的認識過分夸大了科技平臺對司法獨立的影響?;蛟S這一理論準(zhǔn)確地捕捉到了代碼或算法在規(guī)制參與者行為方面的實際效用,無論是對網(wǎng)絡(luò)空間還是對人工智能來說都極具洞察力,然而它僅僅是一種社會學(xué)意義上的觀察,沒有超越這一層面的效力。就像語言之于語言學(xué)一樣,其語義與語法形成了社會生活深層的結(jié)構(gòu)限制,超越這個層面便不再具有這種規(guī)制力。因此,不能因為這種社會學(xué)觀察就將科技平臺排除在司法人工智能的建設(shè)之外。這一方面是因為法院受自身技術(shù)能力的限制不可能獨立建設(shè)司法人工智能,另一方面則是這種絕對的獨立可能會導(dǎo)致司法濫權(quán)。更重要的是,法律可以為司法人工智能的運行構(gòu)筑必要的制度基礎(chǔ),以規(guī)制代碼或算法,繼而規(guī)制其背后的權(quán)力。這恰恰體現(xiàn)了法律超越代碼或算法的一面,也破除了“代碼即法律”這種社會學(xué)觀察所引起的規(guī)范混淆。

        此外,一些論者持“技術(shù)權(quán)力將消解司法權(quán)”的消解論,即司法人工智能所依賴之算法不過是一種控制司法權(quán)的工具,它會為一般國家權(quán)力干預(yù)司法提供端口。這一論調(diào)顯然建立在算法“黑箱論”基礎(chǔ)之上,即只有當(dāng)公眾處于對算法的“無知”狀態(tài)時,這種“邪惡”才是可能的。正如Susskind所說,“哪里有不透明和神秘化,哪里就有不信任和缺乏責(zé)任感”[14]37。但是,只要通過算法透明原則來確保算法的公開、可解釋與可責(zé)性,就可以解決上述問題,就像可以通過制定一些程序性規(guī)則以確保人類法官在決策中保持透明一樣,同樣可以制定規(guī)則保障人工智能司法在陽光下運行。

        四、人工智能的司法錯誤會導(dǎo)致責(zé)任真空嗎?

        質(zhì)疑人工智能司法決策合法性的第三類論證主要集中在司法錯誤及其責(zé)任的分配方面。一些論者認為,人工智能不僅無法在個案裁判中實現(xiàn)“公正合理、穩(wěn)當(dāng)熨帖、讓人心悅誠服”[7],而且,其存在統(tǒng)計學(xué)意義上的概率性錯誤,這本身讓人難以接受,即使其能保持99%的正確性,亦是如此[3]。一些論者擔(dān)憂,若準(zhǔn)許人工智能參與或主導(dǎo)司法決策,將導(dǎo)致司法錯誤難以歸責(zé),甚至產(chǎn)生責(zé)任真空。以下對此進行具體分析。

        (一)司法錯誤是不可接受的嗎?

        那些質(zhì)疑人工智能司法決策合法性的人們對人工智能可能做出錯誤的判決持零容忍的態(tài)度,這種要求人工智能司法決策絲毫不能出現(xiàn)偏差的做法顯然過于嚴苛。就個案例裁判而言,司法決策并不追求“真理符合論”意義上的絕對正確,而只尋求一種可接受的結(jié)果。這是因為法律本身是有價值負荷的,任何一條法律規(guī)則的產(chǎn)生、存在與適用都是價值權(quán)衡的結(jié)果。在這種意義上,法律是與價值有關(guān)的規(guī)范,司法是處理與價值有關(guān)的活動。但由于價值往往潛在于規(guī)范背后,因此,很難說清楚價值到底是什么。價值的這種不可或缺且又難以捉摸的特性使得法律適用過程不可能是簡單的邏輯推理過程,法官通常需要訴諸“價值權(quán)衡”這一權(quán)宜方法來追求司法裁判的可接受性。通常,學(xué)者們傾向于將法律適用過程理解為完全主觀的過程,如德沃金認為法律推理是一項建構(gòu)性的解釋活動。但其實,法律適用過程是一個將價值與事實相結(jié)合的過程,是一個主觀見之于客觀的活動。這與人工智能通過處理經(jīng)驗數(shù)據(jù)、解決價值問題的方式并無本質(zhì)區(qū)別。如果以此來指責(zé)人工智能,在人類法官同樣無法保證司法決策百分百正確的情況下,為何不以同樣的標(biāo)準(zhǔn)苛責(zé)人類法官呢?

        而且,從法律適用的結(jié)果看,無論是人類法官,還是人工智能,都不可能使所有的司法決策都正確。因為它(他)們總是在真實的環(huán)境中行動,而不是在理想環(huán)境或?qū)嶒灜h(huán)境下發(fā)揮作用,這意味著,司法裁判的正確性不僅會受到理性水平的限制,而且也會受到法律規(guī)范是否明晰、案件事實是否清楚等因素的影響。那些追求裁判結(jié)果絕對正確的人無疑將法官想象為一個全知全能的人,他們能了解一切、掌控一切,因此能做出完美的裁決。但實際上,法官只能通過有限理性,在有限的時間、有限的空間以及有限的價值之內(nèi)做出相對正確的判決。而且事實表明,即使這種有限的理性也會因諸多現(xiàn)實因素的影響而無法充分實現(xiàn)。因此,從實踐理性的角度看,司法決策不過是在多個備選方案中選擇較優(yōu)的方案而已。如果我們研究司法人工智能的目的是為司法實踐服務(wù),而不是追求純粹的理論思辨,那么我們就沒有理由要求司法人工智能具備完全的理性,更不應(yīng)苛求其決策百分百正確。

        因此,對待人工智能司法決策可能產(chǎn)生錯誤的問題,應(yīng)持一種現(xiàn)實的態(tài)度,既不能敷衍塞責(zé),又不能苛求。如果人工智能法官能在正確率方面不低于人類法官,并在經(jīng)濟、效率、質(zhì)量與可預(yù)測性等方面達到比較理想的狀態(tài),那么我們就沒有理由對其提出過高的要求。正如杰西·休斯所說的,“如果它(工程)作為實踐推理的方法是成功的,那么它就是成功的”[11]375。誠然,“人類法官同樣不完美”并不能構(gòu)成一個支持人工智能進行司法決策的充分理由,但也不能因噎廢食,不能因為人工智能法官不完美就否定其作用。

        (二)人工智能決策會產(chǎn)生責(zé)任真空嗎?

        除情感因素外,很多人對人工智能法官可能會引起司法錯誤表示擔(dān)憂的重要原因與歸責(zé)困難有關(guān),即當(dāng)人工智能司法決策出現(xiàn)錯誤時,該由誰來承擔(dān)責(zé)任?以及該如何劃分責(zé)任?由于會產(chǎn)生歸責(zé)難的問題,以致一些學(xué)者對人工智能司法決策的合法性產(chǎn)生了懷疑。針對這一質(zhì)疑需要區(qū)分以下幾個層次的問題。

        第一,人工智能司法決策如果出現(xiàn)了錯誤,是否難以劃分責(zé)任?其實,若是人工智能法官出現(xiàn)了司法錯誤,反而比人類法官出現(xiàn)錯誤更容易被發(fā)現(xiàn),因為人工智能不像人類法官那樣,善于掩飾錯誤,其會錯得明明白白,技術(shù)人員只要對人工智能的推理過程進行檢視,就能發(fā)現(xiàn)這些錯誤到底是由軟件的程序問題造成的,還是因法律存在模糊、含糊等原因造成的,以及因事實認識存在錯誤造成的,因此,責(zé)任劃分上不存在困難。所謂的“算法黑箱”只是針對外行而言的,且有過分夸大之嫌。正如監(jiān)視飛機飛行狀態(tài)的“黑匣子”,對于外行來說可能很神秘、不透明,但在技術(shù)人員面前,它卻是透明的,可以通過一定的技術(shù)手段進行解讀,并以之作為解決飛行事故的客觀依據(jù)。

        第二,若人工智能法官做出了錯誤的判決,該由誰承擔(dān)責(zé)任?毫無疑問,該由人類自己承擔(dān)責(zé)任。因為人工智能是人類有目的活動的產(chǎn)物,它并沒有超出人工物的范疇,故人類該為人工智能的設(shè)計、生產(chǎn)與使用負責(zé)。無論人工智能具有多么強大的功能,它總是人類有意向活動的結(jié)果,在出現(xiàn)司法決策錯誤時,明顯應(yīng)由人類而不是人工智能來承擔(dān)責(zé)任。就這一點而言,人工智能在責(zé)任問題上“并不像許多人所說的那樣具有革命性”[15]。在廓清這一點之后,散布于眼前的倫理迷霧便去了一半。但在澄清人類的責(zé)任主體地位后,并沒有完全解決“由誰來承擔(dān)具體責(zé)任”這一問題,因此,我們需要回答第三個層次的問題。

        第三,對于由人工智能引起的司法錯誤,具體承擔(dān)責(zé)任的應(yīng)是“誰”?對于這個問題,本文的基本觀點是:只要滿足歸責(zé)條件,法官個體、法院與國家都可能成為人工智能司法錯誤的責(zé)任主體。自亞里士多德以來,責(zé)任理論就突出強調(diào)了責(zé)任兩個方面的條件:“控制”條件和“認知”條件?!翱刂啤睏l件是指行動者對由其所引起的行動具有足夠程度的控制;“認知”條件是指行動者知道自己在做什么[16]12-14。如果同時滿足這兩個條件,那么該行動者就負有責(zé)任。雖然這種責(zé)任理論是針對理性行為人提出的,但作為理性行為人集合的法院與國家同樣獲得了這種資格。在設(shè)計、部署與使用司法人工智能的過程中,法官、法院與國家都可能在某種情形下對其進行某種程度的“控制”,這實質(zhì)上構(gòu)成了人工智能錯誤行動的原因;而且在履行各自的角色職能時,三者都具有相對獨立且充分的“意志”自由。因此,從“引起司法錯誤這一后果”的“原因”來看,三者都滿足司法錯誤歸責(zé)的條件要求。當(dāng)然,考慮到可歸責(zé)性(作為責(zé)任來源或原因的能力)與可懲罰性(實際承擔(dān)不利后果的能力)的分離,三者在具體的責(zé)任分配方面可能存在某種歸責(zé)與實際承擔(dān)的不一致。但總體來說,這并不影響歸責(zé)的實施,若人工智能在司法決策時產(chǎn)生錯誤,法官個體、法院與國家都應(yīng)該而且能夠在各自的責(zé)任范圍內(nèi)承擔(dān)某種性質(zhì)的責(zé)任。

        綜上所述,在人工智能司法決策中,司法錯誤并非不可歸責(zé),其責(zé)任主體仍然是人類,或是法官個體,或是法院,或是國家。而且就避免司法錯誤而言,人工智能可能比人類法官做得更好。只要進行合理的案件分流與制度安排,我們完全可以找到一種有效的責(zé)任分配方案來化解所謂的“責(zé)任真空”這一阻礙。

        五、人工智能司法決策會損害程序正義嗎?

        質(zhì)疑人工智能司法決策合法性的第四類論證是從程序正義方面展開的。一方面,一些學(xué)者認為,人工智能算法的“黑箱”屬性可能遮蔽程序的透明性;另一方面,一些學(xué)者擔(dān)憂,人工智能決策的形式性可能會減損必要的司法程序(如法律論辯),進而損害程序正義。但本文認為,從總體上看,人工智能在司法中的運用有利于維護而非損害程序正義。

        (一)透明的算法決策有利于實現(xiàn)程序正義

        作為主導(dǎo)人工智能司法決策的技術(shù)規(guī)則,“算法”實質(zhì)地影響著司法決策的過程與結(jié)果,因此,其重要性不言而喻。但算法的“不透明性”卻引發(fā)了學(xué)者們對其可能損害程序正義的擔(dān)憂[9]。顯然,這類擔(dān)憂將人工智能司法決策的爭論焦點轉(zhuǎn)移到了“算法透明”上來,而且在他們看來,保證和維護算法的透明似乎極其困難。從現(xiàn)有文獻來看,常見理由有三:一是算法的技術(shù)專業(yè)性使普通公眾往往難以有效認知,從而極大地影響了公眾對人工智能算法的公平感知與信任;二是商業(yè)秘密原則為供應(yīng)商拒絕公開算法提供了正當(dāng)理由;三是既使公開算法,在算法設(shè)計、部署與使用過程中,工程師、供應(yīng)商甚至是法院也難免有意或無意的植入價值偏見[17]。不可否認,這些問題是客觀存在的,而且會給人工智能司法決策帶來透明度障礙,但卻不是不可解決的,完全可以通過必要的制度設(shè)計與調(diào)整來消除這些阻礙。

        首先,對于算法決策缺乏公平感知的問題,可以通過設(shè)置必要的公開與解釋責(zé)任來解決。司法實踐史表明,公開通常是司法公平的必要前提,而解釋(給出理由)則構(gòu)成了裁判可接受性的理性基礎(chǔ)。在人工智能司法中,算法公開與解釋同樣可消除社會公眾對基于秘密規(guī)則決策的擔(dān)憂。當(dāng)前學(xué)界已經(jīng)提出了一些解決方案,其中“運行透明方案”得到越來越多的認可,其基本原理是公開算法實際的運行規(guī)則。這使得算法決策的依據(jù)與理由得以公開,從而使算法運行及其結(jié)果更具可解釋性。實際上,許多現(xiàn)有的治理框架正是基于這種思路展開的。雖然這些原則性規(guī)定尚需完善,但卻恰當(dāng)?shù)刂赋隽司S護算法透明的正確方向,可以在相當(dāng)大的程度上化解人們對人工智能算法決策的信任危機。

        其次,對于因商業(yè)秘密而產(chǎn)生的算法公開豁免問題,也可因司法的公共屬性而重新調(diào)整對私主體利益的保護邊界而維護司法的公正性。研究者擔(dān)憂商業(yè)秘密可能成為算法公開的阻礙,例如著名的“State v.Loomis上訴案”就涉及到該問題。該案判決書中,威斯康星州法院認為巡回法院使用未披露算法信息的COMPAS系統(tǒng)來評估Loomis再犯風(fēng)險的做法,并不侵犯其正當(dāng)程序權(quán)利。在一些學(xué)者看來,這顯然賦予了科技公司拒絕披露算法相關(guān)信息的正當(dāng)理由,從而使算法透明難以實現(xiàn)。但值得注意的是,該判決還有另外幾項重要的決定或意見:一是Northpointe公司必須在公開文件中告知法院關(guān)于算法商業(yè)秘密的注意事項;二是在使用COMPAS時,必須闡明它在判刑時考慮的因素以及這些因素如何影響它所判處的刑罰;三是法院在使用COMPAS時應(yīng)“闡明一個有意義的推理過程”,從而提供一個透明且可理解的解釋。這些決定或意見表明,商業(yè)秘密作為豁免理由并不是絕對的,在涉及司法公正時可以被限制與調(diào)整,以平衡科技公司與社會公眾之間的權(quán)力不對稱。

        最后,對于算法存在價值偏見的問題,則可以通過必要的程序設(shè)定進行發(fā)現(xiàn)、阻止與糾偏。算法系統(tǒng)的設(shè)計部署不可避免地嵌入某些倫理假設(shè)與價值植入,而偏見可能存在于設(shè)計者對倫理與價值的理解之中,正如伽達默爾所說的,偏見植根于我們對世界的理解之中。就此而論,人工智能算法決策固有的偏見確實難以消除。但人類的倫理實踐表明,價值偏見可以被有效抑制,方法就是通過倫理對話努力促成公共理性。這種方法也可以移植到算法偏見的治理中來,即在算法的設(shè)計階段吸納更多的公眾參與與對話。這有利于在算法中植入更廣泛的、更多元的價值考量,從而平衡不同群體的道德直覺與道德情感,以抑制價值偏差與失衡。作為司法領(lǐng)域應(yīng)用的公共算法系統(tǒng),司法人工智能也應(yīng)如此。雖然這種方法可能無法實現(xiàn)一些學(xué)者隱晦表達的那種“完全無偏見”的理想追求,但倫理實踐表明,這是抑制偏見的有效方法。

        總而言之,盡管司法人工智能的算法決策可能存在不透明的問題,但人們已找到了解決問題的正確方向并正在接近或完善解決問題的方法,這意味著滿意的算法透明是可能的,基于這種透明算法的人工智能決策將為實現(xiàn)司法的程序正義提供重大保障。

        (二)人工智能決策不必然減損司法程序

        該類反對意見的第二個方面是:人工智能的形式化特性可能會減損必要的司法程序,從而損害程序正義,這尤其體現(xiàn)在法庭辯論上。人們擔(dān)憂當(dāng)事人法庭辯論中言說的權(quán)利可能無法完整地嵌入人工智能決策中,從而影響司法的程序正義。

        司法人工智能會取消當(dāng)事人言說的機會與權(quán)利嗎?依正當(dāng)程序提出并論證自己的訴求與主張是當(dāng)事人重要的程序性權(quán)利,也是法庭辯論的核心內(nèi)容。正如哈貝馬斯所說的,司法裁判不是一種法官獨白式的活動,而是一種通過反思性的交互機制合理地推動同意的過程,因為法律帝國不只有法官,還有共同體成員。因此,充分的法庭辯論往往是程序正義的構(gòu)成性條件?;诖?一些學(xué)者擔(dān)憂人工智能的結(jié)果導(dǎo)向式?jīng)Q策可能無法充分地捕捉到法庭辯論的實踐性,進而影響甚至剝奪當(dāng)事人言說的機會與權(quán)利[6]。但是,人工智能司法決策并不意味著取消或減損必要的司法程序,也沒有任何證據(jù)表明,司法人工智能的效用是建立在對司法程序的不當(dāng)簡化與對當(dāng)事人權(quán)利的剝奪基礎(chǔ)之上。更重要的是,在法律辯論中,司法人工智能并不排斥當(dāng)事人的訴求表達與對話,恰恰相反,人工智能需要通過法庭辯論來確保其決策前提的“正確性”。一方面,法庭辯論要想達到說服的效果,論辯者需要充分地展開其理由;另一方面,法庭辯論有利于言明司法案件的內(nèi)在邏輯,從而滿足司法人工智能對事實的“可表達性”需求。可以說,人工智能司法決策的形式性是建立在法庭辯論的實踐性基礎(chǔ)之上的,法庭辯論越充分越有利于司法人工智能發(fā)揮作用。因此,人工智能不會剝奪當(dāng)事人言說的程序性權(quán)利。

        此外,還有學(xué)者擔(dān)憂法庭辯論的形式替代可能會折損法官親歷性的程序性價值,從而影響人工智能決策的合法性。但是,在人工智能司法決策中,以親歷性來衡量程序正義可能并不適宜,因為司法人工智能存在的意義就在于部分或全部地分擔(dān)或替代法官的工作,以緩解司法壓力。從親歷性的含義看,其本質(zhì)要求是進行決策的法官應(yīng)該親歷決策前程序。顯然,這種程序性要求是建立在人類法官司法決策的情形之上的,但在人工智能司法決策中,這種衡量程序正義的標(biāo)準(zhǔn)將因技術(shù)革新而失去了存在的意義。就此而論,人工智能將重塑司法的面貌,或許我們應(yīng)該對這類反思本身進行反思。誠如反對觀點所表明的,人工智能技術(shù)介入司法實踐必然會引發(fā)一系列倫理思考,但更全面的倫理反思理應(yīng)包括人工智能技術(shù)對司法倫理的重塑。

        六、結(jié)語

        技術(shù)本質(zhì)上是人類解決自身問題并實現(xiàn)理想生活方式的活動,其不斷革新的原動力正在于人們對美好生活的追求,這展現(xiàn)在人之為人的基本特征之中。通過賦予人類以滿足自身需求的工具、方法與能力,技術(shù)的價值才得以實現(xiàn)。司法人工智能最鮮明地體現(xiàn)了這一點。在人工智能技術(shù)日益成熟的今天,將其運用于司法實踐的原動力最直接地體現(xiàn)在司法系統(tǒng)所面臨的“案多人少”的壓力方面。因此,司法人工智能并非單純的智力游戲,而是有其深刻的現(xiàn)實必要性。隨著技術(shù)的不斷革新,這種現(xiàn)實必要性逐漸轉(zhuǎn)化為司法人工智能實現(xiàn)的可能性。大數(shù)據(jù)與機器學(xué)習(xí)為司法人工智能開辟了新的道路——有限理性的經(jīng)驗進路。在這種進路中,人工智能擺脫了理論進路的局限與機械主義的指責(zé),以自下而上的方式實現(xiàn)了人類司法經(jīng)驗的未來面向,并且在有限理性的框架下化解了浪漫主義的主觀性問題。盡管這種進路面臨著經(jīng)驗主義承受的傳統(tǒng)指責(zé),即經(jīng)驗的可靠性問題(過去對未來是否具有必然的指導(dǎo)意義),但是在實踐理性中不必追求這種必然性與絕對性,而只需滿足必要的相關(guān)性與有限的可接受性即可,其余的則交由例外原則來處理。

        也許有人認為人類可能就此失去在司法領(lǐng)域的獨特性與控制力,但事實并非如此。盡管人工智能可以把人類從占大多數(shù)的簡單案件中解放出來,但那些疑難案件的有效解決可能仍無法完全脫離人類智慧。更重要的是,人類將集中關(guān)注那些更具創(chuàng)造性的工作以確保人工智能決策的前提,包括技術(shù)規(guī)則的制定、案件的合理分流、數(shù)據(jù)可靠性與信息環(huán)境的保障、錯誤糾偏以及責(zé)任承擔(dān)。相對于司法決策的具體運行,這些工作才具有根本的重要性與決定性??偠灾?在司法實踐領(lǐng)域為人工智能設(shè)置“先驗屏障”既無必要也不應(yīng)該,雖然司法人工智能是有限度的,但這個限度不應(yīng)限定在司法輔助性工作。

        猜你喜歡
        司法權(quán)合法性法官
        晉冀魯豫邊區(qū)刑事司法審查制度的理性與經(jīng)驗
        組織合法性的個體判斷機制
        法學(xué)基本范疇研究:司法權(quán)
        Westward Movement
        法官如此裁判
        法官如此裁判
        做“德法兼修”的好法官
        紅土地(2018年8期)2018-09-26 03:19:06
        司法權(quán)運行機制改革評價研究——以民事審判中“用戶體驗”為視角
        當(dāng)法官當(dāng)不忘初心
        紅土地(2016年10期)2016-02-02 02:45:32
        淺談汽車養(yǎng)護品生產(chǎn)的合法性
        馬与人黃色毛片一部| 尤物在线观看一区蜜桃| 免费a级毛片无码a∨中文字幕下载| 老色鬼永久精品网站| 日本a在线免费观看| 成人亚洲av网站在线看| 妺妺窝人体色777777| 中国老妇女毛茸茸bbwbabes| 无码一区二区三区在线在看| 亚洲天堂av在线免费播放| 丁香五月亚洲综合在线| 国产精品白浆在线观看无码专区| 国内视频偷拍一区,二区,三区| 久久精品伊人久久精品伊人| 18禁止看的免费污网站| 国产成人无码免费网站| 91亚洲欧洲日产国码精品| 久久成人精品国产免费网站| 疯狂三人交性欧美| 乱子伦视频在线看| 青榴社区国产精品| 国产情侣亚洲自拍第一页| 中国老熟女重囗味hdxx| 亚洲欧美欧美一区二区三区| 久久天堂av综合合色| 国产精品日日做人人爱| 国产精品美女一区二区三区| 成人精品免费av不卡在线观看| 91精品国产91综合久久蜜臀| 亚洲国产精品无码专区影院| 国产中文aⅴ在线| 国产成人一区二区三区| 亚洲av成人片色在线观看| 亚洲国产成人久久一区| 无码熟妇人妻AV不卡| 中文字幕色偷偷人妻久久一区| 亚洲精品无amm毛片| 久久亚洲国产成人亚| 国产av剧情精品麻豆| 妇女bbbb插插插视频| 国产欧美日韩网站|