文/閆宏秀
人工智能倫理研究的本質是對人與技術關系的再度厘清與辨析。在人工智能的背景下,人與技術的關系是基于某種信任而形成的一種新型深度融合。這種信任是人與人工智能關系存在的前提條件。但這種信任除了傳統(tǒng)意義上的人際信任之外,還涉及人對人工智能以及人工智能系統(tǒng)間的信任。關于這種信任的哲學考察,可以借助信任的表征——可信任來進行。即通過可信任來解碼人與人工智能的關系,描繪人工智能倫理的未來圖景。但這種描繪是否有效呢?對此,本文將從倫理旨趣、存在邏輯、實現(xiàn)途徑三個方面,解析可信任人工智能何以可能,以推進人工智能向善。
對人工智能未來發(fā)展圖景的倫理描繪是人工智能技術的發(fā)展目標與倫理觀念的有機融合。因此,人工智能的倫理問題研究既應包括對現(xiàn)有倫理問題的哲學反思,也應涵蓋對技術未來發(fā)展的一種框定。這種反思與框定源自人類對技術倫理旨趣的審度。如,歐盟委員會在其所發(fā)布的“可信任人工智能的倫理框架”中,以追求人性和善、謀求人類福祉和自由的目標為導向,對人工智能信任機制建立的原則與路徑進行了詳細闡述,進而確??尚湃稳斯ぶ悄艿膶崿F(xiàn)。因此,該框架的出發(fā)點不是對人工智能的發(fā)展是否需要倫理進行探討,而是指向人工智能需要以何種倫理為框架,以及如何實現(xiàn)其倫理目標。該框架的目標主要是為促進和確保人工智能的發(fā)展能合乎倫理,并為實現(xiàn)技術方面的穩(wěn)健性提供指南。
就可信任而言,吉登斯在其關于抽象體系中的信任解讀中,將可信任(trustworthiness)分為“建立在彼此熟悉的個人之間和基于很長時間了解,從而互相從對方的眼中看出可信度證據的個人之間”兩類。這兩類主要在于人與人之間,而“可信任人工智能的倫理框架”中所言的可信任已經超出上述兩類,將可信任延伸到了技術之中。這種延伸一方面體現(xiàn)了基于主客體二元對立的視角,由作為主體的人對作為客體的技術所進行的信任度預判;另一方面則體現(xiàn)了新技術所蘊含的能動性對傳統(tǒng)信任產生的條件、語境等的沖擊。依據弗洛里迪和桑德斯關于人工道德行動者的判別標準,面對諸如自動駕駛等對人類行為所產生的助推、導引,甚至規(guī)約與牽制等現(xiàn)象,人工智能已經呈現(xiàn)出行動者所應具有的諸多特質,并和人一樣參與到道德的構建之中。
反觀該框架所言的“可信任人工智能”,其包括人對技術的態(tài)度和技術本身的可信任兩個維度。其中,技術自身的可信任,即技術的穩(wěn)健性既是獲得人對其信任的技術保障,也是人對其發(fā)展目標的預設。因此,可信任是人類對人工智能發(fā)展旨趣的倫理訴求,也是其本身所應遵循的倫理原則。
毫無疑問,可信任人工智能的構建發(fā)端于人對技術倫理旨趣的審度,但技術的能動性又將人類的倫理旨趣與技術自身的發(fā)展邏輯關聯(lián)在一起。如果說卡普的器官投影說是將技術與人之間進行了物化層面的關聯(lián),那么,伴隨新興技術的涌現(xiàn),這種關聯(lián)已經不僅僅是將人的功能進行物質性的外化,而是走向了技術對人的嵌入式內化,并出現(xiàn)了主體客體化與客體主體化的跡象。如果說對技術價值中立說的質疑揭示出了技術與倫理之間的內在關聯(lián)性,那么,將技術道德化的嘗試則是基于技術能動性而走向技術對倫理的塑型與構建;倫理輔助性設計的出現(xiàn)則意味著人類的倫理觀念已經被嵌入到具體的技術實踐之中。
當下智能體、深度學習、人機融合等的發(fā)展,使得人類社會的泛智能化日趨普遍,人與技術的關聯(lián)也日趨內化。這種內化體現(xiàn)為技術越來越逼近人的本質。在人與技術共在的語境中,人自身的本質與技術的本質進行著倫理維度的構連。這種構連表現(xiàn)為人對技術的倫理審視與技術對人類倫理觀念的調節(jié)兩個方面。但無論是這種構連的哪個方面,都涉及人對技術的信任度。然而,無條件的懷疑與無條件的信任一樣都不是人與技術共同應有的合理方式。
對可信任人工智能的存在邏輯及其合理性的解析,首先需要對人工智能信任的合理性展開探討。若對其信任是不合理的,則其可信任性也就無從談起,可信任人工智能倫理框架的構建也將是無意義的。而對其信任是否合理的追問,則需要先對其何以產生進行考察。因為如果沒有產生信任人工智能的語境,對其信任的探討也就不存在。
(一)人工智能信任的語境。從產生的維度來看,傳統(tǒng)意義上的信任是委托者(人)與受托者(人)之間的某種關聯(lián),其“產生于心理系統(tǒng)和社會體系影響的交互之中”,是“減少復雜性的一種有效方式”。事實上,信任的產生可以是目標導向性的,即A和B有一個共同的目標C,但A和B之間本來無信任可言,但鑒于C目標,A和B產生了某種信任,但這種信任并非是A認為B是值得信任的,或者B認為A是值得信任的;信任的產生也可以是任務導向性的,如A需要完成任務,而B有完成任務C的能力,進而產生了A對B的某種信任,這種信任可以是A對B具有完成某種能力的信任,也可以是A對B的整體性信任。但無論是目標導向性還是任務導向性,信任所表達的是“一種態(tài)度,相信某人的行為或周圍的秩序符合自己的愿望。它可以表現(xiàn)為三種期待:對自然與社會的秩序性、對合作伙伴承擔的義務、對某角色的技術能力”。
在智能革命的背景下,人類對人工智能有所期待,且這些期待伴隨人工智能的發(fā)展已經在人類社會中逐步被現(xiàn)實化,并呈現(xiàn)出代替人類某些能力的趨勢。如基于人工智能系統(tǒng)的導航、自動識別、安防等的研發(fā)與應用。與此同時,人工智能以人類合作伙伴的形式參與到人類事物中,與人類共同承擔某種義務,完成某個任務。即人類對其承擔的義務有所期待。如基于人工智能系統(tǒng)的兒童看護、情感交流等的研發(fā)與應用等。因此,人工智能與人的深度融合提供了產生信任的語境,但上述這些現(xiàn)象是否可以被稱作是信任呢?
(二)人工智能信任的出場方式及其存在的判別依據。一般而言,信任的出現(xiàn)需要滿足“(1)行動者(agent)之間的直接交互;(2)在交互環(huán)境中,有共同的規(guī)范和倫理價值觀;(3)參與交互的各個部分是可以識別的”這三個條件。但在新技術發(fā)展的背景下,非直接交互的信任開始出場,如電子信任。因此,應重新審視信任存在的判別依據。塔迪歐在其關于電子信任的論述中,指出上述三個條件并不能成為數字環(huán)境中存在電子信任的障礙。同樣地,依據上述三個條件以及對電子信任的判別,在人工智能的環(huán)境中,人與人工智能之間的交互與在數據環(huán)境中一樣,真實存在卻并非完全直接的物理式,且可識別;就共同的規(guī)范和倫理價值觀而言,阿西洛馬人工智能原則、人工智能合作組織原則等都是對此的響應。
因此,通過對信任出現(xiàn)條件的解析可得出:人工智能已經呈現(xiàn)了基于任務導向和目標導向的信任意蘊,雖然這與傳統(tǒng)意義上的信任以及電子信任的出現(xiàn)條件有所不同。但無論如何,當人工智能以(準)智能體的形式展現(xiàn)出其完成任務、實現(xiàn)目標的能力時,毫無疑問,一種策略性信任也隨之而至。這種源自人類對人工智能的期望,以及人類與人工智能的交互之中所產生的某種信任,恰恰也就是吉登斯所言的與知識體系、專家系統(tǒng)、抽象系統(tǒng)打交道的過程中所產生的信任。然而,這樣的信任是否合理呢?
(三)反思人工智能可信任存在的合理性。當人工智能創(chuàng)建了信任得以產生的可能條件,并在與人類的交互中呈現(xiàn)出某種關聯(lián)性的信任時,是否就意味著默認了技術信任的合理性?事實并非一直如此,哲學一直在對此展開反思。
伴隨基于技術啟蒙與技術理性的現(xiàn)代性,“外界對科學和技術知識的態(tài)度又具有某種心理。這種矛盾心理居于所有信任關系——無論是抽象體系還是對個人的信任關系——的核心”。這種矛盾心理源自人類對技術的依賴以及對這種依賴的反思。然而,從現(xiàn)實主義的視角來看,人必須依賴社會。社會以協(xié)作、分工、互助這三種方式對人的缺陷進行了補救。在這種補救中,技術作為人類需要的一種表征進入到對這些需要的緩和之中,并成為人類社會的一種必備品。因此,無論人類對技術的信任是否合理,技術已經成為人類在世的方式,并參與到了人類的事務之中。與此同時,對技術的某種信任也悄然而至。但這并不意味著技術必然是可信任的,也并不意味著對其的信任就是合理的,對其的哲學思考是徒然的。恰恰相反,對實然問題的思考是哲學的應有之義,且對這種既有現(xiàn)實的思考是通向應然性的一條有效進路。但與以往技術不同的是,人工智能對人類事物的參與是以可植入的方式進入到與人的深度融合之中,其所呈現(xiàn)出的實然問題,與其說是亟需展開人類對技術信任問題反思,倒不如說是亟需展開人類對自身信任問題的反思。因為當我們說“可信任人工智能”包括人類對人工智能的信任和人類對自身的信任兩個方面時,事實上,這兩個方面歸根到底是人類對自身所制造產物是否可以有效應對的解答,即關于可信任人工智能實現(xiàn)途徑的探討。
在歐盟的“可信任人工智能的倫理框架”中,將信任視為人工智能發(fā)展的前提條件,但這種信任并不是機器的一種特性。事實上,信任不僅僅在于人工智能系統(tǒng)是合乎法律的、合乎倫理的和穩(wěn)健的,還在于信任可被歸因到與人工智能全生命周期中相關的每個人和每個過程。因此,對人工智能信任的考察應當走出外在主義的立場與批判主義的情結,走向倫理學的后思式批判功能與前思式導引功能有效整合,從內在主義與外在主義的融合之中,展開對可信任人工智能實現(xiàn)途徑探討。
就該框架的構建邏輯而言,其依據概念闡述、路徑解析、判別依據界定三者之間的遞進層級關系,闡述可信任人工智能的實現(xiàn)途徑。其中,該框架關于可信任人工智能組成部分的厘清、其所需必要條件的闡釋為后續(xù)其構建的展開框定了邊界。關于技術和非技術兩個方面的構建路徑解析為如何走向可信任提供了實踐維度的保障。即通過技術維度的可信任與倫理維度的可信任來確??尚湃稳斯ぶ悄艿膶崿F(xiàn)。其中,技術維度的可信任是倫理維度可信任的基礎與保障,倫理維度的可信任是技術發(fā)展的主旨與目標;而關于可信任人工智能關鍵條件的解碼則為可信任的判定提供了可供參考的標尺。
就該框架所提出的構建路徑而言,其所提出的技術方法和非技術方法這兩個維度,與其關于可信任人工智能組成部分厘清的邏輯一致。上述方法旨在滿足可信任人工智能的七個必要條件。這七個必要條件是基于基本權而產生的人工智能系統(tǒng)倫理框架的倫理律令,即人類自治、不傷害、公平和可解釋性為基礎而提出的。該倫理律令兼顧了通用倫理原則和人類智能倫理的特殊性兩方面。其中,前三項為技術倫理學的通用原則,而可解釋性則是直接指向人工智能倫理,并被視為構建用戶對人工智能信任的關鍵所在。由人工智能系統(tǒng)的不可解釋性所帶來的不確定性而引發(fā)的焦慮與恐懼,是對其質疑的核心所在。因此,人工智能倫理的構建必須對不可解釋性進行解碼。雖然人工智能系統(tǒng)中算法和模型黑箱使得基于其所作出決策的可信任(即信任度)遭遇質疑,但這并不意味著其不可解釋。
這種構建路徑將可信任置于技術、設計與倫理的調節(jié)之中,通過設計走向倫理的構建。但類似于甘貝特對我們能否信任的追問一樣,我們該如何正確看待“可信任人工智能”中的可信任呢?若我們不能正確地看待可信任,則會降低該框架的實踐效用。因此,該框架雖然闡述了實現(xiàn)可信任人工智能的有效方式,卻未指出看待可信任的正確方式。
信任是人類基于相關倫理規(guī)則,對不確定性以及風險作出的主觀判斷,是一方對另一方的態(tài)度。就人工智能而言,這種判斷不是直接發(fā)生在人際之間,而是發(fā)生在人與技術的交互之中。一般意義上,人與技術之間的信任可以還原為人與人之間的信任,但這種還原是基于人對技術有能力掌控的前提下。因此,可信任人工智能作為人類對其的一種倫理訴求,與其相對應的是不可信任的人工智能。但可信任人工智能不是走向盲目的信任,也不是將不可信任盲目地遮蔽,而應當是:
1.基于有效監(jiān)督的可信任。雖然人際之間最理想的信任模式是受托人在委托人不監(jiān)督的情況下完成任務,但人與人工智能之間的信任則恰恰需要有效監(jiān)督,以避免造成對人類基本權的傷害。雖然技術維度的透明性與可解釋性等有助于提升人工智能的信任度,但人類的有效監(jiān)督是人工智能之所以被視為可信任的根源所在,因為可信任究其本質而言,是人類對其的一種價值評判。
2.基于動態(tài)視角的可信任??尚湃问腔谌祟悓θ斯ぶ悄艿膫惱碓V求而對技術未來發(fā)展作出的框定,關于其判別標準是基于通用倫理原則的框架而制定的,但這些標準并非靜態(tài)的意義完全枚舉,而是動態(tài)式的開放體系。因此,應當基于技術的發(fā)展與應用來審視可信任的判別標準。
3.基于批判視角的可信任??尚湃伪旧砭褪菍Σ豢尚湃?、信任以及錯誤信任等的批判性思考,進而,對可信任本身也應當持有審慎的批判態(tài)度,而不是非此即彼式的斷然。特別在人工智能與人機交互和深融合情境中,不能因技術的強勢性、便利性而忽視其風險性以及人的主體性;也不能因其巨大潛能所蘊含的不確定性而忽視其給人類社會所帶來的益處。因為可信任本身就包含著期望、焦慮、承諾與風險。
在人工智能與人的合作中,諸如由人工智能對人類決策行為的多層級介入,出現(xiàn)了輔助性、導引性,甚至牽制性等多種合作模式,特別是導引性與牽制性的合作模式,帶來了新的信任問題與信任模式,并將信任的邊界不斷拓寬,而這種拓寬亟需人類為其設定邊界。因此,信任邊界的重新界定,以及人與技術之間信任的重新解析成為人工智能倫理構建研究的新論域。
該框架將可信任作為一種人工智能未來圖景的倫理描繪,并為人工智能時代的人與技術深度融合提供了有效的倫理導引,但其所擱置或排除的問題恰恰是人工智能倫理構建必須面對的終極問題。即當該框架對信任的邊界進行拓寬時,信任邊界的設定問題即該框架的局限性也隨之而來。
因此,可信任作為人工智能未來發(fā)展圖景的一種有效描繪,應當是在厘清信任邊界的前提下,界定其概念的內涵與外延,指出可行的構建路徑,制定合理且有效的判斷標準,并以理性的方式對待可信任,進而確??尚湃稳斯ぶ悄艿膶崿F(xiàn)。