王 天 恩
(上海大學 社會科學學部,上海 200444)
由于人工智能倫理不僅包括人工智能與人類的倫理關系,而且越來越涉及人工智能本身的倫理問題,更具整體性的探索必須深入到智能算法層次。在智能算法層次,倫理不再是涉及特定領域的問題,而是越來越呈現(xiàn)為一個貫穿整體的維度。在人工智能算法層次,倫理問題所涉及的已經不是與智能體的理解能力甚至核心機制相分離的單純倫理領域,而是與人工智能算法包括核心機制及其進化甚至機器智能體的存在性基礎一體化的倫理維度。
人工智能倫理維度的最深層次就是智能算法倫理。人工智能本身倫理問題的更深入討論必須切入智能算法層次,從人工智能倫理的算法根源開始。
人工智能發(fā)展所引發(fā)的倫理問題可以大致劃分為兩種基本類型:一是通用人工智能發(fā)展給人類帶來的存在性風險引發(fā)的倫理問題;二是專用人工智能引發(fā)的技術性倫理問題。專用人工智能引發(fā)的倫理問題又可以分為兩類:專用人工智能的算法設計和應用倫理。算法的倫理問題作為人工智能的核心機制領域不僅貫穿專用人工智能倫理和通用人工智能倫理,而且隨著其發(fā)展而將倫理維度不斷引向深入,隨著其自主性的發(fā)育發(fā)展,算法發(fā)展到智能算法階段。
由于具有從單純的工具到逐漸出現(xiàn)自主行為的發(fā)展過程,作為以智能算法為核心的智能體,人工智能和開放環(huán)境之間的相互作用可能產生設計時不可能預料到的結果,這就會帶來兩方面的困難:一方面,即使程序員做對了每件事,人工智能的本域特定行為也可能是不可預測的;另一方面,系統(tǒng)安全性的驗證成為更大的挑戰(zhàn),因為我們必須驗證系統(tǒng)正在嘗試做什么,而不是能夠在所有操作語境中驗證系統(tǒng)的安全行為[1]。隨著智能算法自主性的發(fā)展,這種情況會越來越突出。對人工智能行為預測和驗證的兩方面困難越來越清楚地表明,必須深入到人工智能倫理的算法根源。
從新一代人工智能發(fā)展看,倫理的算法根源可以追溯到大數(shù)據(jù)處理。人工智能的倫理問題根源于從大數(shù)據(jù)處理到作為智能體自主行動整個過程所涉及的智能算法。在相應的大數(shù)據(jù)處理過程中,倫理問題主要出現(xiàn)在三個時間節(jié)點:當大數(shù)據(jù)移到一組選定的變量時、當選定的數(shù)據(jù)移到由算法或倫理研究產生的結果時以及當這些結果移到明確的行動計劃時[2],而當這三個節(jié)點的控制由算法執(zhí)行,算法設計便具有重要倫理意蘊。
智能算法對大數(shù)據(jù)的處理是人工智能倫理問題產生的起點,由此開始了智能算法倫理的發(fā)展進程。從智能算法倫理的發(fā)展可以看到倫理的不同算法根源及其分布,從而有助于進入算法倫理的系統(tǒng)和更深層次把握。
在智能算法自主性越來越強和算法倫理層次越來越復雜這一發(fā)展形勢下,最近一項關于算法倫理的綜合性研究——基于倫理算法根源——提出了一個“算法倫理圖譜”(ethics of algorithms map),為討論智能算法倫理提供了一個概念框架,在此基礎上可以更好診斷和應對智能算法的倫理挑戰(zhàn)。從智能算法的層次看,這一概念框架正是主要關注(半)自主智能算法,涉及三種相互關聯(lián)的情況:圖譜將所涉及算法用于(a)將數(shù)據(jù)轉化為給定結果的證據(jù)(從而結論),然后將這一結果用于(b)觸發(fā)和激勵一種(就其本身而言,或當與其他行動相結合時)在倫理上可能不是中性的行動,這項以復雜和(半)自主方式進行的工作使(c)算法驅動的行為效果的歸責復雜化。也就是說,智能算法發(fā)展到一定階段,可以具有自主性,因此能以自主或半自主的復雜方式觸發(fā)和激勵自主行動,從而產生倫理非中性而難以歸責的復雜行為。由此,這個概念框架從根源層次展開了算法的整個譜系,構成了一個“算法倫理圖譜”,確定了產生于智能算法使用的五種倫理關切:三種“認知關切”(epistemic concerns)和兩種“規(guī)范關切”(normative concerns)。在這五種倫理關切之外,再加上“可追蹤性”(traceability),實際上是從算法根源劃分人工智能倫理問題的六個方面。
在這個智能算法倫理圖譜中,三種“認知關切”包括“非決定性證據(jù)”(inconclusive evidence)、“難以理解的證據(jù)”(inscrutable evidence)和“誤導性證據(jù)”(misguided evidence)?!胺菦Q定性證據(jù)”源自更與符號主義進路相關的統(tǒng)計性;“難以理解的證據(jù)”主要源于解釋機器學習算法使用的內在困難,這些困難存在于許多數(shù)據(jù)點中每一數(shù)據(jù)點所起作用上,包括導出結論、導致原則和實踐限制;“誤導性證據(jù)”則主要源于數(shù)據(jù)的關聯(lián)誤解,這種關聯(lián)發(fā)生在數(shù)據(jù)和其不能說明的問題之間,數(shù)據(jù)共享給這種誤導提供了條件。“規(guī)范關切”包括“不公正結果”(unfair outcomes)和“轉化效應”(transformative effects)?!安还Y果”來自算法的倫理評價,“轉化效應”所關注的則是智能算法結果的影響。算法可以影響我們如何使世界概念化,并改變其社會和政治組織。類如形塑過程的算法活動,通過以新的、意想不到的方式理解和概念化世界,并根據(jù)它所產生的直覺觸發(fā)和激勵行動重新本體化世界[3]?!稗D化效應”延伸到智能算法所導致倫理問題的后續(xù)效應,“可追蹤性”則追溯到智能算法執(zhí)行之前,這已經完全導向智能算法層次的倫理問題性質,六個方面構成了人工智能倫理問題的算法根源甚至是機制圖譜。
深入到算法根源的倫理圖譜,為更深入理解人工智能體發(fā)展的倫理維度提供了更直接的基礎。在智能算法自主性發(fā)展及其相應倫理根源的基礎上,可以大大深化關于人工智能倫理算法根源的理解。
關于人工智能倫理的算法根源,算法歧視的產生最為典型。通過實際案例分析,普林斯頓大學的弗里德曼(Batya Friedman)和尼森鮑姆(Helen Nissenbaum)對計算機系統(tǒng)的偏見及其根源作了系統(tǒng)研究,認為發(fā)展出了先前存在的偏見、技術的偏見和涌現(xiàn)的偏見三類:先前存在的偏見根源于社會制度、實踐和態(tài)度,技術的偏見源于技術上的限制或考慮,涌現(xiàn)的偏見產生于使用的語境[4]。埃里克·戈德曼(Eric Goldman)的研究表明,偏見可能產生于在技術產生的“社會制度、實踐和態(tài)度”中發(fā)現(xiàn)的預先存在的社會價值、技術限制以及使用語境涌現(xiàn)的方面。社會偏見可以被個別設計者有目的地嵌入到系統(tǒng)設計中,例如,可以在搜索引擎索引和排名標準的手動調整中看到[5]。如果做一個大致概括,算法歧視不僅源自設計者和使用者的偏見,而且源自作為根據(jù)的算法邏輯,因此算法歧視有兩種基本類型:一是源自算法設計者成見的算法歧視;二是源自算法邏輯的算法歧視。
算法決策和數(shù)據(jù)權重設置導致的算法歧視一般都屬于源自算法邏輯的算法歧視,這方面的實例在應用中越來越多。針對男同性戀約會應用程序Grindr的GooglePlay商店頁面,被作為確定用戶是否生活在性行為罪犯附近的類似應用程序推薦;Flickr的自動照片標記暗示非裔美國人的臉標記為“猿”;搜索非裔美國人的名字更有可能出現(xiàn)暗示此人有被逮捕記錄的廣告[6]。這些都屬于無意產生的歧視,關于其根源,有研究做了系統(tǒng)總結:算法歧視可以有不同來源。首先,在算法決策中輸入數(shù)據(jù)的權重可能很低,從而導致不同的影響。例如,作為一種間接歧視形式,預見性警務算法中過分強調郵政編碼可能會導致低收入的非裔美國人社區(qū)與犯罪地區(qū)相關聯(lián),并因此而采用基于群體成員身份的特定目標。其次,使用算法本身的決定可以引發(fā)歧視。分類可以被視為直接歧視的一種形式,在這種情況下,算法被用于完全不同的處理。再次,算法可能因在不同情況下誤用某些模型而導致歧視。最后,在反饋循環(huán)形式中,有偏差的訓練數(shù)據(jù)既可以作為算法使用的證據(jù),也可以用來證明算法的有效性[7]。由此可以看到的更深層次內容則是:機器倫理的問題事實上與人工智能算法的發(fā)展、智能算法的進化機制問題“合二為一”。作為這一點的表現(xiàn)就是從專用人工智能到通用人工智能的發(fā)展問題,在這里,不再存在傳統(tǒng)學科中單純的倫理領域,而是只能看到一個整體存在的倫理維度,這一點,隨著智能算法自主性的發(fā)展越來越明顯。
作為倫理維度,算法的倫理問題隨著人工智能的應用越來越普遍,而智能算法的根本倫理問題歸根結底是由其自主性引發(fā)的?,F(xiàn)代人工智能和機器人系統(tǒng)的特點是高度自治和不斷提高的自主性,同時,它們在自動駕駛、服務機器人和數(shù)字個人助理等領域的應用也越來越接近人類。從這兩種發(fā)展的結合中產生了“人工智能倫理學”研究領域,在這一領域,人們認識到自主機器的行為包含道德維度,并試圖回答我們如何構建道德機器的問題[8]。道德機器概念的提出意味著智能機器與人類一樣是倫理主體,進而其可以發(fā)展成為與人類倫理學一樣的學科,正是由此,人們提出了人工智能倫理學。
人工智能倫理學可以理解為研究人工智能倫理問題的學科,也可以理解為人工智能研究的倫理維度。前者是關于人工智能的傳統(tǒng)倫理學研究,而后者則屬于科學和哲學一體化的倫理維度研究,這絕不僅僅是關于人工智能倫理學的狹義和廣義理解,而是涉及科學和哲學甚至更廣范圍的重大范式轉換,涉及兩種層次不同的研究致思。隨著智能算法的發(fā)展,倫理維度的研究越來越重要,這不僅是因為倫理研究關乎人工智能發(fā)展所導致的存在性危機及其人類應對,而且直接關系到通用人工智能的研究進路,這也是為什么隨著人工智能的發(fā)展,相關倫理問題具有與以往完全不同性質的原因。正是在智能算法的發(fā)展本身,可以看到人工智能倫理問題的算法源起和發(fā)展,從而為深入系統(tǒng)研究智能算法的倫理屬性奠定前提性基礎。
隨著算法的智能化發(fā)展,人工智能算法的倫理屬性將經歷一個從人類投射到自身發(fā)育的過程。隨著本身智能程度的提升,算法會被賦予一定的任務,從而表現(xiàn)出行為的目的性,這是人工智能算法的屬人倫理屬性。目前,公眾討論所關注的焦點是一類特定的決策算法,例如,在特定情況下采取最佳行動、對數(shù)據(jù)的最佳解釋等,涉及數(shù)據(jù)和規(guī)則,增加或取代人類的分析和決策[3]。由此所涉及的主要還是人類倫理屬性的人工智能映射,而自身倫理屬性的獲得使智能算法倫理進入了一個倫理發(fā)展的全新階段。只有具有自身需要的智能算法,才可能具有自身的目的性;而只有具有自身目的性的智能算法,才可能具有類人倫理屬性,因此人工智能算法的倫理屬性由人工智能設計中體現(xiàn)人類需要和目的的算法賦予,并最終與智能算法的發(fā)展特別是自主進化密切相關。
早在人工智能研究之前,算法就已經經歷了一個漫長的過程。“算法”一詞源自公元9世紀撰寫《印度計算法》(Algoritmidenumeroindorum)一書的波斯數(shù)學家穆罕默德·穆薩·花拉子米,“花拉子米”(al-Khuwārizmī)一名就成了“算法”(algorithm)一詞的來源[9]。隨著人工智能的發(fā)展,算法發(fā)生了根本變化。在一開始,任何程序或決策過程,無論定義多么糟糕,都可以在媒體和公共話語中被稱為“算法”[10]。算法可以是解決數(shù)學問題的運算步驟,甚至可以泛指解決問題的進程,但自從與智能相聯(lián)系,就有了可以自己執(zhí)行的智能算法。一旦具有自己執(zhí)行的能力,智能算法的倫理屬性便隨即開始生成,而當智能算法開始自主進化并構成一個類群,機器智能就將逐漸獲得自己的倫理屬性——智能算法本身的倫理屬性。
智能算法本身倫理屬性的逐漸獲得與人類構成了復雜的倫理關系,這屬于一個新的研究領域——筆者稱之為“智能倫理”,限于篇幅只能另文展開,本文主要討論人為設計到自主進化智能算法的倫理屬性。
在自主進化之前,智能算法所具有的只是屬人倫理屬性,這是人類倫理屬性的人工智能映現(xiàn),因此,算法設計會是越來越價值敏感的,算法設計領域甚至已經有了“價值敏感設計”(Value-Sensitive Design,VSD)的概念。
如果說,智能算法的價值負載開始都是無意識的,“價值敏感設計”則是有意識地納入價值因素。價值敏感設計方法可作為一種工程教育工具(包括但不限于計算機工程),以彌合技術設計考慮與通過人類價值表達的倫理關切之間的差距。價值敏感設計以道德認識論為基礎,通過一種考察概念、經驗和技術問題的迭代三方設計方法,說明設計過程中的人類價值[11]。算法創(chuàng)構應當是價值敏感的,即對所創(chuàng)構的算法具有清醒的價值意識。由于價值意識受著見識的極大影響,這又與道德想象力的未來把握密切相關。道德想象力是一種力量,它迫使我們將最高可能的現(xiàn)實和最大可想象的要求賦予一個不是我們自己的思想、行為或人,并且不以任何明顯的方式接近我們[12]。對于道德想象力來說,越來越關鍵的是把握未來的能力,即未來把握力,因為一個行為是否符合道德,在越來越大程度上取決于對未來發(fā)展的預見,一種行為眼前看可能是道德的,但長遠看卻也許恰恰相反。如果說這一點在以往還不是那么引人注目,那么在智能算法設計中,倫理后果未來預見的重要性則達到了無以復加的程度,它以越來越大權重決定智能算法的倫理屬性。
關于人工智能算法的倫理屬性,可以通過算法歧視得到最具代表性的說明。目前所謂算法歧視,既有設計者無意導致,也有設計者或使用者有意為之;既可能產生于偏見,也可能產生于智能算法設計的合理性等因素。許多文獻討論到歧視是如何從有偏見的證據(jù)和決策中產生的,而一些社會偏見可能是無意的、更廣泛的文化或組織價值觀的微妙反映,例如,機器學習算法從人類標記的數(shù)據(jù)中訓練,不經意地學會反映標記者的偏見。幾乎在所有算法設計環(huán)節(jié)都可能導致無意歧視,分析可以無意中創(chuàng)建一個證據(jù)基礎導致歧視[3]。分析環(huán)節(jié)都可能這樣,由于具體條件抽離的根據(jù)和方式等,涉及概括的抽象描述可能更是如此。在智能算法中,無論用以訓練的數(shù)據(jù)還是算法本身及其使用都可能造成偏差。一方面,算法組織系統(tǒng)中毫無疑問存在偏見;另一方面,算法反映了程序員和數(shù)據(jù)集的偏見。一方面,算法依賴的數(shù)據(jù)往往是有限的、不足的或不正確的[13];另一方面,偏差意味著不可靠,“垃圾進,垃圾出”(Garbage in-Garbage out)是對低質量數(shù)據(jù)輸入導致數(shù)據(jù)輸出不可靠的通俗說法[14]。這充分說明在偏差導致歧視等算法倫理方面,智能算法與大數(shù)據(jù)基礎存在內在關聯(lián),因此,對歧視的關切已開始在關于大數(shù)據(jù)倫理的討論中生根,這并不奇怪[15],而且,智能算法造成的偏差不是在數(shù)據(jù)造成的偏差基礎上的簡單疊加,在智能算法設計的可能偏差基礎上,數(shù)據(jù)造成的偏差可能還會放大,產生不確定關系。人們日益認識到,用于促進各種操作的算法可以再現(xiàn)或造成偏差,這可能是因為算法的訓練數(shù)據(jù)集本身在某種程度上有偏差,或者因為算法本身的操作產生了偏差。在涉及人工智能缺乏透明度的地方,這將是一個特別困難的問題[16]。由此可見大數(shù)據(jù)基礎上智能算法的復雜性,從而看到這種復雜性基礎上智能算法的倫理屬性。
從算法的發(fā)展看,所謂“算法歧視”在不同階段可以有不同性質。在專用人工智能算法中,由于歧視主要源自設計者的無意疏忽或有意偏見,因而只是源于設計者,而不是算法本身的歧視,確切地說屬于算法產生的不公正現(xiàn)象,還不是真正意義上的歧視。只有當發(fā)展到通用人工智能,智能算法開始具有自主進化的能力,才會出現(xiàn)真正意義上的算法歧視。隨著智能算法自主性的發(fā)展,會出現(xiàn)智能算法自發(fā)形成的歧視。
智能算法自發(fā)出現(xiàn)的歧視最初是從人類學來的。研究表明,人工智能可以從人類語言數(shù)據(jù)中習得偏見,因此在智能算法設計中,作為智能算法前提性基礎,數(shù)據(jù)等條件的長遠考慮具有越來越重要的地位,而其中最為根本的則是智能算法設計中的前提性預設,這與智能算法的人類理解密切相關。
算法偏見還與算法輸出的人類理解和解釋有關,算法的輸出也需要解釋(例如,一個人應該根據(jù)算法的要求做什么),對于行為數(shù)據(jù),“客觀的”相關性可以反映解釋者的無意識的動機、特定的情感、深思熟慮的選擇、社會經濟決定、地理或人口影響。用這些術語中的任何一個來解釋相關關系都需要額外應證——在統(tǒng)計模型中,意義并不是自明的。不同的度量標準使個體和群體的某些方面可見,而其他方面則感覺不到,因此,不能假定觀察者的解釋正確地反映了行為者的覺知,而不是解釋者的偏見[3]。這是人類偏見在專用人工智能算法中起作用的方式,而在通用人工智能算法中,人類的作用方式則主要集中在最為關鍵的前提性規(guī)定環(huán)節(jié)。具體到算法歧視問題,就是必須有前提性規(guī)定層次的算法公正整體觀照。
在智能算法層次,算法公正得到機制性凸顯。算法歧視應當是算法公正的負面反映,可以歸入更高層次的算法公正。智能算法的發(fā)展層次越高,越必須在更高層次考慮算法公正問題,由此所突出的,正是公正的層次性。智能算法的發(fā)展使算法公正越來越復雜,一方面,公正的層次性在智能算法中才得以真正呈現(xiàn);另一方面,公正層次決定了公正的性質,低層次的公正可以是高層次的不公。有典型案例表明:值得注意的是,算法是否公正有時候與人們的直覺并不一致,比如在男女配對的配置算法中,如果規(guī)定只能男性向女性求婚,女性只能同意或者拒絕,那么結果是有利于男性。應該注意的是,這個算法有利于做提議的人(在這種情況下是男人)[17],這無疑是十分耐人尋味的,在婚配中,讓男性主動女性被動符合大多數(shù)文化中尊重女性的觀念,這看上去是公正的,但實際效果卻恰恰相反,“尊重”導致選擇的機會減少,選擇的機會少導致來自“尊重”的不公平,這一案例典型地表現(xiàn)了智能算法公正的層次性及其所帶來的復雜性,它意味著智能算法必須對數(shù)據(jù)等足夠敏感,因此在智能算法中,廣泛采取了一種稱為“敏感數(shù)據(jù)”的視域,敏感數(shù)據(jù)不僅包括那些明確命名的變量,而且包括與它們相關的任何變量[15]。由于隨著變量的增加和關系的復雜化,變量之間關系的把握會遇到“組合爆炸”,而“組合爆炸”意味著人類面臨不可能把握所有具體關系的形勢。智能算法設計之所以具有這么高度的價值敏感性,主要因為算法不僅非常敏感地涉及公正和歧視,而且涉及透明性和可解釋性,特別是責任鴻溝問題,從而涉及人工智能算法的倫理原則。
從長遠看,在當代發(fā)展中,人工智能發(fā)展對人類的倫理挑戰(zhàn)不僅最為嚴峻而且最為系統(tǒng),系統(tǒng)研究人工智能的倫理原則,隨著智能算法的發(fā)展越來越迫切。
在指導人工智能的開發(fā)和使用方面,在集大成基礎上,微軟最近系統(tǒng)定義了六項倫理原則,以確保人工智能系統(tǒng)公平、可靠、保護隱私、包容、透明和負責等。2018年微軟發(fā)表的《未來計算》一書,認為現(xiàn)在已經有可能開始定義六項倫理原則,以指導人工智能的開發(fā)和應用,這些原則應確保人工智能系統(tǒng)是公平、可靠和安全的,保護隱私和有保障的,包容、透明和可問責的[18]?!段磥碛嬎恪匪婕暗臍w根結底主要是智能算法,這是從智能算法發(fā)展長遠著眼的必然結果,其所系統(tǒng)化的六項原則也是對相關領域研究具有代表性的概括產物。
在這一人工智能開發(fā)和應用的倫理原則系統(tǒng)中,可以大致看到三個層次:一是標準,包括公平和包容;二是基礎,包括可靠、安全、隱私保護和保障;三是前提,包括透明和可問責。
在標準層次,“公平”處于六項原則之首。為了確保公平,需要通過培訓,使人理解人工智能結果的含義和影響,彌補人工智能決策中的不足。公平問題源自人工智能具有某種程度的自主或設定選擇的能力或功能,與前提性規(guī)定的設置有關。公平和包容密切相關,前提性預設同樣涉及包容問題,包容所涉及的仍然是規(guī)定設置的合理性。為了確??煽啃院桶踩?,需要協(xié)調好人類過度信賴機器以及機器與人類利益之間沖突的矛盾。
基礎層次的核心概念是可靠,沒有可靠性,安全、隱私和保障都失去基礎。在談到可靠性時,伯朗格(Jérme Béranger)提出了可靠性的概念不直接屬于由新信息和通信技術產生的道德框架,但應由三個定義明確的參數(shù)提供說明:可由培訓期間使用的數(shù)據(jù)通過其組成或資格產生的偏見、算法運行的有效性以及算法的幾率性及其不確定性質和方面[2]。缺乏可靠性基礎,安全性就談不上,同樣,隱私保護和保障必須建立在可靠性基礎之上。可靠性和安全性等不是人工智能所特有的,只是越是層次高的自動系統(tǒng),可靠性和安全性的問題越突出,而隱私等的保障則與智能化密切相關,因而透明性和可責性是人工智能倫理的前提性原則。在目前的專用人工智能研究中,可靠性和安全性都以透明性為前提條件。
前提性層次更為復雜,研究也相應更多。對于專用人工智能算法而言,以透明性為基本前提,因此在現(xiàn)階段,透明性一直是人工智能倫理的重要原則,以至提出了“智能透明”(smart transparency)[3]的概念。在一般算法設計中,要求算法透明不僅重要而且具有合理性。算法不透明,現(xiàn)有關于人工智能算法的其他倫理原則就失去了前提。問題在于智能算法進入自主進化之后,自主進化的智能算法發(fā)展到一定程度,可解釋性就會越來越喪失,從而透明性也就越來越不再可能。
智能算法的發(fā)展必定走向不透明,但關鍵的問題在于:在算法不可能透明的情況下,怎么做到可問責。在智能算法的倫理原則中,最能表明造世倫理性質的“可責性”不在造世倫理層次考慮問題,涉及人工智能的很多責任困境就不可能真正找到出路,特別是所謂“責任鴻溝”[19]困境,這也是因為人工智能的可責問題在更深層次涉及人工智能和人類作為一個整體的最重要關系。
機器學習開啟的智能算法自主性發(fā)展進程帶來了問責的嚴峻挑戰(zhàn)。歸責可能同時指向幾個道德主體,這是在智能算法向自主進化過程中必定出現(xiàn)的問題,在人類智能設計的人工智能自主性不斷增強的過程中,人工智能的應用必定經歷一個責任主體的過渡銜接過程:由智能算法的人類設計者和使用者到完全自主進化的機器智能體。正是在這一過渡銜接階段,必定出現(xiàn)非單一責任主體的現(xiàn)象,而多個道德主體勢必導致復雜的責任關系,因此隨著責任關系的復雜化,在智能算法發(fā)展過程中,責任鴻溝是一個必定要出現(xiàn)的重要問題。
人工智能算法的透明性和可責性原則涉及更為復雜的內容,必須另文討論。上述關于智能算法的倫理原則事實上都具有基礎性質。除了這些基本原則,在智能算法倫理原則研究中還提出了一些操作性原則,這些倫理原則與人工智能算法的倫理規(guī)制更直接關聯(lián)在一起。
提出人工智能算法操作性倫理原則的典型代表,當屬伯朗格。在系統(tǒng)研究基礎上,伯朗格提出了四項原則,包括“自治原則”“仁愛原則”“無惡意原則”“正義原則”,在這些操作性倫理原則中,又各自包含若干規(guī)則。伯朗格關于智能算法的四項原則,既是智能算法操作性倫理原則研究最具代表性的成果,也是這一領域的最新研究進展。
在四項原則的基礎上,伯朗格建立起關于智能算法的十二個規(guī)則。倫理規(guī)則的目的是通過將命令強加于個人,在一個組織中建立秩序和社會結構,他們通過完善適當?shù)膫惱矸此伎蚣軄矸乐篃o政府狀態(tài),它們的內容是可調整的,可根據(jù)語境、環(huán)境、空間和時間加以修改。通過以往的歷史-社會-文化,每一個國家都有自己的倫理規(guī)則。通過給倫理原則以具體表達,使其存在于一定的情境和語境中,這些倫理規(guī)則包括一個令人印象深刻的結構內涵,它們是道德方法的調整變量,以應對特定的問題,特別是在數(shù)字世界[2]。自治原則包括兩條主要的道德準則,即:尊重個人,將其視為充分參與決策或行動的行動者;自由意志,特別是與專業(yè)人員的專家自學制度結果有關及在不受外部影響和充分知情的情況下,自由和知情同意。仁愛原則與個別和(或)集體地為個人服務、為個人提供回報和額外利潤、行為的效用和質量聯(lián)系在一起。無惡意原則影響相稱性的道德規(guī)則(因為我們總是在決定優(yōu)劣或損益之間)、結果或行動在中長期的不確定性、預防和預期,特別是對一段時間行為的影響或后果的預期。正義原則與以社會團結而不是個人間互助的方式、行為者的責任以及行動的公平、平等和個人執(zhí)行它的手段聯(lián)系在一起[2]。智能算法的規(guī)制建立在人工智能算法倫理原則和規(guī)則基礎之上,伯朗格基于其智能算法四項原則制定的十二個規(guī)則,為進入具體倫理規(guī)制奠定了系統(tǒng)基礎,正是在這些原則及其所包含的規(guī)則基礎上,伯朗格展開了智能算法規(guī)制的研究。
探討人工智能算法的倫理原則及其所包含的倫理規(guī)則,旨在智能算法的倫理規(guī)制。伯朗格關于人工智能算法的四項操作性倫理原則,為制定相應倫理規(guī)則提供了前提。
面對人工智能算法發(fā)展條件下新的倫理形勢,伯朗格主要訴諸謹慎創(chuàng)新,他認為:這就是為什么必須在創(chuàng)新和謹慎之間找到一種平衡,這些倫理規(guī)則就說明了這一點,難道人們不能想象環(huán)境法模式下數(shù)字風險的責任原則?這一做法將使數(shù)字專業(yè)人員能夠在合法數(shù)據(jù)、個人保護和更廣泛的第三方數(shù)據(jù)權利范圍內受益于這些使用。作為交換,如果他們沒有采取必要的預防措施來避免這種風險,會使他們在受到重大損害的情況下承擔責任,這將導致一個基于賦予行動者責任的雙贏體系,此責任原則意味著算法或其用戶考慮其過程和操作的影響[2]。創(chuàng)新和謹慎之間的平衡固然重要,但這還是表層考慮,當考慮到算法倫理所涉及領域之廣泛時,問題就更為突出。由于主要源于創(chuàng)構活動,人工智能倫理問題的一個特點是涉及面廣,伯朗格也注意到了這一點,這些算法系統(tǒng)的倫理規(guī)則包括所涉及的一系列領域,如個人數(shù)據(jù)保護和隱私保護、法律和監(jiān)管方面、數(shù)據(jù)開放和共享、利益相關者、數(shù)據(jù)來源和算法分析應用以及規(guī)范和協(xié)議、技術發(fā)展、人機界面和接口、通信等。一種稱為“公平”的算法應能考慮到其影響,并適當了解所涉及部門的特點[2]。事實上,智能算法不僅僅是單純地涉及領域廣,而是涉及領域的擴展表明了新的倫理特質,這種具有新特質的倫理問題,需要有新的倫理范式處理。
伯朗格的四項原則不僅基本上是傳統(tǒng)倫理原則,而且主要是關于個體倫理的,這就決定了基于這些倫理原則和規(guī)則在為智能算法的倫理治理提供了理論基礎的同時,又具有特定的局限。由于其傳統(tǒng)倫理致思,受范式局限,伯朗格的算法倫理規(guī)制研究還主要在算法的傳統(tǒng)倫理討論范圍,作為理論基礎的四項倫理原則,正是其傳統(tǒng)倫理致思的特定前提,但是,至少在算法倫理的定性探索中,伯朗格已經達到了研究的前沿,只是隨著人工智能倫理問題的發(fā)展,算法根源的層次展開越來越清晰地表明研究范式轉換的必要性。
隨著人工智能越來越廣泛的應用,在智能算法的倫理規(guī)制中,人們也意識到智能算法倫理的層次變化。由于智能算法在個人生活和社會領域越來越廣泛深入的滲透,智能算法倫理規(guī)制的研究在層次把握的基礎上,內部進路得到更好發(fā)展,越來越接近抓住問題的關鍵。
埃里克·鮑默(Eric PS Baumer)發(fā)現(xiàn),智能算法在日常生活和社會各個層面的普遍滲透使智能算法的倫理思考上升到了更高層次,他由此提出了一種以人為中心的算法設計方案,在基于算法的系統(tǒng)設計過程中引入了人和社會的解釋。以人為中心的算法包括三個具體策略:理論上的、參與性的和思辨性的。理論上的策略(theoretical strategy)揭示兩個重要方面:一方面,理論可以是規(guī)定性的,大多數(shù)數(shù)據(jù)集可能包含大量可能的特征;另一方面,理論可以是描述性的,給定一個算法產生的結果,它們意味著什么?理論可以幫助理清對這種系統(tǒng)結果的潛在解釋。參與性的策略(participatory strategy)最主要的特點是“不會將可能受系統(tǒng)影響的人員作為設計過程的參與者”,而思辨性的策略(speculative strategy)則可以提供一種手段,用以克服我們目前對基于算法系統(tǒng)的看法[6]。從人工智能倫理算法根源的發(fā)展所展開的層次,可以看到只有到實現(xiàn)和配置階段,算法才發(fā)展到智能算法階段,算法倫理才發(fā)展到智能算法倫理,人工智能倫理的算法根源深藏在前提性預設之中,而在智能算法進入自主進化之后,對于作為最初設計者的人類來說,倫理規(guī)制就是關于前提性預設的盡可能長遠考慮了——這就需要層次盡可能高的整體觀照。
算法不僅具有典型雙刃劍性質,而且越是涉及未來眼光越是如此。在伯朗格看來,算法自身具有相互矛盾的性質,它既是巨大希望來源(有用性、最優(yōu)化、科學發(fā)現(xiàn)、速度等),又是重大社會關切(分類、保密和隱私、特征分析以及非人性化等)。因而在人類和智能算法的關系中,這是一個基本事實:關于建造和使用它們的方式,選擇屬于我們。這就是為什么在開發(fā)、實現(xiàn)和使用算法時,似乎有必要強加倫理規(guī)則,然后讓開發(fā)人員和編程者們自己系統(tǒng)地考慮這些倫理規(guī)定[2]。當倫理規(guī)定的選擇屬于我們,我們有充分的選擇權,這時候問題主要在當下的選擇;而當智能算法進入自主進化,選擇權就不再屬于我們,這時候的關鍵則深化到了前提性預設。在這兩種情況下,都涉及眼光遠近,歸根結底需要更高層次的整體觀照,即使在算法歧視這種相對不算嚴重問題的具體倫理規(guī)制中,也是這樣。
為了避免涉及性別、族裔和性向等“敏感屬性”(sensitive attributes)與中性特征無意關聯(lián)而觸碰紅線,羅梅(Andrea Romei)和魯格吉里(Salvatore Ruggieri)提出了觀察分析中防止歧視的四個重疊策略:①控制訓練數(shù)據(jù)集的失真;②通過將其與反歧視標準相結合,修改分類學習算法;③提取分類模型后,對模型進行后處理;④在應用時,對預測進行更正,在受保護和不受保護的群體之間保持決策的相稱性[20]。這是隨著人類智能和機器智能在應用領域的融合而出現(xiàn)的特殊問題,為了讓智能算法為人類謀福利而不是帶來災難,這些問題必須在智能算法的發(fā)展中得到實質性解決,這就進一步凸顯了具體事物認識中整體觀照的地位[21]。這一點,當智能算法設計前提性預設時更為根本,因為算法設計在根本上涉及前提性規(guī)定,包括價值和更基本的預設,這是智能算法倫理研究中的深層次內容。在這些方面,伯朗格做了很重要的工作。
在關于智能算法的倫理研究中,伯朗格概括出“為何、如何及多少”幾個層次的問題,并在此基礎上嘗試建立起智能算法的倫理規(guī)則,他意識到,在建立關于算法的規(guī)則和倫理框架之前,似乎必須提供關于信息價值的概述和規(guī)格,信息價值具體取決于其使用的“為何、如何及多少”,該算法由具有固有基值的數(shù)據(jù)或信息提供。當它用于算法機制或處理的語境時,這個值將被更多地表達出來,并增加和獲得它的全部潛力,這就把問題轉移到超出技術劃分范圍的倫理層面[2]。將價值和規(guī)則相聯(lián)系已經是對價值和規(guī)定的深入思考,不僅涉及價值負載而且包括最基本的前提性規(guī)定,這種前提性規(guī)定也不僅涉及文化,而且還會隨著網絡的發(fā)展在面上擴展。
在伯朗格那里,“為何”最為關鍵,它關系到目的,從而關系到需要及其發(fā)展,而對需要及其發(fā)展的把握則不僅涉及很多很復雜的因素,更重要的是涉及眼光,涉及對未來的把握,因此,“為何”必定導致對文化的質疑。算法依靠新的歸納邏輯形式,使決策和預測的經典模型受到質疑。有了算法,參與者不再局限于所屬數(shù)據(jù),而是向公共和開放數(shù)據(jù)庫開放,特別是通過網絡。的確,作為算法的前提性規(guī)定,不僅廣及全球網絡,甚至深及整個人類的社會潛意識。“如何”則涉及達到目的的手段,涉及技術但絕不純屬技術問題,因為如何達到目的往往涉及合法性和潛在風險等,至于“如何”,更確切地說是關于日常組織的問題。實施是使大數(shù)據(jù)的使用成為可能的基礎,一個企業(yè)應該能夠重新配置和發(fā)展,這取決于這些數(shù)字數(shù)據(jù)教給它什么,因此出現(xiàn)了一系列問題,諸如當異常數(shù)據(jù)流形成(監(jiān)視)時,我們的IT安全系統(tǒng)如何快速通知我?我如何跟蹤自己的數(shù)字數(shù)據(jù)?如何預測圍繞我的數(shù)據(jù)生命周期而產生的負面影響、偏見和風險[2]?而“多少”則涉及隱私侵犯程度等。正是涉及前提性規(guī)定的“為何、如何和多少”,使智能算法的倫理規(guī)制可能深入到更基礎的層次,這與人工智能算法倫理規(guī)制研究發(fā)展的整體進路密切相關。由于涉及前提性規(guī)定,伯朗格關于人工智能算法的倫理規(guī)制主要屬于內部進路。
根據(jù)近年來的研究,關于智能算法的倫理規(guī)制可以大致概括為內部進路和外部進路兩種基本方式。
算法倫理問題解決的內部進路主要適用于解決工具性人工智能的算法倫理問題,在人工智能通用化發(fā)展層次,至少在某些階段,問題的解決必須上升到更高層次。人們意識到:我們感到迫切需要采取行動,讓來自不同領域的研究人員——包括法律、倫理學、政治哲學和機器學習——在現(xiàn)實世界中為不同任務設計、評估和驗證其他公平標準[7]。與此相應,智能算法倫理問題解決的外部進路只適于各類人工智能的算法倫理問題的治理,其標志性特征是監(jiān)管算法。
在某種意義上,監(jiān)管算法進路遵循通過人工智能本身的發(fā)展解決人工智能問題的原則。最近有研究試圖從可預測性入手解決問題,以此從“可預測性走向可驗證的倫理機器人行為”。由于認識到確保自主系統(tǒng)合乎倫理地運作既復雜又困難,研究形成了由“后果引擎”組成的調控器,該引擎評估行動的可能未來結果,然后應用安全/倫理邏輯來選擇行動。關于這一嘗試,進一步的研究發(fā)現(xiàn)存在新的問題:擁有一個外加的“管理者”來評估系統(tǒng)所擁有的選項,并對其進行調整以選擇最符合道德的選項這一想法,既很好理解也很吸引人,但不可能確定最合乎道德的選擇是否真的被采納,因而,在此基礎上,他們又將一種著名的代理驗證方法推廣到其結果引擎,使之能驗證其倫理決策的正確性[22]。這種外加“管理者”的做法,在專用人工智能發(fā)展階段應當是管用的,但隨著人工智能的通用化發(fā)展,“管理者”會漸失其作用和意義,也就是遲早會失效。外部進路只有在與內部進路構成雙向循環(huán)的基礎上,才能充分發(fā)揮應有的作用,人工智能的應用越廣泛深入就越是如此。
關于人工智能倫理的算法根源、倫理屬性以及從倫理原則到規(guī)制的研究取得了很大進展,只是人工智能發(fā)展所引起的越來越多倫理關注主要還是在傳統(tǒng)倫理意義上的。智能算法層次的倫理問題必須更自覺地作為一個貫穿存在和過程整體的維度,在造世倫理[23]層次研究。從智能算法的倫理維度加以系統(tǒng)考察,可以更清楚地看到現(xiàn)有研究提供了重要思想資源,為提升到一個更高層次理解和解決新的倫理難題創(chuàng)造了條件。
在專用人工智能算法的倫理問題中,一些難題在人工智能和人類智能構成的更高層次視野中就可以看到新的出路,這一點在算法歧視問題的理解中最為明顯。由于本身還不具有歧視觀念,在專用人工智能中,還談不上真正意義上的智能算法歧視,而只是算法公平性即算法公正在人類觀念中的反映,因此,在專用人工智能發(fā)展水平的當下,算法歧視問題應當在考慮常規(guī)倫理規(guī)制的同時,更應該在造世倫理層次中加以考慮。在專用人工智能發(fā)展階段,智能算法倫理問題的發(fā)生與到目前為止智能算法語境沒有得到發(fā)育有關。由于人工智能語境發(fā)展的局限,越是在專用人工智能發(fā)展階段,越可能發(fā)生類似歧視等倫理問題。只有人工智能語境得到相應發(fā)展,并與人類語境相融通,才可能在根本上有效避免這些倫理問題的發(fā)生。面對人工智能算法自主性的發(fā)展,人類必須盡早在更高層次關注和研究智能算法的前提性規(guī)定,不是在智能算法自主進化之后,而是現(xiàn)在,越早越主動。
不同于傳統(tǒng)倫理問題,智能算法的倫理規(guī)制需要在新的倫理范式中進行。在人工智能算法的倫理維度,必須在人工智能算法設計等規(guī)律性探索過程中,通過逐步完善智能算法語境,并從個體倫理上升到類群倫理,才能真正面對智能算法倫理問題。正是在這個意義上,人工智能算法的倫理維度必須在造世倫理的層次把握,而這是關于智能算法倫理的全新研究領域。
在人工智能算法層次,倫理問題正在形成一個具有整體性的維度。由專用人工智能向通用人工智能發(fā)展,倫理維度越來越復雜,從主要是算法設計和使用者的倫理問題向超越人類倫理的人機倫理發(fā)展,從工具性人工智能的倫理規(guī)制走向自主進化人工智能存在性威脅的造世倫理應對,而在倫理維度的不斷擴展中,則涉及越來越具有整體性的倫理問題。在專用人工智能發(fā)展中,透明性和可解釋性一直是智能算法的重要倫理原則。由人工智能算法倫理原則推出的倫理規(guī)則是智能算法倫理規(guī)制的基礎,不僅對于保持算法公正、避免算法偏見和歧視以及保護隱私,而且對于跨越人工智能應用的“責任鴻溝”至關重要?!柏熑硒櫆稀钡目缭疥P系到人工智能應用甚至人工智能本身的發(fā)展。在人工智能算法的倫理維度,個體倫理向類群倫理發(fā)展,傳統(tǒng)倫理的界線正在“熔化”,這種變化趨勢深及規(guī)則和規(guī)律的關系層次。在智能算法深處,規(guī)則和規(guī)律越來越呈現(xiàn)一體化發(fā)展趨勢。隨著智能算法的發(fā)展,智能機器的道德主體地位及引發(fā)的相應倫理問題將構成對現(xiàn)有倫理觀念越來越嚴峻的挑戰(zhàn),其應對必須建立在更高層次的倫理觀念基礎之上。人工智能算法倫理維度的發(fā)生和發(fā)展,具有深刻造世倫理意蘊,智能算法的造世倫理意蘊凸顯了造世倫理的理論和實踐一體化。規(guī)則和規(guī)律、理論和實踐的一體化意味著智能算法的倫理規(guī)制越來越必須在造世倫理層次展開。