亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        道德人工智能:基礎、原則與設計

        2021-03-11 07:25:34孫福海陳思宇黃甫全伍曉琪
        湖南師范大學教育科學學報 2021年1期
        關鍵詞:美德價值觀人工智能

        孫福海,陳思宇,黃甫全,伍曉琪

        (1.華南師范大學 教育科學學院,廣東 廣州 510631;2.華南師范大學 德育神經(jīng)科學與人工智能實驗中心,廣東 廣州 510631)

        在計算機化早期,控制論專家諾伯特·維納(Norbert Wiener)就指出,技術可以幫助人類成為更好的人,創(chuàng)造更公正的社會,但要做到這一點,人類必須控制技術[1]。歷史上三大信息技術變革,最新一次就是人工智能技術。它帶來諸多道德(倫理)問題。許多國家已經(jīng)或正在制定人工智能領域的倫理框架。英國成立了數(shù)據(jù)倫理與創(chuàng)新中心[2],旨在研究通用人工智能倫理框架。歐盟起草的《可信任人工智能倫理指南》[3],提出了可信任人工智能框架。

        人類道德依賴于人類社會文化背景下的道德標準、價值觀和法律法規(guī)等規(guī)則體系,人工智能的“道德”也與之類似。研究者已經(jīng)指出,人工智能在社會中的道德行為主要是規(guī)范性問題,而非描述性問題[4]。道德規(guī)范不僅可以塑造人的道德行為,同樣也可以內(nèi)化為人工智能的自我約束,作為立“德”之本。因此,驗證智能系統(tǒng)是否符合現(xiàn)有法律框架只是第一步,更重要的是確保其能解釋和運用人類道德價值觀,需要弄清楚人工智能的道德意味著什么,以及系統(tǒng)如何遵循道德和堅持某種價值取向。

        一、道德人工智能的倫理學基礎

        以軟硬件形式存在的人工智能,通常被認為是人類的工具,但其不斷增長的自主智能和交互能力,使得人工智能系統(tǒng)被期望承擔起本屬于人類的責任與義務。而出于道德考量自主決策和行動的人工智能,開始被視為道德主體。有研究根據(jù)自主性和道德敏感性提出了人工智能從低到高的道德層次,分別對應操作性、功能性和完全性的道德行為[5]。在最低層次,比如搜索引擎,既沒有自主性也沒有社會意識,因此不具有道德體系,而只是在設計中融入了設計者的價值觀,被認為僅具有操作性道德。隨著系統(tǒng)自主能力和認知能力的增強,系統(tǒng)具有了評估和應對道德問題的能力。自主智能可以感知所在環(huán)境的相關道德特征,從而能根據(jù)人類道德規(guī)范而調(diào)整行為,但仍有許多限制。大多數(shù)具備道德規(guī)范的智能系統(tǒng)都屬于功能性道德層次。發(fā)展到更高層次,人工智能則可以具有所需的完全性道德行為[5]。但無論處于何種層次,傳統(tǒng)倫理學如何在智能技術中發(fā)揮作用成為首要的問題。

        從理解道德原則并能應用于人工智能系統(tǒng)設計的角度看,規(guī)范倫理學具有特殊的相關性。后果論(功利主義)、道義論(義務論)和美德論(美德倫理學)等,都是規(guī)范倫理學的典型代表,不僅提出了人類道德行為規(guī)范,試圖解決道德困境,還解釋了道德教育。因此,通過探索已建立的人類道德體系,將規(guī)范倫理學用于人工智能系統(tǒng)設計是完全可能的。

        1.后果論與人工智能

        后果論認為行為道德性取決于行為結(jié)果[6],道德上的正確行為是產(chǎn)生“好”的結(jié)果的行為。因而,行為在道德上是否正確,可以通過檢驗其結(jié)果來確定,這種結(jié)果要么是行為本身導致(行為功利主義),要么是存在需要這種行為的一般規(guī)則所導致(規(guī)則功利主義)[7]。

        在后果論模型中,人工智能必須知道一個行為所產(chǎn)生的后果,及其對其本身以及人類和其他事物意味著什么,還需要能夠評估這些后果。對于人類來說,很難確定某項行為更別說規(guī)則的所有實際后果,但通常一項行為(或規(guī)則)會增加或減少一般效用,這對于指導人工智能的設計意義非凡。考慮到未發(fā)生的各種可能性,道德人工智能對后果的評估主要不是針對實際后果,而是預期后果。

        如果沒有道義論的一套規(guī)范,基于后果論的道德人工智能需要定義明確的問題,能始終完整和確定地了解當前狀態(tài),行為結(jié)果是能確定的,并且其他可能影響結(jié)果的因素也是可以預測的。根據(jù)后果論的效用原則,正確的行動方針是為最大多數(shù)人最大化的效用(功利主義)或快樂(享樂主義)。而考慮到弱人工智能的概念,人工智能算法應具有期望效用函數(shù),并將選擇試圖最大化其效用的行為。效用的評估取決于道德人工智能的目標和期望。因此,后果論方法在限制條件下非常有效,但當面對不完整、不確定和意外情況時,則容易誤判。

        基于后果論的道德人工智能通常采用啟發(fā)式搜索算法,由搜索、停止和決策策略組成[8],具有不斷發(fā)展的能力。這在需要快速決策時非常有用,但同時也是局限所在。杰里米·邊沁(Jeremy Bentham)指出,不應期望享樂演算過程在每個道德判斷中都被嚴格遵循[9],因為搜索空間有限,不可能評估所有可能性。

        2.道義論與人工智能

        道義論是規(guī)范的道德立場,與行為者品格無關(相較于美德論)。它根據(jù)規(guī)則判斷行為的道德性,不考慮后果(相較于后果論)。人類有創(chuàng)造和遵守規(guī)則的理性能力。規(guī)則允許基于責任的道德規(guī)范出現(xiàn),這對人類存在至關重要。“責任”在康德倫理學中非常重要??档抡J為負責任的行為才具備道德價值[10]。在道義論模型中,責任是出發(fā)點,可以轉(zhuǎn)化為規(guī)則,分為規(guī)則和元規(guī)則。

        道義論堅持道德法則是對主體行為進行道德評估的理性框架[11],因此被認為可更容易形式化而產(chǎn)生“負責任”的人工智能[12]。其基于規(guī)則的道德判斷的算法,非常適合于道德人工智能的構建??档陆^對命令應用于人工智能的過程被視為一種“自上而下”的構造,這種方法基于一組預定規(guī)則來定義行為的道德性,僅在既定規(guī)則允許下,人工智能才能采取某種行動。因此,可以通過對行為規(guī)則進行簡單的一致性檢驗,將預期行為置于傳統(tǒng)的道義類別中(禁止、允許和強制)[12]。在這里,道德判斷是一致性檢驗的結(jié)果,檢驗是構建規(guī)則的方法,那么道德行為就是建立一組規(guī)則。

        人工智能最容易做到的就是遵循規(guī)則?;谝?guī)則的系統(tǒng)被實現(xiàn)為形式系統(tǒng),也稱為“公理系統(tǒng)”。道德推理的一個重要問題是需要預測他人行為以評估自身行為;規(guī)則存在的原因之一就是使他人行為更可預測,從而協(xié)調(diào)那些遵守規(guī)則的行為。在道德人工智能中,推理機制被用來從一個被稱為公理的小集合中通過組合來推導新的規(guī)則,規(guī)則被用來確定哪些行為在道德上是允許或不允許的。在道義論背景下,還需要考慮尊重人類尊嚴的道義,需要對人工智能的功能和能力進行限制,以防止完全取代人類或人類的思維活動。

        精確的道德原則是走向道德推理自動化的第一步[13]。基于規(guī)則的貝葉斯推理機制,可使人工智能根據(jù)抽象道德原則在價值水平上進行道德學習,而非單純的行為模仿。因此,歐盟在《可信任人工智能道德指南》中優(yōu)先考慮了道義論的方法[14]。道義論的最大優(yōu)點,是可以在人工智能中提供理性響應能力,且非常“透明”。人工智能可以簡單地通過引用產(chǎn)生決策或行為的特定規(guī)則來做出解釋。當然,基于道義論的人工智能也需要通過一系列被禁止的行為規(guī)則和職責加以約束,需要一套在行動之前識別出不道德行為的規(guī)范,以維持道德行為。

        3.美德論與人工智能

        像道義論這種在足夠小的可預測系統(tǒng)中產(chǎn)生可接受的道德行為,或者后果論這種對問題定義足夠明確,以及信息完整情況下的道德推理,在現(xiàn)實場景中通常無法完全滿足,因為現(xiàn)實場景中存在著大量不完整信息。而美德論植根于古典道德哲學,在評估、判斷,以及采取與品格相符的行為方面非常有用。美德論關注人的內(nèi)在特征(節(jié)制、正義、勇敢和智慧等),與道義論和后果論不同,這是一種基于主體的觀點[15]。

        亞里士多德的目的論為基于美德論的人工智能研究提供了思路,不僅包含了基于道德行為的總體目標取向,還特別關注價值取向[1]。因此,構建基于美德論的道德人工智能的關鍵,就在于使價值觀與人類保持一致,根據(jù)人類的復雜價值來選擇目標。機器學習與美德論之間有很高相似性,目標導向是現(xiàn)代人工智能,尤其是高級機器人技術的核心部分。因此,美德論更為適合基于機器學習的自下而上的道德學習設計方法[16]。亞里士多德還認為必須通過實踐來發(fā)現(xiàn)和學習美德,而機器學習也是通過經(jīng)驗來提高機器執(zhí)行任務的能力。因此,機器在從現(xiàn)實數(shù)據(jù)中學習之前,無法擁有實踐智慧和實施道德行為[16]。如果將美德與功能及任務執(zhí)行較好地結(jié)合,完全可能開發(fā)出基于美德論的人工智能。

        美德論是解決控制和價值取向這兩大方面最有潛力的道德理論。擁有“節(jié)制”美德的機器將不會有任何多余的欲望,從而避免了超智能對人類生存構成風險?!鞍駱訉W習”是人類歷史上道德學習和價值觀相統(tǒng)一的重要途徑[17]。美德論提供了一個迭代學習和成長模型(即道德學習設計方法),以及由環(huán)境和實踐所提供的道德價值,而不僅僅遵從給定的靜態(tài)規(guī)則集。但自下而上的道德學習設計方法的主要挑戰(zhàn)在于,如何提供足夠的保護措施以防范人工智能學習和發(fā)展不道德行為。

        基于美德論的人工智能在可解釋性方面也有欠缺,它很難解釋或證明其美德是如何通過經(jīng)驗形成的,而美德是其行動的基礎。如果通過人工神經(jīng)網(wǎng)絡實現(xiàn)人工智能學習美德的能力,則會帶來更大的問題,因為幾乎不可能從眾多網(wǎng)絡權重中提取出直觀可理解的原因。因此,美德論需要更多的判斷調(diào)用,需要引入一個全新解釋推理機制來評估概率和風險,這本身可能不很可靠。

        總之,遵循道義論是實現(xiàn)道德人工智能最簡單的方法,它雖然只是規(guī)則的直接應用,但需要更高層次規(guī)則對行為本身進行推理。人工智能必須知道自己的行為與規(guī)則的邏輯關系。后果論可通過啟發(fā)式搜索來實現(xiàn),但當信息受到限制并且行為的影響在持續(xù)互動中級聯(lián)時,必須決定道德推理的程度,忽略不相干信息并采取有限搜索的啟發(fā)式算法。美德論則可以使用機器學習技術,但需要新的機制對動機進行推理,對動機引發(fā)的行為和結(jié)果進行考量,這是更復雜的模式,并需要借助期望效用函數(shù)等算法來處理“后悔”,以創(chuàng)造出新的困境解決方案。其他還有雙重效應原則(The Doctrine of Double Effect,DDE)、較小惡原則和人權倫理等,通常也被看作是上述理論的不同表現(xiàn)。

        不同道德理論在人工智能中有著特定算法,但也面臨著共同挑戰(zhàn),即能否收集和比較所有信息,這對于實時應用來說非常必要,對于后果論來說尤為重要。由于任何行為所導致的結(jié)果在時空上可能趨于無限,因此必須決定系統(tǒng)評估和推理的程度,做出當下最優(yōu)決策。道義論同樣沒有解決這一問題,因為道義之間的一致性通常只能根據(jù)影響來評估。美德論使用機器學習可以分析道德行為的學習和進化,但還需做進一步研究。

        二、道德人工智能的價值論原則

        智能系統(tǒng)開發(fā)中的道德考量正成為人工智能研究的重要領域之一。如果人工智能具有自主行為,而且其行為原因基于道德推理,那么負責道德部分的智能代理就被認為是道德主體,即道德人工智能(Moral AI)[18]。對于實現(xiàn)道德人工智能這個大問題,目前存在有三重立場:一是意識層面的道德立場,系統(tǒng)被認為是意識主體;二是設計層面的道德立場,系統(tǒng)的目的和行為是按照設計功能去解釋,系統(tǒng)被認為是功能主體;三是物理層面的道德立場,從自然規(guī)律和功能屬性方面加以解釋,系統(tǒng)被認為是物理主體[19]。基于當前技術水平,這里優(yōu)先采用設計層面的道德立場,在設計層面探尋道德決策的通用機制,研究其構建原則和價值導向,進而解決特定的道德認知和價值判斷。

        1.道德人工智能的責任擔當

        人類社會通常根據(jù)道德主體如何選擇行為及其后果來判斷是否符合道德規(guī)范,按照預期,道德主體的行為將在道德上產(chǎn)生良好的結(jié)果。但是,人工智能采取行動仍然有很大的不確定性,有時該行為并不會達到預期結(jié)果,甚至做出錯誤選擇。而當出錯或違反法律時,意味著責任問題。因此,道德人工智能必須能夠提供決策和行為的解釋,如果不能解釋其道德推理,不僅意味著系統(tǒng)的不透明,同時也意味著其無法負責。

        人工智能如果缺乏某種形式的責任就不會擁有自主能力,沒有問責制的互動就不會有透明度。因此,道德人工智能的構建應基于問責制(Accountability)、責任制(Responsibility)和透明度(Transparency)原則(即ART)[20]。

        首先,問責制是負責任的人工智能的首要條件,是指系統(tǒng)能夠解釋并證明其決策機制。一方面,問責制意味著系統(tǒng)具有解釋的能力。解釋是將抽象原則(例如公平或隱私)作為具體系統(tǒng)功能的基礎。約翰·朗肖·奧斯丁(John Langshaw Austin)認為,對解釋的研究可以多種方式闡明道德規(guī)范[21]。人類社會需要人工智能證明其道德推理能力,或者至少是對決策范圍的保證。解釋可以減少系統(tǒng)不透明性,并支持對系統(tǒng)行為和局限性的理解。另一方面,問責制意味著系統(tǒng)決策機制必須從算法和數(shù)據(jù)中得以證明。價值敏感設計方法已在工程和設計領域廣泛應用[22],在保證問責制方面有很大潛力 。

        其次,當人工智能對行為有控制權時就需要承擔責任[23],后果論在這方面可以發(fā)揮重要作用。但即使人工智能系統(tǒng)是行動的直接原因,責任鏈也必須足夠清晰,需要厘清人工智能的決策行為與利益相關者的關系。比如,當人工智能按照預期方式工作時,責任在于用戶,這是它的工具屬性使然[4];或者由于錯誤或意外,出現(xiàn)了不道德行為,在這種情況下,設計者應承擔責任。雖然學習及適應性能力是大多數(shù)人工智能系統(tǒng)的預期特征,但歸根結(jié)底也是算法造成的。而且基于學習的行為后果通常難以完全預料和保證,因此需要持續(xù)評估,這是道德學習設計方法的關鍵所在。人工智能的責任問題很復雜,同時也屬于立法問題。

        最后,行為解釋需要在算法、數(shù)據(jù)來源和利益相關者的選擇和決策方面保持透明度。也就是說,必須能夠?qū)彶樗惴ǖ脑O計和工作方式。道義論在這方面具有突出優(yōu)勢。透明度的目標是提供足夠信息,以確保人工智能的安全和可控。如果能做到與系統(tǒng)相關所有方面(即數(shù)據(jù)、設計流程、算法和利益相關者等方面)的開放性,則可以保證系統(tǒng)中的透明度。透明度設計方法是道德人工智能設計的一種重要方法。機器學習中的不透明度,即所謂的“黑匣子”,經(jīng)常被認為是透明性的主要障礙之一。因此,需要重新考慮機器學習的算法設計,甚或需要超越深度學習模型,創(chuàng)新深度研究模型,開辟算法新天地。

        2.道德人工智能的“價值觀”建構

        人類道德是普遍的價值觀和行為準則[24],而價值觀是解釋態(tài)度和行為動機的基礎。技術與人類之間的作用從根本上說是價值作用,技術的價值取向是人類應用的結(jié)果。能進行自主決策的人工智能,無論其能否自我改進,本身就必然需要一個“價值觀庫”,這是其行為準則。因此,價值觀是道德人工智能的核心所在。

        隨著人工智能在決策和環(huán)境操作方面擁有越來越多的自主權,它必須被設計成學習、采用和遵循所面向群體的道德規(guī)范和價值觀。研究表明,不同文化中的價值觀具有相當一致性[25]。這表明人類動機有相似的結(jié)構。當然,即使價值所表達的人類動機的類型和結(jié)構是普遍的,個人和群體也有著不同的價值“優(yōu)先”或“等級”,考慮順序的差異導致決策和行為的不同。

        謝洛姆·施瓦茨(Shalom H.Schwartz)的人類基本價值觀理論是跨文化研究領域的一個重要理論,闡明了價值觀的共同特征及區(qū)別[26]。人類基本價值觀理論的核心為:價值觀形成一個循環(huán)結(jié)構,反映了每種價值觀所表達的動機,這種循環(huán)結(jié)構涵括了被主要文化認可的十種普世價值觀之間的沖突和兼容[25],價值之間具有沖突和一致的動態(tài)關系。這些價值觀構成了更高層次的四個維度:開放、自我提升、保守與自我超越[26]。價值觀可以輕微或強烈地相互對立,這導致價值觀沿著兩極以圓形結(jié)構變化。

        價值之間動態(tài)關系的結(jié)構,表明了追求任何價值的行為都與某些價值沖突但與其他價值一致。施瓦茨的價值觀結(jié)構模型為人工智能的價值觀設定提供了思路。一是價值觀的重要性評級。施瓦茨價值觀調(diào)查問卷(Schwartz Value Survey,SVS)是對價值觀進行直接測量,對價值觀的重要性進行評分和排序,因此,可以使用權重來評估和平衡價值觀。二是直接相似性判斷任務。施瓦茨肖像價值觀問卷(Portrait Values Questionnaire,PVQ)是對價值觀進行間接測量,對價值觀的相似性進行評分?;谶@種人類感知相似性判斷的神經(jīng)基礎可以建立計算模型,比如深度卷積神經(jīng)網(wǎng)絡(Deep Convolutional Neural Network,DCNN)生成的特征表示。三是群分類。價值觀理論可以預測價值表達一致的類行為。四是空間排列?;诙嗑S標度(Multi Dimensional Scaling,MDS),價值結(jié)構模型將多維空間劃分為包含每個價值項的不同區(qū)域[25]。MDS是人工智能中一種非常有用的利用多維度評估事物的可視化技術。

        這樣,道德人工智能可以通過價值一致性進行學習,根據(jù)元價值來設定自身價值觀。元價值可使智能代理的道德行為在外部與他人保持一致。

        但人工智能的“價值觀”設定對于開發(fā)者來說仍然有很長的路要走,還需要解決幾個問題:第一,需要建立受人工智能影響的特定群體或個人的價值觀庫,需要確定具體規(guī)范和屬性;第二,規(guī)范具有動態(tài)變化的屬性,這就要求人工智能具有更新和自我改進的能力,過程是透明的;第三,在集成到人工智能系統(tǒng)中后,系統(tǒng)可能會有算法偏見并受到多重價值觀的沖突,解決這種沖突需要價值之間的定量加權,因此算法也需要透明。

        三、道德人工智能的工程學設計

        要開發(fā)出具有道德的人工智能,系統(tǒng)設計必須考慮道德因素。人工智能需以“負責”、“透明”和“學習”的方式獲得道德屬性,作出符合倫理道德的決策和行為,并考慮行為后果,同時還需要確保設計是顯白和透明的,而不是隱含在過程和對象中的。只有這樣,人工智能的目標、決策,以及為實現(xiàn)目標而采取的行為,才能與人類道德和價值觀相一致。其中,價值敏感設計、透明度設計及道德學習設計是開發(fā)道德人工智能的三種重要方法。

        1.價值敏感設計

        理解利益相關者、任務和不同用戶群體的價值觀是人機交互的核心任務 。而將哪些“價值觀”納入設計中,以及如何將道德理論轉(zhuǎn)移到可操作的技術手段上,已成為設計者必須要考慮的問題之一。同時,設計者在道義上也有責任創(chuàng)造遵守人類道德價值觀的機器。設計者的價值觀與設計過程和結(jié)果密不可分,因此,專家主張在設計中融合人類價值,對類人機器人采用價值敏感設計(Value Sensitive Design,VSD)。這可以幫助設計者在設計過程中思考其意圖、價值和道德責任[27]。這種設計方法超越了工程領域狹窄的倫理價值觀,以包容和形式化的方式將人類價值觀拓展到人工智能的前沿研究。

        價值敏感設計是一種技術創(chuàng)新方法,旨在以包容和形式化的方式將人類價值納入人工智能系統(tǒng)早期設計階段。這樣可以平衡廣泛的人類價值觀,被認為是解決技術設計中融合人類價值觀的比較全面的方法。價值敏感設計的中心原則是調(diào)查利益相關者的價值觀,并在早期研發(fā)階段將核心價值觀設計為具備可操作性的技術要求。價值敏感設計需要一個設計框架來涵蓋價值焦點,尤其是那些具有道德意義的價值觀[28]。這種框架彌合了抽象價值和具體系統(tǒng)之間的差距,目標是將價值轉(zhuǎn)化為有形的設計要求。與人工智能系統(tǒng)設計特別相關的是價值的層次結(jié)構、一般規(guī)范和更具體的設計要求或目標[29]。價值層次結(jié)構提供了規(guī)范的“透明”,描述了價值是如何轉(zhuǎn)化為規(guī)范和需求,從而明確設計決策。價值的明確結(jié)構關系可以清楚地表明,在給定情景下,哪個目標算作規(guī)范,哪個算作價值。

        價值敏感設計采取迭代設計過程,不斷加以調(diào)整和持續(xù)評估,一般包含概念查驗、實證查驗和技術查驗三個階段和多個步驟(參見圖1)。

        圖1 價值敏感設計步驟示意圖

        價值敏感設計的目的是通過對各種來源和利益相關者的徹底調(diào)查,可以將各種設計要求轉(zhuǎn)化為一組共同的固定價值,并且將明確的價值轉(zhuǎn)化為設計。這種設計原型在日常生活和教育中隨處可見,是人們在做重要決定時經(jīng)常使用的一種流程。例如,在高考志愿選擇中,我們會思考對志愿的未來預期、志愿的選擇都會影響到誰、父母親友對自己的希望、自己讀書的付出,并且上網(wǎng)查閱各種資料加以權衡,參加高校招生現(xiàn)場咨詢,還要考慮一旦作出最終選擇,有哪些資源可以有助于順利完成學業(yè)和找到工作。但這種熟悉的流程在系統(tǒng)設計中卻常常被忽略。

        從本質(zhì)上來說,價值敏感設計的重點是對影響一項技術的不同利益相關者的價值問題進行解釋,并將其作為設計過程中的目標和約束來嵌入。

        2.透明度設計

        對于在人類社會中運作的人工智能來說,從執(zhí)行過程到人機交互中所做出的道德決策,都需要高度可解釋性和可觀察性。道義論基于規(guī)則的推理機制對于提高系統(tǒng)透明度有突出優(yōu)勢。

        (1)保持“透明”的方式

        讓人工智能系統(tǒng)“透明”并不容易。透明度可以發(fā)生在多個級別,以及面向多個利益相關者,但對各方保持透明有諸多條件限制,比如在隱私或安全方面[30]。一般來說,人工智能的系統(tǒng)設計通過這四種方式保持透明:可追溯性、可驗證性、忠實設計和可理解性。

        第一,作為可追溯性的透明度。與“透明”密切相關的是人工智能系統(tǒng)設計和執(zhí)行過程的透明度。如果系統(tǒng)允許從最初確定的規(guī)范追溯到最終系統(tǒng),可以對已經(jīng)實施的規(guī)范、環(huán)境以及方式進行技術檢查,那么這個系統(tǒng)從設計到執(zhí)行過程都是完全“透明”的。執(zhí)行過程中的透明度也可能揭示出系統(tǒng)無意形成的偏見,如搜索引擎或資源推薦算法中隱藏的種族主義或性別歧視等[31]。而這種可追溯性反過來又校準了人們對人工智能是否符合與其使用環(huán)境相關的規(guī)范和價值的信任。

        第二,作為可驗證性的透明度。驗證系統(tǒng)做出的規(guī)范性決定是否符合所需的規(guī)范和價值觀,對于執(zhí)行中處理規(guī)范性推理的透明度非常重要。這些規(guī)范性決策的明確和準確的表述可以為一系列強有力的數(shù)學技術提供基礎,例如形式驗證[32]。即使一個系統(tǒng)不能用可理解的人類術語來解釋每一個推理步驟,道德推理日志也應該可以用于評估。

        第三,作為忠實設計的透明度。忠實設計指的是不會使產(chǎn)品比實際更創(chuàng)新、更強大或更有價值的設計。理查德·梅森(Richard O Mason)認為道德標準應成為設計者與用戶關系的基礎,主張設計模型必須忠實于現(xiàn)實和用戶價值觀這兩個方面[33]。人工智能的忠實設計是其透明度的一個方面,因為它允許用戶“看穿”外表從而準確推斷人工智能的實際能力。因此,對設計透明度的要求,讓設計者有責任不用無法兌現(xiàn)的承諾來誤導用戶。

        第四,作為可理解性的透明度。人類希望能理解人工智能的決定和行動,尤其是道德上有意義的決定和行動。對于符合道德規(guī)范的人工智能,可理解性就是,當被審查時,系統(tǒng)能夠解釋道德推理,并且系統(tǒng)應該在普通人類推理的水平上進行,而不是描述不可理解的技術細節(jié)。此外,當系統(tǒng)不能解釋某些行為時,技術人員或設計人員應該能夠使這些行為變得容易理解。

        (2)保持“透明”的方法

        如前所述,人工智能必須具備高度可解釋性和可觀察性,這也是其保持“透明”的方法。該方法包含兩個階段(參見圖2):

        圖2 “透明度”設計方法示意圖

        一是解釋階段。解釋階段是將道德原則和價值觀轉(zhuǎn)化為明確而結(jié)構化的設計要求的過程。里面是一種雙向關系,其中自上而下的關系被認為是規(guī)范關系(基于道義論),它描述了如何將較高層的元素轉(zhuǎn)換成較低層的概念。規(guī)范關系過程,包含兩個步驟:其一,將抽象的價值轉(zhuǎn)換為足夠全面的具體規(guī)范,在這種情況下,實現(xiàn)規(guī)范就被視為是遵循或堅持了道德原則和價值觀;其二,將規(guī)范具體化為明確的系統(tǒng)需求。

        而自下而上的關系被視為目的關系,這將設計要求之類的較低層元素與一般規(guī)范和價值之類的較高層元素聯(lián)系起來。解釋階段定義了系統(tǒng)最終構建的方式。最低層次由只與智能系統(tǒng)輸入輸出相關的具有某種顆粒度的具體要求組成,中間級別由趨于抽象的規(guī)范組成,最高層次由價值組成。這種層次結(jié)構為系統(tǒng)提供了高水平的透明度,可以精確解釋系統(tǒng)是如何以及在哪里遵循某種道德或某個價值。

        二是觀察階段。觀察分析包含智能系統(tǒng)的輸入類型、信息處理方式、輸出方式,以及與設計層面的比較驗證;需要詳細說明輸入和輸出方式,以及轉(zhuǎn)換算法;在算法層面定義一套詳細的信息處理流程,解決在計算層面描述的信息處理問題;最后將行為結(jié)果與設計層面的規(guī)范和價值對比驗證。有研究提出,系統(tǒng)行為的透明需要滿足兩個條件:其一,可驗證性,在給定所需時間和資源的情況下,底層規(guī)范必須允許驗證;其二可追蹤性,即可以在任何時候快速檢查系統(tǒng)功能是否符合規(guī)范[34]。

        因此,在觀察階段通過研究系統(tǒng)與要求的一致性,使用包括形式驗證、模擬或監(jiān)控等不同方法,可以評估系統(tǒng)行為,判斷價值是否符合系統(tǒng)評估。但是,系統(tǒng)內(nèi)部并不總是允許訪問。而通過監(jiān)視輸入和輸出,可以在不了解被觀察系統(tǒng)內(nèi)部機制的情況下實現(xiàn)觀察行為??傊?,由于系統(tǒng)、價值和規(guī)范也在動態(tài)變化,對設計需求及實現(xiàn)過程檢查的計算處理是一大挑戰(zhàn)。還有一個挑戰(zhàn)就是確定“透明度”所需的顆粒度。過于粗略可能會限制許多潛在的適應性行為,而過于詳細的顆粒度則會限制人工智能系統(tǒng)的適應性。

        3.道德學習設計

        道德學習設計是一種“自下而上”的道德人工智能設計方法(比如深度神經(jīng)學習網(wǎng)絡)[18]。根據(jù)亞里士多德的立場,不能將道德作為聲明性的一般法律和規(guī)則進行編程,而必須通過與環(huán)境互動的經(jīng)驗來學習,這種經(jīng)驗必須來自實踐本身。因此,道德學習設計方法不需要預先確定道德理論、道德原則或規(guī)則集,而是制定基本參數(shù),以目標為導向,人工智能通過自主學習成為道德主體,以試錯法等學習模式來完成模仿、歸納、演繹、探索、聯(lián)想和調(diào)節(jié)等學習過程,不斷積累經(jīng)驗。發(fā)展道德人工智能集中在整個認知系統(tǒng)上,包括感知和行動部分,來達到最佳目標。與后果論不同的是,最佳目標不是后果,而是對美好生活最有利的東西,這種差異決定了基于美德論的機器學習系統(tǒng)獎勵信號的定義。由于這種方法是基于目標導向行為和選擇的綜合,因此對于構建道德人工智能而言,主要問題在于:自下而上的道德學習設計如何影響系統(tǒng)的總體道德屬性?

        道德學習設計方法有進化模式(models of evolution)[35]和人類社會化模式(models of human socialization)[36]兩種。進化模式是通過機器學習積累經(jīng)驗,從而模擬人類的道德學習過程。那些有效解決道德問題的策略可以進入下一步,進行重新組合以解決進一步的道德任務。人類社會化模式則考慮了移情和情感在道德學習中的作用,這構成了類似兒童前社會行為的基礎。但人類社會化模式的研究還較少。

        進化模式是一種通用的機器道德快速學習框架,目的是解決人工智能在沖突和不穩(wěn)定環(huán)境中的適應問題。其中,何塞·卡斯特羅(Jose Castro)提出的測量邏輯機器模型(Measurement Logic Machine)較有代表性[37]。進化模式的道德學習設計方法如圖3所示。

        圖3 進化模式的道德學習設計方法示意圖(注:改編自卡斯特羅MLM[38])

        感知是一種使模型與外部世界保持一致的方法,進化模式假定傳感器將外部世界與自身內(nèi)部分隔開來。通過傳感器測量外部世界,其自身行為在內(nèi)部進行測量,短時存儲(short-term memory,STM)匯聚了內(nèi)外測量。最近一次測量的序列會在STM中不斷更新,在將STM轉(zhuǎn)到長時存儲(long-term memory,LTM)時,進化模式積累了經(jīng)驗并根據(jù)當前序列和過去序列匹配的情況,將LTM用于生成預測和策略。通過將提供正確預測的序列逐漸移到LTM的頂部,降低錯誤預測序列,并刪除低于某種標記的序列,可以使預測趨于可靠。而預測要有價值,必須可靠,這也是在行為之前采取“過濾”步驟的原因。

        進化模式的內(nèi)部測量定義機器的道德品質(zhì),給機器每個可能行為分配從低到高不同等級的“好”“壞”評估。內(nèi)部測量會導致篩選和過濾預測,這是智能代理道德行為的必要條件,過濾后的預測會產(chǎn)生被外部觀察者視為符合倫理道德的行為。

        進化模式的機器學習速度很快,因為它堅持所發(fā)現(xiàn)的第一個可靠且結(jié)果“良好”的預測,而無需關注優(yōu)化。其在LTM中積累由內(nèi)部測量產(chǎn)生的經(jīng)驗,以逐漸產(chǎn)生非隨機行為。但以空白LTM開始的初始隨機探索將極大地影響后續(xù)行為,同時系統(tǒng)也受到物理特性的限制。對于進化模式的研究,除了智能代理個體外,還可以通過實行針對給定問題足夠充分的內(nèi)部評估,將多個代理置于進化環(huán)境中。

        在道德學習設計中,道德學習過程發(fā)生的環(huán)境與使用模擬環(huán)境之間的差異被稱為訓練數(shù)據(jù)與測試數(shù)據(jù)之間的偏差。為了最大程度地降低這種偏差,系統(tǒng)必須在現(xiàn)實世界中學習。訓練階段的體驗需要提供盡可能多樣的樣本,機器才能更好地去概括學習模型。機器學習必須經(jīng)過很長時間的學習才能獲得針對某些情況的穩(wěn)定策略,但對道德某些情況的模擬仍然是訓練機器而不產(chǎn)生實際傷害的最佳選擇。某種程度上,學習道德行為常常伴隨著道德失敗,因此需要評估在自主機器中允許道德學習曲線的潛在風險,自下而上的道德學習設計方法尤其需要特別關注這一點。

        美德論可能是獲得道德屬性的最好模型。美德論并不認為道德行為是規(guī)則或后果的結(jié)果。良好的行為源于良好的品格,強調(diào)培養(yǎng)良好品格或習慣的重要性。美德論將品格的發(fā)展視為緩慢的學習過程。盡管美德是通過經(jīng)驗和習慣從下而上獲得的,但獲得美德后就可以自上而下進行評估。

        上述三種道德設計方法各有其優(yōu)勢和局限。人類道德具有由進化和學習形成的自下而上的機制,又具有理論驅(qū)動的推理能力的自上而下的機制。因此,道德人工智能可能需要進行類似的融合,由多道德智能代理組成。原則上可以利用模塊化和混合式方法來構建人工智能系統(tǒng)。

        實現(xiàn)有“道德”的人工智能是一個復雜的系統(tǒng)工程。人工智能要成為“可信任”和“負責任”的人類同伴,就必須在道德理論基礎和預期價值方面和人類保持廣泛的一致性。

        許多道德理論都有這方面的潛力。人工智能整合多種道德理論,通過機器學習及多道德智能代理等,可能會產(chǎn)生一個比任何個人更好的道德體系。比如,因為個人犯下的特殊道德錯誤在整合中被標記,而且機器學習可以從訓練集中發(fā)現(xiàn)人類道德的偏見和局限,還可以識別人類以前沒有意識到的道德決策的一般原則,這可以用來提高人類的道德直覺。目前道德人工智能還處于初級階段,多用于特定領域。未來將道德推理由程序員轉(zhuǎn)移到智能系統(tǒng)自主進行,從而創(chuàng)造出通用的具有人類水平的道德人工智能,是完全可以預見和充滿希望的。

        猜你喜歡
        美德價值觀人工智能
        誠實是美德
        黃河之聲(2022年2期)2022-06-22 08:44:30
        我的價值觀
        圖說 我們的價值觀
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        她是自立自強的美德好少年
        逝前的美德
        特別健康(2018年2期)2018-06-29 06:13:40
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        下一幕,人工智能!
        南風窗(2016年19期)2016-09-21 16:51:29
        知名企業(yè)的價值觀
        av在线一区二区精品| √新版天堂资源在线资源| 日日摸天天摸97狠狠婷婷| 亚洲国产精品久久人人爱 | 久久中文字幕国产精品| 老女人下面毛茸茸的视频| 日韩av在线播放人妻| 屁屁影院ccyy备用地址| 亚洲精品第一页国产精品| 日韩精品有码在线视频| av高清视频在线麻豆免费观看| 婷婷久久av综合一区二区三区| 亚洲精品国产电影| 国产激情综合在线观看| 艳妇乳肉豪妇荡乳av无码福利| 日本高清中文字幕一区二区三区| 1234.com麻豆性爰爱影| 草青青在线视频免费观看| 国产精品极品美女自在线观看免费| 久久超碰97人人做人人爱| 免费又黄又爽又猛的毛片| 色婷婷综合激情| 草莓视频在线观看无码免费| 三级国产自拍在线观看| 一二三四区中文字幕在线| 免费无码av一区二区| 久久亚洲av永久无码精品 | 邻居少妇太爽在线观看| 极品av一区二区三区| 夜夜爽妓女8888888视频| 美女扒开内裤让男生桶| 国产av一区二区三区区别| 日本女优久久精品观看| 日本久久伊人特级黄色| 国产人妻精品一区二区三区| 在线观看国产内射视频| 国产一区二区三区免费av| 寂寞少妇做spa按摩无码| 99久久久无码国产精品试看| 国产香蕉尹人综合在线观| 日韩av在线不卡一区二区三区|