亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        從責任的視角看人工智能系統(tǒng)的開發(fā)

        2021-01-02 22:11:47
        科學經(jīng)濟社會 2021年1期
        關鍵詞:決策原則價值觀

        王 剛

        過去幾年,隨著快速發(fā)展的人工智能技術對人類社會的多個方面產(chǎn)生巨大的影響,人們越來越擔心人工智能系統(tǒng)的決定和行為給人類社會帶來潛在風險。由于人工智能系統(tǒng)是由人類設計、制造和使用的人工產(chǎn)物,因此,人類應當對人工智能系統(tǒng)的決定和行為所引發(fā)的影響負有相應的責任。為了確保人工智能系統(tǒng)的應用具備安全性、并符合人類的利益,人類需要構建一種對所有人負責的人工智能系統(tǒng)開發(fā)路徑。

        一、人工智能系統(tǒng)的設計原則

        人工智能系統(tǒng)的核心概念是“智能性”(agency),這種智能性主要體現(xiàn)在三個方面,即自主性(autonomy)、適應性(adaptability)和交互性(interactivity)[1]。自主性是指智能體根據(jù)其所處的環(huán)境來進行自主行動的能力;適應性是指智能體根據(jù)環(huán)境變化來調整自己的行為,從而使自己能夠適應環(huán)境的能力;交互性是指智能體具備與其所處的環(huán)境進行相互作用的能力。其中,自主性是人們在人工智能領域中最常提及的方面。在很大程度上,人們將具有智能的人工系統(tǒng)等同于能夠自主行動的系統(tǒng)。

        隨著自主性不斷增強,人工智能系統(tǒng)在許多公共領域扮演著重要角色,例如,在醫(yī)療、教育、交通、公共安全等領域,人工智能系統(tǒng)能夠在沒有人類操控的情況下做出自主性的決定和行動。人們越來越意識到,有必要采取相應的措施以確保自主性系統(tǒng)的決定和行動能夠符合人類的福祉。關于這方面的典型范例是思考自動駕駛汽車面臨的道德困境。假設載有乘客的自動駕駛汽車即將撞上另一輛汽車,它可以選擇快速閃避另一輛汽車以拯救車內乘客的生命,卻可能撞上公路上的行人。面對這種道德困境,自動駕駛汽車應該如何做出自主性的選擇呢?

        對于負責任的人工智能系統(tǒng)開發(fā)路徑而言,創(chuàng)建能夠處理這種道德困境的人工智能系統(tǒng)是其主要目標之一,因此,人工智能系統(tǒng)的設計必須反映出社會對人工智能道德問題的關切。為了實現(xiàn)這一要求,人工智能系統(tǒng)的設計應當以問責原則、責任原則和透明性原則為基礎,對傳統(tǒng)的自主性、適應性和交互性原則加以擴充[2]。

        問責(accountability)原則指的是人工智能系統(tǒng)應該具備向人類解釋自身決策和行為的能力。一方面,人工智能系統(tǒng)需要通過解釋來確保人類對它的信任。人們愿意信任自主性系統(tǒng)的關鍵因素在于,系統(tǒng)能夠解釋其為何采取某種行為[3]。因此,通過解釋可以減少人工智能系統(tǒng)的不透明性,有助于人類對系統(tǒng)自身行為和決策實施的原因加以理解。另一方面,人們普遍認為機器不具備道德推理能力,因此,社會要求對機器的道德推理進行論證,或者至少確定自主性系統(tǒng)可以做出決策的范圍[4]55。正是基于這兩方面的原因,在人工智能系統(tǒng)的整個設計過程中,問責原則是設計人員和開發(fā)人員應當遵循的核心設計原則。

        責任(responsibility)原則涉及人工智能系統(tǒng)的設計人員、開發(fā)人員、制造商、銷售商和使用人員應當承擔的責任。隨著自主性水平的不斷提升,人工智能系統(tǒng)在越來越多的場合下可以自主行動和自行做出選擇和決定。例如,汽車導航系統(tǒng)能夠根據(jù)交通狀況和用戶偏好設置為使用者自行規(guī)劃最佳的行進路線。然而,自主性系統(tǒng)也有可能做出錯誤的決策,給使用者帶來損失。需要指出的是,系統(tǒng)并不需要為自身的錯誤行為和決策負責,因為它們是人類為了實現(xiàn)特定目的而制造的工具,這些行為和決策歸根到底取決于設計人員和開發(fā)人員創(chuàng)建它們的目的以及相關的設計選擇,同時還取決于使用者的使用設置。因此,為了規(guī)避人工智能系統(tǒng)可能給人類帶來的風險,在人工智能系統(tǒng)的設計過程中,設計人員和開發(fā)人員有必要厘清人工智能系統(tǒng)的所有利益相關者各自應當承擔的責任。

        透明性(transparency)原則是為了確保人工智能系統(tǒng)中的算法保持透明性。算法不透明(即所謂的算法“黑箱”)是人工智能系統(tǒng)的開發(fā)所面臨的一大挑戰(zhàn)。自主性系統(tǒng)的決策主要是根據(jù)學習算法而做出,但是系統(tǒng)的使用者卻無法理解該算法的運行機制和原理,更無法獲知算法設計人員和開發(fā)人員的真正意圖,由此導致算法的不透明性。算法不透明的最直接后果是算法偏見問題,如在2017 年,Google 公司的圖像識別算法將黑色人種的照片標記為“大猩猩”,這一事件引發(fā)了人們對種族歧視問題的討論。算法偏見問題本質上反映的是人工智能系統(tǒng)設計人員和開發(fā)人員的固有思維偏見。透明性原則的主要目標就是要避免人工智能系統(tǒng)產(chǎn)生偏見。為此,該原則要求系統(tǒng)決策使用的數(shù)據(jù)和算法、系統(tǒng)的開發(fā)意圖和過程向公眾開放,并就此向公眾做出解釋說明。

        在這三個原則中,始終貫穿著一個基本的要求,即設計人員和開發(fā)人員應當堅持以人類的基本價值觀和道德原則作為人工智能系統(tǒng)設計的核心指導思想。為了符合這一要求,我們可以在人工智能系統(tǒng)開發(fā)中采用價值觀設計路徑。價值觀設計是一種方法論設計路徑,它的目標是為人工智能系統(tǒng)的設計、研究和開發(fā)制定社會和道德價值觀[5],從而確保人類價值觀和道德原則被明確地整合到系統(tǒng)的設計和執(zhí)行過程中,并使得使用者能夠識別系統(tǒng)決策所依據(jù)的價值觀。

        價值觀是人類行為和態(tài)度的核心激勵因素。每個人都持有多種不同的價值觀(如成就、安全、仁愛),某種價值觀對某個人來說可能是最重要的價值觀,但對另一個人而言卻并非如此[6]。價值觀是人們在多種情況之間做出選擇的標準,人們會根據(jù)對自己而言最重要的價值觀來做出決策。例如,假設某人追求的價值觀是“成就”,那么,他的一切選擇和決定就有可能圍繞著“實現(xiàn)事業(yè)上的成功”這一目標來制定。對于人工智能系統(tǒng)而言,價值觀也是其做出決策和選擇的標準,人類為人工智能系統(tǒng)所設定的價值觀決定了系統(tǒng)在運行過程中往往會采取符合該價值觀的行動。因此,在人工智能系統(tǒng)的設計過程中,將人類的基本價值觀和道德原則作為設計的核心指導思想可以確保人工智能系統(tǒng)的運行對人類負責并符合人類的根本利益。

        人工智能系統(tǒng)是計算機程序,它的開發(fā)遵循著軟件設計方法論。人類價值觀是極其抽象的概念,我們很難將其整合到軟件設計中。價值觀設計路徑旨在于突破傳統(tǒng)軟件設計對人類價值觀關注度不足的局限,將人類的基本價值觀和道德原則置于系統(tǒng)設計和開發(fā)的核心。價值觀設計遵循著“從價值觀到準則再到功能”(反之亦然)的路徑。觀察抵押貸款申請系統(tǒng)的開發(fā),會注意到“公平”居于重要地位。假設抵押貸款申請系統(tǒng)的價值觀是“公平”,我們可以根據(jù)不同的準則來理解“公平”一詞,它既可以被理解為平等獲取資源的權利,也可以被理解為平等的機會,不同的理解將會導致截然不同的行為。平等賦予每個人獲取特定財產(chǎn)的機會意味著決策的制定是基于財產(chǎn)的價值觀;而平等的機會則意味著決策的制定是基于收入和年齡等因素。因此,設計人員需要明確說明系統(tǒng)的設計是建立在什么樣的理解之上。此外,設計人員也需要明確說明系統(tǒng)的準則如何被執(zhí)行,即明確說明這些準則如何被轉化為具體的系統(tǒng)功能。這是根據(jù)環(huán)境、個人觀念和設計人員的文化背景來決定的。就“公平”的價值觀而言,機器學習文獻確定了實踐平等機會觀的不同方式,例如人口統(tǒng)計學意義上的平等、平等的機會,等等。這些功能具有不同的結果。如果我們無法明確到底采用了哪種方式來實現(xiàn)“公平”的概念,我們就無法對不同的算法做出比較,進而也就無法理解它們的決策對不同人群的影響[4]62-64。

        人工智能系統(tǒng)是人類設計、開發(fā)、制造和使用的人工產(chǎn)物,它對人類社會造成的影響很大程度上取決于設計人員和開發(fā)人員的設計選擇、決策和價值觀。遵循“問責”“責任”和“透明性”的人工智能系統(tǒng)設計原則有助于減少人工智能系統(tǒng)的應用所帶來的風險和負擔,而堅持以人類的基本價值觀和道德原則作為人工智能系統(tǒng)設計的核心指導思想是實現(xiàn)這三個原則的基本要求,同時也是構建對所有人負責的人工智能系統(tǒng)開發(fā)路徑的第一步。

        二、人工智能系統(tǒng)的道德推理路徑

        人工智能系統(tǒng)是人類為了實現(xiàn)特定目的而創(chuàng)建的工具,為此,人工智能系統(tǒng)通常會采取各種行為來實現(xiàn)自身的目的,但這些行為不一定都符合人類的基本價值觀和道德原則。因此,人們期待人工智能系統(tǒng)能夠具備道德推理能力、維護人類的基本價值觀和道德原則,從而確保其行為符合人類的道德要求并對所有人負責。然而,不同的個人和社會對道德觀念和道德行為的理解存在很大的差異,這些不同的理解使得人們在同一情況下可以做出截然不同的決策。作為人工產(chǎn)物的人工智能系統(tǒng),如何對人類的道德價值觀念做出恰當?shù)睦斫馐瞧涿媾R的一大難題。

        當今哲學家通常把道德理論劃分為三大部分:元倫理學、應用倫理學以及規(guī)范倫理學。其中,規(guī)范倫理學試圖對我們如何評價事物和判斷是非的問題加以討論,從而提出一套規(guī)范人們行為的規(guī)則。規(guī)范倫理學與“在人工智能系統(tǒng)設計中如何理解和應用道德原則”的問題有很大的關聯(lián)。在規(guī)范倫理學的眾多學派中,與人工智能系統(tǒng)的道德推理有關的三個重要學派是推斷論(consequentialism)、義務論(deontology)和德性倫理學(virtue ethics)[4]37。

        推斷論倫理學也被稱為目的論倫理學,該理論認為道德行為就是能夠導致最佳后果的行為,推斷論的代表性理論是邊沁的功利主義學說。功利主義認為,社會的幸福主要是根據(jù)大多數(shù)人的最大幸福來衡量,因此,對于某一行為而言,增加社會的利益(即最大多數(shù)人的最大幸福)的傾向比減少的傾向大,這就是“達到最大善”的行為。義務論倫理學的代表性理論是康德的實踐哲學??档抡J為,理性者應該按照絕對命令來行動,即總是按照那些同時可以成為普遍規(guī)律的規(guī)則來行動。換言之,道德的行為就是符合普遍道德原則的行為。德性倫理學關注的是個人的內在道德品質,該理論認為道德的行為就是符合德性品質(如仁愛、智慧、勇敢、節(jié)制)的行為。

        就自動駕駛汽車面臨的道德困境而言,采取不同的道德理論將會導致不同的選擇。推斷論或功利主義認為,汽車應該關注自身行為的結果,并運用手段—目的推理來選擇對大多數(shù)人而言最佳的結果。因此汽車將會采取使得被拯救的生命總數(shù)最大化的選擇,如果車內乘客的數(shù)量大于公路行人的數(shù)量,汽車會選擇撞擊行人以拯救車內乘客的生命。義務論或康德主義認為,汽車將會考慮自身可能行為的道德性,并避免選擇其所知的會導致人身傷害的行為。因此,如果汽車知道迂回的行為會導致對某人的傷害,那么它就不會采取這一行為。德性倫理學認為,具有道德品質的汽車關注的是自身的動機,同時它會考慮具有道德品質的智能體會采取什么樣的行動。由此,它可能會得出的結論是,最具道德性的行為是保護最易受到傷害的行人[4]43。很顯然,這三種道德理論所采取的不同解決方案都具有自身的合理性,因此自動駕駛汽車面臨的道德困境并不存在最佳的解決方案。當面對道德困境的時候,人工道德智能體必須具備對不同道德理論進行思考并做出選擇的能力,也就是說,具備所謂的道德推理能力。特定的個人和社會在面對道德價值觀念沖突時,個人和文化所優(yōu)先考慮的道德價值觀念決定了其在沖突的道德價值觀念之間做出選擇和決定的方式。然而,人工智能系統(tǒng)無法像人類一樣體會遺憾的感覺,因此難以對道德困境做出恰當?shù)幕貞?,換言之,人工智能系統(tǒng)缺乏應對道德困境的創(chuàng)造性。對于人工智能系統(tǒng)而言,在特定情景下優(yōu)先考慮哪些道德價值觀念是其道德推理所面臨的主要挑戰(zhàn)。

        在不同文化中,雖然高層次的抽象道德價值觀念通常是一致的,但是人們對某一行為應當遵循哪一種道德理論卻難以達成社會共識,不同的個人和社會優(yōu)先考慮的道德價值觀念并不相同。這意味著,人工智能系統(tǒng)的設計除了需要考慮基本的人類價值觀念之外,還需要考慮不同的個人和社會所持有的特殊道德價值觀念。因此,為了讓人工智能系統(tǒng)理解不同的特殊道德價值觀念,并根據(jù)具體的情景在這些道德價值觀念中做出合適的選擇,人工智能專家為人工智能系統(tǒng)設計了自頂向下(top-down)道德推理路徑和自底向上(bottom-up)道德推理路徑。

        自頂向下路徑采用的是特定的道德理論(如功利主義理論),這一路徑通過對該道德理論的計算要求加以分析,從而設計出能夠執(zhí)行該理論的算法和子系統(tǒng)。采取特定道德理論的人工智能系統(tǒng)通過分析在系統(tǒng)中實施該理論所需的信息和程序要求,并將該分析應用于子系統(tǒng)的設計以及與該設計相關聯(lián)的其他方面,從而具備根據(jù)該道德理論進行道德推理的能力[7]79。自頂向下路徑的最大特點是給出特定的道德理論,并明確規(guī)定哪些行為是符合該理論的道德行為,它要求人工智能系統(tǒng)根據(jù)這一道德理論來行動。自頂向下路徑需要將特定道德理論轉化為具體的算法,同時還需要利用該理論計算出不同情景下的最佳行動,從而指導人工智能系統(tǒng)做出符合該道德理論的決策和選擇。然而,這一路徑實施起來有很大的困難。一方面,盡管目前計算機的計算能力得到極大的提高,但是計算機仍然無法完成執(zhí)行某一特定道德理論所需的全部計算要求,因此將特定道德理論轉化為具體算法存在很大的難度。另一方面,不同的道德理論將會導致不同的決策結果,對于自頂向下路徑而言,采取哪一種道德理論仍然是具有爭議性的問題。

        自底向上路徑強調的是創(chuàng)造某種環(huán)境,在這種環(huán)境中,智能體能夠自行探索行動方案、進行自我學習,并因在道德上值得稱贊的行為而受到獎勵,以此獲得道德推理能力。與自頂向下路徑不同的是,自底向上路徑并不定義什么是道德的行為和什么是不道德的行為,任何道德原則必須由智能體自己去發(fā)現(xiàn)和構建[7]80。自底向上路徑認為,通過觀察自身所處環(huán)境中其他人的行為,人工智能系統(tǒng)可以自主學習到道德行為,在面對道德困境的時候,它可以根據(jù)學習到的道德行為來做出合適的決策和選擇。目前,機器學習采用的就是這一路徑。需要注意的是,機器的學習是一個緩慢的過程,它需要學習各種情景中的道德行為。在該學習過程中,機器極有可能學得并強化人類的偏見、模式化的觀念以及具有文化烙印的行為,例如,人類對社會經(jīng)濟水平與犯罪率二者的關系持有某種偏見,機器在學得這一偏見后,通常會強化種族或地域之間的差異,如此一來,機器在面臨道德選擇時,可能會做出錯誤的決策。然而,對于機器的錯誤決策所造成的風險,人類往往難以承受。

        鑒于純粹的自頂向下路徑和自底向上路徑都難以滿足人工智能系統(tǒng)的道德推理要求,某些學者提出了將這兩種推理路徑的優(yōu)點結合起來的混合路徑[7]99。吉仁澤(Gigerenzer)認為,大部分道德行為是建立在啟發(fā)法(heuristics)的基礎上,而不是建立在道德規(guī)則或最大化原則的基礎上。啟發(fā)法是一種忽略部分可利用的信息、且不追求最優(yōu)化的心理過程,這意味著啟發(fā)法不涉及最大值或最小值的計算。啟發(fā)法本身沒有好壞之分,而是僅僅與使用該方法的環(huán)境有關。因此,道德行為是思維和環(huán)境相互作用的結果[8]。根據(jù)這一觀點,先天因素與后天因素對道德行為的形成都非常重要。對于道德智能體的創(chuàng)建而言,將這種觀點擴展到人工智能系統(tǒng)的道德推理中非常有必要,而這恰恰需要結合了程序化規(guī)則(先天因素)和環(huán)境觀察(后天因素)的混合路徑。在混合路徑中,既需要考慮先天因素,也需要考慮后天因素,而不是將這兩種因素視作“非此即彼”的對立。這意味著,自頂向下路徑(通過編程的方式)和自底向上路徑(以環(huán)境為基礎)都難以做出道德決策,相反,必須將這兩種路徑結合起來[4]80。

        對于人工智能系統(tǒng)而言,自頂向下路徑和自底向上路徑都是其不可或缺的道德推理方式。自頂向下路徑強調系統(tǒng)應該遵循特定的道德原則,從而采取有利于社會的行動。這一路徑可以確保系統(tǒng)的決策符合人類的長期利益,而不是個人的短期私利。自底向上路徑側重于通過經(jīng)驗學習來發(fā)現(xiàn)社會認可的價值觀念和道德原則,相較于嚴格遵守特定道德原則的自頂向下路徑,采用自底向上路徑的人工智能系統(tǒng)在行為選擇上具有更大的靈活性。人工智能系統(tǒng)要想在不同情景中正常發(fā)揮作用,就必須了解社會動態(tài)和文化習俗,而自底向上路徑在這一方面具有很大的優(yōu)勢。因此,混合路徑是比較理想的人工智能系統(tǒng)道德推理路徑。一方面,遵循特定道德原則的人工智能系統(tǒng)能夠確保系統(tǒng)的行為不偏離人類的基本價值觀和道德原則,從而對所有人負責;另一方面,允許人工智能系統(tǒng)在不違背特定道德原則的前提下根據(jù)具體環(huán)境來靈活學習不同的道德行為、對不同的道德理論做出表征,并做出適合該環(huán)境的道德決策,這能夠確保系統(tǒng)更高效地完成人類設定的具體任務。

        然而,考慮到人類道德推理的復雜性,采用混合路徑的人工智能系統(tǒng)不可能實現(xiàn)像人類一樣的道德推理能力,僅僅依靠人工智能系統(tǒng)自身的道德推理能力并不足以完全確保人工智能系統(tǒng)的開發(fā)對所有人負責。當人工智能系統(tǒng)面對自身難以解決的道德困境時,人類的干預和介入非常有必要。

        三、人工智能系統(tǒng)開發(fā)的多樣性和包容性

        作為人工產(chǎn)物,人工智能系統(tǒng)執(zhí)行的目標是經(jīng)由人類嵌入到機器中,這些目標始終與特定人群的需求有關。歸根到底,使得人工智能系統(tǒng)對所有人負責就是要確保我們嵌入到機器中的目標是所有人確實需要的目標[9]。因此,我們期望人工智能系統(tǒng)為實現(xiàn)特定目標所做出的決策和行為能夠符合普遍的道德原則和人類的根本利益,從而規(guī)避人工智能系統(tǒng)帶來的潛在風險。這就要求人工智能系統(tǒng)的設計人員和開發(fā)人員將人類的基本價值觀和道德原則置于系統(tǒng)設計的核心,賦予人工智能系統(tǒng)以道德推理能力。然而,人工智能系統(tǒng)的道德屬性本質上是由人類所決定,系統(tǒng)被賦予的道德價值觀念并不具備價值中立性,因為人工智能系統(tǒng)的設計人員和開發(fā)人員、相關利益群體總是根據(jù)特定意圖和文化偏見來為系統(tǒng)選擇特定的道德價值觀念。在實踐層面上,人工智能系統(tǒng)的目標和運行方式很大程度上是由系統(tǒng)設計人員和開發(fā)人員以及相關參與者所決定。避免人工智能系統(tǒng)帶有個人的文化偏見、成為特定人員獲取私利的工具是確保人工智能系統(tǒng)對所有人負責以及人工智能系統(tǒng)的目標符合人類根本利益的關鍵。為了實現(xiàn)這一要求,人工智能系統(tǒng)的開發(fā)需要具備多樣性和包容性。

        多樣性和包容性在人工智能系統(tǒng)開發(fā)中面臨巨大挑戰(zhàn)。一方面,在人工智能系統(tǒng)開發(fā)的過程中,系統(tǒng)設計人員和開發(fā)人員總是根據(jù)自己固有的文化偏見為系統(tǒng)設計其認為最合適的價值觀選項。這一現(xiàn)象不可能避免,因為文化偏見是人類的自然傾向,人類總是根據(jù)符合自身文化偏好的標準在不同選項之間做出選擇;另一方面,人工智能系統(tǒng)的開發(fā)目前在很大程度上已經(jīng)被少數(shù)大型公司所控制,這些公司通過人工智能系統(tǒng)隨意獲取并占有公眾的所有信息和數(shù)據(jù),從而滿足少數(shù)人的利益需求;此外,這些公司還決定了人工智能系統(tǒng)的設計和開發(fā)方式,以此對公眾施加影響,從而實現(xiàn)少數(shù)人的特定意圖。為了最大限度避免這些問題,人工智能系統(tǒng)的設計和開發(fā)必須堅持以多樣性的所有含義為基礎,顯然,多樣性的所有含義涉及性別、文化背景和種族等多個方面。此外,某些研究證據(jù)表明,認知的多樣性也有助于更好地做出決策。因此,人工智能系統(tǒng)的開發(fā)團隊應該包括社會科學家、哲學家以及其他領域的專家,同時也應該確保性別、種族和文化的差異[4]100。對于人工智能系統(tǒng)的開發(fā)而言,根據(jù)性別、階級、種族、學科和其他相關維度,將多樣性作為優(yōu)先選項納入人工智能系統(tǒng)的設計和開發(fā)中,以增加系統(tǒng)的包容性、寬容度以及思想和觀點的豐富性,這是迫切需要解決的問題[10]。

        下面從“參與”“教育”和“監(jiān)管”三個方面來闡述實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性所需的路徑。

        首先,實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性要求參與到人工智能政策討論和制定過程中的人員構成保持多樣性。人工智能的潛在變革性要求我們加大對人工智能系統(tǒng)研發(fā)人員多樣性的關注,也就是說,需要意見、興趣、經(jīng)驗的多樣性,以及在等級結構中地位的多樣性,從而確保人工智能系統(tǒng)表現(xiàn)出不同的人格類型,以此獲得各種類型的思維方式[11]101-102。然而,在人工智能研發(fā)領域以及技術行業(yè)的工作場所文化中,缺乏多樣性是普遍存在的問題。目前的情況是,在世界頂尖大學(如斯坦福大學、牛津大學、伯克利大學和ETH 等)中,平均80%的教授是男性。此外,在美國,男性占人工智能工作申請者人數(shù)的比例高達70%以上;而在美國科技部門,只有14%的員工是黑人或西班牙裔,盡管他們占總人口的比例為27%。在德國,聯(lián)邦統(tǒng)計局提供的數(shù)據(jù)進一步證實了這種形式的不平等,例如,在計算機科學專業(yè)的一年級學生中,女性的比例只有20%左右[12]。這意味著,迫切需要增加女性以及不同族裔的人工智能系統(tǒng)研發(fā)人員的比例,保持參與群體的多樣性、意見的多樣性、經(jīng)驗的多樣性、思維方式的多樣性和文化的多樣性,以便更好地在人工智能領域中代表不同人群的利益、價值觀和需求。與此同時,將人工智能領域以外的學科專家(如社會科學家、法學家、經(jīng)濟學家)吸收到人工智能系統(tǒng)的研發(fā)過程中,也有助于人工智能系統(tǒng)保持一種多樣化的視角。

        其次,實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性需要多樣化的人工智能教育。數(shù)字時代是一個變革和創(chuàng)新的時代,人文學科、藝術、社會科學和STEM(科學、技術、工程學和數(shù)學)之間的傳統(tǒng)劃分已經(jīng)難以適應數(shù)字時代的需求。未來的學生不僅應該具備多學科的知識,而且還應該具備跨學科的知識:即建立一個超越學科視角的知識框架[4]112。人工智能本質上是跨學科的領域,然而,目前人工智能的課程范圍僅限于工程學,這些課程的內容無法滿足人工智能的跨學科發(fā)展趨勢。我們迫切需要對人工智能從業(yè)人員進行跨學科的培訓,拓寬人工智能相關課程的授課范圍,使未來從事該領域研究的人不僅具備人工智能工程學知識,同時還具備基本的哲學、社會科學、法律和經(jīng)濟學知識。

        第三,實現(xiàn)人工智能系統(tǒng)開發(fā)的多樣性和包容性需要相應的法規(guī)和監(jiān)管。在人工智能系統(tǒng)的開發(fā)過程中,算法偏見是人工智能透明性的主要障礙。機器學習算法是根據(jù)人工智能研發(fā)人員和決策者采集的數(shù)據(jù)為達某個目標而產(chǎn)生,這些數(shù)據(jù)以及由此產(chǎn)生的算法必然帶有相關從業(yè)人員的偏見。偏見是人類思維固有的傾向,它也是人類采集的數(shù)據(jù)所無法避免的特征。算法偏見本質上與人工智能系統(tǒng)的開發(fā)環(huán)境有關,也就是說,與人工智能系統(tǒng)開發(fā)團隊人員構成的多樣性和包容性有關。為了盡可能消除算法偏見,我們需要對人工智能系統(tǒng)的開發(fā)進行監(jiān)管,制定相應的法規(guī)、明確規(guī)定對象、目標和激勵措施,從而促進人工智能系統(tǒng)開發(fā)團隊的多樣性和包容性。

        總之,只有人工智能系統(tǒng)的利益相關者,包括設計人員、開發(fā)人員、政策制定者、使用者在內的所有人都能夠參與到人工智能系統(tǒng)的開發(fā)中,保持人工智能系統(tǒng)開發(fā)的多樣性和包容性,人工智能系統(tǒng)設計的核心價值觀和道德原則才可能具備普遍性,進而才有可能實現(xiàn)人工智能系統(tǒng)的開發(fā)貫徹對所有人負責的原則。

        四、結語

        隨著自主決策能力不斷增強,人工智能系統(tǒng)日益影響著我們的生活和世界,這引發(fā)了人們對人工智能系統(tǒng)的決策和行為的潛在問題和風險的擔憂。顯然,無論人工智能系統(tǒng)的自主性水平多高,智能體都無法為自己的決策和行為負責,因為人工智能系統(tǒng)本質上是人類為了實現(xiàn)特定目的而制造的人工產(chǎn)物,而決定這些目的的正是我們人類。由此可見,恰恰是我們人類應當對人工智能系統(tǒng)的行為和決策承擔起責任。這意味著,需要構建一種對所有人負責的人工智能系統(tǒng)開發(fā)路徑,即堅持人工智能系統(tǒng)的設計以人類的基本價值觀和道德原則為核心指導思想,采用“問責”“責任”和“透明性”的設計原則;創(chuàng)建能夠根據(jù)人類的基本價值觀和道德原則來進行道德推理的系統(tǒng);保持人工智能系統(tǒng)開發(fā)團隊的多樣性和包容性。也只有如此,我們才有可能最大限度地規(guī)避人工智能系統(tǒng)的決策和行為所帶來的潛在風險,從而確保人工智能系統(tǒng)的應用有助于實現(xiàn)人類的福祉和根本利益。

        猜你喜歡
        決策原則價值觀
        我的價值觀
        為可持續(xù)決策提供依據(jù)
        圖說 我們的價值觀
        決策為什么失誤了
        堅守原則,逐浪前行
        知名企業(yè)的價值觀
        無罪推定原則的理解與完善
        價值觀就在你我的身邊
        學習月刊(2015年9期)2015-07-09 05:33:44
        惹人喜愛的原則(二)
        知識窗(2010年9期)2010-05-14 09:07:50
        惹人喜愛的原則
        知識窗(2010年8期)2010-05-14 09:07:49
        嗯啊哦快使劲呻吟高潮视频 | 2020国产精品久久久久| 国产一区二区三区乱码在线| 亚洲视频免费一区二区 | 四房播播在线电影| 人妻精品久久中文字幕| 亚洲人妻精品一区二区三区| 经典黄色一区二区三区| 亚洲av无一区二区三区| 亚洲中文字幕无码av| 粗大的内捧猛烈进出在线视频 | 国产伦精品一区二区三区四区| 国产一区二区三区特黄| 丁香五月缴情在线| 国产女主播喷水视频在线观看| 99精品电影一区二区免费看| 青青青国产免A在线观看| 日本一区二区高清在线观看| 亚洲天堂av三区四区不卡| 狠狠躁日日躁夜夜躁2020| 抽插丰满内射高潮视频| 国产精品亚洲婷婷99久久精品| 国产激情在线观看免费视频| 无码人妻人妻经典| 国产在线一区观看| 日韩av无卡无码午夜观看| 综合亚洲二区三区四区在线| 亚洲国产成人av在线观看| 国产3p视频| 日本在线播放不卡免费一区二区| 亚洲偷自拍国综合第一页| 久久国产精品-国产精品| 水蜜桃久久| 成年男人午夜视频在线看| 国产av无码专区亚洲av麻豆| 国产美女露脸口爆吞精| 亚洲人成网站18男男| 一区二区三区四区中文字幕av| 日日碰狠狠添天天爽无码| 国产人成亚洲第一网站在线播放| 女主播国产专区在线观看|