亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能的道德責任歸責問題探究

        2022-03-25 07:01:32新疆師范大學政法學院新疆烏魯木齊830017
        關鍵詞:思維能力規(guī)范人工智能

        孟 歌(新疆師范大學 政法學院,新疆 烏魯木齊 830017)

        一、引言

        科學技術的迅速發(fā)展, 人工智能技術尤其是具有一定自主性的人工智能體(無人駕駛汽車、智能機器人等)在社會生活中得到廣泛的應用[1]。一方面,人工智能的智能化和自主性不斷提升, 人工智能在人類的生活情景中逐漸擔負著重要的作用。另一方面,人工智能的“道德過失”問題也逐漸顯露,例如智能手術機器人造成醫(yī)療事故、 無人駕駛汽車追尾事故等,喚起了人們對人工智能道德失范的擔憂,也引發(fā)了學界對人工智能是否能承擔道德責任問題的思考和研究。尼克·博斯特羅姆(Nick Bostrom)和埃利澤·尤德考斯基(Eliezer Yudkowsky)認為:“人工智能機器人可能引發(fā)一系列的倫理問題, 他既要涉及確保智能機器人不會損害人類以及相關聯(lián)的其他存在者,也與智能機器人本身的道德地位有關。 ”[2]那么,人工智能所造成的行為及其后果是否要求他們承擔道德責任呢?強決定論立場的反對者認為,人工智能無非是執(zhí)行指令的程序, 他們采取的行為是由內(nèi)置的核心裝置所決定的,是設計者的先在的設計,只能遵循既定程序行動, 因而不能作為道德責任歸責的對象。實用主義的贊成者認為,道德責任概念從根本上是一種實用責任概念 (Practical Conception of Moral Responsibility)①。 依據(jù)實用責任概念的觀點,人工智能可以承擔道德責任, 因為他們在一定程度上可以帶來我們想要的改變[3]。 還有一種贊成的觀點,筆者稱之為“他者期待責任能力”道德責任歸責觀點。該觀點認為人工智能可以成為“新的他者期望型道德能動者”,“這種新的道德能動者有著和我們一樣的現(xiàn)代性境遇——低自主性、無明確自我目的、依賴社會系統(tǒng)分配責任, 但是也與我們的道德能動性所要求的一樣,處于社會責任網(wǎng)絡之中,承擔道德責任,進行道德實踐。 ”[4]

        上述的觀點都頗有一番道理, 值得我們學習和研究,但仍然存在一些理論問題。如強決定論者的觀點, 他們認為包括人工智能在內(nèi)的整個世界都處在控制之中,人類自出生始便會受到周圍環(huán)境的影響,人的性格、品德、情感無不例外由所處環(huán)境所決定。如果強決定論為真, 那么任何人都不能為自己的行為承擔道德責任,道德責任也會失去它的意義,這是因為人的一切都是被決定的, 任何人都不能擺脫被決定的命運,而一個被決定的人類世界,道德也會失去它存在的位置。實用主義的支持者,他們贊成人工智能承擔道德責任的可能性, 因為人工智能可以通過一些調(diào)整和設定帶來我們想要的結果。 但是如果實用主義為真, 那么任何一個物質(zhì)都可以進行道德責任歸責,因為可以利用自然規(guī)律改變他們的性質(zhì),或作為他物起到某種效用。 “他者期待責任能力”的觀點有一定說服力, 強調(diào)要與人工智能建立一種他者期待的關系。 但筆者認為他們的觀點存在兩方面的誤區(qū):(1)他們將人工智能的偏差概率的自主性和人類的自主性等量齊觀, 從根本上誤解了人作為行為主體“自主性”的本質(zhì)。 因為人的“自主性”從根本上而言并非一種概率的問題,而概率是一種隨機性,這種隨機性不能作為道德責任歸因的依據(jù);(2)他們沒有解釋這種期待是否是一種依據(jù)道德規(guī)范的內(nèi)在規(guī)范,以及人工智能是否能理解這種規(guī)范性期待。因為期待的發(fā)起者包括我們?nèi)祟悾?人類的期待是建立在某種內(nèi)在規(guī)范上[5],而內(nèi)在規(guī)范要以公正的道德規(guī)范為依據(jù)[6]245-249,要求被期待者能夠理解這種期待。

        考慮上述理論面臨的困境, 文章將從道德責任歸責的行為主體的“自主性”來探究人工智能是否符合道德責任歸責的合適對象的要求。行為主體的“自主性” 是建立在肯定道德責任意義的基礎上討論人工智能的歸責問題, 這在一定程度上可以避免強決定論對道德責任價值的否定。 行為主體的“自主性”包含三種要素:自主選擇、理解規(guī)范的理性思維能力和自我否決能力。這將在文章第二部分詳細討論。隨后,文章將在第三部分再次提及“他者型期待型”的觀點所面臨的挑戰(zhàn),以及證明文章的基本觀點:雖然人工智能可以具有行為主體“自主性”的三種要素的部分構成, 但這不能使我們肯定他們是道德責任歸責的合適對象。

        二、成為行為主體的“自主性”條件

        道德責任是一個傳統(tǒng)的又有持續(xù)熱度的倫理學經(jīng)典問題。 學界對道德責任(moral responsibility)普遍認同是,一個能動者為其所作所為(或不作為)及其相關后果負有道德責任, 指的是此能動者應當由此得到相應的贊賞或責備[7]。上述的能動者筆者稱之為行為主體(agent)。 一個主體是否能夠成為道德責任歸責的對象(行為主體)必須要具備一種 “自主性”, 即要求主體具有:(1) 自主選擇自己行為的能力;(2)能夠認識和理解行為及其后果,并且能夠理解道德規(guī)范以及與他者的內(nèi)在規(guī)范的理性思維能力;(3)自我否決能力[8]。

        (一)自主選擇

        早在古希臘時期,亞里士多德在他的《尼各馬可倫理學》[9](第三卷前五章)中詳細的闡述了只有當主體能夠“自主選擇”(這里借以“自主選擇”來代表亞氏的觀點) 的時候才能成為道德責任歸責的合適對象。自主選擇也是哲學家們普遍認同的歸責條件,他要求主體的行為是自己選擇的結果。 自主選擇在我們?nèi)粘I钪斜毁x予了十分重要的意義, 我們可以選擇自己上學的形式,選擇自己喜歡的衣服,選擇幫助這個人而不是另一個人, 選擇聽搖滾音樂或民族音樂, 這些選擇可以說是行為主體最真實的直覺體驗。 當然,自主選擇也不是無條件的,他作為道德責任歸責的條件有兩個方面的要求: 控制力條件和認知條件[6]28。 例如:

        A1:沙沙喜歡古玩,夏日的某一天她來到了古玩店,因為喜歡一個紫色的瓷器。 老板見她如此喜歡,便示意她可以拿起來觀摩, 正當她小心翼翼地拿起瓷器時,因為天氣炎熱沙沙的手心有汗,外加心情緊張,不小心把瓷器滑落掉摔在地上。

        A2:沙沙喜歡古玩,夏日的某一天她來到了古玩店,因為喜歡一個紫色的瓷器。 老板見她如此喜歡,便示意她可以拿起來觀摩, 正當她小心翼翼拿起瓷器時,突然發(fā)生了地震,不可抗拒的力量把沙沙手中的瓷器掉落在了地上。

        從A1 來看,我們能直觀地判決沙沙應當為自己的行為承擔責任, 因為他符合道德責任歸責主體的自主選擇的兩個方面的要求。首先,沙沙符合控制力條件。 她可以選擇拿起瓷器, 也可以選擇不拿起瓷器,她還能夠選擇其他類型的行為,因為這些行為在她的控制之下,并沒有外在力量的強制。 其次,沙沙符合認知條件。 因為她能夠認識到瓷器的重要性以及可能出現(xiàn)的后果。 即使夏天的炎熱引起的手心出汗,導致她不小心把手中瓷器摔落在地,但是她本可以認識到或提前預知這樣行為及其后果出現(xiàn), 因此她要為自己的選擇和不細心承擔道德責任。 相較于A1,A2 的情景中沙沙不能承擔道德責任, 因為她摔碎瓷器的原因在于不可抗拒的力量, 并非她能控制的范圍之內(nèi)。 她可以預防夏天流汗會摔碎瓷器的后果,卻不能預防地震引起的擺動所造成的后果。這正如相容論者華萊士(R.Jay Wallace)所承認的:“只有當一個行為主體的行為違背道德義務時, 他才能被責備; 而當一個行為主體的行為是他自己選擇的結果時,他的行為才違背了道德義務”[10]。 如果沙沙沒有對自己的行為有任何自主選擇, 她行為的一切都是由一種強大的外在力量所決定的, 在這樣的決定下,她所有的行為都是一種必然的結果,我們更沒有理由認為她的行為適用于道德責任歸責。

        (二)理解規(guī)范的理性思維能力

        上一部分已經(jīng)談到行為主體作為道德責任歸責的對象需要滿足認知條件, 即對自己的行為及其后果有一定認知能力。 而這個認知能力是人的理性思維能力一種表現(xiàn)。 行為主體生來就具有一種對外部世界產(chǎn)生認知和思考的理性思維能力, 這也是人類所獨有的能力, 因為人并不像其他動物一樣被動的接受外部環(huán)境的一切, 人類可以自覺地對自然規(guī)律產(chǎn)生某種理性的認識, 并將這種認識作為一種思維材料,通過實踐活動轉化,形成對外在規(guī)律的正確認識。 這種理性思維能力要求行為主體能夠理解道德規(guī)范對他提出的合理性要求, 通過這種理解可以形成自覺的道德意識, 自律自愿的遵守道德規(guī)范和道德準則。 現(xiàn)在讓我們假設一種情景用于討論缺乏理性思維能力是否能夠歸責的問題。

        沙沙因為先天的身體問題對道德規(guī)范缺乏一定的認知能力,她不能認識到道德規(guī)范的合理性要求。她不能理解什么是善的行為、 什么是惡的行為。 一天,有個壞人讓她做一件壞事。她并不能理解這個事情本身是善還是惡,由于她的樂于助人的性格,她應邀去做了這件事。

        在這種情況, 我們通常認為沙沙因為缺乏一種先天的理性思維能力, 不能理解道德規(guī)范的合理性要求, 對于什么是善的行為或什么是惡的行為全然無知。即使沙沙如實地做了壞人要求的事情,她也因缺乏理解道德規(guī)范的理性思維能力, 不能認為她是道德責任歸責的合適對象。此外,理性思維能力還要求能夠理解他者與他者之間的內(nèi)在規(guī)范, 能夠理解他者對自我行為的意圖、態(tài)度的合理性期待。 例如:沙沙和小歌處在一種相互的交互式關系之中, 這種交互式關系是會使得一方對另一方產(chǎn)生一種內(nèi)在要求,是對另一方行為的意圖、態(tài)度或是目的的一種期待性要求[5]。 當沙沙遇到困難的時候,她會期待小歌能夠伸出援手去幫助她, 這種期待就是對小歌同她所處的一種交互式關系的內(nèi)在規(guī)范。 理性思維能力同樣被要求能夠理解這種內(nèi)在規(guī)范, 理解在交互式關系中他者對另一個他者的合理性要求, 而一個無法理解內(nèi)在規(guī)范的行為主體, 同樣不能認同他是承擔道德責任的合適對象??偠灾?,不管是道德規(guī)范還是內(nèi)在規(guī)范都是對道德行為與道德之間的關系規(guī)范,也同樣要求我們理解這種規(guī)范關系的涵義。 “只有具備能夠理解道德行為與道德之間關系的正常行為主體才能承擔道德責任。 ”[11]值得指出的是,內(nèi)在規(guī)范也要符合道德規(guī)范的合理性要求。 一名學生期待老師對他考試開小灶的內(nèi)在規(guī)范并不符合道德規(guī)范的合理性要求; 而一名學生期待老師認真?zhèn)湔n的內(nèi)在規(guī)范是符合道德規(guī)范的合理性要求。 這是因為學生對考試開小灶的期待不符合道德規(guī)范對學生公正考試的要求, 而老師備好課的期待符合道德規(guī)范對老師認真負責的要求。

        (三)自我否決能力

        上世紀八十年代, 精神學家李百特(Benjamin Libet)做了一系列的精神時間的實驗。實驗結果顯示任何一個行為主體的簡單的意愿性活動, 總有一個神經(jīng)元活動在受試者的意愿知覺時間前的350~800毫秒發(fā)生[12]。 這說明那些看似自發(fā)性的意愿活動,其實在大腦之前已經(jīng)有了預兆[6]106。 李百特認為我們的意愿或意圖雖被大腦的神經(jīng)元所控制了, 但仍然有一定的空窗期可以否決這個意愿或意圖。 他推測這種能夠否決意愿和意圖的能力就是我們的自由意志。但是,李百特又認為這樣的自由意志有時候可以超出我們物理規(guī)律的范圍之外,如果決定論為真,那么我們就不會有任何自由的體驗。

        文章認為李百特的觀點為我們帶來一種對“自由” 的理解, 但他的觀點的部分內(nèi)容也是值得懷疑的。 我們在現(xiàn)實生活中總能感受到一種自我否決的直覺體驗,這種感受是直觀的,似乎是我們對自由的最純粹的感受。例如,你在圖書館哲學書架挑選所看的書籍,當你選擇拿起一本哲學書時,你突然驚訝,我選擇這本書是不是被外在的東西決定了? 當你否定這個想法時,你也可以否定你是被決定的想法,以此類推。我們總可以否定掉我們的選擇,也能否定我們的否定。這種否定感受是真實的,是我們本身擁有的最基本的能力。那么,在某種決定的世界中能否有某種否定的體驗呢?我想是肯定的,正如某種被設定好的電腦(無差錯),它能夠否定掉我們的任何指令,包括否定我們不讓它否定的指令的指令。 當我們向這臺電腦發(fā)送打開網(wǎng)頁的信息,它能夠否定我們的指令;當我們試圖讓它不要否定我們的指令時,它仍然可以否定我們這一指令。 我們從被決定的電腦的這個例子能夠看到,即使是被決定好的電腦,依舊能夠讓我們感受到一種否定的體驗。那么,決定論的否決的體驗是不是對我們自由或道德責任的否定? 可能并不是, 行為主動的否決能力的最大特點是“自由”。 因為行為主體的否決能力是自覺的否決,而不是機械的“輸入-輸出”的否決;是能夠感受意義和價值的否決,而不是機械的無意義被動的否決。 因此,否決能力是行為主體自覺意識的體驗, 是我們考慮行為主體是否作為道德責任歸責合適對象的一個必要的因素。

        三、人工智能非道德責任歸責的合適對象

        雖然人工智能的自主性隨著科學技術的發(fā)展不斷提升,但人工智能的自主性不同于行為主體的“自主性”,他們不能滿足道德歸責的全部要素,也不能成為道德責任歸責的合適對象。 那么人工智能的自主性滿足哪些要素的構成?為什么不滿足全部要素?文章將從三個部分展開論述。

        (一)人工智能的自主選擇的限度

        人工智能是否有自主選擇呢? 那就要看人工智能能否滿足自主選擇的兩個條件, 即認知條件和控制力條件。 可以說人工智能在某種程度上,可以滿足自主選擇的認知條件。 如美國學者大衛(wèi)·弗拉德克(David Vladeck)認為人工智能可以自主獲取數(shù)據(jù)、處理和分析數(shù)據(jù),并通過數(shù)據(jù)的分析自主的行動[13]。駱正言認為人工智能Nico 可以通過了“智者難題”(Wise-men Puzzle)的測試,具有自我意識,具備理解自己行為的自我性能力[14]。

        但是人工智能并不能滿足控制力條件, 因為人工智能的自主性表現(xiàn)為在不同形勢下做出不同的行動,不能表現(xiàn)為在相同情況下做不同的行動[11]。 現(xiàn)在讓我們回到“他者期待責任能力”的觀點,他們對自主性的質(zhì)疑提出了“一種概率意義上的行為多樣性假設, 即機器行為發(fā)生偏差的幾率與人類不按照他人期望行事的幾率大致相同”[4]28。認為機器人的自主性等價于人的“自主性”。 人的“自主性”要求一種控制力,即自己的行為是自己的。從本質(zhì)上講人類即使不按照他人期望行事,也可以是一種“自主性”的表達, 正如一個妒忌的人因為妒忌故意不滿足他者的期待。 而人工智能行為發(fā)生偏差的幾率是一種概率問題, 從某種程度上來說這既不被人工智能自身所控制,也不能為外在設計者所控制。 概率是偶然的,但概率一旦被確定,它本身又是一種必然的。不管是偶然還是必然都不能作為道德責任歸責的條件。 這是因為偶然的世界中, 任何一個行為主體的行為意圖、態(tài)度或是目的都是偶然的,他的所有的行為都處在一定的概率變化之中, 誰也不能對他的行為充滿期待,因為我們根本不知道他會怎么行動;必然的世界中,任何一個行為主體的意圖、態(tài)度或是目的都是必然的, 他的所有的行為都處在一個必然決定的狀態(tài)之中, 對一個必然的行為主體任何期待都變的毫無意義,因為任何對象都無法改變必然的行為結果。因此, 人工智能本身的這種自主性并不等同于人類本身的“自主性”,人工智能的自主性可以滿足自主選擇的認知條件,但不能滿足控制力條件。

        (二)人工智能不具備理解規(guī)范的理性思維能力

        柯林·艾倫 (Colin Allen)、 加理·瓦爾納(Gary Varner)和杰森·辛瑟(Jason Zinser)構造了“道德圖靈測試”用于測試人工智能是否具備道德能力[15]。 實踐表明,被設計好的人工智能可以通過“道德圖靈測試”,它能夠理解符號化和規(guī)范化的道德規(guī)范和道德準則,并以此為依據(jù)調(diào)解道德沖突。 但是,人工智能是否真的能夠理解道德規(guī)范的實質(zhì)嗎? 文章認為當前的人工智能并不能理解。人工智能所理解的內(nèi)容,是由設計者設定的, 人工智能可以在道德規(guī)范和道德準則的符號化和規(guī)范化的內(nèi)容中進行分析處理,但他們不能理解道德規(guī)范對行為主體道德行為的要求的背后的意涵,簡單來說,人工智能不能理解我們?yōu)槭裁匆袷氐赖乱?guī)范。讓我們再次回到“他者期待責任能力” 觀點, 該觀點認為可以將人工智能視為“新的他者期望型道德能動者”, 以此作為人工智能承擔道德責任依據(jù)。 但是要從“他者期待責任能力”觀點回答人工智能的道德責任問題, 必然會面臨內(nèi)在規(guī)范的問題, 而且這個內(nèi)在規(guī)范同時需要符合道德規(guī)范的合理性要求。 人工智能不具備理性思維能力,他從根本上不能理解“他者的期待”。因為這種期待是對他者的行為態(tài)度、 目的或意圖的一種期待性的情感價值, 要求被期待者能夠理解我為什么會對你有這種期待,而人工智能并不能理解這種“期待”的含義, 不能理解我們對他們期望的行為是為了什么, 因此不能將人工智能視為道德責任歸責的合適對象。

        (三)人工智能只能具備被動的否決能力

        人工智能在一定意義上可以具備否決能力,設計者可以設定人工智能對外在刺激的反應給予一種否定的回應。 例如:我們可以設定一臺智能機器人,當他面對一個拿書的指令時,他可以否定這個指令,去做別的行為, 甚至可以設計讓他面對多次同樣要求的指令時,發(fā)出一種抗拒的語音。 同時,我們也可以設定人工智能面對某一指令時, 有一定概率否定執(zhí)行的指令,增加人工智能行為的不可預測性。但問題是, 即使這種設定人工智能從表面上看是充滿自由的,但人工智能的否決能力是被動的,他不同于行為主體的“自主性”的否決功能;前者的否決只是“輸入-輸出”式的否決能力,后者“自主性”的否決功能是一種自覺的否決能力, 可以在不受任何外部刺激作用下自主否決。因此,人工智能只能具備被動的否決能力,而不能具有自主自覺的否定能力。而只能具備被動的否決能力的人工智能, 我們不能認定他們是道德責任歸責的合適對象。

        四、結語

        文章通過考察道德責任歸責的對象——行為主體所需具備的“自主性”的三種要素,即自主選擇、理解規(guī)范的理性思維能力和自我否決能力, 來闡述人工智能并非道德責任歸責的合適對象。通過考察,文章得出的結論是: 人工智能的可以具備自主選擇的認知條件,但不具備自主選擇控制力條件;人工智能可以具備理解道德規(guī)范和道德準則的符號化和規(guī)范化內(nèi)容,不能理解道德規(guī)范的實質(zhì),不能理解道德規(guī)范對行為主體的道德行為要求的背后的意義, 也不能理解與他者關系的內(nèi)在規(guī)范; 人工智能可以具備否決能力,但人工智能僅具備被動的否決能力,不具備自主自覺的否決能力。因此,人工智能雖然具備行為主體“自主性”的部分要素的構件,但這些要素構件不具備一種強健性, 不足以使我們承認人工智能是適合的道德責任歸責的對象。

        雖然當前的人工智能并不能作為道德責任歸責的合適對象, 但并不妨礙人工智能作為一個可期待的對象, 我們可以視人工智能同貓狗等一樣具有一定認知能力,可以賦予一種精神上和情感上寄托。同時,人工智能技術還在不斷發(fā)展和進步,人工智能會逐漸在人類社會中占據(jù)重要的地位。 我們要合理看待技術進步帶來的對人“自主性”的挑戰(zhàn),一方面,我們要逐漸弱化人類中心主義的思想, 實現(xiàn)同其他共同體的和諧共生;另一方面,要積極的通過實踐的努力認識和掌握規(guī)律,不斷的深化人的“自主性”,擴大人的自由。

        注 釋:

        ①實用主義的決定論立場與強決定論立場不同,前者承認道德責任的存在意義。 實用責任概念是在決定論的立場下,認為一個人要對某一行為負責, 由于這個行為可以用一個實用理由(practical reason)的方式來對待他。例如,沙沙今天幫助了一名同學帶飯,同學十分的感謝她并贈送了糖果。 “感謝和贈送糖果”,可以看作沙沙幫助同學帶飯的一個實用理由。

        猜你喜歡
        思維能力規(guī)范人工智能
        來稿規(guī)范
        來稿規(guī)范
        PDCA法在除顫儀規(guī)范操作中的應用
        來稿規(guī)范
        培養(yǎng)思維能力
        培養(yǎng)思維能力
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        培養(yǎng)思維能力
        兒童繪本(2018年19期)2018-10-31 21:02:34
        人工智能與就業(yè)
        培養(yǎng)思維能力
        兒童繪本(2018年9期)2018-06-04 16:40:12
        日韩av一区在线播放| 国产美女露脸口爆吞精| 欧美国产小视频| 免费福利视频二区三区| 久久精品国产亚洲av久按摩| 人妻少妇精品无码专区| 成人免费网站视频www| 国产成人精品日本亚洲直播| 视频国产一区二区在线| 亚洲人成网站色7799| 131美女爱做视频| 亚洲欧洲AV综合色无码| 精品国产中文久久久免费| 国产精品99精品久久免费| 久久久久久久性潮| 无遮高潮国产免费观看韩国| 丰满少妇被爽的高潮喷水呻吟| 夜夜爽妓女8888888视频| 激情97综合亚洲色婷婷五| 亚洲AV专区一专区二专区三| 国产精品性色av麻豆| 午夜射精日本三级| 丝袜AV在线一区二区三区| 美女黄网站永久免费观看网站| 日本av亚洲中文字幕| 色偷偷噜噜噜亚洲男人| 亚洲精品综合第一国产综合| 一区二区三区手机看片日本韩国| 本道天堂成在人线av无码免费| 狠狠色噜噜狠狠狠888米奇视频| 成人不卡国产福利电影在线看| 亚洲av极品尤物不卡在线观看| 中文字幕亚洲无线码在线一区| 在线亚洲人成电影网站色www| 国产亚洲精品综合在线网址| 亚洲天堂av在线免费观看| 国产成人a在线观看视频免费| 伊人色网站| 视频一区中文字幕在线观看| 国产熟妇疯狂4p交在线播放| 亚洲男人天堂|