亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能發(fā)展中的倫理問(wèn)題探究

        2021-12-08 01:26:27李傳軍
        關(guān)鍵詞:人工智能

        李傳軍

        摘要:近年來(lái),人工智能發(fā)展勢(shì)頭強(qiáng)勁,深刻地改變了人類(lèi)的生產(chǎn)方式和生活方式,極大地推動(dòng)了經(jīng)濟(jì)社會(huì)的發(fā)展。然而,人工智能也引發(fā)了一系列重要問(wèn)題,迫切需要我們從倫理學(xué)意義上作出解答。比如,在我們的社會(huì)中,人工智能的行為應(yīng)當(dāng)是怎樣的?人工智能會(huì)不會(huì)侵犯人們的隱私權(quán)?人工智能會(huì)造成大規(guī)模的失業(yè)現(xiàn)象嗎?可以在戰(zhàn)爭(zhēng)中使用智能武器嗎?對(duì)超級(jí)人工智能和異?,F(xiàn)象擔(dān)憂(yōu)是“杞人憂(yōu)天”嗎?我們應(yīng)當(dāng)把人工智能當(dāng)作人一樣對(duì)待嗎?道義論、功利主義、美德倫理為我們理解人工智能倫理提供了三個(gè)不同的視角。尋找人工智能倫理調(diào)適的基本路徑應(yīng)當(dāng)從界定人類(lèi)與人工智能的關(guān)系入手,即人工智能的發(fā)展必須增進(jìn)人類(lèi)福祉,遵循人類(lèi)的基本價(jià)值觀(guān)。

        關(guān)鍵詞:人工智能;科技倫理;道德主體;倫理責(zé)任;倫理困境

        中圖分類(lèi)號(hào):B82? ? 文獻(xiàn)標(biāo)志碼:A? ? ?文章編號(hào):1009-3605(2021)06-0038-11

        一、導(dǎo)言

        近年來(lái),人工智能已經(jīng)成為信息科技領(lǐng)域發(fā)展勢(shì)頭最為強(qiáng)勁的“排頭兵”,甚至有人將之稱(chēng)為對(duì)人類(lèi)經(jīng)濟(jì)、社會(huì)、文化等各領(lǐng)域產(chǎn)生重大影響的顛覆性技術(shù)。人工智能研究的最終目標(biāo)是從一個(gè)新的視角來(lái)認(rèn)識(shí)人類(lèi)的思維能力。人工智能與其他新興技術(shù)一道,形成了人工智能技術(shù)產(chǎn)業(yè)圈,深刻地改變了人類(lèi)的生產(chǎn)方式和生活方式[1],極大地推動(dòng)了經(jīng)濟(jì)社會(huì)的發(fā)展。然而,人工智能的“超能力”也足以讓人們產(chǎn)生某種擔(dān)憂(yōu),霍金就曾警告超人工智能會(huì)毀滅人類(lèi)[2]。辯證地看,對(duì)人工智能盲目樂(lè)觀(guān)或者過(guò)于悲觀(guān)都不可取。積極的態(tài)度是正確應(yīng)對(duì),興利除弊,使人工智能更好地造福于人類(lèi)。

        對(duì)于人工智能的理解取決于何謂“智能”。所謂“智”,即智慧,從心理學(xué)角度來(lái)看,知覺(jué)、判斷、思維等構(gòu)成了智慧的主要內(nèi)容。所謂“能”,即能力,將智慧以語(yǔ)言或行為表達(dá)出來(lái)即為能力。那么,基于上述“智能”認(rèn)識(shí),人工智能一般是指能夠模仿人類(lèi)智能的機(jī)器。[3]關(guān)于這一點(diǎn),有人發(fā)出這樣的疑問(wèn):人工智能究竟是擴(kuò)展了人類(lèi)的智能,還是對(duì)人類(lèi)智能的替代?人工智能也好,機(jī)器智能也好,都不是簡(jiǎn)單的技術(shù)的改變,而是生產(chǎn)力、生產(chǎn)關(guān)系、生產(chǎn)資料的改變。就人工智能的本質(zhì)而言,它還是一種虛構(gòu),尤其是一種科技意義上的虛構(gòu),這正如文學(xué)創(chuàng)作中所虛構(gòu)的人物和場(chǎng)景一樣。盡管如此,后者也產(chǎn)生了重要的作用。問(wèn)題的關(guān)鍵是,人工智能能否像人們所期望的那樣不會(huì)對(duì)人類(lèi)造成傷害?或者,人們所擔(dān)心的是負(fù)責(zé)設(shè)計(jì)人工智能的人在一開(kāi)始設(shè)計(jì)的時(shí)候就作出了錯(cuò)誤的選擇。

        如果僅僅把人工智能看作是一種設(shè)備,那么很難說(shuō)它與倫理問(wèn)題有什么關(guān)聯(lián)。但是,對(duì)人工智能進(jìn)行倫理考量,可以幫助人工智能設(shè)計(jì)者或者程序員盡可能考慮到人工智能的潛在風(fēng)險(xiǎn)以及自動(dòng)設(shè)備的責(zé)任歸屬問(wèn)題。因?yàn)榧词谷斯ぶ悄懿](méi)有內(nèi)置道德規(guī)范,但只要人工智能產(chǎn)生了倫理影響,即可以將之視為道德受體。進(jìn)一步說(shuō),是否人工智能具備自主能力,就可以成為道德主體?而一旦被視為道德主體,是否要求人工智能具備情感、意志等方面的條件?因此,對(duì)于人工智能問(wèn)題,應(yīng)進(jìn)行系統(tǒng)的倫理思考,從而使得人工智能程序員、參與者和理論研究者能夠在他們的工作中考慮到人工智能對(duì)于倫理可能產(chǎn)生的影響。人工智能與新技術(shù)融合后,許多新舊問(wèn)題交織在一起,這使得與人工智能相關(guān)的倫理問(wèn)題極其復(fù)雜。[4]

        人工智能技術(shù)發(fā)展非常迅速,比如在一些相當(dāng)困難的游戲領(lǐng)域,人工智能的表現(xiàn)遠(yuǎn)遠(yuǎn)超過(guò)人類(lèi)。在自動(dòng)駕駛方面,人工智能技術(shù)得到了廣泛應(yīng)用。另外,人工智能軟件還能夠基于大量的數(shù)據(jù)實(shí)現(xiàn)人臉、語(yǔ)言和行為的精準(zhǔn)識(shí)別。這些人工智能應(yīng)用產(chǎn)生了大量的公共數(shù)據(jù),從而可能對(duì)人類(lèi)未來(lái)產(chǎn)生某種不利的影響。即便這只是一種可能性,對(duì)于人工智能的倫理考量也是必要的。況且,人工智能不僅在思維層面取得了較大進(jìn)展,而且在情感層面越來(lái)越擬人化,[5]以至于當(dāng)人工智能以人類(lèi)所具有的功能相互作用時(shí),至少在部分意義上,它們是被當(dāng)作社會(huì)成員的。人工智能嵌入我們的生活引發(fā)了一系列重要的問(wèn)題。這些問(wèn)題或多或少與倫理有關(guān)聯(lián),有些問(wèn)題迫切需要我們從倫理學(xué)意義上作出解答。

        二、人工智能引發(fā)的倫理問(wèn)題

        人工智能為人類(lèi)社會(huì)發(fā)展提供了美好的前景,但同時(shí)也產(chǎn)生了諸多至關(guān)重要的問(wèn)題,這些問(wèn)題如果運(yùn)用倫理的視角分析可以得到更好的理解。

        (一)在我們的社會(huì)中,人工智能的行為應(yīng)當(dāng)是怎樣的?

        人類(lèi)社會(huì)經(jīng)歷了幾千年才造就現(xiàn)在的文明,在這一過(guò)程中,由于人類(lèi)的錯(cuò)誤也曾經(jīng)使得文明遭遇劫難,人類(lèi)在處理自身錯(cuò)誤時(shí)已經(jīng)積累了一定的經(jīng)驗(yàn),但是,對(duì)于人工智能可能犯的錯(cuò)誤,人類(lèi)還沒(méi)有做好充分的準(zhǔn)備。計(jì)算機(jī)病毒造成的損害,人們已經(jīng)明了,而一旦人工智能系統(tǒng)中植入了不良代碼,或者人工智能系統(tǒng)被惡人控制,那么,其造成的損害將是人類(lèi)所不能承受之重。

        人工智能在最基礎(chǔ)的層面來(lái)說(shuō)就是能夠作出選擇的計(jì)算機(jī)程序。當(dāng)然,現(xiàn)在的智能系統(tǒng)主要是輔助人類(lèi)作出決策,例如智慧城市中的交通、供水、供電等方面的系統(tǒng)優(yōu)化。未來(lái),人工智能會(huì)更廣泛運(yùn)用到其他領(lǐng)域,人工智能也有望在我們的日常生活中得到更多的應(yīng)用,比如智能掃地機(jī)、自動(dòng)駕駛以及幫助照看寵物等。

        我們都知道計(jì)算機(jī)程序能夠產(chǎn)生預(yù)料之外的后果,而且植入計(jì)算機(jī)系統(tǒng)也會(huì)產(chǎn)生附加的影響。正如真實(shí)世界的經(jīng)濟(jì)會(huì)突然崩潰一樣,計(jì)算機(jī)系統(tǒng)也不例外。人工智能具有自主學(xué)習(xí)能力,其行為會(huì)否超出人類(lèi)的控制,從而造成無(wú)法挽回的損失?它們的責(zé)任與一般意義上的社會(huì)倫理責(zé)任有何關(guān)系?這是一個(gè)必須認(rèn)真對(duì)待的問(wèn)題。從本質(zhì)上來(lái)說(shuō),人工智能倫理問(wèn)題雖然是因技術(shù)而產(chǎn)生的,但是它卻無(wú)法僅僅依靠技術(shù)來(lái)解決,人工智能的技術(shù)研發(fā)和應(yīng)用必須受到法律和道德規(guī)范的約束。不受任何約束的技術(shù),很有可能造成人類(lèi)的毀滅。[6]可行的方案是建立人工智能倫理審查委員會(huì)以對(duì)人工智能倫理相關(guān)問(wèn)題進(jìn)行全面監(jiān)管。[7]倫理源于情感,比如孟子所說(shuō)的“惻隱之心”就是基于情感的倫理意識(shí),“羞惡之心”“辭讓之心”“是非之心”,雖然有了較多的理性反思,但或多或少地與情感有一定的聯(lián)系。因此,人工智能的道德學(xué)習(xí)是一個(gè)比較復(fù)雜的過(guò)程,它更多的是一個(gè)情感過(guò)程而非技術(shù)過(guò)程,因而很難程序化,這就使得人類(lèi)對(duì)于人工智能倫理的監(jiān)管更為困難。人工智能倫理的關(guān)鍵是將人工智能這種技術(shù)物提升到人所處的道德地位,從而使人工智能成為受到倫理規(guī)范約束的道德能動(dòng)者。[8]

        (二)人工智能會(huì)不會(huì)侵犯人們的隱私權(quán)?

        從社會(huì)發(fā)展的角度來(lái)看,隱私保護(hù)是文明社會(huì)的一個(gè)重要標(biāo)志。隱私權(quán)是一項(xiàng)基本的人格權(quán)利,是人權(quán)的重要構(gòu)成部分,保護(hù)隱私權(quán)就是保護(hù)人權(quán)。在大數(shù)據(jù)時(shí)代,數(shù)據(jù)就是隱私。人工智能在開(kāi)發(fā)、使用過(guò)程中會(huì)收集大量用戶(hù)信息,這些信息單獨(dú)地看,都是碎片化的信息,并不包含過(guò)多的隱私內(nèi)容,但是,當(dāng)運(yùn)用一定的智能算法來(lái)整合這些數(shù)據(jù)時(shí),某個(gè)人的一切行為都會(huì)被描繪出來(lái),也就是說(shuō),個(gè)人信息都會(huì)暴露無(wú)遺,隱私完全不存在了。在現(xiàn)代社會(huì),很難想像一個(gè)人能夠完全脫離互聯(lián)網(wǎng),然而,只要運(yùn)用網(wǎng)絡(luò),個(gè)人隱私信息就不可避免地被獲取,特別是一些不法分子在經(jīng)濟(jì)利益的驅(qū)動(dòng)下,利用法律或政策的漏洞大肆收集用戶(hù)個(gè)人隱私信息,另外還有一些黑客通過(guò)入侵的手段竊取用戶(hù)的隱私信息。鑒于人工智能的算法對(duì)于普通用戶(hù)而言完全是一個(gè)黑箱,用戶(hù)的個(gè)人信息往往是在用戶(hù)不知情的情況下就被收集了,人們難免對(duì)個(gè)人隱私信息會(huì)否被過(guò)度收集而心存疑慮。[9]確實(shí),在信息時(shí)代,要做到“大隱隱于網(wǎng)”是極其困難的,每個(gè)人都好像是“透明人”,不管他(她)在大街上、在單位,或者是在家里,都像處于“圓形監(jiān)獄”中。人們都希望一方面享受信息化的便利,另一方面保護(hù)個(gè)人隱私,這同樣也是人們運(yùn)用人工智能的倫理困境。

        由于人工智能具有自主學(xué)習(xí)的能力,人們?cè)谑褂萌斯ぶ悄軙r(shí),哪些信息會(huì)被收集,收集的信息如何處理,用戶(hù)是一無(wú)所知的。當(dāng)人工智能系統(tǒng)存在漏洞時(shí),它不可避免地對(duì)人們的隱私權(quán)造成侵犯。一旦這些隱私數(shù)據(jù)被無(wú)意或惡意泄露,犯罪分子就可能利用這些隱私數(shù)據(jù)從事犯罪活動(dòng)。

        數(shù)據(jù)是人工智能倫理約束的主要內(nèi)容。為了防范可能出現(xiàn)的上述問(wèn)題,必須要求人工智能相關(guān)數(shù)據(jù)是透明的,即它所收集的任何數(shù)據(jù)必須以明示的方式獲得用戶(hù)的許可,而且,這些數(shù)據(jù)的流向以及使用方式也必須是透明的。對(duì)于技術(shù)與倫理的關(guān)系,有人主張應(yīng)當(dāng)倫理優(yōu)先。人工智能發(fā)展不能以犧牲個(gè)人隱私權(quán)為代價(jià),現(xiàn)在各種應(yīng)用場(chǎng)景中的人臉識(shí)別已經(jīng)引發(fā)人們對(duì)于技術(shù)凌駕于倫理之上的擔(dān)憂(yōu)。人工智能倫理的核心問(wèn)題之一是責(zé)任,在人工智能設(shè)計(jì)、使用等各個(gè)環(huán)節(jié)都需要強(qiáng)化倫理審查、約束機(jī)制,收集要授權(quán),使用有界限,存儲(chǔ)應(yīng)保護(hù),唯其如此,才能形成人工智能有序發(fā)展、規(guī)范發(fā)展、健康發(fā)展的局面。

        (三)人工智能會(huì)造成大規(guī)模的失業(yè)現(xiàn)象嗎?

        歷史地看,每一次技術(shù)革命都會(huì)造成失業(yè)現(xiàn)象,特定的工種或工作崗位會(huì)被淘汰。人工智能是一種能夠替代人的智力勞動(dòng)和體力勞動(dòng)的前沿技術(shù)。毫無(wú)疑問(wèn),“雇傭”智能機(jī)器人“性?xún)r(jià)比”更高,因此,人工智能所帶來(lái)的自動(dòng)化浪潮對(duì)于勞動(dòng)密集型產(chǎn)業(yè)的影響是極其巨大的。當(dāng)人工智能越來(lái)越強(qiáng)大時(shí),傳統(tǒng)經(jīng)濟(jì)領(lǐng)域會(huì)減少大量原來(lái)由人力所承擔(dān)的工作崗位,特別是那些簡(jiǎn)單的、重復(fù)性的工作崗位會(huì)被人工智能所替代,從而大幅度提高工作效率,降低生產(chǎn)成本,但是就業(yè)者的勞動(dòng)權(quán)被剝奪,這會(huì)減少其經(jīng)濟(jì)收入,降低其生活質(zhì)量,加重其挫敗感,加劇社會(huì)不公平,甚至造成社會(huì)結(jié)構(gòu)的不穩(wěn)定。人工智能取代人的工作崗位并不僅僅局限于勞動(dòng)密集型產(chǎn)業(yè),在一些智力密集型行業(yè),如醫(yī)療保健、新聞媒體、教育培訓(xùn)等,都出現(xiàn)了人工智能對(duì)人的工作崗位的取代現(xiàn)象[10]。如果隨著人工智能應(yīng)用范圍的擴(kuò)展,當(dāng)絕大多數(shù)工作都由人工智能承擔(dān)時(shí),那么,人的主體性地位將受到挑戰(zhàn),因?yàn)楣ぷ鞑⒉粌H僅是謀生的手段,更重要的是人作為主體的標(biāo)志。如果一個(gè)人因?yàn)槁浜笥谌斯ぶ悄軙r(shí)代,而被時(shí)代所拋棄,成了“多余的人”,那是多么荒謬的事啊。

        當(dāng)然,也有一種說(shuō)法是,新技術(shù)會(huì)增加一些新的工作崗位。然而,這些工作崗位并非那些因?yàn)榧夹g(shù)革新而失去崗位的人所能勝任的,而且,這些人由于其所從事的主要是簡(jiǎn)單勞動(dòng),勞動(dòng)技能較低,通過(guò)再培訓(xùn)獲得需要更高技術(shù)要求的新崗位也是極為困難的,即便能夠再就業(yè),也很有可能淪為智能機(jī)器的附庸。對(duì)于這些人來(lái)說(shuō),不公平顯然是存在的。人工智能技術(shù)的發(fā)展,在提高工作效率、消除舊技術(shù)所帶來(lái)的不公平的同時(shí),也會(huì)造成新的不公平,即掌握了人工智能技術(shù)的人能夠獲得更大的就業(yè)方面的優(yōu)勢(shì)地位,從而形成“人工智能鴻溝”。這一鴻溝可以存在于不同人群,也可以存在于不同地區(qū)、不同國(guó)家。為了防止“資本的邏輯”或“技術(shù)的邏輯”來(lái)主宰人類(lèi)的命運(yùn),勞動(dòng)者要做好心理準(zhǔn)備與技能儲(chǔ)備;政府應(yīng)當(dāng)考慮到人工智能發(fā)展對(duì)于傳統(tǒng)就業(yè)的沖擊,要為被人工智能替代的人尋找出路,通過(guò)教育、培訓(xùn)提升他們的專(zhuān)業(yè)技能,建立健全社會(huì)保障制度,保護(hù)他們的合法權(quán)益。

        (四)可以在戰(zhàn)爭(zhēng)中使用智能武器嗎?

        關(guān)于在戰(zhàn)爭(zhēng)中使用智能武器的做法,已經(jīng)引起了廣泛的爭(zhēng)論。反對(duì)智能武器的觀(guān)點(diǎn)認(rèn)為,一旦允許在戰(zhàn)爭(zhēng)中使用智能武器,怎樣保證它只針對(duì)軍事人員而不殺戮平民?它能否像戰(zhàn)士一樣遵循戰(zhàn)爭(zhēng)道德?誰(shuí)來(lái)決定是足以使敵人喪失反抗能力即可還是直接殺死敵人?有人擔(dān)心,一旦智能武器被恐怖分子掌控,很可能造成對(duì)平民的大規(guī)模殺戮,甚至?xí)l(fā)世界大戰(zhàn)。

        不過(guò),也有很多人支持在戰(zhàn)爭(zhēng)中使用智能武器。他們認(rèn)為,很多戰(zhàn)爭(zhēng)是必需且正義的,智能武器能夠讓人遠(yuǎn)離火線(xiàn)。這種觀(guān)點(diǎn)還認(rèn)為,在遵循旨在減少戰(zhàn)爭(zhēng)犯罪的戰(zhàn)爭(zhēng)法和交戰(zhàn)規(guī)則的前提下,戰(zhàn)爭(zhēng)中使用機(jī)器人要優(yōu)于人類(lèi)參與戰(zhàn)爭(zhēng)。

        無(wú)論是否在戰(zhàn)爭(zhēng)中使用人工智能,都應(yīng)當(dāng)以促進(jìn)人類(lèi)和平為出發(fā)點(diǎn)。一旦出現(xiàn)智能武器使用異常而又無(wú)法人為干擾的情況,智能武器可能成為殺人惡魔。據(jù)報(bào)道,美國(guó)曾在阿富汗等地使用智能武器,但造成了163名平民被誤殺[11]。不僅如此,智能武器還會(huì)引發(fā)新一輪軍備競(jìng)爭(zhēng),破壞人類(lèi)的基本價(jià)值體系,無(wú)人機(jī)和智能武器的大規(guī)模運(yùn)用很有可能是人類(lèi)文明的一場(chǎng)災(zāi)難。因此,開(kāi)發(fā)智能武器必須進(jìn)行專(zhuān)家評(píng)估,特別是應(yīng)當(dāng)對(duì)其進(jìn)行倫理風(fēng)險(xiǎn)評(píng)估。人工智能倫理的底線(xiàn)要求是不能允許人工智能對(duì)人類(lèi)作惡。人類(lèi)只有一個(gè)地球,世界各國(guó)應(yīng)共同致力于構(gòu)建人類(lèi)命運(yùn)共同體。因此,對(duì)于人工智能的惡意使用以及軍事應(yīng)用,必須從全球治理層面進(jìn)行法治和倫理的規(guī)制。

        (五)對(duì)超級(jí)人工智能和異?,F(xiàn)象擔(dān)憂(yōu)是“杞人憂(yōu)天”嗎?

        我們常說(shuō),科技以人為本。20世紀(jì)40年代艾薩克·阿西莫夫(Isaac Asimov)就提出了“機(jī)器人三定律”[12],明確了人工智能的設(shè)計(jì)目的在于更好地服務(wù)于人類(lèi)。但是,我們能否保證,人類(lèi)與人工智能永遠(yuǎn)處于“蜜月期”?隨著人工智能的深度學(xué)習(xí)能力的增強(qiáng),人工智能所作出的復(fù)雜選擇是否一定符合人類(lèi)社會(huì)的倫理規(guī)范?甚至,會(huì)不會(huì)有一天,人工智能強(qiáng)大到足以挑戰(zhàn)人類(lèi)中心地位,它們不再甘心只是人類(lèi)的工具與附庸,從而主宰人類(lèi)社會(huì)?隨著人工智能越來(lái)越“智能”,人卻變得越來(lái)越“傻”了。僅就記憶力而言,人工智能的數(shù)據(jù)存儲(chǔ)能力越來(lái)越強(qiáng)大,而人類(lèi)卻患上了健忘癥,一旦離開(kāi)電子存儲(chǔ)設(shè)備,人類(lèi)還能記憶什么?

        現(xiàn)在,學(xué)者們對(duì)于未來(lái)人工智能的作用存在不同的理解。有學(xué)者將人工智能稱(chēng)為我們現(xiàn)在最大的威脅,他們擔(dān)心:在人機(jī)關(guān)系中,人類(lèi)的主體性地位能否得到保障?人類(lèi)的價(jià)值觀(guān)能否被人工智能所認(rèn)同?也有學(xué)者對(duì)人工智能持謹(jǐn)慎樂(lè)觀(guān)的態(tài)度,只是對(duì)超級(jí)人工智能表示擔(dān)心。他們認(rèn)為,如果人類(lèi)能夠很好地控制人工智能,那么人工智能的發(fā)展前景還是值得期待的。有學(xué)者認(rèn)為,對(duì)于人工智能所造成的所謂異常不必“杞人憂(yōu)天”,即便出現(xiàn)異常,也是低概率事件。不過(guò),這一賭注代價(jià)確實(shí)太大,因?yàn)橐坏┤斯ぶ悄艹霈F(xiàn)異常,所造成的損失往往是巨大的。

        在信息時(shí)代,人類(lèi)與人工智能共同進(jìn)行著信息化生存,在信息環(huán)境構(gòu)建方面(或者通俗地表述為“話(huà)語(yǔ)權(quán)”),顯然,人工智能更占據(jù)優(yōu)勢(shì)地位,如此一來(lái),“人類(lèi)獨(dú)一無(wú)二的地位將被取代”[13]108。那么,如果倫理規(guī)范的制定僅以話(huà)語(yǔ)權(quán)為依據(jù),人的主體性地位就岌岌可危了。早在公元前5世紀(jì),古希臘智者普羅泰戈拉就提出“人是萬(wàn)物的尺度”這一命題[14]。盡管對(duì)于這一命題有不同的理解,但是,其中所蘊(yùn)涵著人的主體性地位是比較明顯的。然而,在人工智能時(shí)代,“智能和自主將不再是人類(lèi)獨(dú)有的特性”[13]38,人的主體性地位就喪失了,這本質(zhì)上就是一種“異化”,是技術(shù)對(duì)人類(lèi)的“反動(dòng)”。是否還存在一種可能,即人工智能系統(tǒng)可以完全自主運(yùn)轉(zhuǎn),那么,人的位置在哪里?怎樣保證在人工智能技術(shù)系統(tǒng)的構(gòu)建與改造過(guò)程中,以人為主導(dǎo)并受到人的控制?

        (六)我們應(yīng)當(dāng)把人工智能當(dāng)作人一樣對(duì)待嗎?

        隨著人工智能越來(lái)越深地介入人類(lèi)社會(huì),我們將面臨著如何對(duì)待人工智能的倫理困境。現(xiàn)在,越來(lái)越多的學(xué)者認(rèn)為,人工智能并非與道德無(wú)涉。正如在今天的社會(huì)中,人工智能已經(jīng)占據(jù)了極其重要的地位,在可以預(yù)見(jiàn)的未來(lái),人工智能會(huì)成為一個(gè)擁有知識(shí)和關(guān)系的獨(dú)特個(gè)體。作為一個(gè)獨(dú)特個(gè)體,人工智能也有自己的權(quán)利嗎?也許有人認(rèn)為,人工智能應(yīng)該追求人類(lèi)福祉,而不應(yīng)當(dāng)享有與人類(lèi)同等的權(quán)利,但是,如果把人工智能定位為道德能動(dòng)者,那么人工智能必須對(duì)其行為負(fù)責(zé),人工智能倫理規(guī)范在對(duì)人工智能提出責(zé)任要求的同時(shí),如何保障人工智能的權(quán)利也是一個(gè)必須加以重視的問(wèn)題。

        網(wǎng)絡(luò)時(shí)代,人們的人際交往能力在不斷下降。隨著機(jī)器人被設(shè)計(jì)得越來(lái)越精密,特別是一些智能伴侶機(jī)器人,在外形、聲音、行動(dòng)等方面幾乎與真人無(wú)異,2017年沙特阿拉伯甚至賦予人形機(jī)器人索菲婭(Sophia)以公民身份,人形機(jī)器人越來(lái)越被視為一個(gè)有情感的個(gè)體,以保姆、伴侶甚至孩子的身份進(jìn)入人們的家庭,這種現(xiàn)象很有可能會(huì)沖擊傳統(tǒng)的人倫關(guān)系[15]。當(dāng)人們更多地與機(jī)器人交往時(shí),會(huì)否減少與他人的人際交往?人際關(guān)系會(huì)否越來(lái)越淡漠?看一看我們周?chē)摹暗皖^族”,也許這種擔(dān)心并不是多余的。癡迷于網(wǎng)絡(luò)交流,忽視現(xiàn)實(shí)中面對(duì)面的交流,使人更疏遠(yuǎn)。

        另一方面,當(dāng)人工智能發(fā)展到一定程度而具有道德判斷能力時(shí),其道德感的生成并非瞬間完成的,而是有一個(gè)與人類(lèi)互動(dòng)養(yǎng)成的過(guò)程。此時(shí),人工智能對(duì)人類(lèi)的依賴(lài)關(guān)系更加強(qiáng)烈,人類(lèi)與人工智能也同樣更加密不可分。人工智能不應(yīng)被簡(jiǎn)單地理解為人類(lèi)的附屬品,因?yàn)榕c其他技術(shù)產(chǎn)品不同,人工智能被賦予了“生命”“價(jià)值”“情感”等方面的內(nèi)涵。

        人工智能倫理最核心的是責(zé)任問(wèn)題,這種責(zé)任是相互的,即人類(lèi)對(duì)人工智能的責(zé)任和人工智能對(duì)人類(lèi)的責(zé)任同等重要。在大工業(yè)生產(chǎn)條件下,每個(gè)崗位、每個(gè)環(huán)節(jié)各司其職、各負(fù)其責(zé),這是效率提升的必然要求,然而,這種高度分工必然造成責(zé)任的“碎片化”,即無(wú)人對(duì)整體負(fù)責(zé)。人工智能倫理的提出就是要打破這種僵局,構(gòu)建一種人類(lèi)與人工智能共生共在的倫理共同體,因?yàn)槿祟?lèi)與人工智能的生存本質(zhì)在信息這個(gè)層面實(shí)質(zhì)上是相同的。在傳統(tǒng)時(shí)代,作為個(gè)體的人和作為整體的人類(lèi)與信息、數(shù)據(jù)關(guān)聯(lián)度并不高,但是,在大數(shù)據(jù)時(shí)代,信息即存在、數(shù)據(jù)即內(nèi)容,無(wú)論是人類(lèi)還是人工智能,概莫能外。根據(jù)系統(tǒng)論的觀(guān)點(diǎn),技術(shù)與人類(lèi)之間是共生關(guān)系,人工智能的發(fā)展已經(jīng)使之與人類(lèi)社會(huì)高度融合。而要構(gòu)建和諧的人-機(jī)關(guān)系,應(yīng)當(dāng)以文化和價(jià)值觀(guān)的可接受性作為前提。

        三、理解人工智能倫理的多元視角

        人工智能不是與人類(lèi)社會(huì)無(wú)關(guān)的純粹技術(shù)問(wèn)題,而是存在于人類(lèi)社會(huì)生活之中并對(duì)人類(lèi)社會(huì)生活產(chǎn)生重大影響的新技術(shù)。既然人工智能是人類(lèi)社會(huì)實(shí)踐的產(chǎn)物,那么,討論人工智能倫理問(wèn)題就不可能脫離人類(lèi)社會(huì)實(shí)踐的大背景。在我們研究人工智能倫理問(wèn)題時(shí),應(yīng)將之放置于人類(lèi)社會(huì)倫理體系的大框架之中來(lái)認(rèn)識(shí)。

        人工智能倫理是科技倫理在人工智能領(lǐng)域的具象化,而科技倫理是對(duì)于科學(xué)技術(shù)活動(dòng)中人與人、人與自然、人與技術(shù)等方面關(guān)系的倫理規(guī)范,屬于應(yīng)用倫理學(xué)的范疇。倫理是我們處理與自然、社會(huì)關(guān)系的基本規(guī)范。學(xué)習(xí)倫理學(xué),可以使我們應(yīng)對(duì)倫理挑戰(zhàn),從而正確地理解世界以及正確地處理與他人的關(guān)系。通過(guò)倫理學(xué)理解世界的大多數(shù)研究方法要接受三個(gè)方向各異的主要定位:道義論、功利主義、美德倫理。

        道義論認(rèn)為倫理應(yīng)當(dāng)遵從道德律令。與人類(lèi)一樣,人工智能也應(yīng)當(dāng)遵循道義論倫理學(xué)所確立的道德律令。如果人工智能具備自主性,成為道德能動(dòng)者,具備了道德主體的地位,人工智能必須為自身的過(guò)失行為承擔(dān)責(zé)任,那么,這是否意味著人工智能的設(shè)計(jì)者、生產(chǎn)者、銷(xiāo)售者、所有者、使用者等可以免除責(zé)任呢?如果人工智能可以承擔(dān)責(zé)任,人類(lèi)會(huì)否將自身應(yīng)當(dāng)承擔(dān)的責(zé)任轉(zhuǎn)嫁給人工智能呢?人工智能如果成為人類(lèi)免責(zé)的工具,不論是對(duì)于人工智能的權(quán)利保障而言,還是對(duì)于受害者(人工智能或人)的權(quán)利維護(hù)而言,都是不公平的。如果需要人工智能承擔(dān)民事責(zé)任,它有財(cái)產(chǎn)可供執(zhí)行嗎?如果需要人工智能承擔(dān)刑事責(zé)任,那么有期徒刑這種對(duì)人身自由的限制對(duì)于人工智能有沒(méi)有意義?如果判處人工智能死刑,是徹底銷(xiāo)毀還是抹去記憶?這種死刑有意義嗎?或者說(shuō),人工智能會(huì)像人那樣畏懼死亡嗎?“民不畏死,何以死懼之?”對(duì)于人工智能亦然是成立的。如果人工智能連對(duì)死亡的畏懼之心都沒(méi)有了,人類(lèi)如何制約它?人工智能應(yīng)服務(wù)于人類(lèi),而不能使人類(lèi)受制于它,這是人工智能倫理設(shè)計(jì)的底線(xiàn)原則。

        功利主義倫理學(xué)也被稱(chēng)為效果主義。通常,人們是根據(jù)某種行為的后果來(lái)判定是否合乎道德。相比較人類(lèi),人工智能在計(jì)算(“算計(jì)”)行為的后果(“效用”)方面,有著更大的優(yōu)勢(shì)。那么,能否說(shuō)人工智能比人類(lèi)更高尚呢?但實(shí)際上,行為是由理念主導(dǎo)的,道德行為之前必須有道德選擇問(wèn)題。當(dāng)人機(jī)互動(dòng)成為可能,人類(lèi)能否洞察人工智能某種行為的內(nèi)在動(dòng)機(jī)?我們知道,對(duì)于情緒管理能力極好的人,測(cè)謊儀基本上沒(méi)有什么用處。同樣,人工智能比人類(lèi)更善于隱藏自己的真實(shí)動(dòng)機(jī)。這樣一來(lái),人工智能是一個(gè)黑箱,人類(lèi)反而是透明的,人類(lèi)與人工智能的主次地位就顛倒了。人工智能對(duì)于人類(lèi)的意義又在哪里呢?當(dāng)然,從現(xiàn)實(shí)效用來(lái)看,那些道德水準(zhǔn)較高的人工智能可能更容易與人類(lèi)相處,更易被人類(lèi)社會(huì)所接受。

        美德倫理雖然歷史久遠(yuǎn),但是一直未受到足夠的重視。美德是美德倫理的核心概念,是指一個(gè)人持久的良好品性,包括基本美德(如仁愛(ài)、正義等)和派生美德(如友善、誠(chéng)實(shí)、謙虛等)。美德倫理把行為主體的品質(zhì)和動(dòng)機(jī)作為評(píng)價(jià)對(duì)象,認(rèn)為美德可以培養(yǎng),強(qiáng)調(diào)道德教育的重要性。與道義論關(guān)注責(zé)任、功利主義關(guān)注后果不同,美德倫理重在優(yōu)良品質(zhì)的培養(yǎng),這是合乎道德行為的保障,因此,可以作為人工智能倫理設(shè)計(jì)的理論依據(jù)。在人類(lèi)社會(huì)中,我們希望好人越多越好,壞人越少越好,同樣,在人工智能倫理設(shè)計(jì)環(huán)節(jié),應(yīng)當(dāng)將道德規(guī)范預(yù)先植入人工智能系統(tǒng),讓人工智能成為一個(gè)“好機(jī)器人”,而不是一個(gè)“壞機(jī)器人”。

        人工智能的發(fā)展對(duì)于傳統(tǒng)道德哲學(xué)構(gòu)成了挑戰(zhàn),一些既有的道德原則和倫理規(guī)范的適用性也存在著諸多問(wèn)題。究其原因,在于人工智能顛覆了傳統(tǒng)的人與技術(shù)關(guān)系的判斷。在人工智能作為一種技術(shù)出現(xiàn)之前,其他所有的技術(shù)都未對(duì)人類(lèi)的主體地位構(gòu)成挑戰(zhàn),而人工智能則對(duì)人進(jìn)行了重構(gòu),甚至人的身份也出現(xiàn)了模糊,比如,基于生物傳感技術(shù)的可穿戴式人工智能設(shè)備就實(shí)現(xiàn)了“人-機(jī)”合一。人工智能技術(shù)的發(fā)展是非常迅速的,解決由人工智能所引發(fā)的倫理問(wèn)題更是迫在眉睫。如果我們?cè)谌斯ぶ悄軅惱碓O(shè)計(jì)中缺乏前瞻性,人工智能技術(shù)發(fā)展所帶來(lái)的風(fēng)險(xiǎn)是難以控制的。當(dāng)前人工智能倫理風(fēng)險(xiǎn)主要包括人類(lèi)的決策主體地位難以完全保障、用戶(hù)隱私權(quán)受到侵犯、安全責(zé)任主體難以落實(shí)以及破壞社會(huì)公平等方面[16]。人工智能發(fā)展的目的在于增進(jìn)全人類(lèi)的福祉,任何技術(shù)的狂妄所帶來(lái)的都可能是一場(chǎng)災(zāi)難。倫理是作為主體的人在處理與他人、與自然關(guān)系時(shí)所產(chǎn)生的,是人類(lèi)的基本屬性,人工智能倫理的實(shí)現(xiàn)就有一個(gè)“學(xué)”和“習(xí)”或者說(shuō)“知”和“行”的過(guò)程,前者是指將人類(lèi)倫理觀(guān)和倫理規(guī)范通過(guò)技術(shù)方式植入人工智能,后者是指人工智能在具體實(shí)踐中如何貫徹人類(lèi)倫理觀(guān)和倫理規(guī)范。如果人工智能倫理只是止步于前者,那么,隨著人工智能更加“智能化”,特別是當(dāng)人工智能的自主學(xué)習(xí)能力更強(qiáng)以至于在某種程度上獲得了主體地位時(shí),倫理困境甚至倫理危機(jī)就不只是存在于科幻作品中,而極有可能成為現(xiàn)實(shí)了。

        四、人工智能倫理調(diào)適的基本路徑

        尋找人工智能倫理調(diào)適的基本路徑應(yīng)當(dāng)從界定人類(lèi)與人工智能的關(guān)系入手。因?yàn)?,人工智能倫理的本質(zhì)就是人類(lèi)與人工智能的關(guān)系。在討論人類(lèi)與人工智能的關(guān)系時(shí),有兩種理解方式。

        一種是“主體說(shuō)”,即認(rèn)為人工智能擁有與人類(lèi)相同的地位,人工智能是法律意義的“自然人”,能夠以自己的名義承擔(dān)責(zé)任、享受權(quán)利,而自我意識(shí)是承擔(dān)倫理責(zé)任的前提,因此,在倫理學(xué)意義上,人工智能本身就是道德主體。根據(jù)智能化水平的高低,人工智能分為弱人工智能、強(qiáng)人工智能和超人工智能。在目前的技術(shù)條件下,人工智能尚處于弱人工智能階段。在這一階段,如果說(shuō)人工智能具備主體地位還比較牽強(qiáng)。當(dāng)然,我們可以做出一種技術(shù)前瞻,未來(lái)的人工智能可能達(dá)到強(qiáng)人工智能乃至超人工智能水平,人工智能具有了自我意識(shí)和深度學(xué)習(xí)能力,自主性大大增強(qiáng),一些科幻作品也將人工智能視為道德主體。屆時(shí),人工智能倫理問(wèn)題就更為復(fù)雜了。如果把人工智能視為道德主體,而且它能夠承擔(dān)道德責(zé)任,甚至比人做得更好,那么,人還有存在的必要嗎?人們對(duì)于人工智能所可能帶來(lái)的“去人類(lèi)化”不無(wú)擔(dān)憂(yōu)[17]。就其本質(zhì)而言,這就涉及人工智能與人類(lèi)在道德構(gòu)建方面的責(zé)任邊界問(wèn)題。人工智能的道德意識(shí)不可能自動(dòng)生成,要通過(guò)預(yù)先植入或后來(lái)學(xué)習(xí)獲得,那么,人類(lèi)就是人工智能的“造物主”或倫理老師,人工智能的道德意識(shí)(比如同情心、善惡、榮辱等)或者由人類(lèi)通過(guò)算法植入或者在與人類(lèi)的社會(huì)交往中生成。當(dāng)然,如果有人別有用心,罔顧法律和道德,在人工智能的設(shè)計(jì)環(huán)節(jié)或?qū)W習(xí)環(huán)節(jié)“做手腳”,“教唆”人工智能做壞事,就相當(dāng)于打開(kāi)了“潘多拉魔盒”,對(duì)人類(lèi)造成嚴(yán)重危害。所以,從根本上來(lái)說(shuō),對(duì)人類(lèi)造成威脅不是人工智能,而是人類(lèi)之中的“害群之人”。

        另一種是“客體說(shuō)”,即認(rèn)為人工智能是服務(wù)于人類(lèi)的一種技術(shù),這種觀(guān)點(diǎn)也是本文的立論前提。在目前的弱人工智能階段,人工智能只具有有限的自主性,背后的設(shè)計(jì)者和控制者仍然是人。人是主體,而人工智能是客體。既然如此,那么,從法律意義上講,人工智能必須有其監(jiān)護(hù)人或負(fù)責(zé)主體。我們目前所探討的人工智能倫理,本質(zhì)上是人工智能設(shè)計(jì)、開(kāi)發(fā)、運(yùn)用中的倫理問(wèn)題,承擔(dān)倫理責(zé)任的主體是自然人或法人,而不是作為服務(wù)于人的人工智能。因?yàn)槿斯ぶ悄苁侨藶闃?gòu)建的計(jì)算機(jī)系統(tǒng),支配人工智能的是各種程序代碼,程序代碼的倫理規(guī)范必須是預(yù)置在計(jì)算機(jī)系統(tǒng)中的,這套倫理規(guī)范是由程序設(shè)計(jì)師來(lái)構(gòu)建或選擇的,因此,從終極意義上來(lái)說(shuō),人工智能的道德主體依然是自然人或法人。倫理學(xué)家的任務(wù)是幫助人工智能工程師確立正確的倫理觀(guān),以促進(jìn)人工智能與人類(lèi)的倫理維度相匹配。在大工業(yè)生產(chǎn)模式下,技術(shù)標(biāo)準(zhǔn)與規(guī)范是必需的,在人工智能設(shè)計(jì)中植入倫理標(biāo)準(zhǔn)與規(guī)范是人工智能倫理的重要實(shí)現(xiàn)方式。當(dāng)然,這些倫理標(biāo)準(zhǔn)與規(guī)范必須合乎大眾倫理價(jià)值。人工智能倫理本質(zhì)上是技術(shù)倫理,人工智能設(shè)計(jì)如何體現(xiàn)倫理構(gòu)建的基本要求,即人工智能不能傷害使用者以及其他道德關(guān)聯(lián)者,這是一個(gè)值得關(guān)注的重要問(wèn)題。

        一切自由都不是無(wú)條件的,如果自由不受任何約束,那必將造成人類(lèi)的災(zāi)難。人工智能越發(fā)達(dá),其所獲得的自由亦越多,也就越需要倫理的約束。人工智能的進(jìn)展迫切需要我們擴(kuò)展倫理學(xué)的適用范圍。人工智能的設(shè)計(jì)開(kāi)發(fā)、應(yīng)用以及人機(jī)關(guān)系都存在著倫理問(wèn)題。在過(guò)去,倫理學(xué)的基本問(wèn)題只關(guān)乎人類(lèi)和人類(lèi)行為。隨著人工智能的越來(lái)越智能化,特別是當(dāng)人工智能具有思考力和感知力時(shí),它是否被視為“人”,就不是一個(gè)純粹技術(shù)問(wèn)題,而必須進(jìn)行倫理規(guī)范了。因?yàn)槿斯ぶ悄苣軌蚧谧陨韺?duì)于復(fù)雜世界的感知而作出自主的行為選擇。在人類(lèi)的諸多價(jià)值或目標(biāo)之間往往存在著沖突,而且價(jià)值是模糊的、難以量化的,道德的復(fù)雜性意味著道德主體不僅要在善與惡之間選擇,而且有時(shí)面臨著在兩種及以上不同的價(jià)值之間做出選擇的困境,即“道德困境”。以自動(dòng)駕駛為例,自動(dòng)駕駛的汽車(chē)應(yīng)如何設(shè)計(jì)程序以做出一系列的行為選擇,或者當(dāng)控制系統(tǒng)失靈時(shí)能夠進(jìn)行人工干預(yù),從而避免或者對(duì)行人或者對(duì)其他車(chē)輛的傷害?在不可避免造成傷害的情況下,怎樣權(quán)衡這兩種傷害也許根本不存在所謂正確的選擇,對(duì)于程序設(shè)計(jì)人員而言,如何在程序設(shè)計(jì)時(shí)進(jìn)行倫理考量?比如,何種價(jià)值應(yīng)當(dāng)賦予某種特殊的機(jī)器以勝任特殊的任務(wù)。當(dāng)然,之所以選擇一套價(jià)值而不是其他價(jià)值,有其成本效益的考慮。

        正如人類(lèi)社會(huì)的和諧存在與發(fā)展離不開(kāi)倫理的調(diào)適一樣,我們正在進(jìn)入的人工智能社會(huì)也離不開(kāi)人工智能倫理的約束和規(guī)范,人工智能倫理是人工智能發(fā)展的“錨定樁”[18]。人工智能的發(fā)展必須增進(jìn)人類(lèi)福祉[19],遵循人類(lèi)的基本價(jià)值觀(guān),然而,人類(lèi)價(jià)值本身是多元的,而且在多種價(jià)值之間也存在著沖突與矛盾,到底以何種價(jià)值作為人工智能的設(shè)計(jì)框架呢?因此,人工智能學(xué)習(xí)者不僅需要學(xué)習(xí)和掌握如何將各種算法代碼植入人工智能系統(tǒng),并使之做出相應(yīng)決策的技術(shù),更重要的是要學(xué)習(xí)倫理理論[20],后者確立了人類(lèi)選擇行為的基本原則,相應(yīng)地,這些原則對(duì)于設(shè)計(jì)智能系統(tǒng)也是必需的。由于倫理結(jié)構(gòu)的復(fù)雜性,即使人工智能具備深度學(xué)習(xí)的能力,其獲得倫理認(rèn)知能力也是一個(gè)循序漸進(jìn)的過(guò)程,畢竟,人工智能既可能“跟著好人學(xué)好人”,也可能“跟著巫婆跳假神”,因此,進(jìn)行人工智能倫理設(shè)計(jì)可能面臨著一個(gè)試錯(cuò)的過(guò)程。另一方面,倫理規(guī)范又具有相對(duì)性,不存在普適性的倫理標(biāo)準(zhǔn),反映在不同時(shí)代、不同國(guó)家、不同族群等,倫理規(guī)范都具有差異性,要將已經(jīng)達(dá)成的倫理共識(shí)(比如以人為本、公正、和諧、可持續(xù)發(fā)展等[21])形成“道德算法”植入人工智能,也即“算法從善”原則[22]。在人工智能設(shè)計(jì)過(guò)程中,倫理審查的關(guān)口應(yīng)當(dāng)前置,以防患于未然,不能等待出現(xiàn)問(wèn)題再“亡羊補(bǔ)牢”。人工智能倫理設(shè)計(jì)要有明確的價(jià)值定位,即賦予人工智能友善的動(dòng)機(jī),具備良好的道德品質(zhì),從而做出合乎道德規(guī)范的行為。各國(guó)應(yīng)在構(gòu)建人類(lèi)命運(yùn)共同體理念指導(dǎo)下,共同應(yīng)對(duì)人工智能倫理問(wèn)題,建立完整、有效的人工智能倫理體系[23],確保人工智能的健康、可持續(xù)發(fā)展,使人工智能更好地增進(jìn)人類(lèi)福祉[24]。

        參考文獻(xiàn):

        [1]閆坤如,馬少卿. 人工智能倫理問(wèn)題及其規(guī)約之徑[J].東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(4):331-336.

        [2]孟偉,楊之林. 人工智能技術(shù)的倫理問(wèn)題——一種基于現(xiàn)象學(xué)倫理學(xué)視角的審視[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(5):112-116.

        [3]伍敏敏.芻論人工智能倫理問(wèn)題的內(nèi)涵與性質(zhì)[J].智能建筑與智慧城市,2019(3):13-16.

        [4]朱琳,周沐融,楊千騰. “革新”與“交融”:基于規(guī)范及準(zhǔn)則的人工智能倫理生態(tài)圈的構(gòu)建[J].電子政務(wù),2021(7):80-90.

        [5]陳凡,徐旭. 當(dāng)代人工智能倫理設(shè)計(jì)的困境和超越[J].華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2020(5):1-7.

        [6]王東,張振. 人工智能倫理風(fēng)險(xiǎn)的鏡像、透視及其規(guī)避[J].倫理學(xué)研究,2021(1):109-115.

        [7]劉露,楊曉雷,高文. 我國(guó)人工智能倫理監(jiān)管需求分析及對(duì)策研究[J].中國(guó)工程科學(xué),2021(3):106-112.

        [8]張正清,張成崗. 第四次革命:現(xiàn)代性的終結(jié)抑或重構(gòu)——信息倫理對(duì)人工智能倫理的啟示[J]. 武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(3):177-184.

        [9]段偉文.構(gòu)建穩(wěn)健敏捷的人工智能倫理與治理框架[J].科普研究,2020(3):11-15.

        [10]王前,曹昕怡.人工智能應(yīng)用中的五種隱性倫理責(zé)任[J].自然辯證法研究,2021(7):39-45.

        [11]高石. 簡(jiǎn)單粗暴,美國(guó)無(wú)人機(jī)反恐遭抨擊[N].人民日?qǐng)?bào),2016-07-04(21).

        [12]溫德?tīng)枴ね呃?,科林·艾? 道德機(jī)器:如何讓機(jī)器人明辨是非[M]. 王小紅,等,譯. 北京:北京大學(xué)出版社,2017:1.

        [13]盧西亞諾·弗洛里迪. 第四次革命[M]. 王文革,譯. 杭州:浙江人民出版社,2016.

        [14]張志偉. 西方哲學(xué)史[M]. 第2版.北京:中國(guó)人民大學(xué)出版社,2010:51.

        [15]孫偉平.人工智能導(dǎo)致的倫理沖突與倫理規(guī)制[J].教學(xué)與研究,2018(8):57-63.

        [16]趙志耘,徐峰,高芳,等. 關(guān)于人工智能倫理風(fēng)險(xiǎn)的若干認(rèn)識(shí)[J]. 中國(guó)軟科學(xué),2021(6):1-12.

        [17]董青嶺.人工智能時(shí)代的道德風(fēng)險(xiǎn)與機(jī)器倫理[J].云夢(mèng)學(xué)刊,2018(5):39-44.

        [18]閆宏秀. 用信任解碼人工智能倫理[J].人工智能,2019(4):95-101.

        [19]李倫,孫保學(xué). 給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個(gè)維度[J]. 教學(xué)與研究,2018(8):72-79.

        [20]任安波,葉斌.我國(guó)人工智能倫理教育的缺失及對(duì)策[J].科學(xué)與社會(huì),2020(3):14-21.

        [21]陳靜.科技與倫理走向融合——論人工智能技術(shù)的人文化[J].學(xué)術(shù)界,2017(9):102-111.

        [22]田海平,鄭春林.人工智能時(shí)代的道德:讓算法遵循“善法”[J].東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版), 2019(5):5-13.

        [23]陳小平.人工智能倫理體系:基礎(chǔ)架構(gòu)與關(guān)鍵問(wèn)題[J].智能系統(tǒng)學(xué)報(bào),2019(4):605-610.

        [24]陳小平.人工智能倫理建設(shè)的目標(biāo)、任務(wù)與路徑:六個(gè)議題及其依據(jù)[J].哲學(xué)研究,2020(9):79-87.

        責(zé)任編輯:譚桔華

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專(zhuān)業(yè)
        用“小AI”解決人工智能的“大”煩惱
        當(dāng)人工智能遇見(jiàn)再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問(wèn)
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動(dòng)化控制
        人工智能,來(lái)了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來(lái)了
        中文字幕亚洲入口久久| 国产精品麻豆A在线播放| 夜夜嗨av一区二区三区| 亚洲熟妇丰满大屁股熟妇| 欧美精品一区二区性色a+v| 国产欧美成人| 国产精品三级在线专区1| 天堂69亚洲精品中文字幕| 一区二区丝袜美腿视频| 琪琪av一区二区三区| 国产人妖伦理视频在线观看 | 成人美女黄网站色大免费的| 国产精品亚洲一区二区三区在线| 国产suv精品一区二人妻| 欧美日韩亚洲成人| 国产一区二区三区4区| 国产精品国产三级农村妇女| 精品一区二区三区婷婷| 婷婷五月六月激情综合色中文字幕| 蜜桃一区二区三区| 国产精品无码av天天爽| 蜜臀av免费一区二区三区| 欧美日本道免费二区三区| 欧美综合自拍亚洲综合百度| 国产成人一区二区三区| 国产激情一区二区三区在线| 天天躁日日躁aaaaxxxx| 日韩毛片无码永久免费看| 精品国产群3p在线观看| 国产AV无码无遮挡毛片| 国产av一卡二卡日韩av| 精品偷自拍另类在线观看| 无码国模国产在线观看| 97久久精品人人做人人爽| 伊人久久一区二区三区无码| 亚洲24小时在线免费视频网站| 日本国产一区二区在线观看| 虎白女粉嫩粉嫩的18在线观看| 国内精品久久久人妻中文字幕 | 欧美巨鞭大战丰满少妇| 国产成+人欧美+综合在线观看|