亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        大眾對(duì)人工智能道德?lián)鷳n的雙層結(jié)構(gòu)分析

        2022-04-29 18:48:09王云霄龍帥黃譯萱陳華
        中國(guó)心理學(xué)前沿 2022年8期
        關(guān)鍵詞:扎根理論人工智能

        王云霄 龍帥 黃譯萱 陳華

        摘 ? ? 要|人工智能的道德系統(tǒng)是動(dòng)態(tài)的,不斷更新的,以社會(huì)共同的道德?lián)鷳n為基礎(chǔ)來(lái)構(gòu)建道德模型是重要研究方向,本文旨在探究大眾對(duì)于人工智能的道德?lián)鷳n模型。運(yùn)用扎根理論對(duì)17個(gè)訪談資料進(jìn)行分析,共形成23個(gè)范疇和8個(gè)主范疇。從主范疇的結(jié)構(gòu)關(guān)系可以得出大眾對(duì)人工智能道德?lián)鷳n模型由兩個(gè)層次組成,即因果層 和影響層。其中因果層由道德認(rèn)知和爭(zhēng)議點(diǎn)構(gòu)成的,爭(zhēng)議點(diǎn)是根本原因,道德認(rèn)知是直接原因;影響層由道 德規(guī)范和爭(zhēng)議點(diǎn)構(gòu)成的,通過(guò)中介和調(diào)節(jié)來(lái)影響道德?lián)鷳n。研究提供了減少大眾對(duì)人工智能道德?lián)鷳n的具體 路徑。

        關(guān)鍵詞|人工智能;道德?lián)鷳n;道德規(guī)則;扎根理論

        Copyright ? 2022 by author (s) and SciScan Publishing Limited

        This article is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. https://creativecommons.org/licenses/by-nc/4.0/

        1 引言

        隨著人工智能系統(tǒng)的多領(lǐng)域發(fā)展,道德問(wèn)題日益凸顯。在自動(dòng)駕駛汽車的例子中,如何對(duì)情景作出選擇判斷,對(duì)于乘客、場(chǎng)景中的其他人及社會(huì)環(huán)境有著不同的影響(Bonnefon,Shariff,and Rahwan,2016)。人工智能已經(jīng)產(chǎn)生潛在的倫理風(fēng)險(xiǎn),因此學(xué)界強(qiáng)調(diào)人工智能的道德代碼與倫理嵌入的重要性?,F(xiàn)行的道德設(shè)計(jì)包含三種理念:自上而下、自下而上及混合取向(Arkin,2009;Bringsjord and Taylor,2012)。自上而下又稱基于規(guī)則,將人類認(rèn)可的道德標(biāo)準(zhǔn)編碼作為機(jī)器處理方式,使智能產(chǎn)品行動(dòng)模式考慮到道德。自下而上的方案是提供恰當(dāng)環(huán)境,使其通過(guò)經(jīng)驗(yàn)而學(xué)習(xí)道德意識(shí),類似于兒童一般。混合取向則認(rèn)為,需要通過(guò)自上而下的方法設(shè)定一定的道德語(yǔ)法,并通過(guò)自下而上的情景學(xué)習(xí)而發(fā)展進(jìn)化(Allen et al.,2005)。機(jī)器倫理的最終目標(biāo)是:通過(guò)賦予機(jī)器道德能力以使其像人類一樣自主地進(jìn)行道德判斷與行動(dòng)(陳銳、孫慶春,2020)。為此,機(jī)器倫理的研究者提出了諸多實(shí)現(xiàn)這一目標(biāo)的方法,如康德式方法、范疇理論方法、博弈法,以及表面義務(wù)的混合方法等(Hooker and Kim,2018)。然而一個(gè)個(gè)問(wèn)題隨之產(chǎn)生,倫理規(guī)則及學(xué)習(xí)情境從哪里來(lái)?誰(shuí)的道德認(rèn)識(shí)應(yīng)該被應(yīng)用到道德框架中?在道德設(shè)置中人們擔(dān)憂的問(wèn)題是什么呢?

        有研究者已經(jīng)提出將我們的多人道德價(jià)值模型置于相關(guān)備選方案之上,或者使用所有人共同的道德憂慮(Brandt,Conitzer,and Endriss,2012;Brandt et al.,2016)。李楠通過(guò)對(duì)專家直覺(jué)及康德的道義論規(guī)則進(jìn)行論述, 認(rèn)為智能機(jī)器的道德規(guī)則應(yīng)該從普通大眾的道德認(rèn)識(shí)和擔(dān)憂及行為樣本中使用學(xué)習(xí)方法得出,從而得到最接近于普通人的人工智能。將多人的道德觀念(通過(guò)機(jī)器學(xué)習(xí))聚合在一起可能產(chǎn)生比個(gè)人或者單個(gè)群體更完善的道德系統(tǒng),因?yàn)檫@減少了個(gè)人經(jīng)驗(yàn)造成的特殊道德錯(cuò)誤(Conitzer V et al.,2017),從而減少人們的道德?lián)鷳n。基于人為基礎(chǔ)的人工智能的決策過(guò)程可以更容易地被可視化和更新(Van Berkel et al.,2020)。但是目前對(duì)于 大眾的道德?lián)鷳n探索較少。無(wú)法為人工智能的道德模型提供充足的理論及情景材料。另外對(duì)于道德情景及憂慮點(diǎn)的設(shè)置不是靜態(tài)的,是通過(guò)多種方式不斷進(jìn)行補(bǔ)充(Van Berkel et al.,2020)。因此本研究利用扎根理論研究方法基于現(xiàn)實(shí)材料探究大眾對(duì)于人工智能的道德?lián)鷳n及道德約束等方面,構(gòu)建出大眾對(duì)于人工智能的道德?lián)鷳n模型,探究減少道德?lián)鷳n的路徑,為人工智能道德模型增加理論基礎(chǔ)。

        2 研究設(shè)計(jì)與方法

        研究方法

        本文采用程序化扎根理論的質(zhì)性研究方法,該方法能借助一條故事線將材料中分散的變量串連分析, 可以知道研究以實(shí)證的方式對(duì)樣本數(shù)據(jù)進(jìn)行詳細(xì)且反復(fù)地編碼、歸類和分析比較。這是一個(gè)自下而上對(duì)數(shù)據(jù)資料進(jìn)行不斷濃縮的過(guò)程,主要采用開放性編碼、主軸性編碼和選擇性編碼這三級(jí)編碼程序。開放式編碼將數(shù)據(jù)資料抽象形成概念或范疇;主軸式編碼是發(fā)現(xiàn)和建立概念類屬之間的各種聯(lián)系,挖掘主范疇、范疇及其之間的關(guān)系;選擇性編碼是在所有已發(fā)現(xiàn)的概念類屬中經(jīng)過(guò)系統(tǒng)地分析以后確定核心范疇及范疇之間的網(wǎng)絡(luò)關(guān)系(Strauss,1987)。

        數(shù)據(jù)收集

        為了通過(guò)訪談獲取更深入、更有用的信息,在正式訪談開始前,研究者先后向 5 位心理咨詢方向 的碩士生進(jìn)行預(yù)訪談。并根據(jù)預(yù)訪談受訪者反饋意見(jiàn)先后修改訪談提綱,形成最終版訪談提綱。本研究遵循理論抽樣原則使用深度訪談的方法對(duì) 17 名對(duì)象進(jìn)行了數(shù)據(jù)收集,采用一對(duì)一訪談的方式,時(shí)間為

        30 ~ 50 分鐘,受訪者信息如表1 所示。半結(jié)構(gòu)化訪談提綱包括但不限于以下問(wèn)題:(1)當(dāng)智能產(chǎn)品普及到生活方方面面,您比較擔(dān)心哪方面?(2)您愿意從個(gè)人和社會(huì)的角度詳細(xì)談一下對(duì)于人工智能的發(fā)展擔(dān)憂嗎?(3)如果發(fā)生了您擔(dān)心的問(wèn)題,您認(rèn)為是什么原因呢?(4)您認(rèn)為通過(guò)什么方法可以減少您的擔(dān)憂么?每次訪談結(jié)束,立即撰寫關(guān)于該訪談的備忘錄。

        3 數(shù)據(jù)分析與結(jié)果

        開放性編碼

        開放性編碼是程序化扎根理論的第一步,是對(duì)獲得的數(shù)據(jù)進(jìn)行標(biāo)簽化、概念化和范疇化的處理過(guò) 程。采用編碼一致性及小組討論的方式進(jìn)行,由兩名心理學(xué)研究生對(duì)于材料進(jìn)行編碼與討論,一致性超過(guò) 80% 時(shí)停止,整個(gè)編碼過(guò)程通過(guò)不斷地新增、刪除、合并,除去三份原始材料做飽和度檢驗(yàn)之外,將數(shù)據(jù)逐步概括為 131 個(gè)概念,23 個(gè)范疇,如表2 所示。

        主軸編碼

        主軸編碼是對(duì)初始范疇進(jìn)行關(guān)系梳理的步驟,包括因果、脈絡(luò)結(jié)構(gòu)等。對(duì)開放性編碼中 23 個(gè)范疇進(jìn)行聯(lián)結(jié)、歸納和整合,最終形成 8 個(gè)主范疇,囊括在道德認(rèn)知、道德?lián)鷳n、道德規(guī)范及爭(zhēng)議點(diǎn)這 4 個(gè)維度中,如表3 所示。

        選擇性編碼

        選擇性編碼是對(duì)核心范疇的選擇與設(shè)定過(guò)程。在對(duì)主副范疇進(jìn)行完善的基礎(chǔ)上,將其反饋到關(guān)鍵概念的類型特征中,從而建立核心范疇與其他部分的聯(lián)系。其主要結(jié)構(gòu)關(guān)系如表4 所示。

        本研究以大眾對(duì)于人工智能的道德?lián)鷳n為核心范疇建立故事線:(1)人們通過(guò)各種渠道了解到人 工智能,從人機(jī)定位及其認(rèn)識(shí)角度產(chǎn)生道德認(rèn)知,這是道德?lián)鷳n產(chǎn)生的直接原因,而對(duì)于人工智能關(guān)于情感、自主能力等的爭(zhēng)議點(diǎn)是產(chǎn)生道德?lián)鷳n的根本原因。(2)人工智能的社會(huì)影響構(gòu)成了道德?lián)鷳n的 外部表現(xiàn)層,而對(duì)于個(gè)體影響的考慮構(gòu)成了道德?lián)鷳n的內(nèi)部表現(xiàn)層。(3)規(guī)范設(shè)置可以通過(guò)規(guī)整爭(zhēng)議 點(diǎn)來(lái)對(duì)道德?lián)鷳n進(jìn)行調(diào)節(jié)。(4)通過(guò)國(guó)家法律等形成外部信任,通過(guò)減少社會(huì)影響而對(duì)道德?lián)鷳n起作用, 同樣內(nèi)部控制通過(guò)對(duì)個(gè)體的影響來(lái)對(duì)道德?lián)鷳n起作用。

        理論飽和度檢驗(yàn)

        理論飽和度狀態(tài)是指在無(wú)法繼續(xù)提煉和抽取初始概念的范疇下不再產(chǎn)生新概念。對(duì)已構(gòu)建的理論框架能夠較好地解釋,理論就是“飽和”的狀態(tài)。本文對(duì)于三份原始材料通過(guò)小組討論和專家檢驗(yàn)的方法進(jìn)行飽和度檢驗(yàn),發(fā)現(xiàn)并無(wú)可提煉的新概念范疇,表明上述理論模型是飽和的。

        4 大眾對(duì)人工智能道德?lián)鷳n的雙層結(jié)構(gòu)模型

        根據(jù)訪談后的三級(jí)編碼過(guò)程,通過(guò)進(jìn)一步的凝練概括,構(gòu)建了大眾對(duì)人工智能道德?lián)鷳n的理論框架。如圖2 ?所示,該框架包含因果層和影響層兩個(gè)部分,包含因果、表現(xiàn)、調(diào)節(jié)和中介四種結(jié)構(gòu)關(guān)系,可以從多個(gè)角度解釋人工智能的道德?lián)鷳n。

        人工智能道德?lián)鷳n因果層分析

        人工智能道德?lián)鷳n產(chǎn)生的直接原因是人機(jī)定位和認(rèn)知角度,包括人機(jī)異同、人機(jī)關(guān)系、工具設(shè)定、發(fā)展態(tài)度和理性優(yōu)勢(shì) 5 個(gè)范疇。涉及到智能,大眾通過(guò)比對(duì)自身產(chǎn)生道德認(rèn)知,岡克爾對(duì)于人機(jī)定位曾提出人工智能的道德是人為規(guī)范出來(lái)的,而人工智能也被定義為“他者”(Gunkel,2012)。大眾對(duì)于人和機(jī)器的異同及關(guān)系的理解產(chǎn)生了價(jià)值觀影響、信息繭房和過(guò)度依賴的個(gè)體道德?lián)鷳n;對(duì)于人工智能的不同認(rèn)知角度產(chǎn)生了安全隱患、就業(yè)沖擊和利益服務(wù)等的社會(huì)道德?lián)鷳n。而道德?lián)鷳n產(chǎn)生的根本原因是人們對(duì)于人工智能的爭(zhēng)議點(diǎn),其中在情感層面對(duì)應(yīng)著未知恐懼,而自主能力是構(gòu)建人工智能主體的動(dòng)力源,這些無(wú)法確定的爭(zhēng)議點(diǎn)造成了道德?lián)鷳n。

        人工智能道德?lián)鷳n影響層分析

        人工智能道德?lián)鷳n的影響因素主要包括外部信任、規(guī)范設(shè)置、內(nèi)部控制和爭(zhēng)議點(diǎn) 4 個(gè)范疇。即由于道德認(rèn)知產(chǎn)生的道德?lián)鷳n受到道德規(guī)范和爭(zhēng)議點(diǎn)的影響。其中外部信任通過(guò)國(guó)家的宏觀調(diào)控和企業(yè)的需求滿足來(lái)減少社會(huì)影響,同樣的內(nèi)部控制通過(guò)使用者責(zé)任承擔(dān)和控制權(quán)的掌握來(lái)減少個(gè)體影響,從而共同影響道德?lián)鷳n,也就是說(shuō)人類的各部分需要承擔(dān)起道德責(zé)任來(lái)減少道德?lián)鷳n(Johnson,2006)。規(guī)范 設(shè)置中規(guī)則難點(diǎn)、來(lái)源和發(fā)展性最終減少爭(zhēng)議點(diǎn)帶來(lái)的擔(dān)憂,實(shí)現(xiàn)調(diào)節(jié)作用。

        5 討論

        人工智能道德?lián)鷳n的因果關(guān)系

        本研究發(fā)現(xiàn),大眾對(duì)于人工智能的道德認(rèn)知,即人機(jī)定位與認(rèn)識(shí)角度兩個(gè)范疇是產(chǎn)生道德?lián)鷳n的直接原因。人機(jī)定位方面,主要描述了大眾對(duì)于人類與人工智能異同和關(guān)系的認(rèn)識(shí)。大眾普遍認(rèn)為,意識(shí)、思維與情感等核心特征是人類獨(dú)有的,因此在與人工智能交互時(shí),人類應(yīng)該始終處于主導(dǎo)地位。經(jīng)典范疇觀認(rèn)為,身體、心靈與世界是獨(dú)立的,正是因?yàn)檫@種獨(dú)立,人會(huì)將一切外在物作為獨(dú)立于“自我”的客體(Mcginn C,2015),以此保持自我的獨(dú)特。但隨著科技技術(shù)的發(fā)展,人類引以為傲的核心特征受到了挑戰(zhàn),智能和自主將不再是人類獨(dú)有的特性(Luciano Floridi,2016),人工智能可以獲得更強(qiáng)的思維能力,甚至模仿人類的情感過(guò)程,從而引發(fā)了對(duì)于人工智能的道德?lián)鷳n。人工智能的普及及表現(xiàn)出的巨大力量,使得大眾產(chǎn)生了價(jià)值觀影響、信息繭房和過(guò)度依賴的個(gè)體道德?lián)鷳n。人工智能是人類功能與價(jià)值的延伸,在給人類全新生活體驗(yàn)的同時(shí),也可以徹底改變?nèi)祟惖纳嫘螒B(tài)(Kevin Kelly,2009),在這個(gè)過(guò)程中,對(duì)人類的價(jià)值觀產(chǎn)生影響,其所“造成的人類分裂和對(duì)立,對(duì)人的內(nèi)在性、自主性、平等性、整體性的顛覆和消解可能是不可逆的”(常晉芳,2019)。同時(shí),人工智能特有的數(shù)據(jù)分析優(yōu)勢(shì), 使得它能收集并分析用戶的各項(xiàng)信息,并提供個(gè)性化、針對(duì)性的內(nèi)容,但在進(jìn)行個(gè)性化信息精準(zhǔn)推薦時(shí), 會(huì)造成“信息繭房”的問(wèn)題,用戶使用個(gè)性化推薦服務(wù)的時(shí)間與選擇信息的主動(dòng)性成反比,技術(shù)進(jìn)步的同時(shí)會(huì)造成用戶對(duì)信息的無(wú)節(jié)制滿足(Katz J E,2002;張敏,2021),并逐漸縮小用戶接受信息的范圍, 造成信息的單一化,甚至使受眾產(chǎn)生依賴而進(jìn)一步導(dǎo)致價(jià)值迷失。隨著科技技術(shù)的發(fā)展,人工智能已經(jīng)在人類日常生活中扮演了十分重要的角色,在提供便利的同時(shí)也產(chǎn)生了過(guò)度依賴方面的擔(dān)憂。在各種智能化應(yīng)用場(chǎng)景中,人類可能有意識(shí)或無(wú)意識(shí)地依賴并服從于機(jī)器決策而行動(dòng)(趙志耘,2021),從而模糊了人類與人工智能的異同與關(guān)系,造成道德上的擔(dān)憂。

        在認(rèn)識(shí)角度方面,從發(fā)展態(tài)度、工具設(shè)定、理性優(yōu)勢(shì)三個(gè)不同層面描述了大眾對(duì)人工智能的普遍 看法。相關(guān)調(diào)查顯示,公眾對(duì)人工智能的普遍了解程度較高(李思琪,2019),前景較為看好?,F(xiàn)目 前,人工智能作為給人類提供服務(wù)的工具,以及它處理數(shù)據(jù)而自帶的理性優(yōu)勢(shì),使得大眾認(rèn)為人工智 能會(huì)在以后的社會(huì)中扮演更加重要的角色,從而引發(fā)了隱私泄露、就業(yè)沖擊以及利益服務(wù)等的社會(huì)道 德?lián)鷳n。隱私權(quán)被認(rèn)為是一項(xiàng)基本的人格權(quán)利,而現(xiàn)在的人工智能技術(shù)的發(fā)展是數(shù)據(jù)“喂養(yǎng)”出來(lái)的(孫少晶,2019)。所以,基于對(duì)人工智能的認(rèn)識(shí),大眾難免會(huì)產(chǎn)生隱私方面的擔(dān)憂。特別是,人工 智能的算法對(duì)于大眾而言完全是一個(gè)黑箱,信息往往在不知情的情況下就被收集了,人們難免對(duì)隱私 信息是否會(huì)被過(guò)度收集而心存疑慮(Bryson,2018)。歷史地看,每一次技術(shù)革命都會(huì)造成失業(yè)現(xiàn)象, 人工智能取代人的工作崗位并不僅僅局限于勞動(dòng)密集型產(chǎn)業(yè)(李傳軍,2021),在一些智力密集型行 業(yè)同樣如此(王前,2021)。一項(xiàng)調(diào)查顯示,超過(guò) 60% 的人認(rèn)為人工智能將會(huì)造成勞動(dòng)力過(guò)剩和大量失業(yè)(李思琪,2019)。同時(shí),大眾對(duì)于當(dāng)前人工智能發(fā)展的程度還有疑慮,擔(dān)心一些技術(shù)上的局限 會(huì)導(dǎo)致嚴(yán)重的安全隱患,并且如果人工智能以利益為導(dǎo)向被使用,那后果是嚴(yán)重的。有學(xué)者表示,一 旦人工智能系統(tǒng)中植入了不良代碼,或者人工智能系統(tǒng)被惡人控制,那么,其造成的損害將是人類所 不能承受的(李傳軍,2021)。

        而爭(zhēng)議點(diǎn)方面,主要體現(xiàn)了大眾對(duì)于人工智能更加抽象化的思考,主要分為三個(gè)方面,即情感層面、數(shù)據(jù)獲取和自主能力。而道德?lián)鷳n產(chǎn)生的根本原因是人們對(duì)于人工智能的爭(zhēng)議點(diǎn),其中情感層面對(duì)應(yīng)著未知恐懼,而自主能力是構(gòu)建人工智能主體的動(dòng)力源,這些無(wú)法確定的爭(zhēng)議點(diǎn)造成了道德?lián)鷳n。

        人工智能道德?lián)鷳n的影響因素

        道德認(rèn)知產(chǎn)生的道德?lián)鷳n受到了道德規(guī)范的影響,其中外部信任通過(guò)國(guó)家的宏觀調(diào)控和企業(yè)的需求滿足來(lái)減少由社會(huì)影響帶來(lái)的道德?lián)鷳n。新技術(shù)的發(fā)展,在帶來(lái)便利的同時(shí),必定伴隨著陣痛,新技術(shù)的掌控者們占領(lǐng)了人工智能發(fā)展與應(yīng)用的制高點(diǎn)(張正清、張成崗,2018)。使人變成更加難以掌控和保護(hù)自己的隱私與自由,并面臨失業(yè)風(fēng)險(xiǎn)的弱者(Thucydides,2013),從而引起大眾對(duì)于隱私、就業(yè)、 安全等方面的擔(dān)憂。而無(wú)論如何,在處理新技術(shù)的規(guī)制上.通過(guò)法律制度的調(diào)整顯然是必要的方式之一(Hamilton,1980)。而且,我國(guó)政府長(zhǎng)久以來(lái)樹立的負(fù)責(zé)擔(dān)當(dāng)?shù)拇髧?guó)形象,也使得大眾普遍相信國(guó)家會(huì)運(yùn)用法律或政策等手段,對(duì)人工智能發(fā)展可能帶來(lái)的擔(dān)憂進(jìn)行管控。同時(shí),據(jù)不完全統(tǒng)計(jì),迄今為止國(guó)際上由不同國(guó)家、機(jī)構(gòu)和團(tuán)體公布的人工智能和機(jī)器人倫理標(biāo)準(zhǔn)文件已多達(dá) 50 余份。這表明,企業(yè)與設(shè)計(jì)者也會(huì)以產(chǎn)品安全和需求為基礎(chǔ),與國(guó)家政府合力避免道德?lián)鷳n情境的發(fā)生,以此來(lái)減少社會(huì)影響,也就是說(shuō)人類的各部分需要承擔(dān)起道德責(zé)任來(lái)減少道德?lián)鷳n(Johnson,2006)同時(shí),內(nèi)部控制通過(guò)使用者責(zé)任承擔(dān)和控制權(quán)的掌握來(lái)減少由個(gè)體影響帶來(lái)的道德?lián)鷳n。決策自主是人類實(shí)現(xiàn)自由的重要方面(Peterson M,2019),但是隨著人工智能的發(fā)展,機(jī)器已經(jīng)具備一定的自動(dòng)決策能力,自動(dòng)化道德決策可能存在使用戶完全脫離道德決策循環(huán)的風(fēng)險(xiǎn),進(jìn)而可能對(duì)用戶的道德自主構(gòu)成直接威脅(Millar J,2016),因此,大眾要求在人機(jī)交互中擁有控制權(quán),并在外部規(guī)則下進(jìn)行責(zé)任承擔(dān), 以保障人工智能在可控條件下發(fā)展,從而減少人工智能帶來(lái)的個(gè)體影響方面的道德?lián)鷳n。

        規(guī)范設(shè)置方面,包含了規(guī)則難點(diǎn)、來(lái)源和發(fā)展性三個(gè)范疇。其中,規(guī)則來(lái)源強(qiáng)調(diào)了制定人工智能道德規(guī)則的參考點(diǎn),人工智能技術(shù)的發(fā)展不應(yīng)該挑戰(zhàn)和改變?nèi)祟惞逃械膫惱硪?guī)范,應(yīng)該遵守人類長(zhǎng)期以來(lái)遵守和執(zhí)行的倫理規(guī)范(閆坤如,2021),并轉(zhuǎn)化為具體的設(shè)計(jì)要求(Poel I V D,2013),規(guī)則難點(diǎn)反映了大眾對(duì)于人工智能發(fā)展問(wèn)題的深刻反思,而規(guī)則發(fā)展性體現(xiàn)了規(guī)則應(yīng)該與技術(shù)一起與時(shí)俱進(jìn)。這些有關(guān)規(guī)則的看法最終減少了爭(zhēng)議點(diǎn)帶來(lái)的擔(dān)憂,即大眾通過(guò)對(duì)人工智能各方面規(guī)則制定的認(rèn)識(shí),一定程度上解決了對(duì)于情感層面、自主決策及數(shù)據(jù)獲取方面的問(wèn)題,從而有效緩解人工智能的道德?lián)鷳n。

        6 結(jié)論

        本研究通過(guò)扎根理論探索了大眾對(duì)于人工智能的道德認(rèn)知,并以道德?lián)鷳n為核心,構(gòu)建了大眾對(duì)人工智能道德?lián)鷳n雙層結(jié)構(gòu)模型。主要結(jié)論如下:(1)大眾對(duì)人工智能道德?lián)鷳n由因果層和影響層組成;(2) 人工智能道德?lián)鷳n產(chǎn)生的直接原因是人機(jī)定位和認(rèn)知角度。道德?lián)鷳n產(chǎn)生的根本原因是人們對(duì)于人工智能的爭(zhēng)議點(diǎn);(3)人工智能道德?lián)鷳n受到道德規(guī)范和爭(zhēng)議點(diǎn)的影響。其中外部信任通過(guò)國(guó)家的宏觀調(diào)控和企業(yè)的需求滿足來(lái)減少社會(huì)影響,內(nèi)部控制通過(guò)使用者責(zé)任承擔(dān)和控制權(quán)的掌握來(lái)減少個(gè)體影響;(4)在大眾對(duì)于人工智能道德?lián)鷳n中可以通過(guò)規(guī)范設(shè)置的調(diào)節(jié)來(lái)減少爭(zhēng)議點(diǎn)帶來(lái)的擔(dān)憂。通過(guò)人工智能道德?lián)鷳n模型,可以了解到大眾在接受人工智能普及過(guò)程中最關(guān)注的問(wèn)題,并由此探究解決方法,另外也可以為人工智能道德模型的搭建提供現(xiàn)實(shí)材料。

        參考文獻(xiàn)

        [1]Arkin R.Governing lethal behavior in autonomous robots[R].Chapman and Hall/CRC,2009.

        [2]Bringsjord S,Taylor J.The divine-command approach to robot ethics[C].Robot Ethics:The Ethical and Social Implications of Robotics,2012.

        [3]Brandt F,Conitzer V,Endriss U.Computational social choice[J].Multiagent systems,2012(2):213- 284.

        [4]Brandt F,Conitzer V,Endriss U,et al.Handbook of computational social choice[M].Cambridge University Press,2016.

        [5]Bryson J J.Patiency is not a virtue:the design of intelligent systems and systems of ethics[J].Ethics and Information Technology,2018,20(1):15-26.

        [6]Bonnefon J F,Shariff A,Rahwan I.The social dilemma of autonomous vehicles[J].Science,2016,352(6293):1573-1576.

        [7]Conitzer V,Sinnott-Armstrong W,Borg J S,et al.Moral decision making frameworks for artificial intelligence

        [C]// National Conference on Artificial Intelligence.AAAI Press,2017.

        [8]Johnson D G.Computer systems:Moral entities but not moral agents[J].Ethics and information technology, 2006,8(4):195-204.

        [9]Katz J E,Aarkhus M A.Perpetual contact:Mobile communication,private talk,public performance[M].New York:Cambridge University Press,2002:1-30.

        [10]Kelly K.Out of control:The new biology of machines,social systems,and the economic world[M]. Hachette UK,2009.

        [11]McGinn C.Prehension:The hand and the emergence of humanity[M].MIT Press,2015.

        [12]Millar J.An ethics evaluation tool for automating ethical decision-making in robots and self-driving cars[J]. Applied Artificial Intelligence,2016,30(8):787-809.

        [13]Hooker J N,Kim T W N.Toward non-intuition-based machine and artificial intelligence ethics:A deontological approach based on modal logic[C].In Proceedings of the 2018 AAAI/ACM Conference on AI, Ethics,and Society,2018:130-136.

        [14]Gunkel D J.The Machine Question:Critical Perspectives on AI,Robots,and Ethics[M].The MIT Press,2012.

        [15]Peterson M.The value alignment problem:a geometric approach[J].Ethics and Information Technology, 2019,21(1):19-28.

        [16]Poel I V D.Translating values into design requirements[M].Philosophy and engineering:Reflections on practice,principles and process,2013:253-266.

        [17]Strauss A L.Qualitative analysis for social scientists[M].Cambridge university press,1987.

        [18]Thucydides.The War of the Peloponnesians and the Athenians[M].Cambridge:Cambridge University Press,2013.

        [19]Berkel N,Tag B,Goncalves J,et al.Human-centred artificial intelligence:a contextual morality perspective

        [J].Behaviour & Information Technology,2020,41(3):1-17.

        [20]陳銳,孫慶春.道德計(jì)算是否可能:對(duì)機(jī)器倫理的反思[J].科學(xué)技術(shù)哲學(xué)研究,2020,37(4): 74-80.

        [21]崔中良,王慧莉,郭聃,等.人工智能研究中交互性機(jī)器倫理問(wèn)題的透視及應(yīng)對(duì)[J].西安交通大學(xué) 學(xué)報(bào)(社會(huì)科學(xué)版),2020,40(1):123-132.

        [22]李傳軍.人工智能發(fā)展中的倫理問(wèn)題探究[J].湖南行政學(xué)院學(xué)報(bào),2021(6):38-48.

        [23]李楠.機(jī)器倫理的來(lái)源[J].倫理學(xué)研究,2021(1):103-108.

        [24]李思琪.公眾對(duì)人工智能發(fā)展的認(rèn)識(shí)、擔(dān)憂與期待[J].國(guó)家治理,2019(4):22-47.

        [25]張正清,張成崗.第四次革命:現(xiàn)代性的終結(jié)抑或重構(gòu):信息倫理對(duì)人工智能倫理的啟示[J].武漢 大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018,71(3):177-184.

        [26]孫少晶,陳昌鳳,李世剛,等.“算法推薦與人工智能”的發(fā)展與挑戰(zhàn)[J].新聞大學(xué),2019(6):1-8.

        [27]王東,張振.人工智能倫理風(fēng)險(xiǎn)的鏡像、透視及其規(guī)避[J].倫理學(xué)研究,2021(1):109-115.

        [28]王前,曹昕怡.人工智能應(yīng)用中的五種隱性倫理責(zé)任[J].自然辯證法研究,2021,37(7):39- 45.

        [29]閆坤如.人工智能設(shè)計(jì)的道德意蘊(yùn)探析[J].云南社會(huì)科學(xué),2021(5):28-35.

        [30]鄭戈.在鼓勵(lì)創(chuàng)新與保護(hù)人權(quán)之間:法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn)[J].探索與爭(zhēng)鳴,2016(7):79-85.

        [31]常晉芳.智能時(shí)代的人—機(jī)—人關(guān)系:基于馬克思主義哲學(xué)的思考[J].東南學(xué)術(shù),2019(2):75- 82.

        [32]張富利.全球風(fēng)險(xiǎn)社會(huì)下人工智能的治理之道:復(fù)雜性范式與法律應(yīng)對(duì)[J].學(xué)術(shù)論壇,2019,42(3):68-80.

        [33]張敏,王朋嬌,孟祥宇.智能時(shí)代大學(xué)生如何破解“信息繭房”:基于信息素養(yǎng)培養(yǎng)的視角[J].現(xiàn) 代教育技術(shù),2021,31(1):19-25.

        [34]趙志耘,徐峰,高芳,等.關(guān)于人工智能倫理風(fēng)險(xiǎn)的若干認(rèn)識(shí)[J].中國(guó)軟科學(xué),2021(6): 1-12.

        A Bilevel Structure Analysis of Popular Moral Concerns about Artificial Intelligence: An Exploration Based on the Grounded Theory

        Wang Yunxiao Long Shuai Huang Yixuan Chen Hua

        Psychological Research and Counseling Center, Southwest Jiaotong University, Chengdu

        Abstract: The moral system of artificial intelligence is dynamic and constantly updated. It is an important research direction to build a moral model based on the common moral concerns of the society. This paper aims to explore the publics moral concern model for artificial intelligence. Using grounded theory to analyze 17 interview data, 23 categories and 8 main categories were formed. From the structural relationship of the main categories, it can be concluded that the publics moral concern model for artificial intelligence consists of two layers, namely the causal layer and the influence layer. The causal layer is composed of moral cognition and controversial points, the controversial point is the root cause, and the moral cognition is the direct cause; the influence layer is composed of moral norms and controversial points, and affects moral concerns through mediation and adjustment. Research offers concrete paths to reduce public concerns about the ethics of AI.

        Key words: AI; Moral concern; Ethical norms; Grounded theory

        猜你喜歡
        扎根理論人工智能
        我校新增“人工智能”本科專業(yè)
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        基于扎根理論的會(huì)展場(chǎng)館觀眾滿意度影響因素研究
        社會(huì)心理安全氛圍在工作場(chǎng)所欺凌中所起的作用
        消費(fèi)者在線生成廣告行為阻礙因素及作用路徑研究
        新聞界(2016年11期)2016-11-07 21:19:58
        中國(guó)企業(yè)管理創(chuàng)新的驅(qū)動(dòng)力
        大學(xué)生網(wǎng)上訂餐意愿的定性研究
        商(2016年27期)2016-10-17 05:25:42
        下一幕,人工智能!
        91色老久久偷偷精品蜜臀懂色| 亚洲福利天堂网福利在线观看| 97久久成人国产精品免费| 水蜜桃视频在线观看入口| 免费不卡无码av在线观看| 国产xxxx99真实实拍| 亚洲中文欧美日韩在线人| 色老板在线免费观看视频日麻批| 美女视频在线观看亚洲色图| 老司机亚洲精品影院| 国产美女在线精品亚洲二区| 国产av一区二区三区在线| 青青草在线免费视频播放| 日韩人妻无码精品久久免费一| 99久久久久国产| 国产目拍亚洲精品二区| 精品人妻av一区二区三区| 亚洲成av人片一区二区| 国产亚洲女在线线精品| 人妻1024手机看片你懂的| 国产免费久久精品99久久| 大伊香蕉在线精品视频75| 人妻系列影片无码专区| 中文字幕34一区二区| 国产麻豆精品一区二区三区v视界| 国产不卡一区二区三区免费视| 在线免费观看亚洲天堂av| 亚洲高清在线免费视频| 日产无人区一线二线三线乱码蘑菇 | 久久伊人精品中文字幕有尤物| 亚洲av无码专区在线播放| 国产成人精品自在线无码| 午夜国产在线精彩自拍视频| 久久久久成人精品免费播放动漫| 亚洲精品综合一区二区三| 麻豆人妻无码性色AV专区 | 少妇无码av无码专线区大牛影院 | 永久无码在线观看| 偷拍熟女露出喷水在线91| 久久精品国产99国产精偷| 精品欧美一区二区在线观看|