亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        如何認識人工智能的倫理沖突?
        ——研究回顧與展望

        2019-10-11 07:26:22謝洪明楊英楠
        外國經(jīng)濟與管理 2019年10期
        關(guān)鍵詞:倫理道德機器人

        謝洪明, 陳 亮, 楊英楠

        (1. 浙江工業(yè)大學(xué) 管理學(xué)院,浙江 杭州 310023;2. 廣州大學(xué) 工商管理學(xué)院,廣東 廣州 510006;3. 浙江金融職業(yè)學(xué)院,浙江 杭州 310018;4. 浙江大學(xué) 工程管理研究所,浙江 杭州 310058;5. 浙江工業(yè)大學(xué) 中小企業(yè)研究院,浙江 杭州 310023)

        一、引 言

        隨著人工智能(artificial intelligence,AI)的發(fā)展,人工智能倫理在國內(nèi)外都成為了各界討論和研究的核心議題之一(Moor,2006;Wallach和Allen,2010;Greenwald,2015;杜嚴勇,2015;Lei等,2019;趙汀陽,2019)。人工智能倫理研究是人工智能時代的必然產(chǎn)物,它既包括對技術(shù)本身的研究,也包括在符合人類價值的前提下對人、機和環(huán)境之間的關(guān)系研究(劉偉和趙路,2018)。發(fā)展的不確定性帶來了新的倫理問題和風(fēng)險,尤其是奇點理論(singularity theory)提出之后,許多人對人工智能的快速發(fā)展表示了擔(dān)心,隨之而來的諸如無人駕駛汽車致人死亡、護理機器人帶來人格與尊嚴等問題更加印證了人們的這種印象。同時,人工智能也帶來歧視、侵犯個人隱私、改變就業(yè)結(jié)構(gòu)、挑戰(zhàn)國際關(guān)系原則等問題,這對個人權(quán)利、政府監(jiān)管、經(jīng)濟社會發(fā)展乃至全球治理將產(chǎn)生深刻影響(Wallach和Allen,2010;Bostrom,2014;Diakopoulos,2015;杜嚴勇,2015;蘇令銀,2019)。因此,需要引起更多的人關(guān)注人工智能倫理,為未來人工智能的發(fā)展奠定道德性根基。

        如何正確認識人工智能在發(fā)展過程中出現(xiàn)的失敗案例(Yampolskiy和Spellchecker,2016)?是因為數(shù)據(jù)爆發(fā)式增長和深度學(xué)習(xí)算法的發(fā)展,人類的決策讓渡使機器從被動工具向能動體(intelligent agent)轉(zhuǎn)變而具備不需要人類介入的“感知—思考—行動”體現(xiàn)出的自我學(xué)習(xí)進化能力,還是因為人工智能系統(tǒng)在算法引導(dǎo)下的錯誤,以及技術(shù)的不確定性導(dǎo)致后果的難以預(yù)測和量化評估(閆坤如和馬少卿,2018)?是因為人類的有限理性引發(fā)了人工智能的倫理風(fēng)險,還是說人工智能還遠沒有具備倫理的屬性?這些問題在學(xué)術(shù)界還尚未形成統(tǒng)一的認識。如何評價人工智能的行為將會直接影響人以何種方式與機器相處,因此,需要系統(tǒng)地梳理人類面對的形式多樣的倫理挑戰(zhàn),通過發(fā)展和改進人類現(xiàn)有的倫理體系,為國家實施《新一代人工智能發(fā)展規(guī)劃》解決倫理性問題,更好地適應(yīng)人工智能的發(fā)展。

        本文的目的是借助內(nèi)容分析方法,試圖厘清人工智能倫理研究的發(fā)展脈絡(luò)、現(xiàn)狀和趨勢,對現(xiàn)有研究從道德哲學(xué)、道德算法、設(shè)計倫理和社會倫理四個方面進行評述,以期對未來的理論研究和實踐提供借鑒。行文結(jié)構(gòu)如下:第二部分對人工智能倫理相關(guān)文獻進行計量分析;第三部分分析“人—機”關(guān)系引發(fā)的倫理沖突;第四部分綜述了人工智能倫理研究的視角及內(nèi)容;第五部分為國家及企業(yè)對人工智能倫理的態(tài)度;第六部分是總結(jié)和未來研究展望。

        二、人工智能倫理相關(guān)文獻的計量分析

        (一)文獻來源

        人工智能倫理的研究背景跨度寬泛,涉及計算機科學(xué)、人工智能、機器人學(xué)、倫理學(xué)、哲學(xué)、生物學(xué)、社會學(xué)、宗教等方面。本文基于Web of Science(WOS)和CNKI數(shù)據(jù)庫,以Citespace為文獻計量工具,以知識圖譜的形式分析人工智能倫理的研究脈絡(luò)。選擇以人工智能倫理(AI ethics)、機器道德(machine morality)、機器人倫理(robert ethics)、機器倫理(machine ethics)、道德機器(moral machine)、價值一致論(value alignment)、人工道德(artificial morality)、技術(shù)倫理(technology ethics)、人工智能安全(AI security)、友好人工智能(friendly AI)等為關(guān)鍵詞進行搜索。為保障文獻的質(zhì)量,剔除影響因子較低的期刊,選取1997—2018年(共21年)期間發(fā)表在較高影響因子期刊上有關(guān)人工智能倫理研究的298篇文獻。將閾值設(shè)置為“Top50”,選擇每個時段出現(xiàn)頻次在前50的文獻形成知識圖譜。

        圖1 中國人工智能2012—2017年學(xué)術(shù)、投資和輿論變化曲線

        (二)文獻研究分析

        中國“人工智能”在理論研究、資本投資以及社會關(guān)注度方面呈逐年遞增的趨勢,如圖1所示。其中“學(xué)術(shù)曲線”是CNKI中“深度學(xué)習(xí)”相關(guān)論文各年份發(fā)布數(shù)量變化情況,“投資曲線”是人工智能私募股權(quán)投資市場的投資頻數(shù)變化,“輿論曲線”是百度指數(shù)中“人工智能”的搜索熱度變化。從曲線的變化趨勢來看,學(xué)術(shù)的研究熱度呈現(xiàn)持續(xù)增長態(tài)勢,大量資本進入人工智能研究領(lǐng)域大概出現(xiàn)在2014年,公眾輿論中“人工智能”熱點出現(xiàn)于2016年。學(xué)術(shù)到資本市場轉(zhuǎn)化再到輿論熱點關(guān)注,人工智能發(fā)展趨勢與歷次新技術(shù)產(chǎn)生和發(fā)展的情況類似,可以預(yù)測人工智能及其相關(guān)領(lǐng)域未來都將是研究和關(guān)注熱點。

        主題詞是對文獻的核心內(nèi)容的提煉和概括,其頻次高低也在一定程度上反映了文獻的研究熱點和趨勢。本文基于搜集的人工智能倫理文獻,進行了主題詞共現(xiàn)分析,如圖2所示。

        圖2 CNKI和WOS數(shù)據(jù)庫關(guān)于人工智能倫理主題詞共現(xiàn)網(wǎng)絡(luò)分析

        國內(nèi)外從技術(shù)、文化、倫理、制度等方面對AI進行研究,形成了實踐智慧、互聯(lián)網(wǎng)、大數(shù)據(jù)、機器道德、機器倫理等明顯的聚類。機器道德(machine morality)關(guān)注機器人應(yīng)該擁有哪些道德性能,以及這些性能如何實現(xiàn)的問題(Malle,2016)。機器倫理(machine ethics)關(guān)注機器人在設(shè)計、應(yīng)用實踐和與人類相處等方面的問題(Anderson等,2005)。機器人倫理(robert ethics)以及路線圖的提出(Di Robotica和Veruggio,2006),促進學(xué)者對機器人技術(shù)使用影響的跨文化討論,從倫理因素的植入程度角度來理解廣義機器倫理(Moor,2006)。

        需要說明的是,機器人是目前人工智能研究最重要的載體,是多種技術(shù)的集合,因此在很多研究中將機器人倫理等同于人工智能倫理。但二者還是存在一定差異,機器人倫理是人工智能倫理的一部分,前者屬于后者研究范疇的核心,就二者關(guān)系而言屬于包含關(guān)系(莫宏偉,2018)。

        (三)國家級課題分析

        國家級課題立項情況能夠從另一個角度反映與人工智能倫理的研究現(xiàn)狀。以“人工智能”、“機器人倫理”為關(guān)鍵詞搜索國家社科網(wǎng),相關(guān)的立項課題計16項,再根據(jù)申報人信息進行期刊論文查詢,剔除相關(guān)度不高的課題6項。在文獻查閱的過程中,另發(fā)現(xiàn)與人工智能倫理相關(guān)的課題16項。因此,在2002—2017年間,與人工智能倫理相關(guān)的國家級課題研究共計26項,立項范圍涉及人工智能道德哲學(xué)(劉西瑞,2002;李小五,2002;胡驚雷,2015;李熙,2017;王紹源和任曉明,2017;梅亮等,2017;高兆明,2017)、技術(shù)倫理(李倫,2018;張成崗,2017)、生活倫理(徐英瑾,2006,2015;閻國華和閆晨,2017;黨家玉,2017;張吉豫,2015)、倫理解決進路(杜嚴勇,2015;段偉文,2017;黃閃閃,2017)等內(nèi)容,這與文獻研究熱點分析保持一致,表明國家層面也在關(guān)注人工智能倫理研究。

        三、“人—機”關(guān)系引發(fā)的倫理關(guān)注

        使用計算機技術(shù)在倫理設(shè)計框架內(nèi)跨界進行道德模型構(gòu)建并應(yīng)用于實踐時,研究具有開創(chuàng)性和前瞻性(Danielson,1992)?!爸悄荏w”(agents)再加上“人工”的屬性時,這種智能就屬于機器而不是生物的(Ferraz和Del Nero,2018)。智能機器通過自我深度學(xué)習(xí)擁有了工具理性,對世界中發(fā)生的事能做出判斷和預(yù)測,構(gòu)成一種全新“人—機”關(guān)系。學(xué)術(shù)和實踐領(lǐng)域?qū)Υ酥饕腥N立場和觀點,如表1所示。

        表1 人工智能發(fā)展引發(fā)對倫理問題的關(guān)注

        一是以馮·諾依曼、阿蘭·圖靈為代表的“傳統(tǒng)派”。他們認為人類始終處于支配地位,人工智能永遠不會超越人類智能,這種觀點源自于宗教中“造物主一定比所造之物高明”。20 世紀70 年代從生物和心理學(xué)的層面得出了人工智能必將失敗的結(jié)論(Dreyfus,1972),認為“當前人類面臨的風(fēng)險,不是超智能機器的降臨,而是低智能人的出現(xiàn)”。80年代的“中文房間”(Chinese room)模型對上述觀點進行了印證(Searle,1980)。

        隨著人工智能的廣泛應(yīng)用,人類也逐步開始重視、反思弱人工智能與強人工智能,甚至超級人工智能(super intelligence)的研究以及與人類智能之間的關(guān)系問題。尼克·波斯特姆(Bostrom,2014)從“全腦仿真、生物認知、人機交互以及網(wǎng)絡(luò)和組織”等路徑分析“超級智能”的可能性,這不同于目前廣泛應(yīng)用的“弱人工智能”(如下棋機器人、自動駕駛技術(shù)等),而是一種能全面超越人類智能的“強人工智能”。但這些實現(xiàn)路徑是在人腦基礎(chǔ)上的直接迭代或高仿真,混淆了“強大的弱人工智能”與擁有主體性的“強人工智能”,并沒有深入探討人類智能現(xiàn)象的本質(zhì),對經(jīng)典的“他心問題”也無涉及,所以他提及的“超級智能”還是屬于工具性“弱人工智能”的范疇。

        二是以霍金、比爾·蓋茨、馬斯克為代表的“謹慎派”,他們認為人類應(yīng)該敬畏人工智能的崛起。當機器具備自我意識(self-aware),甚至可以通過自己的“神經(jīng)”和“意識”自主做出決定,并與其他人工智能機體互聯(lián),人工智能將最終構(gòu)成一個現(xiàn)實性的威脅。

        但是扎克伯格、李開復(fù)、吳恩達等人對“人工智能威脅論”提出相反的觀點,爭議的焦點在于強人工智能是否以及何時會出現(xiàn)。馬斯克語境中主要是指“強人工智能”,即具備處理多種類型的任務(wù)和適應(yīng)未曾預(yù)料情形的能力,代表了公眾對強人工智能和超級人工智能可能失控、威脅人類未來的生存表達了擔(dān)憂;而扎克伯格所述的“人工智能”是狹義的專業(yè)領(lǐng)域人工智能能力,是產(chǎn)業(yè)界從功用和商業(yè)角度出發(fā),保持對人工智能研發(fā)和應(yīng)用的持續(xù)探索。這兩種典型的觀點源于對“人工智能”的不同理解。

        三是以赫伯特·西蒙(Herbert A.Simon)為代表的“樂觀派”,他們認為人工智能肯定會達到并超過人類智能?!捌纥c理論”(singularity)預(yù)言機器智能將在2045年超過人類的智能(Kurzweil,2011),“藍腦計劃”(blue brain)提出的時間更短,預(yù)言在2020年左右制造出科學(xué)史上第一臺會“思考”的機器。但是這些預(yù)言遭到了很多人的質(zhì)疑,認為人工智能的基礎(chǔ)技術(shù)是過去技術(shù)研發(fā)的量變積累,還未達到質(zhì)變的程度。未來人工智能和人類智能將會是社會發(fā)展的兩種形態(tài),“人機共存”將成為人類社會比較理想的狀態(tài)。

        雖然對人工智能的發(fā)展持樂觀態(tài)度,但人類社會在哲學(xué)、理智等各方面都還沒有準備好迎接人工智能時代,需要呼吁人類正確使用人工智能,盡快制定機器人相關(guān)方面的倫理和價值體系,通過建立標準尋求“預(yù)防性原則”進行風(fēng)險評估,在此基礎(chǔ)上對危險與風(fēng)險再進行評價(Wallach和Allen,2010)。

        人工智能倫理是技術(shù)發(fā)展中不可回避的重大問題。但是,也有部分學(xué)者表示人工智能還遠沒有倫理的概念,只是人類對倫理的理解并強加在機器上(劉偉和趙路,2018)。人工智能的本質(zhì)仍然是人與人之間關(guān)系的研究范疇,呈現(xiàn)的問題與危機仍屬于控制與反控制的議題,也就是說,人工智能的技術(shù)飛躍或者“智能大爆發(fā)”帶來的應(yīng)用倫理問題并不是新問題,而是一系列老問題的疊加。它會對人類既有的認知提出挑戰(zhàn),改變社會學(xué)階層分析的經(jīng)典框架,但不是顛覆性的“消滅”(Bostrom,2014)。

        四、人工智能倫理研究視角及內(nèi)容

        國外對人工智能倫理的研究起步較早,研究領(lǐng)域主要集中在機器人的社會倫理、法律和安全方面,涉及技術(shù)性失業(yè)、致命性自主武器、算法公平、道德判斷、價值一致性等問題。國內(nèi)研究相對滯后,但人工智能與機器人的倫理責(zé)任議題也逐漸被關(guān)注,具體包括人權(quán)倫理、責(zé)任倫理、道德地位倫理、代際倫理、環(huán)境倫理以及大數(shù)據(jù)倫理與隱私等,說明國內(nèi)已從單一的技術(shù)倫理研究轉(zhuǎn)向人機系統(tǒng)交互關(guān)系的倫理問題研究,這也是研究領(lǐng)域的新突破和進步。本文結(jié)合李倫(2018)在第四屆全國賽博倫理學(xué)暨人工智能倫理學(xué)研討會上根據(jù)國內(nèi)外人工智能倫理研究的狀況和趨勢、人工智能與社會各領(lǐng)域的關(guān)聯(lián)屬性,從人工智能道德哲學(xué)、道德算法、設(shè)計倫理和社會倫理四個方面來理解人工智能倫理的研究。

        (一)人工智能道德哲學(xué)

        1. 機器人道德地位問題

        人工智能的發(fā)展提出了機器人道德地位問題的命題(蘇令銀,2019)。唯物主義觀點認為人的意識是基于大腦神經(jīng)元而產(chǎn)生的,人類的所有行為活動都是在意識驅(qū)動下完成的,而人工神經(jīng)網(wǎng)絡(luò)(artificial neural network)無法自動合成“神經(jīng)蛋白”這類特殊物質(zhì),不會產(chǎn)生主觀的意識。因此,意向性(intentionality)被認為是人工智能與人類最本質(zhì)區(qū)別之一(Boden,2017),解決這個難題涉及“他心難題”及其變種的“機心難題”,這屬于形而上學(xué)的思考,是人工智能倫理研究的基礎(chǔ)和本源。心智的邊界在一定條件下可以不依賴人類生理系統(tǒng)而通過外部物理載體來實現(xiàn)(Heersmink,2009)。因此,道德地位需要考慮的不僅是屬性問題而更多地是關(guān)系問題,即實體之間以及與人類之間的關(guān)系,尤其是主體道德地位和客體道德地位的歸屬。獨立于這些關(guān)系去定義道德地位,本身就是違背道德的,因為它被當作了一個具有抽象“屬性”的“實體”。

        機器人責(zé)任主體的界定可以表述為“自主智能機器人在人類社會中應(yīng)該扮演什么角色?”。沙特阿拉伯授予機器人索菲亞“公民身份”而備受關(guān)注,成為“機器人公民”意味著具有權(quán)利義務(wù)并對其行為負責(zé),需要承擔(dān)道德責(zé)任。但是普遍的學(xué)者卻認為機器人作為“人工物”是沒有能力去承擔(dān)道德責(zé)任的,目前的人工智能仍然是對人類思維、行為的模仿,停留在工具和機械范疇,并不是真正意義上的人格實體與道德實體。也許隨著量子技術(shù)的發(fā)展,未來會出現(xiàn)類動物甚至類人類AI,即強人工智能或超級人工智能,人類與AI的關(guān)系會發(fā)生根本性轉(zhuǎn)變,但這仍是停留在理論層面的不確定問題,未來需要科技的發(fā)展來檢驗。經(jīng)典的圖靈測試在人工智能的“強弱”上也不能作為智能意識產(chǎn)生的推演依據(jù),已經(jīng)產(chǎn)生了“人工智能逆反圖靈測試”①圖靈測試表示有超過30%的測試者不能確定出被測試者是人還是機器,就表明這臺機器通過了測試,并被認為具有人類智能。谷歌公司2018年發(fā)布的“Duplex”的人工智能系統(tǒng),其最大特點是系統(tǒng)能夠進行較自然的聲音對話,這一切都讓此人工系統(tǒng)聽起來像一個真實的人。谷歌Duplex模仿人類發(fā)聲的啟示引發(fā)了社會對人工智能的擔(dān)憂,高度發(fā)達的人工智能系統(tǒng)能讓人類誤以為這臺機器就是人類,但是Yaniv Leviathan和Yossi Matias作為項目主要負責(zé)人,表示只關(guān)注了產(chǎn)品的技術(shù)潛力,并未意識到其存在的社會隱患。的現(xiàn)象。阿爾文·納拉亞南建議在機器人設(shè)計時需要遵循“圖靈紅色警戒”(Turing red flag law),即機器人的定位也應(yīng)當是機器人,而不是人甚至超越人。

        2. 人工道德主體邊界

        “物倫理”的概念提出以后,在“人—機”系統(tǒng)交互情境下,技術(shù)倫理學(xué)出現(xiàn)了“物轉(zhuǎn)向”(thingly-turn)的趨勢,“技術(shù)人工物”(technological artifacts)在技術(shù)倫理學(xué)領(lǐng)域掀起了新的研究熱潮(Peter和Anthonie,2002)。對人的理解越來越物化和去意義化,導(dǎo)致人和“人工物”的邊界越來越模糊,人類需要思考這種邊界模糊的后果。

        兩種對道德主體不同的觀點形成了人工道德主體邊界之爭,即實用主義(Levin,2013)和標準主義(Eshleman,2014)。實用主義認為人工道德主體對外界產(chǎn)生某些行為和反應(yīng),需要模擬現(xiàn)實行為的部分或者全部標準。黛博拉·約翰遜(Johnson,2006)通過四個條件來設(shè)定人工道德主體的邊界②黛博拉·約翰遜(Johnson.D,2006)規(guī)定了一個人工道德主體E要成為道德主體必須具備下列條件:(1)E能夠以自己的身體引起物理事件;(2)E有一個內(nèi)在的規(guī)定I,它組成了自己的欲望、信仰和其他有意圖的規(guī)定,這些規(guī)定共同組成了E以某種方式 (理性和意識) 行動的原因;(3)規(guī)定I是導(dǎo)致條件(1)的直接因素;(4)條件(1)中的物理事件產(chǎn)生一些具有道德重要性的影響:當計算機系統(tǒng)運轉(zhuǎn)時,它們的行為對表達世界的其他方面產(chǎn)生影響,這些表達效果對道德施加者有害或有益。,她認為人工物不能成為道德主體,是因為在技術(shù)上很難對人類的道德行為進行編碼建立數(shù)據(jù)庫,缺乏可能導(dǎo)致他們行為發(fā)生的內(nèi)在心理規(guī)定。標準主義觀點認為人類道德主體需要滿足特定的條件來模擬或展現(xiàn)行為的全部標準,提出了人工道德主體標準所要求的狀態(tài),但同時也應(yīng)該從實用主義的角度來理解。

        (二)人工智能道德算法

        1. 算法歧視

        算法是通過計算機一系列運轉(zhuǎn)解決特定的問題或完成一個確定的結(jié)果(Diakopoulos,2015),人類已經(jīng)開始將部分事情的決定權(quán)轉(zhuǎn)移到具備高度智能的算法。但是算法缺乏學(xué)習(xí)、推斷、聯(lián)想等高級智能,難以解釋行為背后的決策邏輯,因為人類的行為具有主觀動機性和意向性,需要對算法的倫理進行分析,這也是算法設(shè)計過程中的重點和難點問題。

        算法是一種相對客觀的數(shù)學(xué)表達,很多人會認為算法決策傾向是公平的。但是人類的價值觀和道德規(guī)范卻沒有納入數(shù)字系統(tǒng),對數(shù)據(jù)的管理在全球互聯(lián)的背景下更難以控制。數(shù)據(jù)和算法的不透明性反映了數(shù)據(jù)權(quán)利之間的失衡現(xiàn)象,這將不可避免導(dǎo)致算法歧視(Algorithms Bias)。美國在計算機(Joseph等,2016)、犯罪學(xué)(Goel等,2016)、政治學(xué)(Veale和Binns,2017)、人力資源管理(Gumbus,2017)等多領(lǐng)域揭示了算法歧視的規(guī)律,發(fā)掘了相關(guān)數(shù)據(jù)和證據(jù),研究層次較深。歧視的主觀傾向性難以判斷,這也致使國外學(xué)者在研究中更多采用實證和案例的研究方法來提出建議(Edelman和Luca,2014)。國內(nèi)研究主要從經(jīng)濟、法律和傳媒角度,多以介紹性和科普性為主,集中在對國外研究成果的介紹和算法歧視現(xiàn)象的評述,僅有少量做了定量分析,而其他領(lǐng)域關(guān)注較少。

        2. 算法歧視產(chǎn)生的根源

        個體通過數(shù)據(jù)獲得了非對稱優(yōu)勢,算法技術(shù)將對個人數(shù)據(jù)進行重構(gòu),規(guī)則代碼化帶來的不透明、不公平、難以審查等問題對公平和正義發(fā)起挑戰(zhàn)(Veale和Binns,2017),讓網(wǎng)絡(luò)環(huán)境在定價、服務(wù)和機會等領(lǐng)域具備了歧視的可能(Helbing,2015)。

        算法歧視產(chǎn)生的原因主要歸結(jié)于算法技術(shù)和數(shù)據(jù)輸入兩個方面(Executive Office of the President,2016),機器完全受人工設(shè)計的結(jié)構(gòu)和學(xué)習(xí)進程中接收的數(shù)據(jù)形成對世界的“認知”,導(dǎo)致在特定場景下發(fā)生錯誤決策。算法的設(shè)計是技術(shù)人員的主觀選擇和判斷,他們是否公平公正地將道德規(guī)則和法律寫進程序是值得懷疑的,這使得算法繼承了人類決策者的種種偏見。此外,由于技術(shù)壁壘、機器學(xué)習(xí)算法的“黑箱”屬性、政策限制而產(chǎn)生不透明性,讓計算機在不被明確編程的情況下運轉(zhuǎn),在自主系統(tǒng)中探究是否存在歧視和其原因,很難通過技術(shù)來實現(xiàn)公平。

        算法離不開大數(shù)據(jù)支撐,數(shù)據(jù)的有效性、準確性會影響算法決策和預(yù)測的準確性。數(shù)據(jù)自身偏見缺陷、大小樣本的地位懸殊、敏感屬性都會導(dǎo)致算法歧視存在的必然性(張玉宏等,2017),帶有歧視的數(shù)據(jù)經(jīng)過運算之后也帶有歧視傾向,創(chuàng)新也會使歧視和機會不平等的現(xiàn)象持續(xù)下去。隨著數(shù)據(jù)應(yīng)用范圍的擴大,算法的一次小失誤或者歧視,容易形成“自我實現(xiàn)的歧視性反饋循環(huán)”,包括在警情預(yù)測、風(fēng)險評價和信用評估上都存在類似問題,這會壓榨消費者個人財富、剝奪個人自我決定權(quán)、破壞信息的多樣性,不斷蠶食消費者剩余,甚至對個體生命構(gòu)成潛在的威脅。

        3. 算法歧視的解決出路

        由于算法的客觀性和人類社會倫理的發(fā)展,目前以算法為主的弱人工智能并非完全可以依賴和信任(莫宏偉,2018),需要承認人工智能系統(tǒng)內(nèi)在歧視性,并意識到這些歧視的潛在來源。把倫理原則形式化,在機器學(xué)習(xí)中引入“歧視指數(shù)”(discrimination index)的概念,維護用戶與機構(gòu)間數(shù)據(jù)權(quán)利的平衡,倡導(dǎo)有規(guī)范的數(shù)據(jù)共享,建立基于權(quán)利的數(shù)據(jù)倫理。

        算法采用的邏輯基礎(chǔ)是多語境系統(tǒng),從設(shè)計、執(zhí)行、測試到推廣采取跨學(xué)科的原則,做到更加包容性。提出設(shè)計更為“公平的”算法,從算法設(shè)計的源頭來防止歧視,使人工智能體的行動符合相關(guān)倫理規(guī)范。保持算法的透明度,制定機會均等的設(shè)計原則,使算法的力量發(fā)揮作用,尤其需要考慮弱勢、易被忽視人群的利益。國外現(xiàn)在已經(jīng)有OpenAI等一些人工智能開源運動,保障算法的透明性和公平性。Google在實踐中倡導(dǎo)“機會平等”(equality of opportunity),以避免一套敏感屬性的歧視。當然,算法透明和商業(yè)秘密、國家安全之間的關(guān)系需要進一步去平衡。

        越來越多的國家、地區(qū)、組織出臺監(jiān)管措施,包括設(shè)計標準、性能標準、責(zé)任標準等,甚至擴展到涉及人工智能算法、數(shù)據(jù)等核心的內(nèi)容。美國通過大數(shù)據(jù)報告提醒信貸、就業(yè)、教育和刑事司法領(lǐng)域等歧視問題需要從立法、技術(shù)和倫理方面予以補救。也有學(xué)者建議修改美國殘疾人法案,擴大反歧視的授權(quán),禁止利用算法對身體和精神障礙預(yù)測性歧視;要求以書面形式說明數(shù)據(jù)處理者對含有健康類信息收集和處理過程;滿足公平正義和經(jīng)濟效率的前提下,保護大數(shù)據(jù)市場的競爭秩序(Townley等,2017)。

        (三)人工智能設(shè)計倫理

        1. 人工智能設(shè)計的倫理原則

        人工智能在應(yīng)用過程中對人類產(chǎn)生侵蝕和威脅的案例證明了技術(shù)異化的倫理風(fēng)險,研究中用“人類關(guān)切”(human-centric)來描述這種內(nèi)在價值的虧損。這種虧損是在被制造的時候缺乏精細和復(fù)雜的倫理學(xué)設(shè)計(Bostrom,2014),因此設(shè)計過程中需更多聚焦人與數(shù)據(jù)的自由關(guān)系(李倫,2018)。美國電氣和電子工程師協(xié)會(IEEE)將倫理植入設(shè)計人員的意識中,鼓勵科技人員在人工智能研發(fā)過程中優(yōu)先考慮倫理問題(Davies,2016)。

        基于人權(quán)優(yōu)先、強調(diào)人機和諧共處,在人工智能設(shè)計中需要優(yōu)先考慮:(1)人類利益,確保人工智能和自主系統(tǒng)(AI/AS)不侵犯人類,這也是阿西莫夫(Asimov)提出的機器人的三大定律之一,后來又提出了“零律”對其做出補充①第一定律:機器人不得傷害人類,或者目睹人類將遭受危險而袖手不管;第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存;第零定律:機器人必須保護人類的整體利益不受傷害,其他三條定律都是在這一前提下才能成立。。雖然這些規(guī)范在理論上得到了大家的認可,但是從未在實踐中被完全實現(xiàn),因為這沒有給出能夠被業(yè)界所推崇的機器編碼技術(shù)路線。(2)責(zé)任,確保AI/AS是可以被問責(zé)的。在設(shè)計程序?qū)用婢哂锌韶?zé)性,強化機器人研發(fā)人員的職業(yè)責(zé)任(Murphy和Woods,2009),證明其為何以特定的方式運行。(3)透明性,AI/AS的運作必須是透明的,可以使人類發(fā)現(xiàn)機器人是如何以及為何做出特定的決定。透明至少應(yīng)該包含開放和可理解兩個方面,只有讓用戶和機構(gòu)在算法上達到平衡,才能確保用戶的數(shù)據(jù)權(quán)利。(4)教育與意識,需要強化AI/AS的優(yōu)勢,推進倫理教育和安全教育意識,降低其被濫用所帶來的風(fēng)險(騰訊研究院等,2017)。

        2. 人工智能倫理設(shè)計進路

        人工智能作為一種技術(shù)必然帶有價值偏好,機器的自由化程度越高,就越需要道德標準。由于人工智能系統(tǒng)在自主性方面的能力的提升,在設(shè)計階段讓其采納、學(xué)習(xí)并遵循所服務(wù)的社會和團體的規(guī)范和價值顯得至關(guān)重要,可以分步驟來實現(xiàn)將人類規(guī)范和道德價值嵌入人工智能系統(tǒng):

        (1)識別特定區(qū)域范圍內(nèi)的規(guī)范和價值。社會和道德規(guī)范是特定區(qū)域范圍內(nèi)內(nèi)化于行為、語言、習(xí)俗等針對特定任務(wù)的價值觀,人工智能系統(tǒng)受到多種規(guī)范和價值約束,應(yīng)明確需要嵌入的規(guī)范和價值,避免導(dǎo)致道德過載(moral overload)問題。在人工智能價值權(quán)重設(shè)計階段,優(yōu)先考慮利益相關(guān)群體共同分享的價值體系,技術(shù)上要滿足不同空間和時間下價值和規(guī)范發(fā)生變化的可能性。

        (2)將這些規(guī)范和價值嵌入人工智能系統(tǒng)。實現(xiàn)機器人倫理道德的決策設(shè)計,避免機器的不當使用威脅人類的生存,需要把倫理準則變成可編程的代碼嵌入人工智能機器。倫理設(shè)計進路包括“自上而下(top-down)”和“自下而上(bottom-up)”。TD研究方法即認知主義,突出人類的主體地位,利用“特定的倫理理論進行分析指導(dǎo)實現(xiàn)該理論的運算法則和子系統(tǒng)的計算需要”的方法,提倡研究人類的策劃、推理以及解決問題的能力,在“機器人三定律”基礎(chǔ)上構(gòu)建人工道德主體的理論研究框架。BU研究方法是涌現(xiàn)主義,強調(diào)機器的能動作用,即不通過任何抽象概念或推理過程,機器人對所感知到的刺激能動做出反應(yīng),能夠從不同的社會機制中動態(tài)地進行集成輸入,為完善人工道德主體整體性發(fā)展提供技巧和標準。

        隨著深度學(xué)習(xí)算法的提出與發(fā)展,綜合運用TD的演繹規(guī)約路徑和BU的歸納規(guī)約路徑來對人工智能倫理問題進行分析,提出了“混合型解決方法(hybrid resolution)”。內(nèi)部從頂層設(shè)計開始對人工智能產(chǎn)品進行倫理設(shè)計,建立人工智能的倫理標準和規(guī)范,限定存在爭議和容易引起安全問題的技術(shù)應(yīng)用范圍和智能水平。外部需要加強設(shè)計者的社會責(zé)任意識,加強對人工智能安全的評估和管理,增加公眾對人工智能的接受度(杜嚴勇,2015)。

        (3)評估人工智能系統(tǒng)的規(guī)范和價值的有效性,即是否與人類社會的倫理相一致和兼容。由于設(shè)計的目的和應(yīng)用導(dǎo)向,與人類兼容的人工智能系統(tǒng)應(yīng)確立利他主義、不確定性、考慮人類三項基本原則。信任作為人—機交互的動態(tài)變量,功利主義和絕對主義導(dǎo)向會做出不同的道德選擇,需要建立使用者對人工智能的信任,通過第三方評估組織需要界定價值一致性和相符性標準,評價主體的價值對接問題。

        對機器人進行倫理設(shè)計旨在尋求實際的解決辦法以保障機器的行為是在人類可承受范圍之內(nèi),并將研究拓展到不同機器之間的道德規(guī)則傳遞(Anderson和Anderson,2007)?,F(xiàn)將機器倫理用于實踐的應(yīng)用程序主要包括基于“倫理原則”和“實踐原則”的兩種形式,前者以Michael Anderson設(shè)計的基于邊沁功利主義的“Jeremy”程序和基于羅斯顯見義務(wù)(prima facie duties)的“W.D.”程序為代表,后者以McLaren設(shè)計的“說真話”(truth-teller)為代表(Anderson和Anderson,2007;于雪和王前,2016)。從技術(shù)領(lǐng)域通過程序來指導(dǎo)倫理決策,可以優(yōu)化機器人在無意識的情況下選擇道德的行為過程。設(shè)計過程中強調(diào)人工智能的人文化(humanitas),創(chuàng)造出有道德的人工智能體。這樣,人類就可以與機器人建立在一定信任程度基礎(chǔ)之上,通過邏輯性的命令保障機器人的倫理行為被約束在一定的框架范圍內(nèi),使機器人的行為最大化的符合人類社會的道德規(guī)范。

        (四)人工智能社會倫理

        目前,就AI應(yīng)用問題還未達成更好的社會契約,人們質(zhì)疑其快速發(fā)展會給人類帶來極大的危險,衍生出更多的問題。國內(nèi)外聚焦在責(zé)任與安全、隱私保護等方面分析人工智能應(yīng)用產(chǎn)生的社會后果,探討如何善用人工智能造福于人類。

        1. 責(zé)任與安全

        國外關(guān)于機器人倫理研究中爭論的一個核心問題就是:究竟誰應(yīng)該對機器人的行為承擔(dān)責(zé)任?聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會(2015)提出了兩種對策,一是由智能機器人承擔(dān)責(zé)任。早有學(xué)者以具體的APACHE系統(tǒng)為例,闡述機器也許會承擔(dān)一些道德責(zé)任(Friedman和Kahn,1992),因為沒人能夠承擔(dān)機器人故障的責(zé)任(Matthias,2004)。為此,已有開展賦予機器人道德責(zé)任問題的研究,提出使用某種道德測試來裁決機器人是否需要在法庭上負責(zé)。但也有學(xué)者認為,機器人沒有能力承擔(dān)全部道德責(zé)任(段偉文,2017),因為計算機的自主意識性與人類期望的差距仍然較大。在以人為中心的倫理框架下很難對機器人的行為做出有效界定,為此,在機器人設(shè)計中應(yīng)提倡保證算法透明性的披露方式,以利于人類對機器所承擔(dān)的道德責(zé)任保持清晰的理解。

        另一種對策是讓所有參與機器人發(fā)明、授權(quán)和分配過程中的人來分擔(dān)責(zé)任。算法無法預(yù)見機器人在與人類相處過程中所出現(xiàn)的全部可能的行為,不可能對隱藏在機器人動作中的因果鏈進行完全掌控。因此,當問題出現(xiàn)時,程序員不會承擔(dān)全部但也不能完全免責(zé)。為了避免在事件發(fā)生時沒有人承擔(dān)全部責(zé)任,應(yīng)該推廣使用保險制度,能夠讓所涉及事件的所有人共同承擔(dān)。并不斷完善當前的法規(guī)來填補“責(zé)任空白”,為責(zé)任歸屬問題找到解決途徑。

        2. 社會就業(yè)結(jié)構(gòu)

        人工智能的廣泛應(yīng)用將人類從危險、枯燥和困難的任務(wù)中解放出來,人類在分享AI帶來巨大物質(zhì)財富和生活便利的同時,也承擔(dān)了巨大的心理壓力,如AI是否會造成從事勞動力密集型、重復(fù)性、程序化等領(lǐng)域的工種的大面積失業(yè),影響人們的收入和福利,產(chǎn)生新的貧富差距和社會分化,從而會引起社會危機,造成社會安全程度降低和引發(fā)動蕩(閆坤如和馬少卿,2018)。很早就有學(xué)者反對將機器投入工作中,認為自動化技術(shù)將會引發(fā)人類學(xué)習(xí)動機的下降,使人類喪失個性,造成“人腦的貶值”,從而把社會變得機械化。麥肯錫的報告預(yù)測,因技術(shù)的進步和AI的普及,到 2030 年全世界將有3.9億人會更換工作,有8億人會失業(yè)。因此,未來因AI發(fā)展而引發(fā)的社會穩(wěn)定問題也同樣嚴峻。

        雖然機器的感覺、運動、計算都將會遠遠超過人類,但人類和機器還處于非對稱交互階段,仍然存在著交互的時間差。莫拉維克悖論(Moravec’s paradox)認為,人類獨有的高級智慧能力只需要非常少的計算能力,但是無意識的技能和直覺卻需要極大的運算能力,這正是機器在短期無法比擬與模仿的。機器和人類的發(fā)展都是建立在對環(huán)境的改造和認知上,環(huán)境結(jié)構(gòu)化的高低在一定程度上決定了機器對人的替代可能性,雖然未來一部分職業(yè)會被機器人取代,但是技術(shù)的發(fā)展也會改變現(xiàn)有的社會就業(yè)結(jié)構(gòu),并產(chǎn)生一些新的行業(yè)。

        智能化生產(chǎn)追求的不是簡單、異化的“機器換人”,而是采用機器進行柔性生產(chǎn),重新回到“以人為本”的組織生產(chǎn)模式,重視人在社會價值創(chuàng)造中的主體作用,實現(xiàn)企業(yè)生產(chǎn)運營效率的提升,本質(zhì)是實現(xiàn)“人—機”協(xié)同。因此,AI不會從根本上沖擊人類的工作崗位與就業(yè)。對比第一次工業(yè)革命,蒸汽機的使用取代了許多人,但創(chuàng)造了更多的就業(yè)機會,社會整體失業(yè)率反而穩(wěn)定下來。當然并非所有人都有能力邁過技術(shù)性和社會性壁壘,這會削減勞動力在與資本談判中的議價能力,未來社會可能會出現(xiàn)“無用階級”,引發(fā)新的社會問題。

        3. 生活中的人工智能倫理

        (1)隱私問題

        算法需要大量的優(yōu)質(zhì)數(shù)據(jù)支撐,各種活動之間的數(shù)據(jù)交換變成了新的價值創(chuàng)造源,個人的數(shù)據(jù)容易被機構(gòu)的主動收集和使用,處于相對被動的,這會削弱個體對個人數(shù)據(jù)的控制和管理。這些數(shù)據(jù)如果被機構(gòu)披露將對個人的隱私產(chǎn)生影響,因此需要在深度學(xué)習(xí)過程中加強對個人隱私的保護。

        隱私問題激發(fā)了更為基礎(chǔ)的倫理問題的討論,其實質(zhì)是數(shù)據(jù)濫用和數(shù)據(jù)侵權(quán)的問題,發(fā)展到極致可能導(dǎo)致數(shù)據(jù)巨機器(data megamachine)的出現(xiàn)。數(shù)據(jù)主義成為了數(shù)據(jù)巨機器的意識形態(tài),它主張絕對的數(shù)據(jù)共享,這可能有助于提高社會的運行效率的,但是一旦數(shù)據(jù)巨型機獲得了自由,就有可能造成人與數(shù)據(jù)關(guān)系的破裂、人的自由的喪失,從而導(dǎo)致“楚門效應(yīng)”①“楚門效應(yīng)”的實質(zhì)是,消費者在毫不知情的情況下其自主權(quán)遭到侵犯。在楚門世界,除了楚門,人人都是演員;在數(shù)據(jù)機器里,人人都是楚門,人人都是演員,無人是自己。的產(chǎn)生。

        為了防止隱私問題的擴大和惡化,需要從倫理和技術(shù)兩方面入手。建立以人的權(quán)利為中心的數(shù)據(jù)倫理,強調(diào)算法的透明性,消除數(shù)據(jù)孤島,提倡有規(guī)范的數(shù)據(jù)共享,防止數(shù)據(jù)濫用,旨在消除數(shù)據(jù)主義對數(shù)據(jù)自由的崇拜。在技術(shù)上,目前已經(jīng)有諸如匿名化、差別化隱私、決策矩陣等工具的應(yīng)用來實施隱私保護。“人工智能+區(qū)塊鏈技術(shù)+量子技術(shù)”在未來也可能會提供更加有效的解決方案,但在此之前仍需要政府、企業(yè)和民間團體等相關(guān)主體共同努力,防止由于數(shù)據(jù)大規(guī)模泄露而產(chǎn)生的隱私問題,重建人在大數(shù)據(jù)時代的主體地位,建構(gòu)人與技術(shù)、人與數(shù)據(jù)的自由關(guān)系,消除機械論世界觀的不良影響。這些思路各有利弊,目前來看仍是一個需要展開探討的開放性問題。

        (2)其他方面

        人工智能放大了信息處理和知識加工的能力,人參與社會互動的范圍和頻率可能減小,人類需求與知識之間的關(guān)系變得越來越間接。信息和知識的冗余讓人陷入選擇困境,甚至?xí)催^來支配人的需求。在司法、醫(yī)療、指揮管理等重要領(lǐng)域,研究人員也開始探索人工智能在審判分析、疾病診斷和對抗博弈方面決策上應(yīng)遵循的規(guī)范(Sikchi等,2012;Alzou'bi等,2014)。

        在法律領(lǐng)域,人工智能的快速發(fā)展需要人們重視資源優(yōu)化配置與價值觀負載的制度匹配,因此亟需通過立法來規(guī)范人工智能技術(shù)。一是研究并確立因人工智能行為而產(chǎn)生的責(zé)任制度和約束機制,這樣才能在判決中明確人工智能對第三方造成損失或者違反制度而承擔(dān)的相應(yīng)法律責(zé)任;二是需要建立一套道德規(guī)范,促使技術(shù)倫理由隱性向顯性轉(zhuǎn)化,包括建立和編寫智能系統(tǒng)或機器人取代人類活動所適用的基本規(guī)則(Ferraz和Del Nero,2018)。

        在政府管理方面,人工智能技術(shù)在推動社會進步、提升政府組織治理效率的同時,也造成了政府部門與社會的“技術(shù)鴻溝”。政府的監(jiān)管能力跟不上技術(shù)的發(fā)展,使得技術(shù)的發(fā)展在沒有告知、分析、審查和監(jiān)管的情況下繼續(xù)發(fā)展,進而損害了公民利益。算法可能會繼承人類社會傳統(tǒng)行政管理的冗余、歧視等現(xiàn)象而出現(xiàn)非理性決策。因此,人工智能對政府治理理念、政府技術(shù)能力、政務(wù)流程、傳統(tǒng)行政倫理提出了挑戰(zhàn)。

        五、國家、企業(yè)對人工智能倫理的態(tài)度

        為了更好地促進全世界人工智能產(chǎn)業(yè)發(fā)展,應(yīng)將人工智能監(jiān)管納入戰(zhàn)略考慮,相關(guān)的法律、倫理、監(jiān)管配套制度都應(yīng)并行建立。可追溯制度的建立才能讓機器人的行為及決策全程處于監(jiān)管之下,只有這樣人類才能占據(jù)主動權(quán)或者事后進行全面追蹤調(diào)查的權(quán)利。

        (一)國家戰(zhàn)略部署

        近年來,世界各國都從國家戰(zhàn)略層面發(fā)布了人工智能發(fā)展的指導(dǎo)文件(如表2所示)。例如,2016年,美國將“理解并解決人工智能的道德、法律和社會影響”列入國家人工智能戰(zhàn)略,同時對人工智能從業(yè)者和學(xué)生加強道德倫理教育,并成立相應(yīng)的管理機構(gòu),負責(zé)跨部門協(xié)調(diào)人工智能的研究和發(fā)展、提出技術(shù)和政策建議、監(jiān)督各部門的人工智能技術(shù)研發(fā),進一步促進公平與正義。同年,英國也探討了人工智能所帶來的一系列潛在的倫理和法律挑戰(zhàn),嘗試尋找能夠?qū)崿F(xiàn)社會經(jīng)濟效益最大化的途徑,指出應(yīng)建立人工智能委員會來應(yīng)對機器人技術(shù)帶來的對社會、倫理和法律的影響。日本也制定了機器人應(yīng)用部署問題的管理方針,包括建立中心數(shù)據(jù)基地來存儲機器人對于人類造成傷害的事故報告。

        表2 世界主要各國的人工智能國家戰(zhàn)略文件

        中國對人工智能倫理問題也高度重視,并于2018 年開始組建人工智能倫理專委會。在中國發(fā)布的戰(zhàn)略規(guī)劃中,“人工智能倫理”這一字眼出現(xiàn)了15次之多,側(cè)重從打造平臺、構(gòu)建市場、激勵創(chuàng)新等方面進行了闡述,并提出了“2025年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,2030年建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”的建設(shè)目標,但是對于監(jiān)管原則、監(jiān)管體系和相關(guān)監(jiān)管機構(gòu)的建設(shè)還沒有提及。

        2017年,人工智能濫用、算法公平、人工智能倫理、人工智能監(jiān)管和責(zé)任等進入更廣泛的公眾討論視野,相應(yīng)的標準和規(guī)范相繼出臺。歐盟簽署《人工智能合作宣言》,共同面對人工智能在倫理、法律方面的挑戰(zhàn),成立統(tǒng)籌人工智能監(jiān)管的政府機構(gòu),專門研究與機器人和人工智能相關(guān)的法律問題,并呼吁制定“機器人憲章”。聯(lián)合國發(fā)布的《關(guān)于機器人倫理的研究報告》中提供了物理形態(tài)下人工智能系統(tǒng)全新路徑研究的新視角,提出了人工智能發(fā)展的基本原則,包括保障人類利益和基本權(quán)利、安全性、透明性、推動人工智能普惠和有益發(fā)展。聯(lián)合國犯罪和司法研究所(NUICRI)在海牙成立第一個聯(lián)合國人工智能和機器人中心,教科文組織和世界科學(xué)知識與技術(shù)倫理委員會(COMEST)聯(lián)合發(fā)布了《關(guān)于機器人倫理的初步草案報告》(2015),其中討論了在機器人的制造和使用過程中產(chǎn)生的社會與倫理問題,并列舉了相應(yīng)的措施:數(shù)據(jù)和隱私保護、構(gòu)建機器人設(shè)計者與機器人之間的責(zé)任分擔(dān)制度、在實景中對機器人進行測試、建立全新的針對機器人的保險制度、智能機器人的退出機制,并進一步提出在機器人及機器人技術(shù)的倫理與法律監(jiān)管中確立可追溯性,保證機器人的行為及決策全過程處于監(jiān)管狀態(tài)。

        (二)企業(yè)社會責(zé)任

        由于技術(shù)發(fā)展和利益誘惑帶來的驅(qū)動效用,國內(nèi)外知名的互聯(lián)網(wǎng)企業(yè)如Microsoft、Google、Facebook、百度、騰訊等不斷加大對人工智能領(lǐng)域的投資,預(yù)計未來10年內(nèi)將創(chuàng)造巨大的財富價值。但人工智能技術(shù)的發(fā)展可能最終導(dǎo)致世界所依賴的各種機器為數(shù)據(jù)和算法所驅(qū)動且不受倫理或哲學(xué)規(guī)范約束。面對公眾的擔(dān)心和憂慮,科技巨頭們也開始采取行動,將倫理考量納入到企業(yè)社會責(zé)任框架中。

        Microsoft闡述了包括公平、可靠性、保護隱私、包容性、透明性和可責(zé)性6項人工智能系統(tǒng)原則,確保人類的利益不受損害。Google還明確列出了“不會追求的人工智能應(yīng)用”。Facebook在經(jīng)歷數(shù)據(jù)泄露丑聞之后也開始成立人工智能倫理團隊,負責(zé)防止人工智能軟件中的歧視。從其官網(wǎng)可以發(fā)現(xiàn),正在招聘人工智能政策、倫理、法律等方面的人員,表明其開始重視人工智能倫理相關(guān)的工作。

        這些企業(yè)在人工智能倫理上采取的行動,歸納起來主要包括:一是開展人工智能倫理與社會研究,將人工智能與人文社會科學(xué)結(jié)合起來,研究人工智能對社會、法律、組織、民主、教育和道德的深遠影響,這是科技企業(yè)負責(zé)任研發(fā)與創(chuàng)新的體現(xiàn);二是提出人工智能價值觀,美國、英國、歐盟等致力于達成國家層面的人工智能倫理準則,未來生命研究所(FLI)主導(dǎo)提出了“阿西洛馬人工智能原則”、IEEE希望推動形成行業(yè)層面的人工智能倫理共識,谷歌、微軟等科技公司提出建立全球性參與平臺(global participatory platform)的設(shè)想,構(gòu)建數(shù)據(jù)和算法模型構(gòu)成的公共商店(Helbing,2015),提出企業(yè)層面的人工智能價值觀以贏得公眾的信任;三是成立人工智能倫理委員會,通過行業(yè)實踐,建立健全監(jiān)管機制,配套法規(guī)制度,明確監(jiān)管主體,樹立具有行業(yè)特色的行動規(guī)范。

        六、結(jié)論及展望

        本文選取影響因子較大的國內(nèi)外期刊,回顧了1997—2018年期間與人工智能倫理相關(guān)的研究文獻,補充完善了現(xiàn)有的人工智能倫理研究框架,如圖3所示。無論是人工智能應(yīng)用在現(xiàn)有倫理基礎(chǔ)上產(chǎn)生的問題,還是影響人類行為引發(fā)的全新倫理問題,弱人工智能和強人工智能上的不同表現(xiàn)引發(fā)了倫理研究的必要性和迫切性。二者是人工智能發(fā)展過程中的兩個階段,人類對人工智能都應(yīng)持有一定的憂患意識和風(fēng)險意識,對前者應(yīng)該大力研究和發(fā)展,對后者應(yīng)該加以限制。雖然個別學(xué)者認為人工智能還不具備倫理意識,但按照目前的研究成果與趨勢,人工智能的倫理意識只是時間和技術(shù)問題。因此可以認為人工智能在“強弱”上的差別是其是否具備倫理屬性的分水嶺。

        人工智能倫理研究需要建立新的倫理范式,從人工智能倫理的普遍性問題(道德哲學(xué)、道德算法)出發(fā),分析不同領(lǐng)域引發(fā)的倫理問題(社會倫理),提出倫理問題的解決路徑(設(shè)計倫理、國家和企業(yè)的制度)。為了確保人類與人工智能系統(tǒng)和諧相處,人類已經(jīng)在理論突破、立法研究、倫理準則、安全標準、監(jiān)管體系等方面取得了一定成果,但是對人工智能倫理的研究還不夠系統(tǒng)、完善,未來可以從以下角度進一步探討和思考:

        (一)重視全球情景下的人工智能倫理體系研究

        倫理是具有情境性的,在一個環(huán)境下能正常接受的倫理,當遷移到另一種情境可能就會變得難以接受。人工智能的發(fā)展是一個全球性的過程,對現(xiàn)行國際秩序?qū)⒃诎踩献?、可持續(xù)發(fā)展和創(chuàng)新治理上產(chǎn)生深刻影響。因此,解決人工智能倫理的跨情境問題是未來需要思考的重點之一。以Wallach為代表的學(xué)者從個體提出了人工智能倫理必要性的研究,引發(fā)了國際社會的廣泛關(guān)注。不同的組織、企業(yè)和國家也分別提出了各自的人工智能倫理準則,這些準則的建議已基本達成共識。未來需要從全球的層面來建立人工智能倫理體系,即沿著“個體→組織(國家)→全球(全人類)”的路徑對人工智能倫理開展“意識→準則→體系”的研究。

        圖3 人工智能倫理主要研究框架

        雖然不同國家和組織提出了人工智能倫理的戰(zhàn)略指導(dǎo),但更廣泛的信息交流和參與程度仍相對停滯,在某種程度上是割裂和分散的,呈碎片化狀態(tài),沒有形成統(tǒng)一的范式,不足以形成全局性的行業(yè)共識和最佳實踐。制定政策、法規(guī)或道德和操作標準,需要把技術(shù)進步納入到一個全球視域的、生態(tài)可持續(xù)的、政治上公平的社會愿景中,服務(wù)于全人類的利益而不是國家主義或者民族主義。

        怎樣建立全球范圍內(nèi)統(tǒng)一的人工智能倫理體系具有非常重要的研究價值。僅考慮道德倫理、法律法規(guī)和社會影響框架(ELSI)是不夠的,文化在預(yù)測未來技術(shù)的發(fā)展軌跡上具有關(guān)鍵性的作用。不同區(qū)域的不同政治制度、文化制度和社會意識形態(tài)看待人工智能倫理的標準也不相同,文化多樣性應(yīng)該體現(xiàn)在互動之中,在文化的沖突、融合、發(fā)展中促進人類意識的趨同性。這就是全球范圍內(nèi)的文化差異應(yīng)該成為人工智能倫理討論的核心的原因所在。

        在全球范圍內(nèi)深化人工智能的國際合作,搭建關(guān)聯(lián)政府、企業(yè)、公共組織以及個人的平臺來促進人工智能政策、技術(shù)和文化間的交流與互動,將科技公司自發(fā)形成的人工智能原則轉(zhuǎn)變?yōu)楣沧R并用以形成對人工智能創(chuàng)新及應(yīng)用的倫理約束。將倫理問題納入ESG(環(huán)境、社會和治理)框架,從人類命運共同體的高度構(gòu)建全球化的人工智能治理新秩序,共同探討全球通用的人工智能倫理法則,人工智能價值觀才能發(fā)揮其作用。

        (二)重視人工智能倫理研究對技術(shù)研究的前瞻性

        在新興技術(shù)飛速發(fā)展的背景下,由于缺乏相應(yīng)的監(jiān)管機制、法律規(guī)范,倫理問題的研究往往滯后于技術(shù)的發(fā)展(如基因編輯嬰兒),相關(guān)的社會反應(yīng)出現(xiàn)一定的延遲也成為不可避免的現(xiàn)象。目前對人工智能倫理展開研究的主體很多,但是從哪個階段開始考慮人工智能的倫理、法律及社會影響尚未形成統(tǒng)一認識,人文社科研究者和政策法律群體認為應(yīng)該從人工智能的基礎(chǔ)研究階段開始考慮倫理、法律、社會影響,而科學(xué)家、企業(yè)家和技術(shù)人員則認為從產(chǎn)品化、服務(wù)化之后社會使用和實施階段開始。社會對人工智能的關(guān)注缺乏整體性的思考和討論,目前仍集中在技術(shù)與經(jīng)濟方面,就倫理挑戰(zhàn)和社會問題而言,這些討論更多地還停留在理論研究,尚未達到公共政策層面,而且討論的重點多集中在“強人工智能”這樣相對遙遠的議題。

        前瞻性的探索非常重要,倫理研究缺乏前瞻性,就會導(dǎo)致政策的真空。高校和研究機構(gòu)開展前瞻性的科技倫理研究,為相關(guān)規(guī)范和制度的建立提供理論支撐,明確人工智能技術(shù)研發(fā)應(yīng)用的合理邊界,這既包括人工智能的技術(shù)倫理研究,也包括“人—物”、“人—機”、人際與環(huán)境之間關(guān)系的探索?!叭恕獧C”關(guān)系不能僅停留在人與機器、機器人的層面,更應(yīng)包括社會運作的機制、機理,需要從倫理學(xué)的視角來促進人文科學(xué)與自然科學(xué)的統(tǒng)一,構(gòu)建同時具備理論探索和實踐指導(dǎo)的倫理價值體系。人們設(shè)計制定人工智能道德規(guī)范,并積極反思人工智能與人類之間的關(guān)系,但是考慮人工智能對未來社會影響的不確定性,還需要全世界和各國政府的共同努力,制定人工智能開發(fā)和應(yīng)用的倫理規(guī)范和政策方向,采取一些新的監(jiān)管和認證程序,分別從倫理、政策、法律三個層面推動各項政策的落地。建立保障人工智能健康發(fā)展的倫理道德框架和法律法規(guī),重點需要建立人機協(xié)作的倫理框架,完善立法和明確人工智能法律主體,在弱人工智能的細分領(lǐng)域加快制定相應(yīng)法規(guī),為強人工智能的到來奠定法律基礎(chǔ)。

        (三)重視多利益主體的倫理角色塑造

        在人工智能研發(fā)和政策的應(yīng)用過程中始終要圍繞以人為本的核心,滿足人類全面發(fā)展的需求,促進社會的公平和可持續(xù)發(fā)展。人工智能倫理研究將面對智能信息技術(shù)發(fā)展與跨學(xué)科的共同挑戰(zhàn),正確認識人工智能倫理,引導(dǎo)技術(shù)研發(fā)方向,注重源頭設(shè)計與開發(fā),在技術(shù)推進中注入人文理性,這需要哲學(xué)家、藝術(shù)家以及社會科學(xué)各界從不同視角審視倫理問題。在技術(shù)變革中積極參與,及時發(fā)現(xiàn)技術(shù)當中隱含的道德議題、社會議題,向科學(xué)界、技術(shù)界和企業(yè)界傳遞他們的觀點,構(gòu)建開放的公共研究平臺進行多領(lǐng)域交叉研究。

        多種類型的主體共同參與治理,需要各國政府與社會各界從人類命運共同體的高度予以關(guān)切和回應(yīng)。以政府、企業(yè)、社會機構(gòu)、行業(yè)組織、社會大眾等社會各界需要共同參與來塑造人工智能的社會角色,確立行業(yè)標準,建立健全相關(guān)法律法規(guī),采取統(tǒng)籌監(jiān)管和分散監(jiān)管的方法,改變經(jīng)濟、政治和教育系統(tǒng)的優(yōu)先順序,使人類在與人工智能的競爭中保持和諧共處。在這樣一種多利益相關(guān)方合作的模式之上,人們才能最大程度地理解并控制人工智能的倫理和社會影響,在人類社會進步和技術(shù)創(chuàng)新之間實現(xiàn)協(xié)同效應(yīng)。

        (四)除了自然和社會科學(xué)路徑,還需要從“科學(xué)發(fā)展觀的倫理學(xué)”角度來理解人工智能倫理問題

        人工智能發(fā)展的過程會對現(xiàn)有倫理學(xué)構(gòu)成挑戰(zhàn),同時也會產(chǎn)生更多的未知新倫理問題,內(nèi)含的技術(shù)和社會雙重屬性及其矛盾將會越來越突出。解決人工智能引發(fā)的各種倫理問題,需要樹立“發(fā)展的倫理和倫理的發(fā)展”觀點,通過自然科學(xué)和社會科學(xué)的路徑來認識和解決人工智能倫理問題,人類更需要在機器人廣泛使用的社會中轉(zhuǎn)變當前的工作觀念。為了確保人類精神在一個與人工智能并存的世界中同步發(fā)展,需要改變哪些傳統(tǒng)觀念?如何克服觀念轉(zhuǎn)變過程中的障礙和困難?新的倫理觀念是否能匹配新的社會形態(tài)?這些問題需要人類建構(gòu)可持續(xù)發(fā)展的發(fā)展倫理和基于健全理性的科技倫理來回答。

        猜你喜歡
        倫理道德機器人
        《心之死》的趣味與倫理焦慮
        頭上的星空與心中的道德律
        十幾歲(2021年24期)2021-11-18 02:18:40
        護生眼中的倫理修養(yǎng)
        活力(2019年19期)2020-01-06 07:37:00
        跟蹤導(dǎo)練(五)(2)
        道德是否必需?——《海狼》對道德虛無主義的思考
        機器人來幫你
        認識機器人
        機器人來啦
        認識機器人
        用道德驅(qū)散“新聞霧霾”
        新聞前哨(2015年2期)2015-03-11 19:29:31
        久久精品国产亚洲av四叶草| 亚洲天堂av免费在线看| 国产精品人人爱一区二区白浆| 少妇高潮久久蜜柚av| 熟女人妇 成熟妇女系列视频| 国产在线无码一区二区三区 | 国产精品高潮无码毛片| 国产黄色一区二区福利| av在线播放男人天堂| 夜鲁很鲁在线视频| 欧美精品一级| 日本黄色高清视频久久| 日韩人妻无码精品一专区二区三区| 欧美精品一区二区蜜臀亚洲| 蜜桃av抽搐高潮一区二区| 人与嘼av免费| 夫妻一起自拍内射小视频| 九九久久精品国产免费av| 久久精品欧美日韩精品| 欧美一级特黄AAAAAA片在线看| 日本熟女人妻一区二区三区| 精品国产一区二区三区三级| 狠狠色成人综合网| 2021国产精品久久| 青青草免费视频一区二区| 国产亚洲精品国产精品| 97人人模人人爽人人喊电影| 免费无码中文字幕A级毛片| 在线视频免费自拍亚洲| 人成午夜大片免费视频77777 | 亚洲天堂免费视频| 国产一区二区三区再现| 国产老熟妇精品观看| 激情欧美日韩一区二区| 淫欲一区二区中文字幕| 国产精品内射久久一级二| 中文无码一区二区不卡αv| 亚洲专区一区二区在线观看| 国内偷拍精品一区二区| 无码视频在线观看| 另类亚洲欧美精品久久不卡|