王 軍
近年來,人工智能在社會各領(lǐng)域迅速發(fā)展開來,并給人們生產(chǎn)生活帶來極大便利。其產(chǎn)生的目的是為研究人類智能的本質(zhì)內(nèi)涵,具體而言就是為實現(xiàn)機器能夠執(zhí)行與人類智能相關(guān)的活動。然而,隨著人工智能的發(fā)展,一些問題開始日益凸現(xiàn),這些問題不僅有技術(shù)層面的也有倫理方面的。Rosalind Picard曾指出“機器的自由化程度越高,就越需要道德標(biāo)準(zhǔn)?!盵1](P9)因此,對人工智能進行倫理審思顯得尤為必要,這也是應(yīng)對人工智能引發(fā)的倫理問題的前提所在,與此同時,我們還應(yīng)當(dāng)提出一些具有建設(shè)性的、可操作的建議,為人工智能的健康發(fā)展保駕護航。
以倫理的視角審思人工智能技術(shù)及發(fā)展現(xiàn)狀,一方面能對人工智能的發(fā)展提供必要的倫理規(guī)范;另一方面也能對人工智能的良好發(fā)展提供方向性、原則性建議。
很長時間以來,道德是僅僅就人而言的。隨著生態(tài)倫理的興起,一些生態(tài)倫理學(xué)家主張將道德的范疇擴大到有生命的一切存在物上,生態(tài)倫理正式被確立并得到廣泛承認。而現(xiàn)今人工智能發(fā)展十分迅猛,在此情況下,一些學(xué)者認為也應(yīng)當(dāng)將人工智能納入道德的考慮范疇之內(nèi),他們借法國哲學(xué)家拉·梅特之言為其辯護:“人是動物,因而也是機器,只不過是更復(fù)雜的機器罷了?!盵2](P65)
進一步而言,人工智能是否能夠成為道德主體呢?關(guān)于這一問題爭論已久,學(xué)術(shù)界至今未能達成統(tǒng)一。大多數(shù)學(xué)者還是認為人工智能體不能夠成為道德主體,因為道德是僅就人類而言的,這也是人與其他生物相區(qū)別的根本。具體而言,人之所以成為道德主體是因為具有意識、能夠思考、能夠判斷的能力,這些能力是成為道德主體的必要條件。在這些明確的標(biāo)準(zhǔn)下,不同的研究者也存在著爭論,一些學(xué)者認為:意識只能存在于生物體的大腦內(nèi),不存在離開生物體而存在的意識,“人工智能本質(zhì)上是人造機器運用人類喂給它的知識,是人類已有明述知識的轉(zhuǎn)移、利用”[3](P18)。另外一些學(xué)者明確指出,計算機中也存在意識,機器也可充當(dāng)意識的載體,當(dāng)科學(xué)技術(shù)發(fā)展到一定程度時,人工智能是有能力通過“圖靈測試”①的。然而,有關(guān)圖靈測試也在這兩派中引起巨大的爭論。所以,截至目前,關(guān)于人工智能是否具有道德主體的問題仍然爭論不休。
雖然學(xué)術(shù)界在人工智能能否成為道德主體的問題上存在著較大爭論,然而這并不妨礙將人工智能納入道德體系范疇之中。需要指出的是,將人工智能納入到人類的道德體系范疇并不意味著肯定了人工智能的道德主體地位,而是人類作為道德主體拓寬了一些非人類事物的道德準(zhǔn)入標(biāo)準(zhǔn)。現(xiàn)代生態(tài)學(xué)家奧爾多·利奧波德認為,應(yīng)當(dāng)把“權(quán)利”的主體范圍進行擴展,也即是把道德權(quán)利主體擴大到有生命的自然物上去,這就使得人類生活的整個生態(tài)系統(tǒng)都具有了道德地位。英國的亞倫·斯洛曼教授受到近代生態(tài)倫理學(xué)家影響,他在《哲學(xué)中的計算機革命》一書中指出,人工智能技術(shù)下的機器人是存在思考和感知能力的可能的,因而把人工智能納入到道德系統(tǒng)范疇內(nèi)是合理的[4](P2-3)。雖然斯洛曼教授是基于一種可能性而言的一種主張,但顯然,將人工智能納入到人類道德范疇已勢在必行。
在人工智能被納入到人類道德系統(tǒng)范疇后,如何給予人工智能恰當(dāng)?shù)亩ㄎ皇鞘种匾?,就目前而言關(guān)于人工智能的主體定位尚存在較大爭議。英國教授蒂夫·托倫斯(Steve Torrance)認為道德地位可以被劃分為兩個方面,分別是道德產(chǎn)出(ethical productivity)和道德接收(ethical receptivity)。他曾明確指出:“無論圣人還是殺人犯——以及那些誠實地提交他們納稅申報表的盡本分的人——都是‘道德的產(chǎn)出者’,而從其他人的行為中受益或者被其他人的行為所傷害的人都是‘道德接收者’?!盵5](P495-521)因而,根據(jù)托倫斯教授觀點,我們同樣可以把人類和非人類給予道德角色定位,也即人類是道德行為的產(chǎn)出者,人工智能是受道德行為影響的道德接收者。
“隨著生產(chǎn)力的進一步發(fā)展,人工智能科技會快速發(fā)展,但是人類自身的認知能力在特定的歷史條件和階段總是受到限制的,這也是人類認知歷史發(fā)展的客觀規(guī)律之一,人類理性的有限性表現(xiàn)為人類對人工智能產(chǎn)品道德風(fēng)險認知的滯后性?!盵6](P42)人工智能之所以具有道德決策風(fēng)險主要在于,它被賦予越來越多的自主決策權(quán),這一點可以在當(dāng)前的自動駕駛汽車上很好的顯現(xiàn)?!爸灰詣玉{駛汽車與其他的道路使用者存在相互影響,自動駕駛汽車的零事故發(fā)生率就是不可能的?!盵7](P98)自動駕駛汽車所面臨的道德決策與“電車難題”十分相似,它首先被要求具有十分強的道德決策能力,并且要正確而合理。作為人工智能的產(chǎn)物,自動駕駛的道德決策能力是由其自身的道德決策參數(shù)所決定的,因而這就不可避免地帶來一系列道德決策風(fēng)險。
就目前而言,對于人工智能的道德決策能力研究主要有“自上而下”和“自下而上”兩種進路。自上而下的進路是指通過頂層設(shè)計確定標(biāo)準(zhǔn)而后向下傳播的一種方式。具體而言,就是將確定的倫理原則進行復(fù)雜的編碼,繼而將編碼植入到人工智能系統(tǒng)的過程。然而這種方式也存在諸多缺陷。其一,人類還沒有足夠的能力考慮到人工智能所要涉及的各方面問題;其二,設(shè)定的原則也很難實現(xiàn)與人工智能體的完全有效融合;其三,不同的人工智能體之間的道德標(biāo)準(zhǔn)存在相互競爭與沖突;其四,人工智能體很難應(yīng)對在發(fā)展過程中的各種突發(fā)狀況。當(dāng)然,這些缺陷也并不能完全否定自上而下路徑的研究意義,自上而下的方式更有助于把人類的智慧、意識、情感等融入折射到人工智能體中,并且在當(dāng)前的技術(shù)水平下人們至少可以確定一些初步的統(tǒng)一原則,如不傷害以及自由原則等。
自下而上的進路是指“智能機器不需要被嵌入任何道德規(guī)則或道德哲學(xué),它只需要‘觀察’并分析大量的實際情境中人類的行為數(shù)據(jù),就能學(xué)會如何做道德決策”[8](P565-582)。這一路徑使得人工智能體的道德標(biāo)準(zhǔn)與設(shè)計技術(shù)有望實現(xiàn)統(tǒng)一,但它也存在著如何實現(xiàn)道德進化目標(biāo)的問題。耶魯大學(xué)機器人專家Jonathan Hartman認為,阿西莫夫的三大定律應(yīng)當(dāng)作為智能機器人的適應(yīng)性標(biāo)準(zhǔn)[9](P565-582),三大定律是指:機器人不得對人類個體造成傷害,也不能看到人類受到傷害而不管不顧;機器人應(yīng)當(dāng)服從人的命令,前提是不違反第一個律令;機器人應(yīng)當(dāng)保護自身的安全,前提是不違反第一、第二個律令。需要指出的是,人工智能體在向道德進化過程中并不能受到三大定律的嚴格限制,因為進化需要一個寬松的環(huán)境,而這也使得人工智能體在這種進路下產(chǎn)生危害的風(fēng)險劇增。
除此之外,對于人工智能體的道德決策能力的研究進路還有很多,比如自上而下與自下而上相結(jié)合的研究進路等。但每一種研究進路都存在著或多或少的弊端與缺陷,這主要是由人類道德哲學(xué)的內(nèi)在結(jié)構(gòu)決定的,同時人類的技術(shù)還不能夠完全使人工智能體的道德決策能力達到人類水平。人工智能體已廣泛地應(yīng)用于我們社會各領(lǐng)域,這又加劇形成道德決策風(fēng)險乃至社會的系統(tǒng)性風(fēng)險。
在現(xiàn)實生活層面,人工智能帶給人們更多的是社會倫理問題,如人們的工作、家庭、醫(yī)療、環(huán)境等問題。這些倫理問題是人們所不能忽視的,它與每個人的生活都息息相關(guān),而了解、理清這些倫理問題的現(xiàn)狀及本質(zhì)有助于問題的解決。
其一,是對環(huán)境產(chǎn)生的倫理問題。人工智能在發(fā)展過程中,對環(huán)境不可避免地產(chǎn)生危害。人工智能對環(huán)境產(chǎn)生的危害源主要來自于兩個方面:一是制造人工智能產(chǎn)品過程中產(chǎn)生的危害,例如伴隨著人工智能產(chǎn)品制造過程中而產(chǎn)生的廢料等。二是產(chǎn)品的更新?lián)Q代以及自身意外損害等,譬如從事太空探索任務(wù)的機器人,很難回收再利用,多數(shù)淪為太空垃圾。這不僅是當(dāng)前環(huán)境問題,由此也引出一些代際倫理問題。
其二,是對醫(yī)療產(chǎn)生的倫理問題。醫(yī)療機器人的應(yīng)用帶來許多倫理問題:首先是對醫(yī)療公平的沖擊,由于人工智能醫(yī)療成本較為昂貴,多數(shù)普通患者不愿接受人工智能醫(yī)療設(shè)備的治療,因而其主要受眾也僅限于少數(shù)群體。其次是對病人隱私的威脅。比如人工智能機器在了解病人信息后會自動對信息進行儲存分析等,即便手動刪除個人私隱信息,在當(dāng)今技術(shù)條件下依然存在恢復(fù)找回的可能,因而存在較大的隱私泄露風(fēng)險。最后是對醫(yī)療安全性的挑戰(zhàn)??v使人工智能醫(yī)療技術(shù)越來越向精準(zhǔn)化、智能化方向發(fā)展,但其應(yīng)對突發(fā)情況的反應(yīng)處置能力還是帶來許多有待解決問題,例如醫(yī)療過程和醫(yī)療事故的責(zé)任界定等。
其三,是對家庭產(chǎn)生的倫理問題。這種倫理問題首先表現(xiàn)在夫妻的情感層面。如高仿真機器人的出現(xiàn)使得夫妻感情受到考驗,當(dāng)已婚人士對高仿真機器人投入時間和情感,甚至把機器人當(dāng)作情感的傾訴者、心理的慰藉者甚至是性行為伴侶時,這是否構(gòu)成對婚姻的背叛?同時,夫或妻的這種行為又能在多大程度上能得到對方的包容?高仿真機器人的市場化、普遍化與機器人的高仿真及個性定制等特性存在重大關(guān)聯(lián),當(dāng)高仿真機器人發(fā)展到很多行為、情感、外表與人類相差無幾時,人們是否更愿意把機器人作為自己的伴侶?人們可以隨心所欲地對機器人伴侶進行挑選,甚至是量身制作,這不僅影響夫妻情感,更威脅到人類的繁衍和未來。此外,這種不良的影響還表現(xiàn)在親子關(guān)系方面。在當(dāng)前社會中,子女與父母相處的時間越來越少,隨著會看護孩子的人工智能機器人的商業(yè)應(yīng)用,這將加劇孩子與父母的感情逐漸淡化弱化,可能使孩童出現(xiàn)情感偏差和認知障礙。
任何科學(xué)技術(shù)都存在著兩面性,人工智能也是如此,在其高速發(fā)展的同時我們也應(yīng)看到其存在的潛在威脅。人工智能是人類實踐產(chǎn)品的客體性存在,然而其越來越具有向主體性存在發(fā)展的趨勢。如2017年10月25日機器人索菲亞被授予沙特阿拉伯王國公民身份,這使得越來越多的人開始擔(dān)心人的主體性存在的問題,也即“人”概念與機器概念的融合。當(dāng)前人工智能顯然處于初級低智能階段,在這一階段“人們往往只對那些帶有類人的實體外形的機器人或者某種對象化的人工智能賦予人格”[10](P42-43)。但這一層面模仿的人工智能體已可運用于實際戰(zhàn)場,這些人工智能體與人不同,它們不會疲累不會饑餓,沒有思想沒有感情,因而會存在對無辜生命傷害的可能與危險。在人工智能向更高階段發(fā)展時,也即開始向人類思維方式以及意向性方面模擬。在這一高度模擬化的過程中,人工智能存在不受人類控制的可能,并與人類形成競爭甚至是敵我關(guān)系。此時,人類安全將受到實際威脅。
另一方面,人類自身容易自我異化。人工智能的發(fā)展使得人類許多崗位被人工智能體所取代,首先帶給人類的是生存壓力,越來越多人失業(yè),貧富差距逐漸被拉大,一系列社會問題出現(xiàn)。為緩解壓力,更多人會選擇逃避,逐漸走向異化。而富人們也不能避免異化,他們會沉迷于人工智能技術(shù)帶來的便利以及由此而來的舒適生活,在這種生活環(huán)境下,人類群體的實踐能力逐漸削弱,生活空間逐漸被壓縮,人工智能成為其消磨時間的工具,人與人之間的交往愈趨虛擬化,人們慢慢迷失自我,走向異化的孤獨。質(zhì)言之,人工智能的發(fā)展使得人類有更多閑暇,貧困者承受著生存壓力,選擇在虛擬的人工智能體中逃避生活;富有者在享受人工智能帶來的便利時沉迷于其中,進而為其所異化。
“我們正在邁入開放性、異質(zhì)性的智能社會,科技的威力更甚以往,有時甚至超出了人類的想象力?!盵11]人工智能的發(fā)展已成為關(guān)乎整個人類的存在與發(fā)展的重大問題,深刻領(lǐng)悟馬克思的科技史觀、正確定位人與人工智能的關(guān)系同樣有助于這一問題的解決。
在馬克思的邏輯范疇內(nèi),生產(chǎn)技術(shù)屬性是人本質(zhì)屬性的具體體現(xiàn)。那么,人工智能與人類的關(guān)系就十分明晰,人始終是具有主體性的存在,而人工智能技術(shù)及其衍生物只能作為客體而存在,這一主客關(guān)系是不容違背的,其直接導(dǎo)向的最高原則是以人為本。
在正確認識人與人工智能的本質(zhì)關(guān)系上,我們還應(yīng)當(dāng)構(gòu)建人與人工智能的良好互動機制。馬克思人的技術(shù)化思想本身就要求人們實現(xiàn)人與技術(shù)的雙向互動,雙向互動包括兩個層面的構(gòu)建方式。其一,作為主體的存在者——人以其自身的需求創(chuàng)造出人工智能客體,實現(xiàn)人本質(zhì)的力量向人工智能客體的轉(zhuǎn)移,也即是一種對象化的過程。其二,人工智能體具有獨立的存在形態(tài),其對主體存在者——人的活動具有制約和導(dǎo)向作用,此時主體的存在者——人成為一定程度的受動性存在,然而人可以發(fā)揮自身的主體能動性,在認識和把握規(guī)律的基礎(chǔ)上,掌握人工智能的規(guī)律,并把人工智能技術(shù)的能力內(nèi)化為自身能力,從而實現(xiàn)自身能力的提升,這也是一個自我能力復(fù)歸并提升的過程。質(zhì)言之,人與人工智能之間的雙向互動始終是以“以人為本”為最高原則,人雖然存在將自身能力外化為人工智能體,并受其制約和導(dǎo)向,但最終又返回人本身,最終提升人自身的實踐能力。
倫理制度建設(shè)對于人工智能所產(chǎn)生的倫理問題是不可或缺的,“我們所體驗到的那種無能為力并不是個人失敗的標(biāo)志,而是反映出我們的制度無能為力。我們需要重構(gòu)我們曾經(jīng)有過的這些制度,或者建立新的制度”[12](P15)。人工智能產(chǎn)品的研究與倫理制度的結(jié)合是應(yīng)對人工智能倫理問題的最有效方式。倫理制度層面的建設(shè)應(yīng)當(dāng)包括人工智能的設(shè)計倫理以及人工智能的應(yīng)用規(guī)范倫理。設(shè)計倫理旨在從源頭上保障人工智能產(chǎn)品的安全性,規(guī)范倫理是意在保障人工智能產(chǎn)品在應(yīng)用過程中的安全性,兩者雖各有側(cè)重,但需同時進行。
人工智能應(yīng)用過程中的倫理制度規(guī)范一般是對人工智能的使用者而言的。當(dāng)前,人工智能體不再局限于是減輕人類勞動的工具,而開始成為一種滿足人類政治、經(jīng)濟、社會、軍事需要的工具。在人工智能體不具備道德主體時,人工智能體的使用者就是一種道德主體,因而,對人工智能體的使用者制定合理的倫理制度規(guī)范是必要的。比如人工智能體的使用者不能為自身利益最大化而損害甚至是傷害其他人利益及健康安全,故此應(yīng)當(dāng)禁止人工智能應(yīng)用于可能對人類及整個社會造成危害的領(lǐng)域。除了外在的倫理制度規(guī)約,人工智能使用者也應(yīng)當(dāng)注重自身的倫理責(zé)任意識培養(yǎng),這一方面需要人工智能使用者將人工智能道德制度規(guī)范內(nèi)化為自身的主體信念;另一方面需要人工智能使用者加強自身道德修養(yǎng),提升自身責(zé)任意識。
當(dāng)前,人與人工智能是一種相互嵌入式的發(fā)展模式,這種發(fā)展模式對舊有的人與人之間的道德關(guān)系形成重大沖擊,因而,舊有的道德關(guān)系已不再適應(yīng)當(dāng)前時代,而新型人與人之間的關(guān)系是實現(xiàn)人與人工智能和諧相處的前提所在。具體而言,新型的人與人之間的關(guān)系是一種共享共存關(guān)系,是一種相互合作、相互信任的和諧關(guān)系。新型的人與人之間的和諧關(guān)系要求在對待人工智能技術(shù)方面,要始終堅持“以人為本”的最高原則,要以實現(xiàn)人的自由全面發(fā)展為最高目標(biāo)。這首先要求人們克服對人工智能的工具理性的崇拜,擺脫人工智能對人的控制與束縛,維護人自身的尊嚴。同時,人們自身也應(yīng)當(dāng)注重豐富人全面發(fā)展的具體內(nèi)容,以人工智能為載體,對其進行升級改造,更加注重人工智能與人的個性、意識、價值、藝術(shù)創(chuàng)造相融合,并以此展示人的全面性,通過在人工智能的展示過程中不斷拓展人的全面性的新內(nèi)容,進而完善人自身。
此外,人們還應(yīng)樹立正確的科技觀、技術(shù)觀。人與人工智能之間的和諧關(guān)系是建立在人能夠科學(xué)正確地看待人工智能的基礎(chǔ)上,然而在當(dāng)今社會中關(guān)于人工智能技術(shù)的知識普及較為匱乏,多數(shù)人是通過觀看科幻電影方式了解的人工智能,而這種科幻電影多以人工智能主宰地球、統(tǒng)治世界的形式展現(xiàn),因而多數(shù)人對人工智能具有畏懼心理,并在一定程度上排斥人工智能。故而,普及人工智能相關(guān)知識是十分必要的。首先應(yīng)讓民眾了解人工智能技術(shù)是計算機學(xué)科的一個分支,其本身并無好壞之分,當(dāng)然,對其研究應(yīng)更多地注入倫理關(guān)懷與人文精神。其次,當(dāng)前一段時間內(nèi)人工智能技術(shù)的發(fā)展只是處于模仿人的行為層面,是服務(wù)人類的客體存在物。此外,面對有關(guān)人工智能的相關(guān)危險言論,人們應(yīng)當(dāng)理性思考,不宜盲目跟風(fēng)。
人工智能所產(chǎn)生的一些倫理問題與人工智能領(lǐng)域的監(jiān)管不嚴或空白有較大關(guān)聯(lián),而一個有效的監(jiān)督系統(tǒng)應(yīng)是多層次、全方位的,有效監(jiān)督系統(tǒng)的根本保障在于法律制度的建立與全方位地覆蓋整個過程并由此而形成閉環(huán)。當(dāng)前有關(guān)人工智能領(lǐng)域的法律較為匱乏甚至空白,這給實際的監(jiān)督管控帶來很大困難,因而,一個囊括政策、法規(guī)、法律解釋以及司法準(zhǔn)則的法律系統(tǒng)亟待制定實施。
對人工智能的監(jiān)督并不是限制人工智能發(fā)展,而是保障其健康可持續(xù)發(fā)展,更好地為人類服務(wù);政府要依法對人工智能進行監(jiān)督,做到有法必依、執(zhí)法必嚴、違法必究。民眾對人工智能及其產(chǎn)品的監(jiān)督是加強人工智能領(lǐng)域監(jiān)管的重要環(huán)節(jié)。民眾是人工智能及其產(chǎn)品的使用者,在人工智能應(yīng)用過程中更容易直接發(fā)現(xiàn)一些存在的問題及潛在風(fēng)險。此外,科技工作者及倫理學(xué)者也是監(jiān)督的重要環(huán)節(jié),他們往往能夠從專業(yè)上看到問題的本質(zhì),在趨勢判斷上也更具預(yù)判性,從科學(xué)理性的角度來說其監(jiān)督是必不可少的。
對人工智能的監(jiān)督還應(yīng)涵括其他環(huán)節(jié),“按照人工智能的研發(fā)流程,我們對其進行的監(jiān)管應(yīng)是全流程的、分層次的,既要保障人工智能能夠快速發(fā)展又要使其能夠在法律的監(jiān)管下運行”[13](P126)。首先是人工智能產(chǎn)品設(shè)計環(huán)節(jié),這是最重要的監(jiān)督環(huán)節(jié),這一環(huán)節(jié)的監(jiān)督應(yīng)當(dāng)包括,如人工智能的設(shè)計不能對人類及社會造成傷害及重大危害,不能對人類的尊嚴、人權(quán)等造成危害,不能帶有欺騙性等等,具體的相關(guān)監(jiān)督還應(yīng)當(dāng)根據(jù)法律明文規(guī)定來執(zhí)行;其次是人工智能產(chǎn)品出售環(huán)節(jié)。應(yīng)嚴把出售關(guān),準(zhǔn)確監(jiān)督其是否具備投入市場應(yīng)用的能力,是否具有相關(guān)使用說明等,而在重要的人工智能產(chǎn)品出售時,還應(yīng)當(dāng)實行準(zhǔn)入制或登記制等,如登記購買產(chǎn)品者相關(guān)個人信息等。最后是人工智能產(chǎn)品使用環(huán)節(jié)。這一環(huán)節(jié)的監(jiān)督主要在于民眾對其所使用產(chǎn)品的反饋,這包括人工智能產(chǎn)品的使用是否對環(huán)境造成危害,是否對使用者安全構(gòu)成威脅等。
[注 釋]
①圖靈測試(The Turing test)是由艾倫·麥席森·圖靈所提出的一種實驗,是指人在與人工智能產(chǎn)品隔開的情況下,通過一些裝置向人工智能產(chǎn)品隨意提問,進而判斷其是否具有人類智能。[參考文獻]
[1]Picard,Rosalind. Affective Computing[M].Cambridge,MA:MIT Press,1997.
[2]拉·梅特里.人是機器[M].北京:商務(wù)印書館,1981.
[3]王禮鑫.馬克思主義新認識論與人工智能——人工智能不是威脅人類文明的科技之火[J].自然辯證法通訊.2018(4).
[4]Sloman A.The Computer Revolution in Philosophy:philoso-phy,science and models of mind[M].Brighton:HarvesterPress,1978.
[5]Torrance S.Ethics,Consciousness and Artificial Agents[J].Artif Intell Soc,2008(4).
[6]閆坤如.人工智能的道德風(fēng)險及其規(guī)避路徑[J].上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(2).
[7]孫保學(xué).自動駕駛汽車事故的道德算法由誰來決定[J].倫理學(xué)研究,2018(2).
[8]http://news.gmw.cn/2017-09/11/content_261 09182.htm.
[9]Wallach,W.,Allen,C.,& Smit,I. Machine morality:Bottom-up and top-down ap proaches for modelling human moral faculties[J].AI and Society,2008(4).
[10]藍江.人工智能與倫理挑戰(zhàn)[J].社會科學(xué)戰(zhàn)線,2018(1).
[11]李美鳳.“人的技術(shù)化”:內(nèi)涵與過程[J].沈陽師范大學(xué)學(xué)報(社會科學(xué)版),2011(7).
[12]安東尼·吉登斯.失控的世界:全球化如何重塑我們的生活[M].周紅云,譯.南昌:江西人民出版社,2001.
[13]倪楠.人工智能發(fā)展過程中的法律規(guī)制問題研究[J].人文雜志,2018(4).