亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能時代的道德迷思與解蔽

        2024-03-31 06:27:11馮永剛臧琰琰
        江蘇社會科學(xué) 2024年1期
        關(guān)鍵詞:人工智能

        馮永剛 臧琰琰

        內(nèi)容提要 人工智能時代的美好生活不能離開道德。道德既是人工智能理性的整合器、人工智能發(fā)展的導(dǎo)引器,也是人工智能犯罪的抑制器。人工智能在讓人類享受技術(shù)發(fā)展帶來的普惠性紅利的同時,也引發(fā)了人類價值迷失、道德秩序紊亂、道德責(zé)任消弭、道德自由衰落、道德信任缺失等一系列道德迷思。為此,要通過強化人對自身存在意義的認(rèn)知、培養(yǎng)人的人文關(guān)懷意識、提高道德推理能力來捍衛(wèi)人的道德主體地位,使人類成為智能時代道德的運用者和審視者;要設(shè)定人工智能研發(fā)和使用的道德圭臬,促使價值理性回歸,實現(xiàn)工具理性和價值理性的平衡;要通過優(yōu)化算法設(shè)計、規(guī)范算法使用、強化算法監(jiān)督等多種途徑構(gòu)建完善的算法法律法規(guī)體系,確保算法合法、公正、透明,從而有效維護智能時代的道德秩序;要將道德原則嵌入智能機器設(shè)計,賦予人工智能道德感,從“關(guān)系轉(zhuǎn)向”的視角重塑和諧共融的新型人機關(guān)系,進而形成人工智能發(fā)展和人類福祉增進的雙贏局面。

        關(guān)鍵詞 人工智能 道德困境 道德責(zé)任 人機關(guān)系

        馮永剛,山東師范大學(xué)教育學(xué)部教授

        臧琰琰,山東師范大學(xué)教育學(xué)部博士研究生

        人工智能是利用計算機的深層算法,通過模擬人類的神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)庫開展深度學(xué)習(xí),進而能夠像人類那樣進行分析、判斷和決策的實體或程序。牛津大學(xué)信息哲學(xué)教授盧西亞諾·弗洛里迪(Luciano Floridi)認(rèn)為,人工智能是繼哥白尼革命、達爾文革命、神經(jīng)科學(xué)革命之后人類自我認(rèn)知的“第四次革命”[1]。目前,人工智能時代已然到來,人工智能技術(shù)已滲透并廣泛應(yīng)用于智能制造、商業(yè)服務(wù)、教育娛樂、醫(yī)療護理、智慧家居等領(lǐng)域,給人類的生產(chǎn)生活、精神文化帶來巨大影響。尤其是2022年OpenAI發(fā)布的超1750億參數(shù)量的人工智能通用大模型ChatGPT(Chat Generative Pre-trained Transformer)火速出圈,“這是繼推出深度學(xué)習(xí)技術(shù)后又一里程碑式的技術(shù)革命”[1]。生成式人工智能產(chǎn)品呈現(xiàn)井噴式發(fā)展態(tài)勢,OpenAI的GPT-4、Anthropic的Claude2、百度的“文心一言”、阿里巴巴的“通義千問”等大模型相繼問世,文本創(chuàng)作、代碼編輯、方案設(shè)計、作業(yè)輔導(dǎo)等功能都被囊括其中,并且在很多專業(yè)測試中,生成式人工智能產(chǎn)品的表現(xiàn)甚至已經(jīng)優(yōu)于人類。在與醫(yī)療、工業(yè)、教育等行業(yè)的融合共生中,生成式人工智能正改變著人類社會的生產(chǎn)生活方式,《2023年中國生成式AI企業(yè)應(yīng)用研究》預(yù)測,2035年中國約85%的企業(yè)將采用生成式人工智能[2]。當(dāng)前,AI大模型正向通用人工智能邁進,并對人類道德產(chǎn)生前所未有的沖擊。我們要充分認(rèn)識人工智能時代道德的地位和價值,厘清人工智能發(fā)展使人類面臨的道德難題。人類唯有找準(zhǔn)自己的角色,努力尋求道德困境的破解之道,才能創(chuàng)建人工智能時代的美好生活。

        一、人工智能時代道德的地位和價值

        道德是人固有的內(nèi)在價值尺度,對于調(diào)節(jié)人的思想觀念、行為方式和人際關(guān)系具有十分重要的作用??焖侔l(fā)展的人工智能技術(shù)不僅不能代替道德,反而更加依賴道德。只有在道德的調(diào)節(jié)、規(guī)約和指引下,人類才能使人工智能保持工具理性和價值理性的均衡,使之始終朝著促進人類福祉的方向發(fā)展,降低智能犯罪的潛在風(fēng)險。

        1.道德是人工智能理性的整合器

        馬克斯·韋伯(Max Weber)認(rèn)為,現(xiàn)代社會存在工具理性和價值理性兩種理性邏輯,人工智能亦同時具有這兩種理性。其中,人工智能的工具理性強調(diào)其對于既定目標(biāo)實現(xiàn)的經(jīng)濟性和有效性,而價值理性強調(diào)其研發(fā)及應(yīng)用中的合目的性和合道德性。目前,人工智能技術(shù)日趨成熟,被廣泛應(yīng)用于工業(yè)、商業(yè)、教育、醫(yī)療等領(lǐng)域,表現(xiàn)出了推動經(jīng)濟社會發(fā)展的革命性力量。在這一過程中,人工智能的工具理性愈發(fā)膨脹,不斷侵蝕著價值理性,極有可能成為人工智能時代社會的宰制力量。人工智能的存在價值和終極目的是促進人類發(fā)展、增進人類福祉。如果人工智能的發(fā)展只重視工具理性,而忽視人自身的價值,就可能出現(xiàn)很多為了達到目的而僭越道德規(guī)范、破壞道德秩序的行為,讓人類社會面臨前所未有的道德困境和巨大的潛在風(fēng)險。因此,人類需要對人工智能兩種理性的關(guān)系予以認(rèn)真審視,促使人工智能的發(fā)展始終指向其存在的終極目的。

        人工智能是人類智慧的結(jié)晶,人類是人工智能的操控者。所以,當(dāng)前人工智能價值理性的失衡是人類自身導(dǎo)致的。實現(xiàn)人工智能價值理性的復(fù)歸,前提是人要做出相應(yīng)的改變。道德是人固有的內(nèi)在尺度。正是因為有道德的屬性,人類才能不斷地自我反思,才能不斷修正、調(diào)整自己的價值觀念和行為方式。通過道德的自省,人類才能主動逃離被人工智能異化的風(fēng)險,發(fā)揮道德實踐主體的力量,優(yōu)化人工智能的研發(fā)和應(yīng)用的全過程,使其為人類的發(fā)展服務(wù)。而且,價值理性和工具理性并不是非此即彼的對立關(guān)系,二者相涉相融、難以分割[3]。所以,人類要充分發(fā)揮道德的匡正作用,防止人工智能工具理性誤入歧途,促進其價值理性的回歸,充分整合人工智能的工具理性和價值理性,使人工智能成為智性和德性交融的統(tǒng)一體。

        2.道德是人工智能發(fā)展的導(dǎo)引器

        從屬性看,技術(shù)和道德的范疇不同,前者屬于事實問題,后者屬于價值問題。所以,有人認(rèn)為技術(shù)是中立的,與道德無關(guān)。然而,這只是從本體論角度得出的結(jié)論。如果從認(rèn)識論的角度看,技術(shù)的研究應(yīng)用屬于人的實踐活動。既然實踐的主體是人,縱使技術(shù)本身隸屬于科學(xué)范疇,其應(yīng)用過程也必然蘊含實踐主體的目的和價值訴求。誠如美國科學(xué)哲學(xué)家希拉里·普特南(Hilary Putnam)所說,“每一個事實都有價值負(fù)載,每一個價值也都負(fù)載事實”[1]。人工智能技術(shù)的研發(fā)和應(yīng)用過程也是人踐行某種價值理念的過程。所以,道德是能夠?qū)θ斯ぶ悄艿陌l(fā)展產(chǎn)生影響的。

        “道德的基礎(chǔ)不是對個人幸福的追求,而是對整體的幸福,即對部落、民族、階級、人類的幸福的追求?!盵2]所以,無論什么時候人類都不能置他人、社會的利益于不顧,而一味追求自己的個人幸福,這不僅是道德是否允許的問題,而且是由人的存在狀況決定的是否可能的問題。道德可以從“真”“善”“美”三個維度對人工智能的發(fā)展予以引領(lǐng)[3],確保人工智能使用目的的合理性和使用途徑的正當(dāng)性,為其注入能夠?qū)崿F(xiàn)長久理性發(fā)展的生命動力。同時,人工智能技術(shù)自身的特性決定了必須以道德進行規(guī)約。目前的智能機器已經(jīng)具有了一定的分析、判斷和行動的自主性,而且未來還將朝著通用人工智能和超人工智能的方向發(fā)展,如若沒有道德的規(guī)約,任其發(fā)展,很有可能會引發(fā)技術(shù)濫用,導(dǎo)致隱私泄露、倫理失序、社會不公等諸多問題,屆時人工智能可能不僅不會給人類帶來普惠的紅利,反而會將人類置于被人工智能反噬的危險境地。

        3.道德是人工智能犯罪的抑制器

        在人工智能時代,智能機器大量涌入人類日常生活,既給人們帶來極大便利,也帶來日益增大的風(fēng)險。近年來,智能機器傷人或人類利用智能機器實施犯罪的事件越來越多。前者是機器本身的設(shè)計缺陷導(dǎo)致的,隨著技術(shù)的日益成熟或能得到解決;而后者是人有意實施的犯罪行為,和技術(shù)本身無關(guān),故不能通過發(fā)展技術(shù)杜絕。由于人工智能犯罪有別于傳統(tǒng)犯罪形式,在主體、罪過和行為的認(rèn)定方面存在很大困難,而且智能機器未來發(fā)展存在太多的不確定性,當(dāng)前還不能以明確的法律條文對人們利用人工智能的行為做出強制性規(guī)定。種種原因?qū)е履壳搬槍θ斯ぶ悄芊缸锏牧⒎ㄟ€處在探索階段,但是人工智能犯罪已經(jīng)出現(xiàn)。2017年9月,浙江省紹興市出現(xiàn)了全國首例利用人工智能實施犯罪的案件,犯罪分子利用智能機器來識別驗證碼,竊取公民個人信息,進而實施網(wǎng)絡(luò)詐騙[4]。而且,針對人工智能犯罪的立法流程較長,而人工智能犯罪手段的更新速度卻非??欤杂矛F(xiàn)有的法律手段很難達到遏制人工智能犯罪的目的。在此情況下,道德對法律的彌補作用顯得尤為重要。

        人是共生性的存在。即使在人工智能時代,人只要在社會中生存就需要與他人建立各種關(guān)系,只是關(guān)系的存在空間和形態(tài)發(fā)生了變化。隨著交往空間向虛擬世界延伸,人們不僅和身邊的人建立關(guān)系,而且可能和另一個空間的素未謀面的人建立關(guān)系。然而,不管是哪個空間的關(guān)系都可能受利益驅(qū)動,利益是開展交往活動的前提。而道德超越了法律的覆蓋范圍,其調(diào)整領(lǐng)域囊括了一切社會關(guān)系。道德是人固有的內(nèi)在尺度,如同人們內(nèi)心的一桿秤,可幫助人們更加理性地認(rèn)識人與人之間的利益關(guān)系,并自主地調(diào)節(jié)行動,使自己的欲求趨于理性;同時它還能影響社會輿論,借由輿論的感召力引導(dǎo)人們提高思想覺悟,進而自覺地規(guī)范行為。在人工智能時代,道德的價值就在于讓人審視自己使用人工智能的方式和行為,看其是否符合道德標(biāo)準(zhǔn),是否侵犯他人的權(quán)益,然后主動調(diào)節(jié)自己的行為,從而為構(gòu)建智能時代安全穩(wěn)定的社會秩序發(fā)揮積極的促進作用。

        二、人工智能時代的道德迷思

        生活在人工智能時代的人們,雖然享受到了智能技術(shù)發(fā)展帶來的物質(zhì)方面的空前紅利,但同時面臨著與技術(shù)化生存相伴而來的前所未有的道德問題。早在100多年前,馬克思就警示道:“在我們這個時代,每一種事物好像都包含有自己的反面。我們看到,機器具有減少人類勞動和使勞動更有成效的神奇力量,然而卻引起了饑餓和過度的疲勞?!夹g(shù)的勝利,似乎是以道德的敗壞為代價換來的?!盵1]智能機器全面融入人類生活,可能使人類產(chǎn)生價值迷失,弱化人類的道德責(zé)任和道德自由,進而影響人與人之間道德信任的建立,對整個社會道德秩序的穩(wěn)定帶來不利影響。

        1.智能神話催生價值迷失和價值困惑

        進入人工智能時代后,在工作領(lǐng)域,很多職業(yè)被智能機器所取代,給人類的主體地位、存在價值帶來巨大沖擊;在生活領(lǐng)域,人們陷于各種智能軟件構(gòu)建的虛擬空間中難以自拔,人工智能創(chuàng)造的智能神話和泛濫的非主流信息,使價值迷失和價值困惑日漸萌生。

        其一,智能機器代替人類勞動令人類產(chǎn)生價值危機。由于智能機器在數(shù)據(jù)的接收、運算等方面的能力遠高于人類,可不知疲倦地準(zhǔn)確地完成任務(wù)指令,且長期運行成本要遠低于人力成本,所以越來越多的職業(yè)正在被智能機器代替。雖然人類從沉重、煩瑣的勞動中解放了出來,有了更多的時間和精力去追尋自己的興趣,但是這也弱化了人自身之于國家和社會的意義。人的價值是在勞作中體現(xiàn)出來的。“人一旦失去操勞,在很大程度上也就失去了意義賴以產(chǎn)生的大地”[2]。除了少部分智能機器的研發(fā)設(shè)計人員和高層管理人員,大多數(shù)人都可能淪為“無用階級”。于是,有人在心底會滋生出一種“無用感”,開始自我否定,對自己存在的價值和意義產(chǎn)生懷疑。雖然人的身體得到了解放,但是心靈背負(fù)了枷鎖。在這樣的生存狀態(tài)下,即便物質(zhì)生活再豐富,人的精神世界也是貧瘠的。在人工智能時代,人類面臨前所未有的價值危機。

        其二,智能平臺低俗信息泛濫令人類產(chǎn)生價值困惑。在人工智能時代,每個人都可成為信息的生產(chǎn)者和傳播者。很多網(wǎng)紅、“大V”為了賺取流量、吸粉,刻意傳播負(fù)面新聞,發(fā)布惡俗視頻。智能平臺的信息篩查機制還不健全,對有些信息的合法合規(guī)性難以判斷,導(dǎo)致很多有悖于社會主流道德觀念的信息也被上傳至網(wǎng)絡(luò)。在虛擬的網(wǎng)絡(luò)空間中,高尚道德、底線道德和違背道德的信息出現(xiàn)的頻率和優(yōu)先級并非由道德層級的高低決定,而是由賦值市場的競爭結(jié)果決定。一如“壞消息法則”所指出的那樣,負(fù)面、低俗信息的傳播速度遠遠超過體現(xiàn)社會主流道德觀念的信息,主流價值的滲透和教化作用遠遠無法消除惡俗負(fù)面信息帶來的消極影響。如今,刷微博、快手、抖音等已經(jīng)成為很多人打發(fā)閑暇時光的主要方式。在智能平臺上形形色色的信息、短視頻的長期影響下,人們內(nèi)心自覺或不自覺地滋生出焦慮感和虛無感,并在人生觀念、道德認(rèn)知等方面產(chǎn)生很多困惑,對于人生的追求、活著的意義、道德價值等問題找不到明確的答案,出現(xiàn)了智能時代的價值迷失。

        2.算法偏見妨礙道德秩序的穩(wěn)定

        算法是一種逐步解決問題或完成任務(wù)的方法[3],是人工智能的核心。人工智能時代任何問題的解決都可以歸結(jié)為算法。在這個由數(shù)據(jù)構(gòu)成的世界里,人類變得越來越依賴算法。然而,算法并不是價值無涉的。受政治內(nèi)嵌和資本介入的影響,算法推薦可能會加速負(fù)面低俗信息傳播[4],固化人們狹隘的道德認(rèn)知。算法決策可能得出帶有歧視、偏見的不公論斷,侵犯特定群體的切身利益。在道德認(rèn)知狹隘化導(dǎo)致道德共識難以形成和特定群體因受到不公對待而產(chǎn)生抵抗情緒的雙重作用下,社會道德秩序的穩(wěn)定也受到影響。

        其一,算法推薦阻礙了道德共識的形成。道德共識是不同行為主體達成的對于道德生活的應(yīng)然狀態(tài)的共同認(rèn)識。道德共識的形成對于個體精神生活的平靜和整個社會道德秩序的穩(wěn)定都至關(guān)重要。如今,為了提高流量,很多數(shù)字媒體類手機應(yīng)用在信息推送時都選擇基于用戶畫像的個性化算法推薦機制。根據(jù)用戶的個人數(shù)據(jù)和瀏覽習(xí)慣為其建立“數(shù)字檔案”,向用戶推送與其興趣相符的信息,最大程度滿足用戶的閱讀期待。然而,算法推薦忽視了推送信息本身的道德價值,導(dǎo)致有的用戶深陷低俗、拜金等挑戰(zhàn)道德底線的信息構(gòu)成的封閉媒介空間中,在瀏覽同類重復(fù)信息的過程中不斷強化自己固有的道德認(rèn)知,削弱了批判性思維的能力,失去了走出信息牢籠、與他人建立道德共識的機會,影響了整個社會范圍內(nèi)道德共識的達成。

        其二,算法決策損害了社會的公平正義。算法具有強大的計算能力且更加精確,能夠排除情緒干擾和主觀偏見,致使很多人錯誤地認(rèn)為,同人類決策相比,算法決策更加公平公正,故而提倡在教育、醫(yī)療、司法等很多領(lǐng)域以算法決策取代人類決策。然而,大多數(shù)人對算法的運行并不了解,算法并非如人們想的那樣公正。算法以數(shù)據(jù)為基礎(chǔ),人工智能基于網(wǎng)絡(luò)上已有資源進行數(shù)據(jù)收集,這些數(shù)據(jù)體現(xiàn)著發(fā)布者的道德準(zhǔn)則、價值觀念,其中可能會存在性別歧視、種族歧視、階層歧視等問題。一旦這些數(shù)據(jù)被收入程序代碼,就會導(dǎo)致算法決策對特定群體產(chǎn)生偏見和歧視。如美國目前使用的輔助量刑和罪犯再犯風(fēng)險評估的COMPAS等軟件在算法決策中對有色人種有嚴(yán)重的種族歧視[1]。歧視現(xiàn)象隱藏于人工智能算法“公正”的外衣下,使得社會公正日趨失調(diào),加深了人工智能時代的社會危機,成為人類不能忽視的重要問題。

        3.角色替代肇致道德責(zé)任的消弭

        責(zé)任是行為主體對在特定社會關(guān)系中的義務(wù)的承擔(dān),道德責(zé)任是人們在一定社會關(guān)系中對自己行為產(chǎn)生的后果在道義上的相應(yīng)承擔(dān)[2]。人類的社會屬性決定了其對國家、社會、集體和他人負(fù)有不可推卸的道德責(zé)任。然而,伴隨著智能機器使用范圍的擴大和能力的提高,人類越來越多地把自身角色規(guī)定的任務(wù)交由智能機器來完成,隨即引發(fā)了很多值得思考的道德問題。

        其一,智能機器是否具備代替人類承擔(dān)道德責(zé)任的能力。早在20世紀(jì)初,漢斯·約納斯(Hans Jonas)、喬爾·費因伯格(Joel Feinberg)等人就曾對科學(xué)技術(shù)給人類社會帶來的正反兩方面的影響進行了反思。他們提出承擔(dān)責(zé)任需要滿足三個必要條件:一是自身行為給他人和社會帶來影響;二是行為的產(chǎn)生受行為主體的控制;三是行為主體能夠在一定程度上預(yù)見行為的后果[3]。雖然現(xiàn)階段的智能機器已能夠模擬人類的情感思維、神經(jīng)機制和認(rèn)知行為,具有了自主應(yīng)對道德問題的能力,但有學(xué)者認(rèn)為,人工智能體只有弱自主性,它們即使具備道德能力也并不能理解道德行為和道德準(zhǔn)則的關(guān)系,不能預(yù)見行為導(dǎo)致的后果[4]。按照約納斯的責(zé)任判定標(biāo)準(zhǔn),人工智能體仍然不能獨立承擔(dān)道德責(zé)任。然而,也有學(xué)者認(rèn)為,人工智能體具有顯著的自動化特征,可以承擔(dān)與其智能水平和自治能力相適應(yīng)的道德責(zé)任,如果將其排除在道德責(zé)任之外,可能會造成“責(zé)任空場”[5]。可見,對于人工智能體究竟能否承擔(dān)道德責(zé)任,學(xué)界尚有爭議。因此,當(dāng)人類將自己的角色任務(wù)轉(zhuǎn)交給智能機器時,一旦出現(xiàn)責(zé)任事故,如何判斷責(zé)任歸屬就成為一大問題。

        其二,人工智能體的過度使用弱化了人的道德責(zé)任。人類社會中的每個人都不是孤立的,只要在社會中生活就要和其他組織、個人建立各種關(guān)系,扮演各種角色并承擔(dān)相應(yīng)的道德責(zé)任。在人履行責(zé)任的過程中,各種關(guān)系不斷得到維系和鞏固。而人往往身處于不同的群體中,是多個角色的集合體,需承擔(dān)多重道德責(zé)任。盡管這些責(zé)任在很大程度上束縛了人類,使人不能率性而為,阻礙了自身的“逍遙”,但這些責(zé)任是人之為人所不能推卸的。正是人身上擔(dān)負(fù)的責(zé)任促使人努力進取、積極向上,讓人在履職盡責(zé)的過程中提升個體人格、彰顯社會價值。然而,隨著智能機器功能的日趨完善,人們越來越多地將自己的責(zé)任轉(zhuǎn)交給智能機器,如人工智能醫(yī)生可對病人的病情進行快速診斷,人工智能教師可對學(xué)生進行精準(zhǔn)指導(dǎo),人工智能保姆可對空巢老人給予照顧,等等。的確,智能機器可以代替我們完成我們的社會角色規(guī)定的很多任務(wù)。但是,仍有很多任務(wù)是智能機器無法完成的。因為智能機器是“冰冷”的,當(dāng)我們完全把自己的道德責(zé)任讓渡給智能機器時,即使工作被完成得再好,我們也不能達到他人和社會對我們角色的期待。如果師生間的關(guān)愛、醫(yī)患間的信任、親人間的溫情不存在了,那么人的道德責(zé)任也將因智能機器的過度使用而被消解。

        4.技術(shù)侵入引發(fā)道德自由的讓渡

        自由是人的本質(zhì)屬性。只有僅因自身本性的必然性而存在,行為僅由自身決定的東西才可被稱為自由的;反之,如果一物的存在及行為是由他物所決定的,該物便不能被稱為自由的[1]。而道德自由是人們不受干涉地做出道德選擇和決定的能力。人工智能時代技術(shù)的侵入在很大程度上源于人類將自己的道德自由讓渡給智能機器。

        其一,智能機器干預(yù)人的道德行為。道德行為產(chǎn)生的過程是人為自己立法的過程。在信奉某種道德原則并生成內(nèi)部動機后,人便會基于所信奉的道德原則自主做出“應(yīng)該做什么”“不應(yīng)該做什么”的選擇。只有發(fā)自內(nèi)心地認(rèn)為某種行為本身是正確的、應(yīng)該做的,做出這種行為的人才是真正有道德的人;如果是因為渴望或懼怕行為的結(jié)果而被動做出行為,即使行為產(chǎn)生的結(jié)果是好的,該行為主體也不能被看作有道德的。而在智能化的生存空間中,智能機器可在人毫無察覺的情況下收集到人的身心特征、社交生活、興趣愛好、經(jīng)濟狀況等各方面的數(shù)據(jù),人所有的行為幾乎都能被記錄下來。這就意味著在行為發(fā)生之前,人就已經(jīng)意識到了自己的行為會被監(jiān)控、該行為的發(fā)生會引發(fā)什么樣的結(jié)果。所以,在人工智能的促逼下,人為了得到或避免預(yù)知的結(jié)果可能做出違背主觀意愿的行為。

        其二,智能機器限制人的意志自由。朱利安·薩沃斯庫(Julian Savulescu)把人工智能看作繼教育-宗教、生物醫(yī)學(xué)之后增強人類道德的第三種方式[2]。而且,其作用機制不同于教育-宗教,不需要長期的影響和滲透才能對人的道德發(fā)展發(fā)揮作用;其作用機制也不同于生物醫(yī)學(xué),不需要運用藥物對人的身體和精神進行控制。智能機器被植入道德建議的程序后,不僅能幫助人們進行道德反思,向人們提供道德建議,指導(dǎo)人們的行為[3],而且具有快速增強人類道德和免于藥物副作用的雙重優(yōu)勢,因此受到很多人的追捧。但是也有很多學(xué)者對利用人工智能來增強人類道德的方式提出了質(zhì)疑。且不論人工智能“變異”的潛在危險和被植入的道德建議程序是否可行,單就人類依靠智能機器進行道德判斷、做出道德選擇這一點來看,這實則是對人類意志自由的侵犯。當(dāng)智能機器監(jiān)控人的思想和欲望,從外部對人的思想是否道德進行審查,并強制性地讓人遠離非道德的行為時,即便產(chǎn)生的結(jié)果是好的,也是以人犧牲本質(zhì)性的自由權(quán)利為代價的,人的道德自由意志就被智能機器綁架了[1]。

        5.虛擬交往阻抑道德信任的建立

        道德信任是交往雙方對彼此道德素質(zhì)和行為能力的心理期待,是對對方可否值得依賴的認(rèn)知判斷。道德信任不僅可以激發(fā)個體完善的內(nèi)在動力,對于促進群己和諧、增進普遍社會信任也具有重要意義[2]。進入人工智能時代后,智能機器的大量使用改變了傳統(tǒng)的交往主體,降低了交往關(guān)系的透明度,數(shù)據(jù)大量采集導(dǎo)致的個人隱私“前臺化”趨勢則增加了科技犯罪的可能性,使人們對潛在風(fēng)險變得更加敏感,從而阻抑了交往雙方道德信任的建立。

        其一,交往主體的復(fù)雜改變了道德信任的載體。交往是道德信任存在的載體。在傳統(tǒng)社會中,交往是在物理環(huán)境中的人際、群體間和組織間的交往。進入人工智能時代后,智能機器全面融入人類生活,并充當(dāng)起生產(chǎn)者、陪護者、教育者等各種社會角色。數(shù)字化表征的虛擬人也頻繁地出現(xiàn)在大眾視野中。人工智能技術(shù)的發(fā)展使虛擬人形態(tài)、表情乃至聲音,都與真人越來越相似,虛擬人的應(yīng)用正向傳媒、娛樂、醫(yī)療、教育、養(yǎng)老等領(lǐng)域快速延伸。真實人類和智能機器、虛擬人正在形成嶄新的交往關(guān)系,即交往關(guān)系突破了真實物理環(huán)境的時空界限和人與人的對象界限,已經(jīng)拓展到現(xiàn)實和虛擬融合的時空,在真實和虛擬的流動空間中,人、智能機器、虛擬人可共同參與建立復(fù)合性的交往關(guān)系。人工智能時代的交往較之前有了更多的不確定性,既表現(xiàn)為交往關(guān)系的偶發(fā)性和無感知性,也表現(xiàn)為交往主體間部分責(zé)任和義務(wù)的難以明確[3]。這意味著人工智能從根本上顛覆了原有的交往關(guān)系,在傳統(tǒng)和當(dāng)下的倫理框架下出現(xiàn)了很多無法解決的道德難題[4],例如在新型復(fù)合性的交往關(guān)系中道德信任難以建立。

        其二,智能犯罪的發(fā)生引發(fā)了道德信任的危機。人工智能時代,虛擬世界成為重要的生活空間。在虛擬世界中去軀體化、數(shù)字化的存在方式使人可以脫離現(xiàn)實世界的參照去構(gòu)造多種不同的虛擬身份,強大的真實感和沉浸感使人無法擺脫對虛擬世界的依賴,給人的精神和心理狀態(tài)帶來嚴(yán)重影響,使人們在真實世界的思想和行為方式也發(fā)生改變。身份隱匿性使人產(chǎn)生即便違法也不易被發(fā)現(xiàn)的僥幸心理,增加了僭越道德、法律紅線的概率。以“虛擬”符號身份和“不在場”的方式與對方隔空交往,由于感受不到對方作為活生生的人的反應(yīng),犯罪者負(fù)罪感減輕了,他們即使給對方造成身心傷害,也可能增加再次犯罪的可能性。另外,人工智能時代各種智能設(shè)備的正常運轉(zhuǎn)多以海量數(shù)據(jù)采集為基礎(chǔ),其中涉及大量的個人隱私數(shù)據(jù),如人臉、指紋、虹膜等身份信息以及活動軌跡、消費記錄等。經(jīng)智能數(shù)據(jù)分析系統(tǒng)分析后,看似無關(guān)的數(shù)據(jù)就會相互聯(lián)系,反映出被分析對象的性格、價值欲求、興趣愛好等方面的特征,使智能設(shè)備甚至比對象自己還了解他。一旦這些數(shù)據(jù)泄露,犯罪分子就可能乘虛而入,給人們的生命和財產(chǎn)安全造成威脅。多重虛擬身份和過度的數(shù)據(jù)采集,加大了智能犯罪的風(fēng)險,進而也加劇了道德信任的危機。

        三、人工智能時代道德迷思之解蔽

        人工智能技術(shù)將人類帶入了一個新的技術(shù)化生存的時代。然而,技術(shù)化生存和人類的福祉并非總是正向的關(guān)系[5]。為了使人工智能和人類社會始終能彼此適應(yīng)、相互促進,我們一方面要通過道德教育幫助教育對象強化道德責(zé)任,提高德性修養(yǎng),使其能更好地應(yīng)對智能機器給人類社會帶來的倫理道德挑戰(zhàn),另一方面要完善智能時代的倫理原則,規(guī)約人工智能的發(fā)展,構(gòu)建和諧共生的新型人機關(guān)系。

        1.珍視人性:捍衛(wèi)人的道德主體地位

        鑒于人是智能機器的研發(fā)者、擁有者和使用者,要想走出道德困境、規(guī)避風(fēng)險,最為關(guān)鍵的是促進人的改變,通過教育使人充分認(rèn)識人類的道德主體地位,珍視人類在德性、情感等方面的獨有優(yōu)勢,不斷提高自身的道德判斷力,主動承擔(dān)起自己的道德責(zé)任,自覺遵守人工智能時代的道德倫理規(guī)范,成為智能時代道德的運用者和審視者。

        第一,要強化人對自身存在意義的認(rèn)知。個體要想擺脫人工智能引發(fā)的自我價值危機,唯有依靠自己。只有主觀認(rèn)知改變了,人才會主動走出使人沉淪的物欲世界,去探尋人生的價值意義。而道德教育以促使人德性發(fā)展并收獲美好生活為終極目的,它直接作用于人的思想,是促使人思想改變的最有效方式。因此,要通過道德教育使人充分認(rèn)識到人類自身的優(yōu)勢。智能機器的所有行為都由人的邏輯指令引發(fā),它們自身既沒有自由意志,也沒有任何情緒體驗。而人的所有行為都是自我選擇的結(jié)果,并且人在行動的過程中會產(chǎn)生豐富的情感體驗。人可以感受到領(lǐng)導(dǎo)的期許、同伴的鼓舞,可以體會到勝利時的欣喜、失敗時的頹喪。至少在可見的未來,人工智能難以擁有這些感性要素,也無法從人類身上剝奪這些要素。另外,人的組織協(xié)調(diào)能力、審美創(chuàng)造能力等也是優(yōu)于人工智能的。所以,在人工智能時代,人不能總是盯著自己的弱勢,而應(yīng)該努力去挖掘并展示自己的優(yōu)勢,彰顯道德主體地位的能動性,這樣才能確證自身價值,彰顯人之存在的意義。

        第二,要培養(yǎng)人的人文關(guān)懷意識。智能化手段和信息技術(shù)的應(yīng)用,在為人類搭建虛擬活動空間的同時,也拉開了真實世界中人與人之間的距離。日常生活中,面對面坐在一起的兩個人各自低頭看著手機、沉默不語的景象已屢見不鮮。越來越多的人將自己本應(yīng)承擔(dān)的責(zé)任如對子女的陪伴、對老人的照顧交由智能機器人代勞。人與人之間的關(guān)懷和責(zé)任正在被弱化、消解。但是,人是共生性的存在,彼此間具有以生命存在為基礎(chǔ)的道德聯(lián)結(jié)。人正是通過不斷發(fā)展關(guān)懷、責(zé)任等道德屬性來實現(xiàn)自我人格的不斷提升。所以,為破解智能機器大量使用對人際關(guān)懷、道德責(zé)任的消弭,人工智能時代的教育要向其本真回歸,通過師生相互敞開自己的生命空間、滿懷善意和敬畏開展教育性的真理探問[1],來喚醒學(xué)生的生命自覺,讓其體悟應(yīng)該承擔(dān)的責(zé)任和應(yīng)該給予他者的關(guān)懷,從而在扮演自身角色的過程中不斷促進自我道德的完善和生命的成長。

        第三,提高人明辨是非的道德推理能力。在人工智能時代,個性化算法推薦在促使信息高效傳播的同時,也將人困在了“信息繭房”中,人們不再探尋真相到底如何,進入了基于立場挑選事實的后真相時代。并且,人工智能時代是一個人人都可在虛擬空間自由發(fā)聲的時代,人們往往受情緒左右,盲目地發(fā)布、轉(zhuǎn)發(fā)信息,導(dǎo)致真相被虛假信息掩蓋,不僅影響了個人的道德推理和判斷力,也給整個社會的核心價值理念的傳播帶來不利影響。因此,要通過教育提高人的理智理性,培養(yǎng)人追求真理的精神和敢于為真相發(fā)聲的勇氣,使人不再受不良媒體的煽動和誤導(dǎo),做人云亦云的追隨者,而是對接收信息的來源、依據(jù)、完整性等進行批判性的分析,將真相從虛假信息中剝離出來,突破后真相時代的藩籬,當(dāng)遇到復(fù)雜的道德場景時,不再僅僅跟著感覺走,而是基于事實真相來確定立場,通過富有邏輯的道德推理做出正確的道德判斷。

        第四,強化人自覺遵守智能時代道德規(guī)范的意識。人是智能機器的研發(fā)和使用主體,伴隨智能機器使用而來的風(fēng)險,與其說是技術(shù)本身造成的,不如說是使用技術(shù)的人造成的[1]。因此,開展與科技倫理相關(guān)的道德教育至關(guān)重要。一方面,既要教會普通大眾各種智能機器的使用方法,更要讓其牢固樹立安全、道德、負(fù)責(zé)任地使用人工智能的意識,在智能時代自覺遵守道德規(guī)范。智能時代背景下信任社會的建立需要每個人的參與和努力。另一方面,要教育影響人工智能時代技術(shù)安全的“關(guān)鍵少數(shù)”,包括人工智能研發(fā)一線的技術(shù)人員、為人工智能研究項目出資的企業(yè)家、制定人工智能有關(guān)政策法規(guī)的政府官員等[2],加強對以上關(guān)鍵少數(shù)人員的科技倫理教育,使其始終站在人類整體利益的制高點,堅守人工智能始終為人類服務(wù)的道德原則,避免算法偏見和非法濫用帶來的歧視和危險,使人工智能為增進人類福祉發(fā)揮更加積極的作用。

        2.科技向善:設(shè)定人工智能的道德邊界

        隨著人工智能功用的不斷提升,工具理性遮蔽價值理性的勢頭已然出現(xiàn)了。近代以來,工具理性貶抑價值理性,致使人異化的例子不勝枚舉。人工智能的發(fā)展尤其充滿未知性。如果未來的人工智能突破“奇點”,產(chǎn)生自主意識,脫離人類的控制,那么人類社會將面臨巨大災(zāi)難。因此,人類需要為人工智能的研發(fā)和使用設(shè)定道德邊界,促使價值理性回歸,實現(xiàn)工具理性和價值理性的平衡。

        一方面,完善人工智能研發(fā)的道德原則。人工智能正以指數(shù)級增長的速度發(fā)展,不斷突破既有的應(yīng)用場域,人們很難準(zhǔn)確預(yù)測其未來發(fā)展的邊界和潛藏的危險。人類需要為人工智能發(fā)展提供指導(dǎo)性的道德原則,以匡正智能機器發(fā)展引發(fā)的偏差,彌補其漏洞。20世紀(jì)中期,艾薩克·阿西莫夫(Isaac Asimov)提出“機器人三定律”(Three Laws of Robotics)。近年來,各國人工智能行業(yè)學(xué)會也相繼提出了人工智能發(fā)展的道德原則。2017年1月,人工智能研究者在美國加州的阿西洛馬召開了“阿西洛馬會議”,提出了《阿西洛馬人工智能原則》(“Asilomar Artificial Intelligence Principles”)。歐盟于2019年4月發(fā)布了《可信賴人工智能倫理準(zhǔn)則》(“Ethics Guidelines for Trustworthy AI”)。2019年5月,國際科技法協(xié)會(ITechLaw)組織來自16個國家的多學(xué)科專家小組編寫出版了《負(fù)責(zé)任的人工智能:全球政策框架》(Responsible AI: A Global Policy Framework)。然而,這些道德原則大多都是從限制或消極預(yù)防的角度提出的,鮮有為人工智能發(fā)展提供積極的道德支持[3]。2021年9月,中國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,列出了人工智能特定活動應(yīng)遵守的18項具體的倫理要求,為從事人工智能相關(guān)活動的自然人、法人和其他相關(guān)機構(gòu)等提供了倫理指引[4]。2021年11月,聯(lián)合國教科文組織發(fā)布首份人工智能倫理問題全球性協(xié)議《人工智能倫理問題建議書》,這部以國際法為依據(jù)、采取全球方法制定的準(zhǔn)則性文書,將引導(dǎo)全球人工智能技術(shù)向負(fù)責(zé)任的方向發(fā)展。今后,為了使人工智能在以人為本的前提下得到快速健康發(fā)展,應(yīng)整合科技、倫理、法律等領(lǐng)域的多學(xué)科力量,構(gòu)建多方參與、協(xié)同共治的科技倫理體制,逐漸完善人工智能行業(yè)的倫理道德標(biāo)準(zhǔn)。

        另一方面,恪守人工智能使用的道德界限。雖然人工智能在計算速率、學(xué)習(xí)能力等方面具有人無可比擬的優(yōu)越性,但在某些方面是永遠不可能代替人的。尤其在情感、精神方面,人工智能的作用是非常有限的。人工智能教師能精準(zhǔn)地輔導(dǎo)學(xué)生,但不能代替教師對學(xué)生進行關(guān)懷和鼓勵;智能陪伴機器人能和兒童做各種智力游戲,但不能代替父母對兒女施以親子之愛。所以,應(yīng)該從道德責(zé)任履行的角度為智能機器劃定使用邊界,辨明哪些工作是可以由智能機器代替人去完成的,哪些工作仍是需要人自己去做的。人不能放棄自己作為技術(shù)使用者的主體責(zé)任,否則人與人的真實的天然情感將被程式化的技術(shù)所遮蔽,人們將既沒有在真實世界中很好地履行自己所承擔(dān)社會角色的義務(wù),也失去了在互相交流中獲得的情感回饋,必然得不償失。

        3.算法規(guī)制:維系智能時代的道德秩序

        當(dāng)前,算法權(quán)力持續(xù)擴張,發(fā)達國家的教育、醫(yī)療、金融等很多行業(yè)的決策都依靠算法得出。因此,為了避免算法引發(fā)的社會風(fēng)險,維護穩(wěn)定的社會道德秩序,必須對算法應(yīng)用的各個環(huán)節(jié)予以規(guī)制。公正、道德的制度具有穩(wěn)定秩序和培育德性的功能。在智能時代,要構(gòu)建公正、完善的算法法律法規(guī)體系,使算法設(shè)計、使用、監(jiān)督等各環(huán)節(jié)都有法可依,使算法公正、透明,最大限度降低潛在風(fēng)險,確保人工智能切實為人類福祉服務(wù)。

        第一,優(yōu)化算法設(shè)計,確保源頭向善。算法引發(fā)的歧視、偏見等問題很大程度上和算法本身的模型有關(guān)。算法設(shè)計者要強化科技倫理意識,將以人為本的道德準(zhǔn)則嵌入算法設(shè)計程序中,使算法模型不斷優(yōu)化,杜絕算法設(shè)計者故意甚至惡意操縱算法的行為發(fā)生。算法以數(shù)據(jù)為基礎(chǔ)。如果算法的數(shù)據(jù)來源存在問題,最終得到的將是帶有偏見、歧視色彩的結(jié)果。因此,算法設(shè)計者要對數(shù)據(jù)的來源、內(nèi)容、處理過程進行認(rèn)真審查,保證所用數(shù)據(jù)的真實性、完整性、通用性和準(zhǔn)確性,盡可能避免得出對特定群體有歧視的結(jié)論,給社會的公平公正帶來負(fù)面影響。從事算法設(shè)計的企業(yè)應(yīng)當(dāng)承擔(dān)算法公開和解釋的義務(wù),要提高算法的透明度,使算法服務(wù)的接受者了解算法的設(shè)計目的、運行方式、潛在風(fēng)險等,防止在毫無察覺的情況下侵犯個人隱私。

        第二,規(guī)范算法使用,保護公眾利益。算法使用者可能直接操控算法并作用于普通大眾,因此,算法使用者本身是否具有善良意志,算法運行過程是否規(guī)范與社會公眾利益息息相關(guān)。目前,國家已經(jīng)出臺了相關(guān)法律法規(guī)對算法使用進行治理。如2021年12月,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確要求,算法推薦服務(wù)提供者應(yīng)當(dāng)堅持主流價值導(dǎo)向,積極傳播正能量,不得利用算法推薦服務(wù)從事違法活動或者傳播違法信息,應(yīng)當(dāng)采取措施防范和抵制傳播不良信息[1],為短視頻、社交、電商平臺等算法推薦的主要使用者劃出了“紅線”,從源頭上減少負(fù)面低俗信息的消極影響,同時賦予用戶自主選擇的權(quán)利,用戶可自主關(guān)閉算法推薦服務(wù)。這對于促進社會核心價值理念信息的傳播、培育公眾的道德共識具有重要意義。此外,算法使用者應(yīng)本著負(fù)責(zé)任的態(tài)度,在數(shù)據(jù)收集時遵循準(zhǔn)確、夠用的原則,避免數(shù)據(jù)采集過度從而侵犯用戶的隱私權(quán)。算法使用過程中要加強對數(shù)據(jù)的審查,剔除帶有偏見的數(shù)據(jù),同時要遵守數(shù)據(jù)的存儲和使用規(guī)范,防止數(shù)據(jù)泄露威脅用戶的人身和財產(chǎn)安全。

        第三,強化算法監(jiān)督,降低算法風(fēng)險。政府相關(guān)部門要設(shè)立專門的算法治理機構(gòu)和分類分級監(jiān)管機制,對算法進行全鏈條動態(tài)監(jiān)管,使算法相關(guān)產(chǎn)業(yè)負(fù)責(zé)任、可持續(xù)地發(fā)展。一旦發(fā)現(xiàn)違反規(guī)定的行為,就要對相關(guān)責(zé)任主體予以處罰甚至追究刑事責(zé)任。算法設(shè)計、使用的相關(guān)單位和部門應(yīng)強化算法倫理責(zé)任,在內(nèi)部設(shè)立算法倫理委員會,按照目前國際國內(nèi)通用的算法設(shè)計、使用規(guī)范定期自主開展風(fēng)險防控審查,盡早發(fā)現(xiàn)算法設(shè)計存在的技術(shù)漏洞和算法使用中可能引發(fā)的技術(shù)、倫理風(fēng)險,確保算法始終為人服務(wù)。另外,還應(yīng)組織技術(shù)專家、科技倫理學(xué)家成立第三方機構(gòu),對算法的設(shè)計、使用開展事前和事中審查,從而對技術(shù)不確定性引發(fā)的各類風(fēng)險進行有效防范,對算法使用不當(dāng)造成的不良影響進行及時干預(yù)。

        4.和諧共生:創(chuàng)造人機共融的美好未來

        人工智能發(fā)展帶來了巨大的紅利,也伴生著一系列道德風(fēng)險。為了實現(xiàn)人工智能推動經(jīng)濟社會發(fā)展和保持社會道德秩序穩(wěn)定的雙贏局面,并促進人機協(xié)調(diào)、可持續(xù)發(fā)展,建立和諧共生的人機關(guān)系已經(jīng)勢在必行。

        第一,要賦予人工智能道德感,構(gòu)建人機共通的價值體系[1]。早在1960年,控制論領(lǐng)域的創(chuàng)始人、傳奇數(shù)學(xué)家諾伯特·維納(Norbert Wiener)就曾說:“如果我們使用一種我們無法有效干預(yù)其操作的機器來實現(xiàn)我們的目的……我們最好確定,機器所執(zhí)行的目的就是我們真正想要的目的。”[2]最令人擔(dān)憂的問題恰恰在于人工智能的發(fā)展充滿極大的不確定性,智能機器未來可能會脫離人類控制,做出違背人類社會倫理道德的事情。想要避免這種潛在危險,唯一的辦法就是讓智能機器擁有人類社會普遍認(rèn)可的價值理念,當(dāng)智能機器充分了解了人類的價值觀,就不會做出危害人類的事情[3]。為此,人類首先要思考,在智能機器全方位融入人類生產(chǎn)生活、精神文化世界之后,人類的道德情境會發(fā)生哪些新的變化,潛藏哪些道德風(fēng)險。人類自身需針對這些新的變化主動對原有的道德規(guī)范做出調(diào)整。其次,要通過合乎道德規(guī)范的算法設(shè)計將人類社會普遍認(rèn)可的道德原則嵌入智能機器的設(shè)計中,賦予其“道德感”。要讓智能機器進行逆向強化學(xué)習(xí)(inverse reinforcement learning,IRL),通過直接觀察人類行為并參考有關(guān)人類行為反應(yīng)的書面和視頻信息,通過道德算法對人類之間的利益沖突予以權(quán)衡。一旦懷有不良企圖者給智能機器發(fā)送違背道德的指令,智能機器就做出應(yīng)有反應(yīng),并拒絕執(zhí)行。

        第二,要從“關(guān)系轉(zhuǎn)向”的視角重塑人和智能機器的新型關(guān)系。通常,人們總是從人類中心的視角來看待人和智能機器的關(guān)系,將其看作滿足人類需求的工具。然而,人與智能機器可實現(xiàn)人機耦合、人機交互和人機互補已是不爭的事實。人能給智能機器發(fā)送行動指令控制其行為,智能機器亦可以用其分析結(jié)果影響人的決策和行為。這使得人工智能時代的人機關(guān)系已經(jīng)超越主客二元的人機關(guān)系。技術(shù)哲學(xué)家彼得-保羅·維貝克(Peter-Paul Verbeek)認(rèn)為,智能人造物在某些情境下是可以表現(xiàn)出道德行為,起到類似主體作用的[4]。人與智能機器構(gòu)成了一種前所未有的主體與類主體關(guān)系,或者說是跨人際主體間關(guān)系[5]。某一存在物是否具有道德地位不是取決于其主觀或內(nèi)在屬性,而在于可觀察到的客觀的外在關(guān)系[6]。并且,人工智能體是可以識別人類情緒并予以適當(dāng)回應(yīng)的。例如,有些老人長期接受人形護理機器人的照顧和陪伴,就會對機器人產(chǎn)生情感依戀。所以,人和智能機器建立伙伴關(guān)系(buddy relationship)是一種最為理想的狀態(tài)[7]。當(dāng)類人機器人通過頻繁的人機交互和廣泛的切入點全面融入人類生活后,它們將成為人類的新伙伴[8]。因此,人類需要從關(guān)系視域出發(fā),以道德為指向,既要善待自己,也要善待人工智能體,唯有人機和諧共處,才能為人類贏得一個更加美好的未來。

        〔責(zé)任編輯:洪峰〕

        本文為國家社會科學(xué)基金一般課題“學(xué)校立德樹人的長效機制研究”(BEA190108)的階段性成果。

        [1]盧西亞諾·弗洛里迪:《第四次革命:人工智能如何重塑人類現(xiàn)實》,王文革譯,浙江人民出版社2016年版,第99頁。

        [1]馮永剛、屈玲:《ChatGPT運用于教育的倫理風(fēng)險及其防控》,《內(nèi)蒙古社會科學(xué)》2023年第4期。

        [2]曲蓉:《這一年,人工智能“生成”精彩》,《人民日報海外版》2023年12月28日。

        [3]馮永剛、陳穎:《智慧教育時代教師角色的“變”與“不變”》,《中國電化教育》2021年第4期。

        [1]希拉里·普特南:《理性、真理與歷史》,李小兵、楊莘譯,遼寧教育出版社1988年版,第248頁。

        [2]《普列漢諾夫哲學(xué)著作選集》第1卷,生活·讀書·新知三聯(lián)書店1962年版,第551頁。

        [3]陳彬:《歷史與現(xiàn)實:科學(xué)技術(shù)與道德之間關(guān)系的二維考察》,《理論學(xué)刊》2015年第10期。

        [4]王春:《紹興警方偵破全國首例利用AI犯罪案》,《法制日報》2017年9月26日。

        [1]《馬克思恩格斯文集》第2卷,人民出版社2009年版,第580頁。

        [2]于澤元、那明明:《人工智能時代教育目的的轉(zhuǎn)向》,《中國電化教育》2022年第1期。

        [3]貝赫魯茲·佛羅贊:《計算機科學(xué)導(dǎo)論》,呂云翔等譯,機械工業(yè)出版社2020年版,第149頁。

        [4]郭小平、秦藝軒:《解構(gòu)智能傳播的數(shù)據(jù)神話:算法偏見的成因與風(fēng)險治理路徑》,《現(xiàn)代傳播(中國傳媒大學(xué)學(xué)報)》2019年第9期。

        [1]李本:《美國司法實踐中的人工智能:問題與挑戰(zhàn)》,《中國法律評論》2018年第2期。

        [2]余源培等:《哲學(xué)辭典》,上海辭書出版社2009年版,第298頁。

        [3]H. Jonas, The Imperative of Responsibility: In Search of an Ethics for the Technological Age, Chicago: The University of Chicago Press, 1984, p.90.

        [4]程承坪:《論人工智能的自主性》,《上海交通大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2022年第1期。

        [5]曲蓉:《破解人工智能道德治理中的責(zé)任難題》,《中國社會科學(xué)報》2021年12月22日。

        [1]斯賓諾莎:《倫理學(xué)》,賀麟譯,商務(wù)印書館1983年版,第4頁。

        [2]J. Savulescu, H. Maslen, "Moral Enhancement and Artificial Intelligence: Moral AI?", J. Romportl, E. Zackova, J. Kelemen(eds.), Beyond Artificial Intelligence. Topics in Intelligent Engineering and Informatics, vol.9, Springer, 2015, p.80.

        [3]黃各:《人工智能道德增強:能動資質(zhì)、規(guī)范立場與應(yīng)用前景》,《中國社會科學(xué)院大學(xué)學(xué)報》2022年第5期。

        [1]陳萬球:《技術(shù)侵入:道德自由的傳統(tǒng)與超越》,《倫理學(xué)研究》2020年第3期。

        [2]肖祥:《公民道德信任建立析論》,《中國特色社會主義研究》2019年第6期。

        [3]楊先順、莫莉:《人工智能傳播的信任維度及其機制建構(gòu)研究》,《學(xué)術(shù)研究》2022年第3期。

        [4]唐漢衛(wèi):《人工智能時代教育將如何存在》,《教育研究》2018年第11期。

        [5]曾建平、黃以勝:《信息技術(shù)問題的道德治理》,《華東師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2022年第2期。

        [1]王果、李建華:《人工智能時代“他-我”師生關(guān)系的建構(gòu)——在教育性對話中深化責(zé)任、關(guān)懷和人格感召》,《中國教育學(xué)刊》2021年第7期。

        [1]馮建軍:《網(wǎng)絡(luò)公民教育:智能時代道德教育的新要求》,《倫理學(xué)研究》2022年第3期。

        [2]何懷宏:《人物、人際與人機關(guān)系——從倫理角度看人工智能》,《探索與爭鳴》2018年第7期。

        [3]孫偉平、李揚:《論人工智能發(fā)展的倫理原則》,《哲學(xué)分析》2022年第1期。

        [4]《〈新一代人工智能倫理規(guī)范〉發(fā)布》,2021年9月26日,https://www.safea.gov.cn/kjbgz/202109/t20210926_177063.html。

        [1]張璁:《規(guī)范算法推薦,保障用戶知情權(quán)選擇權(quán)》,《人民日報》2022年1月6日。

        [1]王東、張振:《人工智能倫理風(fēng)險的鏡像、透視及其規(guī)避》,《倫理學(xué)研究》2021年第1期。

        [2]N. Wiener, "Some Moral and Technical Consequences of Automation", Science, 1960, 131(6), pp.1355-1358.

        [3]S. Russell, "Should We Fear Supersmart Robots?", Scientific American, 2016, 314(6), pp.58-59.

        [4]P.-P. Verbeek, "Materializing Morality: Design Ethics and Technological Mediation", Science, Technology, & Human Values, 2006,31(3), pp.361-380.

        [5]程廣云:《從人機關(guān)系到跨人際主體間關(guān)系——人工智能的定義和策略》,《自然辯證法通訊》2019年第1期。

        [6]David J. Gunkel, "Perspectives on Ethics of AI: Philosophy", Markus D. Dubber, Frank Pasquale, and Sunit Das(eds.), The Oxford Handbook of Ethics of AI, Oxford: Oxford University Press, 2020, p.547.

        [7]Misun Chu and Seoungho Ryu, "How to Embrace Artificial Intelligence? Focusing on Goffmans Theory", International Conference E-Society, 2019, pp.243-250.

        [8]Cathrine Hasse and Dorte Marie S?ndergaard(eds.), Designing Robots, Designing Humans, London and New York: Routledge, 2020, p.2.

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當(dāng)人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        亚洲人成网站色7799| 高清不卡日本v二区在线| 亚洲国产AⅤ精品一区二区久| 亚洲熟伦在线视频| 在线看不卡的国产视频| 日韩精品极品免费视频观看 | 青青青伊人色综合久久| 色小姐在线视频中文字幕| 日韩一区二区三区久久精品 | 无码字幕av一区二区三区| 国产乱人视频在线播放| 色妺妺视频网| 成人自拍视频国产一区| 日本久久精品视频免费| 成人片黄网站a毛片免费| 久久精品国产免费观看| 熟女人妻在线视频| 精品国产自产久久久| 国内视频偷拍一区,二区,三区| 国产目拍亚洲精品区一区| 中文字幕乱码人妻在线| 白白白在线视频免费播放| 亚洲日产精品一二三四区| 中文字幕亚洲综合久久菠萝蜜| 美女黄频视频免费国产大全| 日本免费三片在线播放| 女同性恋一区二区三区av| 99国产精品久久久蜜芽| 亚洲人成人网毛片在线播放| 亚洲全国最大的人成网站| 人妻少妇精品视频专区二区三区| 精品无码av一区二区三区| 欧美巨大xxxx做受中文字幕| 国产精品久久久久久久久免费观看| 亚洲一区二区三区视频免费| 精品香蕉99久久久久网站| 性色av浪潮av色欲av| 亚洲AV无码永久在线观看| 黄片午夜免费观看视频国产| 精品人妻69一区二区三区蜜桃| 超碰cao已满18进入离开官网|