亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        人工智能價(jià)值對齊的倫理挑戰(zhàn)及其消解路徑

        2024-12-19 00:00:00袁旭亮
        倫理學(xué)研究 2024年6期
        關(guān)鍵詞:挑戰(zhàn)規(guī)范人工智能

        [摘要]人工智能自主性的增強(qiáng)使其具有了“主動(dòng)”制造倫理問題的能力,這進(jìn)一步凸顯了確保高度自主的人工智能的價(jià)值觀與人類的價(jià)值觀保持一致的必要性,即實(shí)現(xiàn)人工智能與人類的價(jià)值對齊。當(dāng)前基于機(jī)器學(xué)習(xí)的人工智能價(jià)值對齊研究與實(shí)踐有蓬勃發(fā)展之勢,但是這一對齊路徑將會(huì)面臨由規(guī)范倫理學(xué)中的“是”到“應(yīng)該”的邏輯推導(dǎo)鴻溝導(dǎo)致的人工智能不能從數(shù)據(jù)信息中提取出價(jià)值規(guī)范的道德價(jià)值提取挑戰(zhàn),以及行為倫理學(xué)中的“有限倫理”理論所揭示的人工智能學(xué)習(xí)的數(shù)據(jù)信息可能具有內(nèi)在道德缺陷的道德價(jià)值來源合道德性挑戰(zhàn)。這兩大倫理挑戰(zhàn)揭示了基于機(jī)器學(xué)習(xí)的人工智能價(jià)值對齊路徑所具有的深刻倫理缺陷,故而若想真正實(shí)現(xiàn)人工智能價(jià)值對齊,必須探究如何消解上述兩大倫理挑戰(zhàn)。

        [關(guān)鍵詞]人工智能價(jià)值對齊;機(jī)器學(xué)習(xí);“是”到“應(yīng)該”的邏輯推導(dǎo)鴻溝;有限倫理

        [作者簡介]袁旭亮,大連理工大學(xué)大數(shù)據(jù)與人工智能倫理法律與社會(huì)研究中心、哲學(xué)系講師,碩士生導(dǎo)師,南開大學(xué)哲學(xué)博士。

        *本文系國家社會(huì)科學(xué)基金重大項(xiàng)目“大數(shù)據(jù)環(huán)境下信息價(jià)值開發(fā)的倫理約束機(jī)制研究”(17ZDA023)的階段性成果。

        新科技革命的迅猛發(fā)展使得人工智能迭代更新速度持續(xù)加快,在進(jìn)一步提高人工智能自主化和智能化水平的同時(shí)也衍生出尋求權(quán)力(power-seeking)、規(guī)范博弈(specification gaming)等根源于人工智能自主性的倫理問題。與數(shù)據(jù)安全問題、用戶隱私問題、算法公平性問題等人工智能技術(shù)誤用或?yàn)E用倫理風(fēng)險(xiǎn)相比,上述倫理問題最顯著的特征是它們主要產(chǎn)生于人工智能的自主行動(dòng)能力,也即在一定程度上是由人工智能“主動(dòng)”制造的。在這一意義上,這些根源于人工智能自主性的倫理問題可以被稱為人工智能高階倫理問題。鑒于人工智能是上述人工智能高階倫理問題的主要制造者,那么在解決這類人工智能倫理問題時(shí),不能完全依賴人類等外部力量,具有自主性的人工智能也應(yīng)參與其中,典型的如人工智能在道德敏感環(huán)境中按照人類的意圖、偏好或道德規(guī)范等行動(dòng),以使人工智能的判斷和行為與人類的相應(yīng)判斷和行為具有價(jià)值等價(jià)性,相關(guān)研究被稱為人工智能價(jià)值對齊(Arti? ficial Intelligence Value Alignment)。

        關(guān)于人工智能價(jià)值對齊的思想可以追溯到控制論創(chuàng)始人諾伯特·維納(Norbert Wiener)。1960年,維納在討論機(jī)器自動(dòng)化的道德后果時(shí)曾強(qiáng)調(diào)使機(jī)器的目標(biāo)與人類的目標(biāo)相一致[1](1358)。后來隨著關(guān)于人工智能驗(yàn)證(verification)、有效性(validity)和控制(control)等研究的深入[2](107-112),人工智能價(jià)值對齊在人工智能倫理、安全等領(lǐng)域獲得了廣泛關(guān)注,并在人工智能安全技術(shù)實(shí)踐中有了一些探索甚至初步實(shí)現(xiàn),如在大模型(big model)領(lǐng)域,OpenAI將對齊性作為防范GPT-4安全風(fēng)險(xiǎn)的主要措施[3]。關(guān)于人工智能價(jià)值對齊的實(shí)現(xiàn)路徑,基于人工智能發(fā)展的基于邏輯(Logic-Based)或基于機(jī)器學(xué)習(xí)(ML-Based)的底層框架劃分,以及機(jī)器倫理的“自上而下”(Top-Down)或“自下而上”(Bottom-Up)的實(shí)現(xiàn)路徑劃分,當(dāng)前主要有兩條路徑:一是將人類的道德規(guī)范直接灌輸給人工智能作為其倫理決策的依據(jù),然后借由倫理決策依據(jù)的一致性保障導(dǎo)出的行動(dòng)的倫理一致性;二是通過各類機(jī)器學(xué)習(xí)技術(shù)使人工智能掌握人類偏好,然后投人類所好,作出與人類相同或相似的倫理選擇。其中,第二條路徑在當(dāng)前的人工智能安全技術(shù)實(shí)踐中占據(jù)了主流地位并得到了廣泛應(yīng)用,如OpenAI所采取的關(guān)鍵性對齊技術(shù)就是GPT-4與領(lǐng)域?qū)<业膶箿y試(Adversarial Testing via Domain Experts)和帶有人類反饋的強(qiáng)化學(xué)習(xí)(Reinforcement Learning with Human Feedback)[3](11-12)。

        由此,在人工智能業(yè)界,基于機(jī)器學(xué)習(xí)的人工智能價(jià)值對齊研究與實(shí)踐有蓬勃發(fā)展之勢。但是“價(jià)值”是一個(gè)典型的倫理概念,這使得人工智能價(jià)值對齊不僅僅是一個(gè)技術(shù)問題,還是一個(gè)倫理問題,故而需要從倫理上論證人工智能價(jià)值對齊的可能性和合理性[4](94)。具體地,在基于機(jī)器學(xué)習(xí)實(shí)現(xiàn)人工智能價(jià)值對齊的技術(shù)實(shí)踐中,有兩個(gè)關(guān)鍵問題有待倫理學(xué)界解決:一是人工智能是否能夠從訓(xùn)練數(shù)據(jù)中真正學(xué)習(xí)到人類的道德價(jià)值,二是利用倫理學(xué)家的數(shù)據(jù)作為訓(xùn)練數(shù)據(jù)來提高人工智能的道德學(xué)習(xí)效果是否真正可行。針對上述兩個(gè)問題,本文首先從規(guī)范倫理學(xué)和行為倫理學(xué)的基本理論出發(fā)揭示了基于機(jī)器學(xué)習(xí)的人工智能價(jià)值對齊路徑面臨的兩大倫理挑戰(zhàn),即人工智能道德價(jià)值提取挑戰(zhàn)和道德價(jià)值來源合道德性挑戰(zhàn)①,隨后從人工智能的倫理學(xué)習(xí)方式和內(nèi)容兩個(gè)維度探討了消解上述兩大倫理挑戰(zhàn)的可能路徑。

        一、“是”推不出“應(yīng)該”:人工智能的道德價(jià)值提取挑戰(zhàn)

        “是”推不出“應(yīng)該”是規(guī)范倫理學(xué)中的一個(gè)著名論斷,源于大衛(wèi)·休謨(David Hume)在《人性論》中描述的其所發(fā)現(xiàn)的所有道德體系共有的一種“連系詞”轉(zhuǎn)換現(xiàn)象:“在我所遇到的每一個(gè)道德學(xué)體系中,我一向注意到,作者在一個(gè)時(shí)期中是照平常的推理方式進(jìn)行的……可是突然之間,我卻大吃一驚地發(fā)現(xiàn),我所遇到的不再是命題中通常的‘是’與‘不是’等連系詞,而是沒有一個(gè)命題不是由一個(gè)‘應(yīng)該’或者一個(gè)‘不應(yīng)該’聯(lián)系起來的。”[5](505)休謨進(jìn)一步指出這一從“是”或“不是”到“應(yīng)該”或“不應(yīng)該”的“連系詞”轉(zhuǎn)換是在“不知不覺”中發(fā)生的并且未“舉出理由加以說明”,休謨警告這種無根由的命題“連系詞”轉(zhuǎn)換行為將會(huì)使“一切通俗的道德體系”面臨被“推翻”的危險(xiǎn),因?yàn)椤笆恰被颉安皇恰焙汀皯?yīng)該”或“不應(yīng)該”刻畫的是命題詞項(xiàng)間的兩種截然不同的關(guān)系,由此,它們之間的轉(zhuǎn)換本質(zhì)上是不同性質(zhì)命題之間的邏輯推導(dǎo),而推導(dǎo)關(guān)系能否成立以及如何成立需要“謹(jǐn)慎”考察。

        這也即道德哲學(xué)中著名的從“是”能否推出“應(yīng)該”的問題。雖然休謨并未在其著作中明確給出回答,但是由休謨的道德源于情感的“假設(shè)”②以及休謨關(guān)于理性和趣味的界限與作用的區(qū)分③可知,休謨關(guān)于這一問題的回答是否定的,即從“是”推不出“應(yīng)該”。

        “是”到“應(yīng)該”的邏輯推導(dǎo)不成立根源于事實(shí)與價(jià)值的二分。雖然在休謨的道德哲學(xué)中初步呈現(xiàn)了對事實(shí)與價(jià)值進(jìn)行二元區(qū)分的思想,但是馬克斯·韋伯(Max Weber)最早直接點(diǎn)明“是”推不出“應(yīng)該”的根源在于“從事實(shí)陳述到價(jià)值判斷的推演”[6](44)是不可接受的。韋伯強(qiáng)調(diào)“‘存在知識’,即,關(guān)于‘是’什么的知識與‘規(guī)范知識’,即,關(guān)于‘當(dāng)是’什么的知識之間的邏輯(prinzipielle)區(qū)分”[6](48),也即由“是”與“不是”作為“連系詞”的命題是事實(shí)命題,由“應(yīng)該”或“不應(yīng)該”作為“連系詞”的命題是價(jià)值命題,兩類命題分屬不同的范疇,“從范疇‘是’(is)到范疇‘應(yīng)當(dāng)’(ought)的跳躍”[6](34)是不允許的。喬治·愛德華·摩爾(George Edward Moore)基于道德概念只能通過直覺來把握的直覺主義倫理學(xué)思想來說明事實(shí)命題到價(jià)值命題的不可推導(dǎo)性,并將從事實(shí)命題到價(jià)值命題的推導(dǎo)稱為犯了“自然主義謬誤”:“某物具有自然屬性X”是一個(gè)事實(shí)命題,斷定“某物是善的”是一個(gè)價(jià)值命題,用自然屬性X定義“善”意味著從事實(shí)命題推導(dǎo)出了價(jià)值命題,這種推導(dǎo)是一種自然主義謬誤[7](11,128)[8](94)。摩爾認(rèn)為無論是自然主義倫理學(xué)還是形而上學(xué)倫理學(xué),任何試圖從非倫理前提推導(dǎo)出倫理結(jié)論的推理都犯了自然主義謬誤。另外,魯?shù)婪颉た柤{普(Rudolf Carnap)和阿爾弗雷德·艾耶爾(Alfred Jules Ayer)等也都將事實(shí)命題和價(jià)值命題的嚴(yán)格區(qū)分作為基本的倫理信條[9](21)。

        “是”推不出“應(yīng)該”逐漸演變成了規(guī)范倫理學(xué)的一條公理[10](873),甚至被休謨的支持者視為道德哲學(xué)的一個(gè)根本原則[9](19),如理查德·麥爾文·黑爾(Richard Mervyn Hare)將其稱為“休謨法則”(Hume’s Law)?;跈C(jī)器學(xué)習(xí)實(shí)現(xiàn)人工智能價(jià)值對齊的方法論是人工智能能夠基于數(shù)據(jù)信息作出與人類具有價(jià)值等價(jià)性的決策和選擇。這一對齊方法的本質(zhì)是人工智能從數(shù)據(jù)信息(即事實(shí)命題)到倫理行為(即價(jià)值命題)的決策和選擇過程,因而它將面臨“是”推不出“應(yīng)該”的挑戰(zhàn)。這可以從邏輯學(xué)和認(rèn)知科學(xué)兩個(gè)視角來進(jìn)一步分析。

        從邏輯學(xué)視角看,機(jī)器學(xué)習(xí)的邏輯學(xué)基礎(chǔ)是歸納推理。如與深度學(xué)習(xí)算法密切相關(guān)的聯(lián)結(jié)主義人工智能的學(xué)習(xí)過程可以歸結(jié)為“數(shù)據(jù)—建?!袆?dòng)”,其學(xué)習(xí)性體現(xiàn)為從數(shù)據(jù)中提煉出知識或規(guī)律的建模過程,本質(zhì)是基于統(tǒng)計(jì)學(xué)方法論的經(jīng)驗(yàn)歸納;與強(qiáng)化學(xué)習(xí)算法密切相關(guān)的行為主義人工智能的學(xué)習(xí)過程可以歸結(jié)為“數(shù)據(jù)—行動(dòng)”,其學(xué)習(xí)性體現(xiàn)為基于與環(huán)境互動(dòng)的模仿過程,本質(zhì)是邏輯學(xué)中的類比推理。當(dāng)試圖基于機(jī)器學(xué)習(xí)實(shí)現(xiàn)人工智能價(jià)值對齊時(shí),無論是聯(lián)結(jié)主義人工智能從數(shù)據(jù)信息歸納出價(jià)值規(guī)范用于指導(dǎo)人工智能的倫理行為決策,還是行為主義人工智能從“他人如此行動(dòng)”的行為事實(shí)到“我也應(yīng)該這樣行動(dòng)”的行為規(guī)范的倫理類比推理,都涉及了人工智能由事實(shí)命題推導(dǎo)出價(jià)值命題,因而都將面臨“是”推不出“應(yīng)該”的挑戰(zhàn)。

        從認(rèn)知科學(xué)的視角看,聯(lián)結(jié)主義人工智能的認(rèn)知觀是“學(xué)而知之”,行為主義人工智能的認(rèn)知觀是“實(shí)踐出真知”[11](57)。深度學(xué)習(xí)算法是對人腦從經(jīng)驗(yàn)中歸納出一般規(guī)則的學(xué)習(xí)過程的模擬,因而聯(lián)結(jié)主義人工智能的認(rèn)知機(jī)制是“根據(jù)人提供的經(jīng)驗(yàn)數(shù)據(jù)等信息去生成模型,即系統(tǒng)從數(shù)據(jù)中提煉規(guī)律,形成知識”[11](52),這是一種“經(jīng)驗(yàn)—理論”的經(jīng)驗(yàn)歸納認(rèn)知進(jìn)路。這使得深度學(xué)習(xí)算法能夠較好地解決感性認(rèn)知中的識別問題,表現(xiàn)在其突破了符號主義人工智能根據(jù)設(shè)定的模型去處理問題的范圍約束,使人工智能具有了識別新對象的能力。但在倫理認(rèn)知領(lǐng)域,人工智能基于被提供的數(shù)據(jù)信息提煉出人類的一般性倫理知識或偏好,這一過程就是典型的從“是”到“應(yīng)該”的倫理認(rèn)知過程。強(qiáng)化學(xué)習(xí)算法是一種致力于實(shí)現(xiàn)使人工智能“像人一樣行動(dòng)”的機(jī)器學(xué)習(xí)算法,其學(xué)習(xí)方法是與環(huán)境交互,因而行為主義人工智能的認(rèn)知機(jī)制是基于環(huán)境對行為的反饋產(chǎn)生指導(dǎo)行動(dòng)的知識,是一種“感知—行動(dòng)”的具身認(rèn)知進(jìn)路。強(qiáng)化學(xué)習(xí)將深度學(xué)習(xí)的“數(shù)據(jù)—建模—行動(dòng)”的“建?!杯h(huán)節(jié)取消,從“數(shù)據(jù)”直接導(dǎo)向“行動(dòng)”,避免了深度學(xué)習(xí)在建模時(shí)面臨的從“是”到“應(yīng)該”的推不出挑戰(zhàn)。不過從知識形態(tài)的角度看,具身認(rèn)知形成的是關(guān)于“如何做”的知識[11](58),當(dāng)涉及道德敏感環(huán)境時(shí),形成的是關(guān)于“應(yīng)該如何做”的倫理知識。因而在強(qiáng)化學(xué)習(xí)的“數(shù)據(jù)—行動(dòng)”背后隱藏著從“人類如此行動(dòng)”的行為事實(shí)描述到“人工智能也應(yīng)如此行動(dòng)”的人工智能倫理認(rèn)知,由此也將面臨從“是”到“應(yīng)該”的推不出挑戰(zhàn)。

        從“是”推不出“應(yīng)該”,這一事實(shí)命題到價(jià)值命題的邏輯推導(dǎo)鴻溝作用于人工智能的涉?zhèn)惱韺W(xué)習(xí),所導(dǎo)致的結(jié)果是人工智能不能從數(shù)據(jù)信息中提取出價(jià)值規(guī)范。除了在人工智能從數(shù)據(jù)信息到價(jià)值規(guī)范的學(xué)習(xí)過程將面臨由“是”推不出“應(yīng)該”導(dǎo)致的道德價(jià)值提取挑戰(zhàn)外,在人工智能將自上而下被灌輸?shù)膬r(jià)值規(guī)范應(yīng)用于實(shí)踐時(shí),將會(huì)遭遇從“應(yīng)該”到“是”的價(jià)值規(guī)范實(shí)踐轉(zhuǎn)化鴻溝,表現(xiàn)是“抽象的倫理概念、原則直接介入到具象的動(dòng)態(tài)實(shí)踐中,結(jié)果常常因耦合性不夠而導(dǎo)致倫理規(guī)范向?qū)嵺`轉(zhuǎn)化脫節(jié)、效率不高等問題”[12](88-89),這是人工智能道德價(jià)值實(shí)踐轉(zhuǎn)化挑戰(zhàn)。

        二、有限倫理:人工智能道德價(jià)值來源的合道德性挑戰(zhàn)

        數(shù)據(jù)是人工智能學(xué)習(xí)的“原料”,無論是聯(lián)結(jié)主義人工智能還是行為主義人工智能,其學(xué)習(xí)過程都始于輸入的原始數(shù)據(jù),聯(lián)結(jié)主義人工智能基于原始數(shù)據(jù)提煉模型,行為主義人工智能基于原始數(shù)據(jù)直接確定行動(dòng)。因而對于基于機(jī)器學(xué)習(xí)的人工智能而言,原始數(shù)據(jù)影響甚至決定著其學(xué)習(xí)效果。這可以從原始數(shù)據(jù)的“量”和“質(zhì)”兩個(gè)維度來考察。原始數(shù)據(jù)的“量”關(guān)涉提供給人工智能供其學(xué)習(xí)的數(shù)據(jù)的數(shù)量,數(shù)據(jù)的數(shù)量之所以會(huì)影響人工智能的學(xué)習(xí)效果,是因?yàn)闄C(jī)器學(xué)習(xí)探究到的事物之間的聯(lián)系本質(zhì)上是事物之間的統(tǒng)計(jì)相關(guān)性,從統(tǒng)計(jì)推理的可靠性視角看,大數(shù)據(jù)是事物間的強(qiáng)統(tǒng)計(jì)相關(guān)性的必要條件。原始數(shù)據(jù)的“質(zhì)”則關(guān)涉提供給人工智能供其學(xué)習(xí)的數(shù)據(jù)的質(zhì)量,數(shù)據(jù)是人工智能的直接學(xué)習(xí)對象,對人工智能的學(xué)習(xí)內(nèi)容和結(jié)果具有本體論上的決定作用,這在人工智能倫理領(lǐng)域體現(xiàn)在兩個(gè)方面:一方面,從輸出結(jié)果的道德屬性來看,根植于計(jì)算機(jī)科學(xué)領(lǐng)域著名的“GIGO定律”(Garbage In,Garbage Out)①,不道德數(shù)據(jù)輸入將直接導(dǎo)致不道德結(jié)果輸出,《自然》雜志關(guān)于大數(shù)據(jù)算法的透明度與問責(zé)的評論文章曾言,“偏見進(jìn),偏見出”(Bias In,Bias Out);另一方面,就不道德人工智能的產(chǎn)生根源來講,除卻人為因素外,數(shù)據(jù)的不道德性是不道德人工智能的另一主要產(chǎn)生根源,因?yàn)楫?dāng)前人工智能所具有的數(shù)據(jù)處理能力主要是數(shù)據(jù)的提取、分類、預(yù)測等能力,本質(zhì)上并不具備數(shù)據(jù)道德屬性的判斷能力,因而不道德的數(shù)據(jù)將會(huì)“教壞”人工智能,如孫偉平教授所言“各種各樣的數(shù)據(jù)不公正因素的‘算法內(nèi)化’是導(dǎo)致算法歧視的重要原由”[13](48)。影響數(shù)據(jù)質(zhì)量的因素主要有數(shù)據(jù)的來源、采集數(shù)據(jù)時(shí)依據(jù)的標(biāo)準(zhǔn)、數(shù)據(jù)的準(zhǔn)確性和可靠性、數(shù)據(jù)的時(shí)效性等。

        接下來我們將從數(shù)據(jù)的來源的角度(主要是采集誰的數(shù)據(jù))考察數(shù)據(jù)的“質(zhì)”對實(shí)現(xiàn)人工智能價(jià)值對齊的影響。在人工智能倫理、安全的哲學(xué)研究與技術(shù)實(shí)踐中,蘇珊·利·安德爾森(Susan Leigh Anderson)等建議利用倫理學(xué)家的數(shù)據(jù)作為人工智能的訓(xùn)練數(shù)據(jù)以防止人工智能產(chǎn)生的不道德行為[14](479);OpenAI聘請長期對人工智能對齊、網(wǎng)絡(luò)安全等領(lǐng)域進(jìn)行研究的專家作為紅隊(duì)(red team)與GPT-4進(jìn)行對抗性測試以提高GPT-4的安全性和對齊性[3]。這些建議與技術(shù)實(shí)踐主要是基于專家的數(shù)據(jù)更為準(zhǔn)確和可靠的預(yù)設(shè):數(shù)據(jù)本質(zhì)上是人類行為的表征形式,充分的專業(yè)訓(xùn)練一方面可以使專家有更好的行為表現(xiàn),另一方面可以減輕導(dǎo)致普通人表現(xiàn)不好的因素對專家的影響。

        然而行為倫理學(xué)的研究表明,盡管專業(yè)的倫理知識學(xué)習(xí)可以加深人們對倫理的理解,但是無論一個(gè)人的倫理知識如何豐富、對倫理的理解如何深入,在實(shí)踐中進(jìn)行倫理決策時(shí)都將受到許多限制,從而導(dǎo)致人們的實(shí)際倫理行為可能達(dá)不到外界或他自身對其倫理行為表現(xiàn)的預(yù)期,特別是倫理學(xué)家在處理問題時(shí)可能沒有作出外界或他自身所期望的完美倫理表現(xiàn)。行為倫理學(xué)中的“有限倫理”(bounded ethicality)理論認(rèn)為,這一問題的根源主要在于人們的一些涉?zhèn)惱硇袨榭赡苁瞧湓跓o意識狀態(tài)下作出的,由此導(dǎo)致該類行為不滿足人們所秉持的道德規(guī)范[15](75)。

        “有限倫理”理論是美國諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)獲得者、計(jì)算機(jī)科學(xué)家赫伯特·西蒙(Herbert Simon)提出的“有限理性”(bounded rationality)理論在倫理決策領(lǐng)域的擴(kuò)展。傳統(tǒng)經(jīng)濟(jì)學(xué)預(yù)設(shè)了人是“完全的理性行動(dòng)者”,即“有清晰定義的偏好,以無偏的方式使用所有相關(guān)的信息,而且能夠準(zhǔn)確無誤地解決棘手的最優(yōu)化問題”[16](97)。然而西蒙認(rèn)為“人類的理性是有限的,受到環(huán)境和人類計(jì)算能力的極大限制”[17](34),在真實(shí)世界,人們雖然試圖作出最優(yōu)決策,但是決策過程顯然不能滿足完全理性的所有要求,人們經(jīng)常會(huì)犯一些偏離理性的系統(tǒng)性錯(cuò)誤,如無意識狀態(tài)下的不道德行為。

        這涉及意識思維和無意識思維與人類行為的關(guān)系問題。基于埃德蒙德·胡塞爾(Edmund Husserl)的意識現(xiàn)象學(xué)和西格蒙德·弗洛伊德(Sigmund Freud)的“心而上學(xué)”(Meta-Psychologie),人類心靈可分為意識和無意識兩部分[18](138)。其中,意識因是彰顯的,呈現(xiàn)為直觀性的意識現(xiàn)象,其作為哲學(xué)和心理學(xué)的研究對象和論題的地位并無太多爭議,而無意識因其是潛隱的、不顯現(xiàn)的,其作為哲學(xué)和心理學(xué)的研究對象和論題的地位經(jīng)由弗朗茲·克萊門斯·布倫塔諾(Franz Clemens Brentano)對內(nèi)意識和無意識的區(qū)分,赫爾曼·艾賓浩斯(Hermann Ebbinghaus)的記憶心理學(xué)對無意識心理狀態(tài)的實(shí)驗(yàn)研究,最終在弗洛伊德的“三重心理地域說”(意識、前意識、無意識)和“三重心理結(jié)構(gòu)說”(本我、自我、超我)等無意識心理學(xué)的研究的基礎(chǔ)上才得以確立[18](140-151)。對意識思維和無意識思維與人類行為的關(guān)系,一般公認(rèn)意識思維能夠誘發(fā)人類行為,而無意識思維能否誘發(fā)人類行為則存在爭議。但是,弗洛伊德認(rèn)為口誤、遺忘等行為是人類“反向意志”作用的結(jié)果,“這種反向意志雖然通常并不為當(dāng)事人所知或承認(rèn),這卻并不妨礙它在無意識層面對人的心理與行為發(fā)揮關(guān)鍵性的甚至在某種意義上可以說是決定性的作用”[19](92),因而無意識思維也能夠如意識思維一樣被作為人類行為的動(dòng)因。比較典型性的,如人們認(rèn)知和決策過程中的一些自動(dòng)性(automatic)現(xiàn)象,心理學(xué)家約翰·巴格(John Bargh)和塔尼亞·沙特朗(Tanya Chartrand)將這些現(xiàn)象的不可控制性和必然性稱為“無法忍受的自動(dòng)性”(the unbearable automaticity of being)[20](462)。

        當(dāng)無意識思維作用于人們的道德判斷時(shí),可能會(huì)使人們作出與自身秉持的道德規(guī)范不一致的行為。如人們的群體內(nèi)偏好(In-group Favoritism)行為:人們可能不會(huì)故意歧視他人,但是當(dāng)他們無意之中給予自己喜歡或認(rèn)識的人更多偏好時(shí),可能造成對那些沒有這種關(guān)系的人的無意識歧視[21](77)。這是一種典型的有限倫理行為,人們無意不公正,但是他們的實(shí)際行為與他們所期望的公正表現(xiàn)之間存在偏差。多莉·丘格(Dolly Chugh)等認(rèn)為有限倫理行為的根源是一種特定的自我觀,即人們認(rèn)為他們是“有道德的”(moral)、“有能力的”(competent)和“應(yīng)得的”(deserving),其中,“有道德的”是指人們認(rèn)為其自身具有足夠甚至是相比于他人更高的道德敏感性,不會(huì)做不道德的行為,“有能力的”是指人們認(rèn)為其自身具有在完成給定任務(wù)時(shí)避免不道德行為的能力,“應(yīng)得的”是指人們認(rèn)為其自身具有比他人更大的道德貢獻(xiàn)[15](80-86)。依據(jù)行為動(dòng)機(jī)理論,人們的行為一般都會(huì)傾向于維護(hù)自我價(jià)值[22](1),因而如果人們在行動(dòng)時(shí)無意識地傾向于這種“自我中心倫理”(egocentric ethics)的道德觀,人們將無法正確認(rèn)識他所處的道德狀況,從而作出有道德缺陷的行為。并且,這樣的有限倫理行為是普遍的,即包括經(jīng)受了專業(yè)倫理訓(xùn)練的倫理學(xué)家在內(nèi)的所有人都可能作出與其所秉持的道德規(guī)范不一致的不道德行為,并產(chǎn)生難以克服的即人們在行動(dòng)時(shí)無法認(rèn)識并規(guī)避其決策中的道德缺陷。

        進(jìn)一步分析可知,出于維護(hù)“自我中心倫理”道德觀的無意識思維應(yīng)是弗洛伊德“三重心理地域說”所界定的“前意識”。弗洛伊德在劃分心理區(qū)域時(shí),首先劃分了意識和無意識兩種意識類型,隨后借助“壓抑”(Verdr?ngung)概念①進(jìn)一步又將無意識劃分為兩種:一種無意識是潛隱的,雖然其在當(dāng)下沒有被意識到,但是原則上隨時(shí)都可以轉(zhuǎn)變?yōu)橐庾R(即被重新意識到),弗洛伊德將其稱為“前意識”;另一種無意識雖也是潛隱的,但它是壓抑的結(jié)果,原則上則永遠(yuǎn)不能變?yōu)橐庾R。[18](148)顯然出于維護(hù)“自我中心倫理”道德觀的無意識思維符合弗洛伊德對“前意識”的界定,因?yàn)殡m然人們在行動(dòng)時(shí)無法意識到它的存在,但是如果事后重新考察該行為的不道德性的來源時(shí),一般都能夠認(rèn)識到該行為的不道德性是其無意識思維導(dǎo)致的。

        除了“有限理性”和“有限倫理”外,與這兩個(gè)理論平行的“有限意識”(bounded awareness)理論[23](10)也可以用于解釋為什么人們?nèi)菀壮霈F(xiàn)實(shí)際的倫理行為偏離其所秉持的道德規(guī)范的倫理行為的失范現(xiàn)象。認(rèn)知心理學(xué)研究表明,人們在決策過程中大腦可能專注于特定信息而沒有注意到其他相關(guān)信息,由此忽略了作出好決策所需的關(guān)鍵性信息。這種認(rèn)知“聚焦失敗”(focusing failure)現(xiàn)象被稱為“有限意識”。很顯然,“有限意識”作用于人類的倫理決策領(lǐng)域時(shí),也將導(dǎo)致人類可能作出不符合其所秉持的道德規(guī)范的不道德行為。

        如同“有限理性”理論挑戰(zhàn)了傳統(tǒng)經(jīng)濟(jì)學(xué)的人是完全理性的預(yù)設(shè),“有限倫理”理論還挑戰(zhàn)了人可以是完全倫理的認(rèn)識?;凇坝邢迋惱怼崩碚摚词故墙?jīng)過專業(yè)訓(xùn)練的倫理學(xué)家也可能作出不道德行為,那么這就對建議用來自倫理學(xué)家的數(shù)據(jù)作為人工智能的訓(xùn)練數(shù)據(jù)以提高人工智能的道德性的哲學(xué)研究與技術(shù)實(shí)踐提出了挑戰(zhàn),這一挑戰(zhàn)的內(nèi)核是人工智能進(jìn)行倫理學(xué)習(xí)的數(shù)據(jù)信息是否是完全合道德性的。

        三、人工智能價(jià)值對齊倫理挑戰(zhàn)的可能消解路徑

        人工智能價(jià)值對齊是當(dāng)前人工智能業(yè)界應(yīng)對人工智能倫理風(fēng)險(xiǎn)問題的一種重要解決方案,同時(shí)在人工智能倫理學(xué)界,人工智能價(jià)值對齊也獲得了高度重視和廣泛研究,如閆宏秀教授認(rèn)為,從人機(jī)(技)融合的視角來看人工智能價(jià)值對齊可以被視為人類通往未來的必經(jīng)之路[24](26),閆坤如教授也指出,人工智能價(jià)值對齊成為人工智能安全發(fā)展的前提和基本要義,是人工智能發(fā)展的根本性、基礎(chǔ)性工作[4](94)。但是本文利用規(guī)范倫理學(xué)和行為倫理學(xué)的理論論證了當(dāng)前主流的基于機(jī)器學(xué)習(xí)的人工智能價(jià)值對齊路徑面臨著兩大倫理挑戰(zhàn):一是規(guī)范倫理學(xué)中的“是”到“應(yīng)該”的邏輯推導(dǎo)鴻溝導(dǎo)致的人工智能不能從數(shù)據(jù)信息中提取出價(jià)值規(guī)范的道德價(jià)值提取挑戰(zhàn);二是行為倫理學(xué)中的“有限倫理”理論揭示的人工智能學(xué)習(xí)的數(shù)據(jù)信息可能具有內(nèi)在道德缺陷的道德價(jià)值來源合道德性挑戰(zhàn)。這兩大倫理挑戰(zhàn)揭示了當(dāng)前主流的基于機(jī)器學(xué)習(xí)的人工智能價(jià)值對齊路徑的深刻倫理缺陷,故而,若想真正實(shí)現(xiàn)人工智能價(jià)值對齊,必須探究如何消解上述兩大倫理挑戰(zhàn)。

        基于上文對人工智能道德價(jià)值提取挑戰(zhàn)和道德價(jià)值來源合道德性挑戰(zhàn)的論證和分析可以發(fā)現(xiàn),這兩大挑戰(zhàn)分別對應(yīng)人工智能的倫理學(xué)習(xí)方式和內(nèi)容。由于當(dāng)前仍處于弱人工智能時(shí)代[25](37),人工智能雖然具有愈加強(qiáng)大的算力和獨(dú)立行動(dòng)能力,但是在道德養(yǎng)成上其“沒有自我意識或意向性,不具備亞里士多德意義上與實(shí)踐相關(guān)的實(shí)踐理性和倫理德性,也不具有休謨式道德發(fā)動(dòng)意義上的情感”[25](37)。故而當(dāng)下的人工智能一方面沒有自我意識和倫理德性,無法通過內(nèi)省的方式進(jìn)行倫理學(xué)習(xí);另一方面其以大數(shù)據(jù)為關(guān)鍵要素、以機(jī)器學(xué)習(xí)為技術(shù)核心,并且機(jī)器學(xué)習(xí)技術(shù)與一些倫理學(xué)思想也具有較強(qiáng)的內(nèi)在契合性。如功利主義倫理學(xué)與強(qiáng)化學(xué)習(xí)的內(nèi)在邏輯本質(zhì)上是一致的,它們都基于獎(jiǎng)勵(lì)最大化的目標(biāo)導(dǎo)向,希瑟·洛夫(Heather Roff)就曾直接指出“應(yīng)該立即看到強(qiáng)化學(xué)習(xí)非常像功利主義,因?yàn)榛趶?qiáng)化學(xué)習(xí)的主體和功利主義道德主體都試圖通過最大化未來狀態(tài)、目標(biāo)或結(jié)果的價(jià)值或善來決定當(dāng)前的行為”[26](5)。由此,各種機(jī)器學(xué)習(xí)技術(shù)成為當(dāng)前人工智能的主要倫理學(xué)習(xí)方式,刻畫人類倫理行為的數(shù)據(jù)信息成了當(dāng)前人工智能的主要倫理學(xué)習(xí)內(nèi)容。既然人工智能道德價(jià)值提取挑戰(zhàn)和道德價(jià)值來源合道德性挑戰(zhàn)與人工智能的倫理學(xué)習(xí)方式和內(nèi)容密切相關(guān),那么若想消解這兩大倫理挑戰(zhàn),實(shí)現(xiàn)真正的人工智能價(jià)值對齊,就需在這兩個(gè)方面下功夫。

        首先,關(guān)于人工智能的倫理學(xué)習(xí)方式,人工智能應(yīng)通過“基于邏輯”+“基于機(jī)器學(xué)習(xí)”的方式進(jìn)行倫理學(xué)習(xí),即首先在人工智能中預(yù)置人類基本價(jià)值規(guī)范,然后人工智能在此基礎(chǔ)上利用機(jī)器學(xué)習(xí)技術(shù)進(jìn)行進(jìn)一步的倫理學(xué)習(xí)。人工智能的“基于邏輯”的倫理學(xué)習(xí),即為人工智能嵌入道德算法,將人類基本價(jià)值規(guī)范通過道德代碼的形式預(yù)置到人工智能中,由于這些價(jià)值規(guī)范是預(yù)先嵌入到人工智能中的,而非人工智能從訓(xùn)練數(shù)據(jù)中提取的,因而將不會(huì)遇到“是”到“應(yīng)該”的邏輯推導(dǎo)鴻溝導(dǎo)致的人工智能不能從數(shù)據(jù)信息中提取出價(jià)值規(guī)范的道德價(jià)值提取挑戰(zhàn)。但是預(yù)置的僅僅是人類的基本價(jià)值規(guī)范,也即人類的價(jià)值共識,基于價(jià)值多元主義思想還需在此基礎(chǔ)上“尊重不同的道德習(xí)慣和文化傳統(tǒng)”,故人工智能需要通過機(jī)器學(xué)習(xí)技術(shù)進(jìn)行進(jìn)一步的倫理學(xué)習(xí),以獲得更為廣泛的道德價(jià)值。那此時(shí)如何應(yīng)對“是”到“應(yīng)該”的邏輯推導(dǎo)鴻溝導(dǎo)致的人工智能道德價(jià)值提取挑戰(zhàn)呢?由于在人工智能中已經(jīng)預(yù)置了人類基本價(jià)值規(guī)范,而“通過內(nèi)置道德決策場景的指導(dǎo)性決策標(biāo)準(zhǔn)……可以使其具備道德推理能力”[27](138),故這些預(yù)置的人類基本價(jià)值規(guī)范將賦予人工智能一定的道德推理能力,在此基礎(chǔ)上,預(yù)置的人類基本價(jià)值規(guī)范還可以為具備一定道德推理能力的人工智能從數(shù)據(jù)信息中提取出價(jià)值規(guī)范提供參考與借鑒,具體表現(xiàn)為,人工智能的道德價(jià)值提取將從原先的“數(shù)據(jù)信息”“價(jià)值規(guī)范”演變?yōu)椤叭祟惢緝r(jià)值規(guī)范數(shù)據(jù)信息”“價(jià)值規(guī)范”。人工智能的道德推理能力以及其道德價(jià)值提取過程的演變應(yīng)該能夠在一定程度上消解人工智能面臨的道德價(jià)值提取挑戰(zhàn)。

        其次,關(guān)于人工智能的倫理學(xué)習(xí)內(nèi)容,應(yīng)包括預(yù)置的人類基本價(jià)值規(guī)范和刻畫人類倫理行為的數(shù)據(jù)信息。一方面,人類基本價(jià)值規(guī)范是人類已達(dá)成共識的道德價(jià)值,并且經(jīng)受了時(shí)間和人類道德實(shí)踐的雙重檢驗(yàn),可以被視為人類在意識思維下形成的道德認(rèn)識和道德選擇,因而不會(huì)面臨“有限倫理”的挑戰(zhàn)。另一方面,在人工智能基于訓(xùn)練數(shù)據(jù)進(jìn)行倫理學(xué)習(xí)時(shí),預(yù)置的人類基本價(jià)值規(guī)范可以幫助人工智能識別和約束刻畫了人類無意識狀態(tài)下的不道德行為的數(shù)據(jù)信息,對由此產(chǎn)生的人工智能的錯(cuò)誤倫理學(xué)習(xí)進(jìn)行有效道德糾偏,從而幫助人工智能應(yīng)對道德價(jià)值來源的合道德性挑戰(zhàn)。

        結(jié)語

        “見賢思齊”是人類道德養(yǎng)成和糾偏的有效方法,將這一方法擴(kuò)展到人工智能倫理領(lǐng)域,使人工智能在倫理上向人類看齊,實(shí)現(xiàn)人工智能與人類的價(jià)值對齊,將可以有效防范人工智能倫理風(fēng)險(xiǎn)。但是從規(guī)范倫理學(xué)和行為倫理學(xué)來看,當(dāng)前主流的基于機(jī)器學(xué)習(xí)的人工智能價(jià)值對齊路徑面臨著道德價(jià)值提取挑戰(zhàn)和道德價(jià)值來源合道德性挑戰(zhàn),這是基于各類機(jī)器學(xué)習(xí)技術(shù)的人工智能價(jià)值對齊路徑所具有的深刻倫理缺陷。對這些倫理缺陷的揭示不僅有助于發(fā)現(xiàn)人工智能價(jià)值對齊技術(shù)發(fā)展中隱藏的倫理障礙以便推動(dòng)人工智能價(jià)值對齊技術(shù)實(shí)現(xiàn)突破,同時(shí)還將有助于解釋當(dāng)前已經(jīng)出現(xiàn)的偽對齊、欺騙性對齊等價(jià)值對齊失?,F(xiàn)象。

        此外,人工智能的道德價(jià)值提取挑戰(zhàn)和道德價(jià)值來源合道德性挑戰(zhàn)沖擊了實(shí)現(xiàn)人工智能價(jià)值對齊的倫理可能性和合理性。因而若想實(shí)現(xiàn)真正的人工智能價(jià)值對齊,必須消解這兩大挑戰(zhàn)。在當(dāng)前的弱人工智能時(shí)代,這兩大挑戰(zhàn)的根源主要在于人工智能倫理學(xué)習(xí)的方式(機(jī)器學(xué)習(xí))和內(nèi)容(數(shù)據(jù)信息)?;谶@一認(rèn)識,在弱人工智能時(shí)代,可通過“基于邏輯”+“基于機(jī)器學(xué)習(xí)”相結(jié)合的倫理學(xué)習(xí)方式教會(huì)人工智能人類的價(jià)值規(guī)范和倫理偏好來實(shí)現(xiàn)人工智能價(jià)值對齊。將來,若隨著人工智能技術(shù)的發(fā)展,人工智能產(chǎn)生了自我意識、情感、實(shí)踐理性和德性品格等,像人類一樣具備了內(nèi)省式的倫理學(xué)習(xí)能力,人工智能的道德價(jià)值提取挑戰(zhàn)和道德價(jià)值來源合道德性挑戰(zhàn)則將不復(fù)存在,那時(shí)就可以基于人工智能對人類的道德認(rèn)同來實(shí)現(xiàn)人工智能與人類的價(jià)值對齊,并嘗試構(gòu)建人工智能與人類的價(jià)值共同體,從而達(dá)到人工智能與人類的共存、共生、共融。

        [參考文獻(xiàn)]

        [1]WIENER N. Some Moral and Technical Consequences of Automation:As Machines Learn They May Develop Unforeseen Strategies at Rates that Baffle Their Programmers[J].Science,1960,131(3410).

        [2]RUSSELL S,DEWEY D,TEGMARK M. Research Priorities for Robust and Beneficial Artificial Intelligence[J].AI Magazine,2015,36(4).

        [3]ACHIAM J,ADLER S,AGARWAL S,et al. GPT-4 Technical Report[J/OL].Arxiv Preprint,(2024-03-01)[2024-03-04].https://arxiv.org/abs/2303.08774.

        [4]閆坤如.人工智能價(jià)值對齊的價(jià)值表征及倫理路徑[J].倫理學(xué)研究,2024(4).

        [5]休謨.人性論[M].關(guān)文運(yùn),譯.北京:商務(wù)印書館,2016.

        [6]韋伯.社會(huì)科學(xué)方法論[M].朱紅文,陳亞明,鄧建平,等譯.北京:中國人民大學(xué)出版社,1992.

        [7]摩爾.倫理學(xué)原理[M].陳德中,譯.北京:商務(wù)印書館,2017.

        [8]陳曉平.“是—應(yīng)該”問題及其解答[J].現(xiàn)代哲學(xué),2002(3).

        [9]程仲棠.從“是”推不出“應(yīng)該”嗎?(上):休謨法則的哲學(xué)根據(jù)質(zhì)疑[J].學(xué)術(shù)研究,2000(10).

        [10]KIM T W,HOOKER J,DONALDSON T. Taking Principles Seriously:A Hybrid Approach to Value Align? ment in Artificial Intelligence[J].Journal of Artificial Intelligence Research,2021,70.

        [11]肖峰.人工智能與認(rèn)識論的哲學(xué)互釋:從認(rèn)知分型到演進(jìn)邏輯[J].中國社會(huì)科學(xué),2020(6).

        [12]薛桂波,趙建波.從“應(yīng)當(dāng)”到“是”:人工智能倫理規(guī)范實(shí)踐策略探析[J].自然辯證法研究,2023(1).

        [13]孫偉平.價(jià)值哲學(xué)視域中的算法歧視與社會(huì)公正[J].哲學(xué)研究,2023(3).

        [14]ANDERSON S L,ANDERSON M. A Prima Facie Duty Approach to Machine Ethics:Machine Learning of Features of Ethical Dilemmas,Prima Facie Duties,and Decision Principles Through a Dialogue with Ethicists[M]// ANDERSON S L,ANDERSON M(eds.). Machine Ethics. Cambridge:Cambridge University Press,2011.

        [15]CHUGH D,BAZERMAN M H,BANAJI M R. Bounded Ethicality as a Psychological Barrier to Recogniz? ing Conflicts of Interest[M]//MOORE D A,CAIN D M,LOEWENSTEIN G,et al(eds.). Conflicts of Interest:Chal? lenges and Solutions in Business,Law,Medicine,and Public Policy. Cambridge:Cambridge University Press,2005.

        [16]劉易斯-伯克,布里曼,廖福挺.社會(huì)科學(xué)研究方法百科全書精編版A-D[M].沈崇麟,趙鋒,高勇,譯.重慶:重慶大學(xué)出版社,2022.

        [17]SIMON H. Reason in Human Affairs[M].Stanford:Stanford University Press,1983.

        [18]倪梁康.意識現(xiàn)象學(xué)與無意識研究的可能性[J].中國社會(huì)科學(xué),2021(3).

        [19]盧毅.“無意之罪”何以歸責(zé)?:哲學(xué)與精神分析論域下的“無意識意愿”及其倫理意蘊(yùn)[J].哲學(xué)研究,2020(1).

        [20]BARGH J A,CHARTRAND T L. The Unbearable Automaticity of Being[J].American Psychologist,1999,54(7).

        [21]SEZER O,GINO F,BAZERMAN M H. Ethical Blind Spots:Explaining Unintentional Unethical Behavior[J].Current Opinion in Psychology,2015(6).

        [22]DUNNING D. A Newer Look:Motivated Social Cognition and the Schematic Representation of Social Con? cepts[J]. Psychological Inquiry,1999,10(1).

        [23]BAZERMAN M H,CHUGH D. Bounded Awareness:Focusing Failures in Negotiation[M]//Negotiation Theo? ry and Research. New York:Psychology Press,2006.

        [24]閆宏秀,李洋.價(jià)值對齊是人類通往未來的“必經(jīng)之路”嗎?[J].科學(xué)·經(jīng)濟(jì)·社會(huì),2024(2).

        [25]龔群.論弱人工智能體的道德性考察[J].哲學(xué)研究,2023(3).

        [26]ROFF H M. Expected Utilitarianism[J/OL].Arxiv Preprint,2008[2024-03-04].https://arxiv.org/abs/2008.07321.

        [27]閆坤如.人工智能體價(jià)值對齊的分布式路徑探賾[J].上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2024(4).

        (責(zé)任編輯:孫保學(xué))

        ①這一研究思路借鑒了金泰旺(Tae Wan Kim)、約翰·胡克(John Hooker)和托馬斯·唐納森(Thomas Donaldson)等人的文章。參見Tae Wan Kim,John Hooker and Thomas Donaldson,“Taking Principles Seriously:A Hybrid Approach to Value Alignment in Artificial Intelligence”,in Journal of Artificial Intelligence Research,2021,Vol.70,pp.873—875。

        ②在《道德原則研究》中,休謨認(rèn)為“我們所持的假設(shè)卻是淺顯明白的。它堅(jiān)持道德性是由情感所規(guī)定的。它將德性界定為凡是給予旁觀者以快樂的贊許情感的心理活動(dòng)或品質(zhì),而惡行則相反”。參見休謨:《道德原則探究》,曾曉平譯,商務(wù)印書館2001年版,第141頁。

        ③休謨在《道德原則研究》中對理性和趣味的界限和作用做了區(qū)分,認(rèn)為“前者傳達(dá)關(guān)于真理和謬誤的知識;后者產(chǎn)生關(guān)于美和丑、德性和惡行的情感”。參見休謨:《道德原則探究》,曾曉平譯,商務(wù)印書館2001年版,第146頁。

        ①即如果輸入的是垃圾數(shù)據(jù),那么輸出的也將是垃圾數(shù)據(jù)。

        ①“壓抑本身是一種無意識的防御機(jī)制,它可以將已經(jīng)歷的意識生活連同其沉淀物排擠和轉(zhuǎn)移到無意識領(lǐng)域,并使其不再能夠有意識地受支配?!眳⒁娔吡嚎担骸兑庾R現(xiàn)象學(xué)與無意識研究的可能性》,載《中國社會(huì)科學(xué)》2021年第3期,第149頁。

        猜你喜歡
        挑戰(zhàn)規(guī)范人工智能
        來稿規(guī)范
        來稿規(guī)范
        PDCA法在除顫儀規(guī)范操作中的應(yīng)用
        來稿規(guī)范
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        嘰咕樂挑戰(zhàn)
        嘰咕樂挑戰(zhàn)
        下一幕,人工智能!
        精品蜜桃视频在线观看| 国产又滑又嫩又白| 国内精品一区视频在线播放| 日本女优一区二区在线免费观看 | 成人国产永久福利看片| 青青草视频在线观看视频免费| 麻豆91蜜桃传媒在线观看| 日韩成人无码| 亚洲阿v天堂网2021| av在线不卡一区二区三区| 中国一级特黄真人片久久| 蜜桃麻豆www久久囤产精品| 无码中文日韩Av| 一区二区日本免费观看| 亚洲国产av无码精品| 18禁高潮出水呻吟娇喘蜜芽| 国产亚洲欧美另类久久久| 男女深夜视频网站入口| 中文字幕色av一区二区三区| 成人免费ā片在线观看| 久久一区av蜜桃人妻| 人妻中文字幕日韩av| 一本久久伊人热热精品中文字幕| 免费视频一区二区| av手机天堂在线观看| 老熟女富婆激情刺激对白| 亚洲欧美另类激情综合区| 日韩AV无码中文无码AV| 大香蕉国产av一区二区三区| 亚洲精品久久久久中文字幕| 国产一级毛片AV不卡尤物| 人妖系列在线免费观看| 邻居少妇张开腿让我爽了一夜| 亚洲 暴爽 av人人爽日日碰| 中国免费一级毛片| 亚洲天堂精品一区入口| 天美传媒一区二区| 一区二区三区国产在线网站视频 | 40分钟永久免费又黄又粗| 激情文学婷婷六月开心久久| 精品亚洲一区二区三区在线观看|