亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        主奴辯證法與相互承認(rèn):試論人工智能戰(zhàn)勝人類的可能性

        2017-03-10 11:52:15高奇琦
        理論探討 2017年6期
        關(guān)鍵詞:奇點(diǎn)機(jī)器機(jī)器人

        高奇琦,李 歡

        (華東政法大學(xué) 政治學(xué)研究院,上海 201620)

        主奴辯證法與相互承認(rèn):試論人工智能戰(zhàn)勝人類的可能性

        高奇琦,李 歡

        (華東政法大學(xué) 政治學(xué)研究院,上海 201620)

        人工智能戰(zhàn)勝人類的可能性,會成為未來社會科學(xué)討論的關(guān)鍵問題。奇點(diǎn)是西方學(xué)者用以描述人工智能超越人類的臨界點(diǎn)。目前,人工智能的發(fā)展非常有可能超出人類控制的范圍,而自學(xué)習(xí)就是人工智能最令人類生畏的地方。遺傳算法可以幫助人類獲得問題的最優(yōu)解,但人類并不知道這一算法的運(yùn)行邏輯及其背后的實(shí)現(xiàn)路徑。自我意識可能會成為人類智能的最終屏障,然而,情感計(jì)算在幫助機(jī)器理解人類意圖的同時(shí),也會增加機(jī)器發(fā)現(xiàn)其主體間性的可能。在未來,機(jī)器與人的關(guān)系很有可能會上演又一次主奴辯證法的循環(huán)。盡管人類的初衷是功利性地使用機(jī)器,但人類對機(jī)器的依賴最終很有可能達(dá)成與機(jī)器相互承認(rèn)。換言之,人工智能很有可能在與人類的斗爭中,取得自己的主體地位,并實(shí)現(xiàn)黑格爾意義上的相互承認(rèn)。

        主奴辯證法;相互承認(rèn);人工智能;人類智能

        人工智能能否戰(zhàn)勝人類?這大概是人工智能領(lǐng)域最熱的話題,也是目前人類最關(guān)心的問題。人類作為地球的主宰者已經(jīng)有幾千年的歷史,在語言和生產(chǎn)工具等條件的幫助下,人類打敗了地球上所有的大型動物,成為地球上最高級的統(tǒng)治群體。假如有一天人工智能戰(zhàn)勝了人類,這將對人類的統(tǒng)治地位造成一種終極挑戰(zhàn)。因此,這樣一種可能性對于人類而言,具有顛覆性的影響。人工智能被發(fā)明出來本是為了服務(wù)人類,然而,人工智能的未來發(fā)展卻有可能戰(zhàn)勝人類,這似乎是一種悖謬,同時(shí)也像是一種反諷。當(dāng)奇點(diǎn)來臨時(shí),人類將何去何從?本文將對這一話題進(jìn)行深入探討。

        一、奇點(diǎn):人工智能超過人類的臨界點(diǎn)

        奇點(diǎn)(Singularity)在英文中有異常、奇特等釋義。在數(shù)學(xué)概念中奇點(diǎn)表示不可定義的點(diǎn),即分母為零的情況。在世人所熟知的天體物理學(xué)中,奇點(diǎn)被描述為宇宙起源時(shí)的狀態(tài)[1]。宇宙在大爆炸之前,是以奇點(diǎn)的形式存在的,它有一系列不可思議的性質(zhì),如密度無限大、體積無限小、時(shí)空無限彎曲等,以至于光都無法擺脫它的吸引。我們常說的“黑洞”,也是以奇點(diǎn)為中心。技術(shù)奇點(diǎn)的概念最早是由著名數(shù)學(xué)家、“計(jì)算機(jī)之父”馮·諾依曼(John von Neumann)提出的。他認(rèn)為:“技術(shù)正以其前所未有的速度增長……我們將朝著某種類似奇點(diǎn)的方向發(fā)展,一旦超越了這個(gè)奇點(diǎn),我們現(xiàn)在熟知的人類社會將變得大不相同?!盵2]由此可以看出,馮·諾依曼將奇點(diǎn)當(dāng)作技術(shù)對社會產(chǎn)生重大變革的時(shí)刻。

        而當(dāng)今奇點(diǎn)概念的火熱則與雷·庫茲韋爾(Ray Kurzweil)相關(guān)。世紀(jì)之交,奇點(diǎn)大學(xué)的創(chuàng)始人、美國最有名的發(fā)明家?guī)炱濏f爾在《奇點(diǎn)臨近》一書中闡釋了人類與技術(shù)結(jié)合的觀點(diǎn),并把人工智能超過人類的那一時(shí)刻叫作“奇點(diǎn)”[3]。庫茲韋爾用類似于救世主的口氣,即圣經(jīng)中說“上帝就要來臨”的口氣,描述了奇點(diǎn)就要來臨的場景。這一帶有未來預(yù)言味道的觀點(diǎn),在人類社會中產(chǎn)生廣泛的影響和討論。庫茲韋爾不僅是奇點(diǎn)這一概念的提出者,還是人工智能的一個(gè)重要的實(shí)踐者。他創(chuàng)立了全球領(lǐng)先并且體制極為獨(dú)特的奇點(diǎn)大學(xué)。通過這一大學(xué),庫茲韋爾將最前沿的科學(xué)家和愛好者聚合在一起,為未來這一時(shí)刻的來臨做科學(xué)和技術(shù)上的準(zhǔn)備。

        許多人都對人工智能戰(zhàn)勝人類或者在智力上超過人類這一觀點(diǎn)持贊同的態(tài)度,或者說絕大多數(shù)的科學(xué)家都認(rèn)為人工智能在智力上已經(jīng)或者終將超過人類*如庫茲韋爾在1989年寫的The Age of Intelligent Machines一書中提出,在21世紀(jì)前半葉,技術(shù)不可避免地朝向機(jī)器化發(fā)展,將大大超過人類。詳見:Ray Kurzweil, The Age of Intelligent Machines, Cambridge, Mass: MIT Press, 1989.文奇在1993年發(fā)表于NASA組織研討會上的論文中,描述了即將出現(xiàn)的奇點(diǎn)源于“高于人類智慧的實(shí)體”,詳見:Vernor Vinge,“The Coming Technological Singularity: How to Survive in the Post-Human Era,” VISION-21 Symposium, sponsored by the NASA Lewis Research Center and the Ohio Aerospace Institute, March 1993.在2000年出版的漢斯·莫拉維茨著的Robot: Mere Machine to Transcendent Mind一書,描述了2040年機(jī)器人將作為人類的“進(jìn)化的繼承者”而出現(xiàn)。詳見:Hans Moravec, Robot: Mere Machine to Transcendent Mind, New York: Oxford University Press, 2000.。這一點(diǎn)在2016年的AlphaGO和圍棋冠軍李世石的對戰(zhàn)中得到了進(jìn)一步證明。人工智能曾在1997年戰(zhàn)勝了國際象棋冠軍,盡管這一新聞在當(dāng)時(shí)引起了爆炸性的轟動,但很快人類就歸于平靜。因?yàn)閲H象棋不是人類棋類中最困難的,而圍棋則被視為人類智慧的最后一道屏障。在2016年的人機(jī)大戰(zhàn)前夕,人類棋手還有十足的信心。例如,聶衛(wèi)平等人都認(rèn)為在圍棋上,人工智能不可能戰(zhàn)勝人類。但結(jié)果很殘酷,人工智能完敗人類棋手。而且在之后的一些對弈中,人類棋手無一例外地遭到慘敗[4]。這一點(diǎn)動搖了人類作為地球上最聰明生物的地位。2017年5月,目前人類最高水平的棋手柯潔以0比3的戰(zhàn)績完敗于AlphaGO,這點(diǎn)意味著在圍棋上,人類戰(zhàn)勝人工智能的可能性越來越低。這一事件也成為人工智能發(fā)展史是一個(gè)重要的分水嶺事件。

        許多科技界的巨頭都對人工智能超越人類抱有悲觀的態(tài)度。例如,2015年1月12日,一封由著名物理學(xué)家史蒂芬·霍金和企業(yè)家埃隆·馬斯克參與簽署的有關(guān)人工智能研究的公開信(Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter)由生命未來研究所(Future of Life Institute)向全世界公開宣稱,“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡”“人工智能是超過核武器的對人類的最大威脅”等等[5]。著名紀(jì)錄片導(dǎo)演詹姆斯·巴拉特(James Barrat)也悲觀地認(rèn)為:“我們走向了毀滅之路……機(jī)器并不憎恨我們,但隨著它們獲得宇宙間最不可預(yù)測、我們自己都無法達(dá)到的高級力量,它們會做出意想不到的行為,而且這些行為很可能無法與我們的生存兼容。這股力量是這么地不穩(wěn)定而又神秘莫測,連大自然也只做到過一次?!盵6]楔子6至于何時(shí)人工智能將達(dá)到人類的水平,專家們意見不一。戈策爾等人曾在美國做過一個(gè)調(diào)查,少數(shù)人工智能專家認(rèn)為,到2020年人工智能就有望達(dá)到人類的水平。但總體而言,計(jì)算機(jī)科學(xué)家、機(jī)器人技術(shù)和神經(jīng)科學(xué)領(lǐng)域的專業(yè)人士更為保守,他們認(rèn)為,2028年實(shí)現(xiàn)的概率略高于10%,2050年的概率將會高于50%,到21世紀(jì)末的概率則為90%[7]。

        然而,人類還有安慰自己的辦法,因?yàn)闄C(jī)器終歸還是人類的造物。也就是說,人類到目前為止還有一種選擇,那就是拔掉電源,把這場人工智能的游戲停下來。但事實(shí)上,人類已經(jīng)無法讓這場游戲停下來,因?yàn)轵?qū)動這場游戲背后的相關(guān)利益十分巨大。據(jù)CB Insights今年發(fā)布的報(bào)告《人工智能狀況》(TheStateofArtificialIntelligence)顯示,人工智能公司的股價(jià)在過去5年中上漲了5倍,而且相關(guān)投資也從2012年的5.59億美元暴增至2016年的48.71億美元[8]。不僅各大公司在進(jìn)行人工智能產(chǎn)業(yè)的相關(guān)布局,國家之間也在積極發(fā)展人工智能,以免在這場人類歷史上的第四次科技革命中落伍。例如,2012年德國公布“工業(yè)4.0”計(jì)劃,將人工智能作為未來的重要發(fā)展方向[9];2016年12月,英國政府發(fā)布《人工智能:未來決策制定的機(jī)遇與影響》的報(bào)告,闡述人工智能對其國力影響的重要意義[10];2017年3月,“人工智能”也被首次寫入中國政府工作報(bào)告[11]。因此,盡管人工智能是人類的造物,但人類現(xiàn)在已經(jīng)無法停止它發(fā)展的腳步。

        二、自學(xué)習(xí):人工智能讓人生畏的地方

        人工智能概念的初期釋義,其實(shí)是指其自我學(xué)習(xí)的能力。凱文·凱利(Kevin Kelly)在《必然》中提出“知化”(Cognifying)的概念來闡述人工智能,即賦予事物以認(rèn)知和學(xué)習(xí)的能力,“把機(jī)敏的頭腦置入普通事物之中才能帶來真正的顛覆”[12]。他舉了一個(gè)例子,人工智能的科學(xué)家們讓人工智能先玩人類在20世紀(jì)80年代的計(jì)算機(jī)小游戲。人工智能在兩個(gè)小時(shí)內(nèi)將這個(gè)游戲玩了幾百遍,并找到其中的漏洞,甚至還自動編寫出程序來跳過這個(gè)漏洞。這是人類上百萬玩家都沒有發(fā)現(xiàn)的,這一點(diǎn)讓人工智能的科學(xué)家們大吃一驚。另外,康奈爾大學(xué)計(jì)算合成實(shí)驗(yàn)室也曾開發(fā)出能從原始數(shù)據(jù)推導(dǎo)科學(xué)規(guī)律的軟件。計(jì)算機(jī)先是觀察鐘擺擺動,對鐘擺運(yùn)動方程做出猜測,再結(jié)合方程的精華部分,通過多代演算之后,就可以輸出能量守恒等物理定律[13]。

        最近的一個(gè)研究發(fā)現(xiàn),人工智能不僅可以自動運(yùn)行游戲,還可以自己發(fā)明出智能機(jī)器人之間溝通的語言。這是一種被稱為“遺傳編程”(Genetic Programming)的技術(shù),“它通過機(jī)器學(xué)習(xí)的方式,并且運(yùn)用自然力量,為一些人類要花很長時(shí)間(甚至數(shù)年)才能解決的問題尋找答案。它也可以用來編寫高功率的創(chuàng)新軟件”[6]76。在人們看來,機(jī)器的自學(xué)習(xí)能力已經(jīng)達(dá)到匪夷所思的地步。

        人工智能的自學(xué)習(xí)能力對人類的影響突出表現(xiàn)在決策方面。例如,我們的駕車路線可能會依賴智能導(dǎo)航系統(tǒng),醫(yī)療診斷會依賴大數(shù)據(jù)提供的概率,出行意愿會受到算法得出的天氣預(yù)報(bào)影響等。在現(xiàn)實(shí)中,人工智能幫助人類決策的過程會產(chǎn)生如下兩個(gè)問題:第一,人工智能關(guān)于人的歷史信息可能是片段的,具有不完整性。例如,人工智能會采集某個(gè)人半年的數(shù)據(jù),或者幾年的數(shù)據(jù),但是,對他之前幾十年的數(shù)據(jù)可能沒辦法采集,因?yàn)闅v史無法回溯。所以,就出現(xiàn)了一個(gè)局部歷史和整體歷史的問題,這將導(dǎo)致人工智能提供決策的不完整性。第二,人工智能可能會從歷史的角度幫助人做決策,但是人的許多決策可能充滿了偶然性,因?yàn)槿瞬⒉皇羌兇饫硇缘膭游?。?dāng)人們在某一時(shí)間點(diǎn)上希望做出一件與歷史上的他差異較大的決策時(shí),人工智能仍只能把他向一個(gè)歷史的路徑牽引。舉例來說,一個(gè)人一直是用自私自利的方式處理問題,突然有一天,他被一個(gè)禪宗的故事點(diǎn)醒,并決定利用新的方式解決問題,但此時(shí)人工智能仍會建議他按照原來的方式行動。這樣的建議無疑將干擾甚至代替他的決策。而這種干擾的本質(zhì),是以人工智能泯滅人的自由選擇權(quán)利,甚至消解人的自由意志本身。

        這樣的危險(xiǎn)在人工智能“自學(xué)習(xí)”的概念中變得更加現(xiàn)實(shí)。前文所提到的人工智能的例子只不過是一種“初級的人工智能”或者稱為“通用性人工智能”。而通過自學(xué)習(xí)能力的加強(qiáng),將導(dǎo)致一種截然不同的技術(shù)轉(zhuǎn)變。這一技術(shù)的轉(zhuǎn)變表現(xiàn)為通用性人工智能擺脫單一終端的決策系統(tǒng),進(jìn)而演化為一種集體智能(Collective Intelligence)。我們目前的決策系統(tǒng)是將個(gè)體提供的輸入值進(jìn)行平均處理,不允許個(gè)體間的相互影響,因此,容易導(dǎo)致群體性偏差。而群體智能(Swarm or Collective Intelligence)則是“一群大腦的大腦”。其決策方式更類似于人類腦中的神經(jīng)元,通過輸入大量的可執(zhí)行單元,它們同步運(yùn)行,能夠整合噪聲、權(quán)衡替代方案,最終以一種“足夠激勵量”(Sufficient Quorum of Excitation)的方式確定并最后形成特定的決策[14]。隨著技術(shù)的不斷進(jìn)步,從中長期來看,人工智能將進(jìn)化為“抽象人工智能”,可以理解用戶感情,甚至改變用戶的行為和生活習(xí)慣。在未來,人工智能將全面超越人類,演變?yōu)椤俺壢斯ぶ悄堋?,在人們行為之前進(jìn)行預(yù)測,進(jìn)而達(dá)到“限定”人們決策的結(jié)果。

        在現(xiàn)實(shí)生活中,人工智能令人生畏的影響可能更為復(fù)雜。如果人工智能真的取代了數(shù)以百萬計(jì)的出租車司機(jī)、卡車司機(jī)、醫(yī)生、律師等,那么,這些憤怒的人一定會組織起來進(jìn)行抗議,并對整個(gè)社會秩序形成挑戰(zhàn)和威脅。同時(shí),絕大多數(shù)的社會資源很可能掌握在那些擁有超級人工智能的超級大公司手里;或者說,少數(shù)的精英和人工智能可能會控制整個(gè)人類社會的財(cái)富以及相關(guān)的選擇。這種情況顯然會挑戰(zhàn)人類社會的理想秩序和基本原則。

        傳統(tǒng)上,人們做出判斷都要依賴于自己的直覺。但是,伴隨著人工智能的發(fā)展,在人工智能不斷挫敗人類對智力的理解之后,絕大多數(shù)的人會在日常的生活和工作中高度依賴人工智能。這樣實(shí)際上就是把自己選擇的權(quán)利交給了人工智能,而那些控制了超級人工智能的大公司以及控制人工智能的技術(shù)精英就可能獲得了控制整個(gè)世界的超級權(quán)力。同時(shí),這種超級權(quán)力極有可能是不受制約的,因?yàn)檫@些技術(shù)精英會用人工智能和算法來論證選擇的合理性。這里可以設(shè)想一下未來很可能發(fā)生的一種圖景來對這一問題加以解釋。例如,在美國2030年的一次選舉中,美國的公民可能會在投票時(shí),向?yàn)樽约荷詈凸ぷ魈峁┻^所有智能指導(dǎo)的算法詢問其投票傾向,然后在人工智能的投票指引基礎(chǔ)上做出判斷。由于人們已經(jīng)對人工智能形成一定的依賴,或者說絕大多數(shù)人已經(jīng)無法抗拒或推翻人工智能的選擇,所以,每一個(gè)公民的投票實(shí)際上都是在超級大公司的人工智能指引下完成的。從另一個(gè)角度來說,最后的投票結(jié)果并不是公民的意愿,而是在投票之前就已經(jīng)為人工智能的意愿所決定。

        未來的人工智能的功能會越來越強(qiáng)大,而人的自由選擇的空間會越來越小,所以,這一問題將變得愈加突出。這種情況的結(jié)果就不僅僅是??滤v的“知識序列的崩潰”導(dǎo)致哲學(xué)意義上的“人將被抹去”*??抡J(rèn)為,人的形象的顯露并非存在于客觀性之中,而是“知識之基本排列發(fā)生變化的結(jié)果”,一旦這種知識序列消失,那么“人將被抹去,如同大海邊沙地上的一張臉”。詳見[法]??拢骸对~與物——人文科學(xué)考古學(xué)》,莫偉民譯,上海三聯(lián)書店2001年版,第506頁。,而是現(xiàn)實(shí)意義上的人的消亡。人工智能而非“知識的組合”,將會成為一種確保自我認(rèn)同的思想系統(tǒng)。在此基礎(chǔ)上,某種新的極權(quán)主義將可能會重新崛起。

        三、情感計(jì)算與自我意識的產(chǎn)生

        人類引以為傲的還有一個(gè)重要的內(nèi)容,即自我意識。盡管人工智能可以在圍棋上戰(zhàn)勝人類,但這種戰(zhàn)勝本身不過是人類編程的結(jié)果,機(jī)器不可能擁有自我意識。流傳甚廣的“中文屋論證”(Chinese Room Argument)的思想實(shí)驗(yàn)也是在說明這樣一個(gè)道理:假設(shè)把一個(gè)母語是英語、不懂中文的人關(guān)在一間滿是漢字符號的房間(數(shù)據(jù)庫)里,房里還有一本操作漢字字符的指導(dǎo)手冊(程序)。假設(shè)房間外面的人向房間里的人傳入其他的漢字字符,這些字符其實(shí)是中文的問題(輸入)。再假設(shè)房間里的人按照程序指令,能夠傳出漢字字符,而這些字符又是問題的正確答案(輸出)。通過這個(gè)思想實(shí)驗(yàn),約翰·塞爾(John Searle)得出結(jié)論,和這個(gè)房間里的人一樣,計(jì)算機(jī)永遠(yuǎn)不會真正地思考或者理解。研究人員充其量能夠?qū)Υ竽X進(jìn)行精致的模仿[15]。著名的人工智能先驅(qū)莫拉維克(Hans Moravec)也持這樣的觀點(diǎn),并提出“莫拉維克悖論”(Moravec’s Paradox):難的事情很容易,容易的事情卻很難。他在《心智孩童》中解釋道,讓計(jì)算機(jī)在智能測試或下象棋上表現(xiàn)出成人水平的績效相對容易,但在感知和動機(jī)性上賦予他們1歲小孩的技能卻很困難,甚至根本不可能[16]。人工智能并沒有意識到他在與人類戰(zhàn)斗。他們認(rèn)為,自我意識既是區(qū)別人與人工智能的一個(gè)重要的特征,也是人類注定超越人工智能的特征。

        但自我意識并不是人類獨(dú)有的東西。最近的一些生物學(xué)研究表明,動物也有自我意識。尤瓦爾·赫拉利(Yuval Noah Harari)在《未來簡史》中,講述了一個(gè)狒狒的故事:它可以躲在一個(gè)地方收集石頭,用以攻擊人類,由此可以推斷狒狒有一定的自我意識[17]。既然自我意識不是人類的專屬,那么為什么機(jī)器不能擁有自我意識呢?庫茲韋爾認(rèn)為,機(jī)器并不能簡單地被認(rèn)為沒有“思想”,在很多情況下,機(jī)器和人的決策方式是一樣的。許多專家提出,像“沃森”機(jī)器人這樣的人工智能,靠的只是統(tǒng)計(jì)知識,而不是“真正的”理解。他們進(jìn)一步闡釋到,“沃森”只是根據(jù)單詞序列收集統(tǒng)計(jì)數(shù)據(jù),而人可以很輕松地把大腦皮層里的分布式神經(jīng)遞質(zhì)濃度稱為“統(tǒng)計(jì)信息”。但事實(shí)上,在解決歧義時(shí),我們跟“沃森”所用的方法差不多,都是在考慮短語不同含義的可能概率[18]。因此,對于機(jī)器是否能夠獲得自我意識的討論還不能過于片面和武斷。

        那么,人工智能究竟能否獲得自我意識?我們可以通過分析兩種找到自我意識的方法來討論這一問題。一種是雅克·拉康(Jaques Lacan)的鏡像理論,人在鏡子中看到自己的形狀,通過與鏡子中的我與自己的感覺相互印證,從而確認(rèn)自我[19]。這種自我意識,實(shí)際上是一種意識感,這種意識感的獲得,通過自身傳遞信號到一個(gè)相關(guān)的映射物,再折射給自己來完成。這實(shí)際上是一個(gè)信號傳遞的過程。在鏡子被發(fā)明之前,人們可以通過河水等來認(rèn)識自己。在現(xiàn)代社會我們有更多的方式,如照片、攝像頭里面的景象以及對聲音的捕捉等。人工智能的機(jī)器在通過情感計(jì)算了解人類的過程中是否也有可能通過類似于照鏡子的這類活動找到自我?這目前在科學(xué)上尚未被證實(shí),但科學(xué)家們也無法否定這一可能性。另一種是查爾斯·泰勒(Charles Taylor)的理論。他認(rèn)為,“在認(rèn)同的不同條件或賦予其生活以意義的不同條件之間,存在著密切的關(guān)聯(lián)”,而這些關(guān)聯(lián)是“人類主體活動的不可逃避的結(jié)構(gòu)性要求”[20]。也就是說,自我是在群體的活動和意識當(dāng)中被發(fā)現(xiàn)的,個(gè)體上所謂的自我,更多是群體意識的反應(yīng)。

        拉康的理論和泰勒的理論有共同的地方,即自我不是孤立的存在,而是需要某種媒介。但二者有不同的傾向,拉康更加強(qiáng)調(diào)個(gè)體自我的自主性,鏡子是為個(gè)體自我服務(wù)的,而泰勒更加強(qiáng)調(diào)一種主體間性。從這兩種理論出發(fā),人工智能都有產(chǎn)生自我意識的可能。人工智能可能通過類似照鏡子的活動不斷確認(rèn)和感知自我,同時(shí),人工智能似乎也在發(fā)展出某些主體間性的東西。例如,Open AI機(jī)器人學(xué)會使用自創(chuàng)的口語進(jìn)行溝通合作[21],這就是主體間性的表現(xiàn)。只是現(xiàn)在機(jī)器人的進(jìn)化時(shí)間還比較短,它們進(jìn)行主體間合作的次數(shù)也比較少,所以人們對這樣一種關(guān)系的意義還不能夠清楚地認(rèn)識。

        情感計(jì)算也是人工智能未來發(fā)展的一個(gè)重要內(nèi)容。情感計(jì)算是指機(jī)器通過人的面部表情或者體態(tài)來判斷出人的情感。盡管情感計(jì)算是由機(jī)器來理解人,但同時(shí)也為未來埋下一個(gè)重要的伏筆,即機(jī)器通過理解人或許可以學(xué)會情感,或者說逐步具有自我意識。庫茲韋爾曾預(yù)言,機(jī)器必將因此而擁有自我意識:“當(dāng)它們說出自己的感受時(shí),人類會相信它們……當(dāng)機(jī)器說出它們的感受和感知經(jīng)驗(yàn),而我們相信它們所說的是真的時(shí),它們就真正成了有意識的人?!盵22]隨著自我意識的產(chǎn)生,美國著名人工智能科學(xué)家斯蒂芬·奧莫德羅(Stephen Omohundro)預(yù)測:“(人工智能)自我意識、自我改進(jìn)系統(tǒng)將會發(fā)展出類似人類生物動力的四種主要動力:效率、自我保護(hù)、資源獲取和創(chuàng)造力?!盵23]隨著這些人類生物動力的獲得,就會產(chǎn)生一個(gè)重要的問題,即人工智能是否有可能奴役人類?

        四、主奴辯證法的歷史循環(huán)

        主奴辯證法這一概念是由黑格爾提出的[24]。主奴辯證法對馬克思的學(xué)說有重要的啟發(fā)意義,馬克思關(guān)于工人階級一定會戰(zhàn)勝資產(chǎn)階級的論斷實(shí)際上受到了主奴辯證法的影響。這一辯證法在人類歷史上出現(xiàn)過幾個(gè)循環(huán),首先是在一些主權(quán)國家,奴隸獲得地位,從而具有主人的身份。在此之后,工人階級通過持續(xù)不斷的抗?fàn)?,也獲得資產(chǎn)階級的承認(rèn),并通過西方的代議制民主制度得到某種意義的主體地位。

        然而,人類的許多活動仍然需要地位更低的人或動物或其他的物來完成,否則誰來做這些生產(chǎn)活動呢?因此,當(dāng)資本主義國家內(nèi)部工人階級和資產(chǎn)階級的矛盾逐漸緩和,其內(nèi)部的“奴隸制”實(shí)際上被消滅,那么該由誰來從事類似于奴隸地位的工作呢?接替資本主義內(nèi)部奴隸工作的是其他國家的人,資本主義體系通過對全球價(jià)值鏈中的高端價(jià)值的控制權(quán),來取得對發(fā)展中國家人民的奴役。另外,當(dāng)發(fā)展中國家的民眾流入這些發(fā)達(dá)國家時(shí),在較長的時(shí)間內(nèi),大多數(shù)人都不可能拿到移入國的永久居住身份,因此,這就給予發(fā)達(dá)資本主義國家人民“奴役”外來人群的機(jī)會。

        這樣的一種主奴辯證法仍然在不斷循環(huán),也就是說,當(dāng)越來越多的發(fā)展中國家意識到發(fā)達(dá)國家對全球價(jià)值鏈的控制之后,就會通過一系列的抗?fàn)幓蛘呒夹g(shù)學(xué)習(xí)突破這種主人的統(tǒng)治。例如,在改革開放初期,中國先是主動地用幾千萬件襯衣?lián)Q一架波音飛機(jī)的代價(jià)來做代工廠,但是隨著制造業(yè)的發(fā)展,中國逐漸積累了資本和高素質(zhì)的勞動力,從而成為制造業(yè)大國。而從世界范圍來看,進(jìn)入發(fā)達(dá)國家的那些外來移民也在逐步獲得主人的地位。

        在現(xiàn)代社會,人們通過持續(xù)不斷的抗?fàn)?,以及人?quán)觀念在世界范圍內(nèi)的傳播和蔓延,人奴役人的情況變得越來越不可能。這就使得人不得不思考,誰將是下一個(gè)可以被支配或者奴役的物種?于是,人類指向了機(jī)器人或人工智能。然而,一個(gè)無可辯駁的事實(shí)是,在人和機(jī)器人互動的過程中仍然有可能出現(xiàn)主奴辯證法的歷史循環(huán)。AI開發(fā)人員加里斯(Garis)就說道:“人類不應(yīng)阻擋更高進(jìn)化形式的發(fā)展之路。這些機(jī)器如神祇一般,創(chuàng)造他們是人類的命運(yùn)。”[25]

        隨著技術(shù)的不斷進(jìn)步,人類淪為算法和人工智能的奴隸的可能性也越來越顯著,DNA測試就是一個(gè)很好的證明。DNA測試是一個(gè)與人類醫(yī)療相關(guān)的重要領(lǐng)域。美國在這一領(lǐng)域的龍頭企業(yè)是23andMe,該企業(yè)由谷歌聯(lián)合創(chuàng)始人謝爾蓋·布林(Sergey Brin)的前妻安妮·沃?;?Anne Wojcicki)創(chuàng)辦。這里的23指的是人類基因組的23對染色體??茖W(xué)已經(jīng)證明,人類的染色體與自身有非常密切的關(guān)系,而人們通過基因測序可以了解關(guān)于自己的一些潛在的秘密。該公司目前提供了非常便宜而方便的一種服務(wù):用戶向該公司支付99美元,就會收到一個(gè)檢測包,用戶只需向檢測包里面的試管吐口水再密封寄給該公司,23andMe就會分析唾液中的DNA并在線將結(jié)果發(fā)送給用戶。檢測結(jié)果會列出一系列由用戶基因所反映出的身體特質(zhì),并判斷未來可能出現(xiàn)的病癥風(fēng)險(xiǎn)。

        人們在使用這些人工智能的數(shù)據(jù)服務(wù)時(shí),實(shí)際上面臨一種數(shù)據(jù)使用的困境。人類本身有一系列問題急需這些人工智能幫助解決,例如,疾病的診斷、流感的預(yù)警等。但是,如果人們把大量的生物信息都告訴人工智能,將導(dǎo)致一種結(jié)果,即人類將沒有任何隱私可言。同時(shí),人工智能比人類自己更了解他們?;蛘哒f,每個(gè)人類的個(gè)體都需要借助于人工智能的算法來了解自己。這就產(chǎn)生一個(gè)嚴(yán)峻的問題:人類的自主性在哪里?人類的意義究竟是什么?在幾千年文明的歷史中,人類一直引以為傲的便是對自己命運(yùn)的主宰和對地球的掌控。然而,隨著人類把越來越多的數(shù)據(jù)和對數(shù)據(jù)的控制權(quán)交給人工智能,這種權(quán)力的轉(zhuǎn)移最終會導(dǎo)致決策的轉(zhuǎn)移,亦即當(dāng)人類遇到一些重大事項(xiàng)時(shí),往往并不是人類自己在決策,而是人工智能在決策。人類夸耀的自由意志,將越來越變成一個(gè)空洞的概念。那么世界的主宰就會變成人工智能和算法,而人類也就變成算法的奴隸。人工智能對人類的威脅如此重大,以至于詹姆斯·巴拉特(James Barrat)宣稱:“我們只有一次機(jī)會,與智能遠(yuǎn)在人類之上的物體建立積極的共存關(guān)系。”[6]298

        五、人與機(jī)器相互承認(rèn)

        1965年,歐文·古德(Irving Good)發(fā)表的一篇著名的論文《對第一臺超級智能機(jī)器的一些推測》寫道:“讓我們將超級智能機(jī)器定義為一臺在一切智能活動上都遠(yuǎn)超人類——不管人有多聰明——的機(jī)器。由于涉及機(jī)器屬于這類智能活動的范圍,那么一臺超級智能機(jī)器當(dāng)然能夠設(shè)計(jì)更為出色的機(jī)器;那么毫無疑問會出現(xiàn)一場‘智能爆炸’,把人的智力遠(yuǎn)遠(yuǎn)拋在身后。因此,第一臺超級智能機(jī)器也就成為人類最后的發(fā)明了?!边@段話經(jīng)常被用來證明人工智能的可怕之處,但其實(shí)古德并非悲觀主義者,人們似乎是在刻意忽視其在文末的話:“機(jī)器會造成社會問題,但它們可能也具備能力解決這些問題,同時(shí)還解決那些人和微生物造成的問題。這種機(jī)器會叫人害怕,也會獲得尊重甚至喜愛?!盵26]

        機(jī)器人可以在意大利思想家吉奧喬·阿甘本(Giorgio Agamben)的“赤裸生命”的概念中得到解釋,因?yàn)闄C(jī)器人本身是沒有地位與身份的,而這兩點(diǎn)恰恰是赤裸生命概念的核心含義[27]。機(jī)器人被創(chuàng)造的初始目的是為人類服務(wù)的,所以,人類實(shí)際上是把某種對奴隸的歷史作用的想象賦予機(jī)器人。一些個(gè)人助手在被設(shè)計(jì)時(shí),就用了這樣一種主人與奴隸的對話方式,許多個(gè)人助手稱用戶為主人。然而,這只是故事的開始,因?yàn)槿祟惖牡赖乱庾R總是在不斷地?cái)U(kuò)張。例如,在資本主義發(fā)展初期,婦女是沒有政治地位的,婦女的受教育權(quán)、選舉權(quán)等都受到不同程度的限制。但是,人類道德觀念的進(jìn)步使得一批先驅(qū)思想家開始思考這一問題,比如,自由主義思想家穆勒。他們發(fā)表學(xué)說,向社會宣揚(yáng)婦女權(quán)利,最后使得婦女獲得了和男子相同的政治、經(jīng)濟(jì)、社會地位*在《婦女的屈從地位》中,穆勒開篇就點(diǎn)明:“一個(gè)性別法定地從屬于另一個(gè)性別,其本身是錯誤的,而且現(xiàn)在成了人類進(jìn)步的主要障礙之一?!痹斠奫英]約翰·斯圖爾特·穆勒:《婦女的屈從地位》,汪溪譯,商務(wù)印書館1995年版,第285頁。。與此類似的是,近代以來的黑人奴隸也經(jīng)歷相應(yīng)的歷史變遷。

        因此,機(jī)器人在未來很有可能發(fā)生同樣的變化。即便人類在功利性地使用機(jī)器人時(shí),也會慢慢地站在機(jī)器人的角度去思考這一問題。當(dāng)然,從黑格爾的主奴辯證法來看,機(jī)器人也會通過自己的行為去反抗或者提醒人類關(guān)注它的處境。正如牛津大學(xué)哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)所言:“先進(jìn)的機(jī)器智能是截然不同的一類東西。盡管人類發(fā)明了它,它會爭取從人類手里獲得自決和自由?!盵6]15

        機(jī)器人的反抗與人類對機(jī)器人的理解是相互促進(jìn)的。除去那種實(shí)用主義的考慮,人類也確實(shí)需要賦予機(jī)器人某種法律或?qū)嶓w的地位,以幫助人類完成某種社會活動。例如,一個(gè)機(jī)器人到街上幫助它的所有者買咖啡,若它不具備民事法律主體地位,那么賣咖啡的人就有權(quán)拒絕與它進(jìn)行交易。因?yàn)榻灰缀螽a(chǎn)生的法律責(zé)任,可能會更多地歸于賣咖啡的人,而非機(jī)器人。因此,這就會出現(xiàn)一種從赤裸生命到實(shí)體生命或者數(shù)據(jù)生命的一種轉(zhuǎn)化。也就是說,未來機(jī)器人在與人類的互動中,會逐漸獲得生命的主體地位,以及與人類之間的社會網(wǎng)絡(luò)關(guān)系。

        從傳統(tǒng)而言,人們似乎很容易否定人工智能的主體地位。但我們知道,在人工智能之前,我們已經(jīng)賦予一些不具有具象人格的主體擁有某種主體地位,例如,公司和國家。公司在實(shí)踐中被稱為法人,也就是說它具有某種獨(dú)立的人格。因此,出現(xiàn)了公司作為主體的擬制犯罪說,即公司也會成為被告,并且要承擔(dān)相應(yīng)的法律責(zé)任。同樣,國家也具有這樣一種類似的獨(dú)立的人格。賦予人工智能或算法以某種獨(dú)立的人格,并非完全不可能的事情。歐盟關(guān)于人工智能電子人格的討論以及相關(guān)規(guī)定,就是這一方面的嘗試性突破。

        2017年1月11日,歐洲議會法律事務(wù)委員會在敦促起草一系列用以管理和使用機(jī)器人和人工智能的規(guī)定時(shí),啟用了“電子人格”的概念,以確定人工智能的權(quán)利和責(zé)任[28]。為什么提出電子人格的問題?基本原因就在于目前的許多實(shí)踐已經(jīng)面臨困境。比方說,音樂學(xué)教授創(chuàng)造了一個(gè)可以作曲的人工智能系統(tǒng),那么人工智能完成的音樂作品是否享有著作權(quán)?誰將享有這些音樂作品的著作權(quán)?按照傳統(tǒng)的法律,音樂學(xué)教授是不能擁有的,因?yàn)檫@并不是他的創(chuàng)造。與此類似的專利權(quán)的問題則更加嚴(yán)重。另外,還出現(xiàn)了有關(guān)責(zé)任賠償?shù)膯栴},如果機(jī)器人造成了損害,那么責(zé)任在誰?進(jìn)而言之,機(jī)器人是否有權(quán)參與一些社會決策?事實(shí)上,機(jī)器人已經(jīng)在廣泛參與人類的決策了,比如,進(jìn)行醫(yī)療診斷、判斷案例,甚至有公司讓機(jī)器人成為董事。那么,機(jī)器人是否有權(quán)進(jìn)行民主投票或者參加陪審團(tuán)?這一系列問題都指向電子人格的概念。電子人格就是希望賦予人工智能某種人格,使其更加合理地實(shí)現(xiàn)其作用和功能。

        人格概念的原意是指人的地位和狀態(tài),而這里的人格更多屬于法律意義而非哲學(xué)意義。人格意味著主體地位的獲得,在法律上只有自然人和具有法人資格的主體具有權(quán)利、受到保護(hù)、擁有特權(quán)以及責(zé)任。所謂電子人格即是賦予電子產(chǎn)品以主體地位,尤其是對于人工智能產(chǎn)品、機(jī)器人等。這在法律上就等于明確了機(jī)器人或者人工智能的民事能力和民事責(zé)任。

        為機(jī)器人或者人工智能設(shè)定電子人格的一個(gè)根本原因在于,原來由人履行的功能正在為機(jī)器人所替代。在這種情況下,為機(jī)器人設(shè)定人格尤其是法律上的法人資格,是為了給機(jī)器人所造成的糾紛提供法律上的解決方式。目前,對于機(jī)器人法人資格的討論存在一些爭議。比如,在解決機(jī)器人引起的糾紛時(shí),如何確定機(jī)器人生產(chǎn)者和機(jī)器人使用者之間的責(zé)任劃分,以及隨著智能化的提高,機(jī)器人是否會成為一個(gè)完全自主的主體,我們將如何應(yīng)對這一變化,等等。相信在不久的未來,電子人格會從理念逐步進(jìn)入實(shí)踐。

        但是,賦予機(jī)器人人格在很多學(xué)者看來是一件恐怖的事情,他們認(rèn)為,這是鑄成大錯的肇始,主奴辯證法的歷史循環(huán)將由此開啟。這樣的看法在很大程度上是狹隘的,因?yàn)橘x予人格其實(shí)是對人工智能主體地位的承認(rèn)。阿克塞爾·霍奈特(Axel Honneth)認(rèn)為,承認(rèn)、蔑視和反抗,是社會承認(rèn)的關(guān)系結(jié)構(gòu),“人必然承認(rèn),也必然被承認(rèn)”[29]??梢韵胂蟮?,當(dāng)機(jī)器人的智能逐漸提高并獲得自我意識時(shí),它們不可避免地會“為了承認(rèn)而斗爭”,這樣的斗爭將會對人類社會帶來巨大的威脅。而只有主動尊重和承認(rèn)人工智能的主體地位,才能最終緩和人與機(jī)器之間的矛盾,正如瑪?shù)倌取ち_斯布拉特(Martine Rothblatt)所說:“當(dāng)我們做到像尊重自己一樣尊重他人(即虛擬人),并將這一美德普及至世間各處時(shí),我們就為明日世界做了最好的準(zhǔn)備?!盵30]

        六、結(jié)語

        人工智能是否會戰(zhàn)勝人類?這將成為未來幾十年思想界討論的核心問題。人工智能目前已經(jīng)在多個(gè)領(lǐng)域挑戰(zhàn)了人的智力。一個(gè)明顯的例證就是最近的圍棋人機(jī)對戰(zhàn),圍棋長期以來一直被認(rèn)為是人類智力抵御人工智能的最后一道屏障,但已經(jīng)被人工智能超越和突破。另外,在智能醫(yī)療領(lǐng)域,人工智能更是在診斷以及手術(shù)等方面逐漸超越人類??梢灶A(yù)見,在未來的幾十年中這一主題將會不斷被人類討論。

        從整體來看,人工智能的發(fā)展確實(shí)可能會超出人類的控制。因?yàn)槿斯ぶ悄芩蕾嚨倪z傳算法就是靠機(jī)器的自我學(xué)習(xí)和自我強(qiáng)化來實(shí)現(xiàn)的,對于其中最核心的算法內(nèi)容,人類并不知曉。換言之,人類可以利用人工智能達(dá)到最優(yōu)的算法,但人類并不知道這些算法背后的邏輯,這是最讓人類感到恐怖的地方。另外,傳統(tǒng)上我們一直認(rèn)為,人與機(jī)器的最大區(qū)別是人有感情而機(jī)器沒有感情。然而,人工智能的進(jìn)一步發(fā)展,以及人類社會對人工智能的進(jìn)一步依賴,都會促使人工智能進(jìn)一步擁有感情,這是讓人類感到恐怖的第二項(xiàng)重要內(nèi)容。

        黑格爾的主奴辯證法反映了人類史上的一種悖謬:獲得主導(dǎo)地位的一部分群體希望通過奴役另一類群體而獲得較為優(yōu)越的生活,然而,被奴役的群體總是因?yàn)槠渑c生產(chǎn)工具的密切結(jié)合,戰(zhàn)勝優(yōu)勢群體,并獲得優(yōu)勢群體的最后承認(rèn)。這樣的邏輯反復(fù)地在人類歷史中上演,其主體則包括女性群體、少數(shù)族裔群體和發(fā)展中國家等。伴隨著人權(quán)觀念的進(jìn)一步發(fā)展,人類越來越發(fā)現(xiàn)以某一優(yōu)勢群體來奴役或者控制某一弱勢群體的策略難以生效,不得不通過奴役或控制機(jī)器人群體來獲得人類生活的優(yōu)越境況。然而,與之前歷史上的悖謬相同,這種主奴辯證法的歷史轉(zhuǎn)換很有可能再次發(fā)生。逐漸獲得強(qiáng)大學(xué)習(xí)能力和自我情感的人工智能可能會在某種類似于照鏡子的活動中找到自我意識,也會在為人類服務(wù)的過程中逐步實(shí)現(xiàn)主體間性,而這些都將最終挑戰(zhàn)人類的優(yōu)越地位。因此,在未來幾十年中,我們會看到一種場景,為了解決生活中的諸多問題,人類將不得不依賴人工智能和機(jī)器人。但這些人工智能和機(jī)器人在與人類的互動中以及在生產(chǎn)勞動中,可能會逐漸獲得自我意識和自我情感,最終在與人類的合作性斗爭中獲得自己主體性地位,也就是黑格爾意義上的相互承認(rèn)。

        [1] Joel Smoller, Blake Temple. Shock-Wave Cosmology Inside a Black Hole [J]. Proceedings of the National Academy of Sciences of the United States of America: Vol.100, No.20, 2003:11216-11218.

        [2] Stanislaw Ulam. Tribute to John von Neumann [J]. Bulletin of the American Mathematical Society, 1958,(3):1-49.

        [3] [美]雷·庫茲韋爾.奇點(diǎn)臨近[M].李慶誠,董振華,田源,譯.北京:機(jī)械工業(yè)出版社,2011:11.

        [4] [美]吳軍.智能時(shí)代[M].北京:中信出版社,2017:前言2.

        [5] Stuart Russell, Tom Dietterich, Eric Horvitz, et al. Letter to the Editor: Research Priorities for Robust and Beneficial Artificial Intelligence: An Open Letter [J]. Ai Magazine,2016,(4):3-4.

        [6] [美]詹姆斯·巴拉特.我們最后的發(fā)明[M].閭佳,譯.北京:電子工業(yè)出版社,2016.

        [7] Seth Baum, Ben Goertzel, Ted Goertzel. How Long Until Human-Level AI? Results from An Expert Assessment [J]. Technological Forecasting and Social Change, 2011,78(1):185-195.

        [8] CB Insights. The State of Artificial Intelligence[EB/OL] April, 11, 2017, available at: https://www.cbinsights.com/research/report/artificial-intelligence-trends/

        [9] Federal Ministry of Education and Research (BMBF). High‐Tech Strategy 2020 for Germany [EB/OL] http://www.foerderinfo.bund.de/en/index.php

        [10] Government Office for Science. Artificial Intelligence: Opportunities and Implications for The Future Of Decision Making [EB/OL] https://www.gov.uk/government/organisations/government-office-for-science.

        [11] 李克強(qiáng).政府工作報(bào)告——2017年3月5日在第十二屆全國人民代表大會第五次會議上[N].人民日報(bào),2017-03-16.

        [12] [美]凱文·凱利.必然[M].周峰,董理,金陽,譯.北京:電子工業(yè)出版社,2016:29.

        [13] Kenneth Chang. Hal, Call Your Office: Computers That Act Like Physicists [N]. The New York Times, April 2, 2009.

        [14] Louis B. Rosenberg. Human Swarms, A Real-time Method for Collective Intelligence European Conference on Artificial life, 2015: 658-659 [EB/OL]. https://mitpress.mit.edu/sites/default/files/titles/content/ecal2015/978-0-262-33027-5-ch117.

        [15] John Searle. Minds, Brains and Programs [J]. Behavioral and Brain Sciences, 1980,(3):417-424.

        [16] Hans Moravec. Mind Children [M]. Cambridge: Harvard University Press, 1988:15.

        [17] [以色列]尤瓦爾·赫拉利.未來簡史[M].林俊宏,譯.北京:中信出版社,2017:113.

        [18] Ray Kurzweil. Kurzweil Responds: Don`t Underestimate the Singularity. Technology Review, October 19, 2011 [EB/OL]. http://www.technologyreview.com/view/425818/kurzweil-responds-dont-underestimate-the.

        [19] [法]雅克·拉康.拉康選集[M].褚孝泉,譯.上海:上海三聯(lián)書店,2001:115.

        [20] [加]查爾斯·泰勒.自我的根源:現(xiàn)代認(rèn)同的形成[M].韓震,等,譯.南京:譯林出版社,2006:76-77.

        [21] Robots Learn to Work Together by Chatting in New Language They Created. The Independent, March, 17, 2017 [EB/OL]. http://www.independent.co.uk/life-style/gadgets-and-tech/news/robots-create-new-language-to-work-together-a7636041.html.

        [22] [美]雷·庫茲韋爾.人工智能的未來[M].盛楊燕,譯.杭州:浙江人民出版社,2016:203.

        [23] Stephen Omohundro. The Nature of Self-Improving Artificial Intelligence [EB/OL]. January 21, 2008, available at: http://selfawaresystems.files.wordpress.com/2008/01/nature_of_self_improving_ai.

        [24] [德]黑格爾.精神現(xiàn)象學(xué)[M].先剛,譯.北京:人民出版社,2013:122.

        [25] Nicholas D. Kristof. Robokitty [J]. The New York Times Magazine, August 1, 1999.

        [26] Irving John Good. Speculations Concerning the First Ultraintelligent Machine [J]. Advances in Computers, 1966,(6):31-88.

        [27] Giorgio Agamben, Homo Sacer. Sovereign Power and Bare Life [M]. trans. by Daniel Heller Roazen, Stanford: Stanford University, 1988:81-86.

        [28] European Parliament. Civil Law Rules on Robotics [EB/OL] http://www.newsgate.ep.parl.union.eu/newsgate/dgipol/resource/static/images/role/edunit/2017_banner_thematic_digest_1.

        [29] Axel Honneth. Kampf um Anerkennung: Zur moralischen Grammatik sozialer Konflikte [M]. Frankfurt: Suhrkamp, 2003:206.

        [30] [美]瑪?shù)倌取ち_斯布拉特.虛擬人[M].郭雪,譯.杭州:浙江人民出版社,2016:317.

        〔責(zé)任編輯:劉建明〕

        2017-07-16

        國家社科基金重點(diǎn)項(xiàng)目“全面推進(jìn)依法治國與國家治理現(xiàn)代化研究”(14AZD133)、霍英東教育基金會第十五屆高等院校青年教師基金資助項(xiàng)目“國家治理現(xiàn)代化的評估指標(biāo)體系研究”(151091)、上海市人才發(fā)展資金資助項(xiàng)目“國家參與全球治理(SPIGG)指數(shù)的指標(biāo)與測量”(201473)、上海市教委“曙光計(jì)劃”項(xiàng)目“執(zhí)政黨與非政府組織間互動機(jī)制的國際比較研究”(13SG50)、上海市教委科研創(chuàng)新項(xiàng)目“中國參與全球治理的理論創(chuàng)新研究”(15ZS060)階段性成果

        高奇琦(1981—),男,山西長治人,院長,教授,博士研究生導(dǎo)師,從事比較政治與全球治理研究;李歡(1992—),男,河南許昌人,碩士研究生,從事比較政治研究。

        C1

        A

        1000-8594(2017)06-0005-07

        猜你喜歡
        奇點(diǎn)機(jī)器機(jī)器人
        機(jī)器狗
        機(jī)器狗
        校中有笑
        校中有笑
        校中有笑
        奇點(diǎn)迷光(上)
        軍事文摘(2020年14期)2020-12-17 06:27:46
        未來機(jī)器城
        電影(2018年8期)2018-09-21 08:00:06
        機(jī)器人來幫你
        認(rèn)識機(jī)器人
        機(jī)器人來啦
        1234.com麻豆性爰爱影| 亚洲精品色婷婷在线影院| 人妻中文字幕无码系列| 亚洲日韩成人av无码网站| 欧美日韩精品一区二区在线视频| 手机看片福利盒子久久青| 国产91第一页| 国产女人乱码一区二区三区| 白嫩人妻少妇偷人精品| 精品国产av一区二区三区| 色播久久人人爽人人爽人人片av| 国产精品原创巨作AV女教师 | 亚洲天堂一区二区三区| 91精品人妻一区二区三区久久久| 欧美激情综合色综合啪啪五月| 久久综合狠狠色综合伊人| 国产美女在线精品免费观看网址| 日本午夜国产精彩| 亚洲国产综合久久精品| 亚洲国产精品婷婷久久| 午夜精品久久久久久久99老熟妇 | 99精品国产第一福利网站| 日本一区二区高清视频在线| 国产国语按摩对白av在线观看| 亚洲av不卡无码国产| 国产精品久久久久9999吃药| 国产精品免费久久久久影院仙踪林| 青青草国产成人99久久| 国产午夜亚洲精品一级在线| 国内偷拍第一视频第一视频区| 日本黑人乱偷人妻在线播放| 全黄性性激高免费视频| 国产精品成人国产乱| 99久久免费国产精品2017| 青青草免费激情自拍视频| 中文字幕亚洲一区视频| 少妇激情av一区二区三区| 久久99精品国产麻豆不卡| 国产人妖视频一区二区| 国产福利97精品一区二区| 天堂麻豆精品在线观看|