劉新慧
(201701 上海政法學(xué)院 上海)
人工智能的領(lǐng)域涉及計(jì)算機(jī)技術(shù)、數(shù)學(xué)、信息學(xué)、倫理學(xué)、神經(jīng)生物學(xué)、語(yǔ)言文字學(xué)、哲學(xué)等學(xué)科領(lǐng)域的交叉以及融合。隨著相關(guān)學(xué)科和研究范圍的發(fā)展,人工智能的概念與外延也在不斷變化著。目前,人工智能就是指那些以軟硬件的相結(jié)合來(lái)達(dá)到像人類一樣處理事件的智能系統(tǒng)。
首先從字面上就可以將人工智能分為兩個(gè)部分,即“人工”與“智能”。“人工”比較好理解,就是指通過(guò)人來(lái)操作或制造;但是對(duì)于什么是“智能”,學(xué)界對(duì)其爭(zhēng)議就比較大了,不同的學(xué)科對(duì)它有著不同的定義比如哲學(xué)、經(jīng)濟(jì)學(xué)、心理學(xué)、計(jì)算機(jī)等學(xué)科都有著自己的“見解”。但是從法律角度可以這樣理解:人基于自身的意志,制造或操作某些工具,從而在無(wú)人或者少人的狀態(tài)下達(dá)到預(yù)期效果的系統(tǒng)。這其中“人工”體現(xiàn)了人類在其中的參與;而“智能”則體現(xiàn)了人在意志表達(dá)下所展現(xiàn)的效果性,這一特征又是其被法律調(diào)整的目的之體現(xiàn)。所以“人工”是“智能”的內(nèi)在前提,“智能”是“人工”的外在表現(xiàn)。綜上所述,人工智能在法律層面的定義可以這樣來(lái)表述:人工智能產(chǎn)品就是生產(chǎn)并投入市場(chǎng)使用該系統(tǒng)的具體商品。
人工智能的發(fā)展在近十年來(lái)可以說(shuō)是突飛猛進(jìn),尤其是在無(wú)人車方面:在國(guó)外,英、美、法、德、日等多個(gè)國(guó)家都相繼參與對(duì)無(wú)人駕駛技術(shù)的研發(fā),其中以Google、Uber、Tesla、等企業(yè)處在無(wú)人駕駛系統(tǒng)研發(fā)的第一行列。而在國(guó)內(nèi)目前無(wú)人駕駛汽車技術(shù)的研發(fā)也步入快車道,眾多知名企業(yè)參與,互聯(lián)網(wǎng)企業(yè)如:百度、騰訊等,車企參與的有上汽、比亞迪、吉利等。并且自動(dòng)駕駛公交阿爾法巴已經(jīng)在深圳正式投入使用。近期關(guān)于人工智能最有爭(zhēng)議的新聞莫過(guò)于2017年10月一家名叫漢森的人工智能機(jī)器人公司所生產(chǎn)的人工智能機(jī)器人索菲亞(Sophia),已經(jīng)正式被沙特阿拉伯授予了公民身份,這標(biāo)志著全球第一個(gè)具有公民身份的人工智能產(chǎn)品正式出現(xiàn)。可見,人工智能在近年來(lái)的發(fā)展越來(lái)越快,并且涉及到各個(gè)行業(yè)。
電影不只是娛樂(lè)的載體,有時(shí)候更多的是創(chuàng)作者思想的表達(dá)。人類對(duì)于人工智能技術(shù)的恐懼與擔(dān)憂便以電影的形式體現(xiàn)出來(lái):從最初1968年的科幻史上的鴻篇巨制《2001太空漫游》,再到《黑客帝國(guó)》系列,以及直接反思未來(lái)人工智能機(jī)器人和人類之間對(duì)抗的《銀翼殺手》都表達(dá)出人類對(duì)人工智能技術(shù)的擔(dān)憂:那就是人工智能很可能會(huì)取代人類,因?yàn)橛辛俗晕乙庾R(shí)的人工智能較之人類這個(gè)物種來(lái)說(shuō)有著壓倒性的優(yōu)勢(shì)。人工智能幾乎有永恒的生命,且人工智能系統(tǒng)可以儲(chǔ)存自己的意識(shí)在任何一臺(tái)電腦上,而不必像人類一樣被肉體所束縛,所以死亡對(duì)于人工智能而言將不復(fù)存在??梢姡?dāng)下世界的主流觀點(diǎn)對(duì)人工智能的發(fā)展存在著較大擔(dān)憂。但科技的發(fā)展是不可逆的,盡管有不久前剛剛發(fā)生的Uber公司的無(wú)人駕駛汽車在測(cè)試中與一名橫穿馬路的行人相撞并致其死亡這種極端的例子,但是無(wú)人駕駛汽車同樣給人類帶來(lái)諸多益處,比如可以直接消除每年因醉酒駕駛導(dǎo)致人員傷亡的損失,在提高道路安全性的同時(shí)也挽救了很多人的生命。所以我們能做的就是有在人工智能發(fā)展的路上盡可能的小心翼翼,就科學(xué)界而已,科學(xué)家們應(yīng)當(dāng)最大可能的保障人工智能產(chǎn)品的安全性,但只有這樣是不夠的,整個(gè)社會(huì)必須構(gòu)建完善的法律監(jiān)督監(jiān)管體制來(lái)應(yīng)對(duì)可能發(fā)生的各種狀況,由此可見,對(duì)人工智能法律的完善是多么的重要,因?yàn)樗缲?fù)著安全的最后一道防線。
所謂法律人格就是指法律認(rèn)可的一種享受權(quán)利、承擔(dān)義務(wù)的資格法律擬制的主體,現(xiàn)代法律制度主要賦予自然人和法人以法律人格。對(duì)于自然人,其權(quán)利的享有以及義務(wù)的承擔(dān)一般是從出生開始到死亡結(jié)束。但對(duì)于法律所擬制的主體,其享有的人格權(quán)則需要經(jīng)過(guò)嚴(yán)格的法律規(guī)制才能獲得[1]。另外人格權(quán)是指為民事主體所固有而由法律直接賦予民事主體所享有的各種人身權(quán)利。最后,人格權(quán)還是一種專屬權(quán),即他人不得代位行使。盡管世界各國(guó)的民法體系中都對(duì)自然人及法人的法律人格做了詳盡的描述及限定,但對(duì)于人工智能是否具有法律人格或者具備什么程度的法律人格依然沒(méi)有明確的規(guī)定。
古往今來(lái),往往一項(xiàng)具有劃時(shí)代特性的技術(shù)被研究出來(lái)后都伴隨著各種爭(zhēng)議。二十世紀(jì)從第一只克隆羊多利的誕生便因克隆技術(shù)產(chǎn)生了巨大的爭(zhēng)議,因?yàn)闋?zhēng)議過(guò)于巨大,于是在1997年聯(lián)合國(guó)教科文組織便制定了《人類基因組與人權(quán)世界宣言》且明確予以規(guī)定:禁止生殖性克隆人類,隨后各國(guó)也都制定了大致相同大法律嚴(yán)格禁止將克隆技術(shù)用于人類。當(dāng)時(shí)的國(guó)際社會(huì)對(duì)于克隆人是否具有法律人格時(shí)直接予以法定,但對(duì)于人工智能,現(xiàn)行法律法規(guī)對(duì)是否具有人格權(quán)時(shí)卻含糊不定,沒(méi)有明確的規(guī)定。
鑒于目前對(duì)人工智能法律人格沒(méi)有明確的規(guī)定,致使其法律地位也模糊不清。假如人工智能可以直接適用人權(quán)理論體系制度,那么是否就意味著人工智能的法律地位等同于人類?如果是的話,享有婚姻權(quán)的人工智能一旦與人類結(jié)婚,那帶來(lái)的將是對(duì)現(xiàn)行法律體系以及人類倫理道德體系巨大的沖擊。但是即使未來(lái)發(fā)展到了人工智能具有獨(dú)立的思想,可以獨(dú)立自主的學(xué)習(xí)甚至生活的地步,筆者認(rèn)為也不應(yīng)該賦予其相應(yīng)的法律人格,因?yàn)槲覀內(nèi)祟悈^(qū)別于其它物種最大的地方就是是否具有獨(dú)立的情感以及思想,一旦人工智能也具有了與人類同等的法律地位,那就是等于承認(rèn)人工智能也成為了地球上新的物種。所以我們?cè)撊绾螀^(qū)別人工智能法律人格與人類的法律人格,這都是目前相關(guān)法律不明確所留給我們需要彌補(bǔ)的地方[2]。
人工智能在短期內(nèi)對(duì)社會(huì)造成的影響取決于誰(shuí)能夠操控它,而從長(zhǎng)遠(yuǎn)來(lái)看則是人工智能會(huì)不會(huì)愿意接受被控制。有學(xué)者實(shí)地對(duì)廈門、廣州進(jìn)行考察調(diào)研:目前廈門、廣州倆地的人工智能產(chǎn)品由廈門和廣州的市場(chǎng)監(jiān)管委進(jìn)行監(jiān)管及其審批,但申報(bào)的類目卻是玩具類,所有對(duì)人工智能相關(guān)的申報(bào)材料標(biāo)準(zhǔn)均按照相應(yīng)玩具類標(biāo)準(zhǔn)來(lái)申報(bào),并且在海關(guān)進(jìn)出口項(xiàng)目表上也沒(méi)有人工智能這一項(xiàng)。所以,將人工智能作為玩具來(lái)進(jìn)行分類,實(shí)在無(wú)法起到對(duì)人工智能產(chǎn)品的有效監(jiān)管。
建立完善的人工智能法律法規(guī)不僅能有效的促進(jìn)人工智能產(chǎn)業(yè)的發(fā)展與生產(chǎn),也能及時(shí)準(zhǔn)確的對(duì)其進(jìn)行監(jiān)管,因此首先需要解決的一個(gè)問(wèn)題就是人工智能應(yīng)不應(yīng)當(dāng)被賦予法律人格。
學(xué)界對(duì)于人工智能的性質(zhì)一直沒(méi)有定論。大致有三種學(xué)說(shuō):工具說(shuō)、代理說(shuō)、電子奴隸說(shuō)。工具說(shuō)認(rèn)為人工智能只是一件用來(lái)為人類服務(wù)的工具而已,所以不應(yīng)當(dāng)具有獨(dú)立的人格權(quán)。代理說(shuō)認(rèn)為人工智能所做出的一系列行為均只是受人類操控而已,其不具有獨(dú)立的人格權(quán),其所做出的行為導(dǎo)致的任何法律結(jié)果都應(yīng)由其操控者來(lái)承擔(dān)[3]。電子奴隸說(shuō)認(rèn)為人工智能及其產(chǎn)品就像奴隸一樣不應(yīng)該有任何權(quán)利,只要為人類服務(wù)就好。上述觀點(diǎn)放在多年前還說(shuō)的通,但在目前來(lái)說(shuō)每種說(shuō)法都有缺陷,其共同點(diǎn)在于:隨著科技的發(fā)展人工智能將越來(lái)越具有獨(dú)立的意思表示能力,獨(dú)立的情感甚至思想,并且科學(xué)技術(shù)的發(fā)展都是不可逆的,無(wú)論它最終導(dǎo)致的結(jié)果是好是壞。而一旦人工智能具有了獨(dú)立的思考能力以及行為能力,那代理說(shuō)顯然是不成立的,因?yàn)槿斯ぶ悄芩龀龅男袨椴⒉灰欢ǘ际侨祟愊逻_(dá)的指令。而一旦人工智能具有了情感,在倫理道德的框架約束下我們也不能將其視為工具、奴隸,因?yàn)橐坏┑搅四莻€(gè)時(shí)候人類甚至?xí)苫笤摬辉搶⒕哂歇?dú)立思考、行為、情感的人工智能視為新的物種了。所以,不能簡(jiǎn)單的對(duì)人工智能的性質(zhì)下定義。筆者認(rèn)為應(yīng)該將人工智能定義為具有獨(dú)立思考和獨(dú)立行為能力的智慧工具。
未來(lái)隨著我們將更多工作移交給人工智能,最后可能需要面對(duì)的是人工智能的權(quán)利問(wèn)題。盡管當(dāng)下有很多人提出了這個(gè)問(wèn)題,但在這之前,大家最為關(guān)心的仍然是人工智能的危險(xiǎn)性問(wèn)題。阿西莫夫的“機(jī)器人學(xué)的三大法則”首次出現(xiàn)在1942年的短篇小說(shuō)《環(huán)舞》中,它的規(guī)則如下:①機(jī)器人不得傷害人類。②機(jī)器人應(yīng)當(dāng)服從人的所有命令,但不能違抗第一法則。③機(jī)器人還應(yīng)該保護(hù)自身的安全,但是不得與第一和第二條法則所抵觸。盡管已經(jīng)過(guò)去70年了,但“阿西莫夫法則”依然被該系列小說(shuō)視為經(jīng)典教條,甚至在電影中也廣泛應(yīng)用。2014年1月,谷歌正式收購(gòu)DeepMind時(shí),作為交易的一部分美國(guó)政府對(duì)其規(guī)定,谷歌必須成立人工智能倫理委員會(huì),其目的是確保對(duì)人工智能技術(shù)的明智使用,其宗旨就是在開發(fā)利用人工智能的同時(shí),必須嚴(yán)謹(jǐn)對(duì)待人工智能可能對(duì)人類帶來(lái)的危害。
現(xiàn)在的科學(xué)技術(shù)條件下,人工智能已經(jīng)可以像人一樣管理公司以及訂立合同,甚至可以根據(jù)自己的分析處理來(lái)做出決定。如此人工智能可不可以要求權(quán)利,比如賦予自己姓名、保護(hù)自己健康的權(quán)利?以及在超負(fù)荷工作的情況下可否要求休息的權(quán)利?依據(jù)斯通納的觀點(diǎn),一個(gè)主體能否擁有法律權(quán)利須滿足如下條件:①首先該主體可以自己主動(dòng)提起法律訴訟。②司法機(jī)關(guān)在決定給予法律救濟(jì)時(shí)應(yīng)當(dāng)考慮到相關(guān)主體的損害情況。③所實(shí)施的法律救濟(jì)必須滿足它的利益要求。在本質(zhì)上人工智能依然是工具,但這種人工智能產(chǎn)品很可能價(jià)格不菲且承載著其擁有者的情感。比如陪伴失去至親獨(dú)自在家的孤寡老人的陪伴型機(jī)器人的記憶系統(tǒng)如果被他人損壞,那對(duì)于該老人來(lái)說(shuō)就是一種損失,因?yàn)閷?duì)于他來(lái)說(shuō),這個(gè)人工智能產(chǎn)品就像自己的親人一樣。另外法律救濟(jì)滿足人工智能的利益要求,比如排除妨害等都是可以適用的。由此不難看出,人工智能是滿足以上關(guān)于能否作為法律權(quán)利的要求的。因此,人工智能應(yīng)該被賦予權(quán)利。
1989年夏天,前蘇聯(lián)赫赫有名的國(guó)際象棋冠軍尼古拉·古德科夫在莫斯科挑戰(zhàn)一臺(tái)名叫M2-21的超級(jí)電腦,在對(duì)弈的第六天后,尼古拉·古德科夫以3∶0的大比分戰(zhàn)勝了這臺(tái)電腦。勝利的古德科夫自然是洋洋得意,并且做起了一系列慶祝動(dòng)作。但這時(shí)電腦顯示屏確閃起了紅燈,也就在此時(shí)古德科夫突然一聲慘叫然后就倒在了金屬棋盤上,并且尼古拉·古德科夫不斷有青煙從身上冒起。等到醫(yī)生趕到時(shí),尼古拉·古德科夫已經(jīng)死亡。在后來(lái)警方認(rèn)定,M2-21電腦因?yàn)檩斊宥鴼饧睌?,從而自行主?dòng)改變了程序,并向金屬棋盤釋放了足以將人電死的電流,故意殺害了尼古拉·古德科夫。由此可見隨著人工智能技術(shù)的不斷提高,其依靠自身的自主意識(shí)做出的不可預(yù)測(cè)的行為將會(huì)越來(lái)越不可控。由此導(dǎo)致的危害結(jié)果往往是由人類來(lái)承擔(dān),現(xiàn)實(shí)生活中,人類都要為自己的行為負(fù)責(zé),更何況是作為工具的人工智能。那么如果人工智能產(chǎn)品犯罪呢,它該如何承擔(dān)責(zé)任呢?筆者認(rèn)為人工智能作為一種擁有獨(dú)立意識(shí)并且可因此做出意思表示的智慧實(shí)體,首先在人工智能產(chǎn)品的研發(fā)上必須設(shè)計(jì)為具有可以承擔(dān)責(zé)任并且可以對(duì)自己做出的行為是否正確進(jìn)行驗(yàn)證的實(shí)體,這其中包含開發(fā)相關(guān)操作數(shù)據(jù)的全留存以便人工智能發(fā)生侵權(quán)行為后查驗(yàn)、盡可能的將人工智能相關(guān)數(shù)據(jù)做的透明化,使大眾可以隨時(shí)查詢,以及盡可能的減少人工智能不可控情形的發(fā)生從而減輕相應(yīng)的法律責(zé)任。
用法律手段來(lái)調(diào)整生命社會(huì)關(guān)系,應(yīng)當(dāng)是最有效、最穩(wěn)定、最普遍的。我們從人工智能的特征可以看出,人工智能具有獨(dú)立的自主意識(shí)并以此做出意思表示,那么它就具有法律主體資格,但這種法律主體所取得的人格權(quán)并不是完全的,因?yàn)槿斯ぶ悄懿⒉荒芡耆闶菙M制的法人,所以人工智能所承擔(dān)的法律后果也應(yīng)該是有限的。因此在人工智能法律人格有限的基礎(chǔ)下,我們應(yīng)當(dāng)制定合理且有針對(duì)性的法律制度。
國(guó)外立法已經(jīng)在人工智能具有有限法律人格的基礎(chǔ)上對(duì)其做出了一些立法嘗試。首先,人工智能方面的立法者與執(zhí)法者必須使得人工智能的操作系統(tǒng)不能被濫用,相關(guān)法律的規(guī)定必須即有效的發(fā)展人工智能技術(shù)又要確保公民隱私得到妥善保護(hù)。歐盟各國(guó)在2016年就通過(guò)了《一般數(shù)據(jù)保護(hù)條例》,相關(guān)各國(guó)就加強(qiáng)了個(gè)人隱私和數(shù)據(jù)的保護(hù),這其中就對(duì)用戶畫像等自動(dòng)化決策做出了相關(guān)的規(guī)定,即用戶有權(quán)拒絕企業(yè)對(duì)其進(jìn)行畫像等自動(dòng)化決策,而且用于用戶畫像的數(shù)據(jù)不能包括用戶的種族根源、政治傾向、宗教信仰、基因情況、生理表征等特殊類別的個(gè)人隱私數(shù)據(jù)。如今我們每個(gè)人都處在“大數(shù)據(jù)”的洪流中,個(gè)人數(shù)據(jù)已經(jīng)具有重要的商業(yè)價(jià)值,甚至直接關(guān)系我們的人身安全,當(dāng)下利用人工智能在網(wǎng)絡(luò)上非法竊取個(gè)人隱私的案例比比皆是。人工智能系統(tǒng)在個(gè)人數(shù)據(jù)方面的使用必須嚴(yán)格遵循規(guī)范,如果濫用數(shù)據(jù)或私自窺探隱私將受到法律的懲罰。所以我們?cè)谌斯ぶ悄芗夹g(shù)的發(fā)展上,首先應(yīng)該考慮的是該發(fā)展產(chǎn)物能否保障公民的數(shù)據(jù)和隱私不被侵犯,而不是一味地癡迷于科技發(fā)展。
一方面對(duì)人工智能的法律地位進(jìn)行嚴(yán)格的鑒定,另一方面更應(yīng)該明確如果人工智能發(fā)生侵權(quán)事件時(shí)判定相應(yīng)法律責(zé)任的準(zhǔn)則。聯(lián)合國(guó)教科文組織與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)提出的解決方法是可以采取責(zé)任分擔(dān)的方式,讓所有參與人工智能產(chǎn)品的研發(fā)、生產(chǎn)、授權(quán)和配置過(guò)程的人來(lái)分擔(dān)責(zé)任。這種制度設(shè)計(jì)的初衷,是迫使以及督促人工智能產(chǎn)品系統(tǒng)的設(shè)計(jì)者、參與者、生產(chǎn)者能夠提前主動(dòng)地履行應(yīng)盡的安全性義務(wù),使得受害者能夠找到賠償主體。另外為了保障人工智能產(chǎn)品發(fā)生侵權(quán)事件后是可以被相關(guān)司法機(jī)構(gòu)追責(zé)的,人工智能操作系統(tǒng)一定要具備程序?qū)用嫔峡杀蛔坟?zé)的依據(jù),以此來(lái)證明人工智能系統(tǒng)的運(yùn)作方式是否合理合法。
機(jī)遇與挑戰(zhàn)并存,不難看出,人工智能已經(jīng)進(jìn)入高速發(fā)展的道路上了,在不久的將來(lái),人工智能技術(shù)會(huì)被利用在各行各業(yè),甚至?xí)霈F(xiàn)在很多高技術(shù)行業(yè),包括軍工產(chǎn)業(yè)和航天領(lǐng)域,所以為使我國(guó)不在這場(chǎng)技術(shù)革命中落后于世界,我們國(guó)家急需加快人工智能相關(guān)法律法規(guī)制度的建設(shè)與完善,尤其是加快制定專門的《人工智能使用法》。授權(quán)立法者成立專門針對(duì)人工智能系統(tǒng)相關(guān)問(wèn)題的機(jī)構(gòu)來(lái)創(chuàng)設(shè)相對(duì)完善的人工智能責(zé)任承擔(dān)規(guī)則?!度斯ぶ悄馨l(fā)展法》的立法宗旨包含:①首先堅(jiān)持以人為本的基本原則,由立法者授權(quán)建立“人工智能倫理委員會(huì)”,通過(guò)制定一系列的規(guī)則,來(lái)確保人類社會(huì)的倫理道德不受人工智能帶來(lái)的破壞。②對(duì)人工智能的操作系統(tǒng)建立完整的監(jiān)管體系,來(lái)確保人工智能從研發(fā)到生產(chǎn)都處在嚴(yán)格的監(jiān)督中。③明晰發(fā)生侵權(quán)事故后各方的法律責(zé)任,恰當(dāng)且及時(shí)地根據(jù)人工智能的發(fā)展前景做出法律上的調(diào)整和規(guī)范來(lái)確保人工智能的發(fā)展始終處在正確的道路上。以及確立嚴(yán)格的強(qiáng)制責(zé)任保險(xiǎn)投保制度,確保各方利益尤其是受害者的利益能夠得到及時(shí)的保障。④明晰公民個(gè)人數(shù)據(jù)及隱私得到有效保護(hù),確保人工智能系統(tǒng)對(duì)網(wǎng)絡(luò)大數(shù)據(jù)合法的使用。⑤加強(qiáng)對(duì)人工智能知識(shí)產(chǎn)權(quán)的有效保護(hù),以明確的法律條款為支撐,使科研人員更好的開發(fā)以及獲得人工智能相關(guān)領(lǐng)域的專利保護(hù)。⑥還應(yīng)當(dāng)開展國(guó)際間的人工智能開發(fā)及應(yīng)用合作。尤其是人工智能的法律法規(guī)以及倫理道德相關(guān)問(wèn)題的研究,來(lái)共同處理不久的將來(lái)人工智能帶來(lái)的危機(jī)與挑戰(zhàn)。⑦最后我們還應(yīng)盡快制定《人工智能產(chǎn)品的倫理道德章程》以此作為人工智能系統(tǒng)及產(chǎn)品研發(fā)、應(yīng)用的道德基礎(chǔ)。
展望未來(lái),人工智能無(wú)疑將是人類在近現(xiàn)代以來(lái)最具開放性的創(chuàng)新,世界也因此開啟一場(chǎng)關(guān)于人工智能技術(shù)的巨大變革,對(duì)于我們來(lái)說(shuō)這或許不亞于第二次工業(yè)革命,又或許,變革已經(jīng)開始了。人工智能革命對(duì)現(xiàn)有法律、社會(huì)政策和倫理道德的沖擊也才剛剛開始,伴隨人工智能技術(shù)的不斷發(fā)展與完善,我們?nèi)祟愖陨淼闹R(shí)創(chuàng)新也需要跟進(jìn)甚至超前,理論和制度的創(chuàng)新尤為重要。最后,期待我們整個(gè)社會(huì)能夠把握和利用好人工智能技術(shù),因?yàn)樗趲Ыo社會(huì)便利的同時(shí),也會(huì)促進(jìn)社會(huì)的進(jìn)步。筆者相信在不久的將來(lái),科學(xué)技術(shù)的智慧之光與法律制度的理性之光,將在人工智能時(shí)代交相輝映。