亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        虛擬現(xiàn)實:比人工智能更深層次的糾結(jié)

        2017-02-14 12:38:38徐英瑾
        人民論壇·學術(shù)前沿 2016年24期
        關(guān)鍵詞:人工智能

        【摘要】虛擬現(xiàn)實技術(shù)和人工智能雖都涉及到了計算機技術(shù),但二者在哲學內(nèi)涵方面的差異卻不容忽視。若仿照人工智能論題的三分法,虛擬現(xiàn)實的工作目標可以被分為“強虛擬現(xiàn)實論題”“弱虛擬現(xiàn)實論題”和“更弱人工智能論題”。通過對“更弱論題”“弱論題”與“強論題”中的任何兩個從屬論題的比較,我們發(fā)現(xiàn),在任何一個對子中,虛擬現(xiàn)實都會比人工智能遭遇到更多的技術(shù)乃至概念層面上的麻煩問題。同時,虛擬現(xiàn)實在技術(shù)倫理方面所遭遇的挑戰(zhàn)也要比人工智能所面臨的同類困難更為棘手。因此,對于目前虛擬現(xiàn)實技術(shù)的種種炒作,我們應(yīng)持更為冷靜的態(tài)度。

        【關(guān)鍵詞】 虛擬現(xiàn)實 人工智能 強人工智能論題 強虛擬現(xiàn)實論題

        【中圖分類號】TP18 【文獻標識碼】A

        【DOI】10.16619/j.cnki.rmltxsqy.2016.24.001

        為何我們需要將“虛擬現(xiàn)實”與“人工智能”相提并論?

        眾所周知,時下如火如荼的“虛擬現(xiàn)實”(Virtual Reality)技術(shù)的核心命意,便是對計算機數(shù)據(jù)進行可視化處理,以便實現(xiàn)人類主體在虛擬環(huán)境中與虛擬數(shù)字化對象的信息互動。而“人工智能”(Artificial Intelligence)的基本任務(wù),則是試圖通過對計算機器的編程,以使其具備特定的智能行為。這兩項技術(shù)都牽涉到對于計算機工具的運用,而且也都會對國計民生的各個方面產(chǎn)生顯而易見的影響。不過,二者所關(guān)涉的重點卻彼此不同。大致而言,虛擬現(xiàn)實專家關(guān)心的是如何讓人類主體在真實客觀環(huán)境缺乏的情況下依然覺得自己處在客觀環(huán)境中,而人工智能專家關(guān)心的則是如何讓計算機的行為在人類用戶眼中依然顯得像是另一個主體。簡言之,前者乃是“造客之術(shù)”,后者則是“塑主之術(shù)”。按理說,兩種技術(shù)各有各的用途,對于兩者的長短比較多少會有些牽強。但是,最近翟振明教授發(fā)表了一篇很有趣的文章,題目叫《虛擬現(xiàn)實比人工智能更具顛覆性》①,認為虛擬現(xiàn)實技術(shù)的大發(fā)展對于人類社會現(xiàn)有架構(gòu)的沖擊,會遠大于人工智能技術(shù)的大發(fā)展所能夠?qū)ι鐣斐傻挠绊憽1M管這篇文章的許多具體觀點都極具巧思和創(chuàng)見,但是筆者依然不太贊同該文所預(yù)設(shè)的一個隱含前提:人工智能技術(shù)在原則上能夠走多遠,虛擬現(xiàn)實技術(shù)同樣也可以走多遠,甚至更遠(很顯然,只有在這樣的預(yù)設(shè)下,討論哪項技術(shù)會對社會產(chǎn)生更大的影響才是有意義的)。筆者本人則更傾向于認為:虛擬現(xiàn)實的發(fā)展要比人工智能發(fā)展更容易遭遇到瓶頸,而且,此類“瓶頸”未必僅僅具有技術(shù)面相,可能還具有某種更為深刻的哲學面相。

        有的讀者或許會反駁說:既然我們都已經(jīng)知道了虛擬現(xiàn)實與人工智能是兩項不同的技術(shù),那么,說什么“虛擬現(xiàn)實的發(fā)展要比人工智能發(fā)展更容易遭遇到瓶頸”,難道不正預(yù)設(shè)了兩者可以被同樣的標尺加以衡量嗎?而在筆者看來,此類的“可公度性標尺”,其實并不難在一個更為抽象的層面上被找到,即彼此競爭的兩項技術(shù)的支持方是否已經(jīng)達到了自己所許諾的技術(shù)與理論目標。具體而言,倘若人工智能專家已經(jīng)完成了“塑主”的任務(wù)而虛擬技術(shù)專家的“造客”工程卻始終“爛尾”的話,我們就可以宣布:人工智能成為了這場競爭的勝家。反之亦然。

        當然,現(xiàn)在的虛擬現(xiàn)實與人工智能技術(shù)都遠遠沒有達到為自己設(shè)定的“造客”或者“塑主”的任務(wù),因此,我們?nèi)粢獙@場還遠遠沒有結(jié)束的比賽的最終結(jié)果作出預(yù)判的話,就少不了哲學分析的幫助了。借用在國外業(yè)已初步成熟的人工智能哲學所提供的話語框架,筆者將仿照“強人工智能—弱人工智能—更弱人工智能”這一三分法,將虛擬現(xiàn)實的發(fā)展目標,亦由遠而近地區(qū)分為“強虛擬實在—弱虛擬實在—更弱虛擬實在”這三大階段,并在兩種發(fā)展路線之間進行平行比較。筆者試圖論證,在任何一個階段上,虛擬現(xiàn)實都會比人工智能遭遇到更多的技術(shù)乃至概念層面上的麻煩問題。不過,在下面這個問題上,筆者與翟振明教授的意見卻依然沒有本質(zhì)上的分歧:倘若虛擬實在專家們能夠兌現(xiàn)(甚至僅僅部分兌現(xiàn))自己樹立的理論目標的話,那么其產(chǎn)品對于人類社會現(xiàn)有秩序的顛覆意義,的確會大于達到同等工作進度的人工智能產(chǎn)品。然而,這一判斷卻恰恰構(gòu)成了筆者對于虛擬實在技術(shù)產(chǎn)生倫理擔憂的一個理由,因為在筆者看來,僅僅為了容納一項新技術(shù)所帶來的社會沖擊,便對現(xiàn)有的社會秩序與道德規(guī)范進行全面重塑,其合理性與必要性都大大值得商榷。因此,本文的相關(guān)討論,也將包含著某種對于“最低限度的道德保守主義立場”的捍衛(wèi)。也正基于此,本文的討論,亦將具有技術(shù)哲學與技術(shù)倫理學的雙向維度。

        當然,在展開這些討論之前,我們還是有必要對前面所說的“強虛擬實在—弱虛擬實在—更弱虛擬實在”這一三分法的含義進行澄清,以便為全文的討論打下基礎(chǔ)。這也便是下一節(jié)討論的主要任務(wù)。

        強虛擬實在、弱虛擬實在與更弱虛擬實在

        前面我們剛提及,“強虛擬實在—弱虛擬實在—更弱虛擬實在”這一三分法的提出,參照的乃是“強人工智能—弱人工智能—更弱人工智能”這一三分法的模板。因此,在此,我們有必要先澄清人工智能的三分法的含義。

        “強人工智能—弱人工智能”這個對子本來是由美國哲學家塞爾在著名的論文《心智、大腦與程序》②這篇論文中提出。前者的意思是:現(xiàn)有的人工智能技術(shù),總有一天將能使被恰當編程的計算機變成真正的心智的負載體;而后者的意思則是:無論現(xiàn)有的人工智能技術(shù)能夠發(fā)展到如何先進的程度,被智能程序武裝起來的計算機都無法成為真正的心智的負載者,而只能成為真正的心智的全面模擬者。塞爾本人是“強人工智能論題”的反對者,盡管他并不懷疑“弱人工智能論題”的可行性。至于“更弱人工智能”的提出者,則是英國的物理學家兼科普作家彭羅斯。他在科普作品《皇帝的新心》③中提出,無論是“強人工智能論題”還是“弱人工智能論題”,都已經(jīng)大大高估了人工智能技術(shù)的潛力。在他看來,即使是“全面模擬人類的心智”這項任務(wù),任何一臺按照現(xiàn)有方式加以編程的計算機也無法完成,因為任何一臺數(shù)碼計算機都不會具有人腦特有的某種神秘的“覺知”(awareness)。換言之,依據(jù)“更弱人工智能論題”的題中應(yīng)有之義,被恰當編程的計算機,至多只能夠部分地模擬人類的心智能力。

        筆者本人的哲學立場既不同于塞爾,更不同于彭羅斯。在筆者看來,不僅全面模擬人類心智能力的人工智能系統(tǒng)是可以實現(xiàn)的,而且,更為高級的人工智能系統(tǒng)也是完全有希望成為真正的智能負載者的。但是,由于本篇文章的論題主要是關(guān)于虛擬現(xiàn)實的,筆者不想就此全面陷入對自身關(guān)于人工智能問題的立場的辯護之中,而只想利用塞爾與彭羅斯留下的話語框架來厘定虛擬現(xiàn)實技術(shù)的工作目標。于是我們就得到了如下的三分法。

        強虛擬現(xiàn)實論題(對應(yīng)于“強人工智能論題”):虛擬現(xiàn)實所創(chuàng)造的數(shù)字化虛擬環(huán)境只是在字面上是“虛擬”的。實際上,它本身就是一種真實的客觀環(huán)境。簡言之,“造客”任務(wù)可以百分之百完成。

        弱虛擬現(xiàn)實論題(對應(yīng)于“弱人工智能論題”):虛擬現(xiàn)實所創(chuàng)造的數(shù)字化虛擬環(huán)境的確只是“虛擬”的。它本身并非是一種真實的客觀環(huán)境。但是,一種先進的虛擬現(xiàn)實技術(shù)所制造出來的虛擬環(huán)境,至少可以在現(xiàn)象層面上與主體通過感官所直接感受到的世界無法彼此分辨。換言之,“造客”任務(wù)其實只有被轉(zhuǎn)化為“塑造極端貌似真實客體的虛擬客體”的前提下才可能被完成。

        更弱虛擬現(xiàn)實論題(對應(yīng)于“更弱人工智能論題”):虛擬現(xiàn)實所創(chuàng)造的數(shù)字化虛擬環(huán)境不僅是“虛擬”的,而且,和人類用自己的感官所直接感受到的環(huán)境相比,這樣的虛擬環(huán)境也將永遠無法在現(xiàn)象層面上完全擬真。換言之,即使是“塑造極端貌似真實客體的虛擬客體”這項任務(wù),也難以被徹底完成。

        在國內(nèi),翟振明教授是“強虛擬現(xiàn)實論題”與“弱虛擬現(xiàn)實論題”的雙重提倡者,而且按照他的反實在論的哲學觀點,就連將這兩個論題彼此區(qū)分開來的做法,恐怕也是值得商榷的。譬如,他在論文《實在論的最后崩潰——從虛擬實在談起》④中就指出,如果我們在現(xiàn)象層面上始終無法區(qū)分通過虛擬現(xiàn)實設(shè)備所感知到的世界與純粹通過自身感官所感知到的世界的話,那么,我們就可以由此推出:在虛擬現(xiàn)實設(shè)備所制造出來的“實在”背后,并沒有一個更為深刻的“實在”——換言之,這種被制造出來的“實在”,其實就是真“實在”(盡管此“實在”已非實在論者所說的與“現(xiàn)象”有別的那種“實在”的意思)。翟振明教授的這種觀點遭到了黃勇、郭貴春、成素梅⑤等學者的反駁,他們均認為:就虛擬現(xiàn)實技術(shù)所構(gòu)造的人造實在而言,其本體論地位的確立,都必須要預(yù)設(shè)一個本體論地位更為穩(wěn)固的“自然實在”作為其擔保。因此看來,作為翟論的批評者,黃、郭、成諸先生的立場應(yīng)當是處于“弱虛擬現(xiàn)實論題”與“更弱虛擬現(xiàn)實論題”為兩個端點的理論區(qū)間之內(nèi)。

        雖然筆者本人的立場更為接近黃、郭、成諸先生之論,但筆者在此的論證思路卻和他們有別。具體而言,筆者試圖在盡量不預(yù)設(shè)“強人工智能論題”與“強虛擬現(xiàn)實論題”二者正誤的情況下,以人工智能發(fā)展的三階段為參照系,評估虛擬現(xiàn)實技術(shù)在前述發(fā)展三階段中進行攀爬的難度(需要指出的是,由于“更弱虛擬現(xiàn)實論題”與“更弱人工智能論題”的成立幾乎是無所爭議的,所以,筆者將放過對于如何實現(xiàn)這“三步跳”中的第一步的考量,而以“從第一步到第二步的跳躍”為討論的起點)。換言之,如果我們能夠證明:(1)從實現(xiàn)“更弱虛擬現(xiàn)實論題”躍進到實現(xiàn)“弱虛擬現(xiàn)實論題”的難度,要大于從實現(xiàn)“更弱人工智能論題”躍進到實現(xiàn)“弱人工智能論題”的難度;(2)從實現(xiàn)“弱虛擬現(xiàn)實論題”躍進到實現(xiàn)“強虛擬現(xiàn)實論題”的難度,要大于從實現(xiàn)“弱人工智能論題”躍進到實現(xiàn)“強人工智能論題”的難度——那么,我們就可以得出這樣的結(jié)論:虛擬現(xiàn)實最終理想的“烏托邦”色彩,要濃于人工智能。盡管這樣的結(jié)論并不足以幫助我們就得出“人工智能的最終理想可以實現(xiàn)”的推論,但至少這能幫助我們從一個更為宏觀的角度,對虛擬現(xiàn)實技術(shù)與人工智能技術(shù)各自的相對可行性作出更為穩(wěn)妥的戰(zhàn)略性評估。

        “更弱虛擬現(xiàn)實”與“更弱人工智能”,哪個更易變得稍強?

        下面我們就來評估一下,在“更弱虛擬現(xiàn)實”與“更弱人工智能”之中,究竟哪個更容易得到升級,由此分別成為“弱虛擬現(xiàn)實”與“弱人工智能”。先來看“更弱虛擬現(xiàn)實”升級為“弱虛擬現(xiàn)實”的可行性——這個問題的實質(zhì)便在于:為了讓目前還不那么逼真的虛擬現(xiàn)實技術(shù)能夠達到“完全擬真”的境界,我們還需要克服怎樣的技術(shù)瓶頸。

        目前得到業(yè)界普遍承認的現(xiàn)有虛擬現(xiàn)實的技術(shù)瓶頸,都與相關(guān)設(shè)備的體驗者的生理或者心理不適感有關(guān)。這些不適感以及相關(guān)的產(chǎn)生機制包括:⑥

        視覺疲勞。我們知道,很多用戶在佩戴虛擬現(xiàn)實技術(shù)制造方提供的三維眼鏡時都會產(chǎn)生視覺疲勞感。其背后的機理是什么呢?讓我們不妨先來看看人眼在正常環(huán)境下產(chǎn)生關(guān)于物體的立體視感的機制。具體而言,當我們?nèi)祟愒谡鎸嵨锢憝h(huán)境中對外部對象進行視覺感知之時,人眼會對從物體的近眼點與遠眼點反射過來的光線分別進行信息采樣,并在此過程中產(chǎn)生不同的雙眼視軸夾角(即“輻輳角”)。譬如,看比較遠的點的時候輻輳角會變小,而在看近物時則會變大。由于輻輳角的變化是由眼球附近的肌肉的松緊程度來加以控制的,而這些肌肉的運作程式又在運動神經(jīng)系統(tǒng)的神經(jīng)元聯(lián)系方式中得到了編碼,因此,只要我們?nèi)祟愄幱谕獠课锢憝h(huán)境之中,我們的運動神經(jīng)系統(tǒng)就會自動引導眼球肌運作,并通過改變輻輳角的方式來采集遠眼點與近眼點的光信息。然而,這一套生理機制的運作卻會在虛擬視覺的環(huán)境中遇到一些麻煩。不難想見,正是因為虛擬視覺系統(tǒng)所制造出來的三維環(huán)境與真實三維環(huán)境是比較類似的,因此,此環(huán)境照樣可以觸發(fā)人腦運動神經(jīng)系統(tǒng)自動引導眼球肌運作,以調(diào)節(jié)輻輳角去尋找遠眼的光反射點。但是,虛擬視覺設(shè)備制造三維感的具體方式畢竟與真實物理世界有著巨大的區(qū)別。譬如,為了向觀眾最終呈現(xiàn)出三維圖像,虛擬現(xiàn)實設(shè)備往往會通過左右屏向人眼分別展示同一物體的不同畫面,并由此產(chǎn)生圖像偏移效應(yīng),讓人眼感覺到了物體的立體感。但需要注意的是,在這個過程中整個畫面本身無疑還是二維的,因此,如果人眼在這個過程中將焦點轉(zhuǎn)移到畫面背后的話,那可是什么光信息也采集不到的。這樣一來,運動神經(jīng)系統(tǒng)所導致的眼球運動就不會產(chǎn)生預(yù)期中的信息正反饋,并由此使得視覺信息系統(tǒng)的運作產(chǎn)生紊亂。視覺疲勞也就因此而產(chǎn)生了。

        暈動癥。即用戶在體驗虛擬現(xiàn)實技術(shù)時所產(chǎn)生的類似于暈船或者暈車的感覺。產(chǎn)生這種不適感的原因很多,一種比較典型的原因是:虛擬畫面的迅速變化會使身體迅速發(fā)生位移的預(yù)期,但是用戶的內(nèi)耳平衡器所得到的內(nèi)感輸入?yún)s與相關(guān)預(yù)期產(chǎn)生沖突,由此產(chǎn)生不協(xié)調(diào)感,最終導致眩暈。

        恐怖谷效應(yīng)。即用戶在面對一個非常逼近人臉(卻還是與人臉有別)的虛擬對象時,所產(chǎn)生的心理不適感。之所以叫“恐怖谷效應(yīng)”,乃是源于日本機器人學專家森政宏于1970年用日語發(fā)表的一篇論文(其中“恐怖谷”一語的日文原文是“不気味の谷”,一般英譯為“Uncanny Valley”)。⑦作者指出,如果我們以虛擬人物或者機器人與人類之間的相似度(Human Likeness)為橫坐標,以人類用戶對于此類產(chǎn)品的親和感(Affinity,日語漢字“親和感”,發(fā)音“Shinwakan”)為縱坐標,那么由此給出的曲線形狀并不會成為一條單調(diào)遞增的函數(shù)曲線,而只會成為一個先慢慢爬坡,后突然下降,然后再上升的復(fù)雜曲線(至于下降與上升所導致的谷地,就被稱為“恐怖谷”)。舉例來說,正因為玩具機器人(Toy Robot)要比工業(yè)機器人(Industrial Robot)更像人,所以,用戶對前者的親近感就會高于后者;而仿真假肢手(Prosthetic Hand)則由于的確很像(但還不是那么像)真人手,則會跌入“恐怖谷”。日本的“文樂”木偶假人(“Bunraku Puppet”)由于比仿真假肢手更像人體(因為木偶可以在身穿黑衣的演員的操控下活動自如),所以人們對于它們的好感度又上升了,而這種好感度在用戶面對真實健康的人體時則最終達到了頂點。

        森政宏的理論雖然更多的是關(guān)涉到了仿人機器人,但是也完全可以被運用到虛擬現(xiàn)實技術(shù)的語境中。簡言之,如果一個在虛擬現(xiàn)實中出現(xiàn)的人物的外部形象雖然的確比較像人,但還是有點不像真人的時候,那么,“恐怖谷效應(yīng)”就會隨之出現(xiàn),而用戶也就會隨之對相關(guān)的虛擬人物產(chǎn)生心理不適感——這將最終導致整個虛擬環(huán)境的擬真度的下降。

        ——那么,“恐怖谷效應(yīng)”產(chǎn)生的心理機制是什么呢?森政宏本人提到了目標對象運動狀態(tài)的缺乏所導致的用戶的心理移情機制的失效——換言之,如果我們能夠讓人造仿人對象按照人類的預(yù)期作出身體姿態(tài)方面的調(diào)整的話,那么,人類用戶對于它們的好感度就會迅速上升??▋?nèi)基—梅隴大學的柯爾慈等人則進一步指出,具有更多人類形體特征的機器人會在社會色彩更濃郁的環(huán)境下受到人類用戶的偏好,而人類用戶在此時也期望機器人能夠給出更接近于真人的表現(xiàn)(換言之,“恐怖谷效應(yīng)”的產(chǎn)生,可能就源自于所謂“期望越大,失望越大”之類的心理機制)。⑧

        上面所提到的這些問題,顯然對“更弱虛擬現(xiàn)實論題”向“弱虛擬現(xiàn)實論題”的躍進構(gòu)成了某種障礙。而在討論虛擬現(xiàn)實技術(shù)對于這些障礙的克服手段之前,我們不妨先將這個話題擺放一邊,來看看在“更弱人工智能論題”向“弱人工智能論題”躍進的過程中,人工智能專家會遇到什么麻煩。很多受到彭羅斯論證思路影響的人或許會認為,其中最麻煩的問題恐怕應(yīng)當是意識問題。換言之,人工智能專家即使能夠徹底地模擬人類智能行為的方方面面,也無法模擬人類的主觀意識世界(這里的“意識”指的是任何能夠在主體的精神世界浮現(xiàn)的表象中,那些“只可意會不可言傳”的部分)。但是筆者卻認為這個問題不是那么重要。其一,筆者在別的地方就曾撰文指出,“意識”——或者其更帶學究氣的表達“感受質(zhì)”(qualia)——可能并不是一個穩(wěn)定的自然類(natural kind),而是不同感官道的信息處理過程的不同性質(zhì)的高層隨附物的籠統(tǒng)總稱。⑨因此,或許根本就不存在著某種統(tǒng)一的“意識”問題;第二,從認識論的角度,我們無法證明真正智能的機器人在原則上永遠不會具有意識(因為這樣的機器人完全可以仿照莊子質(zhì)問惠子的口吻去反問人類:子非機器,安知機器無心);第三,人工智能真正關(guān)心的問題畢竟是“智能”,而從圖靈測驗開始,業(yè)界都習慣于從一種準行為主義立場來判斷一臺機器的智能程度。在這樣的理論框架下,“意識”是否應(yīng)當成為人工智能研究的題中應(yīng)有之義,恐怕也是值得商榷的;第四,對于“智能”這個詞,我們完全可以不按照“人類中心主義”標準去作出解讀——譬如,今天的動物心理學家完全可以去討論像章魚這樣的軟體動物的智能——而章魚顯然不具備用雙腿走路的身體智能,就像我們?nèi)祟愐膊痪邆涓鶕?jù)環(huán)境變化而改變色素細胞分布狀況的能力一樣。而既然我們可以如此寬容地看待章魚的智能,我們完全也可以對“機器智能”抱有一種更為寬松的心態(tài),并允許該概念與“人類智能”之間存在著比較大的不重合處。而此時我們?nèi)粼偃ソ锝镉嬢^機器是否可能具有某種特殊種類的人類直覺(如彭羅斯特別強調(diào)的是那種在證明“哥德爾不完備性定理”的過程中看出“哥德爾語句”為真的直覺),未免就會顯得過于苛刻了。

        ——那么,既然目前“更弱人工智能”的問題不在于如何實現(xiàn)“機器意識”,其問題又體現(xiàn)在哪里呢?

        問題主要體現(xiàn)在兩點:

        第一,資源問題。這里的“資源”是指信息資源與計算資源,即完成特定任務(wù)所需要消耗的輸入信息數(shù)量與完成的計算步驟的數(shù)量(順便說一句,如果兩臺計算機的程序運作都可以被化約為萬能圖靈機的運作步驟的話,那么,我們就可以在原則上比較兩個程序各自計算步驟的多少)。譬如,目前被炒得火熱的“深度學習”技術(shù),其實在這兩方面都堪稱“資源消耗大戶”。具體而言,作為傳統(tǒng)的人工神經(jīng)元網(wǎng)絡(luò)技術(shù)的全面升級版,深度學習技術(shù)試圖通過大大增加原有網(wǎng)絡(luò)內(nèi)的“中間處理層”數(shù)量的方式,來細化輸入的特征提取層次;此外,網(wǎng)絡(luò)中的每一層處理器都能夠?qū)Ω鸵粚犹幚砥鞯妮敵鲞M行進一步的泛化,由此實現(xiàn)知識表征從“具體”到“抽象”的概括。但是這樣的計算方式,需要系統(tǒng)從外部獲取大量原始信息作為分析樣本,而復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)的運作所需要的計算成本也是非常高昂的。前一個問題使得它在面對某些只有少量數(shù)據(jù)庫的分析對象(如全世界只有少數(shù)病例的某種疑難雜癥)時束手無策,后一個問題則使得其無法適應(yīng)用相對低廉的價格營造出來的硬件環(huán)境,并因此而難以全面走向商業(yè)化,而只能成為少數(shù)財力豐沛的大公司的展示性產(chǎn)品。

        第二,系統(tǒng)集成問題。傳統(tǒng)的符號人工智能依然在其非常擅長的專家系統(tǒng)等領(lǐng)域內(nèi)具有一定的活力,而類似深度學習這樣的新技術(shù)則在模式識別、自然語言處理等領(lǐng)域內(nèi)顯示出了巨大的優(yōu)勢。但是,這些彼此完全不同的技術(shù)是否能夠在一個平臺上被集成為某種“通用智能系統(tǒng)”,則是一個非常麻煩的大問題。而反過來說,如果我們要放棄“集成”的思路,試圖從一項單一的技術(shù)路徑出發(fā)解決所有的人工智能子課題的話,那么,該做法似乎又有放棄其他技術(shù)進路既有工作成就之嫌,也未必顯得明智。

        在說清楚了虛擬現(xiàn)實技術(shù)與人工智能技術(shù)目前各自所面臨的問題之后,現(xiàn)在我們就來探討一下,到底是誰的問題更難解決。

        很多人或許會直觀地覺得,人工智能所面臨的問題恐怕還要相對嚴重一點。這是因為:其一,對于人工智能的工作目標,我們其實還是有點模糊的,而目前諸種貼著“人工智能”這個標簽的技術(shù)路徑在技術(shù)內(nèi)涵方面的差距之大,也很難讓人相信它們會在不久的將來能夠攜手達成真正的合作。而虛擬現(xiàn)實技術(shù)的工作目標則是相對明確的,這就是試圖讓人類用戶對于虛擬現(xiàn)實的感性體驗與對于現(xiàn)實物理環(huán)境的感性體驗彼此無法區(qū)分。不難想見,關(guān)于我們對于物理世界的感性體驗是什么,我們是相對清楚的,而現(xiàn)有的虛擬現(xiàn)實設(shè)備也正在努力向著這一工作目標慢慢前進。因此,我們完全有理由認為虛擬現(xiàn)實技術(shù)會比人工智能技術(shù)更早達到自己的目標。第二,人工智能研究的工作量實在太大了。即使我們承認人工智能產(chǎn)品并不需要在方方面面都具備人類智力的一切要素,但是,豐富的感知能力、靈巧的運動能力、舉一反三的歸納學習能力、對于自然語言的駕馭能力,肯定都是我們所期望的通用智能機器應(yīng)當具備的能力。與之相比較,我們并不需要在虛擬現(xiàn)實中再重新制造出用戶的智能,因為人類用戶的智能是已經(jīng)被相關(guān)業(yè)界人士假定的一個前提。另外,即使在虛擬環(huán)境中對于虛擬人物的構(gòu)建,可能也會關(guān)涉到一定的人工智能因素,但考慮到虛擬環(huán)境技術(shù)參數(shù)自身的限制性,由此牽涉到的建模工作也不會顯得過于復(fù)雜。因而,相關(guān)作業(yè)的可操作性,也應(yīng)當會高于在真實物理環(huán)境中對于人工智能體的構(gòu)建工作。

        然而,在筆者看來,上面的分析雖貌似有理,但其實都是站不住腳的。先來看第一條。有句俗話說得好,“畫鬼容易畫人難”。為什么呢?這是因為大家都沒見過鬼,畫家的想象力反而有一定的施展空間,而要畫人就沒那么容易過關(guān)了,因為四周都有活人做參照系啊。而人工智能所要把捉的那個對象——“智能”——其實就有點像是“鬼”,因為大家都無法拿出一個叫“智能”的物理對象擺放在公共空間中讓大家觀摩。在這樣的情況下,人工智能專家反而有更多的工作空間來施展自己的抱負,并通過某種理論解釋來應(yīng)對某些挑剔的用戶的質(zhì)疑(這一點其實這也適用于對于人類智能的評判情況,因為在實際的教育過程中,不同的老師或許會對同一個孩童的智力潛質(zhì)作出非常不同的評估,并為自己的評估提供獨特的理論解釋)。與之相比較,虛擬現(xiàn)實就可類比于“畫人”,因為關(guān)于通過三維眼鏡看到的海景房到底像不像真的海景房,用戶提出的意見是具有無可辯駁的權(quán)威性的,而任何理論上的修辭也都無法有效抵消其負面的反饋意見。在這樣的情況下,虛擬現(xiàn)實技術(shù)其實已經(jīng)在這場競賽中處于了某種先天的不利狀態(tài):只要相關(guān)技術(shù)產(chǎn)品在任何一個小的方面輸給了人類對于物理世界的直接體驗,那么虛擬現(xiàn)實技術(shù)專家就不能宣布自己已經(jīng)達成了“造客”的任務(wù);而在智能表現(xiàn)方面尚有所欠缺的人工智能產(chǎn)品,卻可以通過某種附加解釋(如被解釋為“對于八歲左右的人類兒童智力的模擬者”)而率先在這場長跑中沖過終點線。

        此外,虛擬現(xiàn)實技術(shù)所面臨的工作量其實也未必小,因為無論虛擬現(xiàn)實技術(shù)的工作者在其中已經(jīng)付出了多少努力,恐怕都無法跟上用戶想象力的翅膀(而這也正應(yīng)了另外一句俗話:“比海洋更寬廣的乃是心靈”)。下面筆者就將通過一個具體的例子來說明這一點。假設(shè)我的頭戴式虛擬視覺設(shè)備,讓我覺得自己已經(jīng)身處某處火箭發(fā)射基地。而虛擬技術(shù)專家對于相關(guān)物理環(huán)境的細致入微的建模工作,或許也已經(jīng)讓我真切感受到了火箭發(fā)射時的音效與視效——但是,如果我突然想打開通訊設(shè)備與太太通話該怎么辦呢?如果我突然想上廁所了,又該怎么辦呢?很顯然,沒有一個建模者可以預(yù)先估測到用戶此時所可能產(chǎn)生的各種古怪想法,因此,其虛擬建模的成果也就難以預(yù)先安排應(yīng)對這些想法的回應(yīng)機制。而只要用戶意識到自己的想法無法在這樣的虛擬環(huán)境中得到有效的反饋,那么,整個人機界面的友好度也會隨之下降,而虛擬現(xiàn)實技術(shù)的“造客任務(wù)”也就失敗了。而與虛擬現(xiàn)實技術(shù)相反的是,以“塑主”為己任的人工智能研究并不試圖把整個物理環(huán)境都予以事無巨細的刻畫,而只要給予其具有一定抽象度的表征就可以了。一種更為激進的人工智能研究思路甚至主張,就連“表征”這個環(huán)節(jié)也可以被去掉。譬如,著名人工智能專家羅德尼·布魯克斯(Rodney Brooks)就在其在論文《大象不下棋》⑩中寫道:

        新潮AI是建立在物理根據(jù)假設(shè)(physical grounding hypothesis)之上的。該假設(shè)說的是,為了建立一個足夠智能的系統(tǒng),我們就絕對需要將其表征的根據(jù)奠定在物理世界之中。我們關(guān)于這一工作路徑的經(jīng)驗告訴我們,一旦我們做出了這種承諾,那種對于傳統(tǒng)符號表征的要求就會馬上變得黯淡無光。這里的核心命意在于,世界就是認知系統(tǒng)所能有的最好的模型。世界一直能夠及時更新自身。它總是包含了需要被了解的一些細節(jié)。這里的訣竅就是要讓系統(tǒng)以恰當之方式感知世界,而這一點常常就足夠了。為了建立體現(xiàn)此假設(shè)的模型,我們就得讓系統(tǒng)通過一系列感知器和執(zhí)行器而與世界相聯(lián)系。而可被打印的字符輸入或輸出將不再引起我們的興趣,因為他們在物理世界中缺乏根據(jù)。

        很顯然,按照布魯克斯的思路,人工智能專家所要做的,僅僅是建造一系列能夠在特定類型的環(huán)境輸入被給定的情況下作出恰當應(yīng)對的人造心智機關(guān),而根本不用去費心從事對于世界自身的建模工作。而在人工智能體自身的學習能力足夠強大的前提下,環(huán)境自身的自我更新就可以隨之觸發(fā)智能體知識體系的自動更新,在此期間人類程序員也未必需要插手干預(yù)。由此看來,人工智能專家即使在某個階段面臨大量的工作,但只要其整體的心智建模思路是對的,也終究會用“先苦”換來“后甜”,并在與虛擬現(xiàn)實技術(shù)的競爭中后來居上。

        有了上面的討論做基礎(chǔ),我們再回過頭來看看,在虛擬現(xiàn)實技術(shù)目前面臨的主要技術(shù)瓶頸(“視覺疲勞”“暈動癥”和“恐怖谷效應(yīng)”等)與人工智能目前所面臨的主要問題(資源消耗與集成困難)之間,哪個更難解決。先來看前者。

        支持虛擬現(xiàn)實技術(shù)的樂觀論者或許會指出:更為復(fù)雜的虛擬現(xiàn)實設(shè)備即將(或正在)逐一解決前面我們所提到的“視覺疲勞”“暈動癥”“恐怖谷效應(yīng)”等問題,而我們需要等待的僅僅是資金的到位與時間的流逝。但是需要指出的是,從更一般的角度看,虛擬技術(shù)目前面臨的“視覺疲勞”“暈動癥”“恐怖谷效應(yīng)”等問題,實質(zhì)上乃是人類通過百萬年的演化而生成的感覺系統(tǒng)與人造虛擬環(huán)境之間如何匹配的問題。對于此類“匹配問題”的更為詳細的闡述如下:

        我們知道,客觀物理世界所產(chǎn)生的各種作用于人類各個感官道的物理刺激(光刺激、聲波刺激、溫度刺激、嗅覺刺激等)其實都可能來自于同樣的物理源,而人腦對于這些刺激信息的處理,又會最終將其重塑為外部世界中的某個統(tǒng)一的刺激源。需要注意的是,這種“重塑”并不是一種錯覺產(chǎn)生機制,因為物理世界自身的穩(wěn)定性可以為重塑的結(jié)果作出校準。?而在虛擬現(xiàn)實技術(shù)中,那個作為所有感官道統(tǒng)一信息來源的“統(tǒng)一的物理源”其實是不存在的。因此,虛擬技術(shù)專家自己就得費心制造出一系列不同的感官道刺激,并精確協(xié)調(diào)這些刺激之間的關(guān)系,以使得大腦產(chǎn)生錯覺,認為它們都來自于物理世界中相同的刺激源(從這個意義上說,虛擬現(xiàn)實技術(shù)專家就得像萊布尼茨所描述的上帝那樣,一一確定現(xiàn)象世界各個要素之間的“預(yù)定和諧”)。不容否認,虛擬技術(shù)專家當然也可以憑此方法,制造出虛擬物理對象,以便由此校準用戶大腦所重塑出的形象——但只要其中有任何一個環(huán)節(jié)稍有差錯,人類靈敏的大腦就會發(fā)現(xiàn)其中的破綻,并由此產(chǎn)生心理不適。因此,從這個角度看,虛擬技術(shù)專家其實是陷入了一個很尷尬的境地。一方面,他們的確具有在虛擬世界中重塑外部世界的理想;另一方面,他們卻不得不承認人類用戶心智與感官系統(tǒng)的所有現(xiàn)成工作原理,并試圖讓自己的產(chǎn)品努力遷就這些原理。而如何讓產(chǎn)生在后工業(yè)時代的這種嶄新“理想”與來源于漫長演化進程的“現(xiàn)實”無縫對接,的確風險重重。

        與之相對比,由于自身工作的性質(zhì),人工智能專家顯然處在一個比虛擬現(xiàn)實專家更為幸運的位置上。也就是說,由于不用過于遷就人類演化產(chǎn)生的心智機制所給出的硬約束,他們自然也就具有了更大的行動自由度以最終實現(xiàn)自己的理論目標。就以“恐怖谷效應(yīng)”為例:沒有任何一個嚴肅的人工智能專家會認為,一個能夠使得人類用戶產(chǎn)生此類效應(yīng)的人工智能體會因此而變得“不智能”,因為“人類用戶對于機器人的友好度”與“后者是否智能”在原則上便是兩個可以被分離的話題(譬如,如果需要的話,我們完全可以制造出一個面目高度可憎,卻在“內(nèi)心”異常智能的人工智能體)。此外,前文所提到的現(xiàn)有人工智能技術(shù)所面臨的問題——如資源約束問題、系統(tǒng)集成問題——與其說是針對所有人工智能技術(shù)所具有的一般本性的,還不如說僅僅是針對主流人工智能技術(shù)的特定技術(shù)形態(tài)的。譬如,筆者曾在別處予以全面介紹的王培先生發(fā)明的“非公理化推理系統(tǒng)”,便可以在資源約束的條件下為心智的符號推理、運動感知與經(jīng)驗學習提供一種一攬子的解決方案,而且,在該系統(tǒng)所提供的平臺上,與之技術(shù)原理不同的其他計算模塊也可以得到一種穩(wěn)妥的集成方式。?因此,只要人工智能技術(shù)能夠走對路,相關(guān)領(lǐng)域內(nèi)的從業(yè)者就完全有可能領(lǐng)先虛擬現(xiàn)實技術(shù)“扣籃得分”。

        “弱虛擬現(xiàn)實”與“弱人工智能”,哪個更易變強?

        在前節(jié)的討論中我們已經(jīng)得到了這樣的結(jié)論:“更弱人工智能”其實要比“更弱虛擬現(xiàn)實”更容易將自己變得更強一點,因此,前者也就更容易摘掉“更弱”這兩個字中的“更”字。而為了對虛擬現(xiàn)實技術(shù)的支持者表示出起碼的友好姿態(tài),在本節(jié)中我們則將對前節(jié)的討論暫時“清零”,并由此假設(shè):目前的“更弱虛擬現(xiàn)實技術(shù)”也已經(jīng)通過某種途徑摘掉了這個讓人討厭的“更”字。而目下的問題便是:就虛擬現(xiàn)實技術(shù)與人工智能技術(shù)而言,誰能夠率先將這個剩下的“弱”字成功地轉(zhuǎn)為“強”字?

        在我們具體討論這個話題之前,我們不妨首先來思考一個更為抽象的問題:對于“弱人工智能論題”或“弱虛擬現(xiàn)實論題”來說,將各自的“弱”字替換為“強”字,又到底意味著什么呢?很明顯,這首先并不意味著一種用戶體驗方面的變化,因為按照定義,“弱虛擬現(xiàn)實”本來就應(yīng)該是一種在現(xiàn)象體驗方面能夠為用戶帶來徹底的擬真感的技術(shù),正如“弱人工智能”也本來就應(yīng)該在智能行為的模擬方面讓用戶毫無挑剔一樣。然而,一部分論者(如翟振明教授)恐怕會在這個節(jié)骨眼上提出這樣的問題:既然用戶在現(xiàn)象體驗方面無法找出虛擬現(xiàn)實技術(shù)的一點點毛病,為何我們不就干脆將由此營造出的虛擬實在認定為真實在呢?在這種情況下,“弱虛擬現(xiàn)實”中的“弱”字,難道就不能被自動升級為“強”字嗎?

        不過,如果將“弱虛擬現(xiàn)實”升級為“強虛擬現(xiàn)實”的工作真的可以如此輕易地完成的話,那么,我們在此專門討論該問題的必要性也就不存在了。不難想見,那些認為此類升級工作可輕易完成的論者,其實已經(jīng)在哲學上預(yù)設(shè)了某種強烈的反實在論觀點,即認為現(xiàn)象上不可分辨的兩個環(huán)境將自動獲得相等的本體論地位。因此,也只有在同樣預(yù)設(shè)這樣的哲學前提的情況下,我們才可能去贊成從“弱虛擬現(xiàn)實”到“強虛擬現(xiàn)實”的無縫過渡乃是可能的。同樣的道理,在另一條平行的賽道上,如果也有人主張從“弱人工智能”到“強人工智能”的無縫過渡乃是可能的話了,那么他們也肯定預(yù)設(shè)了某種比較強的哲學預(yù)設(shè)(否則我們也就難以解釋為何有人會認為上述過渡并非一蹴而就了)。因此,在這個環(huán)節(jié)上虛擬現(xiàn)實技術(shù)與人工智能技術(shù)之間的競爭,將更多地取決于二者自身所依托的哲學框架的合理性。

        讀者或許會說:哲學框架之間的競爭往往會陷入“公說公有理、婆說婆有理”的窘境,而要在這個維度上比出一個短長來,難度似乎實在是太大了。但實際上,即使在這個問題上,我們還是可以拿出一個評判的標準來。這個標準就是:誰的哲學框架更容易和當下大多數(shù)科技工作者的哲學直觀相互映襯,誰就更有希望勝出;或者反過來說也一樣:誰的哲學框架更容易和當下大多數(shù)科技工作者的哲學直觀相互抵觸,誰就更有可能被淘汰。而之所以以此為標準,則是因為筆者已經(jīng)接受了美國哲學家奎因(W. V. Quine)提出的“自然主義的認識論綱領(lǐng)”——按照此綱領(lǐng),自然科學知識與哲學構(gòu)建之間的關(guān)系應(yīng)當是連續(xù)的,而不是斷裂的。因此,一種更容易與人類既有科學知識熔鑄為一的哲學框架,也應(yīng)當在諸多哲學框架的彼此競爭中得到偏好。

        先按照上述標準來分析“強虛擬現(xiàn)實論題”。翟振明教授為了捍衛(wèi)該論題,提出了三條子論題。

        第一,任何我們用以證明自然實在的物質(zhì)性的理由,若被用以證明虛擬實在的物質(zhì)性,那么要么就會變得同樣的有效,要么就會變得同樣的無效。譬如,如果你要證明你看到的一塊面包是真實的話,你能夠做的,無非就是反復(fù)端詳它,或者狠狠地咬上它一口——但通過一臺完美的虛擬現(xiàn)實體驗設(shè)備,這些事情你也完全可以做到。在這樣的情況下,你如何證明你現(xiàn)在“吃”到的不是面包呢?

        第二,任何我們用以證明虛擬實在中感知到的虛擬物為虛幻的理由,用到自然對象上,照樣可以推出它們也是虛幻的結(jié)論。譬如,你如果堅信透過虛擬現(xiàn)實設(shè)備看到的虛擬對象,都是一些精心設(shè)計的物理信號對于你的大腦刺激后所產(chǎn)生的產(chǎn)物的話,那么,我也就能夠從哲學上證明:任何一個所謂“真實”的自然對象在實質(zhì)上也都僅僅是“感覺的復(fù)合”而已。因此,無論在虛擬現(xiàn)實設(shè)備中還是在此類設(shè)備之外,你都根本無法超越于感官的限制去證明所謂“物自體”的存在。

        第三,任何在自然世界中的生存發(fā)展所需要完成的任務(wù),我們在虛擬現(xiàn)實世界中也可以完成。譬如,完美的虛擬現(xiàn)實設(shè)備能夠滿足你的食欲甚至性欲,能夠讓人和別“人”戀愛結(jié)婚甚至生子。

        概而言之,翟教授的論證思路就是:既然虛擬現(xiàn)實技術(shù)能夠與真實物理實在都產(chǎn)生彼此無法分辨的現(xiàn)象體驗,而且,既然我們?nèi)祟惒⒉痪邆涮鲎陨淼母泄倬窒奕プC明自己所視之物的真假的能力(譬如,即使我們已經(jīng)摘下了三維眼鏡,我們都無法證明現(xiàn)在看到的這臺虛擬現(xiàn)實設(shè)備自身的真實性,因為我們無法排除這種可能性的存在:就連“摘下眼鏡,看到設(shè)備”這一步也是虛擬現(xiàn)實實驗的一部分)——那么,我們也就沒有任何證據(jù)去表明:“強虛擬現(xiàn)實論題”要比更看重自然對象之實在性的“弱虛擬現(xiàn)實論題”更不值得偏好了。這也就是說,如果我們接受了翟教授論證的整個前提——一個哲學論題的可辯護性取決于該論題所得到的證據(jù)量——那么,我們就不得不承認:我們的確沒有更多的證據(jù)去支持“弱虛擬現(xiàn)實論題”,以使得其能夠戰(zhàn)勝“強虛擬現(xiàn)實論題”。

        但是,我們也完全可以從前面介紹的“奎因式思路”出發(fā),重新對“弱虛擬現(xiàn)實論題”與“強虛擬現(xiàn)實論題”各自的合理性作出評估。說得更具體一點,這里所說的“奎因式思路”其實就是一種整體論的思路——按照此思路,一個哲學論題的可辯護性并不主要取決于其所獲得的證據(jù)量,而主要取決于它與我們既有科學知識體系之間的契合程度。舉例來說,如果老王昨天失蹤了,我既可以猜測這是因為他自己偷偷開溜去了老家,也可以胡謅說他被外星人綁架了。這兩個猜測同樣都缺乏直接證據(jù)的支持(因為兩個假設(shè)都是我坐在沙發(fā)上胡編出來的)。但即使如此,前一個假設(shè)卻更應(yīng)當受到偏好,因為它與我們的日常知識的契合度更好(反之,如果我們?nèi)テ藐P(guān)于外星人綁架的假設(shè)的話,我們就會不得不去修正我們的整個關(guān)于地外生命存在的可能性與星際旅行之可行性的知識框架)。

        按照上面的思路,我們也不妨先設(shè)想現(xiàn)在的虛擬現(xiàn)實技術(shù)已經(jīng)完美到了這種程度:作為本刊讀者的諸位并不知道自己其實正穿戴著虛擬現(xiàn)實裝備以體驗紙質(zhì)刊物的閱讀。然而,你閱讀的這份雜志的紙質(zhì)版或許并不是真實存在的——你只是覺得手里拿著這份雜志而已;你只是在仿佛感受著雜志的重量;仿佛聞到了墨香,等等。在這樣的情況下,你到底該如何解釋你現(xiàn)在所看到的一切?

        我們不妨設(shè)想這幾種可能性:

        解釋一:我所感知到的就是真實世界。

        解釋二:我所感知到的世界,是一部強大的虛擬現(xiàn)實設(shè)備所制造出來的。

        解釋三:我所感知到的世界是真實的,但這一點不是通過外部世界自身的真實性來做終極擔保的,而是通過上帝的恩典來擔保的。換言之,是上帝的恩典創(chuàng)造了物質(zhì)世界自身,并保證我的知覺不是強大的虛擬現(xiàn)實設(shè)備的產(chǎn)物。

        如果奎因的思路是對的話,我們首先必須劃去“解釋三”,因為該解釋對于“上帝”這個超自然對象的承諾是很難在我們的現(xiàn)有科學知識體系中得到安頓的?!敖忉尪迸c“解釋一”由于都沒有在字面上牽涉到超自然對象,所以都可以暫時得到保留。但是更為仔細的考量將逼迫我們?nèi)h除“解釋二”,因為“解釋二”比“解釋一”更難以一種不陷入自相矛盾的方式與我們既有的科學知識對接。說得更為具體一點,如果“解釋二”是對的,我們就會被逼著去回答如下這些棘手的問題:(甲)是誰建造了這臺超級虛擬現(xiàn)實設(shè)備;(乙)他或他們?yōu)楹我圃爝@樣的機器;(丙)在虛擬現(xiàn)實中我們學到的那些知識——從牛頓定律的數(shù)學表達到秦始皇稱帝的時間,甚至包括三維眼鏡的設(shè)計原理——到底是真實世界的反映還是虛擬世界的一部分。這些問題之所以是棘手的,乃是因為對于它們的任何一種融貫化的解答都會使得“強虛擬現(xiàn)實論題”本身變得不再那么可信了。譬如,如果我們在回答(丙)問題的時候認定我們學到的科學知識都是虛擬實在的一部分的話,我們就必須假設(shè)虛擬實在設(shè)備的設(shè)計者在設(shè)計這些設(shè)備的時候用到的是另外的一部分知識。但是,這就等于說我們看到的世界是虛假的,而這種理論讓步則立即會導致“強虛擬現(xiàn)實論題”的破產(chǎn)。而反過來說,如果我們在回答(丙)問題的時候認定自己所學到的科學知識乃是實在的一種反映的話,那么我們就會隨之認定是虛擬現(xiàn)實設(shè)備的編程人員將其所理解的真實科學知識輸入了虛擬設(shè)備。但這樣一來,我們照樣會承認虛擬世界只是真實世界的某種摹寫——而這種推論照樣會導致“強虛擬現(xiàn)實論題”的破產(chǎn)??傊?,將“弱虛擬現(xiàn)實論題”升級為“強虛擬現(xiàn)實論題”的道路,或許本來就是一條死路。

        與之相比較而言,如果我們將“弱人工智能論題”升級為“強人工智能論題”,在這方面所遇到的障礙要小得多。這并不是說強人工智能論題的捍衛(wèi)者不會遇到任何理論麻煩。譬如,美國哲學家塞爾針對“強人工智能論題”的最著名的論證——漢字屋論證——就在一定程度上給他們造成了麻煩(這個論證的核心論點在于:純粹句法層面上的機器操作無法構(gòu)成語義內(nèi)容,而能夠把握語義內(nèi)容恰恰就是智能活動的一個絕對不可或缺的成分)。但是,對于強人工智能論題的支持者來說,關(guān)于“漢字屋論證”的一個好消息是:大批的人工智能專家(甚至是哲學家)都覺得塞爾的論證不是在這里搞錯了,就是在那里搞錯了。更重要的是,如果我們接受強人工智能論題,即認定一臺被恰當編程的計算機可以成為真實心靈的負載者的話,我們非但不會因此而對現(xiàn)有科學知識所蘊含的自然主義假設(shè)構(gòu)成任何威脅,而且還可以進一步說明唯物主義世界觀的合理性(因為從編程的角度重新界定“心智”的本質(zhì)的做法,無疑是從另一個角度捍衛(wèi)了唯物主義的立場)。由此,在這個回合的交鋒中,人工智能再次勝出。

        “強虛擬現(xiàn)實”與“強人工智能”,哪個在倫理上更麻煩?

        盡管人工智能已經(jīng)在與虛擬現(xiàn)實的交鋒中獲得了兩輪的勝利,但為了對虛擬現(xiàn)實技術(shù)的支持者表示出更友好的姿態(tài),在本節(jié)中我們則繼續(xù)對前兩節(jié)的討論暫時“清零”,并由此假設(shè):目前的“弱虛擬現(xiàn)實技術(shù)”或許也已經(jīng)通過某種途徑摘掉了這個讓人討厭的“弱”字,并由此轉(zhuǎn)“強”。于是我們就得處理一個關(guān)于技術(shù)倫理的問題了:發(fā)展強虛擬現(xiàn)實技術(shù)與發(fā)展強人工智能技術(shù),哪個會對人類帶來更大的福祉,或帶來更多的倫理困境呢?而筆者對于這個問題的看法是:如果兩者都值得憂慮的話,那么,我們給予超級虛擬現(xiàn)實技術(shù)的憂慮還應(yīng)當多一點。相關(guān)理由如下。

        虛擬現(xiàn)實技術(shù)雖然是“造客”之術(shù),但是相關(guān)設(shè)備必須進入與人類用戶的互動,才可能進入實際運作,因此,其對于人類用戶的影響反而是直接的。與之相比對,作為“塑主”之術(shù)的人工智能所塑之“主”,其實乃是機器主體,其運作完全可以在脫離人類用戶監(jiān)督的情況下進行(譬如,我們可以設(shè)想在火星上作業(yè)的智能機器人,即使在與地球總部失聯(lián)的情況下也可以獨立決策與行動)。因此,強人工智能技術(shù)對人類用戶的精神狀態(tài)的影響反而會比較小一些(盡管也非完全沒有)。如果我們將一種技術(shù)對于人類——特別是人的感知、行動系統(tǒng)的信息處理模式——的直接影響的大小視為相關(guān)倫理風險的預(yù)警值的話,那么,虛擬現(xiàn)實技術(shù)所蘊藏的相關(guān)倫理風險顯然會更大一些。

        讀者可能會追問:憑什么說一種技術(shù)對于人類既有感知、行動系統(tǒng)的改造越大,其倫理風險也會越大?按照此邏輯,難道我們就不該去研究假肢了?這里需要注意的是,假肢研究與這里我們所關(guān)心的虛擬現(xiàn)實技術(shù)完全是兩個不同的題目。假肢并不牽涉到虛擬物理世界的構(gòu)建。假肢是真實的物理對象,就像被其替換掉的原來的肢體也是真實的物理對象一樣。同樣的,先進的帶有觸覺的假肢(如果真有這么先進的假肢的話)所把握到的一把扳手也是真實的扳手,而不是虛擬對象。我們甚至可以設(shè)想一個得了重病的人可以將身體的大量臟器都替換為相關(guān)的電子器件而成為所謂“賽博人”(Cyberman)——但即使是這些賽博人,其所感知到的世界也是真實的物理世界。這就導致了普通人類與這些賽博人之間基本的可溝通性,因為他們都身處于相同的物理空間之中,接受了同樣的物理學法則,而這些共通點本身也為彼此的人際關(guān)系的構(gòu)成提供了起碼的物理支點。譬如,當一個普通人對一個賽博人說“麻煩你把扳手遞給我”的時候,他已經(jīng)預(yù)設(shè)了扳手不會在相關(guān)的傳遞過程中變形,而且他也確定這個賽博人的物理能力能夠勝任這項工作。如果他懷疑這一點的話,他就會停止與賽博人交往,而人與人之間的信息交往管道也會因此而被堵塞。如果我們循著日本倫理學家和辻哲郎的思路,將人類的倫理性界定為人際之間信息管道的通暢性的話,那么,上述懷疑本身就自然會導致倫理之花的枯萎。?

        然而,這種對倫理性有所威脅的懷疑,卻的確會在超級虛擬現(xiàn)實技術(shù)問世的語境中被全面放大。你完全可以設(shè)想這樣的一個虛擬環(huán)境:扳手落下后失去了重力的作用,漂浮了起來;在沒有額外動力出現(xiàn)的前提下,你光憑意念就會自己飛起來;你可以使自己的身體突然變得透明,你也可以毫無困難地看見別人的身體……換言之,人類心智與真實物理世界之間的聯(lián)系被全部切斷,而完全深陷在虛擬的物理環(huán)境中不可自拔。這當然就使得那些與特定物理與心理規(guī)律相互聯(lián)系的社會規(guī)范也岌岌可危了:你可以隨意偷竊而不會受到懲罰,可以隨意對異性進行性侵害,可以隨意殺人,等等??傊谶@樣的虛擬環(huán)境中,所有人類的陰暗面都會得到縱容,而所有的社會糾偏機制都會失去其應(yīng)有的懲戒作用。沉迷于這樣的虛擬世界的人類,將徹底走向倫理上的墮落。

        有的讀者或許會反駁說:上面這種可怕的情形,只有在假定相關(guān)虛擬現(xiàn)實設(shè)備的編程人員非常邪惡的前提下才會出現(xiàn)。但這樣的假設(shè),難道也不會對超級人工智能設(shè)備的倫理性構(gòu)成質(zhì)疑嗎?舉例來說,如果恐怖分子獲取超級人工智能技術(shù)的話,難道就不會制造出濫殺無辜的“機器人殺手”嗎?這難道不比在虛擬世界中殺死虛擬的人類更糟糕嗎?此外,現(xiàn)在的大量電子游戲都包含有一定的暴力乃至準色情成分,但是這也并不意味著相關(guān)玩家會分不清現(xiàn)實與虛擬世界,并由此成為罪犯。為何在超級虛擬現(xiàn)實技術(shù)出場的語境中,這反而會成為問題呢?

        對于上面兩個問題,筆者先來回答第二個。我們知道,按照定義,強虛擬現(xiàn)實技術(shù)之“強”,就在于它的輸出本身就已經(jīng)是另一種實在。換言之,如果強虛擬現(xiàn)實技術(shù)實現(xiàn)的話,你穿戴上相關(guān)設(shè)備與脫下相關(guān)設(shè)備之間的區(qū)別,就可勉強類比于居住于物理世界的一個區(qū)域與居住于物理世界的另一個區(qū)域之間的區(qū)別。而在傳統(tǒng)的電子游戲中,即使是高度沉迷于游戲的玩家,也基本能夠區(qū)分虛擬現(xiàn)實與真實生活。這也就是說,在強虛擬現(xiàn)實技術(shù)出場的語境中,玩家要重新調(diào)整心態(tài)進入正常生活的難度,或許要遠遠大于目下一般電子游戲的玩家在執(zhí)行同樣任務(wù)時所面臨的難度。而如果其所處的虛擬世界的所有物理規(guī)則與社會規(guī)范都與真實世界有著巨大的區(qū)別的話,那么由此“培養(yǎng)”出來的玩家在進入真實人類社會之后所可能造成的危害,更是可想而知了。

        再來回答前述第一個問題。筆者當然不否認,被邪惡目的所支配的超級機器人若在真實世界中濫殺無辜,那的確會釀成重大悲劇——但是這種悲劇,或許并不比人類之間的血腥殘殺,來得更可悲一些(請別忘記了,在1945年8月的廣島,一顆原子彈就可以瞬間殺死幾萬人,而投下原子彈的可不是機器人)。此外,我們也不能抽象地說,因為工業(yè)事故與恐怖襲擊所導致的人命損失就一定就意味著社會德性的下降,因為活下來的人也完全可能更加恪守“捍衛(wèi)生命價值”的倫理規(guī)范,由此加強社會的團結(jié)感。而從社會管制技術(shù)的角度看,此類“機器人殺人”的悲劇一旦發(fā)生,我們依然可以在物理世界中尋找到肇事的機器人,并采取一定的物理措施來防止損失的擴大。但是,超級虛擬現(xiàn)實技術(shù)一旦被邪惡運用,其隱蔽性與對于人類現(xiàn)有德性的摧毀性,卻是現(xiàn)有的社會監(jiān)管系統(tǒng)所難以有效控制的。我們不妨通過如下對比性的思想實驗來理解這一點:如果恐怖分子想通過將現(xiàn)有機器人與化學武器接駁的方式來制造恐怖事件的話,那么有關(guān)反恐部門就完全可以通過檢測化學武器在物理世界中的流向來挫敗其陰謀;但如果別有用心的虛擬設(shè)備的編程人員試圖在虛擬世界中模擬化武襲擊的細節(jié)的話,那么,由于這種模擬并不在外部環(huán)境中有鮮明的征兆,反恐部門要對其加以有效監(jiān)管,也就難上加難了。而一旦大量的青年經(jīng)由此類邪惡虛擬軟件的“熏陶”而產(chǎn)生反社會心理,即使他們短期內(nèi)會因為缺乏必要技術(shù)手段(如缺乏武器)而無法直接造成對于社會的重大危害,其在正常社會中的“蟄伏”也會成為人類文明的重大安全隱患。一旦條件成熟,惡瘤由隱轉(zhuǎn)顯,社會管制機構(gòu)或許已來不及亡羊補牢了。

        有的讀者或許會說:為了防止這些負面因素的出現(xiàn),我們就必須加強立法,嚴格杜絕惡意編制反倫理的虛擬現(xiàn)實技術(shù)軟件的行為,以此防止反社會人格的出現(xiàn)。話雖說得不錯,但是這里所牽涉到的“立法難度”與“執(zhí)法難度”的問題卻不容忽視。就立法問題而言,由于虛擬現(xiàn)實涉及到了整個物理環(huán)境的制作,立法機關(guān)是否應(yīng)當允許程序編制人員在設(shè)計相關(guān)環(huán)境的情況下,去放松現(xiàn)實世界物理法則的約束呢?如果一點都不允許放松,會不會對相關(guān)產(chǎn)業(yè)的創(chuàng)造力構(gòu)成負面影響呢?如果過于放任自流,我們?nèi)绾伪WC用戶在脫卸這些設(shè)備進入正常物理環(huán)境后不會產(chǎn)生不適應(yīng)癥?就執(zhí)法問題而言,我們怎么知道有人已經(jīng)在惡意設(shè)計并運用虛擬環(huán)境軟件?而在相關(guān)軟件的受害者做出反社會行為之后再發(fā)現(xiàn)問題的源頭,是不是就有點太晚了?相比較而言,對于超級人工智能產(chǎn)品的倫理規(guī)范進行法律監(jiān)管,難度恐怕還要稍小一些。首先,我們不用擔心智能機器人自身對于物理世界的表征會離開物理法則的約束,因為只要這樣的機器人需要在真實的物理世界中行動,它們就無法不尊重這些約束。而這一點,自然也就為智能機器人與人類的共處提供了最為基本的“物理支點”。其二,智能機器人如果被惡意軟件入侵作出反人類行為,那么對于相關(guān)機器人的物理消滅,就是最為干脆的解決手段,其法律方面的遺留問題也僅僅會牽涉到財產(chǎn)賠償?shù)燃兗夹g(shù)問題而已,而不會遺留重大的倫理難題。而被惡意虛擬現(xiàn)實軟件毒害的人類做出反社會行為之后,我們對于此類嫌疑人的處置手段卻會受到諸多法律框架與倫理規(guī)范的約束,弄不好就會陷入“瓷器店里打老鼠”的尷尬境地。因此,相比較而言,超級人工智能帶來的倫理麻煩雖然并非可以被輕易忽視,但的確也沒有超級虛擬現(xiàn)實技術(shù)所帶來的倫理困境那么嚴重。

        不過,本節(jié)討論的基礎(chǔ),一直是對于“強虛擬現(xiàn)實論題成立”這一點的預(yù)設(shè)。實際上,正如本文第二節(jié)就已經(jīng)揭示的,筆者對“弱虛擬現(xiàn)實論題”能否成立都有高度的懷疑,遑論“強虛擬現(xiàn)實論題”。因此,本節(jié)的討論所涉及到的那些令人不快的場景,很可能只會在未來得到部分的實現(xiàn),而不太可能被全部實現(xiàn)。但是,我們切不可因此放松對于虛擬現(xiàn)實技術(shù)的倫理與法律隱患的忽視。由于虛擬現(xiàn)實技術(shù)在聲、光效果方面業(yè)已取得不俗的表現(xiàn),以及相關(guān)穿戴設(shè)備市場價格的不斷走低,我們便無法排除這樣的可能性的出現(xiàn):某些別有用心的極端組織會利用相關(guān)技術(shù),為屬下成員“洗腦”,并成批制造恐襲的“肉彈”后備軍。與之相比較,強人工智能技術(shù)若要與機器人機體有效結(jié)合,則必須以相當?shù)墓I(yè)基礎(chǔ)與智力資源作為后盾——因此,我們便很難設(shè)想技術(shù)相對低端的犯罪與恐暴集團能夠在這個領(lǐng)域拿出堪與主權(quán)國家軍警系統(tǒng)相抗衡的“土造武裝機器人”。因此,在可以預(yù)見的未來,我們依然可以希望人工智能技術(shù)不至于成為人類和平的重大威脅,甚至可以期望大多數(shù)的機器人戰(zhàn)士會站在文明社會一邊,保衛(wèi)現(xiàn)有的人類價值觀不至被顛覆。

        結(jié)論:從“人性”的角度再看虛擬現(xiàn)實

        在本文討論的結(jié)尾處,我們不妨從一個更宏大的視角來反思一下以人工智能技術(shù)與虛擬現(xiàn)實技術(shù)為代表的現(xiàn)代信息技術(shù)成就與人類社會的倫理秩序之間的關(guān)系。站在信息科學與生物學的雙重視角看人類的倫理秩序,所謂“倫理”,無非就是哲學家對于智人群體為了提高種群適應(yīng)性而具有的群內(nèi)信息—物質(zhì)交換方式所作的規(guī)范性抽象。由于遍布全球的智人群體之間的基因型的高度重合性以及地球環(huán)境的大致穩(wěn)定性,我們便不難理解,為何彼此之間長期沒有直接交流的智人群體,可以演化出類似的信息與物質(zhì)分享方式(如在分享信息與物質(zhì)時優(yōu)先照顧有血緣關(guān)系的社會對象)。而這些分享方式之間的家族相似關(guān)系,若被實體化為可以被命題表達的倫理規(guī)范,就會成為后世哲學家所說的“人性”的來源。認清這一點,對于理解蒸汽機時代以來人類工業(yè)革命的進步的真正生物學意義,將大有裨益。仇視現(xiàn)代科技文明的反技術(shù)烏托邦論者,或許會傾向于認為現(xiàn)代科技在根本上是反人性的,因為工業(yè)化運作的機械化特征本身就意味著對于自由人性的一種暴政——但他們所忽略的硬幣的更為閃亮的另一面則是:如果現(xiàn)代的科技產(chǎn)品的運作不順從人類的生物性節(jié)律的運作的話,那么,工業(yè)革命對人類社會所帶來的巨大變革就會成為天方夜譚。譬如,恰恰是增壓艙技術(shù)在現(xiàn)代客機上的運用,才使得人類在平流層的高空旅行變得相對舒適;正是電話與互聯(lián)網(wǎng)的出現(xiàn),才使得人類能夠以極小的生物學成本獲取遠方的信息;正是現(xiàn)代農(nóng)牧業(yè)的大發(fā)展,才使得人類能夠輕易獲得維持身體的健康所需要的碳水化合物、蛋白質(zhì)與脂肪。而我們之所以將上述這些科技進步看成“合乎倫理的”,也恰恰是因為它們的出現(xiàn)提高了智人在物理世界中的生物學適應(yīng)性,而非反之。

        若從上述這個角度出發(fā)去反思虛擬現(xiàn)實技術(shù)與人工智能技術(shù),我們就會發(fā)現(xiàn),二者可能是在兩個不同的方向上去嘗試改變?nèi)伺c自然的關(guān)系。人工智能技術(shù)的真正用意乃是使智人能夠從繁重的腦力活動中解放出來,其意義正如交通技術(shù)的進步,能夠使人類從辛苦的位置遷移活動中解放出來一樣。在這樣的情況下,智人就有可能在不實質(zhì)性改變自身既有生物學節(jié)律的前提下,大大增加自身對于信息與物質(zhì)的占有與消化能力,并通過這種能力的增加進一步提高自身的生物學適應(yīng)性。從這個角度看,人工智能技術(shù)就具有一種內(nèi)置的倫理性,?正如印刷術(shù)對于手抄本的取代具有一種內(nèi)在的倫理進步意義一樣(盡管在特定的歷史條件下,人工智能技術(shù)與印刷術(shù)也都會偶然的帶來負面的倫理效應(yīng))。與之相比較,虛擬現(xiàn)實技術(shù)的運用指向卻不像人工智能技術(shù)那么明確。試想:為什么人們一定要通過與現(xiàn)實高度逼真的虛擬對象來了解世界呢?一方面,對于世界的真正深刻的表征可能未必是感性的(譬如,基礎(chǔ)物理學家就是通過復(fù)雜的數(shù)學模型來理解世界的,而數(shù)學模型本身并不在感性層面上高度擬真);另一方面,我們也很難相信虛擬現(xiàn)實會比現(xiàn)實更真實(譬如,我們很難相信光靠虛擬現(xiàn)實設(shè)備所提供的訓練,飛行員就會獲得駕駛真飛機的資格)。從這個角度看,只有在現(xiàn)實的物理刺激相對稀缺的情況下,虛擬現(xiàn)實技術(shù)才能夠為人類相關(guān)感官能力的鍛煉提供一種相對廉價的補償手段。但是,根據(jù)虛擬現(xiàn)實的真正內(nèi)在發(fā)展指向——即從“更弱虛擬現(xiàn)實技術(shù)”一路攀升至“強虛擬現(xiàn)實技術(shù)”——有野心的相關(guān)從業(yè)者恐怕絕不會滿足于使得自己的產(chǎn)品僅僅成為此類“技術(shù)補償手段”。毋寧說,他們更期望能夠全面利用人類大腦運作的認知機制,以便徹底地誘導其去做出設(shè)計者所期望的那種知覺判斷——而這樣做的動機,無論僅僅是為了滿足哲學懷疑論者的理智好奇心,還是為了炫耀自己技術(shù)的高明性,或是基于另外一些更為不可告人的目的,都很難與人類真實的生物學需求發(fā)生正面的聯(lián)系。至于長期浸潤在這種與現(xiàn)實脫離的虛擬現(xiàn)實中的人類,或許也就會像電影《盜夢空間》里造夢師道姆·柯布的妻子梅爾那樣,覺得夢境反而好過現(xiàn)實,結(jié)果從高樓上一跳了事。由此看來,虛擬現(xiàn)實技術(shù)的發(fā)展,或許很可能會拆散人類既有的信息—物質(zhì)交換方式中現(xiàn)實編織的經(jīng)緯,而不是讓其能夠被編織得更為緊密。對于此中利害關(guān)聯(lián),吾輩絕不可掉以輕心。

        (本文系國家社科基金重大項目“基于信息技術(shù)哲學的當代認識論研究”前期成果,項目編號:15ZDB020)

        注釋

        翟振明:《虛擬現(xiàn)實比人工智能更具顛覆性》,《高科技與產(chǎn)業(yè)化》,2015年第11期。

        John Searle,"Minds, Brains and Programs", Behavioral and Brain Sciences, 1980, 3(3): pp.417–445.

        Roger Penrose, Shadows of the Mind: A Search for the Missing Science of Consciousness, 1994, Oxford University Press.

        翟振明:《實在論的最后崩潰——從虛擬實在談起》,《哲學動態(tài)》,2005年第4期。

        參閱郭貴春、成素梅:《虛擬實在真的會導致實在論的崩潰嗎?——與翟振明商榷》,《哲學動態(tài)》,2005年第4期;黃勇:《虛擬實在與實在論》,《求是學刊》,2015年第1期。

        以下三點的討論,參考了曹雨編著的《虛擬現(xiàn)實:你不可知道的下一代計算平臺》(北京:電子工業(yè)出版社,2016年)中8.4節(jié)至8.6節(jié)。

        M. Mori, "The uncanny valley" (K. F. MacDorman & Norri Kageki, Trans.), IEEE Robotics and Automation, 2012, 19(2), pp.98–100.

        J. Goetz, S. Kiesler, & A. Powers, "Matching robot appearance and behavior to tasks to improve human-robot cooperation", Proceedings of the Twelfth IEEE International Workshop on Robot and Human Interactive Communication, 2003, Lisbon, Portugal.

        徐英瑾:《對于“感受質(zhì)”之“不可言說性”的一種自然主義解釋》,《自然辯證法通訊》,2015年第4期。

        Rodney Brooks, "Elephants don't Play Chess", Robotics and Autonomous Systems, 1990, 6: pp.3-15.

        有人或許會說,格式塔心理學家所說的那些視錯覺,即使在虛擬現(xiàn)實技術(shù)誕生之前就早已存在了,因此,我們?nèi)祟悓τ谖锢硎澜绫旧淼母兄鸵呀?jīng)包含了一定的謬誤。但筆者認為這樣的反駁意見非常牽強。人類的視覺系統(tǒng)按照格式塔原理對于外部信息所做的某些簡化,固然會產(chǎn)生與精確物理測量不同的結(jié)果,但是在人類生物學身體可以接受的尺度上,這樣的誤差其實是完全可以被接受的。這與通過虛擬現(xiàn)實設(shè)備憑空設(shè)計出一個物理對象,乃是完全不可被相提并論的另一類情況。

        徐英瑾:《語言、心智與機器——維特根斯坦哲學與人工智能科學的對話》,北京:人民出版社,2013年。

        徐英瑾:《馬克思與和辻哲郎關(guān)于倫理本質(zhì)的對話——以“空間性”概念為切入點》,《長白學刊》,2016年第3期。

        一個人工器物具有內(nèi)在的倫理性,當且僅當在相對中立的運用語境中,對于它的恰當使用能夠帶來正面的倫理效果。

        責 編∕樊保玲

        猜你喜歡
        人工智能
        我校新增“人工智能”本科專業(yè)
        用“小AI”解決人工智能的“大”煩惱
        汽車零部件(2020年3期)2020-03-27 05:30:20
        當人工智能遇見再制造
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        AI人工智能解疑答問
        人工智能與就業(yè)
        基于人工智能的電力系統(tǒng)自動化控制
        人工智能,來了
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        人工智能來了
        學與玩(2017年12期)2017-02-16 06:51:12
        亚洲人成无码网站在线观看| 日本一级三级在线观看| 视频一区二区三区黄色| 久久精品国产久精国产果冻传媒| 无码aⅴ在线观看| 人片在线观看无码| 中文字幕综合一区二区| 亚洲综合av永久无码精品一区二区| 亚洲精品成人网站在线观看| www.久久av.com| 国产精品亚洲在线播放| 无套内内射视频网站| 国产精品免费久久久久影院仙踪林 | 开心五月激情综合婷婷| 99久久综合九九亚洲| 男女后入式在线观看视频| 尤物在线观看一区蜜桃| 日本道精品一区二区三区| 国精品无码一区二区三区在线看 | 亚洲综合网站久久久| 欧美成人一区二区三区在线观看| 国产精品电影久久久久电影网 | 久久精品国产亚洲av热九| 中文字幕乱码熟女人妻在线| 性欧美videofree高清精品| 国产午夜精品一区二区三区不| 青青草绿色华人播放在线视频 | 亚洲成人一区二区av| 日韩精品极品视频在线观看免费| 亚洲白白色无码在线观看| 亚洲精品二区在线观看| 美女午夜福利视频网址| 丰满熟妇乱子伦| 欧美成人精品福利在线视频| 久久精品国产亚洲av一般男女| 国产超碰女人任你爽| 99视频在线国产| 麻豆三级视频网站在线观看 | 国产欧美成人| 久久免费看视频少妇高潮| 午夜不卡无码中文字幕影院|