翁冬冬 薛雅瓊
1 人和虛擬角色的互動(dòng)
虛擬現(xiàn)實(shí)(VR)技術(shù)通過(guò)以計(jì)算機(jī)技術(shù)、人機(jī)交互為核心的高新技術(shù)生成逼真的視覺(jué)、聽(tīng)覺(jué)、觸覺(jué)等多通道的、一定范圍內(nèi)的虛擬環(huán)境,用戶可以借助必要的設(shè)備以自然的方式與虛擬環(huán)境中的物體交互,獲得親臨等同真實(shí)環(huán)境的感受和體驗(yàn)。VR具有“3I”特性,即沉浸感(immersion)、交互性(interaction)和構(gòu)想性(imagination),并且隨著同人工智能技術(shù)的不斷結(jié)合,VR系統(tǒng)表現(xiàn)出更多的智能性(intelligence),并逐漸向4I發(fā)展。
VR技術(shù)在發(fā)展的早期階段多用于軍事、航空航天、醫(yī)學(xué)、培訓(xùn)、工業(yè)仿真、城市規(guī)劃等嚴(yán)肅的專業(yè)領(lǐng)域,充分利用3I特性對(duì)現(xiàn)實(shí)世界進(jìn)行高精度的模擬與呈現(xiàn),輔助用戶研究分析,解決復(fù)雜問(wèn)題。隨著Oculus Rift、HTC Vive和PlayStation VR等消費(fèi)級(jí)VR產(chǎn)品的發(fā)布,VR技術(shù)逐漸從專業(yè)應(yīng)用領(lǐng)域走向消費(fèi)者市場(chǎng),教育、娛樂(lè)等個(gè)人應(yīng)用領(lǐng)域進(jìn)一步蓬勃發(fā)展。
最簡(jiǎn)單的VR應(yīng)用是虛擬電影院,在用戶的視野前方設(shè)置一塊可以播放電影的巨大屏幕,雖然播放的資源仍然是原先的傳統(tǒng)電影,但是可以讓用戶享受到在電影院觀影的感覺(jué)。360°視頻則更進(jìn)一步地不再固定用戶的視角,給予用戶更多自主選擇觀看視角的自由。嚴(yán)格來(lái)看,這兩者不能算作真正意義上的VR應(yīng)用,因?yàn)椴](méi)有充分體現(xiàn)出VR的3I特性,單單通過(guò)虛擬環(huán)境的360°環(huán)繞給人仿佛 “身臨其境”的感官錯(cuò)覺(jué),缺乏空間感知和運(yùn)動(dòng)支持,實(shí)現(xiàn)的沉浸感是粗糙而脆弱的,交互性和構(gòu)想性更是不曾體現(xiàn)。它們最多只能作為當(dāng)前階段缺乏成熟的制作VR互動(dòng)體驗(yàn)的經(jīng)驗(yàn),為方便廣大消費(fèi)者了解VR技術(shù)而做出的折衷。
在真正的VR互動(dòng)體驗(yàn)中,用戶不再以一個(gè)旁觀者的角度觀看,而是走進(jìn)故事中,親身存在于虛擬世界里,以第一人稱視角對(duì)虛擬世界進(jìn)行感知與理解,通過(guò)四處走動(dòng)加深對(duì)虛擬世界的空間感認(rèn)知,同時(shí)通過(guò)自身活動(dòng)影響周圍的虛擬環(huán)境和虛擬角色的發(fā)展,從而更深刻地感受到踏入一個(gè)全新世界的真實(shí)感。人和虛擬角色的互動(dòng)就可以歸入這一范疇。如果需要實(shí)現(xiàn)復(fù)雜的、接近真實(shí)世界中人-人交互的人和虛擬角色的互動(dòng)體驗(yàn),需要眾多相關(guān)技術(shù)的支持。
2 人和虛擬角色互動(dòng)的
關(guān)鍵技術(shù)
如圖1所示,一個(gè)完整的人-虛擬角色交互環(huán)路及各環(huán)節(jié)中需要解決的關(guān)鍵技術(shù)包括:(1)虛擬角色對(duì)用戶的多通道交互輸入信號(hào)進(jìn)行接收,即通過(guò)對(duì)用戶的頭部和手部進(jìn)行空間定位,賦予虛擬角色感知用戶當(dāng)前位置和視線方向,以及打招呼、遞東西等手部動(dòng)作的能力;通過(guò)動(dòng)作捕捉,對(duì)用戶全身的動(dòng)作進(jìn)行跟蹤;通過(guò)眼動(dòng)追蹤,更準(zhǔn)確地了解用戶注視點(diǎn)的變化;通過(guò)麥克風(fēng)采集用戶的語(yǔ)音輸入。(2)虛擬角色根據(jù)用戶的多通道交互輸入信號(hào),確定將要呈現(xiàn)給用戶的多通道反饋輸出信號(hào),例如面對(duì)用戶的打招呼動(dòng)作,確定是否做出反應(yīng),以及做出怎樣的反應(yīng)。(3)虛擬角色將多通道反饋輸出信號(hào)通過(guò)自身的表情、姿態(tài)、動(dòng)作、語(yǔ)音等形式呈現(xiàn)給用戶。
此外,在純虛擬的交互基礎(chǔ)上,可以進(jìn)一步借助力觸覺(jué)反饋技術(shù)為虛擬角色提供觸覺(jué)支持,使交互具有更多的物理性,即用戶在虛擬環(huán)境中看到虛擬角色的同時(shí),可以在真實(shí)世界的相同位置處觸摸到虛擬角色。
2.1 空間定位
為了給用戶提供真實(shí)的包含視、聽(tīng)、觸多通道信息的虛擬環(huán)境,需要實(shí)時(shí)檢測(cè)用戶頭部的位置和視線方向,計(jì)算機(jī)能根據(jù)這些信息確定所要呈現(xiàn)的虛擬感官通道信息,并通過(guò)各通道的輸出設(shè)備實(shí)時(shí)呈現(xiàn)。為了使用戶在虛擬環(huán)境中體驗(yàn)到更高的沉浸感,同時(shí)賦予用戶一定的手部交互能力,需要實(shí)時(shí)檢測(cè)用戶手部的位置和姿態(tài)并在虛擬環(huán)境中渲染,同時(shí)通過(guò)將手部與可交互的虛擬目標(biāo)進(jìn)行碰撞檢測(cè)做出交互判斷。
應(yīng)用于VR領(lǐng)域的跟蹤技術(shù),通常以傳感器為核心構(gòu)建跟蹤系統(tǒng),根據(jù)選用的傳感器種類不同,跟蹤系統(tǒng)分為機(jī)械跟蹤、電磁跟蹤、超聲波跟蹤、光學(xué)跟蹤和慣性跟蹤。機(jī)械跟蹤會(huì)極大地限制用戶自身的運(yùn)動(dòng),不適合人和虛擬角色存在豐富互動(dòng)的應(yīng)用。電磁跟蹤和超聲波跟蹤易受工作環(huán)境中磁場(chǎng)、金屬物體與刺激性聲波脈沖的干擾,抗干擾性較差,且跟蹤精度會(huì)隨著跟蹤范圍的增大而迅速衰減,也不適合包含空間定位,允許用戶在較大范圍內(nèi)走動(dòng)交互的應(yīng)用。而光學(xué)跟蹤(包括廣義的光學(xué)跟蹤技術(shù),例如激光掃描空間定位技術(shù))和慣性跟蹤能夠?qū)崿F(xiàn)較大的跟蹤范圍,且兩者相結(jié)合的跟蹤方案能夠取長(zhǎng)補(bǔ)短,光學(xué)跟蹤提供高精度的空間定位,同時(shí)對(duì)慣性跟蹤中隨時(shí)間推移產(chǎn)生的較大累積誤差進(jìn)行校正,慣性跟蹤克服光學(xué)跟蹤在遮擋、畫(huà)面模糊時(shí)定位失敗的問(wèn)題,同時(shí)高采樣率確保能實(shí)時(shí)跟蹤目標(biāo)的快速運(yùn)動(dòng),保證交互的實(shí)時(shí)性,是當(dāng)前技術(shù)階段中主流的空間定位解決方案。
2.2 動(dòng)作捕捉
通過(guò)對(duì)用戶的手部進(jìn)行空間定位,虛擬角色能夠感知用戶手部做出的簡(jiǎn)單動(dòng)作,例如:招手、遞送物體,并做出相應(yīng)的回應(yīng),但是手柄實(shí)現(xiàn)的簡(jiǎn)單空間定位無(wú)法完全跟蹤手部豐富自由度的運(yùn)動(dòng),且在交互過(guò)程中持續(xù)地手持設(shè)備會(huì)干擾人-虛擬角色交互的自然性。為此可以采用手部動(dòng)作捕捉技術(shù),無(wú)需手持設(shè)備,裸手或者穿戴數(shù)據(jù)手套就能跟蹤全手運(yùn)動(dòng),與虛擬角色自然互動(dòng)。此外還可以進(jìn)一步通過(guò)全身動(dòng)作捕捉來(lái)實(shí)現(xiàn)用戶全身的運(yùn)動(dòng)跟蹤。
動(dòng)作捕捉技術(shù)從實(shí)現(xiàn)方式上分場(chǎng)景深度解析方案和可穿戴方案兩種。場(chǎng)景深度解析方案通過(guò)光學(xué)傳感器接收到的光信號(hào)來(lái)分析場(chǎng)景的深度信息,進(jìn)而確定手部或者全身的位置和姿態(tài),無(wú)需用戶手持或者穿戴專用設(shè)備就可實(shí)現(xiàn)動(dòng)作捕捉,最大程度地減少真實(shí)世界的干擾,使人和虛擬角色的互動(dòng)更加自然;但是獲取的人體骨骼運(yùn)動(dòng)較為粗糙,限制了交互的真實(shí)感。相比之下,可穿戴方案通過(guò)在用戶身上多個(gè)關(guān)鍵點(diǎn)處固定傳感器或者標(biāo)志點(diǎn),測(cè)量該點(diǎn)的位置變化或者彎曲程度,反算用戶的身體運(yùn)動(dòng),實(shí)現(xiàn)的動(dòng)作捕捉更為精細(xì)。
2.3 眼動(dòng)追蹤
通過(guò)對(duì)用戶的頭部進(jìn)行空間定位,虛擬角色能夠利用屏幕中心粗略地估計(jì)用戶的注視點(diǎn),做出與用戶視線接觸等交互。若是需要更準(zhǔn)確地確定用戶的注視點(diǎn),以便更好地理解用戶的交互意圖,可以將眼動(dòng)追蹤技術(shù)[1]集成至頭戴式顯示器中,例如FOVE頭戴式顯示器通過(guò)嵌入兩枚小型紅外攝像頭,采集被紅外發(fā)光二極管照亮的人眼的圖像,利用角膜反射法[2]計(jì)算用戶的眼球位置。endprint
眼動(dòng)追蹤技術(shù)還能捕捉、記錄反映用戶一定情緒和認(rèn)知過(guò)程的眼部活動(dòng)[3-4],例如表征情緒狀態(tài)變化的瞳孔縮放和與心理負(fù)荷息息相關(guān)的眨眼頻率。綜合分析這些反映情緒和認(rèn)知的眼動(dòng)數(shù)據(jù)和其他通道獲取的用戶輸入,能更好地判斷用戶的情緒和交互意圖,使虛擬角色做出更加合適的反應(yīng)。
除此之外,利用眼動(dòng)追蹤技術(shù)獲取的眼球運(yùn)動(dòng)數(shù)據(jù),還可以實(shí)現(xiàn)模擬人眼視覺(jué)的視網(wǎng)膜中心凹渲染技術(shù)。該技術(shù)可以只對(duì)視域中央的畫(huà)面進(jìn)行高分辨率渲染,視域邊緣采用逐漸降低的分辨率,大幅降低硬件計(jì)算負(fù)擔(dān),避免精細(xì)地渲染整幅畫(huà)面耗費(fèi)大量計(jì)算資源,導(dǎo)致渲染幀率下降,人-虛擬角色互動(dòng)實(shí)時(shí)性變差[5-6]。
2.4 語(yǔ)音輸入
人們傾向于將交互對(duì)象擬人化,面對(duì)一個(gè)虛擬角色,尤其是類人形時(shí),會(huì)自然地期待它能表現(xiàn)出類似人類的行為,而語(yǔ)音交互作為人-人交互中最重要交互手段之一,非常有必要實(shí)現(xiàn)于人-虛擬角色互動(dòng)中。
在交互過(guò)程中,虛擬角色將采集到的用戶語(yǔ)音輸入,先通過(guò)語(yǔ)音識(shí)別轉(zhuǎn)化為相應(yīng)的文本內(nèi)容,再通過(guò)語(yǔ)義理解進(jìn)行基于上下文的交互意圖判斷,同時(shí)虛擬角色還可以通過(guò)對(duì)音調(diào)、響度等聲學(xué)特征和語(yǔ)音內(nèi)容進(jìn)行分析,判斷用戶在與之互動(dòng)時(shí)的情緒變化[7-8],綜合分析用戶的交互意圖和情緒,做出更為合適的反應(yīng)。
2.5 反饋控制系統(tǒng)
反饋控制系統(tǒng)的作用在于根據(jù)獲取到的多通道交互輸入信號(hào),確定將要呈現(xiàn)給用戶的多通道反饋輸出信號(hào)。傳統(tǒng)方式是建立一個(gè)由交互輸入到反饋輸出的程式化的映射,一切按照預(yù)先寫(xiě)好的程序進(jìn)行,一定的輸入必然對(duì)應(yīng)一定的輸出,或者按照一定概率對(duì)應(yīng)一系列輸出中的一種,這種程式化的虛擬角色反饋極度單調(diào)、不自然,缺乏使人與之長(zhǎng)期互動(dòng)的吸引力。
為了建立豐富的、自然的虛擬角色反饋,感知-控制-行動(dòng)模型(SCA)、并行轉(zhuǎn)換網(wǎng)絡(luò)模型(PaT-Nets)[9]、等多種虛擬角色行為控制模型被建立,且隨著深度學(xué)習(xí)和大數(shù)據(jù)的不斷發(fā)展,在不久的將來(lái)虛擬角色甚至能夠以學(xué)習(xí)的方式自行建立起人-虛擬角色交互的反饋模型。
2.6 反饋信號(hào)渲染
反饋信號(hào)渲染的目標(biāo)在于將包括表情、動(dòng)作和語(yǔ)音在內(nèi)的多通道反饋輸出信號(hào)呈現(xiàn)給用戶。為了使用戶感到虛擬角色是真實(shí)的,吸引用戶按照人-人交互的方式同虛擬角色互動(dòng),要求虛擬角色的表情、動(dòng)作和語(yǔ)音都是接近真實(shí)的。
真實(shí)的表情和動(dòng)作可以通過(guò)動(dòng)作捕捉并錄制獲得,通過(guò)在動(dòng)作錄制者的臉上和身上粘貼或繪制標(biāo)志點(diǎn),并對(duì)標(biāo)志點(diǎn)進(jìn)行跟蹤,即可利用跟蹤數(shù)據(jù)來(lái)驅(qū)動(dòng)虛擬角色做出同樣的表情和動(dòng)作,但是此方法獲得動(dòng)作和表情需預(yù)先錄制,限制交互的豐富性。虛擬角色的表情和動(dòng)作也可以通過(guò)深度學(xué)習(xí)進(jìn)行訓(xùn)練,目前Google使用強(qiáng)化學(xué)習(xí)算法訓(xùn)練人工智能越過(guò)障礙物從起點(diǎn)跑至終點(diǎn),已經(jīng)成功地使人形模型自行學(xué)會(huì)了行走、跳躍等動(dòng)作[10],這種通過(guò)學(xué)習(xí)產(chǎn)生的動(dòng)作和表情能夠?qū)崟r(shí)生成無(wú)需預(yù)先錄制,同時(shí)有望做到非常接近真實(shí)的程度,但當(dāng)前研究進(jìn)展距離商業(yè)可應(yīng)用還有一段不短的路要走。
傳統(tǒng)的語(yǔ)音合成方案為參數(shù)化語(yǔ)音合成和拼接式語(yǔ)音合成,均利用已有的聲音進(jìn)行重組來(lái)合成新的語(yǔ)段音頻。該方式產(chǎn)生的語(yǔ)音能基本接近人類表達(dá)的流暢度,但是聽(tīng)起來(lái)不自然,且由于無(wú)法產(chǎn)生可以自適應(yīng)變化的語(yǔ)調(diào)和語(yǔ)速來(lái)反映說(shuō)話者的情緒,很難讓人產(chǎn)生“我在跟一個(gè)人說(shuō)話”的感覺(jué)。為了獲得真實(shí)的語(yǔ)音,一方面可以針對(duì)交互場(chǎng)景預(yù)先錄制,此方法同樣存在交互豐富性受限的問(wèn)題;另一方面可以引入學(xué)習(xí)的手段,例如Google的WaveNet[11]利用真實(shí)的人類聲音和相應(yīng)的語(yǔ)言、語(yǔ)音特征來(lái)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),使其掌握不同語(yǔ)音、語(yǔ)言的模式,能夠?qū)崟r(shí)合成出更加接近自然人聲的語(yǔ)音音頻,并且模擬一定的語(yǔ)調(diào)、情感和口音,但是距離讓用戶無(wú)法區(qū)分是機(jī)器合成還是真人講話尚有很大差距。
2.7力觸覺(jué)反饋技術(shù)
上述的關(guān)鍵技術(shù)已涵蓋人-虛擬角色交互的整個(gè)環(huán)路,但是無(wú)論是用戶的交互輸入還是虛擬角色的反饋輸出都完全虛擬,看得見(jiàn)摸不著,可能會(huì)發(fā)生用戶的虛擬化身穿過(guò)虛擬角色身體造成臨場(chǎng)感中斷的現(xiàn)象。為了避免出現(xiàn)此類視覺(jué)穿透現(xiàn)象破壞人-虛擬角色互動(dòng)體驗(yàn),一方面可以通過(guò)巧妙的方式拉開(kāi)人和虛擬角色之間的距離,但是遏制了視覺(jué)穿透可能性的同時(shí)也可能給交互帶來(lái)距離感;另一方面則可以在純虛擬的交互基礎(chǔ)上,借助力觸覺(jué)反饋技術(shù)為虛擬角色提供觸覺(jué)支持,避免視覺(jué)穿透的同時(shí)對(duì)視覺(jué)、聽(tīng)覺(jué)雙通道交互進(jìn)行觸覺(jué)通道的擴(kuò)展。
力觸覺(jué)反饋技術(shù)從實(shí)現(xiàn)機(jī)制上分為主動(dòng)式和被動(dòng)式兩種。主動(dòng)式力觸覺(jué)反饋設(shè)備包括場(chǎng)景/桌面式、手持式和可穿戴式3種:場(chǎng)景/桌面式設(shè)備固定放置于桌面上或者立于交互場(chǎng)景中,通過(guò)電機(jī)驅(qū)動(dòng)操縱桿或者線繩的方式來(lái)輸出三維空間中的虛擬作用力,由于需要用戶一直與設(shè)備接觸以感受其產(chǎn)生的作用力輸出,會(huì)損傷用戶與虛擬角色互動(dòng)時(shí)的沉浸感,并且有限的工作范圍也嚴(yán)重限制了人-虛擬角色交互的自由性,故不適合用于人和虛擬角色的互動(dòng)體驗(yàn);手持式設(shè)備,顧名思義需要用戶時(shí)刻持于手中,通常以手柄、手持道具類設(shè)備出現(xiàn),通過(guò)振動(dòng)觸覺(jué)、氣動(dòng)等技術(shù)模擬作用于手部的力,同樣存在持續(xù)接觸干擾交互自然性的問(wèn)題;可穿戴式設(shè)備通常以觸覺(jué)衣、臂帶和手套等形式出現(xiàn),利用振動(dòng)、氣動(dòng)、肌肉電刺激、擠壓、力矩操縱等技術(shù)模擬力觸覺(jué)作用于人體的感受,目前高精度的觸覺(jué)分布模擬的計(jì)算難關(guān)還未突破,只能對(duì)和虛擬角色的握手、擁抱等觸覺(jué)交互進(jìn)行較為粗糙的實(shí)現(xiàn)。
被動(dòng)式力觸覺(jué)反饋則是通過(guò)跟蹤真實(shí)世界中一個(gè)和虛擬角色近似1:1對(duì)應(yīng)的實(shí)物,并在其上精確地疊加虛擬角色,使用戶在虛擬環(huán)境中看到虛擬角色的同時(shí),在相同位置處觸摸到與虛擬角色對(duì)應(yīng)的實(shí)物。該方案利用真實(shí)物體本身的屬性提供力觸覺(jué)反饋,真實(shí)感更高,并且不存在持續(xù)接觸的問(wèn)題,更容易實(shí)現(xiàn)和虛擬角色的握手、擁抱等觸覺(jué)交互,但是需要在真實(shí)世界中存在一個(gè)相似于虛擬角色的實(shí)物限制了該類技術(shù)應(yīng)用的靈活性。
當(dāng)前階段,選用被動(dòng)方案為靜態(tài)的虛擬角色提供力觸覺(jué)反饋更為自然真實(shí)。而隨著傳感驅(qū)動(dòng)裝置的小型化集成技術(shù)更加成熟,隨著對(duì)觸覺(jué)這一感官通道的研究更加深入,對(duì)觸覺(jué)的模擬更加真實(shí),使用被動(dòng)方案或可穿戴式方案為動(dòng)態(tài)的虛擬角色賦予物理性變得可行,其中被動(dòng)方案的實(shí)現(xiàn)更加自然,接近真實(shí)世界中的交互;而可穿戴式方案更加靈活,可以方便調(diào)整為不同的虛擬角色提供力觸覺(jué)反饋。endprint
3 結(jié)束語(yǔ)
在虛擬環(huán)境中實(shí)現(xiàn)同虛擬角色的互動(dòng)需要解決3個(gè)核心問(wèn)題:如何實(shí)時(shí)精確地采集用戶的多通道交互輸入信號(hào);如何建立虛擬角色的由交互刺激到反饋的“體現(xiàn)智能與情感的”映射;如何將虛擬角色的多通道反饋信號(hào)真實(shí)地呈現(xiàn)出來(lái)。就這3個(gè)核心問(wèn)題,又需要解決一系列相關(guān)的關(guān)鍵技術(shù)。
對(duì)用戶交互信號(hào)的采集是3個(gè)環(huán)節(jié)中最依賴于硬件設(shè)備發(fā)展的一環(huán)。目前,空間定位和動(dòng)作捕捉領(lǐng)域已有較多相對(duì)成熟的技術(shù)與產(chǎn)品,更多在于針對(duì)應(yīng)用特性選擇適合的方案,光學(xué)和慣性相結(jié)合的空間定位與動(dòng)作捕捉能提供較大范圍內(nèi)高精度的空間定位和實(shí)時(shí)性高、無(wú)懼遮擋的動(dòng)作捕捉,是當(dāng)前適合于人-虛擬角色互動(dòng)應(yīng)用的成熟且優(yōu)秀的方案。眼動(dòng)追蹤方面,目前已有FOVE、七鑫易維、Tobii等幾家公司完成了眼動(dòng)追蹤技術(shù)到頭戴式顯示器的集成。近場(chǎng)語(yǔ)音識(shí)別更是在借助深度學(xué)習(xí)以后識(shí)別準(zhǔn)確率有了實(shí)質(zhì)性提高,已經(jīng)達(dá)到了初期的商業(yè)可用的階段。綜上所述,目前已有技術(shù)已經(jīng)能夠比較完整地實(shí)現(xiàn)用戶交互信號(hào)的采集環(huán)節(jié);而虛擬角色的由交互刺激到反饋的“體現(xiàn)智能與情感的”映射建立和多通道反饋信號(hào)的真實(shí)呈現(xiàn),目前還處于研究階段,需依靠認(rèn)知心理學(xué)、人機(jī)交互、人工智能等技術(shù)的進(jìn)一步發(fā)展。
虛擬角色的觸覺(jué)支持是對(duì)上述各環(huán)節(jié)實(shí)現(xiàn)的增強(qiáng),避免發(fā)生視覺(jué)穿透現(xiàn)象影響交互沉浸感。目前觸覺(jué)的發(fā)展相對(duì)視覺(jué)和聽(tīng)覺(jué)還有很大差距,并沒(méi)有一個(gè)完善的觸覺(jué)解決方案,使用和虛擬角色近似1:1的實(shí)物來(lái)提供被動(dòng)力觸覺(jué)反饋只是一個(gè)權(quán)宜之計(jì)。還需待傳感驅(qū)動(dòng)裝置的小型化集成更加成熟,或者對(duì)觸覺(jué)這一感官通道的研究更加深入之后,才能利用主動(dòng)/被動(dòng)方案為動(dòng)態(tài)的虛擬角色提供更加靈活、真實(shí)的觸覺(jué)支持。
參考文獻(xiàn)
[1] DUCHOWSKI A T. Eye Tracking Methodology: Theory and Practice[M]. London:Springer, 2003
[2] SIGUT J, SIDHA S A. Iris Center Corneal Reflection Method for Gaze Tracking Using Visible Light[J]. IEEE Transactions on Bio-Medical Engineering, 2011, 58(2):411.DOI: 10.1109/TBME.2010.2087330
[3] GAO Y, BARRETO A, ZHAI J, et al. Digital Filtering of Pupil Diameter Variations for the Detection of Stress in Computer Users[C]//Proceedings of the 11th World Multi-Conference on Systemics, Cybernetics and Informatics. USA:IEEE, 2007:30-35.DOI: 10.1109/TBME.2010.2087330
[4] ISHIMARU S, KAI K, KISE K, et al. In the Blink of An Eye: Combining Head Motion and Eye Blink Frequency for Activity Recognition with Google Glass[C]// Augmented Human International Conference. USA:ACM, 2014:15. DOI: 10.1145/2582051.2582066
[5] PATNEY A, SALVI M, KIM J, et al. Towards Foveated Rendering for GazeTracked Virtual Reality[J]. ACM Transactions on Graphics, 2016, 35(6):179
[6] GUENTER B, FINCH M, DRUCKER S, et al. Foveated 3D Graphics[J]. ACM Transactions on Graphics, 2012, 31(6):164
[7] JUSLIN P N, SCHERER K R. Vocal Expression of Affect[J]. The New Handbook of Methods in Nonverbal Behavior Research, 2005: 65-135. DOI: 10.1093/acprof:oso/9780198529620.003.0003
[8] SCHERER K R. Vocal Affect Expression: A Review and A Model for Future research[J]. Psychological Bulletin, 1986, 99(2):143
[9] BADLER N I, WEBBER B L, BECKET W, et al. Planning and Parallel Transition Networks: Animation's New Frontiers[J]. Center for Human Modeling and Simulation, 1995: 91
[10] Google's DeepMind AI Just Taught Itself to Walk[EB/OL]. (2017-07-11)[2017-09-23].http://www.businessinsider.com/google-deepmind-ai-artificial-intelligence-taught-itself-walk-2017-7
[11] WaveNet: A Generative Model for Raw Audio[EB/OL]. [2017-09-23].https://deepmind.com/blog/wavenet-generative-model-raw-audio/
[12] SHOJI M, MIURA K, KONNO A. U-Tsu-Shi-O-Mi: the Virtual Humanoid You Can Reach[C]// ACM SIGGRAPH 2006 Emerging technologies. USA:ACM, 2006: 34endprint