邱江勇
10月19日,2019世界vR產(chǎn)業(yè)大會在南昌召開。本次大會由工業(yè)和信息化部、江西省人民政府聯(lián)合主辦,由中國電子信息產(chǎn)業(yè)發(fā)展研究院、江西省工業(yè)和信息化廳、南昌市人民政府和虛擬現(xiàn)實產(chǎn)業(yè)聯(lián)盟承辦。新西蘭皇家科學(xué)院院士、奧克蘭大學(xué)教授馬克·比林赫斯特出席大會主論壇并發(fā)表演講。
采用不同方式與VR互動
馬克·比林赫斯特表示,大家在展會上用手持的手柄作為控制器,相當(dāng)于頭戴式的展示器,包括控制器,還可以用語音手勢進行控制。除此之外,還可以用觸摸屏,人們可以用不同的方法與AK、vR互動。
馬克·比林赫斯特用一段小視頻舉了個例子——用一個手勢跟vR互動。他講解到,一只真的人手在動,會產(chǎn)生虛擬菜單;另外一個虛擬的手可以和虛擬菜單互動。在虛擬的控制中,我們希望能夠把不同手勢和其他設(shè)備結(jié)合在—起。大的動作容易識別.小的動作就不靈敏了,而將兩個設(shè)備結(jié)合在一起,即可將微小的運動細節(jié)用雷達探測出來。這樣,就可以精準地控制物體的移動,把兩個自然界面結(jié)臺在一起。
馬克·比林赫斯特還演示了另一段小視頻,人們可以用手移動、控制一個虛擬的木偶,并用微小的動作控制移動的速度。他表示,這個視頻中將技術(shù)和手勢放在一起,通過語音進行控制,語音發(fā)出指令指向這個東西,用手把這個東西放到另一邊,然后用語音加上手一指,結(jié)合成自然界面,就可以控制了。
用眼球進行控制
馬克·比林赫新特表示,最近有一些公司在研究怎樣通過對眼球的追蹤進行控制,并已經(jīng)做了很多互動研究,從他所舉的案例中,可以看到用特定的手勢所產(chǎn)生動畫的效果。他表示,手勢和語言進行結(jié)合其實很難完全精準地進行控制,在這個過程中,人們用多模式的輸入端可以產(chǎn)生一個精細管理的混合現(xiàn)實模型。這樣做速度更快,錯誤率會降低30%。大家通過眼球凝視并互動,這樣的解決方案在市場中已經(jīng)能夠看到,其中一個方法是雙瞄準線對準。
最后,馬克·比林赫斯特用一段小視頻做了結(jié)尾。在這段視頻中,展示的是混合現(xiàn)實。人們可以看到,首先畫面中的人凝視物體,然后再用手點擊,就可以用手控制物體了。按一下,然后手移動之后,便可以看到目標(biāo)和物體對齊了。因此,混合現(xiàn)實可以用眼神結(jié)合手勢實現(xiàn)控制。那么,未來會怎樣?馬克·比林赫斯特表示,他的實驗室也在研究,除了把眼神和手勢結(jié)合在一起,是否其他模式也可行?“我們通過對腦電圖的測量研究了大腦的活動,通過人們對于虛擬環(huán)境的反應(yīng),建立起自然界面。同時也可以使用眼神實現(xiàn)各種各樣的測量方式,我也非常期待大家在VK自然界面方面取得成功?!瘪R克·比林赫斯特說。