師春艷
摘 要: 針對(duì)傳統(tǒng)基于輻射度算法的室內(nèi)場(chǎng)景三維虛擬現(xiàn)實(shí)方法存在耗時(shí)高、建模效果差的弊端,研究基于三維視覺的室內(nèi)設(shè)計(jì)虛擬現(xiàn)實(shí)方法,采用主動(dòng)式、全方位立體視覺傳感器采集室內(nèi)場(chǎng)景的三維點(diǎn)云數(shù)據(jù),基于點(diǎn)云數(shù)據(jù)進(jìn)行室內(nèi)場(chǎng)景內(nèi)的物體幾何關(guān)系以及擺放位置分布,完成室內(nèi)三維場(chǎng)景的自主合成,對(duì)物體擺放位置分布實(shí)施訓(xùn)練,通過三維場(chǎng)景點(diǎn)云數(shù)據(jù)集獲取相同類型支撐物中物體產(chǎn)生的位置,對(duì)數(shù)據(jù)實(shí)施歸一化操作,采用高斯混合模型擬合這些數(shù)據(jù),訓(xùn)練出三維室內(nèi)場(chǎng)景中物件在支撐面中的位置分布模型。采用基于深度信息場(chǎng)景重構(gòu)方法實(shí)現(xiàn)室內(nèi)三維場(chǎng)景的虛擬實(shí)現(xiàn)。實(shí)驗(yàn)結(jié)果說(shuō)明,所提方法重構(gòu)的室內(nèi)場(chǎng)景直觀、視覺效果好,并且具有較高的重構(gòu)效率和精度。
關(guān)鍵詞: 三維視覺; 室內(nèi)設(shè)計(jì); 虛擬現(xiàn)實(shí)方法; 場(chǎng)景; 點(diǎn)云數(shù)據(jù); 高斯混合模型
中圖分類號(hào): TN911.1?34; TP273 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2018)05?0078?05
Abstract: Since the traditional indoor scene 3D virtual reality method based on radiancy algorithm has the disadvantages of high time consumption and poor modeling effect, the virtual reality method of indoor design based on 3D vision is studied. The active stereo omni?direction vision sensor (ASODVS) is used to collect the three?dimensional point cloud data of indoor scene. On the basis of point cloud data, the geometrical relationship of objects in indoor scene is analyzed, and the locating place distribution of the objects is trained to realize the autonomous synthesis of indoor 3D scene. According to the point cloud dataset of 3D scene, the position of the object in the same?type upholder is acquired to perform the normalization operation for the data. The Gaussian mixture model is adopted to fit the data, and obtain the trained position distribution model in support plane of the objects in 3D indoor scene. The depth information scene reconstruction method is used to implement the virtual realization of indoor 3D scene. The experimental results show that the method has intuitive reconstructed indoor scenes and perfect vision effect, and has high reconstruction efficiency and precision.
Keywords: 3D vision; indoor design; virtual reality method; scene; point cloud data; Gaussian mixture model
由于計(jì)算機(jī)仿真以及虛擬現(xiàn)實(shí)等技術(shù)的高速發(fā)展,室內(nèi)場(chǎng)景的三維建模在火場(chǎng)救援、密室逃脫以及挖掘等領(lǐng)域中具有重要的應(yīng)用價(jià)值。因此,采用有效的方法進(jìn)行室內(nèi)三維場(chǎng)景的虛擬實(shí)現(xiàn),成為相關(guān)人員分析的熱點(diǎn)。傳統(tǒng)基于輻射度算法的室內(nèi)場(chǎng)景三維虛擬現(xiàn)實(shí)方法存在耗時(shí)高、建模效果差等弊端[1],因此,本文研究了基于三維視覺的室內(nèi)設(shè)計(jì)虛擬現(xiàn)實(shí)方法,完成室內(nèi)三維虛擬場(chǎng)景的準(zhǔn)確重構(gòu)。
1 基于三維視覺的室內(nèi)設(shè)計(jì)虛擬現(xiàn)實(shí)方法研究
1.1 獲取室內(nèi)場(chǎng)景的三維有序點(diǎn)云數(shù)據(jù)
為了對(duì)室內(nèi)場(chǎng)景進(jìn)行建模,本文采用主動(dòng)式全方位立體視覺傳感器(Active Stereo Omni?direction Vision Sensor,ASODVS)掃描室內(nèi)場(chǎng)景,獲取室內(nèi)場(chǎng)景的三維有序點(diǎn)云數(shù)據(jù)具體過程如下:
1) 采用ASODVS采集室內(nèi)全景圖像,將其標(biāo)識(shí)成000000的文件名,存儲(chǔ)到全景圖像存儲(chǔ)文件夾中;
2) 通過移動(dòng)面激光掃描;
3) 采用ASODVS采集模塊獲取室內(nèi)全景掃描切片圖像,基于電機(jī)的變換速率和兩個(gè)極限點(diǎn)的時(shí)間,對(duì)移動(dòng)面激光發(fā)生器的位置實(shí)施預(yù)測(cè),將單視點(diǎn)到面激光發(fā)生器中心的垂直距離值當(dāng)成全景掃描切片圖像的文件名,并將獲取的掃描切片圖像存儲(chǔ)到全景圖像存儲(chǔ)文件夾中;
4) 分析是否到達(dá)極限點(diǎn)位置,若到達(dá)則完成掃描,終止移動(dòng)面激光掃描[2];否則運(yùn)行過程3)。
基于上述結(jié)果實(shí)施點(diǎn)云數(shù)據(jù)解析能夠獲取室內(nèi)場(chǎng)景的點(diǎn)云數(shù)據(jù),解析過程如下:
1) 依據(jù)值的降序分布情況,將室內(nèi)全景掃描切片圖像從室內(nèi)全景圖像存儲(chǔ)文件夾中采集出來(lái);
2) 對(duì)獲取的室內(nèi)全景掃描切片圖像進(jìn)行實(shí)時(shí)預(yù)處理,提升激光投射點(diǎn)范圍;endprint
3) 基于不同的方位角逐次檢索總體室內(nèi)全景掃描切片圖像,運(yùn)算獲取激光投影的空間坐標(biāo);
4) 向點(diǎn)云數(shù)據(jù)文件夾內(nèi)存儲(chǔ)含有色彩信息的掃描切片點(diǎn)云數(shù)據(jù)文件,標(biāo)識(shí)各點(diǎn)云數(shù)據(jù)文件名為“值+.txt”;
5) 分析是否完成全部室內(nèi)全景掃描切片圖像的檢索,若是則結(jié)束解析;否則采集新全景掃描切片圖像,運(yùn)行過程2)。
ASODVS掃描獲取垂直方向基于值分布的大量切片圖像,解析這些圖像中的點(diǎn)云數(shù)據(jù)可獲取相關(guān)的切片點(diǎn)云數(shù)據(jù)。各切片點(diǎn)云數(shù)據(jù)在垂直方向中基于進(jìn)行分布。解析各切片圖像過程匯總,檢索圖像實(shí)時(shí)方位角[3],運(yùn)算各點(diǎn)的三維空間坐標(biāo)值,則各切片內(nèi)的點(diǎn)云數(shù)據(jù)在水平方向基于方位角分布。本文通過點(diǎn)云矩陣保存點(diǎn)云數(shù)據(jù),矩陣行用于描述掃描的120張室內(nèi)全景切片圖像,矩陣列用于描述方位角的檢索結(jié)果,每次檢索的步長(zhǎng)是0.36°,則存在1 000列,通過上述分析的室內(nèi)場(chǎng)景檢索、點(diǎn)云數(shù)據(jù)解析和存儲(chǔ)過程,獲取的點(diǎn)云矩陣大小是120×1 000。
1.2 室內(nèi)三維虛擬場(chǎng)景合成算法
1.2.1 總體結(jié)構(gòu)
基于1.1節(jié)獲取的室內(nèi)場(chǎng)景的三維有序點(diǎn)云數(shù)據(jù),合成室內(nèi)三維虛擬場(chǎng)景,總體結(jié)構(gòu)如圖1所示。
合成室內(nèi)三維場(chǎng)景過程包括輸入模塊、場(chǎng)景分析模塊、場(chǎng)景合成模塊以及輸出模塊。輸入模塊是室內(nèi)場(chǎng)景的有序點(diǎn)云數(shù)據(jù)和室內(nèi)場(chǎng)景中的物件種類以及數(shù)量。場(chǎng)景分析模塊由場(chǎng)景中物體間的幾何關(guān)系分析以及物體擺放位置分布模型訓(xùn)練兩個(gè)部分構(gòu)成。分析場(chǎng)景中的物體幾何關(guān)系時(shí),需要實(shí)現(xiàn)物體支撐面的采集、檢測(cè)物體相交、支撐關(guān)系、接近關(guān)系以及共生關(guān)系。采集支撐面時(shí),采集室內(nèi)場(chǎng)景中各物體的支撐面,相交檢測(cè)時(shí)采用包圍盒的相交檢測(cè)算法確保物體在擺放過程中相互獨(dú)立。先實(shí)施室內(nèi)場(chǎng)景中不同物體支撐關(guān)系的采集,再檢測(cè)物體間的接近關(guān)系,最終依據(jù)三維場(chǎng)景的數(shù)據(jù)集獲取室內(nèi)三維場(chǎng)景中不同類型支撐物能夠支撐的物體種類以及產(chǎn)生頻率。
對(duì)物體擺放位置分布實(shí)施訓(xùn)練,通過三維場(chǎng)景數(shù)據(jù)集獲取相同類型支撐物中物體產(chǎn)生的位置,對(duì)數(shù)據(jù)實(shí)施歸一化操作[4?5],采用高斯混合模型擬合這些數(shù)據(jù),訓(xùn)練出位置分布模型。
本文設(shè)計(jì)任意擺放以及在指定支撐面中擺放兩種場(chǎng)景合成模塊,輸入室內(nèi)場(chǎng)景在該量子算法的驅(qū)動(dòng)下表現(xiàn)出兩種不同的輸出結(jié)果,任意擺放算法從輸入室內(nèi)場(chǎng)景存在的多個(gè)支撐物中任意采集其中一個(gè),從多個(gè)支撐面內(nèi)旋轉(zhuǎn)一個(gè)實(shí)施擺放,依據(jù)任意過程運(yùn)算出擺放點(diǎn)。在指定支撐面中擺放時(shí)分析了共生關(guān)系匯總出的結(jié)果,實(shí)現(xiàn)設(shè)置物體在擺放過程中能夠選擇的支撐物,在該支撐物存在的平面中任意選擇位置點(diǎn)實(shí)施擺放。采用場(chǎng)景合成模塊的兩種算法獲取兩種不同效果的室內(nèi)設(shè)計(jì)合成場(chǎng)景。
1.2.2 物件任意自動(dòng)擺放算法
物件任意自動(dòng)擺放算法從室內(nèi)場(chǎng)景存在的支撐物中任意選擇一個(gè),從所選擇的支撐物中任意采用一個(gè)支撐平面,將小物件任意擺放到該平面中。物件任意自動(dòng)擺放算法由任意采集支撐面、產(chǎn)生可用擺放點(diǎn)以及相交檢測(cè)構(gòu)成。本文采用三維模型表面的均勻采樣算法,基于支撐面的面積任意采集支撐面,詳細(xì)過程如下:
1) 語(yǔ)義標(biāo)識(shí),在室內(nèi)場(chǎng)景選擇支撐物的過程中,基于小物件的支撐語(yǔ)義標(biāo)簽,得到的支撐平面數(shù)是用{SuppPlane1,SuppPlane2,…,SuppPlanek}描述。
2) 檢索個(gè)支撐平面,這些平面的面積是在數(shù)組CumAreas內(nèi)存儲(chǔ)完成訪問的支撐平面面積,該數(shù)據(jù)是維數(shù)是支撐面數(shù)
3) 產(chǎn)生任意數(shù)。
4) 采集目標(biāo)支撐面,對(duì)數(shù)組CumAreas實(shí)施檢索,獲取任意數(shù)的支撐平面的索引號(hào)[6],則第個(gè)平面被選中的概率為:
則各平面被選擇的概率同平面的面積具有正相關(guān)性。
獲取支撐面后,依據(jù)接受?拒絕采樣在支撐面中產(chǎn)生有用擺放點(diǎn),由支撐面基于其最長(zhǎng)邊得到正方形,使得該正方形對(duì)總體支撐面進(jìn)行覆蓋[7]。
合成三維場(chǎng)景時(shí)進(jìn)行相交檢測(cè),獲取具有兩個(gè)支撐平面的支撐物的場(chǎng)景合成結(jié)果,如圖2所示。
1.2.3 規(guī)定支撐面擺放算法
規(guī)定支撐面擺放算法在物體支撐的共生關(guān)系上,去掉室內(nèi)場(chǎng)景中不滿足該關(guān)系的支撐平面,確保物件可擺放到合理的支撐面中,具體過程如下:
1) 對(duì)數(shù)據(jù)集內(nèi)可擺放輸入物件的支撐物label實(shí)施匯總,基于物體支撐的共生關(guān)系,向文本文件內(nèi)存儲(chǔ)場(chǎng)景集內(nèi)可支撐輸入物件的label,向數(shù)組supporter_labels內(nèi)存儲(chǔ)可擺放物件的支撐物label。
2) 對(duì)室內(nèi)場(chǎng)景中全部支撐物label實(shí)施匯總,對(duì)用戶輸入的室內(nèi)場(chǎng)景中各模型實(shí)施檢索,采集出支撐面后,將支撐面對(duì)應(yīng)支撐物的label存儲(chǔ)到數(shù)組suppPlanes內(nèi)。
3) 選擇支撐物label,對(duì)比分析前兩個(gè)過程獲取的支撐物label,在數(shù)組m_suppPlanes內(nèi)存儲(chǔ)同一名稱的label,也就是存儲(chǔ)輸入室內(nèi)場(chǎng)景中滿足輸入物件擺放并且滿足支撐共生關(guān)系的支撐物label。
4) 分析過程1)和2)中統(tǒng)計(jì)的支撐物label,若不存在名稱一致的支撐物,則將數(shù)組suppPlanes內(nèi)的元素逐次存儲(chǔ)到數(shù)組m_suppPlanes內(nèi)。
算法停止運(yùn)算后,物件從算法中獲取m_suppPlanes數(shù)組內(nèi)選擇的支撐面實(shí)施擺放。
規(guī)定支撐面的場(chǎng)景合成結(jié)果如圖3所示。從圖3能夠看出輸入場(chǎng)景包括地面、桌子以及茶幾,場(chǎng)景合成結(jié)果中包括臺(tái)燈、電腦、鼠標(biāo)、飲料、茶杯等,實(shí)現(xiàn)了室內(nèi)場(chǎng)景的準(zhǔn)確合成。
1.3 基于高斯混合模型的物體位置分布
通過三維場(chǎng)景點(diǎn)云數(shù)據(jù)集獲取相同類型支撐物中物體產(chǎn)生的位置,對(duì)數(shù)據(jù)實(shí)施歸一化操作,采用高斯混合模型擬合這些數(shù)據(jù),訓(xùn)練出三維室內(nèi)場(chǎng)景中物件在支撐面中的位置分布模型。
1.3.1 高斯混合模型endprint
若存在一批維觀測(cè)室內(nèi)場(chǎng)景點(diǎn)云數(shù)據(jù)滿足獨(dú)立同分布,各點(diǎn)通過單高斯模型產(chǎn)生,均值以及樣本方差矩陣值不確定,該批數(shù)據(jù)通過個(gè)高斯模型產(chǎn)生,個(gè)單高斯模型加權(quán)和[8],也就是高斯混合模型的表達(dá)式:
式中:表示各單高斯模型在混合模型內(nèi)所占的比例;表示由相應(yīng)單高斯模型產(chǎn)生的數(shù)據(jù);是第個(gè)單高斯模型的概率密度函數(shù)的均值以及協(xié)方差矩陣。
則第個(gè)單高斯模型的概率密度函數(shù)為:
式中:權(quán)重需要符合條件的要求;是高斯混合模型的參數(shù)集?;谌齻€(gè)參數(shù)以及則能夠獲取高斯混合模型。
1.3.2 高斯混合模型的參數(shù)預(yù)測(cè)
基于室內(nèi)場(chǎng)景點(diǎn)云數(shù)據(jù)樣本集預(yù)測(cè)高斯混合模型的全部參數(shù)。通過似然函數(shù)預(yù)測(cè)參數(shù),對(duì)似然函數(shù)實(shí)施最大化操作完成參數(shù)的預(yù)測(cè),高斯混合模型的似然函數(shù)為:
大量數(shù)字相乘后會(huì)出現(xiàn)浮點(diǎn)數(shù)下溢問題,則將似然函數(shù)變換成對(duì)數(shù)似然函數(shù),對(duì)其最大化,獲取的對(duì)數(shù)似然函數(shù)為:
通過期望最高(Expectation Maximization,EM)算法分布迭代獲取最高值,得到最高值時(shí)各參數(shù)的值。
若完全數(shù)據(jù)集是,表示觀測(cè)到的不完全數(shù)據(jù)集,是融入的隱含變量。EM算法假設(shè)內(nèi)數(shù)據(jù)同已知高斯模型獨(dú)立分布,且模型參數(shù)已知,則基于該模型運(yùn)算出數(shù)據(jù)集內(nèi)不同數(shù)據(jù)點(diǎn)由各單高斯模型產(chǎn)生的概率[9]。采用極大化似然函數(shù)修正參數(shù)值,循環(huán)該規(guī)程直至算法收斂。
基于EM算法的高斯混合模型參數(shù)預(yù)測(cè)過程如下:
1) 參數(shù)的原始值
通過K?means算法對(duì)觀測(cè)數(shù)據(jù)點(diǎn)實(shí)施聚類,表示聚類數(shù),表示各類數(shù)的均值,運(yùn)算得到各類樣本數(shù)占總樣本數(shù)的比例。
2) 算法過程
預(yù)測(cè)數(shù)據(jù)通過各高斯分布產(chǎn)生的概率。融入隱含變量其中,各運(yùn)算用于描述各單高斯模型,則數(shù)據(jù)由產(chǎn)生的后驗(yàn)概率為:
循環(huán)運(yùn)行上述過程,對(duì)式(8)~式(10)的值實(shí)施循環(huán)更新,直至算法滿足收斂條件是更新參數(shù)后運(yùn)算的值,如果算法收斂,則似然函數(shù)獲取最高值,參數(shù)對(duì)應(yīng)的值則是各參數(shù)的最高似然預(yù)測(cè)值。
1.3.3 物體位置分布模型
采用物體共生關(guān)系采集算法獲取.sch文件以及.csv文件,各.sch文件內(nèi)存儲(chǔ)通知類型支撐物中擺放的物體label。針對(duì)不同種類的支撐物,本文將擺放在該支撐物中的物體支撐點(diǎn)當(dāng)成物體的位置坐標(biāo)。對(duì)點(diǎn)云數(shù)據(jù)集內(nèi)各廠家包含的支撐平面實(shí)施歸一化操作,將支撐平面變換成面積是1的正方形平面,對(duì)物體在支撐平面中的位置坐標(biāo)實(shí)施歸一化操作,獲取.csv文件中的數(shù)據(jù)?;谠撐募械臄?shù)據(jù)點(diǎn)坐標(biāo),采用高斯混合模型擬合這些數(shù)據(jù)點(diǎn)[10],獲取室內(nèi)場(chǎng)景中物體的位置分布模型。
1.4 基于深度信息場(chǎng)景重構(gòu)
采用Kinect深度攝像機(jī)獲取室內(nèi)場(chǎng)景的深度信息以及彩色信息,通過開源OpenNI向PC機(jī)內(nèi)傳輸深度信息,PC機(jī)對(duì)深度信息實(shí)施坐標(biāo)變換。采用濾波算法對(duì)深度圖像進(jìn)行實(shí)時(shí)濾波以及降噪操作,對(duì)基于1.1小節(jié)獲取的室內(nèi)場(chǎng)景點(diǎn)云數(shù)據(jù)實(shí)施配準(zhǔn)和空間旋轉(zhuǎn)平移變換,并基于高斯混合模型獲取物體位置分布,在采用多邊形網(wǎng)格紋理映射后,采用PCL開源平臺(tái)中的PCLVisualizer類重構(gòu)室內(nèi)三維虛擬場(chǎng)景。
2 實(shí)驗(yàn)結(jié)果與分析
2.1 實(shí)驗(yàn)硬件環(huán)境
實(shí)驗(yàn)采用Kinect傳感器采集室內(nèi)場(chǎng)景的深度信息,通過主動(dòng)式全方位立體視覺傳感器獲取室內(nèi)場(chǎng)景的點(diǎn)云數(shù)據(jù),采用聯(lián)想公司的PC機(jī)分析和處理數(shù)據(jù),完成室內(nèi)場(chǎng)景的三維重構(gòu)。實(shí)驗(yàn)的硬件設(shè)置和配置情況見表1。
2.2 實(shí)驗(yàn)結(jié)果
2.2.1 重構(gòu)效果分析
實(shí)驗(yàn)采用Kinect深度攝像機(jī)以及主動(dòng)式全方位立體視覺傳感器得到室內(nèi)場(chǎng)景1和場(chǎng)景2某角落場(chǎng)景,采用高斯模型獲取物體位置分布情況,在PCL開源平臺(tái)下進(jìn)行操作獲取的室內(nèi)三維虛擬場(chǎng)景1和場(chǎng)景2的重構(gòu)圖,分別如圖4和圖5所示。能夠看出,相對(duì)于基于輻射度算法的虛擬現(xiàn)實(shí)方法,利用本文方法獲取的室內(nèi)場(chǎng)景三維重構(gòu)圖,物體擺放效果逼真,表面光滑、輪廓清晰,具有較佳的視覺效果。
2.2.2 誤差分析
實(shí)驗(yàn)統(tǒng)計(jì)兩種方法對(duì)場(chǎng)景1和場(chǎng)景2進(jìn)行重構(gòu)時(shí)的誤差情況,見表2。能夠看出,因?yàn)閳?chǎng)景1區(qū)域比場(chǎng)景2小,所以兩種方法對(duì)場(chǎng)景1的重構(gòu)誤差低于場(chǎng)景2,并且兩個(gè)場(chǎng)景中本文方法的重構(gòu)誤差低于基于輻射度算法的虛擬現(xiàn)實(shí)方法,說(shuō)明本文方法具有較高的室內(nèi)三維場(chǎng)景重構(gòu)精度。
實(shí)驗(yàn)對(duì)兩種方法重構(gòu)過程的時(shí)間統(tǒng)計(jì)情況見表3。
分析表3能夠看出,場(chǎng)景大小對(duì)運(yùn)算時(shí)間的干擾較低,五個(gè)過程中預(yù)操作耗時(shí)最低,獲取物體位置分布耗時(shí)最高。本文方法對(duì)于不同場(chǎng)景中不同過程的重構(gòu)過程耗時(shí)低于基于輻射度算法的虛擬現(xiàn)實(shí)方法,說(shuō)明本文方法具有較高的室內(nèi)三維虛擬場(chǎng)景重構(gòu)效率。
3 結(jié) 語(yǔ)
本文研究了基于三維視覺的室內(nèi)設(shè)計(jì)虛擬現(xiàn)實(shí)方法,重構(gòu)的室內(nèi)場(chǎng)景直觀、視覺效果好,實(shí)現(xiàn)了室內(nèi)三維虛擬場(chǎng)景的高效率、高精度重構(gòu),具有較高的應(yīng)用價(jià)值。
參考文獻(xiàn)
[1] 王云舒,劉建業(yè),曾慶化,等.結(jié)構(gòu)光輔助的慣性/視覺室內(nèi)導(dǎo)航三維環(huán)境重構(gòu)方法[J].中國(guó)慣性技術(shù)學(xué)報(bào),2016,24(1):51?58.
WANG Yunshu, LIU Jianye, ZENG Qinghua, et al. 3D environment restructure method with structured light for indoor vision/inertial navigation [J]. Chinese journal of inertial technology, 2016, 24(1): 51?58.
[2] 吳乃亮,閆飛,卜春光.基于視覺里程計(jì)的移動(dòng)機(jī)器人三維場(chǎng)景重構(gòu)[J].華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2015,43(z1):337?340.endprint
WU Nailiang, YAN Fei, BU Chunguang. Mobile robot 3D environment reconstruction based on visual odometer [J]. Journal of Huazhong University of Science and Technology (natural science edition), 2015, 43(S1): 337?340.
[3] 李秀智,楊愛林,秦寶嶺,等.基于光流反饋的單目視覺三維重建[J].光學(xué)學(xué)報(bào),2015,35(5):228?236.
LI Xiuzhi, YANG Ailin, QIN Baoling, et al. Monocular camera three dimensional reconstruction based on optical flow feedback [J]. Acta optica sinica, 2015, 35(5): 228?236.
[4] 高如新,王俊孟.雙目立體視覺求取三維坐標(biāo)的方法研究[J].計(jì)算機(jī)仿真,2014,31(10):296?300.
GAO Ruxin, WANG Junmeng. Study on some methods of 3D coordinate calculation of binocular vision [J]. Computer simulation, 2014, 31(10): 296?300.
[5] 廖明,周良辰,閭國(guó)年,等.基于OpenGL驅(qū)動(dòng)的三維場(chǎng)景重構(gòu)[J].計(jì)算機(jī)應(yīng)用研究,2015,32(4):1276?1280.
LIAO Ming, ZHOU Liangchen, L? Guonian, et al. 3D scene reconstruction based on OpenGL [J]. Computer application research, 2015, 32(4): 1276?1280.
[6] 李輝.基于虛擬雙目視覺的玉米葉片三維重建方法[J].科技通報(bào),2016,32(5):96?101.
LI Hui. 3D reconstruction of maize leaves based on virtual visual technology [J]. Bulletin of science and technology, 2016, 32(5): 96?101.
[7] 朱笑笑,曹其新,楊揚(yáng),等.一種改進(jìn)的KinectFusion三維重構(gòu)算法[J].機(jī)器人,2014,36(2):129?136.
ZHU Xiaoxiao, CAO Qixin, YANG Yang, et al. An improved KinectFusion 3D reconstruction algorithm [J]. Robot, 2014, 36(2): 129?136.
[8] 董峰,王繼州.三維虛擬海洋圖像仿真在艦艇視覺中的應(yīng)用[J].艦船科學(xué)技術(shù),2015,37(9):176?180.
DONG Feng, WANG Jizhou. Application of 3D virtual ocean image simulation in naval ships vision [J]. Ship science and technology, 2015, 37(9): 176?180.
[9] 肖建良,張程,李陽(yáng).基于Unity3D的室內(nèi)漫游系統(tǒng)[J].電子設(shè)計(jì)工程,2016,24(19):54?56.
XIAO Jianliang, ZHANG Cheng, LI Yang. The indoor roaming system based on Unity3D [J]. Electronic design engineering, 2016, 24(19): 54?56.
[10] 韋爭(zhēng)亮,古耀達(dá),黃志斌,等.雙目立體視覺中特征點(diǎn)三維坐標(biāo)重構(gòu)校準(zhǔn)研究[J].計(jì)量學(xué)報(bào),2014,35(2):102?107.
WEI Zhengliang, GU Yaoda, HUANG Zhibin, et al. Research on calibration of three dimensional coordinate reconstruction of feature points in binocular stereo vision [J]. Journal of metrology, 2014, 35(2): 102?107.endprint