亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度相機(jī)的實(shí)時室內(nèi)三維信息采集方法

        2021-07-07 07:52:34朱思雨駱漢賓
        關(guān)鍵詞:深度方法模型

        雷 蕾,朱思雨,駱漢賓

        (華中科技大學(xué) 土木與水利工程學(xué)院, 湖北 武漢 430074)

        隨著中國城市化進(jìn)程的不斷推進(jìn),城鎮(zhèn)老舊小區(qū)改造需求日益凸顯,城市的發(fā)展從傳統(tǒng)城市向信息化、智慧化城市邁進(jìn)[1]。準(zhǔn)確、及時的數(shù)字化工程信息的采集是推動建筑業(yè)數(shù)字化、智能化的重要支撐工具[2]。相較于傳統(tǒng)的圖片、視頻等二維數(shù)據(jù)采集,三維數(shù)據(jù)的收集與分析也受到越來越多的重視。包含建筑幾何形狀和特征信息的三維模型使建造過程可視化、可分析,有助于緩解涉及多個參與方的建設(shè)項(xiàng)目中的沖突,解決傳統(tǒng)施工中信息獲取不連續(xù)、信息丟失、信息存儲困難等問題[3]。在實(shí)際工程應(yīng)用中,以日或周定期獲取施工現(xiàn)場的三維模型代替?zhèn)鹘y(tǒng)的手工編制在工程進(jìn)度管理、現(xiàn)場管理方面的作用愈發(fā)顯著。特別是室內(nèi)裝修工程,其施工工作面有限而且施工內(nèi)容復(fù)雜,因此對施工次序和進(jìn)度安排較為敏感,基于三維模型的實(shí)時自動化進(jìn)度監(jiān)測可避免資源不必要的浪費(fèi)[4]。

        在生成建筑三維信息模型方面,國內(nèi)外學(xué)者做出了相關(guān)的研究。研究主要分為兩個方向:(1)基于BIM(Building Information Modeling)的參數(shù)化三維建筑模型,輔助建筑工程的設(shè)計(jì)管理、進(jìn)度管理;(2)利用激光掃描儀、數(shù)碼相機(jī)、深度相機(jī)等設(shè)備獲取數(shù)據(jù)重建基于點(diǎn)云的場景模型,用于施工進(jìn)度管理、現(xiàn)場管理和建筑物損傷測定。BIM技術(shù)是最早應(yīng)用于三維建筑模型的數(shù)字技術(shù),在工程領(lǐng)域應(yīng)用最為廣泛。BIM模型包含了建筑物整個生命周期的信息,能有效提高工程全壽命周期管理水平。Matthews等[5]研究了BIM在信息傳遞方面的有效性,設(shè)計(jì)實(shí)時面向使用對象的雙向系統(tǒng),實(shí)現(xiàn)鋼筋混凝土結(jié)構(gòu)施工進(jìn)度監(jiān)控和管理。林佳瑞等[6]針對工程施工進(jìn)度與資源均衡的關(guān)鍵需求,建立一個基于4D-BIM模型解決進(jìn)度-資源均衡問題,通過4D-BIM模型進(jìn)度及資源信息與離散事件仿真模型的轉(zhuǎn)化機(jī)制,實(shí)現(xiàn)進(jìn)度-資源均衡模型的自動構(gòu)建。隨著三維建模技術(shù)的不斷發(fā)展,一些專家學(xué)者應(yīng)用基于點(diǎn)云的三維建模方法于工程中,利用數(shù)碼相機(jī)、激光掃描儀獲取點(diǎn)云數(shù)據(jù)對目標(biāo)建筑物進(jìn)行三維建模。Golparvar-Fard等[7]提出自動化進(jìn)度監(jiān)控模型,針對既有建筑,將基于現(xiàn)場圖片建立的室內(nèi)場景三維模型和設(shè)計(jì)的BIM模型進(jìn)行對比,自動識別建筑構(gòu)件,進(jìn)行自動化進(jìn)度追蹤和偏差分析。三維激光掃描技術(shù)能夠快速、全面、海量地獲得原始點(diǎn)云數(shù)據(jù),完整高精度地重建被測實(shí)體,從而真實(shí)描述掃描對象的整體結(jié)構(gòu)及形態(tài)特性,具備建模效率高、精度高等優(yōu)點(diǎn)。王代兵等[8]將三維激光掃描技術(shù)應(yīng)用于天津周大福金融中心幕墻工程中,結(jié)合BIM技術(shù)與三維激光掃描儀對施工環(huán)節(jié)進(jìn)行逆向設(shè)計(jì)、施工,提高了深化設(shè)計(jì)、生產(chǎn)施工的精確度,節(jié)約了施工成本。

        BIM技術(shù)和基于點(diǎn)云的三維建模方法為建筑工程現(xiàn)場數(shù)據(jù)可視化、可分析提供技術(shù)支持,幫助提高管理效率。但目前上述方法應(yīng)用于室內(nèi)仍存在一定局限性:

        (1)BIM模型的創(chuàng)建是一個單調(diào)耗時且易錯的工作,實(shí)際工程中一旦發(fā)生變更需要對BIM模型進(jìn)行及時更新,更新過程會耗費(fèi)較多的資源和人力。利用BIM模型對室內(nèi)建筑工程進(jìn)行進(jìn)度監(jiān)測,無法保證建模的實(shí)時性。

        (2)利用激光掃描儀可較快獲取三維點(diǎn)云,但掃描設(shè)備昂貴,掃描數(shù)據(jù)量大、數(shù)據(jù)處理速度較慢,需專業(yè)人員操作。

        (3)基于照片的三維建模方法,適應(yīng)于圖像中可獲取較多特征點(diǎn)的特定場景,對無紋理信息的構(gòu)件或場景建模能力較差。然而室內(nèi)工程存在較大面積的無紋理構(gòu)件,如墻面、地面等易導(dǎo)致模型中的空洞甚至建模失敗,因此僅利用彩色圖片的三維建模方法不適應(yīng)于室內(nèi)環(huán)境。

        隨著深度相機(jī)(例如Microsoft?Kinect)的出現(xiàn),為室內(nèi)三維信息采集提供了一種新的思路。深度相機(jī)是一種可同時獲取中分辨率的彩色圖和深度圖的傳感系統(tǒng)。但由于傳感距離有限,深度相機(jī)多被用來識別和跟蹤建筑工人狀態(tài)[9]。Zhu等[3]通過融合視覺和空間數(shù)據(jù)生成室內(nèi)三維點(diǎn)云模型,但這種方法需多個位置的數(shù)據(jù)采集與配準(zhǔn)融合,不精確的配準(zhǔn)易使模型出現(xiàn)偏移誤差。

        針對上述方法的局限性,本文提出一種基于深度相機(jī)的實(shí)時室內(nèi)場景重構(gòu)方法。利用BundleFusion的改進(jìn)算法,建立基于稀疏特征點(diǎn)匹配和稠密深度圖與圖片像素匹配并行的優(yōu)化框架。在此框架內(nèi)可實(shí)現(xiàn)實(shí)時全局優(yōu)化的姿態(tài),支持重定位的同時增強(qiáng)實(shí)時跟蹤的魯棒性,使之能夠適用于室內(nèi)施工場景建模,輔助工程進(jìn)度監(jiān)測,現(xiàn)場材料管理,并進(jìn)行實(shí)驗(yàn)驗(yàn)證。

        1 基于深度相機(jī)的室內(nèi)場景重構(gòu)方法

        1.1 基于深度相機(jī)的室內(nèi)場景重構(gòu)方法適用性分析

        基于深度相機(jī)的室內(nèi)場景重構(gòu)方法可應(yīng)用于室內(nèi)工程建設(shè)過程多個階段。利用深度相機(jī)建立基于機(jī)器視覺的實(shí)景快速重構(gòu)模型,在工程施工階段,可動態(tài)識別、量化設(shè)計(jì)模型和實(shí)際施工模型之間的偏差,以減少返工造成的損失;另一方面可視化、可分析的圖像及三維環(huán)境模型有利于提高工程各參與方的溝通效率,提高施工現(xiàn)場管理水平。在工程竣工交付階段,不同于傳統(tǒng)交付書面文字或基于文字?jǐn)?shù)據(jù)的電子存檔,圖像、視頻、空間三維模型作為數(shù)字產(chǎn)品驗(yàn)收憑證,可實(shí)時記錄施工過程中的關(guān)鍵部位,使施工過程關(guān)鍵節(jié)點(diǎn)可回溯,可追蹤。利用深度相機(jī)采集施工現(xiàn)場數(shù)據(jù),生成三維模型具有完整性好、細(xì)節(jié)還原度高、用戶友好度高等優(yōu)點(diǎn),可以為工程數(shù)據(jù)記錄不完善、不完整等問題提供解決方案,為項(xiàng)目后續(xù)運(yùn)營維護(hù)提供數(shù)據(jù)支撐。

        1.2 基于深度相機(jī)的室內(nèi)場景重構(gòu)方法理論基礎(chǔ)

        基于深度相機(jī)的室內(nèi)場景重構(gòu)方法是一種利用點(diǎn)云和深度圖像融合的場景重建技術(shù),通過前端設(shè)備獲取深度圖像和彩色圖像,生成結(jié)構(gòu)化的點(diǎn)云模型。基于深度相機(jī)的室內(nèi)場景重構(gòu)方法由以下四個主要步驟組成,分別是數(shù)據(jù)的獲取和處理、點(diǎn)云計(jì)算、點(diǎn)云配準(zhǔn)及場景重建,如圖1所示。

        圖1 基于深度相機(jī)的場景重構(gòu)流程

        (1)數(shù)據(jù)獲?。菏褂蒙疃认鄼C(jī)采集目標(biāo)場景數(shù)據(jù),其中利用RGB(Red,Green,Blue)攝像頭獲取彩色圖像,利用深度傳感器獲取深度圖像。

        (2)數(shù)據(jù)處理:對獲得的深度圖像進(jìn)行濾波處理以降低噪聲。

        (3)點(diǎn)云計(jì)算:計(jì)算相機(jī)坐標(biāo)系深度數(shù)據(jù),計(jì)算各點(diǎn)坐標(biāo)及法向量,生成三維點(diǎn)云數(shù)據(jù)。

        (4)點(diǎn)云配準(zhǔn):以初始化深度圖生成點(diǎn)云模型對應(yīng)的世界坐標(biāo)系作為基準(zhǔn)坐標(biāo)系。隨著深度相機(jī)的移動,基于深度數(shù)據(jù)的最近點(diǎn)迭代算法求解當(dāng)前相機(jī)坐標(biāo)系與世界坐標(biāo)系之間的轉(zhuǎn)換關(guān)系。通過矩陣變換使不同視角下生成的點(diǎn)云模型轉(zhuǎn)換至同一世界坐標(biāo)系下。

        (5)點(diǎn)云融合:當(dāng)深度相機(jī)的移動未超出當(dāng)前重建立方體的范圍時,通過最近點(diǎn)迭代算法最小化對應(yīng)特征描述符間的歐式距離實(shí)現(xiàn)點(diǎn)云的融合。當(dāng)深度相機(jī)的移動超出當(dāng)前立方體的范圍時,將原始重建立方體與新的立方體中重合部分的顯存數(shù)據(jù)拷貝至新的重建立方體中,同時重建新的重構(gòu)立方體與重合區(qū)域的截?cái)喾柧嚯x函數(shù),以實(shí)現(xiàn)全局點(diǎn)云的融合。

        (6)紋理映射:將獲取的彩色圖像作為紋理輸入,映射到三維點(diǎn)云模型中,得到可視化的真實(shí)三維模型。

        2 基于深度相機(jī)的室內(nèi)場景重構(gòu)方法研究及實(shí)驗(yàn)驗(yàn)證

        實(shí)驗(yàn)利用深度相機(jī)采集數(shù)據(jù),該深度相機(jī)是微軟公司推出的一款游戲體感周邊外置設(shè)備—Kinect V1(第一代Kinect)。該設(shè)備攜帶彩色攝像頭和紅外攝像頭,可同時獲得640×480彩色圖像(RGB)、320×40深度圖像(Depth)信息,實(shí)現(xiàn)RGB-D數(shù)據(jù)的同步獲取及圖像生成。

        2.1 KinectFusion算法及實(shí)驗(yàn)驗(yàn)證

        在研究初始階段,嘗試采用KinectFusion方法實(shí)現(xiàn)室內(nèi)場景重建。該方法通過Moving Volume算法實(shí)現(xiàn)重建立方體范圍的動態(tài)擴(kuò)展,進(jìn)而擴(kuò)大建模范圍[10]?;贙inectFusion方法的室內(nèi)場景重構(gòu)流程如圖2所示。

        圖2 基于KinectFusion方法的場景重構(gòu)流程

        (1)通過Kinect設(shè)備(下文簡稱“設(shè)備”)獲取彩色圖像和深度數(shù)據(jù),利用雙邊濾波對深度圖進(jìn)行降噪處理。

        (2)依據(jù)獲取各幀相機(jī)與目標(biāo)場景各點(diǎn)的距離,計(jì)算相機(jī)坐標(biāo)系下各點(diǎn)的深度數(shù)據(jù)、坐標(biāo)和法向量?;讷@取的彩色圖像信息和深度相機(jī)的內(nèi)參、外參求解相機(jī)坐標(biāo)系與世界坐標(biāo)系間的變換矩陣,統(tǒng)一轉(zhuǎn)化為世界坐標(biāo)系下的點(diǎn)云數(shù)據(jù)。

        (3)利用最近點(diǎn)迭代算法(Iterative Closest Point,ICP),根據(jù)當(dāng)前幀的點(diǎn)云與上一幀的預(yù)測點(diǎn)云,求解相機(jī)估計(jì)位置姿態(tài)?;谙鄼C(jī)位姿添加后續(xù)幀的深度圖像更新點(diǎn)云模型;

        (4)首先預(yù)定義一個虛擬立方體(Volume),該立方體是存儲于圖形處理器的三維數(shù)組,按照一定的精度將其均勻劃分為k×k×k個體素。每個體素包含兩個屬性,分別為截?cái)喾柧嚯x函數(shù)(Truncated Signed Distance Function,TSDF)和權(quán)重。三維重建過程中各幀圖像各點(diǎn)的值被映射到相應(yīng)坐標(biāo)體素中,即三維數(shù)據(jù)均保存到數(shù)據(jù)立方體中。隨著設(shè)備的持續(xù)移動,當(dāng)掃描視野大部分超出當(dāng)前重建立方體的范圍時,生成新的重建立方體隨著設(shè)備的移動路徑移動。設(shè)備移動過程中,計(jì)算當(dāng)前幀相機(jī)位置姿態(tài)與重建立方體對應(yīng)相機(jī)位置姿態(tài)間的旋轉(zhuǎn)角度差和平移分量差。若差值超過閾值需重新定位設(shè)備,生成新的對應(yīng)重建立方體,若差值未超過閾值則繼續(xù)后續(xù)數(shù)據(jù)融合。

        (5)計(jì)算重建立方體每個體素的TSDF值,在世界坐標(biāo)系下完成點(diǎn)云中各點(diǎn)到相應(yīng)體素的映射,保證立方體間重合區(qū)域可以完整重合,最終實(shí)現(xiàn)全局點(diǎn)云融合。

        (6)最后基于移動立方體算法進(jìn)行等值面提取,生成模型表面。

        一系列基于KinectFusion場景重建方法在室內(nèi)空間進(jìn)行測試,利用Kinect采集數(shù)據(jù)、跟蹤設(shè)備生成深度圖像,最終融合生成三維模型。實(shí)驗(yàn)運(yùn)行條件為:Intel(R) CORE i7-8570H CPU,8G內(nèi)存,系統(tǒng)獨(dú)立顯卡為NVIDIA Quadro P600,4G顯存。重建結(jié)果與范圍如圖3所示。

        圖3 基于KinectFusion算法的重建模型

        實(shí)驗(yàn)結(jié)果顯示基于KinectFusion方法重建范圍非常有限,如需重建完整的室內(nèi)模型后續(xù)需進(jìn)行分塊點(diǎn)云間的二次拼接,但拼接過程易產(chǎn)生較大拼接誤差;另外在墻面、地板等弱紋理部位易出現(xiàn)明顯畸變與偏移,導(dǎo)致重建模型錯誤。

        導(dǎo)致上述情況主要在于以下三點(diǎn)原因:

        (1)Moving Volume算法雖可迅速切換重建立方體同時跟蹤設(shè)備位姿,但該方法占用顯存空間較大,無法通過一次掃描建立完整的房間模型;

        (2)深度傳感器獲取的最佳監(jiān)測距離為0.8~3.0 m,一旦設(shè)備到場景表面距離超過這個范圍,設(shè)備易出現(xiàn)跟蹤失敗或深度圖像錯誤的情況;

        (3)最近點(diǎn)迭代算法通過幾何距離尋找對應(yīng)點(diǎn),容易陷入局部最優(yōu)化,當(dāng)噪聲較多時配準(zhǔn)效果較差。

        2.2 改進(jìn)的BundleFusion方法

        針對傳統(tǒng)KinectFusion算法存在的局限性,提出一種基于BundleFusion的場景重構(gòu)方法以提高室內(nèi)環(huán)境下相機(jī)跟蹤穩(wěn)定性,同時擴(kuò)展建模范圍以適應(yīng)實(shí)際工程建模需求。該方法采用一種穩(wěn)健的姿態(tài)估計(jì)策略,利用高效的層次化方法,有效優(yōu)化RGB-D數(shù)據(jù)流中每幀對應(yīng)的相機(jī)姿態(tài),最終達(dá)到全局最優(yōu)[11],詳細(xì)流程如圖4所示。

        圖4 基于Bundlefusion算法的流程

        相較于基于KinectFusion的重構(gòu)方法,基于BundleFusion室內(nèi)重構(gòu)方法主要在點(diǎn)云配準(zhǔn)及點(diǎn)云融合階段進(jìn)行了優(yōu)化改進(jìn)。在點(diǎn)云配準(zhǔn)階段,不同于前者利用最近點(diǎn)迭代(ICP)算法估計(jì)相機(jī)的位置姿態(tài),基于BundleFusion的重構(gòu)方法通過提取和匹配各輸入幀的尺度不變特征變換(Scale Invariant Feature Transform,SIFT)特征點(diǎn)建立稀疏對應(yīng)關(guān)系。后續(xù)通過幾何一致性及稠密點(diǎn)云驗(yàn)證優(yōu)化全局相機(jī)的位置姿態(tài)。采用分層局部到全局(Local-to-Global)的優(yōu)化策略,以減少優(yōu)化變量個數(shù),降低計(jì)算復(fù)雜度,保證輸入幀全局匹配的實(shí)時性。第一層為局部優(yōu)化,將每個連續(xù)n幀組成一個數(shù)據(jù)塊,每個數(shù)據(jù)塊的大小相同,實(shí)現(xiàn)數(shù)據(jù)塊內(nèi)連續(xù)幀相機(jī)位姿的優(yōu)化。將完成局部優(yōu)化的數(shù)據(jù)塊定義為關(guān)鍵幀進(jìn)入第二層,實(shí)現(xiàn)全局關(guān)鍵幀的位姿優(yōu)化。在GPU上利用預(yù)處理共軛梯度法求解全局相機(jī)的位置姿態(tài),實(shí)現(xiàn)數(shù)據(jù)的高度緩存并生成準(zhǔn)確的稠密點(diǎn)云。

        在點(diǎn)云融合階段,將全局相機(jī)位置姿態(tài)映射到TSDF模型中,隨著每個數(shù)據(jù)塊內(nèi)相機(jī)位姿的更新,TSDF值隨之更新。不同于KinectFusion方法中,將整個立方體(Volume)劃分成體素,該方法采用體素哈希(Voxel Hashing)策略[12],即只在相機(jī)測量到的場景表面劃分體素,建立體素與TSDF間的映射關(guān)系。計(jì)算分層優(yōu)化后設(shè)備位置姿態(tài)改變量,將其中變化量最大的10幀數(shù)據(jù)移除后,重新融合優(yōu)化后相機(jī)位置姿態(tài),更新對應(yīng)的TSDF模型以提高稠密點(diǎn)云的精度。最后提取對應(yīng)的像素塊,生成紋理模型。

        基于BundleFusion的室內(nèi)重構(gòu)方法因其采用SIFT特征點(diǎn)匹配,不嚴(yán)格依賴時間的一致性,使其允許自由的掃描路徑,具有操作簡便、可重定位、用戶友好等優(yōu)勢。通過基于數(shù)據(jù)塊與相機(jī)位姿相互關(guān)聯(lián)的全局實(shí)時優(yōu)化,增強(qiáng)傳感器遮擋區(qū)域和無特征區(qū)域跟蹤的魯棒性。針對基于Moving Volume重建方法占用顯存較大,建模范圍較小的局限性,通過分層的二階段優(yōu)化策略及體素哈希表面重構(gòu)策略降低占用顯存,擴(kuò)大室內(nèi)場景的重建范圍。

        基于BundleFusion的建模方法可以通過一次掃描建立完整的室內(nèi)空間環(huán)境,無需二次拼接,場景重構(gòu)模型與點(diǎn)云結(jié)果如圖5所示。

        圖5 基于BundleFusion方法重建的模型

        2.3 室內(nèi)場景建模結(jié)果與分析

        通過對同一場景,利用相同的數(shù)據(jù)采集設(shè)備為第一代Kinect及數(shù)據(jù)處理平臺Intel(R) CORE i7-8570H CPU,NVIDIA Quadro P600 GPU,對比不同建模方法下模型范圍與精度的差異。相較于廣泛應(yīng)用的KinectFusion,本文采用的基于BundleFusion的室內(nèi)建模方法,在建模范圍上大幅擴(kuò)展。

        其中前者僅適應(yīng)于小于7 m3室內(nèi)空間的三維重建,深度相機(jī)掃描軌跡長度不超過16 m,生成點(diǎn)云數(shù)量大概為60萬;基于Bundlefusion方法的室內(nèi)重構(gòu)模型可擴(kuò)展至75 m3,掃描軌跡長度可達(dá)到80 m,點(diǎn)云數(shù)量高達(dá)180萬~200萬。對比兩組模型外觀表征,本文使用方法增強(qiáng)了設(shè)備跟蹤的魯棒性,在白墻等弱紋理區(qū)域建模效果得到了明顯提升,無較大空洞、明顯偏移及錯位等情況,如圖6所示。

        圖6 基于不同建模方法實(shí)驗(yàn)結(jié)果對比

        利用CloudCompare軟件對兩種算法重建點(diǎn)云模型分別進(jìn)行精度驗(yàn)證。以實(shí)際測量值作為標(biāo)準(zhǔn),選取特征線上的點(diǎn)測量兩點(diǎn)間距離,為降低偶然誤差的影響,取三次測量的平均值作為模型測量值,且三次測量值間誤差低于0.3 mm。

        場景1中門的實(shí)際高度為2.11 m,基于KinectFusion算法構(gòu)建的模型中門高度為2.129 m,模型尺寸和實(shí)際尺寸的誤差為0.9%;基于BundleFusion算法構(gòu)建的模型中門高度為2.116 m,模型和實(shí)際尺寸的誤差為0.28%。場景2中畫框的實(shí)際尺寸為0.87 m×0.87 m,基于KinectFusion算法構(gòu)建的模型中畫框尺寸為0.890 m×0.860 m,模型尺寸和實(shí)際尺寸的誤差上限為2.30%;基于BundleFusion算法構(gòu)建的模型中畫框尺寸為0.881 m×0.860 m,模型和實(shí)際尺寸的誤差上限為1.26%。

        根據(jù)兩組實(shí)驗(yàn)結(jié)果可知,在紋理信息較少的白墻等處易出現(xiàn)較大的重建誤差(圖7)。基于KinectFusion算法室內(nèi)建模最大重建誤差為2.3%,基于BundleFusion算法最大重建誤差為1.26%。實(shí)驗(yàn)結(jié)果表明基于BundleFusion的建模方法更適應(yīng)于較大的室內(nèi)空間,在提升模型精度的同時,在弱紋理區(qū)域具有較好的魯棒性。

        圖7 不同算法模型精度對比

        3 結(jié)論與展望

        本文提出一種基于深度相機(jī)的室內(nèi)三維重建方法,結(jié)合Kinect設(shè)備與BundleFusion算法,針對室內(nèi)空間掃描一次即可完成實(shí)時的三維重建。該方法實(shí)現(xiàn)擴(kuò)展重建范圍,提高相機(jī)跟蹤的穩(wěn)定性,同時保證建模的速度和精度。

        (1)首先驗(yàn)證KinectFusion方法的建模范圍,分析該算法的不足,證明該方法的重建范圍不適應(yīng)工程實(shí)際。

        (2)其次針對KinectFusion方法的局限性,提出一種基于深度相機(jī)的BundleFusion室內(nèi)場景重構(gòu)方法,該方法用戶友好程度高且更適用于實(shí)際工程應(yīng)用。

        (3)最后通過定性與定量結(jié)合方法對比分析兩種不同方法的重建模型結(jié)果,比較兩種方法在建模范圍、建模表觀紋理及建模精度方面的差異。

        但是該方法也存在一些局限性,基于視覺的特征提取和匹配仍受環(huán)境條件(如照明、陰影,缺乏紋理和顏色信息等)影響,此外對于較為開放的室內(nèi)環(huán)境建模仍有難度。目前建模結(jié)果可應(yīng)用于動態(tài)的工程形象進(jìn)度追蹤,但未包含構(gòu)件的語義信息。未來研究方向?qū)杏冢?/p>

        (1)提高系統(tǒng)在一般環(huán)境條件(例如光線條件不足,缺乏紋理、顏色信息等)下的魯棒性。

        (2)提高基于深度相機(jī)的三維重建技術(shù)數(shù)據(jù)采集的自動化程度,并改進(jìn)算法提高模型精度。

        建立構(gòu)件層次的點(diǎn)云分割與標(biāo)定,將語義化信息模型和計(jì)劃工程進(jìn)度鏈接起來,實(shí)現(xiàn)工程進(jìn)度全周期追蹤。

        猜你喜歡
        深度方法模型
        一半模型
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        深度觀察
        深度觀察
        深度觀察
        可能是方法不對
        3D打印中的模型分割與打包
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        中文字幕34一区二区| 亚洲精品国产一二三无码AV| 无码人妻少妇久久中文字幕| 在线观看免费不卡网站| 国产精品二区一区二区aⅴ污介绍| 国产熟妇人妻精品一区二区动漫| 亚洲一区sm无码| 久久综合加勒比东京热| 国产精品毛片无遮挡高清| 好看的欧美熟妇www在线| 国产内射XXXXX在线| 国产自拍在线视频观看| 亚洲精品宾馆在线精品酒店| 骚小妹影院| 狠狠丁香激情久久综合| 午夜视频一区二区在线观看| 九九在线中文字幕无码| 国产一区二区三区在线观看免费| 第十色丰满无码| 久久伊人精品色婷婷国产| 无码国内精品久久人妻| 欧美人成人亚洲专区中文字幕| 老熟妇高潮av一区二区三区啪啪| 国产女主播一区二区三区| 欧美最大胆的西西人体44| 小12箩利洗澡无码视频网站| 亚洲综合中文一区二区| 亚洲av不卡无码国产| 日本无遮挡吸乳呻吟视频| 高潮社区51视频在线观看| 日韩人妻系列在线观看| 精品国产一二三产品区别在哪| 亚洲综合色秘密影院秘密影院| 国产精品一区一区三区| 日韩人妻中文无码一区二区| 婷婷成人基地| 日韩精品有码在线视频| 中文字幕亚洲熟女av| 国产成人午夜精华液| 国内精品91久久久久| 国产自拍在线观看视频|