亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于BIM 和深度學(xué)習(xí)點(diǎn)云分割的施工檢查方法模擬研究

        2024-02-25 01:28:18孫楚津覃思中趙馨怡
        工程力學(xué) 2024年2期
        關(guān)鍵詞:對(duì)象化偏差標(biāo)簽

        張 帆,孫楚津,覃思中,趙馨怡

        (1.中冶建筑研究總院有限公司,北京 100088;2.清華大學(xué)土木工程系,土木工程安全與耐久教育部重點(diǎn)實(shí)驗(yàn)室,北京 100084)

        我國(guó)建筑業(yè)的發(fā)展對(duì)工程建造過程的進(jìn)度和質(zhì)量管控提出了較高的要求,施工管理問題越來越受工程人員和研究者的關(guān)注。建筑信息模型(BIM)為工程建設(shè)提供了豐富的空間和屬性信息,成為提升工程建設(shè)管理數(shù)字化水平的關(guān)鍵技術(shù)。通過與實(shí)際工程數(shù)據(jù)的交互,可以利用BIM 實(shí)現(xiàn)項(xiàng)目的動(dòng)態(tài)協(xié)調(diào)管理。比如,在進(jìn)度管理方面,利用BIM 可以綜合資源、工期、成本等關(guān)鍵要素優(yōu)化實(shí)現(xiàn)科學(xué)的施工計(jì)劃排程與可視化[1-4];在質(zhì)量管理方面,則可開展碰撞檢測(cè)、偏差檢查和竣工模型重建等[5-7]。

        上述應(yīng)用離不開實(shí)際工程數(shù)據(jù)的獲取,常規(guī)方法主要依賴于現(xiàn)場(chǎng)人員測(cè)量,存在數(shù)據(jù)獲取成本高、效率低等問題。近年來,三維激光掃描、RGB-D 深度相機(jī)等主動(dòng)式三維信息獲取技術(shù)和多視圖幾何重建等被動(dòng)式三維信息獲取技術(shù)的發(fā)展,為獲取以點(diǎn)云描述的工程建設(shè)三維場(chǎng)景信息提供了可能[8-10]。相比于現(xiàn)場(chǎng)人員測(cè)量,利用上述方法可以更高效地獲取三維信息,同時(shí)搭載于無人車、無人機(jī)[11]等可以實(shí)現(xiàn)更大范圍的數(shù)據(jù)采集,為推動(dòng)BIM 在施工管理領(lǐng)域的應(yīng)用提供了關(guān)鍵的技術(shù)支持。

        目前,已有相關(guān)研究將點(diǎn)云與BIM 相結(jié)合,輔助建筑工程的施工質(zhì)量與進(jìn)度管理[6,12]。然而,既有研究一般面向全局的三維場(chǎng)景信息比對(duì),在不同類型工程構(gòu)件需要適用不同的比對(duì)規(guī)則與指標(biāo)時(shí)難以定量呈現(xiàn)比對(duì)結(jié)果,需要工程人員進(jìn)一步開展針對(duì)性分析。同時(shí),比對(duì)結(jié)果無法與BIM 構(gòu)件屬性自動(dòng)關(guān)聯(lián)并服務(wù)于智能化分析。針對(duì)上述問題,本文將在既有研究基礎(chǔ)上,引入深度學(xué)習(xí)點(diǎn)云語義分割技術(shù),針對(duì)框架梁柱節(jié)點(diǎn)實(shí)現(xiàn)構(gòu)件對(duì)象化的比對(duì),提高點(diǎn)云與BIM 比對(duì)的自動(dòng)化和數(shù)字化程度,為相關(guān)測(cè)量數(shù)據(jù)和施工進(jìn)度的數(shù)字化記錄和智能化分析提供基礎(chǔ)。

        1 基于BIM 與點(diǎn)云的施工檢查方法

        本文提出的基于BIM 和深度學(xué)習(xí)點(diǎn)云分割的施工檢查方法,主要包括以下4 個(gè)步驟:

        1) 點(diǎn)云獲?。菏褂萌S激光掃描、RGB-D 深度相機(jī)等技術(shù)獲取施工建筑三維點(diǎn)云,通過布置多個(gè)測(cè)點(diǎn)獲取完整三維場(chǎng)景,點(diǎn)云應(yīng)具備三維坐標(biāo)和法向量信息。點(diǎn)云經(jīng)過人工預(yù)處理與降采樣,用于后續(xù)比對(duì)。

        2) 深度學(xué)習(xí)模型訓(xùn)練:利用已有構(gòu)件類型標(biāo)簽的點(diǎn)云數(shù)據(jù)訓(xùn)練點(diǎn)云語義分割模型,標(biāo)簽可以通過人工或虛擬合成的方法得到。第2 節(jié)詳細(xì)介紹了本文采用的點(diǎn)云語義分割算法。

        3) 點(diǎn)云語義分割:將步驟1)獲得的施工建筑點(diǎn)云輸入到步驟2)訓(xùn)練獲得的模型中,判別得到點(diǎn)云的逐點(diǎn)構(gòu)件類型標(biāo)簽預(yù)測(cè)結(jié)果。

        4) 對(duì)象化比對(duì):根據(jù)步驟3 輸出的構(gòu)件類型預(yù)測(cè)結(jié)果,將點(diǎn)云劃分為不同構(gòu)件實(shí)例,并與對(duì)應(yīng)的BIM 模型構(gòu)件匹配。針對(duì)不同構(gòu)件類型適用的規(guī)則與指標(biāo),進(jìn)行對(duì)象化的施工偏差比對(duì)。第3.4 節(jié)介紹了針對(duì)本文研究對(duì)象的比對(duì)方法。

        本文以框架梁柱節(jié)點(diǎn)為研究對(duì)象,采用虛擬合成的方法獲取點(diǎn)云及其構(gòu)件類型標(biāo)簽,通過模擬試驗(yàn)研究驗(yàn)證了方法的可行性。

        2 點(diǎn)云語義分割算法

        語義分割技術(shù)將空間信息與語義信息相關(guān)聯(lián),使通過計(jì)算機(jī)視覺理解三維場(chǎng)景結(jié)構(gòu)成為可能,為進(jìn)一步的建模分析提供了基礎(chǔ)。針對(duì)點(diǎn)云語義分割問題,研究者們開展了長(zhǎng)期而廣泛的研究,根據(jù)是否引入已知的語義信息,可以分為無監(jiān)督和有監(jiān)督2 類[13]。典型的無監(jiān)督分割方法包括邊緣檢測(cè)、區(qū)域生長(zhǎng)、模型擬合和聚類分析等[13],此類方法的語義結(jié)果一般來自于研究者和使用者對(duì)于三維場(chǎng)景結(jié)構(gòu)特征的認(rèn)識(shí)和分析。有監(jiān)督分割方法則利用已知語義標(biāo)簽訓(xùn)練模型,如支持向量機(jī)等機(jī)器學(xué)習(xí)方法[14]和各類深度學(xué)習(xí)方法在此類任務(wù)中發(fā)揮了其優(yōu)勢(shì)[15-18]。其中,深度學(xué)習(xí)語義分割方法在諸多數(shù)據(jù)集上取得了良好的效果,因而應(yīng)用于城市建成環(huán)境要素識(shí)別[19-20]、橋梁結(jié)構(gòu)構(gòu)件分割[21]等工程相關(guān)研究中。本文將深度學(xué)習(xí)方法應(yīng)用于框架梁柱節(jié)點(diǎn)語義分割,并拓展至與BIM 結(jié)合的施工比對(duì)領(lǐng)域。

        綜合考慮性能和易用性,本文采用PointNet++[16]進(jìn)行框架節(jié)點(diǎn)的語義分割。用于語義分割的PointNet++的網(wǎng)絡(luò)架構(gòu)主要由負(fù)責(zé)特征提取的降采樣編碼器和負(fù)責(zé)特征傳播的上采樣解碼器兩部分組成,如圖1 所示。本文具體采用的網(wǎng)絡(luò)架構(gòu)中,編碼器和解碼器分別包含3 個(gè)集合抽取層和3 個(gè)特征傳播層。其中,集合抽取層由降采樣層、分組層和PointNet 層[15]組成。降采樣層按最遠(yuǎn)點(diǎn)規(guī)則進(jìn)行點(diǎn)云降采樣,以保證降采樣后的點(diǎn)較為均勻地分布在模型空間內(nèi),n為降采樣后的關(guān)鍵點(diǎn)數(shù)量;分組層以降采樣后的關(guān)鍵點(diǎn)為基點(diǎn),采用ball query 算法確定每個(gè)關(guān)鍵點(diǎn)的一組鄰點(diǎn),r為鄰域搜索半徑;最后,PointNet 層對(duì)一組點(diǎn)進(jìn)行特征提取,作為關(guān)鍵點(diǎn)的特征輸入至下層網(wǎng)絡(luò)。特征傳播層則由上采樣層和PointNet 層組成。上采樣層與下采樣層的點(diǎn)的數(shù)量構(gòu)成對(duì)應(yīng)關(guān)系,采用反距離權(quán)重法計(jì)算上采樣擴(kuò)充點(diǎn)的特征;將上述上采樣后的點(diǎn)的特征與下采樣前的點(diǎn)的原特征連接組合,輸入到PointNet 層中。特征傳播層的PointNet 層仍負(fù)責(zé)特征提取,但針對(duì)單點(diǎn)而非集合抽取層中的針對(duì)點(diǎn)集進(jìn)行。最后,點(diǎn)云特征通過全連接層轉(zhuǎn)換為點(diǎn)的類別標(biāo)簽預(yù)測(cè)概率,取概率最大者作為點(diǎn)的類別標(biāo)簽。PointNet++訓(xùn)練過程的損失函數(shù)采用分類任務(wù)中常用的交叉熵?fù)p失。PointNet++的其他具體技術(shù)細(xì)節(jié)可參考文獻(xiàn)[16]。

        圖1 PointNet++的網(wǎng)絡(luò)架構(gòu)Fig.1 Network architecture of PointNet++

        3 合成數(shù)據(jù)試驗(yàn)

        為了驗(yàn)證深度學(xué)習(xí)點(diǎn)云語義分割算法在梁柱節(jié)點(diǎn)問題上的有效性,本文采用合成數(shù)據(jù)開展了驗(yàn)證試驗(yàn)。

        3.1 BIM 模型生成

        本文采用Autodesk Revit 及其C#語言二次開發(fā)接口生成框架節(jié)點(diǎn)BIM 模型??紤]實(shí)際施工檢查時(shí)已完成主要構(gòu)件澆筑,生成的框架節(jié)點(diǎn)BIM 模型包含梁、柱、板三種構(gòu)件。生成的框架節(jié)點(diǎn)BIM 模型包括三種樣式,即中柱節(jié)點(diǎn)、邊柱節(jié)點(diǎn)和角柱節(jié)點(diǎn),生成的典型模型如圖2 所示。邊柱節(jié)點(diǎn)和角柱節(jié)點(diǎn)考慮旋轉(zhuǎn)對(duì)稱的四個(gè)方向,如圖3 所示。

        圖2 框架節(jié)點(diǎn)樣式Fig.2 Styles of frame nodes

        圖3 邊柱節(jié)點(diǎn)和角柱節(jié)點(diǎn)的方向Fig.3 Directions of edge-column and corner-column nodes

        本文的框架節(jié)點(diǎn)BIM 模型考慮方形柱截面與矩形梁截面。其中,方形柱截面邊長(zhǎng)取值范圍為300 mm~1200 mm,梁寬取值范圍為200 mm~600 mm,梁的高寬比控制在1~3 且梁高不超過900 mm。由于點(diǎn)云獲取通常在節(jié)點(diǎn)以下的樓層平面上開展,僅可獲得節(jié)點(diǎn)所在樓層樓板的下表面三維信息,故板厚對(duì)于點(diǎn)云數(shù)據(jù)不產(chǎn)生影響,本文取固定板厚120 mm 方便BIM 建模。以50 mm 為模數(shù)在上述尺寸范圍內(nèi)隨機(jī)取值,共生成框架節(jié)點(diǎn)BIM 模型603 個(gè),其中中柱節(jié)點(diǎn)203 個(gè),邊柱節(jié)點(diǎn)和角柱節(jié)點(diǎn)各方向50 個(gè),BIM 模型以STL格式導(dǎo)出三角形網(wǎng)格三維模型,用于獲取點(diǎn)云數(shù)據(jù)。

        3.2 合成點(diǎn)云獲取

        在生成框架節(jié)點(diǎn)BIM 模型之后,為避免點(diǎn)云的密度模式與實(shí)際應(yīng)用中LiDAR 和深度相機(jī)由射線追蹤產(chǎn)生的陣列式點(diǎn)云的密度模式不符[22],本文采用虛擬深度相機(jī)的方式獲取框架節(jié)點(diǎn)的點(diǎn)云。

        虛擬深度相機(jī)采用針孔相機(jī)模型,如圖4 所示。以Intel Realsense LiDAR 深度攝像頭L515 的技術(shù)規(guī)格[23]為參考,虛擬深度相機(jī)的像素分辨率為1024×768,視場(chǎng)角(FOV)為70°。相機(jī)的焦距f(單位:pixel)可根據(jù)FOV 計(jì)算:

        圖4 針孔相機(jī)模型Fig.4 Pinhole camera model

        式中,w/pixel 為畫幅寬度,此處即1024。不考慮像素坐標(biāo)系與成像平面之間的平移,可知相機(jī)的內(nèi)參矩陣K為:

        根據(jù)針孔相機(jī)模型,記像素坐標(biāo)系下的點(diǎn)(u,v)在歸一化平面(相機(jī)坐標(biāo)系下Z=1)上的對(duì)應(yīng)點(diǎn)的世界坐標(biāo)為Pw1,則有:

        式中,R和t分別為相機(jī)坐標(biāo)系相對(duì)世界坐標(biāo)系的旋轉(zhuǎn)矩陣和平移向量,即相機(jī)的位姿參數(shù)。其中,旋轉(zhuǎn)矩陣R滿足RTR=I。由相機(jī)光心O為相機(jī)坐標(biāo)系的原點(diǎn),可知相機(jī)光心O的世界坐標(biāo)Pw0為:

        因此,以相機(jī)光心O為端點(diǎn),像素坐標(biāo)(u,v)對(duì)應(yīng)的射線方向r可在世界坐標(biāo)系下描述為:

        通過遍歷虛擬相機(jī)畫幅分辨率內(nèi)的像素點(diǎn),將其對(duì)應(yīng)射線與梁柱節(jié)點(diǎn)三維模型求交,即可獲得三維模型的深度圖和像素分類標(biāo)簽,如圖5 所示,進(jìn)而可以獲得具有語義標(biāo)簽的梁柱節(jié)點(diǎn)點(diǎn)云。

        圖5 虛擬深度相機(jī)獲得的深度圖和語義標(biāo)簽Fig.5 Depth map and semantic labels obtained by the virtual depth camera

        本文將深度采集誤差引入到虛擬深度相機(jī)中。參考Intel Realsense LiDAR 深度攝像頭L515的技術(shù)規(guī)格,深度測(cè)量相對(duì)真值的標(biāo)準(zhǔn)差與相機(jī)到目標(biāo)對(duì)象的距離相關(guān),為距離1 m 標(biāo)準(zhǔn)差2.5 mm至距離9 m 標(biāo)準(zhǔn)差15.5 mm。這里假設(shè)深度信息服從正態(tài)分布,深度信息的標(biāo)準(zhǔn)差根據(jù)相機(jī)到目標(biāo)對(duì)象的距離按線性插值處理。

        為獲取完整的框架節(jié)點(diǎn)點(diǎn)云,布置多個(gè)虛擬相機(jī)測(cè)點(diǎn)。虛擬相機(jī)放置在框架節(jié)點(diǎn)下方的樓層平面上(距柱頂垂直距離取3 m),與框架節(jié)點(diǎn)中心保持一定水平距離,從多個(gè)正交方向觀測(cè)框架節(jié)點(diǎn),以模擬實(shí)際工況,如圖6 所示。為了研究不同程度深度誤差對(duì)點(diǎn)云語義分割的影響,虛擬相機(jī)與框架節(jié)點(diǎn)中心的水平距離分別取3 m、6 m 和9 m。生成點(diǎn)云的過程中沒有考慮非深度誤差引起的離群噪聲點(diǎn)的影響,因?yàn)樵肼朁c(diǎn)可以通過自動(dòng)或人工的點(diǎn)云數(shù)據(jù)前處理消除。

        圖6 虛擬深度相機(jī)的觀測(cè)位姿Fig.6 Poses of the virtual depth camera

        將多視圖獲取的框架節(jié)點(diǎn)點(diǎn)云配準(zhǔn)融合,將點(diǎn)云密度降采樣至合適水平,經(jīng)降采樣并裁剪至合適范圍后的數(shù)據(jù)集中各個(gè)模型對(duì)應(yīng)點(diǎn)云的平均點(diǎn)數(shù)約為44.0×103。降采樣后的點(diǎn)云利用近鄰點(diǎn)計(jì)算每個(gè)點(diǎn)的法向量,以考慮深度誤差對(duì)法向量的影響。

        實(shí)際應(yīng)用中點(diǎn)云的坐標(biāo)系與BIM 模型的坐標(biāo)系并不相同,在重力方向確定的條件下仍存在平面變換。其中,平移變換可以較為容易地通過歸一化消除其對(duì)深度神經(jīng)網(wǎng)絡(luò)的影響,故這里考慮平面旋轉(zhuǎn)變換。由于框架節(jié)點(diǎn)具有旋轉(zhuǎn)對(duì)稱性,將平面旋轉(zhuǎn)角度的隨機(jī)取值范圍設(shè)為-45°~45°。

        上述步驟基于Open3D[24]實(shí)現(xiàn),完成后即可獲得603 個(gè)框架節(jié)點(diǎn)BIM 模型對(duì)應(yīng)的點(diǎn)云。

        3.3 點(diǎn)云語義分割

        將點(diǎn)云輸入到PointNet++中進(jìn)行語義分割,輸入特征包括空間坐標(biāo)(x,y,z)和法向量(nx,ny,nz)共6 個(gè)維度,不包括點(diǎn)云的RGB 顏色。對(duì)于中柱 、邊柱和角柱節(jié)點(diǎn)數(shù)據(jù)集,每個(gè)模型對(duì)應(yīng)點(diǎn)云的最小點(diǎn)數(shù)分別約為18.2×103、14.2×103和12.2×103,為了訓(xùn)練統(tǒng)一的深度學(xué)習(xí)模型并充分利用點(diǎn)云特征,所有訓(xùn)練輸入的點(diǎn)云的點(diǎn)數(shù)均降采樣至12.0×103。

        603 個(gè)框架節(jié)點(diǎn)的點(diǎn)云數(shù)據(jù)按6∶4 劃分為訓(xùn)練集和測(cè)試集,分別包含361 個(gè)和242 個(gè)數(shù)據(jù)。將訓(xùn)練集數(shù)據(jù)輸入PointNet++,訓(xùn)練過程batch size取10,使用Adam 優(yōu)化器,初始學(xué)習(xí)率為0.001,每訓(xùn)練20 epochs 學(xué)習(xí)率降至0.7 倍,共訓(xùn)練200 epochs。訓(xùn)練在計(jì)算服務(wù)器上開展,CPU 為Intel Xeon E5-2630 v3@2.40GHz,GPU 為NVIDIA GeForce GTX1080,內(nèi)存為64 GB,系統(tǒng)為Ubuntu 20.04,訓(xùn)練200 epochs 約耗時(shí)3160 s。

        將訓(xùn)練好的模型應(yīng)用于測(cè)試集數(shù)據(jù),與訓(xùn)練過程不同,測(cè)試評(píng)估時(shí)點(diǎn)云不進(jìn)行下采樣。模型預(yù)測(cè)點(diǎn)云的分類標(biāo)簽(梁、柱、板),結(jié)果精度以平均交并比mIoU (mean intersection over union)評(píng)價(jià):

        式中:n為分類標(biāo)簽的數(shù)量,此處n=3,對(duì)應(yīng)梁、柱、板三種語義對(duì)象;yi為預(yù)測(cè)標(biāo)簽的集合;為真值標(biāo)簽的集合。

        如3.2 節(jié)所述,為了研究不同程度深度誤差對(duì)點(diǎn)云語義分割的影響,虛擬相機(jī)被放置在與框架節(jié)點(diǎn)中心的不同水平距離位置,不同工況下模型語義分割結(jié)果的mIoU 如表1 所示??梢?,PointNet++可基本準(zhǔn)確預(yù)測(cè)框架節(jié)點(diǎn)組成構(gòu)件的類別標(biāo)簽,且相機(jī)水平距離引起的深度信息誤差和法向量誤差對(duì)于語義分割的準(zhǔn)確性影響有限,但近距離獲取點(diǎn)云仍可以獲得更佳的精度,同時(shí)更準(zhǔn)確的點(diǎn)云坐標(biāo)也將為施工偏差度量提供更加準(zhǔn)確的結(jié)果。

        表1 不同相機(jī)水平距離下的mIoU 預(yù)測(cè)結(jié)果Table 1 Prediction mIoU for different camera horizontal distances

        三種相機(jī)水平距離工況的預(yù)測(cè)標(biāo)簽和真值標(biāo)簽的混淆矩陣如圖7 所示,可見PointNet++對(duì)于三種主要組成構(gòu)件的預(yù)測(cè)精度較為均衡。

        圖7 不同相機(jī)水平距離下的預(yù)測(cè)結(jié)果混淆矩陣Fig.7 Prediction confusion matrix for different camera horizontal distances

        以相機(jī)水平距離3 m 時(shí)為例,三類框架節(jié)點(diǎn)的三維模型、點(diǎn)云真值標(biāo)簽和點(diǎn)云預(yù)測(cè)標(biāo)簽如圖8~圖10 所示。從圖中也可看出,模型預(yù)測(cè)的分類標(biāo)簽與真值標(biāo)簽基本一致,少量誤差一般出現(xiàn)在構(gòu)件連接位置,因?yàn)榇颂幈砻娣ㄏ蛄孔兓鄬?duì)劇烈,如圖11 所示。

        圖8 中柱節(jié)點(diǎn)語義分割結(jié)果Fig.8 Semantic segmentation result of a center-column node

        圖9 邊柱節(jié)點(diǎn)語義分割結(jié)果Fig.9 Semantic segmentation result of an edge-column node

        圖10 角柱節(jié)點(diǎn)語義分割結(jié)果Fig.10 Semantic segmentation result of a corner-column node

        圖11 預(yù)測(cè)誤差位置的標(biāo)簽對(duì)比與法向量可視化Fig.11 Comparison of labels at where the errors occur and visualization of normal vectors

        對(duì)比中柱節(jié)點(diǎn)、邊柱節(jié)點(diǎn)和角柱節(jié)點(diǎn)的模型語義分割結(jié)果的mIoU 如表2 所示??梢娙N類型節(jié)點(diǎn)的構(gòu)件類型預(yù)測(cè)精度較為均衡,同時(shí)中柱節(jié)點(diǎn)精度相對(duì)較低而角柱節(jié)點(diǎn)相對(duì)較高,也進(jìn)一步驗(yàn)證了預(yù)測(cè)誤差一般出現(xiàn)在構(gòu)件連接的法向量變化顯著的位置。

        3.4 對(duì)象化施工偏差比對(duì)

        在獲得了高精度的框架節(jié)點(diǎn)組成構(gòu)件語義分割結(jié)果之后,通過將點(diǎn)云與BIM 模型進(jìn)行配準(zhǔn),并將梁、柱、板的點(diǎn)云分別與其BIM 模型配對(duì),即可開展對(duì)象化的構(gòu)件施工偏差比對(duì)。由于PointNet++僅給出語義分割結(jié)果而未給出實(shí)例化分割結(jié)果,對(duì)于具有多根梁構(gòu)件的框架節(jié)點(diǎn),采用基于規(guī)則的方法沿節(jié)點(diǎn)對(duì)角線方向?qū)⒘旱狞c(diǎn)云劃分為若干梁構(gòu)件實(shí)例,再與各梁構(gòu)件BIM 模型按照距離最小的規(guī)則進(jìn)行匹配。對(duì)象化的施工偏差比對(duì)通過計(jì)算點(diǎn)云到匹配的BIM 模型表面的最短距離開展。

        圖12 展示了一個(gè)框架節(jié)點(diǎn)的施工偏差比對(duì)結(jié)果,該節(jié)點(diǎn)的BIM 模型中一根梁為外邊緣與柱邊緣對(duì)齊,但施工點(diǎn)云為梁軸線與柱軸線對(duì)齊。圖12(a)展示了對(duì)象化施工偏差的結(jié)果,圖中三維模型顏色表示構(gòu)件類型,點(diǎn)云顏色表示偏差程度,從圖中可以方便地觀察到由梁對(duì)齊方式不同而產(chǎn)生的偏差。圖12(b)為非對(duì)象化的偏差比對(duì)結(jié)果,即沒有進(jìn)行語義分割和點(diǎn)云-BIM 匹配,直接計(jì)算所有點(diǎn)到BIM 模型表面的最短距離。由圖可見,非對(duì)象化的方法使得構(gòu)件連接處的點(diǎn)云與錯(cuò)誤的構(gòu)件BIM 模型比對(duì)偏差,從而影響了正確施工構(gòu)件的誤差數(shù)值,不利于工程人員的識(shí)別和分析。與此同時(shí),對(duì)象化的施工偏差比對(duì)結(jié)果可以方便地與BIM 模型中構(gòu)件的屬性相關(guān)聯(lián),為相關(guān)測(cè)量數(shù)據(jù)和施工進(jìn)度的數(shù)字化記錄和智能化分析提供了關(guān)鍵基礎(chǔ)。

        圖12 框架結(jié)點(diǎn)施工偏差比對(duì)Fig.12 Construction deviation comparison of a frame node

        4 結(jié)論

        隨著深度相機(jī)、激光雷達(dá)等場(chǎng)景三維信息獲取設(shè)備的發(fā)展,點(diǎn)云作為一種場(chǎng)景三維結(jié)構(gòu)的描述方式,越來越多地應(yīng)用于建筑施工領(lǐng)域。本文提出將深度學(xué)習(xí)技術(shù)應(yīng)用于框架節(jié)點(diǎn)語義分割任務(wù)以開展對(duì)象化的施工偏差比對(duì),并基于合成數(shù)據(jù)開展了試驗(yàn)研究,結(jié)論如下:

        (1) 三維點(diǎn)云語義分割深度神經(jīng)網(wǎng)絡(luò)PointNet++在框架節(jié)點(diǎn)的梁、柱、板構(gòu)件類型預(yù)測(cè)任務(wù)中取得了較高的精度,為對(duì)象化的施工偏差比對(duì)提供了數(shù)據(jù)基礎(chǔ)。

        (2) 對(duì)于點(diǎn)云的深度誤差及其引起的法向量誤差,本文采用的語義分割算法具有較好的健壯性,盡管有少量誤差出現(xiàn)在構(gòu)件連接位置的點(diǎn)云,但對(duì)于構(gòu)件尺度的偏差值計(jì)算影響有限。

        (3) 通過對(duì)施工點(diǎn)云語義分割再與BIM 模型按照構(gòu)件進(jìn)行匹配,實(shí)現(xiàn)了框架節(jié)點(diǎn)施工點(diǎn)云與BIM模型的對(duì)象化偏差比對(duì),在施工偏差展示、測(cè)量數(shù)據(jù)數(shù)字化和施工進(jìn)度管理方面具有良好的應(yīng)用價(jià)值和發(fā)展?jié)摿Α?/p>

        本文旨在通過模擬試驗(yàn)驗(yàn)證所提出的基于深度學(xué)習(xí)的對(duì)象化節(jié)點(diǎn)施工偏差比對(duì)方法的可行性與應(yīng)用潛力,未來研究工作將致力于將方法遷移至實(shí)際工況,圍繞更加復(fù)雜的點(diǎn)云噪聲、節(jié)點(diǎn)形式等開展進(jìn)一步研究。

        猜你喜歡
        對(duì)象化偏差標(biāo)簽
        對(duì)象化的思想:人類生活中的信息
        如何走出文章立意偏差的誤區(qū)
        兩矩形上的全偏差
        “非對(duì)象化”及其人本價(jià)值
        無懼標(biāo)簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        論對(duì)象化及人之存在
        標(biāo)簽化傷害了誰
        關(guān)于均數(shù)與偏差
        對(duì)京劇表演對(duì)象化思維的反思
        成人影院免费视频观看| 丰满岳乱妇久久久| 亚洲AV一二三四区四色婷婷| 精品亚洲一区二区视频| 亚洲国产丝袜久久久精品一区二区 | 亚洲综合成人婷婷五月网址| 97精品依人久久久大香线蕉97| 韩国一级成a人片在线观看| 五十路一区二区中文字幕| 日韩 亚洲 制服 欧美 综合 | 精品丰满人妻无套内射| 日韩手机在线免费视频| 插入中文字幕在线一区二区三区| 男男亚洲av无一区二区三区久久| 国产啪亚洲国产精品无码| 国内揄拍国内精品| 国产精品久久国产三级国不卡顿| 色yeye免费视频免费看| 久久少妇呻吟视频久久久| 在线免费观看黄色国产强暴av| 挺进朋友人妻雪白的身体韩国电影| 国产成人精选在线不卡| 色哟哟精品中文字幕乱码| 欧美又大又硬又粗bbbbb| 波多野结衣乳巨码无在线| 在线视频中文字幕乱人伦| 国产在线一区二区三区不卡| 久久久久亚洲av成人网人人软件| 亚洲乱码日产精品bd在线观看| 538在线视频| 亚洲国产成人久久精品不卡| 激情影院内射美女| 一本一本久久久久a久久综合激情 91短视频在线观看免费 | 色欲色香天天天综合vvv| 成年无码aⅴ片在线观看| 99RE6在线观看国产精品| 中文字幕影片免费人妻少妇| 国产色无码精品视频国产| 中文字幕一区二区三区在线不卡 | 国产亚洲精品aaaa片app| 日韩精品不卡一区二区三区|