亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的單目圖像深度信息恢復

        2022-06-23 10:58:12秦文光付新竹
        機電工程技術(shù) 2022年5期
        關(guān)鍵詞:單目殘差分組

        秦文光,付新竹,張 楠

        (1.山西中煤華晉集團公司王家?guī)X礦,山西運城 043300;2.中國礦業(yè)大學,江蘇徐州 221100)

        0 引言

        隨著計算機視覺技術(shù)在日常生活中的普遍應(yīng)用[1-2],通過算法進行圖像處理在近年獲得極大關(guān)注。計算機視覺研究領(lǐng)域的兩大主要任務(wù)為物體識別[3-4]和三維重建[5-6],2012 年深度學習興起后,三維重建打開了更為廣泛的思考角度,三維重建的關(guān)鍵就是獲取圖像對應(yīng)的真實深度信息。從圖像中估計場景的深度信息在計算機視覺領(lǐng)域已經(jīng)探索很久了,在深度學習的推動下應(yīng)用廣泛。如最近比較流行增強現(xiàn)實和虛擬現(xiàn)實[7],就是借助于場景的深度信息來進行視覺渲染以達到更好的效果。對于更高級的機器視覺任務(wù),如機器人導航[8]和汽車自動駕駛[9-10]的導航定位系統(tǒng),就是通過場景的深度信息實現(xiàn)精準定位,完成實際導航過程中障礙物躲避和智能路線規(guī)劃等任務(wù)。

        由于卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network,CNN)的進步和發(fā)展,單目圖像的深度估計效果逐漸增強,Eigen 和Fergus[11]構(gòu)建了可獲取全局特征的粗網(wǎng)絡(luò)結(jié)構(gòu)和可獲取局部特征的精網(wǎng)絡(luò)結(jié)構(gòu),再聯(lián)合兩個架構(gòu)層獲取的特征得到深度信息。Tompson 等[12]提出了將深度卷積網(wǎng)絡(luò)和馬爾科夫隨機場(MRF)進行結(jié)合,用于單幅圖像的人體姿態(tài)識別。Li 等[13]提出了一種深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)用于預測圖像的法線和深度信息,使用條件隨機場(CRF)對得到的深度圖進行后處理。Liu 等[14]還提出了一種基于CNN 和CRF 的深度估計方法。Luo W 等[15]提出了一種使用交叉熵的匹配網(wǎng)絡(luò),有助于計算所有像素的浮動差值。Laina 等[16]使用深度殘差網(wǎng)絡(luò)進行深度估計,提出了一種在網(wǎng)絡(luò)中高效學習特征映射上采樣的方法以提高輸出圖像的分辨率。上述文獻都得到了相對不錯的研究結(jié)果,但圖像深度信息恢復網(wǎng)絡(luò)中參數(shù)量過大導致圖像細節(jié)深度信息的丟失進而預測結(jié)果準確率不高的問題一直存在。

        為了解決上述難題,本文提出一種改進的RG-ResNet網(wǎng)絡(luò)模型。將大量的圖像和對應(yīng)深度信息的數(shù)據(jù)對輸入到網(wǎng)絡(luò)中進行訓練,通過卷積神經(jīng)網(wǎng)絡(luò)自動提取輸入待恢復圖像的特征信息并輸出對應(yīng)的深度圖,以此實現(xiàn)對輸入的單張RGB 圖像的深度估計,得到準確的圖像深度恢復結(jié)果。

        1 RG-ResNet網(wǎng)絡(luò)模型

        分組卷積(Groupable Convolution,GConv)的方式可以大幅降低網(wǎng)絡(luò)參數(shù)數(shù)量,但存在組與組之間信息不相關(guān)的缺點。為此,本文提出一種改進的RG-ResNet 網(wǎng)絡(luò)模型來實現(xiàn)單目圖像的深度信息恢復。主要研究內(nèi)容及創(chuàng)新點有:(1)基于分組卷積的思想提出相關(guān)聯(lián)分組卷積(Related Groupable Convolution,RGConv),解決分組卷積組與組之間信息無法關(guān)聯(lián)的缺陷,保留分組卷積少參數(shù)數(shù)量的優(yōu)勢;(2)基于RGConv 提出改進后的RG-ResNet殘差模塊;(3)結(jié)合編-解碼端到端的網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)建RG-ResNet網(wǎng)絡(luò)模型。

        1.1 相關(guān)聯(lián)分組卷積

        GConv 是當前輕量型網(wǎng)絡(luò)設(shè)計的核心模塊,簡潔且參數(shù)量低。GConv 易于實施,但是通過圖1 所示的分組卷積計算方式發(fā)現(xiàn),每次卷積都是對該組內(nèi)的信息進行卷積,造成了不同組內(nèi)的通道數(shù)據(jù)無關(guān)聯(lián)。為了提升通道間的相關(guān)聯(lián)性,同時保留GConv 少參數(shù)量和低計算量的優(yōu)勢,本文提出了一種能夠使得不同分組的通道信息可以交流的分組方式RGConv。

        圖1 分組卷積和相關(guān)聯(lián)分組卷積Fig.1 Groupable convolution and related groupable convolution

        圖2 描述了具體的分組規(guī)則:將上一層分組卷積的結(jié)果進行1~3 標號,后對其每一個標號組續(xù)分3 組,同以1~3標號,續(xù)分組以其父組號和本身標號組成新的標號按照矩陣排列,根據(jù)矩陣中下標不共線規(guī)則從左至右連線,組成新的排序組進行后續(xù)的卷積操作。圖1 右圖同樣經(jīng)過GConv1得到對應(yīng)的特征圖,將得到的三組特征繼續(xù)劃分為3組,然后根據(jù)圖2所示的分組規(guī)則進行對應(yīng)組合,最終使得輸出結(jié)果可融合不同組的通道信息。

        圖2 相關(guān)聯(lián)卷積分組規(guī)則Fig.2 Grouping rules ofrelated Convolution

        1.2 RG-ResNet殘差模塊

        ResNet 深層殘差結(jié)構(gòu)用于降維和升維的1*1 卷積實質(zhì)上是特殊的GConv,相當于對輸入特征圖的每個通道都分配了一個通道數(shù)為1的1*1卷積核進行卷積。因此基于ResNet 的殘差網(wǎng)絡(luò)模塊增加RGConv 結(jié)構(gòu),改進后的模塊如圖3 中左圖(stride=1)所示,將ResNet 中的1*1卷積全部替換為RGConv,將原有的3*3 卷積替換為GConv,即為所提的RG-ResNet殘差模塊。

        圖3 RG-ResNet殘差模塊Fig.3 Residual structure of RG-ResNet

        圖3 所示分別為stride=1 和stride=2 的殘差結(jié)構(gòu),stride=1 為左圖,主分支通過1*1 的RGConv 的具體操作為:首先通過分組數(shù)為輸入通道數(shù)的GConv,而后通過相關(guān)聯(lián)分組規(guī)則輸出新排列的通道組。輸出經(jīng)過BN 層和ReLU 激活函數(shù)后,進行3*3的分組卷積(分組數(shù)為輸入通道數(shù)),再次經(jīng)過BN 層后進行1*1 的RGConv,與側(cè)分支的輸入通道進行同維度的相加,結(jié)果經(jīng)過ReLU 激活函數(shù)輸出。右圖為當stride=2 時的RG-ResNet 殘差結(jié)構(gòu),輸入首先通過主分支同stride=1 的結(jié)構(gòu),側(cè)分支將上一層的輸出進行平均池化操作,而后與stride=1 的結(jié)構(gòu)不同在于這里主、側(cè)分支進行通道拼接而非同維度的相加操作,拼接后的結(jié)果經(jīng)過ReLU激活函數(shù)輸出。

        1.3 網(wǎng)絡(luò)結(jié)構(gòu)

        網(wǎng)絡(luò)整體結(jié)構(gòu)如圖4所示,采用編-解碼結(jié)構(gòu)進行網(wǎng)絡(luò)搭建。編碼部分采用RG-ResNet 殘差結(jié)構(gòu)堆疊進行特征提取,解碼結(jié)構(gòu)采用上采樣逐步恢復圖像的細節(jié)特征和空間分辨率。

        圖4 RG-ResNet整體結(jié)構(gòu)Fig.4 The structure of RG-ResNet

        1.3.1 編碼器構(gòu)建

        網(wǎng)絡(luò)的編碼器部分采用所提的RG-ResNet 殘差模塊進行多次疊加,不斷增加網(wǎng)絡(luò)深度用于提取圖像特征。本文采用50 層的殘差網(wǎng)絡(luò)的設(shè)計方式,對RG-ResNet 殘差模塊進行疊加操作,網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        圖5 編碼器結(jié)構(gòu)Fig.5 Encoder structure

        RG-ResNet 的兩種殘差模塊,經(jīng)過第一個殘差模塊(黃色模塊)時的1*1卷積并非分在經(jīng)組卷積,因為此時的網(wǎng)絡(luò)輸入通道數(shù)量較少。再對RG-ResNet 中stride=1(綠色模塊)和stride=2(藍色模塊)進行如圖5 所示的疊加,構(gòu)成編碼器實現(xiàn)對圖像的特征提取,編碼部分詳細參數(shù)如表1所示。

        表1 編碼器網(wǎng)絡(luò)參數(shù)Tab.1 Encoder parameters

        1.3.2 解碼器構(gòu)建

        輸入圖像經(jīng)過前述編碼模塊提取輸入圖像的特征信息,但是由于經(jīng)過多層卷積,特征圖的分辨率較低,輸出的尺寸過小,需要將圖像恢復到原來的尺寸,選用反池化+卷積的上采樣操作擴大圖像分辨率,流程如圖6所示。將分辨率較低的特征圖通過U1進行反池化操作,池化索引采用圖6標識的位置增補0的2×2像素塊。反池化操作后的結(jié)果進行卷積核為5*5 的卷積C1、C3 操作,經(jīng)過BN歸一化和ReLU激活函數(shù)進行處理,經(jīng)過C1操作后的特征圖再次進行C3的卷積核為3*3的卷積操作,將C3和C2 處理后的結(jié)果進行同維度的通道相加后經(jīng)過ReLU激活函數(shù),得到分辨率較高的特征圖輸出結(jié)果。

        圖6 上采樣結(jié)構(gòu)Fig.6 Upsampling structure

        1.3.3 損失函數(shù)

        Huber 損失函數(shù)又為平滑平均絕對誤差損失函數(shù),能夠比較清晰地估計出圖像中物體的深度信息,對異常值處理更加魯棒。Huber損失函數(shù)如式(1)所示。

        式中:f(xi)為估計值;Yi為目標值;λ為超參數(shù)取λ=0.15; 設(shè) 置c的 值 如 式(2); 令a=f(xi)-Y,c=

        2 實驗結(jié)果

        實驗設(shè)備選取型號NVIDIA GTX 1080Ti 顯卡的計算機,操作系統(tǒng)為Ubuntu18.04,選擇Pytorch 深度學習框架。訓練初始學習率(learning rate)設(shè)為0.000 1,訓練衰減因子α=0.999。預設(shè)批量處理大?。╞atch size)為8,最大迭代次數(shù)(max epoch)為20,損失函數(shù)使用Huber損失函數(shù),最終訓練模型參數(shù)總數(shù)量為25 M。訓練過程中對前幾層的模型權(quán)重進行凍結(jié)不訓練,同時進行數(shù)據(jù)增強,避免過擬合,提升訓練效果。

        2.1 評價標準

        根據(jù)目前單目圖像深度信息恢復采用的最通用評價指標進行對所提出的網(wǎng)絡(luò)框架進行評估,通用的評估方式[11]為:均方根誤差(Root Mean Squared Error,RMSE);平均對數(shù)誤差(Root Mean Squared log Error,RMSElog);平均相對誤差(Average Relative Error,Abs-REL);準確度(Accuracy)。

        2.2 不同網(wǎng)絡(luò)對比實驗與分析

        將所提出的網(wǎng)絡(luò)與目前已有的單目圖像深度信息恢復的編-解碼結(jié)構(gòu)網(wǎng)絡(luò)架構(gòu)進行比對。本文提出的方法與單目圖像深度信息恢復的前沿方法[13-14,16]均采用NYU Depth V2 包含659 張圖像對的室內(nèi)場景進行對比測試,實驗結(jié)果如表2 所示。對表中分析,本文所提方法能夠在保證精度的前提下有效地降低錯誤率。雖然該方法[13-14,16]在3 種誤差評估方面都達到了近期較高水平,但本文提出的模型在均方根誤差上比表中效果最佳的Laina 等[16]的方法提高了19.8%,同時平均相對誤差高于表中最優(yōu)數(shù)據(jù)3%,相比之下本文提出的方法要優(yōu)于表中的其他方法。

        表2 本文方法與其他方法的定量結(jié)果對比Tab.2 Comparison of network quantitative proposed by this paper and others

        由于該方法[16]在單目圖像深度估計的實驗結(jié)果最優(yōu),采用此方法與本文提出的方法進行定性實驗比對,如圖7 所示。圖中Laina 等[16]所提網(wǎng)絡(luò)的實驗結(jié)果整體預測準確,但是圖中物體邊緣模糊且輪廓不夠清晰,在物體細節(jié)和邊緣的深度信息恢復上存在信息丟失、錯誤等缺陷。相較而言,本文所提方法在框線內(nèi)一些細節(jié)(如桌子、沙發(fā)、柜子、門框等)的深度信息恢復中,可得到較為準確的結(jié)果,保證了深度信息恢復的完整性和準確性。綜上,本文提出的方法能夠?qū)崿F(xiàn)單目圖像的深度信息恢復,同比于目前其他先進算法,準確率占優(yōu)同時保證了場景細節(jié)深度信息的準確恢復。

        圖7 不同網(wǎng)絡(luò)深度信息恢復結(jié)果對比Fig.7 Comparison of information recovery results of different network depths

        3 結(jié)束語

        為了解決目前圖像深度信息恢復網(wǎng)絡(luò)中參數(shù)量過大的難題提出RG-ResNet,用于實現(xiàn)單目圖像的深度信息恢復,本文結(jié)合編-解碼結(jié)構(gòu),提出了兩個單目圖像深度信息恢復的網(wǎng)絡(luò)模型。

        本文首先提出了RGConv 的卷積方式,其保留了分組卷積低參數(shù)量的優(yōu)勢,同時彌補了組與組之間通道信息無關(guān)聯(lián)的缺陷,而后基于RGConv 對ResNet 殘差模塊進行改進,構(gòu)建RG-ResNet 網(wǎng)絡(luò)模型。實驗結(jié)果表明,在基于NYU Depth V2 數(shù)據(jù)集上RG-ResNet 網(wǎng)絡(luò)效果更好,并且與目前先進算法相比在圖像物體邊界、局部細節(jié)深度信息的恢復方面能夠達到較好的效果。

        在實際應(yīng)用場景中,不同的天氣環(huán)境、硬件等因素都會對網(wǎng)絡(luò)的預測結(jié)果造成直接的影響,并且目前一個功能的應(yīng)用都是多種算法的相互配合,這就要求單一算法能夠?qū)崿F(xiàn)更加穩(wěn)定準確的輸出,本文在對網(wǎng)絡(luò)的穩(wěn)定性和魯棒性方面的實驗不足,因此下一步將加入實際場景影響因素的考慮和硬件優(yōu)化的處理,進一步驗證所提出方法的實際可應(yīng)用性。

        猜你喜歡
        單目殘差分組
        基于雙向GRU與殘差擬合的車輛跟馳建模
        基于殘差學習的自適應(yīng)無人機目標跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        自動化學報(2019年6期)2019-07-23 01:18:32
        一種單目相機/三軸陀螺儀/里程計緊組合導航算法
        分組搭配
        怎么分組
        單目SLAM直線匹配增強平面發(fā)現(xiàn)方法
        分組
        基于CAD模型的單目六自由度位姿測量
        平穩(wěn)自相關(guān)過程的殘差累積和控制圖
        河南科技(2015年8期)2015-03-11 16:23:52
        国产三级在线视频播放| 性欧美丰满熟妇xxxx性久久久| 中文天堂国产最新| 久久久久久久女国产乱让韩| 久久精品中文字幕久久| 在线观看二区视频网站二区| 日产精品99久久久久久| 男受被做哭激烈娇喘gv视频| 久久免费观看国产精品| 极品新娘高清在线观看| 老鸭窝视频在线观看| 中文字字幕在线精品乱码| 国产av成人精品播放| 亚洲国产都市一区二区| 国产精选自拍视频网站| 东北妇女肥胖bbwbbwbbw| 亚洲精品成AV无在线观看| 亚洲av日韩av天堂久久不卡| 肉色丝袜足j视频国产| 国产久热精品无码激情| 亚洲AV乱码毛片在线播放| 在线观看的a站免费完整版 | 无码aⅴ精品一区二区三区| 亚洲熟妇无码av另类vr影视| 欧美zozo另类人禽交| 亚洲精品中文字幕一二三四| 把女的下面扒开添视频| 亚洲熟妇少妇任你躁在线观看| 天堂av在线一区二区| 日本女优在线一区二区三区| 亚洲国产精品福利片在线观看| 亚洲嫩模高清在线视频| 一个人午夜观看在线中文字幕 | 曰日本一级二级三级人人| 人人妻一区二区三区| 91精彩视频在线观看| 精品日本免费观看一区二区三区| 亚洲色偷偷综合亚洲avyp| 国产极品美女高潮抽搐免费网站| 国内精品久久久久影院蜜芽| 亚洲国产精品国自产拍性色 |