亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)單目深度估計(jì)研究進(jìn)展

        2022-02-28 07:33:30羅會(huì)蘭周逸風(fēng)
        關(guān)鍵詞:深度圖單目語(yǔ)義

        羅會(huì)蘭,周逸風(fēng)

        江西理工大學(xué)信息工程學(xué)院, 贛州 341000

        0 引 言

        從場(chǎng)景中獲取深度信息是計(jì)算機(jī)視覺(jué)的基礎(chǔ)問(wèn)題,在智能汽車(chē)(胡云峰 等,2019)和機(jī)器人定位(Cadena等,2016)等領(lǐng)域應(yīng)用廣泛。獲取深度信息的傳統(tǒng)方法是激光雷達(dá)。激光雷達(dá)通過(guò)測(cè)量激光的折返時(shí)間精確地獲取深度信息,但由于價(jià)格等原因很難大規(guī)模應(yīng)用。與傳統(tǒng)方法相比,基于圖像的深度估計(jì)沒(méi)有過(guò)高的硬件要求,只需要拍攝圖像就能得到深度信息。因此,基于圖像的深度估計(jì)具有更廣泛的應(yīng)用范圍和使用人群。基于圖像的深度估計(jì)分為基于單目視覺(jué)的深度估計(jì)方法和以立體視覺(jué)技術(shù)為代表的多目視覺(jué)深度估計(jì)方法。測(cè)試時(shí),單目視覺(jué)從單幅圖像中獲取場(chǎng)景深度信息,而立體視覺(jué)技術(shù)類(lèi)似于人眼的成像原理,需要使用兩個(gè)攝像頭獲取同一場(chǎng)景的兩幅圖像,然后對(duì)兩幅圖像進(jìn)行匹配,利用匹配信息得到深度信息。在立體視覺(jué)技術(shù)中,左右兩圖像的基線距離和相機(jī)的焦距已知,已知的相機(jī)參數(shù)信息有助于精度的提高,但左右匹配問(wèn)題受到設(shè)備的限制,從而使得雙目視覺(jué)應(yīng)用范圍有較大局限性。相較而言,單目深度估計(jì)只需單幅場(chǎng)景圖像即可估計(jì)深度信息,不需要額外的信息,所以具有更廣泛的應(yīng)用價(jià)值和重要的研究意義,逐漸成為當(dāng)前計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)之一。

        從圖像中獲得深度信息的本質(zhì)是構(gòu)建一個(gè)關(guān)聯(lián)圖像信息和深度信息的模型(Saxena等,2005),隨著深度學(xué)習(xí)的迅速發(fā)展,深度卷積神經(jīng)網(wǎng)絡(luò)在單目視覺(jué)中的應(yīng)用成為研究熱點(diǎn)。深度學(xué)習(xí)在解決目標(biāo)識(shí)別、圖像分割等問(wèn)題中性能優(yōu)異,這些方法也大量遷移應(yīng)用于深度估計(jì)。從Eigen等人(2014)首次將神經(jīng)網(wǎng)絡(luò)應(yīng)用于深度估計(jì)至今,隨著VGG(Visual Geometry Group)(Simonyan和Zisserman,2015)、ResNet(He等,2016)等網(wǎng)絡(luò)框架和空洞卷積(Yu和Koltun,2016)等卷積結(jié)構(gòu)相繼提出,出現(xiàn)了大量性能優(yōu)異的深度估計(jì)網(wǎng)絡(luò)。普通相機(jī)在拍攝時(shí)只記錄場(chǎng)景的色彩信息,深度信息的丟失導(dǎo)致在不同場(chǎng)景下拍攝的圖像可能是相同的,所以單目深度估計(jì)是一個(gè)病態(tài)問(wèn)題。由于單目深度估計(jì)中圖像與深度圖的對(duì)應(yīng)關(guān)系存在一對(duì)多的可能性,引入輔助信息提升深度估計(jì)精度是眾多科研者的思路。

        已經(jīng)訓(xùn)練好的單目深度估計(jì)模型在測(cè)試或?qū)嶋H使用時(shí),只需要輸入單幅圖像就可以得到深度估計(jì)結(jié)果。但在訓(xùn)練學(xué)習(xí)時(shí),有些模型只需要使用單幅圖像訓(xùn)練(Eigen等,2014;Laina等,2016)。也有許多研究者為了提升模型性能,使用立體圖像對(duì)(Godard等,2017;孫蘊(yùn)瀚 等,2020)、圖像序列(Yin和Shi,2018;Zhou等,2017;Zou等,2018)和深度范圍(Fu等,2018;Lee等,2019)來(lái)訓(xùn)練模型。目前,深度估計(jì)最常用的數(shù)據(jù)集是NYU depth v2(Silberman等,2012)數(shù)據(jù)集和KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago)(Geiger等,2012)數(shù)據(jù)集。NYU depth v2是美國(guó)紐約大學(xué)Silberman團(tuán)隊(duì)使用Kinect深度相機(jī)創(chuàng)建的室內(nèi)深度估計(jì)數(shù)據(jù)集,包含464個(gè)室內(nèi)場(chǎng)景的彩色圖像和對(duì)應(yīng)的深度圖,有效深度范圍為0.5 10 m。KITTI數(shù)據(jù)集由數(shù)據(jù)采集車(chē)沿途采集的彩色圖像、深度圖和GPS(global positioning system)位置等信息組成,包括城市街道和鄉(xiāng)間小道等道路場(chǎng)景,是常用的室外場(chǎng)景深度估計(jì)數(shù)據(jù)集。單圖像訓(xùn)練模型采用特征提取主干網(wǎng)絡(luò)和上采樣網(wǎng)絡(luò)獲取深度圖,網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單,易于針對(duì)特定任務(wù)調(diào)整結(jié)構(gòu),并且對(duì)硬件要求低,但是需要像素級(jí)的深度真值圖進(jìn)行訓(xùn)練。多圖像訓(xùn)練模型分為視差模型和運(yùn)動(dòng)結(jié)構(gòu)重建模型。視差模型分別估計(jì)輸入圖像的左右視差圖,并通過(guò)視差圖學(xué)習(xí)圖像的深度圖;運(yùn)動(dòng)結(jié)構(gòu)重建模型由深度估計(jì)模塊和相機(jī)軌跡估計(jì)模塊組成。多圖像訓(xùn)練單目深度估計(jì)模型使用圖像間的空間關(guān)系或時(shí)序關(guān)系構(gòu)造監(jiān)督信息,在訓(xùn)練時(shí)不需要圖像的深度真值,訓(xùn)練數(shù)據(jù)很容易獲得,所以在大數(shù)據(jù)量上訓(xùn)練得到的模型的泛化性能也較好。深度范圍也可以用來(lái)訓(xùn)練模型,一些單目深度估計(jì)模型先將深度范圍離散化,然后根據(jù)卷積神經(jīng)網(wǎng)絡(luò)提取的特征估計(jì)每一個(gè)像素點(diǎn)的深度范圍。

        與傳統(tǒng)的深度獲取方法和多目深度估計(jì)方法相比,單目深度估計(jì)只需一張照片就能獲得場(chǎng)景的深度信息,應(yīng)用范圍更廣泛,是計(jì)算機(jī)視覺(jué)的研究熱點(diǎn)。2014年以來(lái),許多研究者從事單目深度估計(jì)的研究,提出了不同的單目深度估計(jì)模型。Khan等人(2020)和Zhao等人(2020)以模型使用監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)或半監(jiān)督學(xué)習(xí)為依據(jù),對(duì)單目深度估計(jì)研究進(jìn)行了分類(lèi)綜述。與上述綜述不同,本文從單目深度估計(jì)模型采用訓(xùn)練數(shù)據(jù)類(lèi)型的角度,對(duì)近年來(lái)基于深度學(xué)習(xí)的單目深度估計(jì)研究進(jìn)行綜述,將單目深度估計(jì)方法分為單圖像訓(xùn)練模型、多圖像訓(xùn)練模型、語(yǔ)義及數(shù)據(jù)集深度范圍優(yōu)化深度估計(jì),旨在為根據(jù)獲得的訓(xùn)練數(shù)據(jù)類(lèi)型和輔助信息選擇和設(shè)計(jì)模型提供參考。

        1 單圖像輸入訓(xùn)練模型

        單圖像輸入的訓(xùn)練模型以單幅彩色圖像為輸入,參考深度信息為監(jiān)督信息,訓(xùn)練網(wǎng)絡(luò)模型實(shí)現(xiàn)深度估計(jì)。在使用卷積神經(jīng)網(wǎng)絡(luò)擬合得到深度圖后,還可以通過(guò)一些優(yōu)化方法對(duì)深度圖進(jìn)行優(yōu)化以提高預(yù)測(cè)精度。

        1.1 卷積神經(jīng)網(wǎng)絡(luò)擬合深度圖

        卷積神經(jīng)網(wǎng)絡(luò)擬合深度圖的方法是使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征后,采用全連接或上采樣的方法獲取圖像的深度圖。此類(lèi)方法性能的提升依賴(lài)于深度卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,出現(xiàn)了AlexNet(Krizhevsky等,2017)、VGG(Simonyan和Zisserman,2015)和ResNet(He等,2016)等網(wǎng)絡(luò)結(jié)構(gòu)。新型網(wǎng)絡(luò)結(jié)構(gòu)提高了網(wǎng)絡(luò)的深度,更深的網(wǎng)絡(luò)模型可以提取更豐富的特征信息,有利于提高擬合深度圖的精度。Eigen等人(2014)將AlexNet應(yīng)用于深度估計(jì),并提出由粗到細(xì)的兩步策略。網(wǎng)絡(luò)中使用粗細(xì)兩個(gè)尺度的神經(jīng)網(wǎng)絡(luò),其中粗尺度網(wǎng)絡(luò)獲取全局深度,細(xì)尺度網(wǎng)絡(luò)在粗尺度網(wǎng)絡(luò)輸出的基礎(chǔ)上豐富局部細(xì)節(jié)。粗尺度網(wǎng)絡(luò)使用AlexNet網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),輸入的彩色圖像經(jīng)過(guò)AlexNet網(wǎng)絡(luò)提取特征,這些特征通過(guò)全連接層映射為分辨率是輸入圖像1/4的粗略深度圖。在細(xì)尺度網(wǎng)絡(luò)中,使用卷積提取原圖像的局部特征并與全局深度圖拼接,經(jīng)過(guò)卷積獲得最終的深度圖。但Eigen等人(2014)提出的網(wǎng)絡(luò)缺少上采樣層,使得網(wǎng)絡(luò)輸出的深度圖分辨率較小,細(xì)尺度網(wǎng)絡(luò)的優(yōu)化效果也不太理想,深度估計(jì)的精度有所欠缺。2014年,牛津大學(xué)提出了VGG網(wǎng)絡(luò)(Simonyan和Zisserman,2015),使用多個(gè)小卷積核的疊加替代AlexNet中的大卷積核,加深了網(wǎng)絡(luò),從而提高了網(wǎng)絡(luò)性能。在Eigen等人(2014)的基礎(chǔ)上,Eigen和Fergus(2015)采用VGG網(wǎng)絡(luò)提取圖像的特征,并在Eigen等人(2014)提出的網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上加入第三尺度網(wǎng)絡(luò),進(jìn)一步優(yōu)化細(xì)節(jié),同時(shí)網(wǎng)絡(luò)中增加上采樣層,使輸出深度圖的尺寸提高,為輸入圖像的1/2。

        Eigen等人(2014)使用全連接層生成深度圖,全連接層巨大的參數(shù)量限制了深度圖分辨率的提高。Shelhamer等人(2015)在為解決語(yǔ)義分割問(wèn)題提出的全卷積網(wǎng)絡(luò)(fully convolutional networks,F(xiàn)CN)中使用特征圖取代全連接的結(jié)果,經(jīng)過(guò)上采樣將特征圖還原到輸入圖像的尺寸,在更少參數(shù)量的情況下獲得了原圖像同樣分辨率的輸出。在此基礎(chǔ)上,Laina等人(2016)將ResNet和FCN網(wǎng)絡(luò)應(yīng)于單目深度估計(jì)。網(wǎng)絡(luò)在特征提取端使用ResNet50提取彩色圖像的深層特征,特征圖通過(guò)4次上采樣輸出分辨率為原圖像1/2的深度圖,并使用reverse Huber(Owen,2007;Zwald和Lambert-Lacroix,2012)函數(shù)替代L2范數(shù)為損失函數(shù)提高深度估計(jì)精度。由于ResNet有效緩解了梯度消失問(wèn)題,相比Eigen等人(2014)提出的模型,Laina等人(2016)的模型的全局誤差顯著降低,深度估計(jì)的精度明顯提高。

        Laina等人(2016)提出的網(wǎng)絡(luò)模型存在物體形狀扭曲、小物體缺失和物體邊界模糊等問(wèn)題,一些研究者對(duì)此提出新的網(wǎng)絡(luò)模型。Hu等人(2019)認(rèn)為不同尺度的特征圖包含不同的深度信息,基于這個(gè)觀點(diǎn), Hu等人(2019)采用與Laina等人(2016)類(lèi)似的主干網(wǎng)絡(luò),不同尺度的特征圖上采樣后與主干網(wǎng)絡(luò)的輸出融合生成最終的深度圖,嘗試使用ResNet、DenseNet(Huang等,2017)和SENet(Hu等,2020)提取特征,其中SENet的深度估計(jì)效果最為優(yōu)異。網(wǎng)絡(luò)充分融合多尺度特征,有效增強(qiáng)了深度圖局部細(xì)節(jié),提高了深度估計(jì)的精度。與Hu等人(2019)方法不同, Zhao等人(2019)使用Shi等人(2016)提出的亞像素卷積融合多尺度特征,提高模型對(duì)細(xì)節(jié)的深度預(yù)測(cè)能力。為了提高物體邊界處的深度估計(jì)精度,謝昭等人(2020)基于編解碼結(jié)構(gòu)提出了一種采樣匯集網(wǎng)絡(luò)模型,在上采樣和下采樣層中加入局部匯集模塊,通過(guò)采樣匯集跨層的上采樣網(wǎng)絡(luò)提高特征圖分辨率,局部匯集模塊的使用減少了物體邊界定位誤差對(duì)深度估計(jì)的影響,提升了估計(jì)的精確度。

        1.2 利用圖像特征優(yōu)化深度圖

        在卷積網(wǎng)絡(luò)模型估計(jì)得到深度圖后,可以利用輸入圖像的區(qū)域相似性和梯度等圖像自身的特征進(jìn)一步優(yōu)化深度圖,其中利用圖像相似性?xún)?yōu)化深度圖的方法主要有條件隨機(jī)場(chǎng)(conditional random field,CRF)(Lafferty等,2001)。Liu等人(2015)認(rèn)為圖像中相似區(qū)域的深度相近,根據(jù)圖像的區(qū)域相似性使用連續(xù)條件隨機(jī)場(chǎng)優(yōu)化深度圖。首先,將圖像劃分為多個(gè)區(qū)域塊,即超像素,然后通過(guò)神經(jīng)網(wǎng)絡(luò)估計(jì)超像素的深度值,并根據(jù)相鄰超像素生成相似矩陣優(yōu)化深度估計(jì)。在CRF模型中,超像素作為圖模型的節(jié)點(diǎn),每個(gè)超像素的深度映射函數(shù)用U表示,節(jié)點(diǎn)間的連線用二元項(xiàng)V表示,二元項(xiàng)反映節(jié)點(diǎn)間的相似度,卷積神經(jīng)網(wǎng)絡(luò)通過(guò)優(yōu)化U和V這兩個(gè)函數(shù),使得相似度高的超像素有相近的深度值。輸入圖像分為N個(gè)超像素,以超像素的質(zhì)心為中心在原圖中截取圖像塊作為一元項(xiàng)U的訓(xùn)練圖像,經(jīng)過(guò)卷積層和全連接操作后輸出超像素質(zhì)心對(duì)應(yīng)的深度值。N個(gè)超像素有K組相鄰超像素對(duì),K組超像素對(duì)的相似度組成相似性矩陣。一元項(xiàng)部分的網(wǎng)絡(luò)以L2范數(shù)為損失函數(shù),二元項(xiàng)以CRF損失進(jìn)行優(yōu)化。但網(wǎng)絡(luò)模型需要計(jì)算超像素的深度和超像素間的相似性,計(jì)算量大,耗時(shí)嚴(yán)重,而且深度估計(jì)的結(jié)果以超像素為單位降低了深度估計(jì)的精度。在此基礎(chǔ)上,Liu等人(2016)提出使用掩膜層加快計(jì)算,將圖像分割成多個(gè)超像素作為超像素掩膜層。彩色圖像經(jīng)過(guò)卷積和最近鄰插值得到與輸入圖像分辨率相同的深度圖,深度圖與超像素掩膜層結(jié)合,將同一超像素中的深度值平均后作為超像素的深度值,再進(jìn)行條件隨機(jī)場(chǎng)優(yōu)化。由于神經(jīng)網(wǎng)絡(luò)不需要重復(fù)估計(jì)超像素的深度值,網(wǎng)絡(luò)的運(yùn)行速度得到提升。

        Xu等人(2017)將條件隨機(jī)場(chǎng)作為獨(dú)立的網(wǎng)絡(luò)分支,設(shè)計(jì)了一個(gè)由卷積神經(jīng)網(wǎng)絡(luò)和條件隨機(jī)場(chǎng)組成的深度估計(jì)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)使用全卷積網(wǎng)絡(luò)產(chǎn)生深度圖,在上采樣網(wǎng)絡(luò)中將不同尺度特征圖生成的深度圖逐層輸入條件隨機(jī)場(chǎng),得到精度逐步提高的深度圖。與使用條件隨機(jī)場(chǎng)優(yōu)化深度圖的方法不同, Li等人(2017)利用圖像梯度信息優(yōu)化深度估計(jì),設(shè)計(jì)了一個(gè)獨(dú)立分支充分提取輸入圖像的梯度特征,并與深度估計(jì)融合,達(dá)到優(yōu)化深度圖的目的。Lee等人(2018)提出一種在頻域中分析候選深度圖以提高深度圖精度的深度學(xué)習(xí)網(wǎng)絡(luò),使用裁剪率不同的裁剪圖像得到多個(gè)深度預(yù)選圖,在頻域中學(xué)習(xí)各深度預(yù)選圖的分量,并通過(guò)2維傅里葉逆變換產(chǎn)生最后的深度圖。由于不同裁剪率生成的深度預(yù)選圖在全局和局部的表現(xiàn)不同,深度學(xué)習(xí)模型充分學(xué)習(xí)了全局分量和局部細(xì)節(jié),使得深度估計(jì)的精度得到提高。

        1.3 小結(jié)

        典型的單圖像輸入訓(xùn)練模型的網(wǎng)絡(luò)結(jié)構(gòu)都比較簡(jiǎn)單。FCN網(wǎng)絡(luò)提出前都使用卷積層加全連接層來(lái)產(chǎn)生深度值,F(xiàn)CN網(wǎng)絡(luò)提出后深度估計(jì)模型大多采用了編解碼結(jié)構(gòu)。與卷積神經(jīng)網(wǎng)絡(luò)擬合深度圖的方法相比,雖然深度圖優(yōu)化的方法預(yù)測(cè)深度更精確,但在訓(xùn)練時(shí)多采用分步訓(xùn)練,網(wǎng)絡(luò)需要更多迭代次數(shù),時(shí)間復(fù)雜度更高。隨著性能更好的新型骨干網(wǎng)絡(luò)框架的提出,單圖像訓(xùn)練模型更傾向于采用卷積神經(jīng)網(wǎng)絡(luò)擬合的方法。典型單圖像訓(xùn)練模型的概要如表1所示。

        表1 典型單圖像訓(xùn)練模型概要總結(jié)Table 1 Summary of typical single image training models

        2 多圖像輸入訓(xùn)練模型

        多圖像輸入訓(xùn)練模型分為使用立體圖像對(duì)訓(xùn)練的方法和使用圖像序列訓(xùn)練的方法。以立體圖像對(duì)作為訓(xùn)練數(shù)據(jù)的單目深度估計(jì)模型通過(guò)視差圖來(lái)學(xué)習(xí)場(chǎng)景的深度,而以圖像序列為訓(xùn)練數(shù)據(jù)的單目深度估計(jì)模型,需要結(jié)合學(xué)習(xí)深度估計(jì)和相機(jī)姿態(tài),通過(guò)場(chǎng)景重建來(lái)優(yōu)化深度估計(jì)。多圖像輸入單目深度估計(jì)與立體視覺(jué)有顯著不同,在測(cè)試時(shí),單目深度估計(jì)只需單幅圖像,而立體視覺(jué)還需要立體圖像對(duì)。

        2.1 立體圖像對(duì)訓(xùn)練模型

        Mayer等人(2016)在FlowNet(Dosovitskiy等,2015)的基礎(chǔ)上,提出了用于視差估計(jì)的DispNet模型,在FlowNet的解碼端增加了卷積層和上采樣層,獲得了更平滑、分辨率更高的視差圖。Godard等人(2017)將視差法應(yīng)用單目深度估計(jì),網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 MonoDepth網(wǎng)絡(luò)結(jié)構(gòu)示意圖(Godard等,2017)Fig.1 The framework of MonoDepth(Godard et al.,2017)

        基于視差估計(jì)深度的網(wǎng)絡(luò)模型,其效果嚴(yán)重依賴(lài)于視差估計(jì)結(jié)果。所以一些研究者致力于視差估計(jì)模型的研究,GA-Net(guided aggregation net)(Zhang等,2019)和Bi3DNet(Badki等,2020)等視差預(yù)測(cè)模型有效提高了深度估計(jì)的效果?;贕odard等人(2017)的網(wǎng)絡(luò)模型和損失函數(shù),孫蘊(yùn)瀚等人(2020)通過(guò)DenseNet(Huang等,2017)提取特征后使用特征金字塔結(jié)構(gòu)(Lin等,2017)估計(jì)多尺度深度圖,并在損失函數(shù)中使用多尺度損失,深度估計(jì)精度有所提高。在Godard等人(2017)的方法中,右視差圖dr是左視圖Il生成的,造成右視圖Ir與右視差圖dr不匹配,從而影響了深度圖的精度。Repala和Dubey(2019)使用雙流網(wǎng)絡(luò)并行處理左右視圖,估計(jì)左右視差圖,使左右視差圖與對(duì)應(yīng)視圖匹配,得到了更精確的深度圖。

        2.2 圖像序列訓(xùn)練模型

        Kendall等人(2015)提出了PoseNet網(wǎng)絡(luò)模型,通過(guò)分析圖像序列獲得相機(jī)的運(yùn)動(dòng)軌跡,實(shí)現(xiàn)相機(jī)姿態(tài)估計(jì)。在此基礎(chǔ)上,Zhou等人(2017)提出了運(yùn)動(dòng)結(jié)構(gòu)重建模型SfMLearner(structure from motion learner),在假定沒(méi)有運(yùn)動(dòng)物體和場(chǎng)景物體是理想反射以及相機(jī)參數(shù)已知的條件下,將深度估計(jì)與相機(jī)姿態(tài)估計(jì)結(jié)合,使用運(yùn)動(dòng)結(jié)構(gòu)重建來(lái)學(xué)習(xí)圖像中的深度信息。網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,以圖像序列作為輸入,It為目標(biāo)圖像,It-1和It+1表示目標(biāo)圖像的前后幀圖像,將它們輸入相機(jī)姿態(tài)估計(jì)網(wǎng)絡(luò)中,分別估計(jì)從It到It-1和從It到It+1的相機(jī)運(yùn)動(dòng)軌跡。深度估計(jì)網(wǎng)絡(luò)估計(jì)輸入圖像It的深度圖,然后圖像It的深度圖結(jié)合相機(jī)運(yùn)動(dòng)軌跡和相機(jī)參數(shù)將圖像It中所有點(diǎn)的位置映射到It+1和It-1中,最后根據(jù)映射關(guān)系使用It+1和It-1中像素點(diǎn)的亮度值重建圖像It。網(wǎng)絡(luò)以重建后的圖像和原圖像間的誤差作為損失函數(shù),同時(shí)優(yōu)化深度估計(jì)網(wǎng)絡(luò)和姿態(tài)估計(jì)網(wǎng)絡(luò)。訓(xùn)練時(shí),網(wǎng)絡(luò)以圖像序列作為訓(xùn)練數(shù)據(jù),預(yù)測(cè)時(shí)只需輸入單幅圖像估計(jì)圖像的深度圖。

        圖2 SfMLearner網(wǎng)絡(luò)結(jié)構(gòu)示意圖(Zhou等,2017)Fig.2 The framework of SfMLearner(Zhou et al.,2017)

        考慮到圖像序列間的亮度差異會(huì)影響深度估計(jì)的精確度,Yang等人(2020)在Zhou等人(2017)的基礎(chǔ)上,使用亮度轉(zhuǎn)換函數(shù)和亮度不確定參數(shù)來(lái)減少匹配圖像序列間的亮度誤差,提高了深度估計(jì)的整體精度。一些研究者在SfMLearner基礎(chǔ)上,通過(guò)優(yōu)化姿態(tài)估計(jì)網(wǎng)絡(luò)和深度估計(jì)網(wǎng)絡(luò)提高深度估計(jì)模型的性能。梁欣凱等人(2019)在姿態(tài)估計(jì)網(wǎng)絡(luò)中加入長(zhǎng)短期記憶網(wǎng)絡(luò),并在深度估計(jì)網(wǎng)絡(luò)中使用空洞特征金字塔網(wǎng)絡(luò)(Chen等,2018)提取特征,提升了深度估計(jì)的精度。同樣的,Johnston和Carneiro(2020)使用自注意力(Wang等,2018)和離散差異體積卷積(Kendall等,2017)增強(qiáng)深度估計(jì)模塊的性能。SfMLearner模型隱含地假定了目標(biāo)圖像幀與其相鄰幀間不存在遮擋或分離現(xiàn)象,為了克服此局限性,Godard等人(2019)采用U-Net(Ronneberger等,2015)網(wǎng)絡(luò)作為特征提取主干網(wǎng)絡(luò)來(lái)估計(jì)圖像的深度,重建損失項(xiàng)中使用最小重投影損失取代平均重投影損失降低遮擋物對(duì)深度估計(jì)的影響,從而提高了深度圖的精確性。

        為了處理存在運(yùn)動(dòng)物體的場(chǎng)景,Yin和Shi(2018)結(jié)合FlowNet(Dosovitskiy等,2015)提出了GeoNet模型,采用分治策略,根據(jù)場(chǎng)景中物體是否存在相對(duì)移動(dòng),將場(chǎng)景中的物體分為靜態(tài)和動(dòng)態(tài)物體,深度估計(jì)和姿態(tài)估計(jì)網(wǎng)絡(luò)處理靜態(tài)物體,光流網(wǎng)絡(luò)計(jì)算場(chǎng)景中運(yùn)動(dòng)物體的光流。首先使用運(yùn)動(dòng)結(jié)構(gòu)重建的思想實(shí)現(xiàn)場(chǎng)景重建,然后將重建后的場(chǎng)景圖輸入后續(xù)的光流網(wǎng)絡(luò)中,通過(guò)前后向光流一致性?xún)?yōu)化深度估計(jì)網(wǎng)絡(luò)、相機(jī)姿態(tài)估計(jì)網(wǎng)絡(luò)和光流網(wǎng)絡(luò),很好地解決了運(yùn)動(dòng)結(jié)構(gòu)重建無(wú)法處理運(yùn)動(dòng)物體的問(wèn)題。同樣地,為了解決運(yùn)動(dòng)物體問(wèn)題,Zou等人(2018)提出DF-Net模型,使用光流網(wǎng)絡(luò),通過(guò)前后向一致性生成掩膜層來(lái)明確靜態(tài)與動(dòng)態(tài)物體的區(qū)域。而Ranjan等人(2019)使用運(yùn)動(dòng)分割的方法明確靜態(tài)與動(dòng)態(tài)區(qū)域。這兩種方法使得動(dòng)態(tài)物體的區(qū)域更為明確,進(jìn)一步提升了網(wǎng)絡(luò)應(yīng)對(duì)運(yùn)動(dòng)物體的能力。

        相機(jī)將3維場(chǎng)景映射為2維圖像時(shí),2維圖像丟失了圖像中物體尺寸與實(shí)際物體尺寸的比例關(guān)系,因此無(wú)法準(zhǔn)確估計(jì)單幅圖像中物體的長(zhǎng)度。立體圖像對(duì)中,由于兩視圖間的基線距離已知,根據(jù)基線距離能夠準(zhǔn)確計(jì)算圖像與實(shí)際物體尺寸的比例,所以使用立體圖像訓(xùn)練的深度模型能夠準(zhǔn)確估計(jì)圖像的深度值。與立體圖像對(duì)不同,圖像序列間缺少相機(jī)移動(dòng)的實(shí)際度量尺度,度量尺度的缺失引起的尺度模糊問(wèn)題會(huì)影響深度估計(jì)的效果。Zhan等人(2018)考慮到圖像序列中存在的尺度模糊問(wèn)題,提出使用立體圖像序列訓(xùn)練單目深度估計(jì)的網(wǎng)絡(luò)模型。在立體圖像序列中,左視圖到右視圖的相機(jī)運(yùn)動(dòng)軌跡已知,網(wǎng)絡(luò)分別估計(jì)左視圖序列和右視圖序列中的相機(jī)運(yùn)動(dòng)軌跡,然后結(jié)合相機(jī)運(yùn)動(dòng)軌跡與深度圖重建視圖??紤]到重建圖與原圖間存在亮度差,而這種亮度差會(huì)影響深度估計(jì)的效果,因此重建圖像的同時(shí)還重建了圖像的特征,在圖像重建損失的基礎(chǔ)上增加了原圖與重建圖的特征匹配損失項(xiàng),降低了原圖與重建圖像間亮度不同對(duì)網(wǎng)絡(luò)性能的影響。使用立體圖像序列降低了圖像序列中尺度模糊的影響,同時(shí)立體圖像序列在圖像序列中增加了左右視圖間的空間約束,提升了深度估計(jì)的精確性。

        2.3 小結(jié)

        視差法深度估計(jì)模型和運(yùn)動(dòng)結(jié)構(gòu)重建模型作為多圖像訓(xùn)練的典型模型,與單圖像訓(xùn)練模型相比,網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜度明顯提高。但是多圖像訓(xùn)練模型在訓(xùn)練時(shí)不需要深度真值作為監(jiān)督,極大降低了訓(xùn)練數(shù)據(jù)的獲取難度,增加的訓(xùn)練數(shù)據(jù)提高了網(wǎng)絡(luò)的泛化性能。相對(duì)于視差法深度估計(jì)模型,運(yùn)動(dòng)結(jié)構(gòu)重建模型的結(jié)構(gòu)更為復(fù)雜,網(wǎng)絡(luò)包括深度估計(jì)和相機(jī)軌跡估計(jì)兩個(gè)前端模塊和光流網(wǎng)絡(luò)等后端處理模塊,訓(xùn)練過(guò)程更復(fù)雜,收斂速度更慢。典型多圖像訓(xùn)練模型的概要如表2所示。

        表2 典型多圖像訓(xùn)練模型概要總結(jié)Table 2 Summary of typical multi-image training models

        3 結(jié)合語(yǔ)義及數(shù)據(jù)集深度范圍優(yōu)化深度估計(jì)

        單幅圖像單目深度估計(jì)方法根據(jù)神經(jīng)網(wǎng)絡(luò)提取的圖像特征擬合深度圖,多圖像單目深度估計(jì)通過(guò)視差圖和運(yùn)動(dòng)結(jié)構(gòu)重建計(jì)算圖像的深度。為了進(jìn)一步提高深度估計(jì)的精度,許多研究者結(jié)合語(yǔ)義標(biāo)簽和數(shù)據(jù)集深度范圍等信息來(lái)獲得更好的深度估計(jì)效果。

        3.1 結(jié)合語(yǔ)義分割與深度估計(jì)

        語(yǔ)義分割與深度估計(jì)是計(jì)算機(jī)視覺(jué)中的兩項(xiàng)基本任務(wù),都是對(duì)圖像場(chǎng)景的理解,語(yǔ)義分割中物體邊緣普遍存在深度跳躍而分割物體內(nèi)部的深度大多連續(xù),兩項(xiàng)任務(wù)具有非常高的相關(guān)性,結(jié)合進(jìn)行訓(xùn)練可以學(xué)習(xí)到額外的信息,從而提高深度估計(jì)的性能。而且兩項(xiàng)任務(wù)可以共享一個(gè)主干網(wǎng)絡(luò),減少訓(xùn)練兩項(xiàng)任務(wù)的參數(shù)量。因此,許多研究者通過(guò)結(jié)合語(yǔ)義分割與深度估計(jì)來(lái)提高深度估計(jì)效果。

        Wang等人(2015)首次提出在網(wǎng)絡(luò)框架中聯(lián)合利用語(yǔ)義和深度信息,旨在提升深度估計(jì)和語(yǔ)義分割的效果。網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,全局卷積神經(jīng)網(wǎng)絡(luò)以整個(gè)圖像作為輸入,同時(shí)估計(jì)整幅圖像的深度圖和語(yǔ)義概率圖。而區(qū)域卷積神經(jīng)網(wǎng)絡(luò)以over-segmentation(Liu等,2011)算法分割的圖像塊為輸入,估計(jì)歸一化相對(duì)深度模板和語(yǔ)義標(biāo)簽。然后利用像素點(diǎn)的深度與語(yǔ)義標(biāo)簽、圖像塊的深度與語(yǔ)義標(biāo)簽以及圖像塊與像素間的包含關(guān)系組成分層條件隨機(jī)場(chǎng)。最后聯(lián)合利用像素級(jí)深度信息和區(qū)域級(jí)深度信息,使用循環(huán)置信傳播(loopy belief propagation, LBP)算法估計(jì)每個(gè)圖像塊的語(yǔ)義標(biāo)簽,再使用最大后驗(yàn)概率算法估計(jì)圖像塊中每個(gè)像素點(diǎn)的語(yǔ)義標(biāo)簽。在獲得語(yǔ)義標(biāo)簽后,通過(guò)LBP算法估計(jì)圖像塊中心深度和深度變化尺度,結(jié)合區(qū)域卷積網(wǎng)絡(luò)估計(jì)的歸一化模板,獲得圖像塊的絕對(duì)深度。模型通過(guò)最小化雙層CRF聯(lián)合估計(jì)語(yǔ)義標(biāo)簽和深度圖,充分利用了圖像中語(yǔ)義與深度信息的關(guān)聯(lián)性,精度得到了一定提升。

        圖3 分層條件隨機(jī)場(chǎng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖(Wang等,2015)Fig.3 The framework of hierarchical conditional random field(Wang et al.,2015)

        Jiao等人(2018)通過(guò)分析數(shù)據(jù)集中深度值的分布,提出使用語(yǔ)義信息和注意力驅(qū)動(dòng)損失來(lái)優(yōu)化深度圖。圖像在提取特征后分別輸入深度估計(jì)和語(yǔ)義分割兩個(gè)分支網(wǎng)絡(luò),兩個(gè)分支網(wǎng)絡(luò)間采用橫向共享單元將同尺度下的特征相互拼接實(shí)現(xiàn)特征共享,同時(shí)每個(gè)分支中使用跳躍連接將各上采樣層融合,得到最后的深度圖和語(yǔ)義分割圖。網(wǎng)絡(luò)同時(shí)進(jìn)行深度估計(jì)和語(yǔ)義分割,橫向共享單元使兩項(xiàng)任務(wù)的效果協(xié)同提高,有效提高了深度估計(jì)的精度。

        Chen等人(2019)提出采用立體視圖同時(shí)預(yù)測(cè)圖像的深度信息和語(yǔ)義分割,將左視圖生成的語(yǔ)義分割圖通過(guò)視差圖轉(zhuǎn)化為右視圖的語(yǔ)義分割圖,右視圖生成的語(yǔ)義分割圖通過(guò)同樣的操作獲得左視圖的語(yǔ)義分割圖,然后使用相對(duì)應(yīng)語(yǔ)義分割圖差值之和優(yōu)化網(wǎng)絡(luò),相比Godard等人(2017)單純使用立體圖像對(duì)進(jìn)行深度估計(jì),精度獲得了顯著提升。

        有些研究者將實(shí)例分割和全景分割等新型的圖像分割任務(wù)與深度估計(jì)結(jié)合。Wang等人(2020)將深度估計(jì)、語(yǔ)義分割和實(shí)例分割三者結(jié)合,提出了SDC-DepthNet(semantic divide-and-conquer network)模型,采用分治策略先對(duì)圖像進(jìn)行語(yǔ)義分割和實(shí)例分割,再結(jié)合分割結(jié)果估計(jì)圖像深度。語(yǔ)義分割圖促使圖像中相同語(yǔ)義類(lèi)別的物體有相近的深度值;實(shí)例分割圖明確界定了同種物體中不同個(gè)體的邊界,使圖像中同類(lèi)物體的不同個(gè)體在深度圖中存在明顯的深度差。SDC-DepthNet模型利用語(yǔ)義分割和實(shí)例分割的特點(diǎn),提升了深度估計(jì)的精確度。

        3.2 深度范圍作為輔助信息

        常用的深度估計(jì)數(shù)據(jù)集有NYU depth和KITTI數(shù)據(jù)集,NYU depth數(shù)據(jù)集的深度范圍是0 10 m,KITTI數(shù)據(jù)集的最大深度是120 m。在數(shù)據(jù)集的有效深度范圍已知條件下,一些研究者采用像素級(jí)分類(lèi)的方法實(shí)現(xiàn)深度估計(jì)。

        Cao等人(2018)將數(shù)據(jù)集深度范圍離散化后對(duì)每個(gè)像素點(diǎn)進(jìn)行深度分類(lèi),實(shí)現(xiàn)深度估計(jì)。網(wǎng)絡(luò)通過(guò)ResNet152提取圖像特征,并控制輸出特征圖的通道數(shù)與深度范圍離散個(gè)數(shù)相同。然后,特征經(jīng)過(guò)softmax層后生成概率圖,獲得像素點(diǎn)的深度范圍,以深度范圍的中值作為像素點(diǎn)的深度值。最后,將每個(gè)像素點(diǎn)深度值的對(duì)數(shù)損失作為一元項(xiàng),使用高斯核函數(shù)衡量輸入圖像中像素點(diǎn)對(duì)間的顏色和位置相似度,高斯核函數(shù)與對(duì)應(yīng)像素點(diǎn)對(duì)的深度絕對(duì)差之積作為二元項(xiàng)來(lái)構(gòu)造條件隨機(jī)場(chǎng),分類(lèi)器估計(jì)深度范圍后使用條件隨機(jī)場(chǎng)優(yōu)化深度圖,最終得到的精確度比Laina等人(2016)的方法更高。

        Fu等人(2018)在數(shù)據(jù)集深度范圍已知的條件下,將深度估計(jì)看做是一個(gè)分類(lèi)問(wèn)題,采用順序回歸的方法實(shí)現(xiàn)單目深度估計(jì)。網(wǎng)絡(luò)以整幅圖像作為輸入,輸入圖像經(jīng)過(guò)密集特征提取后輸入場(chǎng)景理解模塊,最后通過(guò)有序回歸實(shí)現(xiàn)深度估計(jì)。場(chǎng)景理解模塊由空洞特征金字塔網(wǎng)絡(luò)(Chen等,2018)和全圖編碼器組成,空洞特征金字塔網(wǎng)絡(luò)充分融合多尺度特征,特征經(jīng)過(guò)編碼進(jìn)行有序回歸。有序回歸時(shí)需要多個(gè)間隔遞增離散化標(biāo)簽,考慮到深度估計(jì)誤差隨著圖像深度的增大而增大,在對(duì)數(shù)域中將數(shù)據(jù)集深度范圍平均離散化作為有序回歸的類(lèi)別。網(wǎng)絡(luò)通過(guò)有序回歸獲得每個(gè)像素點(diǎn)的深度區(qū)間后,將深度區(qū)間的中點(diǎn)作為像素點(diǎn)的深度值,取得了2018年KITTI深度估計(jì)的最優(yōu)效果。

        Su和Zhang(2020)同樣將深度估計(jì)作為分類(lèi)任務(wù),提出了SSE-Net(scale-sernantic exchange network)模型,使用與Fu等人(2018)相同的方法對(duì)數(shù)據(jù)集深度范圍離散化。SSE-Net網(wǎng)絡(luò)以ResNet101為主干網(wǎng)絡(luò)提取多尺度特征,多尺度特征輸入信息交換網(wǎng)絡(luò)充分融合,然后經(jīng)過(guò)卷積產(chǎn)生類(lèi)別概率圖,最后使用軟回歸網(wǎng)絡(luò)獲得深度圖。在軟回歸網(wǎng)絡(luò)中,考慮到數(shù)據(jù)集深度范圍嚴(yán)格離散化會(huì)對(duì)深度的連續(xù)性和模型處理歧義的性能產(chǎn)生影響,引入了尺度項(xiàng)和偏移項(xiàng)對(duì)生成的類(lèi)別概率圖進(jìn)行修正。信息交換網(wǎng)絡(luò)和軟回歸的使用有效提升了深度估計(jì)的效果。

        與上述像素級(jí)分類(lèi)方法不同,Lee等人(2019)利用數(shù)據(jù)集深度范圍提出新型的場(chǎng)景重建網(wǎng)絡(luò),以數(shù)據(jù)集深度范圍作為輔助信息,提出使用局部平面指導(dǎo)層解決下采樣過(guò)程中的信息丟失問(wèn)題。輸入圖像通過(guò)DenseNet(Huang等,2017)提取特征,接著使用空洞特征金字塔網(wǎng)絡(luò)(Chen等,2018)充分融合特征圖的上下文信息,然后通過(guò)局部平面指導(dǎo)層重建場(chǎng)景,最后結(jié)合多尺度的場(chǎng)景重建圖生成深度圖。局部平面指導(dǎo)層進(jìn)行場(chǎng)景重建時(shí),數(shù)據(jù)集深度范圍與特征圖結(jié)合,將特征圖上每個(gè)位置的特征值轉(zhuǎn)換為包含方位信息的特征向量。然后,根據(jù)射線平面交叉的原理得到場(chǎng)景重建圖。通過(guò)數(shù)據(jù)集深度范圍,將每個(gè)尺度下的特征圖映射為反映場(chǎng)景信息的場(chǎng)景重建圖,充分利用了各尺度的特征信息,深度估計(jì)的精度有很大提升。

        3.3 小結(jié)

        輔助信息的加入提高了深度估計(jì)的精確度,但是使用輔助信息會(huì)使網(wǎng)絡(luò)更復(fù)雜,訓(xùn)練需要的時(shí)間更長(zhǎng)。語(yǔ)義信息不僅使網(wǎng)絡(luò)更復(fù)雜,而且增加了訓(xùn)練難度,一些結(jié)合語(yǔ)義分割的深度估計(jì)模型不得不采用分步訓(xùn)練的方法。與語(yǔ)義信息相比,在深度估計(jì)網(wǎng)絡(luò)中加入深度范圍更靈活,深度范圍不僅應(yīng)用于像素級(jí)分類(lèi)深度估計(jì)模型,還可以加強(qiáng)網(wǎng)絡(luò)對(duì)輸入圖片場(chǎng)景的理解能力,并且使用深度范圍作為輔助信息的深度估計(jì)模型采用統(tǒng)一訓(xùn)練的方法,訓(xùn)練簡(jiǎn)單。典型輔助信息訓(xùn)練模型的概要如表3所示。

        4 評(píng)價(jià)指標(biāo)及代表性方法對(duì)比

        單目深度估計(jì)模型常用的性能評(píng)價(jià)指標(biāo)有絕對(duì)值相對(duì)誤差(AR)、平方相對(duì)誤差(SQ)、對(duì)數(shù)平均誤差(ML)、均方根誤差(RMS)、對(duì)數(shù)均方根誤差(LRMS)以及閾值準(zhǔn)確率(fcorrect)(Zhuo等,2015),計(jì)算方法為

        (1)

        (2)

        (3)

        (4)

        (5)

        (6)

        (7)

        表4、表5和表6分別比較了單圖像輸入單目深度估計(jì)模型、多圖像輸入單目深度估計(jì)模型和利用輔助信息優(yōu)化深度模型在NYU數(shù)據(jù)集和KITTI數(shù)據(jù)集上的測(cè)試性能。表中數(shù)據(jù)取自各方法的測(cè)試結(jié)果,KITTI數(shù)據(jù)集的深度范圍采用0 80 m,表5中訓(xùn)練網(wǎng)絡(luò)使用的數(shù)據(jù)類(lèi)型M和S分別表示圖像序列和立體圖像對(duì)。

        從表4可以看出,Eigen等人(2014)方法與Hu等人(2019)方法的結(jié)果相比,單圖像單目深度估計(jì)模型的性能在5年時(shí)間內(nèi)提升了近一倍。多圖像單目深度估計(jì)模型是2017年出現(xiàn)的,雖然模型出現(xiàn)較晚,但發(fā)展勢(shì)頭強(qiáng)勁。從表5可以看出,Johnston和Carneiro(2020)方法與Zhou等人(2017)方法的結(jié)果相比,預(yù)測(cè)誤差明顯降低。從表6的數(shù)據(jù)可以發(fā)現(xiàn),通過(guò)利用輔助信息優(yōu)化深度估計(jì)后,性能相比表4和表5中模型有較大提升。表6中Chen等人(2019)的RMS與表5中Repala和Dubey(2019)模型相比,降低了2.198。Wang等人(2015)模型與表4中Eigen等人(2014)模型相比,RMS降低了0.162。

        表4 部分單圖像訓(xùn)練模型的評(píng)估函數(shù)值Table 4 Quantitative evaluation of some single image training models

        表5 部分多圖像訓(xùn)練模型的評(píng)估函數(shù)值Table 5 Quantitative evaluation of some multi-image training models

        表6 部分輔助信息優(yōu)化深度模型的評(píng)估函數(shù)值Table 6 Quantitative evaluation of some auxiliary information training models

        5 結(jié) 語(yǔ)

        深度估計(jì)的應(yīng)用領(lǐng)域?qū)文可疃裙烙?jì)的精確度、估計(jì)速度和泛化性等方面有很高的要求。本文根據(jù)網(wǎng)絡(luò)輸入數(shù)據(jù)的類(lèi)型對(duì)單目深度估計(jì)模型進(jìn)行了分類(lèi)綜述,分別介紹了單圖像輸入、多圖像輸入和結(jié)合輔助信息3類(lèi)方法中的典型網(wǎng)絡(luò)結(jié)構(gòu)。以單幅圖像作為訓(xùn)練數(shù)據(jù)的模型具有網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)單的特點(diǎn),但泛化性能較差。采用多圖像訓(xùn)練的深度估計(jì)網(wǎng)絡(luò)有更強(qiáng)的泛化性,但網(wǎng)絡(luò)的參數(shù)量大、網(wǎng)絡(luò)收斂速度慢、訓(xùn)練耗時(shí)長(zhǎng)。引入輔助信息的深度估計(jì)網(wǎng)絡(luò)的深度估計(jì)精度得到了進(jìn)一步提升,但輔助信息的引入會(huì)造成網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜、收斂速度慢等問(wèn)題。單目深度估計(jì)研究還存在許多的難題和挑戰(zhàn),未來(lái)的研究趨勢(shì)包含如下兩個(gè)方面:

        1)多圖像訓(xùn)練模型成為研究熱點(diǎn)。雖然采用單幅圖像作為訓(xùn)練數(shù)據(jù)的網(wǎng)絡(luò)模型具有模型簡(jiǎn)單的特點(diǎn),但是訓(xùn)練所需的精確密集深度信息難于獲得,訓(xùn)練數(shù)據(jù)的場(chǎng)景種類(lèi)和樣本數(shù)量非常有限,導(dǎo)致單圖像訓(xùn)練單目深度估計(jì)模型的泛化性較差。而多圖像訓(xùn)練單目深度估計(jì)網(wǎng)絡(luò)模型在訓(xùn)練時(shí)不需要精確的深度信息,訓(xùn)練數(shù)據(jù)的成本更低,所以可以獲得更大量的訓(xùn)練數(shù)據(jù),從而使得模型的泛化性能得到提高,所以多圖像輸入單目深度估計(jì)逐漸成為單目深度估計(jì)的研究熱點(diǎn)。

        2)單目深度估計(jì)中加入約束信息。由于單目深度估計(jì)的病態(tài)性,僅從彩色圖像中獲取的場(chǎng)景信息很難提高深度估計(jì)的精確度。在這種情況下,在單目深度估計(jì)網(wǎng)絡(luò)中加入輔助信息是提升單目深度估計(jì)的有效方法。語(yǔ)義標(biāo)簽與深度估計(jì)聯(lián)系緊密,常用來(lái)提升深度估計(jì)的效果。特定領(lǐng)域約束信息的加入在解決特定問(wèn)題中也能取得不錯(cuò)效果,如Chen等人(2016)在野外深度估計(jì)任務(wù)中加入相對(duì)深度信息提高深度估計(jì)的精度。

        猜你喜歡
        深度圖單目語(yǔ)義
        語(yǔ)言與語(yǔ)義
        基于深度圖的3D-HEVC魯棒視頻水印算法
        一種單目相機(jī)/三軸陀螺儀/里程計(jì)緊組合導(dǎo)航算法
        單目SLAM直線匹配增強(qiáng)平面發(fā)現(xiàn)方法
        一種基于局部直方圖匹配的深度編碼濾波算法
        基于CAD模型的單目六自由度位姿測(cè)量
        “上”與“下”語(yǔ)義的不對(duì)稱(chēng)性及其認(rèn)知闡釋
        疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用
        科技視界(2016年2期)2016-03-30 11:17:03
        認(rèn)知范疇模糊與語(yǔ)義模糊
        基于單目立體視覺(jué)的三坐標(biāo)在線識(shí)別技術(shù)研究
        久久99久久99精品免视看国产成人| 日韩乱码人妻无码中文字幕久久| 中文字幕在线日亚州9| 人妻夜夜爽天天爽一区| 久久精品国产亚洲AⅤ无码| 加勒比在线一区二区三区| 精品国产污黄网站在线观看 | 成人xx免费无码| 亚洲黑寡妇黄色一级片| 国产在线精品观看一区二区三区| 成人艳情一二三区| 国内揄拍国内精品人妻浪潮av| 亚洲精品中文字幕无乱码麻豆| 亚洲色偷偷综合亚洲AVYP| 久久av一区二区三区下| 大香蕉国产av一区二区三区| 成人无码网www在线观看| 无遮无挡爽爽免费视频| 高清国产日韩欧美| 日韩在线精品视频免费| 日本不卡一区二区三区久久精品| 又粗又黄又猛又爽大片app| 国产卡一卡二卡三| 国产资源在线视频| 在线免费观看亚洲天堂av| 神马影院日本一区二区| 97高清国语自产拍| 四虎影永久在线观看精品| 亚洲av影片一区二区三区| 免费亚洲老熟熟女熟女熟女| 精品亚洲国产成人| 久久精品岛国av一区二区无码| 日本高清一区二区三区视频| 青青草高中生在线视频| 国产激情电影综合在线看| 国产91色在线|亚洲| 亚洲国产成人久久精品美女av | 日韩极品免费在线观看| 国产精选自拍视频网站| 亚洲日韩中文字幕一区| 8090成人午夜精品无码|