亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        邊緣引導(dǎo)特征融合和代價(jià)聚合的立體匹配算法

        2022-11-16 02:24:10張浩東宋嘉菲張廣慧
        關(guān)鍵詞:立體匹配真值視差

        張浩東,宋嘉菲,張廣慧

        1.中國(guó)科學(xué)院 上海微系統(tǒng)與信息技術(shù)研究所 仿生視覺系統(tǒng)實(shí)驗(yàn)室,上海 200050

        2.中國(guó)科學(xué)院大學(xué),北京 100049

        3.上??萍即髮W(xué),上海 201210

        高精度的深度估計(jì)是許多計(jì)算機(jī)視覺相關(guān)應(yīng)用,如自動(dòng)駕駛、三維立體建模、機(jī)器人導(dǎo)航等的關(guān)鍵。通過對(duì)雙目立體相機(jī)拍攝得到的兩個(gè)圖像進(jìn)行立體匹配,計(jì)算參考圖像(Reference image)的稠密視差圖,是獲取深度的重要途徑之一。傳統(tǒng)立體匹配方法主要包含4 個(gè)步驟:計(jì)算兩幅圖像的像素級(jí)相似度作為匹配代價(jià)、對(duì)生成的代價(jià)體進(jìn)行聚合以整合鄰域匹配代價(jià)、根據(jù)聚合后的代價(jià)體估計(jì)每個(gè)像素的視差、對(duì)輸出的視差圖進(jìn)行優(yōu)化,但人工設(shè)計(jì)的像素相似度計(jì)算方法及聚合等方法效果較差,使得視差估計(jì)的精度無法令人滿意。

        近年來,隨著深度學(xué)習(xí)的飛速發(fā)展,越來越多的人采用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)對(duì)立體匹配、邊緣感知任務(wù)進(jìn)行建模[1-3],LeCun等[4]嘗試?yán)肅NN 為傳統(tǒng)的立體匹配方法學(xué)習(xí)更好的匹配代價(jià),設(shè)計(jì)了一個(gè)權(quán)值共享的特征提取網(wǎng)絡(luò),后利用全連接層進(jìn)行像素級(jí)相似性度量生成匹配代價(jià)。與傳統(tǒng)方法中的特征描述(如Census[5])相比,這一方法提高了特征描述子的穩(wěn)健性,在精度上取得了一定的進(jìn)步,但由于整體結(jié)構(gòu)屬于利用CNN進(jìn)行匹配代價(jià)計(jì)算和傳統(tǒng)方法的后續(xù)流程拼接,所需的計(jì)算量依舊較大。為了對(duì)立體匹配框架的各個(gè)部分進(jìn)行聯(lián)合優(yōu)化,Mayer 等[6]設(shè)計(jì)了DispNetC,將立體匹配通過端到端的有監(jiān)督深度學(xué)習(xí)方式實(shí)現(xiàn),借鑒FlowNet[7]中提出的相關(guān)性(correlation)方法計(jì)算像素級(jí)相似度并生成匹配代價(jià),采用編碼-解碼(encoder-decoder)的結(jié)構(gòu)回歸視差。同時(shí)還制作了合成數(shù)據(jù)集(SceneFlow),解決了真實(shí)場(chǎng)景數(shù)據(jù)集過少的問題。

        Chang等[8]借鑒SPPNet[9]、ResNet[10]、PSPNet[11]的思想設(shè)計(jì)了空間金字塔池化(spatial pyramid pooling,SPP)特征提取結(jié)構(gòu),通過融合多個(gè)感受野的特征合并全局背景信息到提取的特征中,并引入了堆疊沙漏結(jié)構(gòu)的三維卷積拓展代價(jià)體中局部信息的聚合區(qū)域。但對(duì)多感受野的簡(jiǎn)單級(jí)聯(lián)使得匹配代價(jià)對(duì)不同感受野的注意力相同,未能根據(jù)特定位置采用不同感受野的特征;且在代價(jià)聚合過程中未對(duì)匹配代價(jià)進(jìn)行篩選,使得一些困難位置的錯(cuò)誤匹配代價(jià)向周邊鄰域傳播,降低了模型的收斂速度以及整體預(yù)測(cè)的精度。

        Song 等[12]、Yang 等[13]分別結(jié)合邊緣、語義信息設(shè)計(jì)多任務(wù)網(wǎng)絡(luò),將邊緣、語義特征嵌入常規(guī)特征中生成混合特征用于代價(jià)體編碼,從而進(jìn)一步提高視差精度。此外,EdgeStereo[12]還設(shè)計(jì)了邊緣抑制的視差平滑損失用于改善輸出視差圖的局部平滑性。但邊緣、語義信息的引入提高了對(duì)數(shù)據(jù)集的要求,對(duì)子網(wǎng)絡(luò)的訓(xùn)練提高了立體匹配任務(wù)對(duì)數(shù)據(jù)的額外標(biāo)簽的依賴性。

        針對(duì)上述現(xiàn)有問題,根據(jù)數(shù)據(jù)集的視差真值生成視差邊緣(不需要額外的人工標(biāo)注)以作為邊緣提取模塊的監(jiān)督信號(hào),并提出了一種邊緣引導(dǎo)的立體匹配算法,主要貢獻(xiàn)點(diǎn)如下:(1)設(shè)計(jì)了邊緣引導(dǎo)特征體加權(quán)模塊,對(duì)體現(xiàn)紋理信息的淺層特征邊緣區(qū)域與描述語義信息的深層特征非邊緣區(qū)域予以更大的權(quán)重。(2)設(shè)計(jì)了邊緣抑制的代價(jià)聚合模塊,減少不可靠信息的傳播,以提高整體預(yù)測(cè)精度。(3)本文的方法在SceneFlow 數(shù)據(jù)集上將PSMNet[8](pyramid stereo matching network)的誤差降低了35.2%,將GwcNet[14](group-wise correlation stereo network)的誤差降低了14.3%。

        1 算法設(shè)計(jì)

        本文整體網(wǎng)絡(luò)結(jié)構(gòu)如圖1,包括邊緣提?。╡dge extraction)、特征提?。╢eature extraction)、構(gòu)建代價(jià)體(cost volume construction)、代價(jià)聚合(cost aggregation)及視差估計(jì)(disparity prediction)五部分。

        邊緣和特征提取將分別在1.1節(jié)、1.2節(jié)介紹。由于無法簡(jiǎn)單構(gòu)建左右特征體之間的聯(lián)系,立體匹配網(wǎng)絡(luò)構(gòu)建代價(jià)體常采用級(jí)聯(lián)特征體的方式:對(duì)右圖特征體基于所有待定視差值在水平方向進(jìn)行平移,將平移后的右圖特征體與左圖特征體在特征通道維度進(jìn)行級(jí)聯(lián),最后將所有級(jí)聯(lián)的特征體在待定視差維度級(jí)聯(lián)以生成代價(jià)體。代價(jià)聚合將在1.3 節(jié)介紹。對(duì)于視差估計(jì),本文采用GC-Net[15]中提出的soft argmin方法,即

        式中,d~ 為預(yù)測(cè)視差值,d為待選視差值,Dmax為最大待選視差值,σ為softmax 函數(shù),cd為聚合后的匹配代價(jià)。網(wǎng)絡(luò)損失函數(shù)的設(shè)計(jì)將在1.4節(jié)介紹。

        1.1 邊緣提取模塊

        本文借鑒HED[16](holistically-nested edge dectection)的思想及PSMNet[8]中的SPP 特征提取層設(shè)計(jì)了視差邊緣提取子模塊。該模塊的輸入是單幅圖像,輸出為邊緣圖(edge map),采用基于視差真值求解的邊緣圖作為監(jiān)督信號(hào)。雖然與EdgeStereo[12]中使用的圖像的常規(guī)邊緣具有相似的提取思路,但不需要數(shù)據(jù)集提供常規(guī)邊緣真值,更便于只有視差真值的數(shù)據(jù)集,相較于多任務(wù)網(wǎng)絡(luò)更有利于訓(xùn)練,同時(shí)使用的視差邊緣更適配立體匹配網(wǎng)絡(luò)。

        視差邊緣提取子模塊結(jié)構(gòu)如圖2,先對(duì)輸入圖像進(jìn)行常規(guī)卷積,調(diào)整步長(zhǎng)使得特征尺寸降為原圖的1/4,后對(duì)該特征體分別進(jìn)行多個(gè)尺度的池化以豐富感受野,將各個(gè)池化后的特征體進(jìn)行卷積局部整合后上采樣到初始特征體尺寸進(jìn)行級(jí)聯(lián),使得混合后的特征體具有不同尺度的特征,最后將混合的特征體卷積得到單通道的邊緣特征,經(jīng)過Sigmoid回歸為視差邊緣圖,將其記作E,后續(xù)將用于1.3節(jié)和1.4節(jié)。

        對(duì)于邊緣真值的獲取,與現(xiàn)有多任務(wù)立體匹配網(wǎng)絡(luò)[12-13]不同,本方法并不需要數(shù)據(jù)集具有邊緣標(biāo)簽。為了更適配于立體匹配網(wǎng)絡(luò),本方法將所用的邊緣定義為視差真值變化較大的區(qū)域(多分布于前景區(qū)域),可由視差真值梯度求解生成。

        1.2 邊緣引導(dǎo)特征體加權(quán)模塊

        重復(fù)紋理和無紋理區(qū)域是立體匹配任務(wù)中較難處理的部分,由于常規(guī)的特征提取器對(duì)該區(qū)域和其他特征明顯且不重復(fù)區(qū)域在訓(xùn)練階段的單位像素關(guān)注度相同,使得最終訓(xùn)練得到的模型會(huì)因兩種區(qū)域在圖像中的占比而決定特征提取器對(duì)其中之一的偏向程度,無論最終對(duì)其中哪一種區(qū)域的整體關(guān)注度高都不利于提出更好的整體預(yù)測(cè)效果,因而提出了對(duì)以上不同區(qū)域靈活選用不同提取器的方法。

        僅考慮本部分關(guān)注的難點(diǎn)區(qū)域:重復(fù)紋理區(qū)域和無紋理區(qū)域,小尺度的特征提取器感受野較小,無法描繪出錯(cuò)誤匹配點(diǎn)與參考圖像中的目標(biāo)點(diǎn)的差別,因而考慮擴(kuò)張圖像的感受野生成大尺度的特征提取器,將較難處理部分的周邊區(qū)域引入特征提取器,進(jìn)而使得錯(cuò)誤匹配點(diǎn)與目標(biāo)點(diǎn)具有差異更大的特征表述。

        針對(duì)本文基準(zhǔn)方法中空間金字塔池化模塊(SPP)在級(jí)聯(lián)多尺度特征時(shí),忽略了不同位置應(yīng)側(cè)重不同尺度特征的問題,提出了邊緣引導(dǎo)的空間金字塔池化(EGSPP,edge-guided-SPP)模塊。由1.1 節(jié)得到邊緣圖E為Sigmoid輸出,其值介于0~1之間,且多集中于0和1附近。本文將預(yù)測(cè)值在0 附近的像素點(diǎn)定義為非邊緣像素點(diǎn)(non-edge pixels),預(yù)測(cè)值在1 附近的像素點(diǎn)定義為邊緣像素點(diǎn)(edge pixels)。如圖3 所示,以單像素為例,特征由進(jìn)入空間金字塔之前的淺層特征和經(jīng)過空間多尺度池化卷積增大感受野后的深層大感受野特征級(jí)聯(lián)得到。針對(duì)不同位置側(cè)重不同尺度的特征體,對(duì)于視差邊緣處增強(qiáng)淺層特征,使得混合特征更注重圖像的低級(jí)紋理信息,同時(shí)保留弱化后的高級(jí)語義特征;對(duì)于非視差邊緣處增強(qiáng)深層大感受野特征,使得混合特征更注重圖像的高級(jí)語義信息,同時(shí)保留弱化后的低層紋理特征,即:

        式中,F(xiàn)hybrid為混合特征,F(xiàn)shallow為低級(jí)紋理特征(淺層特征),F(xiàn)deep為高級(jí)語義特征(深層大感受野特征),E為邊緣圖(其值介于0~1 之間,越高表示是邊緣的概率越大),⊕為特征級(jí)聯(lián)。

        1.3 邊緣抑制代價(jià)聚合模塊

        鑒于上文提到代價(jià)體由特征體按待定視差值平移后并級(jí)聯(lián)而成,相較于特征體增加了待定視差維度,二維卷積無法對(duì)該高維向量進(jìn)行處理,常用的方法是引入三維卷積,故代價(jià)聚合主體沿用基準(zhǔn)方法PSMNet的三維卷積結(jié)構(gòu)。

        遮擋問題同樣是立體匹配任務(wù)較難處理的一點(diǎn),由于目標(biāo)圖中沒有真正的匹配點(diǎn),對(duì)視差的估計(jì)僅能利用其周邊鄰域信息進(jìn)行整合預(yù)測(cè)。但一般網(wǎng)絡(luò)結(jié)構(gòu)不會(huì)對(duì)這一區(qū)域進(jìn)行額外處理,而是將遮擋區(qū)域與其他區(qū)域采取相同方式進(jìn)行處理。鑒于遮擋區(qū)域的匹配代價(jià)置信度并不高,代價(jià)聚合階段會(huì)將每個(gè)像素點(diǎn)的匹配代價(jià)向其周圍鄰域傳遞,如果仍完全沿用基準(zhǔn)方法,會(huì)使其周邊區(qū)域受到不可靠信息的影響,削弱其他區(qū)域的預(yù)測(cè)能力。

        經(jīng)分析,物體的遮擋區(qū)域均出現(xiàn)于物體邊緣處,且占比較大。同時(shí)經(jīng)觀察發(fā)現(xiàn),現(xiàn)階段模型預(yù)測(cè)誤差較大的區(qū)域多出現(xiàn)于物體的邊緣處,因而可通過提高非邊緣處的匹配代價(jià)的方法來抑制邊緣處不可靠信息的傳播,由此,提出了邊緣引導(dǎo)代價(jià)聚合模塊,增加非邊緣區(qū)域的可靠信息在代價(jià)聚合時(shí)的權(quán)重,使邊緣區(qū)域在聚合階段更大程度地獲取來自非邊緣區(qū)域的匹配代價(jià),從而提高整體預(yù)測(cè)精度。

        如圖4,本文采用堆疊沙漏(stacked hourglass)結(jié)構(gòu)的三維卷積[8],并在其中加入了邊緣引導(dǎo)(公式(3)),提出了邊緣引導(dǎo)的堆疊沙漏(EG stacked hourglass)結(jié)構(gòu)。式中,C為代價(jià)體,C^ 為邊緣抑制后的代價(jià)體,E為邊緣圖(其值介于0~1之間,越高表示是邊緣的概率越大)。

        1.4 損失函數(shù)

        本文采用類平衡交叉熵?fù)p失函數(shù)[17]來訓(xùn)練邊緣分支,由于邊緣區(qū)域與非邊緣區(qū)域所占面積不均衡,計(jì)算損失函數(shù)時(shí)需對(duì)兩部分予以不同權(quán)重:

        本文采用smooth L1損失函數(shù)來訓(xùn)練視差分支,與L2損失相比,smooth L1損失具有魯棒性和對(duì)異常值的低敏感性。smooth L1定義如下:

        其中,Ldisp為視差損失函數(shù),Ledge為邊緣損失函數(shù),d為視差真值,d~ 為預(yù)測(cè)視差值,e為邊緣判定值,e~ 為預(yù)測(cè)邊緣值,β為邊緣損失函數(shù)權(quán)重。

        2 實(shí)驗(yàn)與評(píng)估

        2.1 數(shù)據(jù)集及評(píng)價(jià)指標(biāo)介紹

        將所提的方法在兩個(gè)數(shù)據(jù)集中進(jìn)行評(píng)估:Scene-Flow[6]和KITTI 2015[18]。

        SceneFlow:一個(gè)大規(guī)模的合成數(shù)據(jù)集,包括35 454組訓(xùn)練圖片以及4 370 組測(cè)試圖片,分辨率為540×960像素,且提供了稠密的視差圖作為真值。該數(shù)據(jù)集采用端點(diǎn)誤差(EPE,end-point-error)作為評(píng)價(jià)指標(biāo),即預(yù)測(cè)視差圖與實(shí)際視差圖的平均絕對(duì)誤差。

        KITTI 2015:記錄不同天氣條件下的真實(shí)場(chǎng)景,包括200 組訓(xùn)練圖片以及200 組測(cè)試圖片,分辨率為1 240×376 像素,視差真值為由LIDAR 獲取的稀疏點(diǎn)。該數(shù)據(jù)集采用3 像素誤差(3PE,3-pixel-error)作為評(píng)價(jià)指標(biāo),即誤差值大于3像素的點(diǎn)所占比例。

        2.2 實(shí)驗(yàn)環(huán)境、參數(shù)設(shè)置及效果圖

        本文用于訓(xùn)練以及測(cè)試的GPU顯卡為1塊NVIDIA Quadro P5000,實(shí)驗(yàn)環(huán)境為Ubuntu 18.04,采用的深度學(xué)習(xí)框架為pytorch 1.4.0,批量大小固定為4,采用Adam優(yōu)化器,其參數(shù)設(shè)定為β1=0.9,β2=0.99,最大待選視差值Dmax設(shè)置為192。

        對(duì)于SceneFlow 數(shù)據(jù)集,由于其已劃分訓(xùn)練集和測(cè)試集,可不做數(shù)據(jù)劃分處理,本文選用與基準(zhǔn)方法一致的初始學(xué)習(xí)率用以訓(xùn)練:初始學(xué)習(xí)率設(shè)定為0.001,10輪后將學(xué)習(xí)率降為0.000 3,40輪后結(jié)束訓(xùn)練。

        對(duì)于KITTI 2015數(shù)據(jù)集,鑒于其訓(xùn)練數(shù)據(jù)過少,本文采取與基準(zhǔn)方法PSMNet 相同的訓(xùn)練策略,即對(duì)在SceneFlow數(shù)據(jù)集上預(yù)訓(xùn)練后得到的權(quán)重在該數(shù)據(jù)集上微調(diào)。同樣地,本文采用與基準(zhǔn)方法一致的參數(shù)微調(diào):初始學(xué)習(xí)率為0.000 3,對(duì)其訓(xùn)練600輪,在第300、500輪時(shí)分別將學(xué)習(xí)率降為0.000 1和0.000 03。

        2.3 與其他方法比較

        本文方法與其他有監(jiān)督深度學(xué)習(xí)方法的立體匹配算法[4,6,8,15]進(jìn)行比較,其中MC-CNN[4]是引入深度學(xué)習(xí)方法的經(jīng)典立體匹配框架,GC-Net[15]、DispNetC[6]、PSMNet[8]是引入三維卷積且具有代表性的立體匹配算法。在SceneFlow 數(shù)據(jù)集中的量化誤差指標(biāo)比較如表1 所示,可見本文方法將PSMNet[8]的誤差降低了35.2%,且誤差低于其他方法。

        表1 SceneFlow測(cè)試結(jié)果Table 1 Results on SceneFlow

        本文方法與其他有監(jiān)督深度學(xué)習(xí)方法的立體匹配算法在KITTI 2015數(shù)據(jù)集中的量化誤差指標(biāo)比較如表2 所示,其中根據(jù)是否為遮擋區(qū)域可分為All 和Noc,其中All 表示全圖區(qū)域,Noc 表示非遮擋區(qū)域。根據(jù)其為前背景可分為D1-bg、D1-fg 和D1-all,其中D1-bg 表示背景區(qū)域,D1-fg 表示前景區(qū)域,D1-all 表示全圖區(qū)域??梢姳痉椒▽?duì)視差邊緣豐富的前景物體的預(yù)測(cè)誤差更小,在背景區(qū)域也取得了與基準(zhǔn)方法相當(dāng)?shù)男Чw上將PSMNet的誤差降低了2.2%。

        表2 KITTI 2015測(cè)試結(jié)果Table 2 Results on KITTI 2015

        圖5為KITTI 2015測(cè)試集中的可視化結(jié)果,可見本方法能較好地處理一些前后區(qū)分度不高的區(qū)域,如路牌、欄桿等。

        2.4 消融實(shí)驗(yàn)

        本文在SceneFlow 數(shù)據(jù)集中進(jìn)行以下兩個(gè)模塊的消融實(shí)驗(yàn):EGSPP、EG stacked hourglass。

        表3為所提兩個(gè)模塊在SceneFlow數(shù)據(jù)集上的定量分析。當(dāng)只采用EGSPP模塊時(shí),端點(diǎn)誤差降低了30.3%;當(dāng)只采用EG stacked hourglass 模塊時(shí),端點(diǎn)誤差降低了28.4%;當(dāng)同時(shí)采用提出的這兩個(gè)改進(jìn)模塊時(shí),端點(diǎn)誤差實(shí)現(xiàn)了35.2%的下降,且所用時(shí)間與基準(zhǔn)方法相近。以上數(shù)據(jù)驗(yàn)證了本文所提兩個(gè)改進(jìn)模塊的有效性。

        表3 SceneFlow消融實(shí)驗(yàn)Table 3 Ablation study on SceneFlow

        圖6定性分析了所提的兩個(gè)模塊在SceneFlow數(shù)據(jù)集上的效果。對(duì)比第3列(PSMNet)和第4列(PSMNet+EGSPP)發(fā)現(xiàn),EGSPP 模塊對(duì)低級(jí)紋理(如邊緣處)和高級(jí)語義(如前景物體)均有一定改善;對(duì)比第4 列(PSMNet+EGSPP)和第5列(PSMNet+EGSPP+EG stacked hourglass)可以發(fā)現(xiàn),EG stacked hourglass 模塊通過抑制邊緣不可靠信息的傳播確實(shí)改善了邊緣處的視差預(yù)測(cè)效果。整體上,與基準(zhǔn)方法相比,本文所提方法在一些精細(xì)結(jié)構(gòu)處能更好地區(qū)分前后區(qū)域:如圖中前后車輪的輻條位置,本方法更好地描繪了精細(xì)結(jié)構(gòu),這符合人們對(duì)所提模塊的預(yù)期。

        2.5 通用性分析

        為驗(yàn)證本方法在不同模型下的通用性,將邊緣提取模塊、邊緣引導(dǎo)特征體加權(quán)模塊以及邊緣抑制的代價(jià)聚合模塊加入GwcNet[14]中,其在SceneFlow 數(shù)據(jù)集以及KITTI 2015數(shù)據(jù)集中的結(jié)果見表4。

        表4 SceneFlow,KITTI 2015實(shí)驗(yàn)結(jié)果Table 4 Results on SceneFlow,KITTI 2015

        加入邊緣引導(dǎo)之后,E-GwcNet 誤差較GwcNet 在SceneFlow 上降低了14.3%,在KITTI 2015 的非遮擋區(qū)域上降低了1%,更充分地證明了本文所提方法對(duì)于不同算法的適用性。

        2.6 實(shí)際場(chǎng)景測(cè)試

        為進(jìn)一步驗(yàn)證本方法在不同場(chǎng)景下的泛化性,將模型用于實(shí)際場(chǎng)景并檢測(cè)其性能,鑒于實(shí)際場(chǎng)景的視差真值難于獲取,故僅將在KITTI 2015 數(shù)據(jù)集中訓(xùn)練得到的權(quán)重用于實(shí)際場(chǎng)景進(jìn)行測(cè)試,對(duì)基準(zhǔn)方法PSMNet和所提修改方法E-PSMNet的測(cè)試結(jié)果進(jìn)行定性分析。

        圖7、圖8 分別為真實(shí)場(chǎng)景下物體內(nèi)部及邊緣區(qū)域的測(cè)試結(jié)果圖,可見模型能更好地調(diào)整預(yù)測(cè)的視差,使物體內(nèi)部減少錯(cuò)誤的視差突變的出現(xiàn),同時(shí)能更好地描繪物體邊緣處視差輪廓,使其更貼近于參考圖像,充分證明了本文所提方法的實(shí)用性。

        3 結(jié)束語

        提出了一種邊緣信息引導(dǎo)的立體匹配方法:利用邊緣信息分配不用尺度特征體權(quán)重,改進(jìn)立體匹配的特征表示;弱化邊緣處匹配代價(jià)向周圍鄰域的傳播,提升立體匹配的代價(jià)聚合效果。在SceneFlow、KITTI 2015兩個(gè)數(shù)據(jù)集上對(duì)本方法進(jìn)行了驗(yàn)證,與國(guó)內(nèi)外現(xiàn)有方法相比,本文的方法實(shí)現(xiàn)了更低的匹配誤差,在精度上取得了優(yōu)異性能。相較于基準(zhǔn)方法,本文方法在精細(xì)結(jié)構(gòu)處得到了更精準(zhǔn)的匹配,整體精度提升顯著,且所用時(shí)間的增加可忽略不計(jì)。但現(xiàn)階段在KITTI 2015數(shù)據(jù)集上對(duì)結(jié)果的提升明顯低于SceneFlow 數(shù)據(jù)集,經(jīng)分析,主要原因在于KITTI 2015數(shù)據(jù)集視差真值的采集方式為雷達(dá)掃描,因而視差真值為散點(diǎn)圖,使得網(wǎng)絡(luò)無法較好地訓(xùn)練視差邊緣,未來可考慮改進(jìn)網(wǎng)絡(luò)對(duì)稀疏真值的適用性,從而提升預(yù)測(cè)效果。

        猜你喜歡
        立體匹配真值視差
        基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
        基于梯度域引導(dǎo)濾波的視差精煉迭代算法
        影像立體匹配中的凸優(yōu)化理論研究
        10kV組合互感器誤差偏真值原因分析
        電子制作(2017年1期)2017-05-17 03:54:35
        基于互補(bǔ)不變特征的傾斜影像高精度立體匹配
        基于分割樹的視差圖修復(fù)算法研究
        改進(jìn)導(dǎo)向?yàn)V波器立體匹配算法
        立體視差對(duì)瞳孔直徑影響的研究
        真值限定的語言真值直覺模糊推理
        基于真值發(fā)現(xiàn)的沖突數(shù)據(jù)源質(zhì)量評(píng)價(jià)算法
        亚洲综合色区无码专区| 人人妻人人澡人人爽人人精品av| 欧美乱大交xxxxx潮喷| 国产高清乱理伦片| 亚洲不卡电影| 丰满少妇av一区二区三区 | 综合图区亚洲另类偷窥| 国产精品髙潮呻吟久久av| 国产av无码专区亚洲版综合| 成人性做爰aaa片免费看| 少妇高潮在线精品观看| 制服丝袜中文字幕在线| 亚洲精品自产拍在线观看| 亚洲AV永久无码精品表情包| 国产人妖视频一区二区| 一区二区三区高清在线观看视频| 精品免费久久久久久久| 欧美激情在线不卡视频网站| 中文字幕不卡高清免费| 国产精品美女久久久浪潮av| 干出白浆视频在线观看| 午夜男女很黄的视频| 国产精品-区区久久久狼| 国产免费激情小视频在线观看| 蜜桃传媒网站在线观看| 午夜熟女插插xx免费视频| 99精产国品一二三产品香蕉| 久久熟女五十路| 亚洲伊人久久大香线蕉| 亚洲国产精品国自产拍av| 亚洲国产成人91| 久久亚洲精品成人av观看| 一本色综合网久久| 欧美亚洲日本国产综合在线| 日本色偷偷| 中文字幕一区二区三区四区| 色拍自拍亚洲综合图区 | av天堂线上| 日韩中文字幕素人水野一区| 国产精品美女久久久久久| 国产爆乳无码一区二区在线|