亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自適應(yīng)紋理區(qū)域的多尺度融合立體匹配算法

        2023-09-25 08:58:38于紀(jì)言于洪森
        關(guān)鍵詞:視差代價(jià)像素點(diǎn)

        陳 藝,于紀(jì)言,于洪森

        南京理工大學(xué)機(jī)械工程學(xué)院,南京210094

        近年來,隨著雙目立體視覺在3D地圖重建、目標(biāo)檢測、無人駕駛和虛擬現(xiàn)實(shí)等領(lǐng)域的廣泛應(yīng)用,雙目立體視覺已經(jīng)成為計(jì)算機(jī)視覺領(lǐng)域研究的熱點(diǎn)。立體匹配是在同一時(shí)間點(diǎn)拍攝的不同視角的兩幅或者多幅圖像中尋找同一場景的像素匹配點(diǎn),再通過逐像素點(diǎn)計(jì)算匹配代價(jià),找到最優(yōu)匹配像素點(diǎn),計(jì)算出視差,進(jìn)而得到真實(shí)空間的三維深度信息。Scharstein等人在總結(jié)已有的立體匹配算法后,提出了立體匹配的基本流程:匹配代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化四個步驟。在采集雙目匹配圖像前,需要進(jìn)行相機(jī)標(biāo)定,主要可分為經(jīng)典相機(jī)標(biāo)定法、自標(biāo)定法、主動標(biāo)定法和基于深度學(xué)習(xí)標(biāo)定法[1]。根據(jù)代價(jià)計(jì)算的方式不同,可以將傳統(tǒng)匹配算法分為全局、半全局和局部三大類算法。其中全局匹配算法是通過建立全局能量函數(shù),由優(yōu)化理論求解最優(yōu)化全局能量函數(shù),常見的全局匹配算法有圖割(graph cuts,GC)[2]、置信傳播(belief propagation,BP)[3]和動態(tài)規(guī)劃(dynamic programming)[4]等;半全局匹配算法(SGM)[5]雖然依然采用全局框架,但其在計(jì)算能量函數(shù)最小化的步驟時(shí)使用高效的一維路徑聚合方法來取代全局算法中的二維最小化算法(即用一維來近似二維最優(yōu)),相較于全局匹配算法,在得到的視差圖誤匹配率相差不大的前提下,其計(jì)算效率明顯提升,但是其互信息法代價(jià)計(jì)算原理較為復(fù)雜,并且需要迭代計(jì)算,效率不高;局部匹配算法是依據(jù)一定大小的窗口內(nèi)像素點(diǎn),并計(jì)算尋找另外圖像中像匹配像素點(diǎn)窗口,從而獲得視差圖,其有著匹配速度快,匹配精度較高,能夠很好地應(yīng)用于圖像實(shí)時(shí)處理的過程中,常見的此類算法有灰度差絕對值(AD)、灰度差絕對值之和(SAD)、灰度差絕對值之和平方(SSD)和Census等。Mei等人[6]將AD和Census結(jié)合作為代價(jià)計(jì)算函數(shù),相較于單一的代價(jià)函數(shù)計(jì)算函數(shù),其能夠很好地適應(yīng)重復(fù)紋理和光照變化,閆利等人[7]將梯度與Census 結(jié)合起來作為代價(jià)函數(shù),能夠適應(yīng)弱紋理區(qū)域,魯棒性較好,Zhu等人[8]將顏色、梯度和Census變換相結(jié)合,將多尺度的變化量相結(jié)合,Nguyen和Ahn[9]將AD和SSD 代價(jià)函數(shù)加以改進(jìn),不僅可估計(jì)相應(yīng)視差值,而且還利用擴(kuò)展值r確定目標(biāo)圖像中的對應(yīng)像素點(diǎn),同時(shí)還改進(jìn)了歸一化函數(shù)NCC,并取得不錯的匹配精度,馮彬彬等人[10]將SGM(半全局匹配算法)部署在FPGA上,實(shí)現(xiàn)了算法硬件加速,實(shí)時(shí)性大幅提升,Zhang等人[11]提出一種改進(jìn)的最小生成樹(MST)的代價(jià)聚合算法,取得了較高的匹配精度和匹配速度,Yao 等人[12]提出了一種混合代價(jià)聚合方法,可以評估像素之間的對應(yīng)關(guān)系,在深度-不連續(xù)性區(qū)域中獲得了較好的精度,宋嘉菲等人[13]對立體匹配深度學(xué)習(xí)模型中的采樣方式進(jìn)行改進(jìn),對于傳統(tǒng)線性插值采樣方式無法利用領(lǐng)域信息的缺點(diǎn),其利用權(quán)重卷積窗口實(shí)現(xiàn)低分辨率采用高分辨率輸出,Xu等人[14]提出自適應(yīng)形狀支持窗口的成本聚合方法,通過構(gòu)建一個四方向的局部支持聚合骨架,同時(shí)擴(kuò)展引導(dǎo)濾波來聚合成本量,其在深度不連續(xù)性和分段平滑區(qū)域方面取得了較好的匹配性能,暢雅雯等人[15]將HSV引入立體匹配的過程中,用Census 和梯度作為匹配代價(jià)函數(shù),有效降低了對光照的敏感性。

        針對傳統(tǒng)單一算法的適應(yīng)性不強(qiáng),同時(shí)提高算法的強(qiáng)健性,能夠應(yīng)用在不同的場合,提出一種自適應(yīng)紋理區(qū)域的多尺度融合立體匹配算法,在代價(jià)計(jì)算階段,首先計(jì)算并劃分出強(qiáng)紋理區(qū)域、弱紋理和無紋理區(qū)域,針對強(qiáng)紋理區(qū)域,使用AD 和Census 相結(jié)合計(jì)算代價(jià),對于弱紋理和無紋理區(qū)域,考慮到梯度算子更能夠反應(yīng)微小像素值的變換,故采用AD和梯度相結(jié)合的算法計(jì)算代價(jià);在代價(jià)聚合階段,在強(qiáng)紋理區(qū)域,采用像素點(diǎn)距離和像素值之差作為十字交叉臂區(qū)域的構(gòu)建約束條件,在弱紋理和無紋理區(qū)域,采用像素點(diǎn)距離和梯度值之差作為構(gòu)建約束條件;最后,采用Winner-Take-All(WTA)策略進(jìn)行視差計(jì)算,并利用掃描線優(yōu)化和多步驟視差優(yōu)化進(jìn)行優(yōu)化后處理,得到最終的視差圖。

        1 算法描述

        所提算法的輸入為經(jīng)過矯正的雙目攝像機(jī)立體圖片,對輸入左右圖像進(jìn)行代價(jià)計(jì)算、代價(jià)聚合、視差計(jì)算和視差優(yōu)化后處理,整體流程圖見圖1所示。匹配代價(jià)計(jì)算時(shí),針對強(qiáng)紋理區(qū)域、弱紋理和無紋理區(qū)域,分別選擇AD+Census 和AD+梯度的代價(jià)計(jì)算函數(shù),同時(shí)在劃分區(qū)域過程中自適應(yīng)調(diào)整閾值;代價(jià)聚合時(shí),選用動態(tài)十字交叉域構(gòu)造方法,在不同紋理區(qū)域分別選擇不同的構(gòu)建約束條件;視差計(jì)算采用WAT 策略計(jì)算每個像素點(diǎn)的最小代價(jià)值,進(jìn)而得到視差圖;最終對得到的視差圖進(jìn)行一系列后處理步驟,并輸出視差圖。

        圖1 整體算法流程圖Fig.1 Overall algorithm flow chart

        1.1 匹配代價(jià)計(jì)算

        匹配代價(jià)計(jì)算是比較待匹配像素點(diǎn)和候選像素點(diǎn)之間的相關(guān)性,兩像素點(diǎn)之間的代價(jià)越小,則說明兩點(diǎn)的相關(guān)性越大(即兩點(diǎn)為同名點(diǎn)的概率也越大)。通常用一個三維矩陣DSI(disparity space image)儲存代價(jià)計(jì)算的結(jié)果,DSI的大小為H×W×D,其中H和W分別為圖像的高和寬,D為視差范圍。AD函數(shù)能適應(yīng)重復(fù)區(qū)域匹配計(jì)算,且計(jì)算速度快,但是其對光照和噪聲敏感,在弱紋理和無紋理區(qū)域的匹配精度很低[15];Census變換具有良好的魯棒性,能夠適應(yīng)不同的光照和噪聲,且弱紋理區(qū)域的匹配精度高,但其對于重復(fù)區(qū)域匹配精度很低[16];梯度算子能夠顯著提升弱紋理區(qū)域和無紋理區(qū)域的匹配精度,同時(shí)能夠提高視差不連續(xù)區(qū)域和遮擋區(qū)域的匹配效果[17]。為了在所有可能出現(xiàn)的場景中都獲得較高的匹配精度,例如重復(fù)區(qū)域、弱紋理區(qū)域、無紋理區(qū)域以及光照等外界因素,同時(shí)考慮到上述代價(jià)函數(shù)的特點(diǎn),提出基于紋理區(qū)域的多尺度融合代價(jià)計(jì)算函數(shù),在圖像上不同的區(qū)域運(yùn)用不同的代價(jià)計(jì)算函數(shù),并自適應(yīng)調(diào)節(jié)相應(yīng)閾值,從而獲得較高的匹配精度。同時(shí)由于沒有預(yù)先實(shí)驗(yàn),所以代價(jià)函數(shù)部分參數(shù)參考Liu等人所提出算法[18]中的實(shí)驗(yàn)結(jié)果。

        首先需要區(qū)分開圖像中的強(qiáng)紋理、弱紋理和無紋理區(qū)域,分別表示為Us、Uw、Un,將任意像素點(diǎn)周圍n個像素點(diǎn)值進(jìn)行相加并取平均值,常見的n可設(shè)置為四方向或者八方向,設(shè)置判斷閾值τ,計(jì)算公式如下:

        式(1)為利用周圍像素點(diǎn)灰度值均值與閾值進(jìn)行比較判斷,式(2)為利用周圍像素點(diǎn)三通道顏色值均值與閾值τ進(jìn)行比較判斷,Gi為像素點(diǎn)i的灰度值,flag為判斷標(biāo)志位,若為1,則此像素點(diǎn)屬于Us;反之,則屬于Uw和Un。

        經(jīng)過上式計(jì)算后,在強(qiáng)紋理區(qū)域使用AD 和Census相結(jié)合的代價(jià)計(jì)算函數(shù),在弱紋理和無紋理區(qū)域使用AD和梯度相結(jié)合的代價(jià)計(jì)算函數(shù)。

        AD函數(shù)的主要策略是不斷比較左右圖像中兩點(diǎn)像素值大小,將待匹配圖像的某一像素點(diǎn)的像素值取出,同時(shí)在另一幅待索引的圖像中去尋找視差范圍內(nèi)最小代價(jià)值的像素點(diǎn),計(jì)算表達(dá)式如下:

        式(3)和式(4)分別為像素點(diǎn)灰度值和顏色值的代價(jià)計(jì)算公式,CAD( )p,q代表像素點(diǎn)p和q之間的AD函數(shù)計(jì)算代價(jià)值,G代表灰度值,I代表彩色三通道值,L和R分別代表左右相機(jī)兩幅圖像,p和q代表左右圖像中的像素點(diǎn)。

        Census 函數(shù)能夠很好地檢測出局部區(qū)域的結(jié)構(gòu)特征,具有較高的匹配精度,對光照等外界因素適應(yīng)性強(qiáng),其主要策略是定義一個矩形窗口,長寬都為奇數(shù),再用此矩形窗口遍歷整個待匹配和待索引圖像區(qū)域,并將窗口中心點(diǎn)的像素值設(shè)為中心值,同時(shí)對窗口內(nèi)除中心點(diǎn)外的其他像素值與中心值進(jìn)行比較,大于中心值則記為1;反之則記為0,將所得值映射為一個比特串,再對左右兩幅圖像的比特串進(jìn)行異或,累加比特1的數(shù)目即可得到代價(jià)值。

        式(5)~(7)中,p代表中心點(diǎn),q代表中心點(diǎn)領(lǐng)域內(nèi)的其他像素點(diǎn),U為窗口內(nèi)中心點(diǎn)的領(lǐng)域,Bp為求得的中心點(diǎn)處比特串,Bq為領(lǐng)域像素點(diǎn)比特串,將求得的左右圖像比特串代入式(7)中得到漢明距,即Census代價(jià)值。本算法中梯度函數(shù)主要是使用sobel算子求解圖像像素點(diǎn)的梯度值,主要計(jì)算方式如下:

        上式中Gx和Gy分別為x和y兩個方向上的運(yùn)算子,將兩個方向的運(yùn)算子分別和左圖像L和右圖像R卷積得到兩個方向上的梯度幅值,此處為簡化運(yùn)算,將兩方向梯度絕對值相加得到總幅值。

        所提算法將不同的代價(jià)函數(shù)加權(quán)融合,得到最終的代價(jià)計(jì)算公式,如下:

        上式中將不同的代價(jià)函數(shù)歸一化,且依據(jù)劃分出的不同區(qū)域,使用不同的代價(jià)計(jì)算函數(shù),cost取值范圍在[0,2],λAD、λCensus、λGrad分別為三種代價(jià)函數(shù)歸一化換算系數(shù)。

        為了驗(yàn)證此算法代價(jià)計(jì)算的有效性,選擇2003 年Middlebury數(shù)據(jù)集中圖像cones,且都不經(jīng)過代價(jià)聚合,只進(jìn)行代價(jià)計(jì)算,獲得的視差圖見圖2 所示。從圖2 中可以看出,傳統(tǒng)AD和Census結(jié)合的代價(jià)函數(shù)對于上側(cè)深色框中的背景弱紋理處理效果優(yōu)于傳統(tǒng)AD 和梯度結(jié)合的代價(jià)函數(shù),但對于下側(cè)淺色框中的前后遮擋區(qū)域,AD 和梯度結(jié)合的代價(jià)函數(shù)處理效果優(yōu)于AD 和Census結(jié)合的代價(jià)函數(shù),而本文所提出的算法能夠很好地綜合前兩者的優(yōu)點(diǎn),既能在背景弱紋理區(qū)域能取得比較好的效果,也能在遮擋區(qū)域和視差不連續(xù)區(qū)域獲得較好的視差值。

        圖2 基于不同代價(jià)計(jì)算方法的cones圖像的初始化視差圖Fig.2 Initial parallax diagram of cones image based on different cost calculation methods

        1.2 匹配聚合計(jì)算

        傳統(tǒng)的代價(jià)聚合都是采用統(tǒng)一的十字臂區(qū)域構(gòu)建約束條件,即在弱紋理、無紋理區(qū)域以及強(qiáng)紋理區(qū)域都采用統(tǒng)一的臂長構(gòu)建方法,這樣的構(gòu)建方式不能夠適應(yīng)復(fù)雜多變的環(huán)境,而且還有可能增加聚合中像素點(diǎn)代價(jià)的錯誤賦值,從而導(dǎo)致最終的誤匹配率增加。例如在弱紋理和無紋理區(qū)域臂長設(shè)置過小,從而會導(dǎo)致中心點(diǎn)的像素代價(jià)值不準(zhǔn)確。故所提算法在十字臂的構(gòu)建過程中弱化了像素點(diǎn)值(顏色值或者灰度值)之差約束條件,而且添加梯度幅值之差的約束條件,使得在圖片的弱紋理和無紋理區(qū)域的構(gòu)建臂長變長,提高聚合的精度。傳統(tǒng)CBCA算法[19]中十字交叉域構(gòu)造的構(gòu)建判斷條件如下:

        式(11)和式(12)中是為了限制兩像素點(diǎn)p和q之間的顏色值之差的最大值,同時(shí)限制q與其相鄰點(diǎn)q1的顏色值之差的最大值,其中q為領(lǐng)域像素點(diǎn),p為中心像素點(diǎn),Dc(p,q)表示p和q之間的像素點(diǎn)值之差,Ds(p,q)表示p和q之間的空間長度之差,并設(shè)置閾值τ1;式(13)中是為了限制兩相鄰像素點(diǎn)的空間位置長度,并設(shè)置閾值L。

        后面為了使得十字交叉區(qū)域包含更多的像素點(diǎn),將空間長度擴(kuò)大L1>L,同時(shí)設(shè)置更加嚴(yán)格的顏色閾值τ2,在上面的基礎(chǔ)上添加的判斷條件表達(dá)式如下:

        上式中當(dāng)p和q兩像素點(diǎn)的空間距離在[L2,L1] 之間時(shí),將顏色值之差閾值設(shè)置為τ2(τ2<τ1),從而得到更大的臂長。

        所提算法在代價(jià)計(jì)算過程中劃分出不同紋理區(qū)域的基礎(chǔ)上,在不同區(qū)域設(shè)置不同的判斷條件,在強(qiáng)紋理區(qū)域設(shè)置顏色值之差和空間臂長之差兩約束條件;在弱紋理和無紋理區(qū)域設(shè)置梯度和空間臂長之差兩約束條件。具體表達(dá)式如下:

        基于紋理區(qū)域動態(tài)十字臂區(qū)域構(gòu)建結(jié)果如圖3 所示,圖3(a)和圖3(b)中非空白區(qū)域?yàn)橄袼攸c(diǎn)動態(tài)支持域,深色為構(gòu)建過程中的豎直臂和水平臂,構(gòu)建支持域有兩種策略,即先豎直后水平或者先水平后豎直,見圖3所示。

        圖3 十字臂兩種構(gòu)建策略圖Fig.3 Two construction strategies of cross arm

        從圖4(a)和(b)可以看出在弱紋理區(qū)域,傳統(tǒng)CBCA算法中構(gòu)建的十字支持域臂長小于本文所提出的十字臂長,即本文在弱紋理區(qū)域所構(gòu)建的支持域能夠包含更多的像素點(diǎn);同時(shí)在強(qiáng)紋理區(qū)域,本文構(gòu)建的支持域和傳統(tǒng)的CBCA算法構(gòu)建的支持域相差不大,都能取得很好的效果,如圖4(c)和(d)所示。

        圖4 強(qiáng)紋理和弱紋理區(qū)域的十字交叉臂對比Fig.4 Cross arm comparison between strong texture and weak texture areas

        1.3 視差計(jì)算

        在代價(jià)聚合后,采用WAT(贏家通吃)策略計(jì)算每個像素點(diǎn)的最小代價(jià),從而獲得視差值,如式(16):

        式(16)中D為視差范圍,從而得到最終的視差值disp。

        1.4 視差優(yōu)化

        經(jīng)過代價(jià)聚合后的像素點(diǎn)視差值仍然有很多錯誤的匹配點(diǎn),為了進(jìn)一步降低誤匹配率,需要進(jìn)行后處理,步驟可以參照Liu 等人[20]和Guo 等人[21]提出的算法,先后進(jìn)行左右一致性檢查(L-R check),迭代局部投票和子像素優(yōu)化三步。其中左右一致性檢查是基于視差唯一性約束,剔除錯誤視差,表達(dá)式如下:

        式(17)中DL(p)為左視差圖的視差值,DR(p-dL)為右視差圖對應(yīng)點(diǎn)的視差值,通過比較兩者的差值來提取出錯誤匹配點(diǎn)。

        再對上面左右一致性檢查處理后的無效像素點(diǎn)進(jìn)行迭代局部投票,統(tǒng)計(jì)支持域內(nèi)像素點(diǎn)在視差范圍內(nèi)直方圖的得票,最終選擇得票最多的像素點(diǎn)的視差值,判斷表達(dá)式如下:

        最后再進(jìn)行子像素優(yōu)化[22],通過一元二次擬合得到精度更高的視差值,表達(dá)式如下:

        2 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本算法的有效性和魯棒性,采用Middlebury 2006數(shù)據(jù)集,實(shí)驗(yàn)中各參數(shù)設(shè)置如表1所示,用誤匹配率來衡量算法的精度,設(shè)置視差閾值為1。

        表1 實(shí)驗(yàn)參數(shù)設(shè)置Table 1 Experimental parameter setting

        2.1 匹配代價(jià)計(jì)算驗(yàn)證

        為了驗(yàn)證本算法的有效性和圖像失真時(shí)魯棒性,這里選取四種代價(jià)函數(shù)相對比,分別為SAD 和Census 相結(jié)合(SAD+Census)[23]、AD和Census相結(jié)合(AD+Census)[24]、AD和梯度相結(jié)合(AD+梯度)[20]及本文提出的基于紋理區(qū)域自適應(yīng)代價(jià)計(jì)算。測試圖像選擇Middlebury 2006數(shù)據(jù)集中的4 組立體圖像對(Aloe、Baby1、Cloth3 和Wood1)分別在不同的光照、曝光條件和無失真的條件下進(jìn)行實(shí)驗(yàn),并且不進(jìn)行代價(jià)聚合和后處理,實(shí)驗(yàn)結(jié)果圖像如圖5~圖7 所示。表2~4 分別為不同代價(jià)函數(shù)在不同的光照、曝光條件和無失真的條件下的4組圖像的誤匹配率,表中Avg為平均誤匹配率。

        表2 不同代價(jià)函數(shù)在不同光照下的誤匹配率Table 2 Mismatch rate of different cost functions under different illumination

        圖5 Aloe、Baby1和Wood1在不同光照下不同代價(jià)函數(shù)視差圖Fig.5 Parallax diagram of different cost functions of Aloe,Baby1 and Wood1 under different illumination

        圖6 Aloe、Baby1和Wood1在不同曝光下不同代價(jià)函數(shù)視差圖Fig.6 Parallax diagrams of different cost functions of Aloe,Baby1 and Wood1 under different exposures

        圖7 Aloe、Baby1和Wood1在無失真下不同代價(jià)函數(shù)視差圖Fig.7 Parallax diagram of different cost functions of Aloe,Baby1 and Wood1 without distortion

        從表2到表4中,可以看出SAD和Census結(jié)合的代價(jià)函數(shù)與AD和Census結(jié)合的代價(jià)函數(shù)在不同光照、不同曝光和無失真情況下的誤匹配率相當(dāng),且相較于AD和梯度相結(jié)合的算法,誤匹配率下降16.55%,所以本文提出的代價(jià)函數(shù)在強(qiáng)紋理區(qū)域選擇AD 和Census 結(jié)合的代價(jià)函數(shù)計(jì)算代價(jià);同時(shí)對于表4 中的弱紋理圖像Wood1,AD 和梯度相結(jié)合的算法相較于SAD 和Census結(jié)合的代價(jià)函數(shù)以及AD 和Census 結(jié)合的代價(jià)函數(shù)而言,誤匹配率下降5.33%,所以在弱紋理和無紋理區(qū)域,本文選擇AD 和梯度結(jié)合的代價(jià)函數(shù)計(jì)算代價(jià);由表2和表3可知,梯度受到光照和曝光等外部因素的影響很大,由實(shí)驗(yàn)結(jié)果可知,本文所提出的代價(jià)函數(shù)不僅能夠適用于強(qiáng)紋理區(qū)域,而且在弱紋理和無紋理區(qū)域也有很好的魯棒性,能夠適用于多種復(fù)雜的外部環(huán)境。

        表3 不同代價(jià)函數(shù)在不同曝光下的誤匹配率Table 3 Mismatch rates of different cost functions under different exposures

        表4 不同代價(jià)函數(shù)在無失真下的誤匹配率Table 4 Mismatch rates of different cost functions without distortion

        2.2 代價(jià)聚合算法驗(yàn)證

        為了驗(yàn)證本文所提出的十字臂構(gòu)建策略在代價(jià)聚合中的有效性,本文選擇Middlebury數(shù)據(jù)集作為測試圖像,實(shí)驗(yàn)均采用相同的代價(jià)計(jì)算函數(shù),且都不進(jìn)行視差后處理。實(shí)驗(yàn)對比了本文算法及SAD+Census、AD+Census、SGM[10]、IGF[16]、ADSR_CIF[17]、LESC[18]和ELAS[19]算法,實(shí)驗(yàn)結(jié)果見圖8 所示,與傳統(tǒng)SAD+Census、AD+Census 和SGM 算法相比,所提算法在弱紋理和無紋理區(qū)域取得更加精確的匹配效果;同時(shí)與IGF、ADSR_CIF和ELAS算法相比,所提算法在豐富紋理圖像上的匹配精度更高,但前者在視差不連續(xù)區(qū)域匹配精度更高,與適應(yīng)性最好的LESC 匹配效果相當(dāng),但所提算法更簡單,能應(yīng)用于實(shí)時(shí)匹配。由表5 數(shù)據(jù)可知,本文算法相較于其他算法中效果次好的ELAS算法,誤匹配率下降了3.57個百分點(diǎn),相較于LESC算法,實(shí)時(shí)性相對更強(qiáng)。由于在弱紋理和無紋理區(qū)域所包含的像素點(diǎn)更多,所以聚合后的視差更能接近真實(shí)視差值;在代價(jià)聚合后,可以進(jìn)行視差后處理步驟,能夠進(jìn)一步提高最終視差圖的匹配精度,最終,Cones、Teddy、Wood2、Cloth3、Rock2、Plastic、Aloe和Baby1圖像經(jīng)過后處理優(yōu)化后,誤匹配率分別為12.04%、13.34%、12.86%、9.15%、11.84%、12.58%、10.94%和12.16%。

        表5 所提算法與其他算法聚合后的誤匹配率Table 5 Error matching rate after aggregation of proposed algorithm and other algorithms

        圖8 不同立體匹配算法聚合后視差圖Fig.8 Parallax map after aggregation of different stereo matching algorithms

        3 參數(shù)分析

        為了分析不同的參數(shù)對實(shí)驗(yàn)結(jié)果的影響,對實(shí)驗(yàn)過程中的9個主要參數(shù)進(jìn)行分析,本算法在紋理區(qū)域判斷的閾值τ設(shè)為4(即四個方向的像素點(diǎn)差值都設(shè)置為1)。立體匹配圖像選用Middlebury 2003 數(shù)據(jù)集中的Cones和Teddy,實(shí)驗(yàn)結(jié)果如圖9所示。其中,參數(shù)λGrad、λCensus和λAD是匹配代價(jià)計(jì)算中的三個主要參數(shù),而參數(shù)L1和L2以及t1~t4都是代價(jià)聚合過程中的主要參數(shù)。由不同參數(shù)實(shí)驗(yàn)匹配精度結(jié)果可知,由(a)知參數(shù)λGrad在60之后的匹配精度無明顯變化,故取值為60;由(b)知,隨著λCensus值的遞增,誤匹配率在不斷上升,由曲線Cones可見,在30 時(shí)取到最小值,但曲線Teddy 上則是不斷遞增,故為綜合兩曲線,取值為20;由(c)知λAD對兩條曲線的誤匹配率影響趨勢不同,且曲線Cones 在150 之后趨勢變緩,故取值為150;由(d)知隨著L1遞增,誤匹配率在不斷上升,且對于曲線Teddy,在26~28之間有一個突變下降,故綜合兩條曲線,取值為28;由(e)知L2對兩條曲線的影響不同,對Cones 無顯著影響,對Teddy 而言,隨著L2遞增,誤匹配率不斷上升,故最終取值為13;由(f)知隨著t1遞增,兩條曲線的誤匹配率都在不斷下降,故取值為24;由(g)知t2對兩條曲線的影響不相同,且曲線Cones在t2取7后,誤匹配率無顯著變化,故取值為7;由(h)知參數(shù)t3對曲線Cones 而言,除了在開始不斷下降外,總體上都是無明顯變化,故取值為250;由(i)知隨著t4遞增,兩條曲線誤匹配率不斷上升,故取值為1,將所有參數(shù)設(shè)置為上述分析的值后,可以獲得精度更好的視差圖。

        圖9 不同參數(shù)實(shí)驗(yàn)結(jié)果圖Fig.9 Experimental results of different parameters

        4 結(jié)束語

        文章提出了一種自適應(yīng)紋理區(qū)域的多尺度融合立體匹配算法,在代價(jià)計(jì)算階段,首先劃分出強(qiáng)紋理、弱紋理和無紋理區(qū)域,再在強(qiáng)紋理區(qū)域采用AD和Census相結(jié)合的代價(jià)函數(shù),在弱紋理和無紋理區(qū)域采用AD和梯度相結(jié)合的代價(jià)函數(shù),使得本文提出的代價(jià)函數(shù)能夠適應(yīng)不同紋理區(qū)域,并取得相當(dāng)好的匹配精度;在代價(jià)聚合階段,在強(qiáng)紋理區(qū)域采用顏色和空間距離相結(jié)合的十字臂支持域構(gòu)建條件,在弱紋理和無紋理區(qū)域采用梯度和空間距離結(jié)合的構(gòu)建條件,與傳統(tǒng)的CBCA構(gòu)建方法相比,本文提出的構(gòu)建方法能夠適應(yīng)不同的紋理區(qū)域,且在弱紋理和無紋理區(qū)域能夠包含更多的像素點(diǎn),得到更長的臂長。實(shí)驗(yàn)選擇不同光照、不同曝光和無失真三種情況,對比不同代價(jià)函數(shù)的匹配精度,從而構(gòu)建出此算法的代價(jià)函數(shù);同時(shí)再對比此算法和其他七種主流算法在代價(jià)聚合后的匹配精度,實(shí)驗(yàn)結(jié)果表明,此算法較于ELAS,最終平均誤匹配率下降3.57個百分點(diǎn),相較于LESC,實(shí)時(shí)性更強(qiáng);最后經(jīng)過參數(shù)分析后,得到對于此算法匹配效果較好的參數(shù)取值,提高算法的穩(wěn)健性,能夠較好地適應(yīng)不同的場景,但此算法在視差不連續(xù)區(qū)域的匹配精度還有待提高,今后將進(jìn)一步進(jìn)行研究。

        猜你喜歡
        視差代價(jià)像素點(diǎn)
        基于自適應(yīng)窗的立體相機(jī)視差圖優(yōu)化方法研究
        基于梯度域引導(dǎo)濾波的視差精煉迭代算法
        基于canvas的前端數(shù)據(jù)加密
        愛的代價(jià)
        海峽姐妹(2017年12期)2018-01-31 02:12:22
        代價(jià)
        基于逐像素點(diǎn)深度卷積網(wǎng)絡(luò)分割模型的上皮和間質(zhì)組織分割
        基于分割樹的視差圖修復(fù)算法研究
        立體視差對瞳孔直徑影響的研究
        成熟的代價(jià)
        基于Node-Cell結(jié)構(gòu)的HEVC幀內(nèi)編碼
        亚洲午夜精品第一区二区| 四虎影永久在线观看精品| 久热香蕉精品视频在线播放| 亚洲av乱码一区二区三区观影| 91久久偷偷做嫩模影院| 人妻少妇精品视频三区二区一区| 国产午夜福利短视频| 被欺辱的高贵人妻被中出| av免费在线播放一区二区| 欧洲美女黑人粗性暴交视频| 香港日本三级亚洲三级| 欧美人成在线播放网站免费| 亚洲国产精品成人一区二区三区| 人妻夜夜爽天天爽三区丁香花 | 国产未成女年一区二区| 久久精品av在线视频| 日本熟妇美熟bbw| 国产一区二区三区av在线无码观看| 天堂av无码大芭蕉伊人av孕妇黑人| 日本精品一级二区三级| 久久精品国产精品青草| 国产精品多人P群无码| 一区二区在线视频大片| 青青草亚洲视频社区在线播放观看| 337p西西人体大胆瓣开下部| 国产片AV在线永久免费观看| 日韩一区二区中文字幕视频| 妺妺窝人体色www婷婷| 拍摄av现场失控高潮数次| aⅴ色综合久久天堂av色综合| 中文字幕亚洲精品在线| 成人做受视频试看60秒| 亚洲AV无码精品色欲av| 熟女高潮av一区二区| 国产av国片精品有毛| 亚洲中久无码永久在线观看软件| 亚洲av综合色区久久精品天堂| 神马影院日本一区二区| 丰满熟妇乱子伦| 久久青草亚洲AV无码麻豆| av天堂免费在线播放|