亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自適應(yīng)權(quán)值的圖割立體匹配算法

        2018-03-27 06:35:36,
        計算機測量與控制 2018年3期
        關(guān)鍵詞:立體匹配視差紋理

        ,

        (昆明理工大學(xué) 機電工程學(xué)院, 昆明 650504)

        0 引言

        立體匹配是計算機視覺領(lǐng)域熱門研究問題之一,特別是在提高匹配精度方面,一直是立體匹配的研究重點[1-3]。目前,立體匹配技術(shù)作為三維重建、增強現(xiàn)實和視覺導(dǎo)航等領(lǐng)域的關(guān)鍵技術(shù),已經(jīng)得到了國內(nèi)外專家學(xué)者的廣泛研究,其目的是通過確定兩幅或多幅圖像之間的對應(yīng)點來得到視差數(shù)據(jù),從而將二維的距離信息轉(zhuǎn)化為空間上的深度信息[4]。

        Daniel Scharstein 和Richard Szeliski[5]等人對當時常見的立體匹配算法進行了比較權(quán)威的研究、分類和總結(jié),并為廣大的研究者建立了立體匹配算法的統(tǒng)一評測網(wǎng)站Middlebury 進行立體匹配的匹配誤差對比和分析,根據(jù)立體匹配算法采用的最優(yōu)化理論方法的不同主要分為局部立體匹配和全局立體匹配兩種。局部立體匹配算法采用局部優(yōu)化方法進行視差估計,主要算法有SAD、SSD、NCC和ZNCC等,其能量函數(shù)一般只有數(shù)據(jù)項,沒有平滑項,局部算法具有內(nèi)存占用小,算法速度快以及能夠滿足實時性要求等優(yōu)點,但是在遮擋、無紋理和重復(fù)紋理區(qū)域往往存在較高的誤匹配,總體匹配精度不高。Kanade and Okutomi[6]是通過評估局部灰度和視差的變化來選取合適的窗口,但是該方法不僅過分依賴初始的視差估計而且計算開銷大,匹配窗口的形狀被限制為矩形,對于視差不連續(xù)區(qū)域匹配不夠理想。Yoon[7]等人提出基于色彩和距離信息的自適應(yīng)支持權(quán)重法,有效地提高了整體和視差不連續(xù)區(qū)域匹配精度,由于該算法是對彩色圖像3個通道進行計算,隨著匹配窗口的增加,計算復(fù)雜度較高。全局立體匹配算法采用全局優(yōu)化方法進行視差估計,主要算法有置信傳播、動態(tài)規(guī)劃和圖割等,建立包含數(shù)據(jù)項和平滑項的全局能量函數(shù),通過最小化全局能量函數(shù)得到全局最優(yōu)視差分布,由于全局匹配方法采用全局尋優(yōu),因此獲得的視差圖效果好,匹配精度較高。 Roy和Cox等人[8]提出基于圖割理論的能量函數(shù)優(yōu)化方法解決立體匹配問題,并在視差圖效果和精度上取得了很大的突破。文獻[9]基于圖割理論對立體匹配的遮擋問題進行了研究,采用平滑約束和固定遮擋約束來處理圖像對遮擋區(qū)域,但是算法復(fù)雜度較高,處理遮擋問題不夠理想,總體匹配精度欠佳。

        基于此,針對傳統(tǒng)自適應(yīng)權(quán)重存在計算復(fù)雜度高和圖割匹配精度低的問題,本文提出一種改進的基于自適應(yīng)權(quán)值的圖割立體匹配算法。本文所提算法有3個貢獻點,1)根據(jù)格式塔理論的相似性和相近性提出新的權(quán)重值計算方式作為能量函數(shù)的數(shù)據(jù)項。2)引入圖像的梯度作為能量函數(shù)的平滑項,提升了視差圖的效果。3)將新提出的自適應(yīng)權(quán)值與圖割算法相結(jié)合,提高了匹配精度。

        1 創(chuàng)建能量函數(shù)及求解

        利用圖割算法求解立體匹配問題,主要分為3個步驟:首先建立全局匹配能量函數(shù),然后根據(jù)能量函數(shù)的具體形式構(gòu)建合適的網(wǎng)絡(luò)圖,最后運用最大流最小割求解能量函數(shù)的最小值?;谌S場景中同一景物在左右圖像中具有相似的像素強度和視差圖具有分段光滑的假設(shè),可以構(gòu)建出如公式(1)所示的能量函數(shù)。

        E(d)=Edata(d)+λ·Esmooth(d)

        (1)

        這里的Edata(d)叫做數(shù)據(jù)項,在左右圖像的匹配窗口內(nèi)計算得出;Esmooth(d)叫做數(shù)據(jù)平滑項,是根據(jù)中心像素的梯度與鄰域內(nèi)像素的梯度信息求得。

        1.1 數(shù)據(jù)項計算

        在確定每個匹配窗口內(nèi)的權(quán)重值時,根據(jù)格式塔理論下的相似性和相近性原則,分別利用圖像的灰度相似性和空間上的相近性來構(gòu)造權(quán)值計算方式,又由于這兩個因素是相互獨立的事件,在匹配窗口內(nèi)每個像素權(quán)值的表達式可以寫為:

        w(p,q)=fg(Δgpq)·fs(Δspq)

        (2)

        這里的fg(Δgpq)和fs(Δspq)分別表示窗口內(nèi)中心像素p與鄰域像素q在灰度上的權(quán)重和空間上的權(quán)重。在此可以看出,fg(Δgpq)和fs(Δspq)函數(shù)的數(shù)學(xué)模型對于計算w(p,q)至關(guān)重要,也直接關(guān)系著立體匹配的匹配精度。

        在本文算法中根據(jù)灰度相似性原則對函數(shù)fg(Δgpq)定義,隨著像素p與q灰度差的絕對值Δgpq增大,fg(Δgpq)的函數(shù)值越小,又由于圖像某些像素由于外部因素的干擾,使得Δgpq很大,這顯然是不合乎常理的,這里我們采用了灰度值截斷處理的方式??紤]到局部算法的實時性要求,這里采用計較簡單的線性核來定義函數(shù)fg(Δgpq),表達式為:

        (3)

        這里的Δgpq為匹配窗口內(nèi)中心像素p與鄰域像素q差的絕對值,t為灰度截斷值,與圖像的整體灰度分布有關(guān),依據(jù)實驗決定。

        依據(jù)二維正態(tài)分布具有單值性和旋轉(zhuǎn)對稱性,在每一個匹配窗口內(nèi),單值性體現(xiàn)在鄰域像素權(quán)值隨著與中心點的距離增加而遞減;旋轉(zhuǎn)對稱性體現(xiàn)在每一個方向上距離相同時權(quán)值也相同??臻g上的相近性對函數(shù)fs(Δspq)可以定義為服從二維正態(tài)分布,表達式為:

        (4)

        這里的Δspq=x2+y2,x和y分別為中心像素p與鄰域像素q在x、y方向上的坐標值之差。σ為標準差,其大小決定了fs(Δspq)在二維空間上權(quán)值分布的幅度。

        匹配代價函數(shù)的數(shù)據(jù)項可以通過在左右圖像的匹配窗口內(nèi)的權(quán)值進行計算得到。在計算數(shù)據(jù)項時,為了避免左右匹配窗內(nèi)權(quán)值差異情況,更準確地計算出匹配視差,需要聯(lián)合參考圖像和目標圖像的匹配窗權(quán)值來計算。所以數(shù)據(jù)項可以寫為:

        (5)

        (6)

        1.2 平滑項項計算

        在能量函數(shù)(1)中的數(shù)據(jù)平滑項Esmooth(d),為了解決無紋理或者是弱紋理圖像區(qū)域在匹配過程中較容易出現(xiàn)誤匹配問題,可以依據(jù)視差圖分段平滑的假設(shè),根據(jù)中心像素的梯度與鄰域內(nèi)像素的梯度信息來確定平滑項的值,如果梯度值相近,則賦予Esmooth(d) 的值較大,增加平滑效果,反之亦然。Esmooth(d)可以寫為:

        (7)

        這里的p和q分別表示中心像素點和鄰域像素點,取q為p的四鄰域內(nèi)的像素點,即假設(shè)p為p(i,j),則q取p(i,j-1) 、p(i-1,j)、p(i+1,j) 和p(i,j+1) 這4個點。N是p和q像素對的集合,dp和dq分別表示參考圖像中中心像素點和四鄰域像素點的視差值,V(dp,dq) 是像素p和q的視差平滑約束,可以寫為:

        V(dp,dq)=λ*T(dp≠dq)

        (8)

        (9)

        這里的G表示參考圖像的梯度,本文采用了sobel梯度模型。在確定具體的λ值時,本文采用了雙閾值處理策略,如果匹配點p的梯度大于上限閾值或者小于下限閾值時,圖像的該處被認為處于同一視差平面,需要給予較大的平滑約束;當匹配點p的梯度介于上限閾值和下限閾值之間時,則認為該處可能處于圖像的視差不連續(xù)區(qū)域,則需要給予較小的平滑約束。

        1.3 網(wǎng)絡(luò)圖的構(gòu)建及模型求解

        運用圖個算法求解立體匹配相關(guān)問題時,當完成能量函數(shù)的構(gòu)建后,還需要根據(jù)能量函數(shù)的具體形式去構(gòu)建與此相對應(yīng)的網(wǎng)絡(luò)圖。根據(jù)Greig提出的網(wǎng)格圖創(chuàng)建法,網(wǎng)絡(luò)圖G=由節(jié)點集合V和節(jié)點間的連接邊集合E組成。節(jié)點集合V中通常包含有兩個特殊的節(jié)點s和t,分別被稱作源(source)節(jié)點和匯(sink)節(jié)點。邊集合中一般由視差邊和光滑邊組成,其中視差邊的權(quán)重值對應(yīng)能量函數(shù)中的數(shù)據(jù)項,光滑邊的權(quán)重值對應(yīng)能量函數(shù)中的平滑項。

        構(gòu)建基于圖割的網(wǎng)絡(luò)圖一般步驟:首先需要創(chuàng)建一個三維的笛卡爾坐標系O-XYZ,將圖像IL放置在坐標系的xoy平面上,圖像的原點與xoy平面的原點重合,圖像的x,y軸分別于xoy平面的x,y正半軸重合,在Z軸的正方向上,等距離放置l1,l2,…,ln向量,然后在l1(原點O)處放置q0,再li與li+1處放置qi,其中i=1,2,...,n-1, 在ln處放置qn,這樣一個立方體網(wǎng)絡(luò)就構(gòu)建完成了。 在Z軸的每個區(qū)間[qi,qi+1] 都恰好包含一個li+1,這里的i=0,1,…,n-1;在整個立體網(wǎng)絡(luò)中,(p,qi)=(px,py,qi)為網(wǎng)絡(luò)圖中的節(jié)點,N(p) 為像素p的鄰域。然后再立方體網(wǎng)絡(luò)的上下兩個面分別放置源點s和匯點t,并在s到IL平面上的每個像素節(jié)點添加一條邊,t到節(jié)點集合{(px,py,qn)|(px,py)∈IL}添加一條邊,至此,就獲得了一個無向圖G ,即:

        V={s,t}∪ {(p;qi)|p∈IL,i=0,1,2,...,n}

        (10)

        E={(s,(p;q0)),(t,(p;qn))|p∈IL}∪Es∪Ed

        (11)

        其中:Es為光滑邊的集合,Ed為視差邊的集合,具體表達式如下:

        Es={(p;qi),(q;qi)|p∈IL,q∈N(p),i=0,1,...,n-1}

        (12)

        Ed={(p;qi),(p;qi+1)|p∈IL,i=0,1,...,n-1}

        (13)

        定義圖G中各條邊的容量:

        1)連接源點和匯點邊的容量:Ed和Es中的容量設(shè)置為+∞。

        2)視差邊的容量:對任意p∈IL,i=0,1,...,n-1 ,邊ep,i+1=:((p;qi),(p,qi+1)) 的容量大小應(yīng)等于數(shù)據(jù)項:

        c(ep,i+1)=Edata

        (14)

        3)光滑邊容量:p,q為一幅圖像中的相鄰像素。

        c(p,q)=Esmooth

        (15)

        此時,完成網(wǎng)格圖N=(G,s,t,c) 的組建,如圖1所示。

        圖1 網(wǎng)絡(luò)圖構(gòu)建

        一個s-t切割C=S,T,把圖G中的頂點分割成兩個沒有任何交集的集合S和T,最小割集就等于從集合S到集合T的所有邊的容量之和,根據(jù)Ford-Fullkerson的網(wǎng)絡(luò)流理論[10],網(wǎng)絡(luò)圖中的最小割可以轉(zhuǎn)化為求網(wǎng)絡(luò)中的最大流來實現(xiàn),然后再運用α擴展算法[8]進行圖構(gòu)造,算法通過對不同的α值進行迭代計算得到能量函數(shù)的最小值,直到收斂,從而找到能量函數(shù)大的局部最小,最終得到最優(yōu)的視差分布圖。

        2 視差精化

        (16)

        誤匹配點的視差通過在同一行上左右搜索最近的正確匹配點,把這兩個點中視差值最小的作為誤匹配點的視差值。經(jīng)過左右一致性檢查后,在一定程度上可以提高匹配精度,但同時也會產(chǎn)生水平條紋失真問題,為了解決這個問題和進一步提高視差精度,本文采用加權(quán)中值濾波對視差圖做進一步后處理。具體的做法是以原始的左圖像作為引導(dǎo)圖像,以校正視差點p作一個校正窗口,利用圖像的色彩相似性和距離的相近性分別計算窗口內(nèi)每一點的像素權(quán)值,可以寫為:

        (17)

        這里的Δcpq和Δspq分別為中心像素p和鄰域像素q在RGB色彩空間上的差異性和幾何空間的距離,λc和λs分別為所對應(yīng)的權(quán)重系數(shù)。為每一像素點計算完權(quán)重后,再分析視差圖中對應(yīng)窗口內(nèi)的視差分布,對p點鄰域內(nèi)所有點在視差圖中進行加權(quán)直方圖統(tǒng)計,統(tǒng)計后每個視差對應(yīng)的權(quán)值為id,按照視差進行升序排列,最后在對加權(quán)直方圖進行積分,在取得積分中值所對應(yīng)的視差即為該點的最終視差。公式可以寫為:

        (18)

        l為視差搜索時的最大視差。

        3 實驗結(jié)果及分析

        本文的立體匹配算法流程主要包括創(chuàng)建新的能量函數(shù)、構(gòu)建網(wǎng)絡(luò)圖、模型求解和視差精化四大步驟。實驗平臺為:實驗平臺為:Intel@ Core i5 CPU,主頻 2.40 GHz,4 GB 內(nèi)存。立體匹配系統(tǒng)的編程環(huán)境為旗艦版 Microsoft Visual Studio 2010。在匹配精度上,為了定量地檢驗本算法的有效性,實驗中采用了來自美國 Middlebury 大學(xué)計算機視覺研究中心網(wǎng)站提供的四幅標準立體圖像對Tsukuba、Venus、Teddy和Cones分別進行測評,通過將實驗結(jié)果與網(wǎng)站提供的真實視差圖進行對比分析可以得到量化的匹配誤差,從而能夠客觀地去評價算法精度。實驗時,四組標準圖像對的視差搜索范圍依次0~15, 0~19, 0~59, 0~59,立體匹配算法參數(shù)的選擇對實驗結(jié)果影響很大,若無特殊說明,實驗中的相關(guān)參數(shù)設(shè)置如表1所示。

        表1 參數(shù)設(shè)置

        圖2 不同方法對Tsukuba圖像的匹配結(jié)果

        圖2以Tsukuba圖像為例,采用不同的匹配方法分別對圖像進行立體匹配,直觀反映了本文所提算法較以往算法具有更好的匹配效果。圖2中的(c) 圖結(jié)果是采用了傳統(tǒng)的圖割方法進行立體匹配的結(jié)果,可以看到圖中用紅色方框標記的地方代表了傳統(tǒng)的圖割優(yōu)化方法得到的視差圖存在明顯的誤匹配,而本文算法在這些地方的視差幾乎與標準視差圖一致,不存在誤匹配現(xiàn)象;圖2中的(d) 圖是采用AdaptAggrDP[13]方法進行立體匹配的結(jié)果,與傳統(tǒng)的動態(tài)規(guī)劃方法一樣,依然存在明顯的條紋現(xiàn)象,本文算法利用圖像梯度信息估計能量函數(shù)的平滑項,通過圖割的優(yōu)化方法就避免了這種條紋現(xiàn)象,也使視差圖呈現(xiàn)分段平滑效果。圖2中的(e) 圖是采用TwoStep[14]方法進行立體匹配的視差圖結(jié)果,通過比較圖中方框標記部分可以得出,TwoStep方法在桌子邊緣處并沒有得到準確的視差信息,出現(xiàn)了明顯的匹配錯誤,圖2中的(f)圖是采用SymBP+occ[12]方法進行立體匹配的結(jié)果,可以看到,通過BP算法和遮擋處理后的視差圖在邊界區(qū)域依然表現(xiàn)得不盡人意,而本文算法得到的視差圖背景與前景邊界清晰,定位準確,明顯優(yōu)于TwoStep和SymBP+occ方法所得結(jié)果。圖2中的(h) 圖是本文視差圖與標準視差圖在對應(yīng)位置上大于一個像素的誤匹配像素圖像,白色代表正確匹配,黑色代表誤匹配,通過計算正確匹配點與所有匹配點的比值,實驗結(jié)果表明所提算法正確匹配率高達98.48%,與SymBP+occ和GC方法相比,視差圖的總體精度分別提高了0.23% 和2.6%。

        圖3是以Teddy圖像為例,為了驗證本文所提算法在低紋理和無紋理區(qū)域的匹配效果,不同匹配算法和本文算法在此區(qū)域的匹配細節(jié)對比圖。圖3中的(a) 圖采用AdaptAggrDP方法在圖中低紋理和無紋理區(qū)域(紅色標記區(qū)域,圓圈為低紋理區(qū)域,方框為無紋理區(qū)域)都沒有得到準確的視差,在這些區(qū)域的匹配結(jié)果極差,圖3中的(b) 圖采用了MultiResGC[15]方法得到的視差結(jié)果,在傳統(tǒng)的圖割算法基礎(chǔ)上引入了多個標簽進行細化,以增加深度標簽的數(shù)量,視差結(jié)果優(yōu)于AdaptAggrDP方法,能夠解決大部分低紋理和無紋理區(qū)域的匹配錯誤,同時也能夠在一定程度上還原圖像的真實邊界,但是邊界不夠準確,邊界缺失和無紋理區(qū)域存在誤匹配的現(xiàn)象依然存在,圖3中的(c) 圖采用文中所提算法,利用改進的自適應(yīng)權(quán)值和圖像梯度信息重新構(gòu)造新的能量函數(shù)進行匹配計算,同時運用圖割的優(yōu)化方法來求解全局能量函數(shù)的最小值和加權(quán)中值濾波進行視差精化,從而可以有效地提高低紋理和無紋理區(qū)域的匹配精度,通過與真實的視差圖對比,圖中的標記區(qū)域都已經(jīng)得到了準確的視差值,從而驗證了本文所提算法在一定程度上是可以提高圖像在低紋理和無紋理區(qū)域的正確匹配率。

        圖3 細節(jié)對比圖

        為了更好地測評本文所提算法,圖4是采用了另外兩種算法和本文算法分別對標準的四幅測試圖像對進行測試的對比結(jié)果。第一列為標準圖像對的左視圖參考原圖,從上到下依次為Tsukuba、Venus和Teddy、Cones圖像;第二列為各參考圖對應(yīng)的標準視差圖;第三列為AdaptAggrDP[13]算法匹配結(jié)果;第四列為MultiResGC[15]算法匹配結(jié)果;第五列為本文所提算

        法的匹配結(jié)果。由圖4分析可知,文中所提算法在四幅圖像中的匹配總體上優(yōu)于AdaptAggrDP和MultiResGC兩種立體匹配算法。具體來講,在Tsukuba和Teddy的視差圖中,AdaptAggrDP 呈現(xiàn)出前景溢出和明顯條紋現(xiàn)象,Teddy視差圖甚是突出,MultiResGC方法出現(xiàn)邊界不夠清晰,反觀本文結(jié)果,視差圖呈現(xiàn)分段平滑,邊緣清晰可辨;在Venus的視差圖中,AdaptAggrDP和MultiResGC 方法由于誤匹配產(chǎn)生了黑色區(qū)塊,文中算法由于沒有這些誤匹配存在進而提高了匹配精度。

        圖4 不同方法對四幅標準圖像的綜合對比

        依據(jù) Middlebury 提供的3個定量算法評價指標分別對比本文算法和其他幾種經(jīng)典算法,表2給出了nonocc (非遮擋區(qū)域匹配誤差百分比)、disc (視差不連續(xù)區(qū)域匹配誤差百分比)和all(所有區(qū)域的匹配錯誤百分比)的量化評價結(jié)果。從圖2圖4和表2綜合分析可以得出:本文算法與其他算法TwoStep、PM-GCP和AdaptAggrDP等相比,遮擋區(qū)域和視差不連續(xù)區(qū)域匹配精度均高于這3種算法,從誤差數(shù)據(jù)分析來看,Tsukuba視差圖中所有區(qū)域的匹配精度分別提高了2.16%, 0.67% 和1.98%, 視差不連續(xù)區(qū)域的匹配精度分別提高了7.63%,4.43%和2.6%;與傳統(tǒng)的GC算法進行對比,本文算法在重復(fù)紋理、稀疏紋理區(qū)域具有很好的匹配效果,四幅測試圖像GC算法的平均誤匹配率為11.42%,本文算法的平均誤匹配率為5.86%,平均精度提高了5.56%。特別是在Teddy圖中,由于弱紋理區(qū)域(如藍色背景板)、重復(fù)紋理區(qū)域(如磚墻部分)以及遮擋區(qū)域相對較多,所以匹配難度也相對較大,出現(xiàn)誤匹配的幾率也大,本文算法與文獻[10]所提SymBP+occ算法相比,SymBP+occ算法在Teddy 圖中的平均誤匹配率為11.39%,而本文算法的平均誤匹配率為10.21%,平均匹配精度提高了1.18%。

        表2 實驗結(jié)果數(shù)據(jù)對比

        4 結(jié)論

        本文提出了一種基于自適應(yīng)權(quán)值的圖割立體匹配算法:首先利用灰度相似性和空間相近性對能量函數(shù)的數(shù)據(jù)項進行重新定義計算,引入圖像梯度作為平滑項的度量,以此創(chuàng)建新的能量函數(shù);然后運用圖割理論和α擴展算法進行模型求解,最后視差精化得到最終視差圖。本文所提出算法的優(yōu)點在于通過重新定義數(shù)據(jù)項和平滑項的計算方法,與傳統(tǒng)的圖割和大多數(shù)算法相比,在圖像的低紋理和無紋理區(qū)域均能獲得較好的匹配效果,邊緣細節(jié)更清晰,總體匹配精度更高。但是對于大范圍視差匹配還是不盡人意,原因是沒有對遮擋區(qū)域和邊界大范圍遮擋做進一步研究,在今后的學(xué)習(xí)中將對算法進行進一步研究和改進,提高算法的魯棒性。

        [1]Ishikawa H,Geier D.Occlusion,discontinuities and epipolar lines in stereo[A]//Proceedings of the 5th European Conference on Computer Vision[C].Freiburg,Germany:Springer Press,1998:242-256.

        [2]Sun J.Shum H Y.Stereo matching using belief propagation[A].Proceedings of the 7th European Conference On Computer Vision[C].Copenhagen,Denmark:Springer Press,2002:510-524.

        [3]Scharstein D,Szeliski R.A taxonomy and evaluation of dense tw0-frame stereo correspondence algorithms[J]. International Journal on Computer Vision,2002,47(1):7-42.

        [4]Bai M, Zhuang Y, Wang W. Progress in binocular stereo matching algorithms[J]. Control & Decision, 2008, 23(7):721-729.

        [5]Scharstein D, Szeliski R. A Taxonomy and Evaluation of Dense Two-frame Stereo correspondence Algorithms[J]. International Journal of Computer Vision ,2002,47(1):7-42.

        [6]Kanade T , Okutomi M. A stereo matching algorithm with an adaptive window : theory and experiments [ J ] . IEEE Transactions on Pattern Analysis and Machine Intelligence , 1994 , 16 ( 9) : 920 -932.

        [7]Yoon K J , Kweon I S. Locally adaptive support-weight approach for visual correspondence search [J ] . IEEE Transactions on Pattern Analysis and Machine Intelligence , 2006 , 28(4) :650-656.

        [8]Boykov Y,Veksler O,Zabih R.Fast approximate energy minimization via graph cuts[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(11): 1222-1239.

        [9]Kolmogorov V,Zabih R.Computing visual correspondence with occlusions using graph cuts[A]. Proceedings of the 8th International Conference on Computer Vision,2001[C]. 2001.2:508-515.

        [10]Ford L R. Fulkerson flows in networks[J]. 1962.

        [11]Huang X, Yuan C, Zhang J. Graph Cuts Stereo Matching Based on Patch-Match and Ground Control Points Constraint[A].Pacific Rim Conference on Multimedia[C]. Springer International Publishing, 2015: 14-23.

        [12]Sun J, Li Y, Kang S B, et al. Symmetric Stereo Matching for Occlusion Handling[A]. IEEE Computer Society Conference on Computer Vision and Pattern Recognition[C]. 2005:399-406.

        [13]Wang L, Yang R, Gong M, et al. Real-time stereo using approximated joint bilateral filtering and dynamic programming[J]. Journal of real-time image processing, 2014, 9(3): 447-461.

        [14]Wang L, Liu Z, Zhang Z. Feature Based Stereo Matching Using Two-Step Expansion[J]. Mathematical Problems in Engineering, 2014,(2014-12-18).

        [15]Papadakis N, Caselles V. Multi-label depth estimation for graph cuts stereo problems[J]. Journal of Mathematical Imaging and Vision, 2010, 38(1): 70-82.

        猜你喜歡
        立體匹配視差紋理
        基于自適應(yīng)窗的立體相機視差圖優(yōu)化方法研究
        基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        使用紋理疊加添加藝術(shù)畫特效
        基于梯度域引導(dǎo)濾波的視差精煉迭代算法
        影像立體匹配中的凸優(yōu)化理論研究
        TEXTURE ON TEXTURE質(zhì)地上的紋理
        Coco薇(2017年8期)2017-08-03 15:23:38
        基于互補不變特征的傾斜影像高精度立體匹配
        基于分割樹的視差圖修復(fù)算法研究
        改進導(dǎo)向濾波器立體匹配算法
        消除凹凸紋理有妙招!
        Coco薇(2015年5期)2016-03-29 23:22:15
        久久天天躁夜夜躁狠狠| 91蜜桃国产成人精品区在线| 美女被强吻并脱下胸罩内裤视频 | 亚洲综合自拍偷拍一区| 日韩av无码精品一二三区| 欧美性猛交xxxx黑人| 无码专区亚洲avl| 国产天堂av在线播放资源 | 91精品久久久中文字幕| 欧美人与禽2o2o性论交| 艳妇乳肉豪妇荡乳av无码福利| 精品久久久久久99人妻| 精品一区二区av在线| 国产成人无码18禁午夜福利p| 暖暖免费 高清 日本社区在线观看| 97久久成人国产精品免费| 在线观看国产激情视频| 天天爽夜夜爽人人爽一区二区| 正在播放一区| 人妻一区二区三区免费看| 一区二区三区国产在线视频| 国产亚洲精品一区二区在线观看| 国产av熟女一区二区三区| 制服丝袜人妻中文字幕在线| 国产中文久久精品| 在线中文字幕一区二区| 亚洲成av人片在www| 国产精品18禁久久久久久久久| 一级午夜理论片日本中文在线| 免费av片在线观看网址| 亚洲精品国产成人| 亚洲欧美日韩精品香蕉| 男女射精视频在线观看网站| 亚洲裸男gv网站| 久久无码高潮喷水免费看| 日本不卡一区二区三区在线观看| 欧美牲交a欧美牲交aⅴ| 欧美黑人又粗又大久久久| 一区二区日本影院在线观看| 精品国产三级a∨在线欧美| 99久久精品国产成人综合|