亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)的種子點(diǎn)擴(kuò)展自適應(yīng)立體匹配算法

        2016-09-26 07:20:26李鵬格戴本祁
        關(guān)鍵詞:區(qū)域

        李鵬格 戴本祁

        (華東理工大學(xué)信息科學(xué)與工程學(xué)院 上海 200237)

        ?

        基于改進(jìn)的種子點(diǎn)擴(kuò)展自適應(yīng)立體匹配算法

        李鵬格戴本祁

        (華東理工大學(xué)信息科學(xué)與工程學(xué)院上海 200237)

        由于在圖像中不同區(qū)域的紋理密集程度不同,因此使用固定窗口大小的算法無(wú)法兼顧紋理不同的區(qū)域,并且在視差不連續(xù)區(qū)域的匹配精度較低。針對(duì)該問(wèn)題,提出一種自適應(yīng)窗口和自適應(yīng)權(quán)重相結(jié)合的算法,并且采用種子點(diǎn)擴(kuò)展的方法。首先,通過(guò)交叉自適應(yīng)窗口法,區(qū)分出連續(xù)點(diǎn)和孤立點(diǎn),對(duì)于不同的分類點(diǎn)采用不同的處理方法。其次,針對(duì)每一個(gè)像素點(diǎn),利用改進(jìn)的自適應(yīng)權(quán)重方法進(jìn)行匹配。最后,提出一種新的種子點(diǎn)擴(kuò)展的視差優(yōu)化方法,對(duì)初始視差圖進(jìn)行精細(xì)化。實(shí)驗(yàn)結(jié)果表明,視差圖中紋理密集區(qū)域和視差不連續(xù)區(qū)域的誤匹配現(xiàn)象得到改善。該算法可以有效地處理圖像中紋理分布不均的問(wèn)題,提高了在視差不連續(xù)區(qū)域內(nèi)匹配精度。

        交叉自適應(yīng)窗口自適應(yīng)權(quán)重孤立點(diǎn)種子點(diǎn)

        0 引 言

        立體匹配是通過(guò)二維圖像進(jìn)行三維重構(gòu)的一個(gè)重要環(huán)節(jié)。立體匹配的目的就是為要從一對(duì)左右圖像得到一幅精準(zhǔn)的視差圖,但是由于左右視圖中的遮擋問(wèn)題、光照問(wèn)題、基線偏移問(wèn)題等使得在圖像處理的過(guò)程中加大了提取視差的難度。根據(jù)立體匹配算法的處理范圍不同可以分為全局算法和局部算法,全局算法在長(zhǎng)期以來(lái)都有著在精度方面的優(yōu)勢(shì)。然而在運(yùn)算速度方面卻是不盡人意,因此不適于對(duì)時(shí)間要求比較苛刻的大多數(shù)工業(yè)環(huán)境中的實(shí)時(shí)處理系統(tǒng)。在局部算法方面,在研究學(xué)者們的不斷努力下,該算法在精度上逐漸提高,并且目前一些局部算法的精度已經(jīng)可以達(dá)到全局算法的水平。

        局部立體匹配算法包括區(qū)域匹配和特征匹配算法[1]。區(qū)域匹配算法就是以各個(gè)像素點(diǎn)為中心構(gòu)建或設(shè)定相應(yīng)的一個(gè)支撐窗口,利用像素間的顏色約束和距離約束等約束條件,在一定的視差范圍內(nèi)進(jìn)行匹配。主要有固定窗口法、滑動(dòng)窗口法、多窗口法、自適應(yīng)窗口法、自適應(yīng)權(quán)重AW(Adaptive-Weight)法[2-4]、基于Rank變換的匹配算法[5,6]等。

        目前,使用較多并且效果較好的是自適應(yīng)權(quán)重法[2]及其改進(jìn)算法,它是由Yoon等提出的。對(duì)每一個(gè)像素點(diǎn)分配一個(gè)固定窗口,計(jì)算窗口內(nèi)的各個(gè)像素與中心像素間的顏色距離和空間距離,將二者的距離權(quán)重相結(jié)合,得到整個(gè)窗口內(nèi)各個(gè)像素與中心像素的權(quán)重,然后結(jié)合像素初始距離計(jì)算匹配代價(jià),利用WTA(Winner-Takes-All)方法得到密集視差圖。然而,由于其利用固定窗的方法使得該方法存在一些固有的缺陷,如在稀疏紋理區(qū)域和視差不連續(xù)區(qū)域的匹配精度低。

        為此,后來(lái)的研究者基于該方法提出了一些改進(jìn)算法,如Tombari等[7]提出在分割區(qū)域的權(quán)重為1,其他區(qū)域的權(quán)重為AW算法中聯(lián)合權(quán)重,這種方法使得在稀疏紋理區(qū)域的匹配精度得到有效的提高。Hosni等[8]利用通透性的原理,提出測(cè)地距離立體匹配的方法,將除去那些與中心像素不連續(xù)卻擁有較高權(quán)值的像素的影響,在紋理稀疏區(qū)域更好地提高了匹配精度。但是由于Hosni等采用通透性原理,在高紋理的區(qū)域內(nèi)像素的連續(xù)區(qū)域通常較小,導(dǎo)致其匹配區(qū)域減小而出現(xiàn)誤匹配的現(xiàn)象。

        為提高在紋理程度不同的區(qū)域的兼顧性,本文提出一種基于改進(jìn)的交叉自適應(yīng)增長(zhǎng)的圖像分割方法,并在各個(gè)分割區(qū)域內(nèi),利用各個(gè)像素與中心像素之間的空間距離和色度距離來(lái)確定其不同的相關(guān)權(quán)值。該算法有效地提高了整體圖像的匹配精度,并且針對(duì)視差圖中易出現(xiàn)誤匹配的孤立像素點(diǎn),提出一種改進(jìn)的種子點(diǎn)擴(kuò)展算法,即根據(jù)鄰近視差有效種子點(diǎn)[9]擴(kuò)展的方法,使視差精度進(jìn)一步得到提高。

        1 自適應(yīng)匹配算法

        在局部立體匹配算法中,為了得到精確的匹配結(jié)果,選擇一個(gè)合適的窗口是很重要的。原則上來(lái)說(shuō),這個(gè)窗口應(yīng)該包括所有具有相同視差的相鄰的像素點(diǎn),但是每個(gè)像素的視差值是不可預(yù)知的。由于在鄰近區(qū)域內(nèi)具有相似的色度的像素點(diǎn)一般都是在同一視差區(qū)域內(nèi),因此假設(shè)在一定閾值內(nèi)的鄰近像素點(diǎn)有相同的視差,即視差相似性假設(shè)。

        本文算法流程如圖1所示。圖1中自適應(yīng)匹配階段,首先利用改進(jìn)的自適應(yīng)交叉分割算法,得到各個(gè)左右圖中各個(gè)像素點(diǎn)的分割區(qū)域,并記錄像素點(diǎn)為孤立點(diǎn)或者連續(xù)點(diǎn);其次計(jì)算各個(gè)分割區(qū)域內(nèi)的像素點(diǎn)對(duì)中心點(diǎn)的權(quán)重;最后得到聯(lián)合匹配代價(jià)。

        圖1 本文匹配算法框圖

        1.1交叉自適應(yīng)分割

        (1)

        式中pi=(xp-i,yp),L是設(shè)定的臂長(zhǎng)搜索范圍。δ(p,pi)是像素p1和p2之間顏色相似度的測(cè)量函數(shù)如下[10]:

        (2)

        式中Ic是顏色通道c上的強(qiáng)度值,τ是設(shè)定的限定相似度程度的閾值,文獻(xiàn)[10]中取20。由此可以得到點(diǎn)p的上下左右的臂長(zhǎng),即可得到點(diǎn)p的分割區(qū)域。

        該分割算法中利用p點(diǎn)的垂直擴(kuò)展臂,進(jìn)行水平方向的擴(kuò)展,可以得到p點(diǎn)的分割區(qū)域,但是這樣只考慮了圖像的水平方向的通透性,忽略了垂直方向的通透性,降低了匹配的精度。由于該算法利用圖像的通透性,在低紋理區(qū)域可以得到較高的匹配精度,但是在高紋理區(qū)域,由于每個(gè)像素點(diǎn)的分割區(qū)域都較小,致使出現(xiàn)較高的誤匹配現(xiàn)象,為此本文提出了解決該問(wèn)題的方法。

        對(duì)文獻(xiàn)[8]中提出的交叉自適應(yīng)分割方法進(jìn)行補(bǔ)充和改進(jìn),不僅考慮到圖像水平方向上的通透性,也利用圖像垂直方向上的通透性。利用式(1)搜索到像素點(diǎn)p的上下左右臂長(zhǎng),再分別以p點(diǎn)上下臂和左右臂上的像素點(diǎn)作為基準(zhǔn)點(diǎn),分別進(jìn)行左右和上下的擴(kuò)展,兩者結(jié)合一起可得到像素點(diǎn)p的支撐窗口W。如圖2所示:其中(a)是以p點(diǎn)的垂直方向臂長(zhǎng)上的像素點(diǎn)作為基準(zhǔn)點(diǎn),進(jìn)行水平方向的擴(kuò)展;(b)是以p點(diǎn)的水平方向臂長(zhǎng)上的像素點(diǎn)作為基準(zhǔn)點(diǎn),進(jìn)行垂直方向的擴(kuò)展;(c)是聯(lián)合(a)、(b)分割區(qū)域后的p點(diǎn)的支撐區(qū)域。這樣擴(kuò)展可以充分利用像素之間的相似性,得到更大的分割窗口,并且能包含所有與中心像素相似的像素點(diǎn),實(shí)驗(yàn)證明也更加合理有效。

        圖2 支撐區(qū)域擴(kuò)展圖

        1.2自適應(yīng)權(quán)重算法

        在一幅圖像中,除了邊緣點(diǎn)之外,每一個(gè)像素點(diǎn)與其周圍的像素點(diǎn)都有一定的相似性,并且隨著像素距離的邊遠(yuǎn),其相似度通常情況下也在逐漸變小。根據(jù)顏色約束和距離約束條件,Yoon和Kweon提出了自適應(yīng)權(quán)重的算法。

        在該算法中其像素距離fg(p,q)的計(jì)算是通過(guò)下面公式[2]得到的:

        (3)

        其中,Δgpq為任意像素點(diǎn)p、q點(diǎn)之間的歐氏距離,μg為聯(lián)合權(quán)重中像素距離的權(quán)重。

        由于其使用指數(shù)函數(shù),其不足點(diǎn)在于,對(duì)于在低紋理區(qū)域的像素點(diǎn),中心像素點(diǎn)與周圍的鄰近像素點(diǎn)具有較高的相似性。但是該函數(shù)下降速度快,只有在3×3鄰域內(nèi)的像素才具有較大的權(quán)重值,雖然有顏色權(quán)值作為補(bǔ)充,該算法在低紋理或無(wú)紋理區(qū)域匹配精度依然較低。

        式(3)無(wú)法充分滿足顏色相似的像素點(diǎn)要分配相同的權(quán)重的要求。本文利用下面公式[11]進(jìn)行改進(jìn),可以滿足在一定的范圍內(nèi)具有較高顏色相似性的像素點(diǎn)分配相同的權(quán)重的要求。

        fg(p,q)=((1+exp(-a(Δipq+b)))-1-

        (1+exp(-a(Δipq-b)))-1)×

        ((1+exp(-a(Δjpq+b)))-1-

        (1+exp(-a(Δjpq-b)))-1)

        (4)

        式中,參數(shù)a可以設(shè)置像素距離的權(quán)值函數(shù)的下降速度,a越大下降速度越快;參數(shù)b可以改變函數(shù)的中心區(qū)域權(quán)值變化緩慢的區(qū)域塊,b越大中心區(qū)域越大;Δipq、Δjpq分別表示像素點(diǎn)(p,q)的水平和垂直坐標(biāo)距離。

        1.3代價(jià)聚合

        在代價(jià)聚合階段,結(jié)合自適應(yīng)分割算法和自適應(yīng)權(quán)重算法計(jì)算匹配代價(jià)。在自適應(yīng)分割時(shí)得到的分割區(qū)域內(nèi),利用自適應(yīng)權(quán)重算法,可以排除那些與中心像素點(diǎn)不在同一紋理區(qū)域內(nèi)的像素點(diǎn),并且擴(kuò)大在低紋理區(qū)域像素點(diǎn)的分割區(qū)域。因此,可以提高低紋理區(qū)域的匹配精度,其聚合匹配代價(jià)如下式:

        (5)

        其中fs(p,q)、fs(pd,qd)分別是左圖和右圖中p和pd點(diǎn)的支撐窗口;Spq為d在Rd范圍內(nèi)搜索時(shí)左右支撐窗口的聯(lián)合窗口;Ns為聯(lián)合窗口的大小,即窗口內(nèi)的像素?cái)?shù)目;w(p,q)、w(pd,qd)分別為p和pd對(duì)應(yīng)的支撐窗口內(nèi)的權(quán)重;e(q,qd)為p和pd的支撐窗口內(nèi)對(duì)應(yīng)像素點(diǎn)的初始匹配代價(jià)值。

        在Rd={dmin,…,dmax}范圍內(nèi),進(jìn)行視差搜索,利用WTA算法[2]得到最優(yōu)視差:

        (6)

        2 視差優(yōu)化

        2.1種子點(diǎn)選取

        如本文算法圖1所示,在得到初始視差圖后,對(duì)視差圖進(jìn)行優(yōu)化。首先,在初始視差圖中選出準(zhǔn)確度高的種子點(diǎn)[9];然后,將孤立點(diǎn),也就是由于支撐窗口小而可能引起誤匹配的像素點(diǎn),標(biāo)記出來(lái),在其支撐窗口內(nèi)搜索到與其鄰近的種子點(diǎn),將種子點(diǎn)的視差值賦給該孤立點(diǎn)。

        種子點(diǎn)的選取條件如下:

        (1)DL(i,j)=DR(i,j-(DL(i,j)))

        (2)C((i,j),DL(i,j))×γ

        式中,DL(i,j)表示左視差圖中(i,j)點(diǎn)的視差值,DR(i,j-(DL(i,j)))表示對(duì)應(yīng)于(i,j)點(diǎn)的視差值在右圖中的視差值,C((i,j)、DL(i,j))表示左視差圖中(i,j)點(diǎn)視差值為DL(i,j)時(shí)的代價(jià)值。條件(1)要求種子點(diǎn)的視差值滿足左右一致性(Left-Rightcheck,LRC),條件(2)確保該點(diǎn)的可信度,設(shè)定的閾值γ可以改變種子點(diǎn)的可信度,本文中選取γ=1.1,γ越大,種子點(diǎn)的可信度越高,但是種子點(diǎn)數(shù)也會(huì)相應(yīng)的減少。

        2.2孤立點(diǎn)標(biāo)記及優(yōu)化

        在自適應(yīng)分割時(shí),若得到像素點(diǎn)p(i,j)的支撐窗口內(nèi)的像素點(diǎn)總數(shù)小于θ,或者其半邊界小于θ/2,則標(biāo)記P點(diǎn)為孤立點(diǎn)。根據(jù)產(chǎn)生孤立點(diǎn)的條件不同,可分為左邊界孤立點(diǎn)、右邊界孤立點(diǎn)和全孤立點(diǎn)。此時(shí),對(duì)于每一個(gè)孤立點(diǎn)進(jìn)行視差優(yōu)化。

        對(duì)于全孤立點(diǎn),在其支撐區(qū)域內(nèi),所包含的所有種子點(diǎn)的視差值的均值即為P點(diǎn)的視差值;對(duì)于左邊界孤立點(diǎn),即該孤立點(diǎn)的左邊靠近邊界,根據(jù)視差相似性假設(shè),即假設(shè)該點(diǎn)的視差與在其右邊的像素點(diǎn)的視差相似,則在其支撐區(qū)域內(nèi),選取其右半部分的種子點(diǎn)的視差值的均值作為其視差值;同理,對(duì)右邊界孤立點(diǎn),選取其左半部分的種子點(diǎn)的視差值的均值作為其視差值。表示為:

        (7)

        其中,Np為p點(diǎn)的支撐區(qū)域,qA表示在p支撐區(qū)域內(nèi)的種子點(diǎn),d(p)表示p像素點(diǎn)的視差值,Sp表示p點(diǎn)的分割區(qū)域,Sp-left、Sp-right分別表示p點(diǎn)的分割區(qū)域內(nèi)的左右半部分。

        由于這些孤立點(diǎn)雖然其分割區(qū)域較小,但是其初始視差值不一定就不準(zhǔn)確,因此,在視差優(yōu)化階段,從得到的孤立點(diǎn)圖中除去那些本身是種子點(diǎn)的孤立點(diǎn),只對(duì)非種子點(diǎn)的孤立點(diǎn)進(jìn)行視差優(yōu)化。然而由于部分遮擋點(diǎn)被誤認(rèn)為是種子點(diǎn)的情況會(huì)出現(xiàn)較大的誤匹配率,因此,根據(jù)左右一致性檢測(cè),通過(guò)左右視差圖得到遮擋點(diǎn)圖,對(duì)其中遮擋點(diǎn)而非孤立點(diǎn)的像素點(diǎn)進(jìn)行視差優(yōu)化,直接取其11×11窗口內(nèi)的種子點(diǎn)均值。

        3 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)測(cè)試中使用Middlebury數(shù)據(jù)庫(kù)[12]中的標(biāo)準(zhǔn)圖像進(jìn)行測(cè)試,實(shí)驗(yàn)中各個(gè)參數(shù)的設(shè)置如表1所示。

        表1 參數(shù)對(duì)照表

        其中,θ閾值的選取是根據(jù)L值得大小,即窗口的大小。當(dāng)L=19時(shí),窗口的大小為39×39,其中包含的像素點(diǎn)數(shù)為1521個(gè),當(dāng)某個(gè)像素點(diǎn)的分割區(qū)域內(nèi)像素點(diǎn)個(gè)數(shù)少于整個(gè)窗口的大約三分之一時(shí),標(biāo)記為孤立點(diǎn)。當(dāng)閾值過(guò)小時(shí),孤立點(diǎn)過(guò)少,無(wú)法有效地優(yōu)化誤匹配點(diǎn)的視差;反之,孤立點(diǎn)過(guò)多,使一些非誤匹配點(diǎn)的視差被更改,反而降低了匹配率。

        3.1種子點(diǎn)擴(kuò)展實(shí)驗(yàn)結(jié)果

        在圖3中,下圖的兩列分別為Tsukuba圖和Cones圖,第一行為得到的種子點(diǎn)圖,高亮度部分為種子點(diǎn),黑色點(diǎn)為非種子點(diǎn);第二行為待優(yōu)化的孤立點(diǎn)圖,通過(guò)2.2節(jié)部分的方法得到孤立點(diǎn)圖,將其中視差值滿足種子點(diǎn)要求的點(diǎn)去除,再將根據(jù)左右視差圖得到的遮擋圖部分考慮進(jìn)去,可得到該孤立點(diǎn)圖,高亮度區(qū)域表示孤立點(diǎn);第三行為初始左視差圖,第四行為種子點(diǎn)擴(kuò)展后的左視差圖。

        從圖3(a)、(b)中可以看出種子點(diǎn)一般出現(xiàn)在紋理稀疏并且視差連續(xù)的區(qū)域,而孤立點(diǎn)主要出現(xiàn)在紋理密集區(qū)域,包括視差不連續(xù)區(qū)域。

        對(duì)比圖3(a)、(b),本文的孤立點(diǎn)選取方法可以提取出圖像中的誤匹配點(diǎn);對(duì)比圖3(c)、(d),本文提出的種子點(diǎn)擴(kuò)展方法可以有效地消除孤立點(diǎn)的誤匹配現(xiàn)象。從圖中用橢圓形標(biāo)記出來(lái)的區(qū)域可以看出,在Tsukuba圖中的臺(tái)燈左側(cè)的前景腫大現(xiàn)象得到優(yōu)化,并且在頭像的左上方的白色區(qū)域被消除;在Cones圖像中效果明顯,各個(gè)模型的左邊黑塊大幅減少。

        圖3 種子點(diǎn)擴(kuò)展過(guò)程

        3.2實(shí)驗(yàn)結(jié)果對(duì)比分析

        根據(jù)表1參數(shù)對(duì)文獻(xiàn)2以及本文的算法進(jìn)行測(cè)試,結(jié)果如圖4所示。其中各列的圖依次為Tsukuba、Teddy、Cones和Venus。由圖中結(jié)果可以看出,除去遮擋區(qū)域的少量誤匹配現(xiàn)象,改進(jìn)的算法在其他區(qū)域整體均有所提高。

        在圖4(b)中使用自適應(yīng)權(quán)重的算法,在圖4(c)圖中利用自適應(yīng)分割的方法。由于其在使用自適應(yīng)分割時(shí),最大臂長(zhǎng)的設(shè)置與圖4(b)中的固定窗口的相等,因此在視差不連續(xù)區(qū)域使得匹配窗口小于圖4(b)中相應(yīng)的匹配窗口,匹配結(jié)果提高不明顯。但是在該過(guò)程中可以得到種子點(diǎn)和孤立點(diǎn),再考慮到視差優(yōu)化階段的種子點(diǎn)擴(kuò)展,可得到圖4(d),即本文算法,可以看出通過(guò)優(yōu)化使得匹配效果得到較大提高。

        對(duì)比圖4(b)、(c),在(b)的結(jié)果中Tsukuba圖中的背景區(qū)域中出現(xiàn)被橢圓形標(biāo)記的白塊,以及在Teddy圖中的用橢圓形標(biāo)記的區(qū)域,也都在加上自適應(yīng)分割窗口之后,得到有效的改善。對(duì)比圖4(b)、(d),在文獻(xiàn)[2]的結(jié)果中,Venus圖中有出現(xiàn)用橢圓形標(biāo)記的白色區(qū)域,在Cones圖中出現(xiàn)用橢圓形標(biāo)記的黑色區(qū)域,都在改進(jìn)算法中被消除。

        圖4 立體匹配原圖及視差結(jié)果圖

        在Tsukuba圖和Venus圖中的標(biāo)記區(qū)域出現(xiàn)在低紋理區(qū)域,在只考慮權(quán)重的情況下,由于附近視差的相似性,導(dǎo)致出現(xiàn)誤差。但在考慮自適應(yīng)分割和種子點(diǎn)擴(kuò)展之后可以彌補(bǔ)這種誤差。在Teddy圖和Cones圖中的標(biāo)記區(qū)域出現(xiàn)在紋理不連續(xù)區(qū)域,在該區(qū)域利用孤立點(diǎn)的特性進(jìn)行擴(kuò)展,可以消除大量誤匹配的像素點(diǎn)。

        在實(shí)驗(yàn)結(jié)果圖4中可以看出文獻(xiàn)[2]的Venus中的背景邊緣線模糊不清。但在本文的算法結(jié)果中邊界明顯,這是由于在邊緣附近的像素點(diǎn)易出現(xiàn)誤匹配現(xiàn)象,并且誤匹配的視差值都是由于背景引起的,而本文提出的種子點(diǎn)擴(kuò)展法,可以有效提高邊緣附近像素點(diǎn)的匹配精度。然而在Teddy圖的處理上出現(xiàn)了誤匹配塊現(xiàn)象,無(wú)法消除,主要是由于該區(qū)域紋理太過(guò)相近,而在進(jìn)行圖像分割時(shí),是有最大窗口限制的分割,致使該區(qū)域出現(xiàn)誤匹配。

        圖4的(c)、(d)實(shí)驗(yàn)得出的非遮擋區(qū)域錯(cuò)誤率(nonocc)、總體錯(cuò)誤率(all)和視差不連續(xù)區(qū)域錯(cuò)誤率數(shù)據(jù)(disc)如表2所示。在文獻(xiàn)[10]中只是利用自適應(yīng)分割的水平方向擴(kuò)展進(jìn)行立體匹配,因此當(dāng)圖像中含有大量垂直邊界的時(shí)候,無(wú)法保證匹配的準(zhǔn)確性,而在本文算法中同時(shí)考慮到垂直方向上的擴(kuò)展,可以使匹配率得到提高。不僅如此,本文還結(jié)合種子點(diǎn)擴(kuò)展的方法,將像素點(diǎn)分類為孤立點(diǎn)和連續(xù)點(diǎn),利用種子點(diǎn)對(duì)孤立點(diǎn)進(jìn)行水平方向擴(kuò)展,進(jìn)行視差優(yōu)化,使匹配率進(jìn)一步得到提高。

        表2 算法結(jié)果的誤匹配率比較(error>1)

        根據(jù)表2對(duì)誤匹配率的分析,文獻(xiàn)[10]的總平均誤匹配率為7.60%,本文算法的總平均誤匹配率為6.72%,減小了0.88%。實(shí)驗(yàn)結(jié)果也顯示在Tsukuba、Venus和Teddy圖中的誤匹配率都有所改善,分別減少了0.35%、0.07%、0.65%,并且由于在Cones圖中的孤立點(diǎn)大部分為左右邊界點(diǎn),因此Cones圖的誤匹配率提高最為明顯,分別為1.68%、4.15%、1.48%。因此,本文算法可以降低立體匹配過(guò)程中的誤匹配率,尤其在水平不連續(xù)區(qū)域內(nèi),可以大幅提高匹配率。

        4 結(jié) 語(yǔ)

        本文在交叉分割和自適應(yīng)權(quán)重的立體匹配算法的基礎(chǔ)上,提出一種改進(jìn)的分割算法和自適應(yīng)權(quán)重算法。通過(guò)實(shí)驗(yàn)表明,該方法有效地解決了自適應(yīng)權(quán)重算法中在視差不連續(xù)區(qū)域匹配精度低的問(wèn)題。雖然在計(jì)算效率上比較文獻(xiàn)[2]有所降低,但是通過(guò)并行計(jì)算的方法依然可以大大提高計(jì)算速度。本文在視差優(yōu)化階段提出種子點(diǎn)擴(kuò)展的算法,實(shí)驗(yàn)結(jié)果顯示,在紋理密集區(qū)域匹配精度得到了顯著的提高,彌補(bǔ)了文獻(xiàn)[2]在該區(qū)域內(nèi)匹配精度低的問(wèn)題。

        但是本文也存在一些有待提高的地方,如在Teddy圖的實(shí)驗(yàn)數(shù)據(jù)中,all和disc區(qū)域的誤匹配率優(yōu)化較小,究其原因,是本文算法在進(jìn)行孤立點(diǎn)的選取時(shí)只標(biāo)記其左右的邊界特性。而Teddy圖里面又含有較大部分的上下邊界點(diǎn),如圖中的煙囪部分,因此可以通過(guò)考慮其上下邊界特性,使其匹配精度進(jìn)一步提高。

        [1]YangL,WangR,GeP,etal.Researchonarea-matchingalgorithmbasedonfeature-matchingconstraints[C]//2009FifthInternationalConferenceonNaturalComputation,Tianjin,August14-16,2009,Piscataway:IEEEPress,2009:208-213.

        [2]YoonKJ,KweonIS.Adaptivesupport-weightapproachforcorrespondencesearch[J].IEEETransactionsOnPatternAnalysisandMachineIntelligence,2006,28(4):650-656.

        [3]ChengF,ZhangH,YuanD,etal.Stereomatchingbyusingtheglobaledgeconstraint[J].Neurocomputing,2014,131(7):217-226.

        [4]HuW,ZhangK,SunL,etal.Virtualsupportwindowforadaptive-weightstereomatching[C]//VisualCommunicationsandImageProcessing,2011IEEE,2011:1-4.

        [5]IrijantiE,NayanMY,YusoffMZ.Localstereomatchingalgorithm:Usingsmall-colorcensusandsparseadaptivesupportweight[C]//NationalPostgraduateConference,KualaLumpur,September19-20,2011.Piscataway:IEEEPress,2011:1-5.

        [6] 郭龍?jiān)?盧阿麗,楊靜宇.非參量變換在彩色圖像立體匹配中的應(yīng)用研究[J].計(jì)算機(jī)科學(xué),2008,35(11):217-219.

        [7]TombariF,Mattoccia1S,StefanoLD.Segmentation-basedadaptivesupportforaccuratestereocorrespondence[C]//ProceedingsofAdvancesinImageandVideoTechnology,SecondPacificRimSymposium,Santiago,December17-19,2007.Berlin:Springer,2007:427-438.

        [8]HosniA,BleyerM,GelautzM,etal.Localstereomatchingusinggeodesicsupportweights[C]//ImageProcessing,2009 16thIEEEInternationalConference,Cairo,November7-10,2009.Piscataway:IEEEPress,2009:2069-2072.

        [9]SunX,MeiX,JiaoS,etal.Stereomatchingwithreliabledisparitypropagation[C]//3DImaging,Modeling,Processing,VisualizationandTransmission,2011InternationalConference,Hangzhou,May16-19,2011.Piscataway:IEEEPress,2011:132-139.

        [10]ZhangK,LuJ,LafruitG.Cross-basedlocalstereomatchingusingorthogonalintegralimages[J].IEEETransactionsOnCircuitsandSystemsForVideoTechnology,2009,19(7):1073-1079.

        [11] 王富治,黃大貴.改進(jìn)的YOON自適應(yīng)加權(quán)立體匹配算法[J].電子測(cè)量與儀器學(xué)報(bào),2010,24(7):632-637.

        [12]ScharsteinD,SzeliskiR.Ataxonomyandevaluationofdensetwo-framestereocorrespondencealgorithms[J].InternationalJournalofComputerVision,2002,47(1-3):7-42.

        ADAPTIVESTEREOMATCHINGALGORITHMBASEDONIMPROVEDSEEDPOINTSEXPANSION

        LiPenggeDaiBenqi

        (School of Information Science and Engineering,East China University of Science and Technology,Shanghai 200237,China)

        Sincetheimageindifferentregionshasdifferenttextureintensity,thereforethealgorithmusingasize-fixedwindowcan’ttakeintoaccounttheregionswithdifferenttextures,anditsmatchingprecisionislowindisparitydiscontinuitiesregions.Tosolvetheseproblems,inthispaperweproposeanewalgorithmwhichcombinesadaptivewindowandadaptiveweight,andusesthemeansofseedpointexpansion.First,wedistinguishtheconsecutivepointsandisolatedpointswithcross-adaptivewindowmethod,andusedifferentprocessingapproachesfordifferentclassificationpoints.Secondly,foreachpixelpointweusetheimprovedadaptiveweightmethodtomatchit.Finally,wepresentanewdisparityoptimisationapproachofseedpointsexpansiontorefinetherawdisparitymap.Experimentalresultsshowthatthephenomenonofmismatchingthetextureintensityregionanddisparitydiscontinuitiesregionindisparitymaphasbeenimproved.Thealgorithmcaneffectivelyprocesstheproblemofuneventexturedistributioninimage,andraisethematchingprecisionindisparitydiscontinuitiesregion.

        Cross-adaptivewindowAdaptiveweightIsolatedpointSeedpoint

        2014-09-06。李鵬格,碩士生,主研領(lǐng)域:立體匹配。戴本祁,副教授。

        TP391

        ADOI:10.3969/j.issn.1000-386x.2016.03.050

        猜你喜歡
        區(qū)域
        分割區(qū)域
        探尋區(qū)域創(chuàng)新的密碼
        科學(xué)(2020年5期)2020-11-26 08:19:22
        基于BM3D的復(fù)雜紋理區(qū)域圖像去噪
        軟件(2020年3期)2020-04-20 01:45:18
        小區(qū)域、大發(fā)展
        商周刊(2018年15期)2018-07-27 01:41:20
        論“戎”的活動(dòng)區(qū)域
        區(qū)域發(fā)展篇
        區(qū)域經(jīng)濟(jì)
        關(guān)于四色猜想
        分區(qū)域
        公司治理與技術(shù)創(chuàng)新:分區(qū)域比較
        亚洲av熟女天堂系列| 海角国精产品一区一区三区糖心| 欧美黑人又粗又大久久久| 亚洲VR永久无码一区| 亚洲不卡av二区三区四区| 伊人久久大香线蕉午夜av| 国产美女自慰在线观看| 国产精品久久久久久久久免费观看| 国产一级一厂片内射视频播放| 久久精品色福利熟妇丰满人妻91| 国产亚洲2021成人乱码| 有码精品一二区在线| 精品亚洲一区二区视频| 国产精品狼人久久影院软件介绍| 无码欧美毛片一区二区三| 国产精品密播放国产免费看| 亚洲一区精品一区在线观看| 中文乱码字字幕在线国语| 48沈阳熟女高潮嗷嗷叫| 国产 中文 制服丝袜 另类| 日本高清一区二区三区在线| 妺妺窝人体色www在线| 国产免费av片在线观看播放| 国产美女裸身网站免费观看视频| 久久综合亚洲鲁鲁五月天| 无码国产精品久久一区免费| 国产成人www免费人成看片| 国产精品国产三级国产an| av在线免费观看大全| 亚洲熟妇av日韩熟妇在线| 国产精品区一区二区三在线播放| 久久99久久久精品人妻一区二区| 亚洲综合另类小说色区| 亚洲国产另类久久久精品黑人| 无码区a∨视频体验区30秒| 在线精品国产亚洲av麻豆| 在线观看热码亚洲av每日更新| 天天综合久久| 蜜桃视频成年人在线观看| 加勒比一本heyzo高清视频| 色婷婷五月综合亚洲小说|