亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度信息和區(qū)域?qū)Ρ榷鹊牧Ⅲw圖像顯著性區(qū)域檢測(cè)

        2016-10-14 02:36:52秦彩杰
        三明學(xué)院學(xué)報(bào) 2016年4期
        關(guān)鍵詞:深度區(qū)域檢測(cè)

        秦彩杰,管 強(qiáng)

        (三明學(xué)院 信息工程學(xué)院,福建 三明 365004)

        基于深度信息和區(qū)域?qū)Ρ榷鹊牧Ⅲw圖像顯著性區(qū)域檢測(cè)

        秦彩杰,管 強(qiáng)

        (三明學(xué)院 信息工程學(xué)院,福建 三明365004)

        為了確保現(xiàn)有的彩色圖像的顯著性模型可以應(yīng)用于立體圖像,提供一個(gè)擴(kuò)展框架,融合彩色圖像和深度圖像產(chǎn)生的顯著圖最終得到立體圖像顯著性結(jié)果。其中,前者利用現(xiàn)有的彩色圖像顯著性檢測(cè)算法,后者使用基于本文提出的基于區(qū)域?qū)Ρ榷鹊纳疃葓D像顯著性檢測(cè)算法。此外,還提出一種基于立體圖像顯著性檢測(cè)雙層模型,從兩個(gè)層面綜合考慮了顏色信息、深度信息及其相關(guān)性。實(shí)驗(yàn)表明,本文的模型可以簡(jiǎn)單高效的在立體圖像中精確定位顯著性對(duì)象,并且提高了檢測(cè)算法精確率和召回率。

        立體圖像;深度信息;拓展框架;區(qū)域?qū)Ρ榷?;顯著性檢測(cè)

        顯著性區(qū)域是指在人眼視覺(jué)處理機(jī)制的早期能夠刺激并吸引觀察者視覺(jué)注意的區(qū)域[1]。顯著性檢測(cè)領(lǐng)域發(fā)展的最初任務(wù)是關(guān)于人類(lèi)視覺(jué)選擇性注意機(jī)制的預(yù)測(cè),近年來(lái)研究重點(diǎn)延伸到物體對(duì)象級(jí)別的顯著性目標(biāo)檢測(cè),即從背景圖像分離出最吸引人類(lèi)視覺(jué)機(jī)制的對(duì)象。提取出來(lái)的顯著性目標(biāo)可以廣泛用于計(jì)算機(jī)領(lǐng)域的應(yīng)用,包括基于感興趣目標(biāo)物體的圖像分割[2-3],目標(biāo)識(shí)別[4],自適應(yīng)壓縮[5],內(nèi)容感知圖像編輯[6-7]和圖像檢索[8]等。

        顯著性來(lái)源于人類(lèi)視覺(jué)的稀缺性、獨(dú)特性、不可預(yù)測(cè)性及奇異性,并且與顏色、亮度、邊緣、梯度等圖像屬性有關(guān)。人類(lèi)視覺(jué)注意機(jī)制與人眼如何感知和處理外來(lái)刺激有著必然聯(lián)系,與包括認(rèn)知心理學(xué)[9]、神經(jīng)生物學(xué)和計(jì)算機(jī)視覺(jué)[10]在內(nèi)的多個(gè)學(xué)科都密切相關(guān)。根據(jù)人類(lèi)視覺(jué)注意機(jī)制的理論假設(shè)可知,人類(lèi)視覺(jué)系統(tǒng)只詳細(xì)處理圖像的某個(gè)局部而不是整幅圖像。Treisman[11]和Koch[12]等人的早期研究將人眼注意機(jī)制分為兩個(gè)階段:下意識(shí)的、快速的、自下而上的、信息驅(qū)動(dòng)的顯著區(qū)域提??;以及目標(biāo)依賴(lài)的、緩慢的、自上而下的、任務(wù)驅(qū)動(dòng)的顯著區(qū)域提取。

        隨著微軟公司的Kinect傳感器的問(wèn)世,基于Kinect提供的RGBD圖像的顯著性檢測(cè)吸引了大批國(guó)內(nèi)外專(zhuān)家學(xué)者的研究興趣。關(guān)于深度信息在顯著性分析中重要作用的研究還存在較多的不足和局限性:(1)如何將現(xiàn)階段已成熟的基于RGB圖像的顯著性檢測(cè)框架擴(kuò)展到RGBD領(lǐng)域;(2)將深度信息作為顯著性分析的唯一依據(jù),忽略了顏色信息和深度信息之間的互補(bǔ)性。

        為了解決上述問(wèn)題,通過(guò)引入融合策略將現(xiàn)有的彩色圖像的顯著性模型擴(kuò)展到深度圖像領(lǐng)域,從而建立基于RGBD圖像的顯著性檢測(cè)模型。該模型分別計(jì)算在全局、局部和偽背景三種情況下的對(duì)比度,通過(guò)圖像深度值的概率分布計(jì)算顯著性值,得到深度圖像的顯著性圖。然后將深度圖像與彩色圖像的顯著性目標(biāo)進(jìn)行融合得到立體圖像的顯著性圖,先計(jì)算超像素塊的顯著性值再分配得到像素的顯著性值。最后,利用顏色信息和深度信息之間的相關(guān)性和先驗(yàn)性理論,對(duì)獲得的顯著圖做進(jìn)一步約束。同時(shí)與其他5個(gè)典型算法進(jìn)行比較,實(shí)驗(yàn)證明,通過(guò)本文提出的深度圖像顯著性檢測(cè)算法和擴(kuò)展框架,不僅可以將現(xiàn)有的顯著性檢測(cè)算法擴(kuò)展到RGBD圖像領(lǐng)域,而且正確檢測(cè)出了顯著性對(duì)象,具有較高的精確率和召回率。

        1 立體圖像顯著性檢測(cè)擴(kuò)展框架

        為了保證現(xiàn)有的彩色圖像的顯著性檢測(cè)模型適用于立體圖像,在該部分提出了基于立體圖像的顯著性檢測(cè)模型,實(shí)現(xiàn)了將二維顯著性模型擴(kuò)展到立體圖像上。

        1.1擴(kuò)展框架

        該擴(kuò)展框架如圖1所示,包括3個(gè)主要步驟:(1)將輸入的立體圖像進(jìn)行預(yù)處理得到兩幅獨(dú)立的圖像,即RGB彩色圖像和深度圖像;(2)分別計(jì)算上述兩幅圖像的顯著性圖;(3)通過(guò)逐像素相乘的方式進(jìn)行融合得到立體圖像的顯著性圖。其中,為了計(jì)算深度圖像的顯著性圖,提出一種在多種情景下基于對(duì)比度的顯著性檢測(cè)算法。而彩色圖像的顯著性檢測(cè)可以使用任何一種現(xiàn)存的彩色圖像的顯著性檢測(cè)算法來(lái)實(shí)現(xiàn)。

        圖1 RGBD圖像顯著性檢測(cè)框架

        1.2深度圖像顯著性檢測(cè)

        一般認(rèn)為當(dāng)目標(biāo)物體和背景圖像具有不同或相差較大的深度值時(shí),目標(biāo)物體可以吸引人類(lèi)視覺(jué)的注意。基于上述假設(shè)提出一種基于區(qū)域?qū)Ρ榷鹊纳疃葓D像顯著性檢測(cè)算法,綜合考慮與周?chē)I(lǐng)域的相關(guān)性、全局獨(dú)特性和深度圖像的背景信息3個(gè)方面。該算法利用深度值的概率分布來(lái)估計(jì)局部、全局和偽背景下3種區(qū)域下的顯著性值,通過(guò)融合得到深度圖像的顯著性圖,如圖2。

        圖2 超像素分割下深度圖像3種區(qū)域示意圖

        首先使用SLIC算法[13]將深度圖像進(jìn)行超像素分割,得到N個(gè)互相不重疊的超像素塊。任意超像素塊P,定義其顯著性值S(P)等于3種區(qū)域下對(duì)比度的乘積,即

        其中函數(shù)C(·)計(jì)算超像素塊的對(duì)比度,ΨL={P1L,P2L,…,PnLL}表示局部區(qū)域下超像素塊的集合,如圖2 (b)所示,由超像素塊P周?chē)徲騼?nèi)nL個(gè)距離像素塊P最近的超像素塊組成;ΨG={P1G,P2G,…,PnGG}表示全局區(qū)域下超像素塊的集合,如圖2(c)所示,由深度圖像中的所有超像素塊組成;ΨB={P1B,P2B,…,PnBB}表示偽背景下的超像素塊的集合,如圖2(d)所示,由深度圖像的4個(gè)頂點(diǎn)領(lǐng)域內(nèi)的超像素塊組成。一般情況下圖像4個(gè)頂點(diǎn)領(lǐng)域內(nèi)的超像素塊屬于包含場(chǎng)景信息的背景圖像,可以為顯著性目標(biāo)的提取和分割提供約束。在某些特殊的情況下顯著性目標(biāo)可能會(huì)位圖像的邊界[14],即顯著性目標(biāo)位于圖像邊界比位于圖像4個(gè)頂點(diǎn)區(qū)域的概率更大,因此圖像頂點(diǎn)領(lǐng)域更可能屬于背景區(qū)域?;谏鲜黾僭O(shè)提出偽背景的概念。

        根據(jù)香農(nóng)的自信息理論可知,信源輸出一個(gè)消息提供的信息量等于信源的不確定度。即當(dāng)消息X出現(xiàn)的概率越小則一旦出現(xiàn)所獲得的信息量越大,消息X的自信息量可以表示為I(X)=-log(p(X)。利用自信息來(lái)衡量深度圖像中超像素塊的顯著性[15],即超像素塊在區(qū)域集合中出現(xiàn)的概率越低則越顯著。

        定義超像素塊的對(duì)比度如式(2)

        其中p(P|ΨK)表示在給定區(qū)域集合ΨK下超像素塊P的密度。定義超像素塊P的平均深度為d,給定區(qū)域內(nèi)集合ΨK超像素塊的平均深度,構(gòu)成集合

        根據(jù)顯著目標(biāo)的深度值分布情況,利用高斯核密度估計(jì)上述公式中的p(d|DK),即

        對(duì)深度圖像中所有的超像素塊進(jìn)行上述處理,可以得到深度圖像超像素級(jí)別的顯著性圖。像素的顯著性值等于其所在超像素塊的顯著性值,最終得到深度圖像像素級(jí)別的顯著圖。

        圖3中第1行是現(xiàn)有的彩色圖像顯著性檢測(cè)算法的實(shí)驗(yàn)結(jié)果,第2行是在此基礎(chǔ)上融合深度顯著圖的實(shí)驗(yàn)結(jié)果。其中sal是多情景下的基于對(duì)比度算法生成的顯著顯著圖。

        圖3 融合深度顯著圖后的立體圖像顯著性區(qū)域?qū)Ρ?/p>

        2 立體圖像顯著性檢測(cè)雙層模型

        雖然上述框架的融合策略對(duì)實(shí)驗(yàn)結(jié)果實(shí)現(xiàn)了改進(jìn),仍然存在前景顯著區(qū)域不連續(xù)的問(wèn)題,顯著目標(biāo)沒(méi)有高精度的邊緣信息。這是由于在上述框架中顏色信息和深度信息是作為兩個(gè)獨(dú)立的條件分別進(jìn)行處理,沒(méi)有考慮在同一幅圖像顏色和深度信息之間的相關(guān)性。為了解決這個(gè)問(wèn)題,提出一個(gè)高效算法從不同層面上綜合考慮外觀信息和深度信息。

        利用RGBD圖像的顏色和深度特征,同時(shí)考慮外觀信息和深度信息之間的相關(guān)性,對(duì)擴(kuò)展框架得到的顯著圖作進(jìn)一步改進(jìn),得到邊緣更加精細(xì)、輪廓更加清晰的顯著性圖。最后利用顯著性目標(biāo)的先驗(yàn)知識(shí)和顯著性種子,對(duì)獲得的顯著圖進(jìn)一步約束,提高顯著目標(biāo)的精確度和召回率。

        2.1基于特征對(duì)比的顯著性估計(jì)

        經(jīng)典的中心—周?chē)鷮?duì)比度原則同樣適用于立體圖像的顯著性檢測(cè)。綜合考慮顏色信息和深度信息,通過(guò)進(jìn)一步完善特征向量和密度估計(jì)函數(shù),將上節(jié)擴(kuò)展框架中的算法從深度空間推廣到RGBD空間。

        2.1.1特征選擇

        根據(jù)Wolfe[17]等人的研究發(fā)現(xiàn),顏色、尺度和空間位置等初級(jí)特征對(duì)人類(lèi)視覺(jué)的注意力有著不可忽視的導(dǎo)向作用?;谏鲜鼋Y(jié)論,用圖像的初級(jí)特征和深度信息共同定義立體圖像的圖像顯著特征。

        任意超像素塊P的特征向量表示為f=[c,l,r,d]T,其中c是超像素塊P在CIELab顏色空間上的顏色平均值;I表示超像素P中的像素的中心位置;r表示超像素塊P的區(qū)域大小,等于P中像素的總數(shù);d是超像素塊P內(nèi)像素的深度平均值。

        2.1.2密度估計(jì)函數(shù)

        太陽(yáng)光照射在地球表面,會(huì)使地表的溫度升高,地表的空氣受熱后就會(huì)變輕而上升。熱空氣上升后,與該位置在同一平面的冷空氣就會(huì)流動(dòng)以補(bǔ)充流失的空氣。熱空氣升到高空后又會(huì)變冷,從而下沉到地面……這種空氣的流動(dòng)就形成了風(fēng)。

        基于特征向量的RGBD圖像,利用加權(quán)的高斯核密度函數(shù)估計(jì)超像素塊的對(duì)比度,即

        2.2利用先驗(yàn)知識(shí)增強(qiáng)顯著性

        最后在上述顯著性圖的基礎(chǔ)上利用先驗(yàn)知識(shí)進(jìn)一步加強(qiáng)其顯著性。和以往算法的先驗(yàn)知識(shí)[18-20]不同,本文提出一種新的“對(duì)象感知”先驗(yàn)知識(shí),通過(guò)考慮前景物體的位置和大小關(guān)系進(jìn)一步突出顯著性目標(biāo)。這種先驗(yàn)知識(shí)用高斯模型表示為:

        其中,(xa,ya,za)是歸一化圖像坐標(biāo)系中像素a的坐標(biāo),該坐標(biāo)軸的X-Y平面對(duì)應(yīng)于圖像平面,Z軸刻畫(huà)圖像的深度信息;(μa,μa,μa)是圖像目標(biāo)中心的坐標(biāo),等于顯著性種子集合中所有種子的坐標(biāo)均值。通過(guò)實(shí)驗(yàn)選擇合適的閾值,在上述顯著圖上用閾值進(jìn)行二值化處理,將顯著值高的超像素塊分離出來(lái)作為顯著性種子,組成顯著性種子集合{s1,s2,…,sm}。

        圖4 立體圖像顯著性檢測(cè)雙層模型實(shí)驗(yàn)結(jié)果

        3 實(shí)驗(yàn)結(jié)果

        在本節(jié)中我們進(jìn)行了兩組實(shí)驗(yàn):(1)評(píng)估現(xiàn)有的幾種RGB顯著性檢測(cè)算法和融合了深度信息的RGBD顯著性檢測(cè)算法;(2)將本文提出的立體圖像顯著性檢測(cè)雙層模型和其他經(jīng)典三維立體檢測(cè)模型進(jìn)行比較,分析雙層模型的算法性能。

        3.1立體圖像擴(kuò)展框架實(shí)驗(yàn)

        通過(guò)基于區(qū)域?qū)Ρ榷鹊娘@著性檢測(cè)算法,評(píng)價(jià)本文提出顯著性檢測(cè)擴(kuò)展框架。選擇6種經(jīng)典的彩色圖像顯著性檢測(cè)算法,包括文獻(xiàn)[21[22],CA[23],CB[24]和RC[25]算法,兩種最新提出的算法:HS[26]和PCA[27]。從圖5中可以看出各個(gè)算法的精確率召回率曲線和Fβ度量,其中有“_D”的表示融合深度信息后的算法。

        圖5 利用本文提出的擴(kuò)展框架融合深度信息前后顯著性檢測(cè)算法的定量比較

        該實(shí)驗(yàn)中,為了測(cè)試提出算法的準(zhǔn)確性,計(jì)算準(zhǔn)確率和召回率曲線,用PR曲線評(píng)估各種計(jì)算顯著性方法。F值為準(zhǔn)確率和召回率的調(diào)和平均值,即:

        β2為控制精確性和完整性的權(quán)值,實(shí)驗(yàn)設(shè)置其值為0.3。

        實(shí)驗(yàn)中,利用SLIC超像素分割算法將輸入圖像分割為N=300互補(bǔ)重疊的超像素塊。對(duì)于任意超像素塊P,設(shè)置參數(shù)nL=40得到像素塊的局部鄰域集合ΨL,參數(shù)nB=50計(jì)算得到距離圖像4個(gè)角距離最近的像素塊集合ΨB,圖像中的所有超像素塊組成全局區(qū)域集合ΨG。在利用加權(quán)的高斯核密度函數(shù)估計(jì)超像素塊的對(duì)比度時(shí)設(shè)置參數(shù)nk=N=300。

        從圖像中可以直觀看出在原有算法的基礎(chǔ)上融入深度信息后,顯著性檢測(cè)算法的PR曲線和Fβ度量都有一定的程度的提高。這表明:(1)在彩色圖像的基礎(chǔ)上融合深度信息可以增強(qiáng)顯著性目標(biāo)的檢測(cè)效果;(2)本文提出的基于區(qū)域?qū)Ρ榷鹊娘@著性檢測(cè)算法對(duì)于RGBD立體圖像的顯著性檢測(cè)是有效的;(3)通過(guò)本文提出的擴(kuò)展框架可以成功的將現(xiàn)有的彩色圖像的檢測(cè)算法推廣到立體圖像領(lǐng)域。而且,圖4的實(shí)驗(yàn)室結(jié)果顯示當(dāng)目標(biāo)和圖像背景外觀顏色相似時(shí),深度對(duì)比度對(duì)顯著目標(biāo)的提取有很大的促進(jìn)作用。

        利用立體圖像擴(kuò)展框架進(jìn)行顯著性檢測(cè)的實(shí)驗(yàn),可以同時(shí)處理彩色圖像和深度圖像得到對(duì)應(yīng)的顯著性圖,不會(huì)增加程序的運(yùn)行時(shí)間。因此,擴(kuò)展框架算法與RGB顯著性檢測(cè)算法的時(shí)間復(fù)雜度相同或相似,并不會(huì)出現(xiàn)指數(shù)級(jí)別的快速增長(zhǎng)。

        3.2基于立體圖像顯著性檢測(cè)雙層模型實(shí)驗(yàn)

        本文選擇融合深度信息后效果最優(yōu)的 3種方法:HS_D,CB_D和PCA_D,和最近提出基于RGBD顯著區(qū)域檢測(cè)的新算法SVR[28]和LS[29]算法作為基準(zhǔn)來(lái),比較立體圖像顯著性檢測(cè)雙層模型的算法性能。

        圖6顯示是所有算法基于同一種立體圖像數(shù)據(jù)集得到實(shí)驗(yàn)結(jié)果的PR曲線、Fβ度量和AUC值(Area Under roc Curve)。可以觀察到本文提出的立體圖像雙層模型的算法效率在各個(gè)方面都優(yōu)于其他算法。圖7是在若干立體圖像上各個(gè)算法的定性比較結(jié)果。我們可以看出,本文提出的雙層模型在目標(biāo)和背景圖像外觀相似的情況下,能夠更加精準(zhǔn)的定位圖像中的顯著性目標(biāo)。實(shí)驗(yàn)結(jié)果證明,從不同層面上綜合考慮外觀信息和深度信息,利用顏色和深度之間的相關(guān)性,能大幅度的提高立體圖像的顯著性檢測(cè)效果。

        圖6 立體圖像顯著性檢測(cè)雙層模型定量比較

        圖7 立體圖像顯著性檢測(cè)雙層模型定性比較

        4 結(jié)論

        本文對(duì)于立體圖像的顯著性檢測(cè)進(jìn)行一個(gè)比較全面的研究,包括二維模型的擴(kuò)展框架和提出立體圖像顯著性雙層模型算法。實(shí)驗(yàn)結(jié)果表明,在現(xiàn)存的基于顏色的顯著性檢測(cè)算法基礎(chǔ)上,通過(guò)增加圖像的深度信息并考慮顏色和深度信息之間的相關(guān)性,可以極大的提高立體圖像的顯著性檢測(cè)效果,特別是當(dāng)顯著性目標(biāo)的深度距離很小并且和背景圖像有著明顯的深度差異時(shí)。通過(guò)并行處理彩色圖像和深度圖像的顯著性,該算法的時(shí)間復(fù)雜度與二維模型顯著性檢測(cè)算法的時(shí)間復(fù)雜度相同或相似,不會(huì)出現(xiàn)指數(shù)級(jí)別的快速增長(zhǎng)。實(shí)驗(yàn)表明,相比于其他的立體圖像顯著性檢測(cè)算法,本文提出的雙層模型算法在正確率和召回率上都明顯優(yōu)于其它方法,并且簡(jiǎn)單高效。

        [1]汪婷,方帥,于磊.基于立體視覺(jué)分析的顯著性區(qū)域檢測(cè)算法[J].電子測(cè)量與儀器學(xué)報(bào),2015(3):399-407.

        [2]HAN J,NGAN K N,LI M,et al.Unsupervised extraction of visual attention objects in color images[J].IEEE Transactions on Circuits&Systems for Video Technology,2006,16(1):141-145.

        [3]KO B C,NAM J Y.Object-of-interest image segmentation based on human attention and semantic region clustering.[J]. Journal of the Optical Society of America A,2006,23(10):2462-70.

        [4]RUTISHAUSERU,WALTHERD,KOCHC,et al..Is bottom-up attention useful for object recognition?[C]//IEEE International Conference on Computer Vision and Pattern Recognition(CVPR 2004),2004:37-44.

        [5]CHRISTOPOULOS B C,SKODRAS A,EBRAHIMI T.The JPEG2000 still image coding:an overview[C]//IEEE Transactions on Consumer Electronics,2012,46(4):1103-1127.

        [6]WANG Y S,TAI C L,SORKINE O,et al.Optimized scale-and-stretch for image resizing[J].AcmTransactionsonGraphics,2008,27(5):32-39.

        [7]REYNOLDS J H,DESIMONE R.Interacting Roles of Attention and Visual Salience in V4[J].Neuron,2003,37(5):853-63.

        [8]CHENT,CHENGMM,TANP,etal.Sketch2Photo:internetimagemontage[J].AcmTransactionsonGraphics,2009,28(5):89-97.

        [9]TEUBER H L.Physiological psychology[J].Annual Review of Psychology,1955,6(1):267-296.

        [10]HEMAMI S,ESTRADA F,SUSSTRUNK S.Frequency-tuned salient region detection[C]//IEEE International Conference on Computer Vision and Pattern Recognition(CVPR 2009),2009:1597-1604.

        [11]TREISMAN A M,GELADE G.A feature-integration theory of attention[J].Cognitive Psychology,1980,12(1):97-136.

        [12]KOCH C,ULLMAN S.Shifts in selective visual attention:towards the underlying neural circuitry[J].Human Neurobiology,1985,4(4):219-27.

        [13]ACHANTA R,SHAJI A,SMITH K,et al.SLIC Superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis&Machine Intelligence,2012,34(11):2274-2282.

        [14]WEI Y,WEN F,ZHU W,et al.Geodesic saliency using background priors[C]//European Conference on Computer Vision,2012:29-42.

        [15]BRUCE N D B,TSOTSOS J K.Saliency based on information maximization[J].Advances in Neural Information Processing Systems,2005,18(3):298-308.

        [16]RAMSAY P H.Multivariate density estimation,theory,practice,and visualbation[J].Technometrics,1993,35(4):451-452.

        [17]WOLFE J M,HOROWITZ T S.What attributes guide the deployment of visual attention and how do they do it?[J]. Nature Reiview Neuroscience,2004,5(6):495-501.

        [18]JUDD T,EHINGER K,DURAND F,et al.Learning to predict where humans look[C]//2009:2106-2113.

        [19]SHEN X,WU Y.A unified approach to salient object detection via low rank matrix recovery[C]//IEEE Conference on Computer Vision&Pattern Recognition,2012:853-860.

        [20]YAN Q,XU L,SHI J,et al.Hierarchical saliency detection[C]//IEEE Conference on Computer Vision and Pattern Recognition,2013:1155-1162.

        [21]BORJIA,SIHITEDN,ITTIL.Salientobjectdetection:abenchmark[J].ImageProcessingIEEETransactionson,2015,24(12):414-429.

        [22]CHANG K Y,LIU T L,CHEN H T,et al.Fusing generic objectness and visual saliency for salient object detection [C]//IEEE International Conference on Computer Vision,2011:914-921.

        [23]GOFERMAN S,ZELNIK-MANOR L,TAL A.Context-aware saliency detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(10):1915-1926.

        [24]JIANG H,WANG J,YUAN Z,et al.Automatic salient object segmentation based on context and shape prior[C]// British Machine Vision Conference,2011:1-12.

        [25]CHENG M M,ZHANG G X,MITRA N J,et al.Global contrast based salient region detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,37(3):409-416.

        [26]YANQ,XUL,SHIJ,etal.Hierarchicalsaliencydetection[C]//IEEEConferenceonComputerVisionandPatternRecognition.,2013:1155-1162.

        [27]RAN MARGOLIN,AYELLET TAL,LIHI ZELNIKMANOR.What makes a patch distinct?[C]//2013:1139-1146.

        [28]DESINGH K,MADHAVA K K,RAJAN D,et al.Depth really matters:improving visual salient region detection with Depth[C]//British Machine Vision Conference,2013,98:1-11.

        [29]CIPTADIA,HERMANST,REHGJ.Anindepthviewofsaliency[C]//BritishMachineVisionConference,2013,112:111.

        (責(zé)任編輯:朱聯(lián)九)

        Saliency Region Detection Method Based on Stereo Vision Analysis and Regional Contrast

        QIN Cai-jie,GUAN Qiang
        (School of Information Engineering,Sanming University,Sanming 365004,China)

        In order to ensure the existing saliency region model on color image can be applied to stereo image, an extension framework for merging color-produced saliency map and depth-produced saliency map to obtain the significant results of stereo images is provided. Among them, the former uses existing color image saliency detection algorithm, the latter uses the algorithm based on the regional contrast image depth significantly detection which is proposed in this paper. In addition, a two-layer saliency region detection model based on stereo image is also presented, considering the color information, the depth information and the correlation from two aspects. The experimental result shows that the model could accurately position salient objects in the stereo image simply and efficiently, and improve the precision rate and recall rate of the detection algorithm.

        stereo image;depth information;extension framework; region-contrast model; saliency detection

        TP391.41

        A

        1673-4343(2016)04-0013-08

        10.14098/j.cn35-1288/z.2016.04.003

        2016-03-26

        福建省中青年教師教育科研項(xiàng)目(JA13292);國(guó)家自然科學(xué)基金項(xiàng)目(11401341)

        秦彩杰,女 ,山東煙臺(tái)人,講師。主要研究方向:數(shù)字圖像處理。

        猜你喜歡
        深度區(qū)域檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        深度理解一元一次方程
        深度觀察
        深度觀察
        深度觀察
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        久久视频在线| 亚洲av午夜福利一区二区国产 | 久久免费精品日本久久中文字幕 | 优优人体大尺大尺无毒不卡| 女人喷潮完整视频| 屁屁影院一区二区三区| 美腿丝袜一区二区三区| 日本精品久久不卡一区二区| 人人爽人人爽人人片av| 夜夜爽一区二区三区精品| 午夜亚洲国产精品福利| 久久久精品国产三级精品| 欧美成人午夜免费影院手机在线看| 精品日韩欧美一区二区在线播放| 中文字幕av一区二区三区| 中文字幕av在线一二三区| 免费视频一区二区| 骚片av蜜桃精品一区| 亚洲av区一区二区三区| 日韩人妻中文无码一区二区| 影音先锋每日av色资源站| 精品熟女少妇免费久久| 麻豆国产精品久久天堂 | 欧美中文在线观看| 蜜桃在线观看免费高清| 最新中文字幕一区二区| 国产性生大片免费观看性| 成年女人A级毛片免| 亚洲av熟女天堂久久天堂| 高清毛茸茸的中国少妇| 天天干夜夜操| 杨幂国产精品一区二区| 青青青免费在线视频亚洲视频 | 国产高清成人午夜视频| 国产操逼视频| 毛片无遮挡高清免费久久| 国产洗浴会所三级av| 欧美丰满熟妇bbbbbb| 日本一区二区不卡视频| 日本岛国一区二区三区| 亚洲第一女人av|