亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種基于圖像切線方向感受野的輪廓檢測方法

        2014-06-27 05:46:25傅瑞罡王平高穎慧
        關(guān)鍵詞:朝向切線輪廓

        傅瑞罡,王平,高穎慧

        (國防科學技術(shù)大學電子科學與工程學院ATR重點實驗室,長沙 410073)

        一種基于圖像切線方向感受野的輪廓檢測方法

        傅瑞罡,王平,高穎慧

        (國防科學技術(shù)大學電子科學與工程學院ATR重點實驗室,長沙 410073)

        輪廓檢測是實現(xiàn)基于形狀的目標識別任務(wù)的關(guān)鍵,然而由于圖像背景中存在大量的無關(guān)干擾成分,因此要從自然場景中自動地檢測出目標的輪廓是非常困難的。人類可以很容易地從環(huán)境中識別物體,這得益于人類的視覺感知機制。根據(jù)此機制,建立了基于圖像切線方向感受野的輪廓檢測方法。本方法用Gabor函數(shù)模擬感受野中心神經(jīng)元的響應,非經(jīng)典感受野的建模充分考慮了鄰域刺激與相對位置、距離、朝向之間的關(guān)系。本方法與傳統(tǒng)的基于人類視覺感知機制方法的最大不同在于圖像點的切線方向選擇對應朝向的中心神經(jīng)元,物理意義明確。實驗結(jié)果表明:該方法能更有效地抑制紋理邊緣并減少輪廓自身的破壞,具有更好的檢測準確性和穩(wěn)定性。

        輪廓;人類視覺感知機制;感受野;切線方向

        輪廓提取是機器視覺和圖像理解中的基礎(chǔ)問題。由于輪廓通常掩藏在紋理中,因此在復雜背景條件下檢測出目標輪廓是輪廓檢測算法的難點。傳統(tǒng)的邊緣檢測算法對輪廓與紋理不加區(qū)分,檢測結(jié)果中往往包含大量的偽輪廓信息。

        輪廓提取方法受到學術(shù)界的廣泛關(guān)注[1-11],基于人類視覺感知機制的輪廓提取算法是其中重要的一股分支。科學家對人類的視覺感知機制研究已有多年,研究結(jié)果表明[1]:人類大腦視皮層中,絕大部分的V1區(qū)神經(jīng)元具有方向選擇性,它會對視野中特定區(qū)域的刺激產(chǎn)生響應,描述這些神經(jīng)元響應的區(qū)域稱為感受野(也稱經(jīng)典感受野)。當外界刺激與其感受野朝向重合時,神經(jīng)元活動最活躍;當外界刺激與感受野朝向正交時,神經(jīng)元的活動最低迷。同時,感受野的活動還受其外部周邊區(qū)域的影響,這片周邊區(qū)域被稱為非經(jīng)典感受野,非經(jīng)典感受野對感受野既有抑制作用也有增強作用。得益于視覺系統(tǒng)神經(jīng)元的這種感受野特性,人類能很容易地觀察到物體的輪廓信息而忽略紋理信息。

        Grigorescu等[2]利用非經(jīng)典感受野的抑制特性進行輪廓檢測,雖然減少了環(huán)境紋理的影響,但只研究了抑制作用,且只考慮了各向異性抑制和各向同性抑制兩種極端情況。桑農(nóng)等[11]提出的方法雖然在鄰域神經(jīng)元的抑制作用上考慮得更加詳盡,但忽略了神經(jīng)元間存在增強作用。杜曉鳳等[6]綜合上述缺陷并改進了輪廓提取算法。

        但是,上述這些方法沒有給出明確的感受野朝向意義,同幅圖像的某一像素對應的感受野朝向會隨著方法任一參數(shù)的變化而變化。本文在對比Gabor函數(shù)特性和感受野特性后,提出由像素的切線方向選擇對應朝向的中心神經(jīng)元,并綜合考慮非經(jīng)典感受野的增強抑制作用,提出一種新的輪廓提取算法。經(jīng)仿真實驗驗證,該輪廓提取算法能有效、準確地提取圖像中的輪廓。

        1 算法原理

        1.1 中心神經(jīng)元響應

        二維Gabor函數(shù)常用于模擬簡單神經(jīng)元的響應,因為它能有效地描述哺乳動物的視皮層簡單細胞感受野剖面[11]。本文通過Gabor函數(shù)來模擬感受野中心神經(jīng)元響應。

        二維Gabor函數(shù)形式為

        圖1 奇偶Gabor函數(shù)

        用奇(φ=π/2)、偶(φ=0)Gabor濾波器分別卷積輸入圖像I,得Godd,Geven:

        為了得到具有位移不變性的輪廓,本文將2個相位濾波結(jié)果組合構(gòu)成Gabor能量濾波器[8]來模擬細胞的響應函數(shù),其表達式為

        本文實驗中設(shè)σ=2.4,σ/λ=0.56,γ=0.5,θ置為輸入圖像切線方向角O(x,y)。

        1.2 圖像切線方向場O(x,y)

        本文將θ置為圖像的切線方向角,如圖2所示。使用Sobel算子求輸入圖像I(x,y)的水平、豎直方向上的偏導數(shù)Δx,Δy,求切線角度O(x,y)= atan(Δy/Δx)。此時O(x,y)的取值范圍為[-π/2,π/2],執(zhí)行操作將O(x,y)的取值范圍調(diào)整至[0,π)。假設(shè)有n種朝向的神經(jīng)元,于是將[0,π)均等劃分為n個子區(qū)間,第i個子區(qū)間為[(2i+1)π/2n,(2i+3)π/ 2n),i=-1,0,…,n-2。若O(x,y)落于區(qū)間[(2i+1)π/2n,(2i+3)π/2n),則置O(x,y)=(i +1)π/n。圖3為圖像神經(jīng)元響應的流程。

        圖2 Gabor函數(shù)中的朝向參數(shù)θ選為圖像的切線方向

        圖3 圖像神經(jīng)元響應流程,n=16

        1.3 非經(jīng)典感受野模擬

        非經(jīng)典感受野描述的是經(jīng)典感受野的外周區(qū)域,對經(jīng)典感受野具有增強抑制作用。圖4很好地展現(xiàn)了這種現(xiàn)象。

        圖4 現(xiàn)象展示

        從圖4可以看到:雖然中間的小方形線段與斜線同等粗細,但是小方形線段卻顯得比斜線亮很多。這是因為在斜線背景下,人類視覺神經(jīng)元的非經(jīng)典感受野對斜線的成像起了抑制作用,而對于方形線段,這種抑制作用相對小很多。

        假定(x',y')是中心神經(jīng)元的周邊神經(jīng)元坐標,中心神經(jīng)元(x,y)有增強區(qū)域P和抑制區(qū)域N。定義感受野中心(x,y)的綜合響應強度如下:

        其中,a,b為控制常數(shù)。

        本文采用環(huán)狀區(qū)L來模擬神經(jīng)元(x,y)的非經(jīng)典感受野。抑制區(qū)域位于與中心神經(jīng)元朝向垂直方向的兩側(cè),沿著中心神經(jīng)元朝向的是增強區(qū)域[5]。

        圖5 環(huán)形感受野L,r=σ,R=2σ,φ=15°

        其中:θ是位于坐標(x,y)的神經(jīng)元的朝向,在θ上下各偏轉(zhuǎn)φ/2的位置為增強區(qū)域P,其余為抑制區(qū)域N。考慮到距離的影響,系數(shù)應隨與中心距離的增加而變小。在本文中,系數(shù)由DoG+(x',y',σ)函數(shù)生成:

        對于增強區(qū)域,Δθ越小,增強效果越強,用cos(Δθ)模擬;對于抑制區(qū)域,Δθ越小,抑制效果越強,用exp(-8(Δθ/π)1.5)模擬。

        綜合上述位置、距離和方向的影響后得到:

        1.4 細化

        本文采用Canny算法[4]中的非最大值抑制方法對1.3節(jié)產(chǎn)生的能量圖結(jié)果G'(x,y)進行細化處理,即:只有當該點的強度大于沿該點梯度方向上的2個相鄰像素的強度時才保留該點,否則置為零。本文采用線性插值法計算該點梯度方向上2個相鄰像素的強度。圖6是本文細化方法的簡單示意。

        圖6 細化方法示意

        如圖6所示,若G'(j,i)<G'(j-1,i-1)* bleft+G'(j,i-1)*aleft或G'(j,i)<G'(j+1,i+1) *aright+G'(j,i-1)*bright,那么G'(j,i)置為零。

        1.5 二值化

        用雙門限分割法做進一步二值化處理。[Tl,Th]為雙門限,Th為大于Gabor能量圖G'(x,y)中(1-p)像素點的能量值,Tl=0.5Th。

        2 算法實現(xiàn)流程

        1)計算輸入圖像的切線方向場;

        2)用奇偶Gabor濾波器對輸入圖像濾波,得到圖像的Gabor能量圖(即神經(jīng)元的響應);

        3)用1.3節(jié)介紹的模型計算非經(jīng)典感受野的抑制區(qū)、增強區(qū)系數(shù),并通過式(1)求解非經(jīng)典感受野影響后的能量圖;

        4)對得到的能量圖做非最大抑制處理,實現(xiàn)細化;

        5)用雙門限分割法進行二值化;

        6)性能評估。

        算法實現(xiàn)流程見圖7。

        3 實驗結(jié)果分析

        本文在標準的邊緣檢測圖像數(shù)據(jù)庫(來源于http://www.cs.rug.nl/~imaging)中抽取2幅圖像Hyena,Elephant_2作為輸入圖像,同時選擇經(jīng)典的Canny算子[4]和Non-CRF的各向同性算法[2]與本文算法進行比較。圖8展示了各輪廓提取算法的定性比對結(jié)果。

        圖7 算法實現(xiàn)流程

        圖8 各算法的定性比對

        比較Hyena的各輸出圖像可以看到:本文方法明顯抑制了紋理邊緣;雖然該方法相比各向同性算法對Elephant_2圖像的紋理邊緣抑制得并不明顯,但觀察象鼻的連續(xù)性可以發(fā)現(xiàn),本方法有效減少了輪廓破壞,改進了傳統(tǒng)邊緣檢測方法的輪廓提取效率。

        為了定量地比較這3種算法的效果,本文采用文獻[10]中的評測方法。假設(shè)EDO和BDO分別表示理想輸出圖像DO的邊緣和背景的像素集; ED和BD分別表示各種算法的輸出圖像D的輪廓和背景的像素集。那么,真實的輪廓集合可以表示為E=ED∩EDO,遺漏的輪廓集合可以表示為EFN=BD∩EDO,虛假的輪廓可以表示為EFP=ED∩BDO。

        然而,由于細化后實際得到的圖像D的輪廓點坐標幾乎不可能完全與理想輪廓圖DO中的輪廓點坐標吻合,所以本實驗中,凡在理想輸出輪廓點坐標附近4×4鄰域內(nèi),D中有點存在,就認為是找到了該理想輪廓點。

        其中,card(X)代表求集合X中的元素的個數(shù)。

        從式(2)可以看出:P是[0,1]范圍的一個數(shù)值,如果算法能將理想的輪廓完全提取出來并且沒有將背景錯誤地檢測為輪廓,那么P= 1;一般情況下P小于1,如果錯誤的檢測越多,P就越趨近于0。

        表1 各算法的評測值P比對

        表1列出了各種算法效果較好時的測評值P,其中canny的參數(shù)設(shè)為p=0.1,σ=2.4(Hyena); p=0.1,σ=2.4(Elephant_2)。Isotropic方法的參數(shù)σ=2.0,p=0.1,α=1.0(Hyena);σ=2.0,p= 0.1,α=1.0(Elephant_2)。本文方法的參數(shù)σ= 2.4,a=1.2,b=2.7,p=0.04(Hyena);σ=2.4,a=1.4,b=2.8,p=0.03(Elephant_2)。

        可以明顯看到:本文提出的方法評測值大于其他方法的評測值,即本文方法極大地提高了輪廓檢測性能。

        4 結(jié)束語

        輪廓檢測是實現(xiàn)基于形狀的目標識別任務(wù)的關(guān)鍵。只有盡可能地提取完整的目標輪廓,才能使目標識別更加準確。本文提出的輪廓檢測方法基于人類視覺感知機制,由圖像點的切線方向選擇對應的神經(jīng)元,然后在充分考慮非經(jīng)典感受野的各種特性后,建立了新的非經(jīng)典感受野模型。

        最后的實驗結(jié)果表明:在復雜背景情況下的目標輪廓檢測中,本文方法比傳統(tǒng)方法表現(xiàn)出了更好的性能,輪廓更加清晰,且更易抑制背景中的紋理。但是由于Sobel算子容易受到圖像噪聲的影響,因此如何提升算法的抗噪能力是后續(xù)的主要工作。

        [1]Dragoi V,Sur M.Dynamic properties of recurrent inhibition in primary visual cortex:contrast and orientation dependence of contextual effects[J].J Neurophysiol,2000,83(2):1019-1030.

        [2]Grisgorescu C,Petkov N,Westenberg M A.Contour detection based on nonclassical receptive field inhibition[J].IEEE Transactions on Image Proccessing,2003,12 (7):729-739.

        [3]Li Dongyang,Wang Ping,Gao Yinghui,et al.Contour extraction improved by gradient saliency detection[C]//5th International Congress on Image and Signal Processing.Chengdu:[s.n.],2012:1009-1012.

        [4]Canny J.A computatational approach to edge detection[J].IEEE Trans.PAMI,1986,8(6):679-698.

        [5]Kapadia M K,Westheimer G,Gilbert C D.Spatial distribution of contextual interactions in primary visual cortex and in visual perception[J].Neurophysiol,2000,84(4): 2048-2062.

        [6]Du Xiao-feng,Li Cui-h(huán)u,Li Jing.Contour detection based on compound receptive field[J].Journal of Electrics and Information Technology,2009,31(7):1630-1634.

        [7]Shou Tian-de,Zhou Yi-feng.Orientation and direction sensitivity of cells in subcortical structures of the visual system[J].Acta Physiologica Sinica,1996,48(2):105-112.

        [8]Tan T N.Texture edge detection by modeling visual cortical channels[J].Pattern Recognition,1995,28(9):1283-129.

        [9]蔡超,王夢.基于視覺感知機制的輪廓檢測方法[J].華中科技大學學報:自然科學版,2011,39(7):22-25.

        [10]Grisgorescu C,Petkov N,Westenberg M A.Contour and boundary detection improved by surround suppression of texture edges[J].Image and Vision Computing,2004,22 (8):609-622.

        [11]Sang Nong,Tang Qi-ling,Zhang Tian-xu.Contour detection based on inhibition of primary visual cortex[J].Journal of Infrared and Millimeter Waves,2007,26(1): 47-51.

        (責任編輯 楊黎麗)

        Contour Detection Method Based on Receptive Field towards the Tangential Direction

        FU Rui-gang,WANG Ping,GAO Ying-h(huán)ui
        (School of Electronic Science and Engineering,ATR Key Laboratory,National University of Defense Technology,Changsha 410073,China)

        Contour detection plays an important role in shape-based object recognition tasks.It is an intractable problem of how to detect the contour of object from natural scenes automatically.Thanks to the human visual perception system,human can identify objects easily.According to this system,this paper presents a contour detection method based on receptive field towards the tangential direction.This method simulated the response function of single visual cell by Gabor function.A new non-classical receptive field model was constructed by fully considering the difference in distance,position and direction between neighboring stimuli and the central neuron.The salient difference between this method and those traditional methods based on human visual perception system is that the preferred orientation is selected by the direction of tangent and this gives“the preferred orientation”a physical meaning.The experimental results show that our model has a better detection accuracy and stability.Key words:contour;human visual perception system;receptive field;the tangential direction

        TP301

        A

        1674-8425(2014)04-0083-06

        10.3969/j.issn.1674-8425(z).2014.04.018

        2014-01-15

        傅瑞罡(1992—),男,浙江浦江人,碩士研究生,主要從事圖像處理研究。

        傅瑞罡,王平,高穎慧.一種基于圖像切線方向感受野的輪廓檢測方法[J].重慶理工大學學報:自然科學版,2014(4):83-88.

        format:FU Rui-gang,WANG Ping,GAO Ying-h(huán)ui.Contour Detection Method Based on Receptive Field towards the Tangential Direction[J].Journal of Chongqing University of Technology:Natural Science,2014(4):83-88.

        猜你喜歡
        朝向切線輪廓
        朝向馬頭的方向
        遼河(2022年1期)2022-02-14 21:48:35
        朝向馬頭的方向
        遼河(2022年1期)2022-02-14 05:15:04
        圓錐曲線的切線方程及其推廣的結(jié)論
        OPENCV輪廓識別研究與實踐
        切線在手,函數(shù)無憂
        基于實時輪廓誤差估算的數(shù)控系統(tǒng)輪廓控制
        烏龜快跑
        過圓錐曲線上一點作切線的新方法
        在線學習機制下的Snake輪廓跟蹤
        計算機工程(2015年4期)2015-07-05 08:27:39
        朝向坐標
        上海制造(2013年11期)2014-03-26 08:02:06
        天堂在线资源中文在线8| 久久青草亚洲AV无码麻豆| 一区二区三区蜜桃在线视频| 亚洲成人av在线播放不卡| 亚洲国产中文字幕视频| 一区二区三区乱码在线 | 欧洲 | 亚洲成人小说| 五月婷婷激情六月| 大岛优香中文av在线字幕| 中国老熟女露脸老女人| 国产亚洲精品a片久久久| 亚洲人成无码www久久久| 最新国产在线精品91尤物| 一本大道久久精品一本大道久久 | 天天噜日日噜狠狠噜免费| 综合三区后入内射国产馆| 九一成人AV无码一区二区三区| 国产精品亚洲av一区二区三区| 国产午夜视频在线观看免费| 亚洲 自拍 另类小说综合图区| 97se在线| 美女扒开内裤露黑毛无遮挡| 黄色影院不卡一区二区| 色欲欲www成人网站| 国产av一区二区三区无码野战| 高清偷自拍第1页| 久久无码高潮喷水免费看| 国产免费一区二区三区在线观看| 少妇被又大又粗又爽毛片久久黑人 | 亚洲精品白浆高清久久久久久 | 亚洲黄色在线看| 久久精品国产自产对白一区| 正在播放强揉爆乳女教师| 激情另类小说区图片区视频区| 国产一区二区在线观看视频免费 | 无码伊人66久久大杳蕉网站谷歌| 人妻中文字幕一区二区视频 | 欧美亚洲日韩国产人成在线播放| 两个人免费视频大全毛片| av网站大全免费在线观看| 无码国模国产在线观看|