亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于顯著性與尺度空間的紅外弱小目標檢測

        2015-03-29 02:10:54辛云宏
        激光與紅外 2015年4期
        關鍵詞:尺度空間像素點尺度

        周 姣,辛云宏

        (陜西師范大學物理與信息技術學院,陜西 西安710119)

        1 引言

        紅外探測系統(tǒng)已被廣泛地應用于紅外警戒領域中,準確快速地識別出來襲目標,是紅外探測技術的核心所在。由于紅外目標所處環(huán)境信噪比低,對比度差[1]。所以,紅外目標檢測是一個挑戰(zhàn)性較大的關鍵課題。目前,國內(nèi)外學者針對此問題做了諸多研究:如文獻[2]通過頻域相關系數(shù)及貝葉斯概率檢測紅外目標,該方法可準確地識別出強背景下的目標,但若初始化位置選取不恰當將會影響檢測結果;文獻[3]利用多子圖通道的全局與局部顯著性;接著計算三種顏色空間內(nèi)的顯著區(qū)域圖;最后通過均值優(yōu)化及高斯平滑,得到最終的顯著目標圖,此方法能清晰的凸顯目標,對邊緣的顯著檢測較為突出,不足的是算法計算量較大;文獻[4]在自下而上的模式中加入圖像的頻域幅值信息以及結合多尺度熵來重構顯著目標圖,以此來達到目標檢測,該方法檢測效果佳,但工程實時性不好;文獻[5]利用尺度空間濾波來優(yōu)化骨骼細化算法,該方法抗噪性穩(wěn)健且自適應強,有效地提高了預處理速度;文獻[6]采用改進的二維自適應最小均方濾波窗口獲得預測背景,再利用背景減法差分出紅外小目標,該算法有較強的背景抑制能力,可在調(diào)節(jié)自適應尺度窗口時較為繁復;文獻[7]提出了適用于目標環(huán)境信息變化的檢測算法,該方法能有效地檢測出無先驗知識的目標,不足的是對多目標檢測效果不好;文獻[8]先利用梯度算子來處理圖像,再將其小波分解,用多尺度互能量交叉函數(shù)進行背景雜波抑制并通過區(qū)域生長來分割出紅外目標,此方法檢測效率高,可小波算法本身比較復雜;文獻[9]提出了利用曲率極大值,定義了hat-transform描述符并建立其尺度空間的算法,其目標識別率較高,但程序耗時較長;文獻[10]利用多步長梯度融合三次確認法來檢出目標,該方法簡單有效,不足的是閾值選取是靠經(jīng)驗來定;文獻[11]提出RD-LBRF濾波結合拉普拉斯尺度空間理論與最優(yōu)化信雜比模型的方法,該算法可有效地抑制背景雜波,具有較低的誤檢率;文獻[12]提出多結構形態(tài)學濾波和二維熵的檢測方法,該算法可有效的檢測出前景目標。

        基于以上分析,本文提出了一種基于顯著性與尺度空間的紅外弱小目標檢測算法。不同場景下的實驗結果表明,所提方法可有效檢測出紅外弱小目標,且運算簡單,工程實時性好。

        2 目標模型和算法流程

        2.1 紅外小目標模型

        紅外弱小目標,顧名思義就是在紅外圖像上呈現(xiàn)為亮度較弱,所占尺寸與面積極小的點狀光斑,其所含像元數(shù)目少,缺乏結構、形狀等信息。一幅含有紅外弱小目標的圖像依照點擴散原理,可將其目標模型表示為[13]:

        其中,(xm,ym)為目標的中心坐標;d是目標的直徑;σ為目標擴散尺度函數(shù);Iv為目標的峰值強度。當目標的中心坐標確定后,目標的灰度峰值也隨之平穩(wěn)。

        2.2 算法流程

        一般來講,紅外小目標的背景通常為云團、海面等大面積變化緩慢的中低頻成分,與高頻成分的目標之間具有顯著的差異?;诖颂匦裕覀兙拖葟膱D像差異問題入手,通過顯著性區(qū)域檢測來預處理原始紅外圖像,得到潛在的目標范圍,再運用DoG算子生成的尺度空間來準確定位紅外小目標。算法流程圖如圖1所示。

        圖1 算法流程圖Fig.1 Flowchart of the algorithm

        3 算法描述

        3.1 顯著性檢測

        眾所周知,紅外弱小目標通常是一個亮斑或亮點,其本身是顯著的。同時,圖像中的背景雜波區(qū)域,也是顯而易見的。鑒于此,就先將紅外圖像的顯著性區(qū)域包括紅外目標及其高頻背景等干擾檢測出來,然后在凸顯出來的顯著區(qū)域內(nèi)進行雜波抑制與紅外小目標的定位。圖像的顯著檢測算法眾多,本文將用頻域殘差法[14]來實現(xiàn)顯著區(qū)域的提取。由于人眼系統(tǒng)對突出變化的敏感,因此,變動的區(qū)域就是本文所需的顯著區(qū)域。若輸入圖像為I(x,y),那么,本文圖像顯著區(qū)域S(x,y)的檢測過程如下表示:

        其中,A(f)表示為振幅譜;P(f)為相位譜;L(f)為log振幅譜;R(f)為譜殘差;S(x,y)為顯著圖;Z、R分別表示為在頻域中復數(shù)的模與相位;fft指的是傅里葉變換;ifft為反傅里葉變換;log,*表示對數(shù)與卷積運算;hn(f),g(x,y)表示均值與高斯濾波模板。

        頻域殘差法僅用傅里葉變換與反變換,及高斯模糊濾波等簡單步驟就可得到圖像所需要的顯著區(qū)域,其算法易懂,運算方便,由該方法所得的預處理后顯著性區(qū)域效果如圖2所示。

        圖2 預處理后的顯著性區(qū)域效果圖Fig.2 Effect of salient region after preprocessing

        圖2 中(a),(d)是原始圖,(b),(e)是其三維圖,(c)圖像經(jīng)上述步驟預處理后,潛在目標區(qū)域被檢測到,但同時也將圖像中的云團當做了前景目標誤檢了出來;而(f)圖經(jīng)顯著性檢測后,不僅縮小了目標的范圍,還將云層背景雜波也濾除,可不足的是右側干擾很強的建筑物部分也被當做顯著區(qū)域凸現(xiàn)。因此,要準確無誤地識別出目標,就必須將預處理后的圖像通過尺度空間理論,做進一步地目標檢測。

        3.2 基于尺度空間的紅外目標檢測算法

        3.2.1 DoG尺度空間

        尺度空間理論[15]的基本原理是用不同參數(shù)的高斯核函數(shù)對圖像進行不同尺度下的變換,從而獲得多尺度的圖像序列[16]。DoG尺度空間,便由多尺度下的DoG算子與圖像卷積生成。那么,一幀原始圖像的DoG尺度空間可表示為[17]:

        其中,σ為尺度空間的縮放因子;n為尺度空間的層數(shù);DoG(x,y,σ)表示為可變尺度是σ的DoG算子與原始圖像的卷積,即:

        式中,f(x,y)為原始紅外圖像;*為卷積運算符;(1/2πσ2)e-(x2+y2)/2σ2是二維高斯函數(shù)。對于本文小目標而言,相鄰尺度間的大小直接影響了生成尺度空間的連續(xù)性,因此令相鄰尺度因子σ間的關系為σn=knσ1。其中,初始尺度因子σ0的最小值為0.7,k取值為1.2,所生成的尺度空間數(shù)n的取值為1~8,那么可得出σn的取值范圍是[0.70 0.94 1.21 1.45 1.99 2.09 2.51 3.01]。

        3.2.2 真實目標檢測

        在完成上述步驟后,通常會選擇DoG尺度空間的某個關鍵像素點與8個臨近像素點以及上下相鄰尺度下的2×9個像素共計26個點來進行比較,若該關鍵像素點在此尺度下有極大值點,那它就為潛在目標點。因此,DoG尺度空間的極大值點檢測可用下式來表示:

        但因為在多尺度下,目標局部細節(jié)會隨著尺度增大而減少,且在使用高斯核函數(shù)濾波時,部分目標像素會被濾除。所以,為了保留更多的目標信息,本文將采取加權融合多尺度空間特征圖像的方法。若DoG特征圖用Gs表示,而令每三層DoG尺度空間生成一幅特征值點圖像,再設融合權值為w,那么多尺度空間融合的目標圖Tn可用公式(10)來表示:

        在本文的仿真實驗過程中,我們將取Scale的范圍為8個尺度下,一共可生成7層DoG尺度空間,所生成的特征圖共5幅,圖像的融合系數(shù)為[7 6 5 4 3]。

        3.3 最終目標定位

        紅外目標的準確檢測是需要對所得到的全部目標進行正確驗證的。文中采用Renyi熵對圖像做閾值分割。定義圖像的前景像素級區(qū)域為T,背景為B,q為熵的階數(shù)。若設目標與背景的概率為:Pi(T)、Pi(B),那么Renyi熵表示為[18]:

        式中,k(0~255)為圖像當前所取像素灰度級,若有t的取值能使式(13)成為最大值時,就會得到最佳閾值,那么t即為圖像分割閾值,而經(jīng)閾值處理后,前景目標凸顯。

        4 實驗結果

        本文實驗部分使用了兩組紅外視頻序列,序列1的分辨率為288×384,序列2為288×288。算法采用Matlab語言編程,實驗中的高斯模板大小為5×5,信息熵分割時的q值取為2。文中2個序列圖中的小目標作為被檢測對象,為了突出本文優(yōu)越性,將與文獻[10]和[12]中的多步長梯度算法及多尺度下的形態(tài)學方法做了對比分析。

        圖3中,(a)圖目標上方有云團圍繞,右側有建筑物干擾;(b)中斜建筑的起伏較為明顯,目標與背景對比度低;(c)呈現(xiàn)為斷斷續(xù)續(xù)的小白點是建筑物邊緣被當做顯著區(qū)域檢測出來;(d)是文獻[10]算法而出的效果圖,建筑物部分不能很好的被消除,且由于閾值選取原因,目標會隨著閾值大而像素點減少,閾值小又出現(xiàn)太多的虛警點;(e)是文獻[12]的結果,目標雖然被凸現(xiàn)出來,但在圖上仍然還有噪聲點存在;由(f)圖可看出,本文能抑制背景雜波,較為容易的檢測出目標,且結果圖像很清晰。

        圖3 序列1的實驗結果Fig.3 Experimental results of video 1

        如圖4所示,原始圖(a)中有三個目標,尤其是位于中間的目標被大量云團圍繞;(b)是其三維圖;(c)圖的顯著結果表明圖像的左下角處有背景像素被凸顯出來;(d)與(e)是文獻[10]和文獻[12]的檢測結果圖,在用文獻[10]的方法來處理多目標時,圖中間的部分目標像素被漏檢;而在(e)中,前景像素周圍出現(xiàn)了過多的偽目標點;(f)圖是本文方法,三個目標被識別出來,且去噪去雜方面比較徹底,相比文獻方法而言,具有較強的實際意義。

        圖4 序列2的實驗結果Fig.4 Experimental results of video 2

        綜上所述,本文算法在有效檢測出目標的基礎上,使周圍的背景雜波得到抑制,并優(yōu)于文獻[10]和文獻[12]算法。由于以上的定性分析是靠主觀辨識,故以文獻及本文算法所得單目標預處理后灰度值以及多目標圖像像素點SCR值來作定量對比。

        表1是圖3中,單目標原始圖像經(jīng)預處理后,目標所占6個像素點的灰度值。在目標的顯著性檢測中,圖像經(jīng)傅里葉變換可清晰的提取出目標輪廓,其頻域是圖像灰度劇烈變化的指標,而視覺對目標的識別是由局部灰度決定[10],所以目標的灰度值越大,目標越易凸顯??偟膩碚f,本文方法所得的目標灰度值優(yōu)于文獻方法,對于目標檢測具有較強的實際意義。

        表1 各像素點灰度值對照表Tab.1 gray value comparison of each pixel

        表2是圖4中多目標像素點信雜比對照表,由表2知,本文目標的信雜比明顯高于原始圖像與文獻[10]和文獻[12]梯度及形態(tài)學方法的信雜比,這是因為圖像在尺度空間的平滑濾波處理后,抑制了背景雜波,所以本文方法在紅外弱小目標的檢測上具有一定的優(yōu)勢。

        表2 各像素點信雜比對照表Tab.1 SCR comparison of each pixel

        5 結束語

        本文提出了基于顯著性與尺度空間的紅外弱小目標檢測算法,該方法先采用頻域殘差法縮小目標范圍,然后將預處理后的圖像進行尺度空間擴展,之后對生成的DoG尺度空間實行關鍵點檢測,再加權融合特征點圖,最終通過信息熵分割出準確的前景目標點。該方法不但能有效的檢測出復雜背景下的紅外弱小目標,還能有效的增強圖像信雜比。本文在后續(xù)方面,會將其與紅外小目標跟蹤結合起來,期望能達到好的效果。

        [1] Charlene E C,Jerry S.Optimization of point target tracking filters[J].IEEE Trans.Aerosp.Electron.Syst.,2000,36(1):15-25.

        [2] JShaik,K M Iftekharuddin.Detection and tracking of targets in infrared images using Bayesian techniques[J].Optics&Laser Technology,2009,41(6):832-842.

        [3] Ali Borji,Laurent Itti.Exploiting local and global patch rarities for saliency detection[J].IEEE Conference on Computer Vision and Pattern Recognition,2012:478-485.

        [4] Li J,Martin D L,An X J,et al.Visual saliency based on scale-space analysis in the frequency domain[J].IEEE Transactions on Pattern Analysis and Machine Inteligence,2013,35(4):996-1010.

        [5] Houssem Chatbri,Keisuke Kameyama.Using scale space filtering to make thinning algorithms robust against noise in sketch images[J].Pattern Recognition Letters,2014,42(4):1-10.

        [6] Tae-Wuk Bae,F(xiàn)ei Zhang,In-So Kweon.Edge directional 2DLMSfilter for infrared small target detection[J].Infrared physics&Technology,2012,55(1):137-145.

        [7] Cattleya Duanggate,Bunyarit Uyyanonvara,Stanislav S.Object detection with feature stability over scale space[J].J.Vis.Commun.Image R.,2011,22(4):345-352.

        [8] Chengjun L,Ying W,Zeling S.A small target detection algorithm based on multi-scale energy cross[J].Proc IEEE Int Conf Robotics Intell Syst Signal Process,2003,2:1191-1196.

        [9] A C Jalba,M H F Wilkinson,J B T M Roerdink.Shape representation and recognition through morphological curvature scale spaces[J].IEEE Transactions on Image Processing,2006,15(2):331-341.

        [10]WAN Ming,ZHANG Fengming,HU Shuang.Novel infrared dim and small target detection algorithm based on multi-scale gradient[J].Acta Optica Sinica,2011,31(10):98-103.(in Chinese)萬明,張鳳鳴,胡雙.基于多步長梯度特征的紅外弱小目標檢測算法[J].光學學報,2011,31(10):98-103.

        [11]Sungho Kim,Joohyoung Lee.Scale invariant small target detection by optimizing signal-to-clutter ratio in heterogeneous background for infrared search and track[J].Pattern Recognition,2012,45(1):393-406.

        [12]WANG Yingying,ZHANG Yongshun,HE Ping.Research on IR target-detecting method based on morphology and entropy[J].Laser&Infrared,2012,42(5):513-517.(in Chinese)王瑩瑩,張永順,何蘋.基于形態(tài)學和信息熵的紅外目標檢測算法[J].激光與紅外,2012,42(5):513-517.

        [13]JPArdouin.Point source detection based on point spread function symmetry[J].Opt.Eng.,1993,32(9):2156-2164.

        [14]Hou X D,Zhang L Q.Saliency detection:a spectral residual approach[J].IEEE Conference on Computer Vision and Pattern Recognition,2007,800:1-8.

        [15]D GLowe.Distinctive image features from scale-invariant keypoints[J].Int.J.Computer Vision,2004,(60)2:91-110.

        [16]Tony Lindeberg.Feature detection with automatic scale selection[J].Int.J.Computer Vision,1998,30(2):79-116.

        [17]K Mikolajczyk,C Schmid.Indexing based on scale invariant interest points[C].Eighth IEEE International Conference on Computer Vision(ICCV),2001,1:525-531.

        [18]Leila Golshani,Einollah Pasha,Gholamhossein Yari.Some properties of Rényi entropy and Rényi entropy rate original research article[J].Information Sciences,2009,179(14):2426-2433.

        猜你喜歡
        尺度空間像素點尺度
        基于AHP的大尺度空間域礦山地質(zhì)環(huán)境評價研究
        財產(chǎn)的五大尺度和五重應對
        基于canvas的前端數(shù)據(jù)加密
        居住區(qū)園林空間尺度研究
        魅力中國(2016年42期)2017-07-05 21:16:42
        基于逐像素點深度卷積網(wǎng)絡分割模型的上皮和間質(zhì)組織分割
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        基于降采樣歸一化割的多尺度分層分割方法研究
        軟件導刊(2015年8期)2015-09-18 13:24:38
        基于Node-Cell結構的HEVC幀內(nèi)編碼
        電視技術(2014年11期)2014-12-02 02:43:28
        基于尺度空間的體數(shù)據(jù)邊界不確定性可視化研究
        9
        国产95在线 | 欧美| 国产内射一级一片内射视频| 精品国产麻豆免费人成网站| 丰满女人又爽又紧又丰满| 九九在线精品视频xxx| 中文字幕亚洲高清精品一区在线| 伊人亚洲综合影院首页| 四季极品偷拍一区二区三区视频 | 亚洲成在人线视av| 中文字幕一区二区三区乱码| 国产成人精品午夜福利免费APP| 国内精品久久久久久久久蜜桃| 亚洲国产综合精品一区最新| 亚洲熟女精品中文字幕| 欧美日韩中文国产一区发布| av少妇偷窃癖在线观看| av天堂手机在线免费| 91精品人妻一区二区三区久久久| 美女mm131爽爽爽| 999久久久免费精品国产| 精品日韩欧美一区二区三区在线播放| 日本一区二区三区高清视| 精品久久久久久久无码人妻热| 大地资源网更新免费播放视频| 亚洲av偷拍一区二区三区| 丝袜美腿在线播放一区二区| 激情文学婷婷六月开心久久| 精品人妻无码视频中文字幕一区二区三区 | 日本在线视频二区一区| 在线观看一级黄片天堂| 国产精品熟女一区二区| 国产成人亚洲合集青青草原精品| 亚洲最大av在线精品国产| 成人国产精品一区二区网站公司 | 精品国产乱码久久久久久影片| 亚洲一区二区婷婷久久| 中文字幕在线亚洲精品一区| 亚洲熟妇久久精品| 国产精品三级在线观看| 羞涩色进入亚洲一区二区av| 丰满熟妇人妻av无码区|