亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于顯著性檢測的目標圖像分割算法

        2017-03-29 05:37:49李鋒林
        電子科技 2017年1期
        關鍵詞:檢測

        李鋒林,李 亮

        (西安艾索信息技術有限公司,陜西 西安 710065)

        基于顯著性檢測的目標圖像分割算法

        李鋒林,李 亮

        (西安艾索信息技術有限公司,陜西 西安 710065)

        針對由于顯著性檢測算法準確率低下導致的圖像分割錯誤的現象,設計了一種基于改善顯著性檢測算法效果的圖像分割算法。該算法通過輸入的顯著性映射圖獲得目標的一部分,利用這部分區(qū)域作為學習的線索點,然后提出一種基于雙生圖的學習方法獲得其余目標。文中通過仿真的方式對結果進行了驗證,實驗結果表明,該方法可獲得準確度更高,更適合用于圖像分割的顯著性檢測結果。

        顯著性檢測;目標分割;圖像處理

        顯著性檢測可以用來獲得一個圖像中與周圍最不同的目標或者區(qū)域,且這一目標或區(qū)域可以代表這個圖像,而獲得的這個區(qū)域可以用來處理復雜的視覺任務,在本文中,主要用來分割目標。

        顯著性檢測算法通??梢陨梢环叶葓D,來表達一幅圖像中每個像素點作為目標的可能性,這種灰度圖被稱為顯著性映射圖。早期顯著性算法生成的映射圖用來預測視覺注意力點,無法包含準確的目標邊界,而后期的顯著性算法針對這一缺陷,生成了擁有全分辨率的顯著性映射圖卻犧牲了計算效率。針對顯著行映射圖的特性,提出了一種通過改善顯著性映射圖準確率來進行圖像分割的算法[1-4]。

        該算法通過大津法對灰度圖像設閾值來獲取一部分點,作為目標區(qū)域的一部分來作為后續(xù)學習的線索點。由于不同顯著性算法的準確率并不穩(wěn)定,本文選用超像素[5]來削弱個別錯誤像素點對后續(xù)算法準確率造成的影響。

        本文采用由由D.Zhou等[6-7]首先提出應用于檢索,并被C.Yang[8]等應用顯著性學習中的流形的概念來構造圖。C.Yang[8]等提出的圖算法基于良好的線索點時,可以給出準確率很高的結果,然而在對該算法的效果圖的統(tǒng)計中,發(fā)現當目標包含有兩種及以上的顏色時,使用C.Yang[8]等提出的方法生成的映射圖將會抑制其中一部分的顏色所在的區(qū)域,這一區(qū)域的特征是占有像素較為多,即面積較大的部分,這是這種算法的分類方程在建立的過程中,使用的關系矩陣頂點的值由色彩所決定,當同時有兩種顏色所在的超像素被選定為線索點時,由于它們之間的色彩距離很遠,導致這兩種顏色互相的標記值都會很低。C.Yang[8]等提出的方法所建立的分類方程在迭代多次后,經過證明是收斂的,這就意味著這個方法最終會給出一個穩(wěn)定的狀態(tài),而對于分類而言,比較大的面積或者區(qū)域往往會對應為一個不緊密的狀態(tài),也即不穩(wěn)定,故而顏色所占面積較大區(qū)域的標注值會被抑制,導致最終得到的顯著性映射值比另一個顏色所在區(qū)域的值低,這就會使一個色彩復雜的目標雖然被完整的檢測到,但無法給出含有均勻顯著性值,從而影響后續(xù)的圖像分割。

        針對此問題,本文提出了一種被稱為雙生圖的方法來改進算法效果。

        圖1 基于顯著性檢測的目標分割算法流程圖

        1 對輸入顯著性映射圖的預處理

        在用大津法對顯著性映射圖進行二值化后,會獲得一幅由值為“1”和“0”的亮點和暗點組成的黑白像素點圖,使用白色像素點來標記超像素獲得線索點。二值化后,個別錯誤峰刺亮點和由于模糊造成的冗余亮點會對后續(xù)方法造成不良影響。在二值化后,選擇形態(tài)學閉操作來減少一些錯誤亮點對于結果的影響。同時一些亮點存在于邊界上,所以不應該把只有少量亮點存在的位于邊界外部的超像素標記為線索點。僅當一個超像素中同時存在亮點和黑點時,需要按照一個合適的比例判定它是否為一個線索點,只有當亮點所占比例超過一個閾值時,才會判定這個超像素點為線索點。

        2 雙生圖的建立

        給定的超像素集li。 令f:X→Rn代表排序方程,它會將fi賦值給相應的xi,而f可以被當做向量集f=[f1,…,fn]T。仍然需要定義一個向量y=[y1,…,yn]T,其中當xi是線索點時,yi=1,否則yi=0。用X代表矩陣,這個矩陣將記錄每一對超像素xi和xj之間的距離w(xi,yj),它定義為

        (1)

        其中,ei和ej代表xi和xj的平均特征,而σ來控制權值的影響,這里取σ2=1。

        這個算法過程如下:

        (1)構造由wij構成的關系矩陣W;

        (2)構造矩陣S=D-1/2WD-1/2,其中D是一個對角陣,它對角線上的元素第(i,i)的值等于矩陣W第i行值的和;

        (3)迭代方程f(t+1) =αSf(t)+(1-α)y直到收斂,其中α是值在(0,1)之間的系數;

        這個迭代算法可直觀地被理解,首先第一步在數據集X上建立一個關系矩陣W,它對角線上的元素為0;在第二步中,使用歸一化對稱的系數給W加權,后續(xù)將證明這個步驟對于算法的收斂是重要的。前兩步和譜聚類相似。在第三步的迭代過程中,每個頂點在傳播自己信息的同時都接收到了來自它相鄰頂點中的信息。系數α可以確定最終值的信息中,初始值和排序值哪個所占比重較大。由于在第一步中,使得W中所有對角線元素為0,故而這個算法將不受自身信息的影響。除此之外由于S是一個對稱矩陣,所以所有頂點中的信息都會對稱傳播。最終,每個未賦值的頂點將會被賦給迭代收斂時的值。

        可以證明序列{f(t)}收斂于[6]

        f*=β(I-αS)-1y[6]

        (2)

        在C.Yang[8]的算法中,每個頂點的特征值取值為這個頂點的色彩平均,邊界存在與否取決于兩個頂點之間是否邊界相鄰,將用這種方法建立的圖稱為C2P圖。由于C2P圖的這些缺陷,本文提出一種相對于C2P對稱存在的P2C圖,這個圖中將作為C2P的輔助圖,稱其為雙生圖,在這個圖中ei和ej代表了相應位置的位置平均值,對兩個點是否相鄰進行重新定義,本文定義兩個顏色平均值較為接近的頂點為相鄰。

        將雙生圖的結果相加得到強化的顯著性映射圖,采用大津法再次進行二值化,用得到的二值圖對輸入圖像進行分割即可得到結果。

        3 實驗仿真與結果分析

        此次實驗中,采用了SWD[9],AIM[10],IT[11]算法生成的顯著性映射圖作為輸入,分別在MSRA-1K[12]、juddDB[13]和ECSSD[14]圖庫中進行分割。

        在圖2~圖4中,從左到右,分別為待檢測的圖片、輸入的顯著性映射圖、雙生圖生成的顯著性映射圖以及經過二值化后對輸入圖片的分割結果。從圖中可以看出,盡管輸入的顯著性映射圖的效果差異很大,但是都可以獲得全分辨率的顯著性映射圖,然后對得到的映射圖進行二值化,即可將待檢測圖中的目標檢測出來。

        圖2 圖庫MSRA-1K中,以IT算法的顯著性映射圖為輸入的圖像分割效果圖

        圖3 圖庫juddDB中,以SWD算法的顯著性映射圖為輸入的圖像分割效果圖

        圖4 圖庫ECSSD中,以AIM算法的顯著性映射圖為輸入的圖像分割效果圖

        如圖5所示,盡管輸入的顯著性映射圖表現不佳,但經過本文算法改進后都能在大津法二值化得到的分割圖中取得較高的準確率,從而說明本文中所提出的方法對于分割圖像而言具有較為重要的意義。

        圖5 3種不同輸入算法在3種圖庫中的準確率、召回率和F-measure值

        4 結束語

        本文對已有流形學習中使用的圖進行了改善,提出了一種基于雙生圖的顯著性檢測方法,從而大幅改善了顯著性映射圖的準確性,提高了圖像分割的準確性。從結果可以看出,某些目標中仍然包含了一些背景像素,造成這種錯誤的,一部分原因是由于輸入映射圖的不準確性,另一部分原因則是學習算法仍不夠優(yōu)秀。后續(xù)工作需要研究如何更大限度的抑制背景像素點對目標的干擾。

        [1] 張丹.基于視覺注意力點的顯著性目標檢測 [D].西安:西安電子科技大學,2015.

        [2] Li Y, Hou X, Koch C, et al. The secrets of salient object segmentation[C].Columbus, OH,OR:CVPR Computer Vision and Pattern Recognition,IEEE, 2014.

        [3] Borji A, Sihite D N, Itti L. What stands out in a scene? A study of human explicit saliency judgment[J]. Vision Research, 2013, 91(15):62-77.

        [4] Juan X, Ming J, Shuo W, et al. Predicting human gaze beyond pixels [J]. Journal of Vision, 2014, 14(1):97-97.

        [5] Radhakrishna A, Appu S, Kevin S, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2012, 34(11):2274-2282.

        [6] Zhou D, Weston J, Gretton A,et al.Ranking on data manifolds[J]. Advances in Neural Information Processing Systems, 2003(7):169-176.

        [7] Zhou D, Bousquet O, Lal T N, et al. Learning with local and global consistency[J]. Advances in Neural Information Processing Systems, 2004, 17(4):321-328.

        [8] Yang C, Zhang L, Lu H, et al. Saliency detection via graph-based manifold ranking[C]. Portland, OR:IEEE Conference on Computer Vision & Pattern Recognition,2013.

        [9] Duan L, Wu C, Miao J, et al. Visual saliency detection by spatially weighted dissimilarity[C]. Providence, RI:Computer Vision and Pattern Recognition , 2011.

        [10] Bruce N D B, Tsotsos J K. Saliency, attention, and visual search: an information theoretic approach [J]. Journal of Vision, 2009, 9(3):5-24.

        [11] Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1998, 20(11):1254-1259.

        [12] Achanta R, Hemami S, Estrada F, et al. Frequency-tuned salient region detection[C].Miami, FL:IEEE International Conference on Computer Vision and Pattern Recognition, 2009.

        [13] Yan Q, Xu L, Shi J,et al. Hierarchical saliency detection[C].Portland, OR: IEEE Conference on Computer Vision and PatPattern Recognition, 2013.

        [14] Ali B. What is a salient object? A dataset and a baseline model for salient object detection[J]. IEEE Transactions on Image Processing A Publication,2015, 24(2):742-756.

        AnObject Segmentation Method Using Saliency Detection

        LI Fenglin,LI Liang

        ( R&D, Xi’an iTHOR Information Technology CO.,LTD, Xi’an 710065, China)

        The low accuracy of saliency detection algorithm will lead to some errors in image segmentation, and an image segmentation method based on improved saliency detection algorithm is proposed in this paper. This method can obtain some regions belong to the object, then put forward a learning method based on a twin-graph which can use these queries to find out the rest of the object.. The experimental results validate our proposed method can obtain a better saliency map for image segmentation.

        saliency detectiong;object detection;image processing

        2016- 03- 16

        李亮(1982-),男,碩士,高級工程師。研究方向:雷達電子對抗。

        10.16180/j.cnki.issn1007-7820.2017.01.019

        TP391.41

        A

        1007-7820(2017)01-069-04

        猜你喜歡
        檢測
        QC 檢測
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        “幾何圖形”檢測題
        “角”檢測題
        “有理數的乘除法”檢測題
        “有理數”檢測題
        “角”檢測題
        “幾何圖形”檢測題
        人妻少妇精品无码专区二区| 在线观看网址你懂的| 久久久久久国产福利网站| 亚洲二区三区在线播放| 亚洲精品国产亚洲av| 久久久久亚洲av无码专区喷水| 爽爽精品dvd蜜桃成熟时电影院 | 91精品国产乱码久久中文| 五月开心婷婷六月综合| 老妇女性较大毛片| 中文字幕无码人妻丝袜| 人妻精品久久久一区二区| 日本精品一区二区三区二人码 | 刚出嫁新婚少妇很紧很爽| 窝窝午夜看片| 欧美激情在线不卡视频网站| 久久国产精品国产精品久久| 中文字幕亚洲乱码熟女1区| 色一情一乱一伦麻豆| 曰韩人妻无码一区二区三区综合部 | 成人免费无码视频在线网站| 国产一区不卡视频在线| 麻豆精品在线视频观看| 人妻 偷拍 无码 中文字幕| 国农村精品国产自线拍| 日韩一区二区三区中文字幕| 一级黄色一区二区三区视频| 在线视频一区二区国产| 亚洲精品久久7777777| 在线中文字幕有码中文| 精品女同一区二区三区不卡| 91超精品碰国产在线观看| 国产精品成人国产乱| 国产欧美日韩专区毛茸茸| 视频国产自拍在线观看| 色噜噜久久综合伊人一本| 91免费在线| 国产美女自拍国语对白| 男女搞基视频免费网站| 蜜桃日本免费观看mv| 久草视频国产|