亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種結(jié)合深度學習特征和社團劃分的圖像分割方法

        2018-11-14 10:27:44胥杏培宋余慶
        小型微型計算機系統(tǒng) 2018年11期
        關鍵詞:深度特征

        胥杏培,宋余慶,陸 虎

        (江蘇大學 計算機科學與通信工程學院,江蘇 鎮(zhèn)江 212013)

        1 引 言

        近幾年來,圖像分割作為計算機視覺領域中十分重要的研究領域,吸引了大量學者的興趣.圖像分割被廣泛應用于圖像檢索,醫(yī)學圖像的處理,人臉識別,遙感圖像處理[1]等領域.圖像分割是對圖像的每個像素點進行處理,劃分成若干個相似區(qū)域.但是在實際應用中,我們所要求的是要求圖像分割能夠得到更好的分割的結(jié)果,在時間上,要求有更快的速度.雖然該領域已經(jīng)出現(xiàn)了很多好的算法,但想要開發(fā)出一種簡單有效的圖像分割算法仍存在較大的困難和挑戰(zhàn).

        尋找到一種好的特征對于提高分割的準確性是非常重要的,大多數(shù)現(xiàn)有的特征都依賴人工標定.例如HOG,SIFT,LBP,GLCM等特征.最近,用深度學習的方法自動獲取特征在機器學習領域廣泛應用.例如,在計算機視覺領域,深度學習算法從原始圖像去學習得到一個低層特征,例如邊緣檢測器,小波濾波器等,然后在這些低層次特征的基礎之上,通過非線性組合來獲得高層次的特征.常用的深度學習模型結(jié)構(gòu)包括自動編碼器(Auto Encoder)[2],深信度網(wǎng)絡(Deep Belief Networks)[3],卷積神經(jīng)網(wǎng)絡( Convolutional Neural Networks)等.其中,卷積神經(jīng)網(wǎng)絡(CNN)[4-6]成功應用于計算機視覺領域,歸結(jié)于它能夠很好的將圖像的低級特征通過非線性方式整合成高級特征[7].

        在本文中,我們提出了一種新的自適應圖像分割方法.為了解決以像素點為單位分割的龐大計算量,我們通過SLIC超像素算法對圖像預處理之后,將改進的VGG-16模型作為特征提取器,提取單個超像素區(qū)域的深度學習特征.并且提取對應超像素區(qū)域Lab顏色特征,構(gòu)建兩個相似度矩陣,通過線性組合構(gòu)建成一個相似度矩陣.用社團劃分的思想在相似度矩陣的基礎上對圖像進行分割,如圖1所示.為了得到合理的分割結(jié)果,本文采用譜聚類算法對圖像進行聚類,并用模塊度Q[8,21]來選擇最佳的分割類別數(shù),因此省去了繁瑣的人工設定分割類別數(shù)的過程.

        圖1 基于深度學習特征和社團劃分的圖像分割方法

        2 相關工作

        本章節(jié)我們主要回顧前人的相關工作.目前圖像分割方法主要是通過整合人工特征對圖像進行分割.S.J.Li等人提出了一種基于超像素的HOS算法[14],該算法通過提取超像素區(qū)域的顏色特征和紋理特征,但該算法在構(gòu)建相似度矩陣的過程中,迭代的時間較長,從而使得算法的時間復雜度較高.Ester.M提出了超像素和密度函數(shù),將高密度的區(qū)域劃分為簇,并且在數(shù)據(jù)空間中進行聚類的DBCAN算法[10],該算法是基于密度函數(shù)定義,相對抗噪音能相對處理任意形狀的簇.Ncut算法[11]是一種經(jīng)典的圖像分割方法.Pizzuti提出了利用遺傳算法和Ncut算法相結(jié)合的Gencut算法[12].L.Zelnik等人提出了一種基于自適應譜聚類Self-tuning算法[13]. 由于算法需要將圖像的維數(shù)設定為固定大小,因此該算法只適用于維度較小的圖像.

        針對以像素點為單位的龐大的計算以及人工提取特征的不確定性,我們通過將深度學習和社團劃分相結(jié)合的方法,來對圖像進行分割.首先通過SLIC超像素算法對圖像進行預處理,將圖像由像素級劃分為區(qū)域級.將圖像劃分為若干超像素區(qū)域,然后再通過微調(diào)VGG-16模型,將該模型作為本文深度學習特征提取器,提取單個超像素區(qū)域的深度學習特征.并且提取單個超像素區(qū)域的Lab顏色特征,通過線性疊加,構(gòu)建相似度矩陣.將單個超像素點看成社團中的節(jié)點,通過社團劃分方法對圖像進行自適應分割.大量的實驗結(jié)果驗證了本文算法的有效性.

        3 算法描述

        3.1 多尺度特征提取

        超像素算法已經(jīng)被廣泛應用于計算機視覺的各個領域中.超像素可以有效的捕捉圖像的結(jié)構(gòu)化信息,本文首先使用簡單線性迭代聚類(SLIC)[15]方法對圖像進行過分割,得到一定數(shù)量的超像素.本文設定的超像素的個數(shù)為200.其次,本文采用兩種特征描述符來表示一幅圖像,分別為Lab顏色特征以及深度學習特征(改進VGG-16模型學習的特征[16]).

        本文的低級特征采用Lab顏色特征.因為對于彩色圖像而言,顏色是最直接和最重要的特征之一.為了降低計算復雜度,在計算相似度矩陣之前先計算超像素的鄰接矩陣.超像素i,j對應鄰接矩陣為:

        (1)

        我們定義單個超像素區(qū)域的Lab顏色特征的相似度矩陣為:

        (2)

        本文使用改進的VGG-16模型提取深度學習的特征,該模型是在Caffe框架下,通過訓練ImageNet數(shù)據(jù)集得到.本文通過微調(diào)VGG-16模型,將該模型的全連接層替換成全卷積.并且將模型的第15層FC2層的特征維度由4096維降成1024維.大量的實驗表明,模型收斂更快,能夠得到更好的高級特征.

        由于我們提取的超像素區(qū)域可能是一個不規(guī)則的區(qū)域,而該模型的輸入必須是一個規(guī)則區(qū)域,因此我們將單個超像素區(qū)域放入到一個矩形框內(nèi).輸入圖像,并在該模型的全連接層FC2層提取圖像的特征,得到1024維的深度學習特征.于是得到的不同超像素區(qū)域的深度學習特征維度為200×1024.同時我們在超像素鄰接矩陣的基礎上構(gòu)建.然后計算歐式距離來構(gòu)建超像素鄰接矩陣的相似度矩陣

        (3)

        其中n表示超像素的個數(shù).i,j∈[1,n] ,并且xi,xj,表示單個超像素的深度學習特征,維度為1×1024.

        綜合上述的改進VGG-16模型提取深度學習特征得到相似度矩陣W(deep)(維度為200×200),和Lab顏色特征的相似度矩陣W(color)(維度為200×200).我們通過線性疊加的方式,用平衡參數(shù)a來調(diào)整顏色特征和深度學習特征所占的比重,得到新的混合特征W(mix)定義為:

        W(mix)=a×W(color)+(1-a)×W(deep)

        (4)

        3.2 社團劃分

        隨著復雜網(wǎng)絡理論的發(fā)展,基于圖論的圖像分割技術已經(jīng)有了很大的發(fā)展.我們將SLIC超像素算法得到的單個超像素點看成是社團中的節(jié)點.通過計算節(jié)點之間的相似度,對社團進行聚類.將圖像的分割問題歸結(jié)為社團劃分問題.

        為了有效評價社團劃分的合理性,Newman和Girvan[19,20]提出了一個用以評價網(wǎng)絡分解滿意度的指標的質(zhì)量函數(shù)或者稱為模塊度Q[21],應用于加權(quán)網(wǎng)絡分析.適用于加權(quán)網(wǎng)絡和加權(quán)鄰接矩陣,模塊度Q被定義為:

        (5)

        BSDS500數(shù)據(jù)集是由伯克利大學提供的自然圖像數(shù)據(jù)集,該數(shù)據(jù)集包含500張自然圖像,并且每張圖像包含對應的ground-truth.且人工標定的圖像超過95%的類別數(shù)都小于20,因此在本文中我們設定譜聚類算法n的輸入為[2,20],分別計算19個聚類結(jié)果,然后通過計算模塊度Q的值,來選取最佳的聚類結(jié)果.

        3.3 算法流程

        本文算法如下:基于深度特征學習的圖像分割算法

        輸入:圖像

        輸出:最終的分割結(jié)果

        Step1.通過SLIC過分割獲得超像素

        Step2.提取超像素顏色特征以及深度學習特征,構(gòu)建兩個相似度矩陣W(color)和W(deep).

        Step3.通過參數(shù)a,構(gòu)建相似度矩陣w(mix)

        Step4.對獲得的相似度矩陣w(mix),通過譜聚類,得到個聚類的結(jié)果

        Step5.通過模塊度Q計算每個聚類對應的Q值,選取最大的Q值對應的聚類

        Step6.得出聚類結(jié)果,實現(xiàn)圖像分割

        4 實驗結(jié)果與分析

        在本章節(jié)中,為了驗證算法的有效性,我們在BSDS500數(shù)據(jù)集上進行了測試,并將實驗的數(shù)據(jù)結(jié)果與CTM算法[9],Gencut算法[12],DBSCAN算法[10],HOS算法[14],Ncut算法[11],self-tuning算法[13]進行了比較.算法的實驗環(huán)境為:CPU:i-6700k,顯卡:GTX1080,內(nèi)存:32G,操作系統(tǒng):Ubuntu 14.04.

        為得到定量分析結(jié)果,我們通過兩種指標來對分割進行評價度量,(1)概率蘭德指數(shù)(PRI)[22],(2)信息變化(VOI)[23].

        概率蘭德指數(shù)(Probabilistic Rand Index,PRI)是一個經(jīng)典的評價聚類的標準.PRI需要給定實際類別信息C,假設K是聚類結(jié)果,a表示在C與K中都是同類別的元素對數(shù),b表示在C與K中都是不同類別的元素對數(shù),則概率蘭德指數(shù)為:

        (6)

        信息變換(Variation of Information,VOI)被定義為:

        VOI(c,c′)=H(c)+H(c′)-2I(c,c′)

        (7)

        其中H(c)和H(c′)是c和c′分割的熵,并且I(c,c′)是c和c′分割的互信息,這一指標的范圍是[0,+∞],VOI的值越小越好.

        如圖2所示.我們在BSDS500數(shù)據(jù)集上測試了本文的算法.根據(jù)大量的實驗結(jié)果顯示,當a=0.3時PRI和VOI的指標達到最佳.本文針對不同算法,選取合適的參數(shù),整個數(shù)據(jù)集求PRI和VOI的均值得到如圖2所示的直方圖.

        圖2 本文算法與其它流行算法的PRI和VOI值的比較

        如圖3 所示,本文算法與與CTM算法[9],Gencut算法[12],DBSCAN算法[10],HOS算法[14],Ncut算法[11],Self-tuning算法[13]分割結(jié)果的比較,由于BSDS500數(shù)據(jù)庫中的圖像大小為321×481或者481×321,然而Ncut算法,和Self-tuning算法不能直接處理這樣大的圖像,因此我們先將圖像維度縮小為160×160,然后對圖像進行分割.本文算法,CTM算法,Gencut算法,DBSCAN算法,HOS算法均可以在原圖上進行分割.試驗中算法均需要設置參數(shù),對于CTM算法,我們按照對應文獻中的參數(shù)選擇方法,并在一定范圍內(nèi)變化,選擇最優(yōu)的結(jié)果.DBSCAN算法需要預先定義超像素的個數(shù)k.

        為了方便比較,我們設定了和本文算法相同的超像素的個數(shù).Gencut算法需要預先設定9個參數(shù),該算法通過遺傳算法和Ncut算法的結(jié)合進行分割,CTM算法是在超像素的基礎之上,通過對紋理特征的擬合進行分割,DBSCAN是通過超像素預處理之后,根據(jù)密度函數(shù)進行分割.HOS算法通過超像素對圖像進行預處理之后,提取圖像的HOG紋理特征和Lab顏色特征對圖像進行分割,Ncut算法和Self-tuning算法需要預定義像素點k領域,試驗中我們設置k=8,本文算法通過超像素算法對圖像進行預處理,引入深度學習的思想,提取圖像的深度學習特征,并且結(jié)合傳統(tǒng)的顏色特征,構(gòu)建相似度矩陣,通過譜聚類算法對圖像進行分割,通過下圖可以看出我們的算法在PRI和VOI指數(shù)上均取得較好的實驗結(jié)果.

        表1 針對a的不同取值PRI和VOI的值

        如表 1所示,我們通過平衡參數(shù)a來調(diào)整深度學習的特征和Lab顏色特征之間的權(quán)重.表1的實驗結(jié)果是在BSDS500數(shù)據(jù)集測試,并對實驗結(jié)果求均值.本文設定a的取值范圍屬于[0,1]之間,當a=0.3時,本文算法的PRI值最大,VOI值最小.

        如圖4所示,本文算法與其他6中算法實驗對比圖.本文算法相較于其他幾種算法,對于山的輪廓部分能夠很好的分割出來.并且對于整個山體的細節(jié)部分可以很好的分割出來.由于本文算法不僅注重底層的顏色特征的提取,并且能夠把握深度學習提取的高層特征.將兩者相結(jié)合構(gòu)建新的相似度矩陣,并且通過一個線性參數(shù)來調(diào)整兩者的比重.再通過社團劃分的思想對圖像進行分割.

        圖4 本文算法和其他流行方法的比較,依次為原圖,CTM,DBSCAN,HOS,Gencut,CTM,Self-tuning,以及本文算法

        如圖 5所示,我們的算法在BSDS500上進行了測試,圖 5的上半部分是原圖,下半部分是分割后的結(jié)果圖.我們通過選取BSDS500數(shù)據(jù)集中自然圖像的風景,物體,動物,人等具有代表性的圖像.來證實我們算法的有效性.從圖中我們可以看出,我們的算法能夠很好的處理簡單以及復雜背景的自然圖像,并且能夠有效的避免過分割現(xiàn)象.

        圖5 算法在BSDS500數(shù)據(jù)集上測試的結(jié)果,上部分原圖,下部分為分割圖

        5 結(jié) 語

        在本文中,我們提出了一種基于深度學習特征和社團劃分的彩色圖像分割方法.首先對圖像進行超像素預處理之后,提取超像素區(qū)域的顏色特征以及深度學習特征,構(gòu)建相似度矩陣.在相似度矩陣的基礎上,利用譜聚類算法進行聚類.選取最大模塊度Q值來判斷實驗最佳聚類效果.大量的實驗結(jié)果驗證了本文提出的算法的有效性.此外,我們的算法在公共數(shù)據(jù)集BSDS500上進行了測試.并與現(xiàn)有的幾種著名圖像分割方法進行比較.在不同圖像上的分割實驗結(jié)果表明,我們提出的圖像分割算法優(yōu)于其它幾種方法.該算法能夠有效的處理復雜背景的圖像,并減少過分割現(xiàn)象.

        猜你喜歡
        深度特征
        抓住特征巧觀察
        深度理解一元一次方程
        新型冠狀病毒及其流行病學特征認識
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        深度觀察
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        亚洲制服无码一区二区三区| 欧美颜射内射中出口爆在线 | 在线看片无码永久免费aⅴ| 亚洲av永久青草无码精品| 国产高清在线精品一区二区三区| 亚洲综合欧美色五月俺也去| 日日噜噜噜夜夜爽爽狠狠视频| 国产乱人伦偷精品视频免| 久久久国产精品三级av| 蜜臀久久99精品久久久久久| 中文国产日韩欧美二视频| 色综合久久精品中文字幕| 一区二区三区在线日本视频| 国产精品久久久久久| 精品香蕉久久久爽爽| 午夜无码亚| 国产精品亚洲精品一区二区| 国产免费内射又粗又爽密桃视频| 就去吻亚洲精品欧美日韩在线| 国产精品人人爱一区二区白浆 | 美女视频黄的全免费的| 精品亚洲一区二区99| 新久久国产色av免费看| 日日碰狠狠添天天爽五月婷| 亚洲地址一地址二地址三| 国产精品99久久精品女同| 日本a级片免费网站观看| 中文字幕av一区中文字幕天堂| 97色综合| 亚洲乱码一区二区av高潮偷拍的| 又嫩又硬又黄又爽的视频| xxxx国产视频| 白浆国产精品一区二区| 亚洲精品久久久久久久不卡四虎| 欧洲中文字幕| 国产一区二区三区特区| 亚洲午夜av久久久精品影院色戒| 日产无人区一线二线三线新版 | 国产影片一区二区三区| 国精产品推荐视频| 国产精品玖玖玖在线资源|