亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于中低層結(jié)合的圖像感興趣區(qū)域標注*

        2018-04-13 07:27:02王士同
        數(shù)據(jù)采集與處理 2018年2期
        關(guān)鍵詞:區(qū)域檢測信息

        周 潔 王士同

        (江南大學(xué)數(shù)字媒體學(xué)院,無錫,214122)

        引  言

        對于人類來說,視覺是最重要的接受信息的途徑之一,人類對于視覺所接受的信息在人腦中的處理方式便是形成圖像。伴隨著科學(xué)技術(shù)的不斷發(fā)展進步,信息也逐步進入了高速發(fā)展的大爆炸時期。人類每秒接受的信息流為(108~109)[1-2],十分豐富且龐大。因此,如何使機器能夠像人類對于圖像數(shù)據(jù)的處理一樣快速和精準便成為了現(xiàn)今重要的研究課題之一。研究發(fā)現(xiàn)在人類的視覺識別系統(tǒng)中能夠高效準確地定位到復(fù)雜場景中的一個或幾個區(qū)域,而忽略其他不重要的較多重復(fù)的背景信息。這個看似人人都會的簡單的過程,實際并不簡單,甚至較為復(fù)雜。人類視覺的識別系統(tǒng)通過對圖像進行特征分析來鎖定圖像的某個或某幾個區(qū)域,并將該區(qū)域挪動到視網(wǎng)膜的正中央使得大腦對圖像的觀察更加清晰,以便對其進行進一步的分析觀察處理。人類的這種選擇性注意機制在感興趣區(qū)域的選定上十分有效,也是現(xiàn)今感興趣區(qū)域標注的關(guān)鍵技術(shù)之一。因此從人類的視覺研究入手,能夠方便人類對于感興趣區(qū)域算法的不斷改進。盡管如此,迄今為止,人類仍然沒有開發(fā)出能和人類視覺的識別系統(tǒng)相抗衡的算法。因此,又提出了基于數(shù)學(xué)計算的模型來實現(xiàn)對人類感興趣區(qū)域的標注,不斷對圖像感興趣區(qū)域標注的算法進行補充和改進。

        在圖像處理中,通過對圖像感興趣區(qū)域的鎖定,能夠更好地把握圖像中有意義的信息,去除圖像冗余,使后續(xù)的處理工作更加簡單,能夠在圖像處理領(lǐng)域加快后續(xù)處理的速率,提高算法的效率,節(jié)省時間。因此,圖像感興趣區(qū)域標注在圖像處理領(lǐng)域意義非凡。感興趣區(qū)域的標注能夠?qū)D像進行預(yù)處理,以便在后續(xù)的圖像分類、圖像壓縮、定位圖像中目標物體、圖像匹配、視頻跟蹤、圖像有效編碼[3]等領(lǐng)域中對圖像進行處理和應(yīng)用。圖像感興趣區(qū)域提取能夠幫助更好地理解、處理和分析圖像,是一個結(jié)合人類視覺系統(tǒng)、數(shù)學(xué)方法、特征提取、圖像處理的綜合研究過程,對于圖像研究和分析的應(yīng)用意義重大。

        近年來,國內(nèi)外越來越多的學(xué)者和機構(gòu)在圖像感興趣區(qū)域標注領(lǐng)域投入了更多的研究。1998年,Itti等人提出了一種基于低層的視覺特性的計算機模型[4]。該模型利用自底而上的模型對圖像進行檢測,從局部的特征著手,通過中間-周邊(Center-surround)算子計算圖像的低層信息,如有灰度、顏色、方位等特征,并將其顯著度的度量結(jié)果合成為最終的顯著圖。Itti方法通過不同尺度上的顯著度計算,需要對原圖進行縮放和平滑,導(dǎo)致特征顯著圖清晰度降低,所形成的顯著度結(jié)果圖輪廓不準確,結(jié)果圖成塊。2006年提出的基于圖的視覺顯著度方法(Graph-based visual saliency,GB)[5]在Itti方法上進行了改進,在通過視覺系統(tǒng)進行判斷的基礎(chǔ)上加入了純數(shù)學(xué)計算的方法。GB算法也是從底層細節(jié)信息出發(fā),保持了Itti模型中的特征和提取方式。但在特征的顯著度計算和特征顯著圖的結(jié)合方式上不同。融入了馬爾科夫鏈,但對于馬爾科夫鏈的平衡態(tài)的計算十分復(fù)雜,降低了算法的整體效率。在結(jié)果上比Itti方法稍好,但顯著區(qū)域邊緣不清晰,仍然成塊。2008年,Achanta等人針對Itti方法中對于圖像不同尺度的處理進行改進,不再對圖像進行縮放處理,而是通過改變計算特征提取單元的大小來實現(xiàn)原本Itti算法中不同尺度的高斯金字塔處理方式,即AC算法[6]。AC算法也通過對圖像的底層信息亮度和顏色變化強烈的部分來模擬人眼對場景的感知,以此來確定圖像的感興趣區(qū)域。通過多尺度提取單元的運算使得算法的精確度和容錯性較高。但是,顯著度結(jié)果圖顯著度區(qū)域不夠突出,背景噪聲較多。光譜殘差法(Spectral residual approach,SR)[7]是從頻域的角度出發(fā)對圖像的顯著度進行標注。Barlow提出去除輸入信息中的冗余信息就是高效編碼[8]。在人類的視覺系統(tǒng)中,對圖像中頻繁出現(xiàn)的特征不敏感,對偏離正態(tài)的特征較為敏感,即高頻率抑制原理[9]。利用傅里葉變換和反變換來對圖像進行處理。SR算法效率很高,但是顯著圖效果一般,只能對顯著性區(qū)域進行粗略定位,對顯著物體標注不明顯。Xie等人所提出的貝葉斯算法[10]通過對圖像的灰度、對比度、顏色等方面的低層次信息和包含超像素及聚類結(jié)果的中層次信息進行結(jié)合,得到的顯著圖有明確邊緣,內(nèi)部高亮。但效率較低,背景圖中噪聲較多。頻率調(diào)諧顯著度區(qū)域檢測算法(Frequency-tuned saliency region detection,FT)[11]是利用高斯差分濾波器對圖像進行處理來檢測圖像感興趣區(qū)域的。優(yōu)點是顯著度區(qū)域具有清晰的邊緣,但對部分顯著度區(qū)域有中心抑制,顯著度區(qū)域亮度較低,結(jié)果較差。文獻[12]提出了一種結(jié)合區(qū)域和邊界信息的圖像顯著度檢測,該方法提出了對不同特征下的顯著度信息統(tǒng)一度量標準,利用Beltrami濾波器對圖像的邊界信息進行檢測利用,再與圖像區(qū)域結(jié)合,較之前的Itti,AC,GB方法有很大提高,但所得到的結(jié)果仍舊成塊,沒有明確邊緣。

        在現(xiàn)階段的研究中,已有算法的不足主要是顯著性區(qū)域定位不夠精準,無清晰邊緣,顯著度區(qū)域不夠高亮及背景中包含噪聲。本文中采用超像素聚類與凸包相結(jié)合的中層次圖像信息和圖像不同頻率不同權(quán)重差分濾波的低層次圖像信息相結(jié)合的方法來對圖像的顯著度進行標注。中層次信息為顯著性區(qū)域提供了精準的定位和粗略圖,低層次信息為顯著區(qū)域補充邊緣及內(nèi)部信息。利用微軟亞洲研究院提供的公開數(shù)據(jù)庫進行人工標注的1 000張圖對本文的方法進行驗證,實驗結(jié)果表明本文方法能夠有效定位顯著度區(qū)域,對背景中的噪聲有抑制作用,與其他方法實驗結(jié)果相比具有更高亮的顯著度區(qū)域,且邊緣清晰。

        1 結(jié)合中、低層信息的顯著區(qū)域標注

        近年來,圖像的目標區(qū)域檢測不再局限于單一層面的檢測,而是采用高中低三個層次進行結(jié)合的方式來得到更加精確的結(jié)果。高層次圖像信息主要是從整體出發(fā),利用先驗知識和語義信息將圖像映射到抽象的語義信息中。中層次信息是指對圖像結(jié)構(gòu)信息的定位處理,以及對圖像的頻域顏色等進行分析。低層次的信息是從圖像本身出發(fā),對算法進行底層設(shè)計和細節(jié)實現(xiàn)。本文即采用中層次信息與低層次信息相結(jié)合的方式來進行顯著度區(qū)域標注。

        1.1 中層次顯著信息標注

        貝葉斯算法從中層次和低層次出發(fā),對顯著度區(qū)域進行標注。其在中層次采用超像素聚類和凸包相結(jié)合的方法得到先驗概率圖,再通過貝葉斯公式求出低層次的信息,對于顯著圖的定位較好,且準確率較高。但其超像素聚類(拉普拉斯子空間聚類)無法自主確定聚類個數(shù),且時間復(fù)雜度較高、迭代尋優(yōu)時間較長、算法效率較低。同時低層次的圖像不夠清晰,有些圖像顯著度區(qū)域亮度較低且包含噪聲。故本文算法的中層次采用貝葉斯算法獲取先驗概率圖的方法,通過基于圖的松弛聚類算法(Graph-based relaxed clustering,GBR)[13]對超像素聚類方法進行替換,保證算法的運算效率及自適應(yīng)性,下面對其進行具體闡述。

        首先在圖像中使用彩色增強的Harris角點檢測算子[14]對圖像的彩色角點進行檢測。彩色增強的Harris角點檢測算子在傳統(tǒng)的Harris角點檢測算子[15]中加入了顏色特征,能夠更好地排除背景中的干擾因素,對顯著區(qū)域的定位效果更好。彩色增強的Harris角點檢測算法通過對輸入圖像進行顏色分析,計算得到彩色增強矩陣M,再將圖像通過M矩陣進行顏色增強,計算增強后圖像的Harris角點能量函數(shù),再選取該函數(shù)形成的能量圖中能量值最大的點集,并剔除邊界處的點,得到最終顯著點。圖1中展示了彩色增強的Harris角點檢測算子結(jié)果與傳統(tǒng)的Harris角點檢測算子的結(jié)果比較圖。

        圖1 角點檢測圖像Fig.1 Comparison of different corner detection

        圖2 凸包區(qū)域?qū)Ρ葓DFig.2 Comparison of different convex hull

        將剛剛通過改進Harris角點檢測的角點圖用凸包進行包圍。為了減少邊緣對于圖像凸包形成的影響,應(yīng)去除圖像邊界處的角點。圖2中顯示了不同Harris角點形成凸包區(qū)域與真值圖的對比情況。真值圖,即由{0,1}組成的顯著度區(qū)域的人工標注圖像。由圖2可以看出改進的Harris角點所形成的凸包區(qū)域?qū)τ趫D像顯著區(qū)域的定位更為精準。

        1.1.1超像素及超像素聚類

        超像素能夠從整體上對圖像的像素點進行表達。將一系列距離相近且顏色、亮度等特征相似的像素點合并為一個超像素。超像素既能保留圖像的邊界,又能使圖像的后續(xù)操作更加簡便。簡單線性迭代聚類算法(Simple linear iterative clustering,SLIC)[16]能夠很好地將圖像聚類成超像素。SLIC算法能夠在邊緣貼合度和緊密度上取得較好的平衡且計算效率較高,數(shù)量可控,是目前綜合性能較好的一種超像素方法。因此本文利用SLIC算法將圖像像素聚類形成超像素。圖3顯示了圖像的原圖與SLIC算法的超像素圖,其中SLIC聚類個數(shù)設(shè)定為200。

        然后,將處理過的超像素圖再利用GBR方法進行聚類。GBR算法是基于譜聚類(Spectral clustering)算法的一項最新研究成果。不同于傳統(tǒng)譜聚類需要求解特征值及特征向量的復(fù)雜方式,該方法無需對特征值、特征向量進行求解,且其可以自主確定聚類個數(shù),是一種簡單、快速、自適應(yīng)的聚類方法。相比Xie等人[10]所采用的拉普拉斯子空間聚類方法,該方法可以一次劃分出所有的類別,并且時間復(fù)雜度較低,效率較高。

        GBR算法中,Lee等人[17]在Normalized cuts的求解方法中采用了半正定松弛的方法。

        minyTLys.t.‖y‖=1,eTy=0

        (1)

        式中:eT=(1,1,…,1),L為拉普拉斯矩陣。計算公式如下

        (2)

        (3)

        L=D-W

        (4)

        式中:W為圖G=(V,E)各個頂點的相似度矩陣;D為對角矩陣,稱為W的度矩陣。

        由于式(1)主要解決兩類問題,為了將其應(yīng)用到多分類上,Lee對式(1)限制條件進行修改,提出了GBR算法。

        minyTLys.t.Ay=φ,φ≠0

        (5)

        式中A=eT。式(5)所求解出的最優(yōu)解y*可直接表示出聚類結(jié)果,可直觀地通過y*來觀察所有樣本的分類情況及每個樣本的類別。Lee通過引入拉格朗日乘子λ,并分別對y和λ求偏導(dǎo)后得到結(jié)果y*。

        y*=L-1AT(AL-1AT)-1φ

        (6)

        1.1.2中層次顯著圖

        結(jié)合凸包區(qū)域和超像素聚類結(jié)果,由式(7)得出中層次的概率圖。

        (7)

        式中:|n|表示聚類一個類內(nèi)的像素數(shù)量,|n∩h|表示既在凸包區(qū)域內(nèi)又在該類內(nèi)的像素數(shù)量。兩者的比值確定了該像素的顯著度概率,即中層次的顯著圖。數(shù)據(jù)庫中部分結(jié)果如圖4所示。

        圖4 中層次顯著圖Fig.4 Saliency map of middle level

        1.2 低層次顯著信息標注

        1.2.1FT算法

        由于中層次的顯著圖僅能夠定位顯著度區(qū)域。內(nèi)部較為粗略,缺少底層的細節(jié)及邊緣信息,故利用低層次的信息對中層次顯著圖進行補充,更好地對圖像的顯著區(qū)域進行標注。

        FT算法是一種利用多組不同尺度的高斯差分濾波器對圖像進行處理得到顯著度圖的方法。FT算法在頻率域內(nèi)對圖像進行處理。圖像在頻域的表示分為高頻和低頻,高頻代表圖像的細節(jié)信息;低頻則主要反映圖像的整體概況。通過FT算法控制圖像的頻率輸出所得到顯著度圖像能夠很好地體現(xiàn)圖像顯著區(qū)域的輪廓及內(nèi)部細節(jié)。假設(shè)圖像的低頻截止頻率為ωlc,高頻的截止頻率為ωhc。

        FT算法主要采用高斯差分(Difference of Gaussian,DoG)濾波器對圖像進行高斯差分濾波。DoG的公式如下

        (8)

        (9)

        式中σ1,σ2是高斯標準差,且σ1:σ2=1.6。

        由于單個DoG濾波器的帶寬為標準差ρ=σ1:σ2較窄,無法滿足實際需求。因此利用多個窄帶的DoG濾波器結(jié)合的方式來適應(yīng)實際需求。

        (10)

        式中N表示DoG濾波器數(shù)量。當N≥0時,式(10)可以簡化為兩個高斯函數(shù)差K=ρN(因為除第一項和最后一項,其他項可以相互抵消)。這樣就可以選擇一個盡可能大的K值來代替多個DoG濾波器組合的結(jié)果。

        由于σ1>σ2,因此最高頻率取決于σ1,最低頻率取決于σ2。因此可以將σ1趨于無窮大。即利用一個較小的高斯核對圖像進行濾波來達到多個DoG濾波的效果。

        經(jīng)過濾波的圖像If,轉(zhuǎn)化到CIELab空間,得到3個分量l,a,b。得到顯著圖像ISal為

        ISal=‖Iu-If‖

        (11)

        式中:Iu是圖像在CIELab空間的平均值,If是圖像經(jīng)過濾波后消除了一定的高頻噪聲的圖像,‖·‖表示L2范式,用歐式距離來計算。

        1.2.2改進的FT算法

        傳統(tǒng)的FT算法有諸多不足。在傳統(tǒng)的FT算法中,雖然對于高斯差分濾波器采用了不同的頻率進行濾波,但對于不同尺度的DoG濾波器的權(quán)重相同,使得高頻信息和低頻信息的比重相同。但在人的視覺系統(tǒng)中,低頻的整體信息比高頻信息更容易被觀測,且高頻信息中可能包含噪聲,使得顯著圖檢測依賴于物體的情況,結(jié)果不佳。因此應(yīng)該在FT算法中多突出頻率較低的部分,使得圖像中顯著物體的區(qū)域高亮。

        由于低頻信息更能突出圖像的整體部分。故在改進的FT方法中,采取增加低頻信息權(quán)重的方法來抑制高頻信息,得到更好的圖像顯著度結(jié)果。于是,在式(10)的基礎(chǔ)上進行改進,使得DoG濾波器中頻率越低的部分權(quán)重越大,如式(12)所示

        (12)

        式中Wn是權(quán)重,且為了使低頻信息權(quán)重增高,則W0

        (13)

        通過FT算法中的式(12)可以類似地推導(dǎo)出改進FT算法求解顯著度圖像的式(14)。

        (14)

        使用FT算法和改進FT算法得到的顯著圖比較結(jié)果如圖5所示。通過對比可以發(fā)現(xiàn)由于改進FT加重了低頻信息的權(quán)重,使圖像清晰度有所下降,但是影響較小,邊緣依舊清晰,且能夠更多忽略背景中的細節(jié)和噪聲,將顯著度區(qū)域高亮表示,具有更好的檢測效果。

        圖5 FT與改進FT對比圖Fig.5 Comparison of FT and the improved FT

        1.3 中低層次顯著度圖結(jié)合

        在不同層次下提取出的不同顯著度圖代表了不同層次下的信息,中層定位顯著度區(qū)域,低層補充細節(jié)和邊緣,通過兩者的結(jié)合能夠更好地對顯著度區(qū)域進行檢測。那么可以用式(15)將兩個層次的顯著度圖像進行融合。

        (15)

        2 實驗結(jié)果與分析

        本文采用微軟亞洲研究院提供的顯著性檢測數(shù)據(jù)集MSRA作為實驗數(shù)據(jù)集,該數(shù)據(jù)集包含1 000張由志愿者人工標注了顯著性區(qū)域的自然圖像。本文使用Itti,GB, AC, SR,基于對比度模糊生長的圖像注意分析(MZ)算法[19]進行對比實驗,比較結(jié)果如圖6所示。從圖中可以看出,本文提出方法較之前的方法更能精確定位感興趣區(qū)域,且區(qū)域高亮、細節(jié)完整、邊緣清晰、背景噪聲較少,是一種有效的圖像感興趣區(qū)域提取方法。

        本文采用準確率-回歸率曲線(Precision-recall curve)來實現(xiàn)對本文顯著度檢測效果的定量衡量。

        圖6 各種方法比較圖Fig.6 Comparison of the proposed saliency map with five start-of-art methods

        其中,準確率的求解方式為

        (16)

        (17)

        圖7 準確率-回歸率曲線圖 Fig.7 Precision-recall curve of different methods

        回歸率求解公式與準確率求解公式相似,如式(18)所示,用顯著度圖和圖像真值圖的相交區(qū)域與圖像真值圖所包含的區(qū)域的比值表示。

        (18)

        準確率-回歸率曲線能夠精確反映算法的感興趣區(qū)域檢測性能。曲線越高,代表算法的準確率越高;曲線下降越慢,代表算法的精確率和查全率越高;曲線覆蓋越全面說明算法的查全率越高。本文提出算法的準確率-回歸率曲線如圖7中OUR所示,從圖中可看出本文提出的方法具有更高的精確率和查全率。在回歸率值為1時,所有方法都具有相同的準確率值,這是因為檢測圖像已經(jīng)全部被看作為感興趣區(qū)域。

        3 結(jié)束語

        本文提出了一種中低層相結(jié)合的圖像顯著度檢測方法。利用彩色增強的角點檢測算子形成凸包與采用GBR方法對SLIC所形成的超像素進行聚類的結(jié)果相結(jié)合以確定中層次的顯著區(qū)域,再利用多尺度不同權(quán)重的差分高斯濾波器求解低層次的顯著圖,最后加權(quán)融合中低層次的顯著度區(qū)域得到最終結(jié)果。中層次信息保證了圖像顯著區(qū)域的正確定位,多尺度不同權(quán)重的高斯濾波為顯著區(qū)域添加細節(jié),使顯著區(qū)域更加完善。通過主觀觀察可以發(fā)現(xiàn)本文方法較其他方法具有更準確的定位,邊緣更加清晰,內(nèi)部細節(jié)更加完整,具有更好的圖像顯著度標注效果。在MSRA數(shù)據(jù)庫上對本文方法進行定量分析,結(jié)果顯示本文方法較其他比較算法具有更高的準確率和查全率,是一種較好的圖像感興趣區(qū)域標注方法。但GBR算法中的結(jié)果對于參數(shù)σ較敏感,且參數(shù)σ的取值范圍較大,在后續(xù)的研究工作中將對參數(shù)σ進行分區(qū)域間遍歷選擇來實現(xiàn)GBR算法的最好效果。

        參考文獻:

        為此,本研究擬對欠發(fā)達地區(qū)——貴州省大學(xué)生體測數(shù)據(jù)把握的基礎(chǔ)上,從體質(zhì)健康標準測試3個維度(身體形態(tài)、身體機能、身體素質(zhì))的不同指標以及派生指標間的相關(guān)性入手,挖掘隱藏在數(shù)據(jù)背后具有稀缺性和差異性的價值。即把數(shù)據(jù)分析為信息,把信息提煉為知識,以知識促成決策和行動[9]。使大學(xué)生在了解自身身體質(zhì)健康情況下,有目的、有方向地鍛煉身體。同時通過相關(guān)性的分析,加深對大學(xué)生體質(zhì)健康標準測試的了解,為進一步推進和改革《國家學(xué)生體質(zhì)健康標準》測試提供理論依據(jù)。

        [1]Itti L, Koch C. Computational modelling of visual attention[J]. Nature Reviews Neuroscience, 2001, 2(3): 194-203.

        [2]Koch K, McLean J, Segev R, et al. How much the eye tells the brian [J]. Current Biology, 2006, 16(14): 1428-1434.

        [3]歐陽甸, 張偉華, 董騫,等. 基于SVAC感興趣區(qū)域的碼率控制算法[J]. 數(shù)據(jù)采集與處理, 2014, 29(1):101-107.

        Ouyang Dian, Zhang Weihua, Done Qian, et al. Rate control algorithm for region of interest based on SVAC[J]. Journal of Data Acquisition and Processing, 2014, 29(1):101-107.

        [4]Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis &Machine Intelligence, 1998 (11): 1254-1259.

        [5]Harel J, Koch C, Perona P. Graph-based visual saliency[C]//Advances in Neural Information Processing Systems. Vancouver, B.C., Canada: MIT Press, 2006: 545-552.

        [6]Achanta R, Estrada F, Wils P, et al. Salient region detection and segmentation[C]//Computer Vision Systems. Berlin Heidelberg:Springer, 2008: 66-75.

        [7]Hou X, Zhang L. Saliency detection: A spectral residual approach[C]//CVPR′07, IEEE Conference on Computer Vision and Pattern Recognition, 2007. Minneapolis, Minnesota, USA: IEEE, 2007: 1-8.

        [8]Franco L, Rolls E T, Aggelopoulos N C, et al. Neuronal selectivity, population sparseness, and ergodicity in the inferior temporal visual cortex[J]. Biological Cybernetics, 2007, 96(6):547-560.

        [9]Koch C, Poggio T. Predicting the visual world: Silence is golden[J]. Nature Neuroscience, 1999, 2: 9-10.

        [10] Xie Y, Lu H, Yang M H. Bayesian saliency via low and mid level cues[J]. Image Processing, IEEE Transactions on, 2013, 22(5):1689-1698.

        [11] Achanta R, Hemami S, Estrada F, et al. Frequency-tuned salient region detection[C]// IEEE International Conference on Computer Vision and Pattern Recognition 2009. Miami, FL, USA: IEEE, 2009:1597-1604.

        [12] 闖躍龍, 樓宋江, 張石清,等. 結(jié)合區(qū)域和邊界信息的圖像顯著度檢測[J]. 中國圖象圖形學(xué)報, 2016, 21(3):314-322.

        Chuang Yuelong, Lou Songjiang, Zhang Shiqing, et al.Image saliency by regions and edges[J]. Journal of Image and Graphics, 2016, 21(3):314-322.

        [13] Qian P, Chung F L, Wang S, et al. Fast graph-based relaxed clustering for large data sets using minimal enclosing ball[J]. Systems, Man, and Cybernetics, Part B: Cybernetics, IEEE Transactions on, 2012, 42(3): 672-687.

        [14] Van de Weijer J, Gevers T, Bagdanov A D. Boosting color saliency in image feature detection[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2006, 28(1): 150-156.

        [15] Harris C, Stephens M. A combined corner and edge detector[C]//Alvey Vision Conference. Manchester,UK: Organising Committee AVC 88 Press, 1988, 15: 50.

        [16] Achanta R, Shaji A, Smith K, et al. SLIC superpixels compared to state-of-the-art superpixel methods[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2012, 34(11): 2274-2282.

        [17] Lee C H, Za?ane O R, Park H H,et al. Clustering high dimensional data:A graph-based relaxed optimization approach[J]. Information Science, 2008,178(23):4501-4511.

        [18] 肖志濤, 王紅, 張芳,等. 復(fù)雜自然環(huán)境下感興趣區(qū)域檢測[J]. 中國圖象圖形學(xué)報, 2015, 20(5):625-632.

        Xiao Zhitao, Wang Hong, Zhang Fang, et al. ROI detection under the complicated natural environment[J]. Journal of Image and Graphics, 2015, 20(5):625-632.

        [19] Ma Y F, Zhang H J. Contrast-based image attention analysis by using fuzzy growing[C]//Proceedings of the eleventh ACM international conference on Multimedia.Berkeley, CA, USA: ACM, 2003: 374-381.

        猜你喜歡
        區(qū)域檢測信息
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        小波變換在PCB缺陷檢測中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        基于嚴重區(qū)域的多PCC點暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        區(qū)域
        民生周刊(2012年10期)2012-10-14 09:06:46
        国产熟女露脸大叫高潮| 亚洲小说区图片区色综合网| 亚洲婷婷五月综合狠狠爱| 亚洲精品久久久无码av片软件| 黑人巨大精品欧美在线观看| 中文字幕视频一区二区| 久久午夜av一区二区三区| 18禁黄久久久aaa片| 欧美在线观看一区二区| 国产三级av在线播放| 久久红精品一区二区三区| 午夜色大片在线观看| 亚洲日本欧美产综合在线| 国内自拍偷拍一区二区| 痴汉电车中文字幕在线| 精品乱码久久久久久久| 国产成人拍精品免费视频| 中文字幕久区久久中文字幕| 国产成人久久精品一区二区三区 | 韩国精品一区二区三区| 日韩成人高清不卡av| 亚洲av午夜成人片精品电影| 国内老熟妇对白xxxxhd| 欧美破处在线观看| 久久综合激激的五月天| 免费看黄色亚洲一区久久| 国产三级精品三级在线观看| 久久久久久久98亚洲精品| 黄片一级二级三级四级| 人妻丰满熟妇av无码区app| 日日躁夜夜躁狠狠久久av| 精品亚洲一区二区99| 久久亚洲中文字幕精品熟| 欧美成人片在线观看| 亚洲Va中文字幕久久无码一区| 久久久噜噜噜噜久久熟女m| 国产成人av一区二区三区在线观看| 又黄又爽又色的视频| 丝袜 亚洲 另类 欧美| 日本不卡的一区二区三区中文字幕| 俺去俺来也在线www色官网|