亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖割精細(xì)化和可微分聚類(lèi)的無(wú)監(jiān)督顯著性目標(biāo)檢測(cè)

        2022-01-05 02:31:50李小雨房體育夏英杰李金屏
        計(jì)算機(jī)應(yīng)用 2021年12期
        關(guān)鍵詞:區(qū)域優(yōu)化檢測(cè)

        李小雨,房體育,夏英杰,李金屏*

        (1.濟(jì)南大學(xué)信息科學(xué)與工程學(xué)院,濟(jì)南 250022;2.山東省網(wǎng)絡(luò)環(huán)境智能計(jì)算技術(shù)重點(diǎn)實(shí)驗(yàn)室(濟(jì)南大學(xué)),濟(jì)南 250022;3.山東省“十三五”高校信息處理與認(rèn)知計(jì)算重點(diǎn)實(shí)驗(yàn)室(濟(jì)南大學(xué)),濟(jì)南 250022)

        (?通信作者電子郵箱ise_lijp@ujn.edu.cn)

        0 引言

        人類(lèi)的視覺(jué)注意力機(jī)制可以很好地從復(fù)雜場(chǎng)景中提取感興趣的區(qū)域并提供給大腦進(jìn)行后續(xù)分析,如何使計(jì)算機(jī)模擬此機(jī)制并準(zhǔn)確、快速地提取圖像關(guān)鍵信息,是圖像顯著性檢測(cè)的主要目標(biāo)。隨著顯著性檢測(cè)在目標(biāo)識(shí)別、圖像壓縮、圖像自動(dòng)裁剪等計(jì)算機(jī)視覺(jué)領(lǐng)域的廣泛應(yīng)用,關(guān)注它的學(xué)者逐年增多,涌現(xiàn)了大量的顯著性檢測(cè)算法。目前顯著性檢測(cè)算法大致分為傳統(tǒng)模型和深度學(xué)習(xí)模型兩類(lèi)。

        基于手工提取特征的傳統(tǒng)模型[1-4]通常根據(jù)輸入圖像本身利用主成分分析、頻率分析等方法提取線索來(lái)突出目標(biāo)并抑制干擾,可以在很少的時(shí)間成本下執(zhí)行,但是檢測(cè)精度上普遍不高。例如:Achanta 等[1]利用頻域顏色特征和亮度特征來(lái)計(jì)算顯著值;Cheng等[4]將像素的顯著值定義為它與圖像中所有其他像素的顏色差異的加權(quán)和。

        深度學(xué)習(xí)模型[5-10]根據(jù)人類(lèi)注釋的顯著性masks 是否用于訓(xùn)練,可以分為全監(jiān)督方法和非全監(jiān)督方法。在全監(jiān)督方面,Lee 等[6]將編碼的低級(jí)距離圖和VGG 網(wǎng)絡(luò)提取的高層特征連接起來(lái),并將它們連接到一個(gè)全連接分類(lèi)器來(lái)評(píng)估顯著性。Hou等[7]提出了一種具有多分支短連接的深度監(jiān)督框架,它嵌入了高層次和低層次的特征來(lái)進(jìn)行精確的全監(jiān)督顯著性檢測(cè)。非全監(jiān)督方法分為弱監(jiān)督方法和無(wú)監(jiān)督方法,它們大多使用圖像級(jí)分類(lèi)標(biāo)簽或使用其他任務(wù)生成的偽像素標(biāo)簽來(lái)注釋顯著性。在弱監(jiān)督方面,Wang 等[8]開(kāi)發(fā)了一種僅使用圖像級(jí)標(biāo)記的弱監(jiān)督顯著性檢測(cè)算法,通過(guò)將前景推理網(wǎng)絡(luò)與全卷積網(wǎng)絡(luò)聯(lián)合訓(xùn)練來(lái)預(yù)測(cè)圖像級(jí)標(biāo)簽。而在無(wú)監(jiān)督方面,Zhang等[9]提出“融合監(jiān)督”,結(jié)合圖像內(nèi)融合流和圖像間融合流,從無(wú)監(jiān)督顯著性模型的融合過(guò)程中生成有用的監(jiān)督信號(hào)以監(jiān)督深度顯著目標(biāo)檢測(cè)器的訓(xùn)練。Zhang 等[10]用一個(gè)潛在的顯著性預(yù)測(cè)模塊和一個(gè)顯式的噪聲建模模型組成一種端到端的深度學(xué)習(xí)框架。

        傳統(tǒng)的顯著性檢測(cè)模型雖然模型簡(jiǎn)單并且時(shí)間成本低,但分割精度普遍不高,而基于深度學(xué)習(xí)的模型雖然有較高的精確度,但是訓(xùn)練階段依賴(lài)于大量的手動(dòng)注釋數(shù)據(jù)或偽像素標(biāo)簽,因此,如何在無(wú)人工標(biāo)記或者少人工標(biāo)記的情況下對(duì)顯著性目標(biāo)進(jìn)行精確檢測(cè)是目前該領(lǐng)域面臨的一個(gè)核心問(wèn)題。針對(duì)該問(wèn)題,本文提出一種基于圖割精細(xì)化和可微分聚類(lèi)的無(wú)監(jiān)督顯著性目標(biāo)檢測(cè)算法。該算法采用由“粗”到“精”的思想,將顯著性目標(biāo)檢測(cè)問(wèn)題分成定位和精細(xì)化兩個(gè)部分進(jìn)行解決,在無(wú)人工標(biāo)記的情況下僅利用單張圖像便可獲取精確的目標(biāo)檢測(cè)結(jié)果。首先,利用Frequency-tuned 算法[1]根據(jù)圖像自身的顏色和亮度特征進(jìn)行對(duì)比以得到顯著粗圖;然后根據(jù)圖像的統(tǒng)計(jì)特性進(jìn)行二值化并結(jié)合中心優(yōu)先假設(shè)[11]得到顯著目標(biāo)的候選區(qū)域,進(jìn)而利用GrabCut 算法[12]對(duì)單張圖像迭代實(shí)現(xiàn)能量最小化以實(shí)現(xiàn)顯著目標(biāo)的精細(xì)化分割;最后,結(jié)合具有良好邊界分割效果的無(wú)監(jiān)督可微分聚類(lèi)算法[13]對(duì)單張顯著圖進(jìn)一步優(yōu)化,使優(yōu)化顯著圖更接近于真值圖。

        1 算法原理

        為了彌補(bǔ)目前顯著性檢測(cè)存在的不足,本文提出一種基于圖割精細(xì)化和可微分聚類(lèi)的無(wú)監(jiān)督顯著性目標(biāo)檢測(cè)算法。該算法整體流程如圖1 所示,接下來(lái)將以顯著性目標(biāo)粗定位、候選區(qū)域的生成、GrabCut 圖像精細(xì)化分割、可微分聚類(lèi)優(yōu)化分割結(jié)果四個(gè)部分具體介紹本文算法。

        圖1 本文算法流程Fig.1 Flowchart of the proposed algorithm

        1.1 顯著性目標(biāo)初定位

        顯著性目標(biāo)粗定位指的是利用顯著性檢測(cè)算法對(duì)圖像進(jìn)行顯著性檢測(cè),得到一個(gè)顯著粗圖A,用于后續(xù)的精細(xì)化分割。圖像在頻率域可以分為低頻和高頻部分:低頻反映圖像的整體部分,如基本的組成區(qū)域;高頻部分反映圖像的細(xì)節(jié)信息,如物體的紋理。顯著性目標(biāo)檢測(cè)算法更多用到的是低頻部分的信息。Frequency-tuned 算法充分考慮這個(gè)特點(diǎn),首先利用高斯濾波排除高頻的干擾,再利用顏色和亮度特征來(lái)估計(jì)中心與周?chē)膶?duì)比度以作為顯著度,由此得到的顯著區(qū)域具有明確的邊界、完全分辨率和較高的計(jì)算效率,生成的顯著性映射可以更有效地應(yīng)用于其他領(lǐng)域。因此,本文采用Frequency-tuned 算法進(jìn)行初步顯著性檢測(cè),具有如下的顯著性映射定義:

        其中:Iμ是圖像在LAB 顏色空間的三個(gè)通道的算術(shù)平均像素值;Iwhc(x,y)是原始圖像經(jīng)過(guò)5× 5 高斯模糊后在LAB 顏色空間的像素值;‖ ‖是L2范數(shù)。

        生成的顯著粗圖如圖2 所示。圖2(a)是原圖,圖2(b)是經(jīng)過(guò)Frequency-tuned 算法得到的顯著粗圖,可以發(fā)現(xiàn)顯著粗圖中一些背景區(qū)域也被突出了。

        圖2 Frequency-tuned算法顯著性檢測(cè)結(jié)果Fig.2 Saliency detection results of Frequency-tuned algorithm

        1.2 候選區(qū)域生成

        由于顯著粗圖中部分背景區(qū)域被突出,自適應(yīng)二值化得到的候選區(qū)域不利于后續(xù)的精細(xì)化分割。本文則基于圖像像素值的統(tǒng)計(jì)結(jié)果,獲取圖像像素值的最大值,并設(shè)置參數(shù)a調(diào)節(jié)前景和背景的比例,以此獲得更加精確的目標(biāo)二值圖B,具體表示如下:

        其中,a是0到1的變量。

        目標(biāo)二值圖作為下一步分割的先驗(yàn)知識(shí),以指導(dǎo)分割顯著目標(biāo)的準(zhǔn)確區(qū)域。將二值圖中包含所有白像素的相應(yīng)矩形區(qū)域定義為候選區(qū)域。部分圖像背景與目標(biāo)的相似程度較高,F(xiàn)requency-tuned 算法檢測(cè)出來(lái)的顯著粗圖不夠精確,導(dǎo)致目標(biāo)二值圖的白像素覆于整個(gè)圖像。針對(duì)此類(lèi)情況,本文引入顯著性檢測(cè)的中心優(yōu)先假設(shè)[11]:顯著對(duì)象更有可能在圖像中心附近找到,而邊界區(qū)域更有可能是背景。充分考慮目標(biāo)存在于圖像邊緣時(shí)中心優(yōu)先假設(shè)造成的一定程度上的特征丟失,利用參數(shù)b調(diào)節(jié)目標(biāo)區(qū)域的選定。目標(biāo)區(qū)域定義為:

        其中:(xmin,ymin)和(xmax,ymax)表示候選區(qū)域的矩形對(duì)角坐標(biāo);表示包含所有白像素的最大矩形區(qū)域的對(duì)角坐標(biāo);b為0到20的變量;W表示圖像的寬度,H表示圖像的高度。

        生成的候選區(qū)域如圖3 所示。圖3 中的第一組圖是選取包含所有白像素的最大矩形區(qū)域作為候選區(qū)域的效果圖;第二組圖是針對(duì)目標(biāo)二值圖的白像素覆于整個(gè)圖像的情況引入中心優(yōu)先假設(shè)后確定的候選區(qū)域效果圖。

        圖3 候選區(qū)域選擇結(jié)果Fig.3 Results of candidate region selection

        1.3 GrabCut 圖像精細(xì)化分割

        前文已經(jīng)對(duì)目標(biāo)進(jìn)行粗定位并得到一個(gè)目標(biāo)區(qū)域,GrabCut 算法通過(guò)迭代圖形切割優(yōu)化和邊界摳圖結(jié)合硬分割來(lái)處理對(duì)象邊界上的模糊和混合像素,能夠?qū)崿F(xiàn)很好的分割效果。因此,基于前文所得到的背景區(qū)域和可能目標(biāo)區(qū)域,選擇GrabCut來(lái)實(shí)現(xiàn)對(duì)顯著目標(biāo)的準(zhǔn)確分割。

        GrabCut 利用混合高斯模型背景區(qū)域和目標(biāo)區(qū)域進(jìn)行建模,對(duì)于每個(gè)像素,僅可能來(lái)自背景或目標(biāo)的某個(gè)高斯分量。每完成一次分割,便計(jì)算一次能量項(xiàng),即像素n分配目標(biāo)或背景標(biāo)簽的懲罰與相鄰像素n和m之間不連續(xù)的懲罰的和,用Gibbs能量項(xiàng)表示:

        其中:N表示輸入圖像的像素點(diǎn)集合,C表示相鄰像素對(duì)的集合;Pn表示像素n屬于目標(biāo)或者背景高斯分量的概率;In和Im分別表示像素n和像素m的RGB(Red-Green-Blue)值;an和am表示像素的類(lèi)別標(biāo)簽;參數(shù)δ指的是高斯模型的方差;γ根據(jù)經(jīng)驗(yàn)取值50。

        GrabCut 算法將一次最小割估計(jì)算法替換為一個(gè)更強(qiáng)大的迭代過(guò)程。第一步是對(duì)已知背景區(qū)域內(nèi)的每一像素n初始化類(lèi)別標(biāo)簽an=0;而對(duì)已知的可能目標(biāo)區(qū)域內(nèi)的每個(gè)像素n初始化類(lèi)別標(biāo)簽an=1,再通過(guò)k-means 將可能目標(biāo)像素和背景像素聚類(lèi)成K類(lèi),即高斯混合模型(Gaussian Mixture Model,GMM)模型的K維高斯分量。第二步是根據(jù)RGB 值對(duì)每個(gè)像素分配GMM 的高斯分量并根據(jù)給定的圖像數(shù)據(jù)來(lái)更新GMM參數(shù)。第三步是利用Gibbs 能量項(xiàng)估計(jì)最小割。通過(guò)第二和第三步交替進(jìn)行實(shí)現(xiàn)最小割估計(jì)和參數(shù)學(xué)習(xí),得到一種使圖像Gibbs能量項(xiàng)最小的分割方式。

        利用GrabCut 算法對(duì)已注釋背景區(qū)域的圖像進(jìn)行目標(biāo)精細(xì)化分割得到的精細(xì)化分割顯著圖能較好地將顯著目標(biāo)分割并突出,如圖4 所示第一組圖所示。但當(dāng)背景和目標(biāo)相似度高的情況下存在兩種問(wèn)題:一是圖割結(jié)果中摻雜部分背景,如圖4 第二組圖;二是圖割結(jié)果無(wú)顯著目標(biāo)或者目標(biāo)區(qū)域極小,如圖4第三組圖。

        圖4 精細(xì)化分割圖示Fig.4 Refined segmentation diagram

        1.4 可微分聚類(lèi)優(yōu)化分割結(jié)果

        為了彌補(bǔ)GrabCut 圖像精細(xì)化分割存在的兩種不足,需要尋找一種具有良好邊界分割效果的算法來(lái)進(jìn)行優(yōu)化。基于這種需求,本文引入一種可微分聚類(lèi)算法,該算法在卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)中對(duì)單張圖像進(jìn)行微分聚類(lèi)來(lái)實(shí)現(xiàn)圖像分割,分割結(jié)果保留了較好的邊緣信息,能夠有效解決前文算法的不足。

        可微分聚類(lèi)是一種新的基于單圖像的端到端網(wǎng)絡(luò)的無(wú)監(jiān)督圖像分割方法,基于這種思想,設(shè)計(jì)出如圖5 所示的結(jié)構(gòu)。首先,使用CNN 進(jìn)行特征提取獲取圖像特征{xn},接著利用q維卷積層計(jì)算q維特征圖{rn},再使用Batch Norm 進(jìn)行歸一化得到歸一化特征圖。然后,借助argmax 函數(shù)獲取每個(gè)像素對(duì)應(yīng)特征向量中最大值的ID作為像素類(lèi)別,以此得到最終的聚類(lèi)標(biāo)簽{cn} 。最后,使用梯度下降的反向傳播方法來(lái)更新參數(shù),以找到一個(gè)使損失函數(shù)L最小化的標(biāo)簽分配解決方案。損失函數(shù)L表示如下:

        圖5 可微分聚類(lèi)算法流程Fig.5 Flowchart of differentiable clustering algorithm

        其中:N表示輸入圖像的像素點(diǎn)集合;表示在映射中的第i個(gè)元素的特征值表示在映射中(ξ,η)處的特征值;μ根據(jù)經(jīng)驗(yàn)取值5,表示平衡這兩個(gè)約束的權(quán)重。

        可微分聚類(lèi)結(jié)果如圖6(d)所示,針對(duì)精細(xì)化顯著圖的兩種不足,分別采用不同的方法優(yōu)化。

        針對(duì)精細(xì)化分割圖中包含背景的情況,由于精細(xì)化顯著圖中包含的背景是一些雜質(zhì),比例較小,將目標(biāo)中像素占比最小的像素值所對(duì)應(yīng)區(qū)域定義為背景得到優(yōu)化顯著圖S,映射關(guān)系見(jiàn)式(7)。

        其中:D(x,y)表示精細(xì)化分割圖中(x,y)處的像素值;Imin表示精細(xì)化分割圖中目標(biāo)區(qū)域所對(duì)應(yīng)可微分聚類(lèi)圖的區(qū)域的統(tǒng)計(jì)灰度直方圖中占比最少的像素值;I(x,y)表示可微分聚類(lèi)圖中(x,y)處的像素值。

        針對(duì)精細(xì)化分割圖無(wú)顯著目標(biāo)或者目標(biāo)區(qū)域極小的情況,以目標(biāo)二值圖的最大連通區(qū)域?yàn)檠谀?duì)可微分聚類(lèi)圖進(jìn)行感興趣區(qū)域(Region Of Interest,ROI)選擇后得到新的目標(biāo)可能區(qū)域,將該區(qū)域灰度直方圖中除0 像素值以外占比最高的像素值作為種子點(diǎn)Imax來(lái)得到優(yōu)化顯著圖S,映射關(guān)系見(jiàn)式(8)。

        利用可微分聚類(lèi)優(yōu)化后的結(jié)果如圖6 所示:從第一組圖可以看出,背景噪聲被有效抑制;從第二組可以看出,顯著目標(biāo)被準(zhǔn)確突出。

        圖6 可微分聚類(lèi)優(yōu)化效果Fig.6 Differentiable clustering optimization effect

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 實(shí)驗(yàn)細(xì)節(jié)

        為驗(yàn)證本文提出的基于圖割精細(xì)化和可微分聚類(lèi)的無(wú)監(jiān)督顯著性目標(biāo)檢測(cè)算法的有效性,采用ECSSD[14]和SOD[15]兩個(gè)國(guó)際公開(kāi)的顯著性檢測(cè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),其中,ECSSD數(shù)據(jù)集由1 000 張圖像組成,圖像結(jié)構(gòu)較為復(fù)雜;SOD 數(shù)據(jù)集是一個(gè)更具挑戰(zhàn)的數(shù)據(jù)集,包含300 幅圖像,具有多個(gè)與背景或與圖像邊界形成低色彩對(duì)比度的顯著對(duì)象。實(shí)驗(yàn)運(yùn)行環(huán)境為Visual Studio 2017 和Pytorch 1.5,硬件平臺(tái)使用的GPU 為2080Ti,內(nèi)存為32 GB。

        部分參數(shù)設(shè)置如下:式(2)中的參數(shù)a=0.45,式(3)中的參數(shù)b=10,GrabCut 的最小割算法迭代次數(shù)設(shè)置為10,可微分聚類(lèi)網(wǎng)絡(luò)的迭代次數(shù)設(shè)置為100。

        2.2 實(shí)驗(yàn)評(píng)價(jià)指標(biāo)

        為了保證對(duì)比實(shí)驗(yàn)的客觀性,采用顯著性目標(biāo)檢測(cè)普遍使用的平均絕對(duì)誤差eMAE(Mean Absolute Error,MAE)、準(zhǔn)確率P(Precision)、召回率R(Recall)和F?measure值來(lái)進(jìn)行評(píng)價(jià)。

        MAE表征真值圖GT與顯著圖之間的誤差,計(jì)算如下:

        其中:S(x,y)表示優(yōu)化顯著圖在(x,y)處的像素值;GT(x,y)表示二值化的ground truth 在(x,y)處的像素真值。eMAE值越低表明真值圖與優(yōu)化顯著圖之間誤差越小,算法越好。

        通過(guò)將優(yōu)化顯著圖S與真實(shí)標(biāo)簽進(jìn)行比較來(lái)計(jì)算準(zhǔn)確率P和召回率R,計(jì)算公式如下:

        綜合考慮P與R,采用P與R的加權(quán)調(diào)和平均值F-measure來(lái)綜合評(píng)估顯著性圖片,計(jì)算公式為:

        其中,為突出準(zhǔn)確率的重要性,根據(jù)經(jīng)驗(yàn)值設(shè)置β2為0.3。Fmeasure值越大表明顯著性目標(biāo)檢測(cè)算法的性能越好。

        2.3 對(duì)比現(xiàn)有算法

        為驗(yàn)證本文算法的性能,與以下關(guān)注度較高的7 種算法進(jìn)行實(shí)驗(yàn)對(duì)比:文獻(xiàn)[16]中提出的基于圖論的視覺(jué)顯著性計(jì)算方法,檢測(cè)準(zhǔn)確度高,記作GBVS;文獻(xiàn)[17]中利用主成分追蹤來(lái)準(zhǔn)確地恢復(fù)低秩和稀疏分量的算法,記作RPCA;文獻(xiàn)[18]中提出的顯著性過(guò)濾算法,記作SF;文獻(xiàn)[19]中利用自底向上的先驗(yàn)知識(shí)來(lái)約束圖像特征的算法,記作SLR;文獻(xiàn)[20]中利用連續(xù)性來(lái)提高背景先驗(yàn)的魯棒性,記敘RBD;文獻(xiàn)[21]以及文獻(xiàn)[22]中的算法通過(guò)變形平滑約束的新傳播模型來(lái)優(yōu)化背景對(duì)比度低的對(duì)象區(qū)域,分別記作FBS與SC。

        表1 列出了8 種算法在F-measure值和eMAE評(píng)估指標(biāo)上的評(píng)估結(jié)果,加粗?jǐn)?shù)字表示最佳性能,下劃線數(shù)字表示次優(yōu)性能。從表1 中可以看出,在ECSSD 和SOD 數(shù)據(jù)集上本文算法表現(xiàn)優(yōu)異。

        ECSSD數(shù)據(jù)集包含多個(gè)獨(dú)立或者相鄰的顯著目標(biāo)且顯著目標(biāo)大小各異。從表1 可看出,本文算法實(shí)現(xiàn)了最低的eMAE值,而且F?measure值僅僅略低于SC 算法。結(jié)果表明,本文算法能夠有效地對(duì)具有多個(gè)顯著目標(biāo)的圖像進(jìn)行檢測(cè)。

        表1 不同顯著性檢測(cè)算法在ECSSD和SOD數(shù)據(jù)集上的指標(biāo)得分Tab.1 Index scores of different saliency detection methods on ECSSD and SOD datasets

        SOD 數(shù)據(jù)集圖像背景復(fù)雜且顯著目標(biāo)大小各異。從表1中可看出,本文算法從eMAE值和F?measure值綜合來(lái)看優(yōu)于除SC 算法以外的算法,本文算法在背景復(fù)雜的場(chǎng)景中能夠較好地檢測(cè)顯著目標(biāo)。與SC 算法相比,本文算法具有較低的eMAE值,表明本文算法檢測(cè)的顯著圖更接近于真值圖。

        2.4 優(yōu)化策略有效性實(shí)驗(yàn)比較

        為驗(yàn)證本文所用優(yōu)化策略的有效性,在ECSSD 數(shù)據(jù)集和SOD 數(shù)據(jù)集上生成顯著粗圖、精細(xì)化分割圖、優(yōu)化顯著圖,并計(jì)算相應(yīng)eMAE、P、R和F?measure值,結(jié)果如表2。表2 中“顯著粗圖”表示Frequency-tuned 算法檢測(cè)的顯著粗圖,“精細(xì)化分割圖”表示經(jīng)過(guò)GrabCut 精細(xì)化分割的顯著圖,“優(yōu)化顯著圖”表示在精細(xì)化分割圖經(jīng)過(guò)可微分聚類(lèi)優(yōu)化后的顯著圖。從表2 可以看出,精細(xì)化分割的顯著圖與顯著粗圖相比,在4 個(gè)指標(biāo)上均有明顯的提升,優(yōu)化后的顯著圖與精細(xì)化分割圖相比,在3個(gè)指標(biāo)上有一定的提升。

        表2 顯著粗圖、精細(xì)化分割圖、優(yōu)化顯著圖的比較Tab.2 Comparison of saliency rough map,refined segmentation map and optimized saliency map

        2.5 靈敏度分析

        對(duì)于本文算法所涉及的顯著粗圖進(jìn)行二值化時(shí)的閾值選擇,為了盡可能多地保留圖像信息,實(shí)驗(yàn)中基于顯著圖自身的灰度統(tǒng)計(jì)特性,選擇了多種閾值進(jìn)行二值化進(jìn)行對(duì)比實(shí)驗(yàn),eMAE值和F?measure值結(jié)果顯示見(jiàn)表3。從表3中可以看出,在ECSSD數(shù)據(jù)集上,當(dāng)a=0.45時(shí)所得優(yōu)化顯著圖的eMAE值略差于a=0.4的情況;在SOD 數(shù)據(jù)集上,當(dāng)a=0.45時(shí)所得顯著圖的eMAE值和F?measure值均優(yōu)于其他取值情況;綜合考慮,選擇a=0.45。

        表3 二值化閾值的靈敏度分析(b=10)Tab.3 Sensitivity analysis of binarization threshold(b=10)

        對(duì)于本文候選區(qū)域生成時(shí)候選區(qū)域選擇所涉及的參數(shù)b,選擇了多種取值進(jìn)行對(duì)比實(shí)驗(yàn),結(jié)果見(jiàn)表4。從表4中可以看出,在ECSSD數(shù)據(jù)集和SOD數(shù)據(jù)集上,當(dāng)b=10時(shí)所得優(yōu)化顯著圖的eMAE值略差于b=15 的情況,但F?measure值均優(yōu)于其他取值情況,綜合看來(lái),當(dāng)b=10時(shí)實(shí)驗(yàn)結(jié)果最好。

        表4 候選區(qū)域選擇的靈敏度分析(a=0.45)Tab.4 Sensitivity analysis of candidate area selection(a=0.45)

        2.6 可視化實(shí)驗(yàn)

        從主觀視覺(jué)上,圖7 顯示了本文優(yōu)化過(guò)程在ECSSD 數(shù)據(jù)集和SOD 的數(shù)據(jù)集上的視覺(jué)顯著圖。從上到下依次是:原始輸入圖像、人工標(biāo)注真值圖、Frequency-tuned 算法檢測(cè)的顯著粗圖、經(jīng)GrabCut 精細(xì)化分割的精細(xì)化分割圖、經(jīng)可微分聚類(lèi)優(yōu)化精細(xì)化分割圖后的優(yōu)化顯著圖。通過(guò)對(duì)比可看出,顯著粗圖能夠檢測(cè)出目標(biāo)的大致輪廓;經(jīng)過(guò)精細(xì)化分割以后,可以將目標(biāo)從背景中分割出來(lái),但是在精細(xì)化分割圖中依然存在一部分的背景噪聲;可微分聚類(lèi)可以有效地過(guò)濾這些背景噪聲,得到一個(gè)更接近真值圖的優(yōu)化顯著圖;針對(duì)顯著粗圖不準(zhǔn)確導(dǎo)致精細(xì)化分割圖不包含任何目標(biāo)或者僅存在部分小區(qū)域的情況,經(jīng)過(guò)優(yōu)化后顯著目標(biāo)也可以比較準(zhǔn)確地檢測(cè)出來(lái)。

        圖7 本文優(yōu)化算法在ECSSD、SOD數(shù)據(jù)集上的視覺(jué)顯著圖對(duì)比Fig.7 Comparison of visual saliency maps on ECSSD and SOD datasets

        3 結(jié)語(yǔ)

        近年來(lái),隨著深度學(xué)習(xí)的迅速發(fā)展,顯著性目標(biāo)檢測(cè)算法大部分都是依賴(lài)于大量數(shù)據(jù)或像素級(jí)標(biāo)簽的,而本文將圖割和可微分聚類(lèi)引入顯著性檢測(cè),由“粗”到“精”地優(yōu)化傳統(tǒng)顯著性檢測(cè)算法,僅通過(guò)提取單張圖像的信息特征便能夠在無(wú)人工標(biāo)記的情況下獲取精確的顯著性目標(biāo)檢測(cè)結(jié)果。本文提出的算法與7 種現(xiàn)有算法在ECSSD、SOD 數(shù)據(jù)集上進(jìn)行對(duì)比,本文算法在對(duì)背景復(fù)雜和多目標(biāo)的圖像進(jìn)行顯著性目標(biāo)檢測(cè)時(shí)具有一定的優(yōu)勢(shì)。在未來(lái)的工作中,一方面可以從顯著粗圖生成方面入手,采用一種更為準(zhǔn)確的無(wú)監(jiān)督算法來(lái)粗定位目標(biāo);另一方面由于本文算法是完全基于圖像本身特征進(jìn)行的無(wú)監(jiān)督的顯著性目標(biāo)檢測(cè),后續(xù)可以結(jié)合有監(jiān)督的顯著性目標(biāo)檢測(cè)算法,進(jìn)一步提高精度。

        猜你喜歡
        區(qū)域優(yōu)化檢測(cè)
        超限高層建筑結(jié)構(gòu)設(shè)計(jì)與優(yōu)化思考
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        民用建筑防煙排煙設(shè)計(jì)優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        小波變換在PCB缺陷檢測(cè)中的應(yīng)用
        關(guān)于四色猜想
        分區(qū)域
        亚洲视频在线免费不卡| 5级做人爱c视版免费视频| 久久精品免视看国产明星 | 国产人妖一区二区在线| 综合亚洲二区三区四区在线| 久久久国产精品va麻豆| 国产人妻精品一区二区三区不卡 | 国产视频一区二区三区免费| 一区二区三区人妻少妇| 国产农村妇女毛片精品久久 | 国产精品无码av一区二区三区| 好爽受不了了要高潮了av| 一区二区三区精彩视频在线观看| 一区二区三区高清在线观看视频| 插b内射18免费视频| 在线不卡av天堂| 69精品人妻一区二区| 日韩a级精品一区二区| 亚洲第一av导航av尤物| 国产亚洲sss在线观看| 亚洲发给我的在线视频| 岳丰满多毛的大隂户| 婷婷丁香五月中文字幕| 狠狠色欧美亚洲综合色黑a | 日韩人妻精品中文字幕专区| 久久久国产精品黄毛片| 亚洲伊人久久成人综合网| 色综合中文字幕综合网| 狠狠摸狠狠澡| 国产露脸精品产三级国产av| 女人被躁到高潮嗷嗷叫| 日本免费一区二区在线视频播放| 熟女性饥渴一区二区三区| 国内无遮码无码| 亚洲av极品尤物不卡在线观看 | 日本高级黄色一区二区三区| 中文字幕乱码一区av久久不卡| 精品人妻无码视频中文字幕一区二区三区| 亚洲精品二区三区在线观看| 久久亚洲道色综合久久| 丰满少妇被猛烈进入|