亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于漸進(jìn)結(jié)構(gòu)感受野和全局注意力的顯著性檢測

        2021-01-07 04:13:14王永雄
        電子科技 2021年1期
        關(guān)鍵詞:特征檢測方法

        董 波,周 燕,王永雄

        (上海理工大學(xué) 光電信息與計算機(jī)工程學(xué)院,上海 200093)

        視覺顯著性檢測是對人類視覺注意力機(jī)制進(jìn)行建模,準(zhǔn)確定位圖像中最重要的前景信息。作為計算機(jī)視覺任務(wù)的預(yù)處理過程,視覺顯著性檢測在諸多視覺任務(wù)中有著廣泛的應(yīng)用,包括場景分類[1]、圖像檢索[2]、圖像自動編輯剪切[3]、視覺跟蹤[3-5]、人臉再識別[6]和圖像恢復(fù)[7]等。

        受人類視覺感知系統(tǒng)的啟發(fā),早期的顯著性模型[8-9]主要依靠計算的方式提取圖像中的低層次特征(如顏色、灰度、形狀、紋理等),通過局部與全局分析等啟發(fā)式互補(bǔ)先驗[10-11]推斷出顯著性目標(biāo)區(qū)域。但是,常規(guī)的局部特征缺乏識別顯著性物體內(nèi)部同質(zhì)區(qū)域的能力,而全局特征受到復(fù)雜背景的影響,缺乏高級語義信息,限制了其應(yīng)用復(fù)雜場景的能力。隨著深度學(xué)習(xí)方法在計算機(jī)視覺方面的突破,用于圖像識別任務(wù)的卷積神經(jīng)網(wǎng)絡(luò),如(Very Deep Convolutional Networks,VGG)[12]和(Residual Neural Network,ResNet)[13]通過遷移學(xué)習(xí)進(jìn)一步應(yīng)用到其他計算機(jī)視覺領(lǐng)域。其中,全卷積神經(jīng)網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CNs)[14]作為VGG的一種改進(jìn),在顯著性檢測任務(wù)中發(fā)揮重要的作用。該模型突破了早期模型計算方式的瓶頸,通過插值或?qū)W習(xí)反卷積濾波器進(jìn)行上采樣操作[15],實現(xiàn)了對每個圖像像素進(jìn)行預(yù)測。與早期的模型相比,這種方法可以有效地提高密集標(biāo)記任務(wù)的性能。然而,在密集標(biāo)記任務(wù)中,F(xiàn)CNs框架的不完善之處在于其存在多尺度空間信息融合問題。大量的跨步卷積和池化操作導(dǎo)致基本的低層精細(xì)細(xì)節(jié)(底層次的視覺線索)丟失,而這些精細(xì)細(xì)節(jié)是無法通過上采樣操作重建的。同時,高層信息又缺乏對空間上的語義表達(dá)能力。為了解決上述問題,文獻(xiàn)[16~18]提出了以下觀察和原理:(1)深層特征編碼高層信息易于定位全局對象;(2)較淺層的特征具有更好的空間表現(xiàn)能力,利于重構(gòu)空間細(xì)節(jié)。研究人員分別提出了跳連接、短連接和特征聚合等策略或機(jī)制來增強(qiáng)空間信息。雖然這些策略帶來了令人滿意的改進(jìn)效果,但它們依然不能預(yù)測整體結(jié)構(gòu),并且難以檢測精細(xì)的邊界(如圖1所示,虛框表示錯誤檢測)。為了獲得更加精細(xì)的對象邊界,一些研究者不得不使用耗時的完全連通條件隨機(jī)場方法[19-20]細(xì)化最終的顯著性圖。

        (a) (b) (c) (d) (e)圖1 不同方法模型識別效果對比(a)復(fù)雜圖像 (b)真值圖 (c)本文算法(d)PAGR (e)AmuletFigure 1. Model identification comparison of different methods (a) Complex image (b) Truth graph (c) Proposed algorithm (d) PAGR (e) Amulet

        基于卷積特征和多尺度特征融合在顯著性對象識別中發(fā)揮著重要作用,本文提出了一種基于漸進(jìn)結(jié)構(gòu)感受野和全局注意力的顯著性檢測模型,如圖2所示。針對底層和高層的卷積特征在顯著性檢測模型中發(fā)揮著不同的重要作用。首先利用FCNs作為骨干網(wǎng)絡(luò)獲取多層級特征;然后采用特征金字塔結(jié)構(gòu)對各層次特征進(jìn)行卷積操作生成多尺度特征;之后;利用漸進(jìn)結(jié)構(gòu)感受野引導(dǎo)多尺度特征進(jìn)行融合,通過上采樣-卷積方式將多級語義信息以漸進(jìn)的方式整合在一起,使得模型能夠高效地獲取并融合多尺度特征,同時保持了顯著性對象的空間結(jié)構(gòu)。為了精確學(xué)習(xí)顯著性檢測物體的邊緣,避免高級特征中噪聲特征的干擾,本文引入全局注意力機(jī)制,采用自監(jiān)督的方式,再利用卷積后細(xì)化的不同通道的特征作為權(quán)值,采用殘差連接的方式,取剩余通道特征作為偏置,并利用初級顯著性映射引導(dǎo)骨干特征產(chǎn)生邊界明顯的顯著圖。文中所提出的模型具有準(zhǔn)確檢測圖像中顯著性對象的能力,同時無需附加任何后處理即可準(zhǔn)確清晰地分割出顯著性對象邊緣。

        圖2 本文提出的漸進(jìn)結(jié)構(gòu)感受野和全局注意力的顯著性檢測模型Figure 2. Progressive structural receptive field and global attention saliency model proposed in this paper

        1 相關(guān)工作

        顯著性檢測是視覺研究熱點之一,方法眾多,可以被歸納為兩個類別:早期的計算方法和基于深度學(xué)習(xí)的方法。目前主要的研究熱點包括多尺度特征融合、注意力機(jī)制、邊緣損失、全局與局部信息的聯(lián)合。下面主要從本文聚焦的多尺度特征融合和注意力機(jī)制進(jìn)行敘述。

        1.1 多尺度特征融合

        為了提高顯著性檢測的準(zhǔn)確性,大多數(shù)深度學(xué)習(xí)方法都是基于FCNs網(wǎng)絡(luò)。該網(wǎng)絡(luò)能夠獲取全局語義信息,但是分割的結(jié)果仍比較粗糙。最近,許多研究者通過利用特征金字塔結(jié)構(gòu),融合不同尺度和層級的特征增加顯著性對象的層次化表征。文獻(xiàn)[17~18]將多層特征連接到多個子網(wǎng)絡(luò)中,每個子網(wǎng)絡(luò)都可預(yù)測最高分辨率的顯著圖。雖然較深層次的特征可以輔助定位目標(biāo),但是空間細(xì)節(jié)的丟失可能會阻礙較淺層次特征的提取,難以恢復(fù)目標(biāo)區(qū)域邊界??紤]到不同尺度的特征可能會被模糊信息混淆,簡單地將其串聯(lián)起來可能會導(dǎo)致顯著性檢測失敗。因此,Liu等人[21]提出近年來最先進(jìn)的方法,采用了由粗到細(xì)的特征提取方法,通過引入遞歸聚合方法,將各級初始特征融合在一起,逐級生成高分辨率的語義特征,較好地解決了這一問題。盡管這類方法取得了良好的性能,但仍有較大的改進(jìn)空間。該方法通過高層的語義信息逐層傳輸?shù)綔\層,所捕獲的深層位置信息逐漸稀釋或缺失,依然會導(dǎo)致邊緣模糊,在某些級別上不準(zhǔn)確的信息還會導(dǎo)致錯誤檢測。

        1.2 注意力機(jī)制

        近年來,注意力機(jī)制被廣泛地應(yīng)用于顯著性檢測的神經(jīng)網(wǎng)絡(luò)中,通過模擬人類視覺系統(tǒng)中的視覺注意機(jī)制可以減小噪聲特征的干擾。Lslam等人[22]提出將每個編碼器和解碼器塊之間的門單元作為注意力模型。這些門單元控制前饋信息的傳遞,濾除邊緣模糊信息。然而,消息傳遞是由初始注意力機(jī)制控制的,這意味著一旦前一階段出現(xiàn)錯誤,不準(zhǔn)確的引導(dǎo)和這些特性的過度使用可能會導(dǎo)致顯著性對象分割出現(xiàn)意想不到的漂移。Zhang等人[23]利用多路徑遞歸反饋,對漸進(jìn)式注意引導(dǎo)網(wǎng)絡(luò)對邊緣特征進(jìn)行迭代優(yōu)化。通過利用空間與通道注意力機(jī)制生成分層的注意特征,分層注意信息作為下一階段提供指導(dǎo),自適應(yīng)地生成新的注意特征。但是這種多次循環(huán)強(qiáng)注意力機(jī)制導(dǎo)致部分的顯著性內(nèi)部區(qū)域丟失,會造成顯著性區(qū)域高亮不均勻。

        因此,本文提出的顯著性檢測模型使用漸進(jìn)結(jié)構(gòu)感受野引導(dǎo)不同階段的特征提取,實現(xiàn)了高效的多尺度特征融合,并利用全局注意力機(jī)制在高級特征中糾正錯誤,提高了顯著性檢測的準(zhǔn)確率。

        2 算法原理

        高級語義特征有助于獲取顯著性目標(biāo)的空間位置[17,24];此外,將深層提取的特征由粗級提升到細(xì)級,也需要低層和中層特征中細(xì)微的邊緣信息?;谝陨现R,本文提出了一個新穎的顯著性檢測模型,設(shè)計了漸進(jìn)結(jié)構(gòu)感受野引導(dǎo)多尺度特征提取,實現(xiàn)深層特征的精細(xì)化處理,利用全局注意力機(jī)制消除噪聲產(chǎn)生的干擾,提高了對邊緣的感知性能。

        2.1 模型概述

        FCNs是顯著性檢測模型中應(yīng)用最為廣泛的網(wǎng)絡(luò),該網(wǎng)絡(luò)模型的較淺層能提取到低層次特征,較深層能提取到更有效的高層次特征。本文把最新的FCNs作為骨干網(wǎng)絡(luò),引入特征金字塔結(jié)構(gòu)從骨干網(wǎng)抽取的多層次特征。然后,采用通道維度聚合的進(jìn)行多尺度特征融合,有效避免FCNs對應(yīng)點聚合的弊端,生成了更加豐富的特征信息。

        本文模型網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,首先將圖像I輸入網(wǎng)絡(luò),其通道數(shù)為C,圖像的高和寬分別為H和W。利用骨干網(wǎng)絡(luò)F(θ,I)提取多層初級特征圖Fsi(i=1,2,3,4),其中θ表示骨干網(wǎng)絡(luò)的網(wǎng)絡(luò)參數(shù)。為了使網(wǎng)絡(luò)能夠完全解析同層次中不同尺度的卷積特征,利用特征金字塔結(jié)構(gòu)實現(xiàn)深度挖掘。首先,對初級特征圖Fsi(i=2,3,4)特征進(jìn)行卷積操作,分別得到3級特征Fi(i=2,3,4)。然后,利用本文提出的漸進(jìn)結(jié)構(gòu)感受野模塊引導(dǎo)Fi進(jìn)行特征融合,減小了多尺度金字塔特征圖之間的差距,如圖3所示。最后,利用上采樣-卷積機(jī)制,有效避免了顯著性圖不同分辨率對卷積和池化操的影響,該機(jī)制如式(1)~式(3)所示。

        (1)

        (2)

        ξi(Sj)=Conv3×3(upk=2(Sj))

        (3)

        其中,add(·)函數(shù)表示矩陣元素求和;“*”表示元素相乘;ξi(·)函數(shù)表示雙線性插值與卷積層的組合,i=1,2,3,4;Sj(j=1,2,3)表示經(jīng)漸進(jìn)結(jié)構(gòu)感受野模塊處理后大小為[H/21+j,W/21+j]的顯著性特征映射。

        深層次的特征聚合了許多顯著性信息,但由于特征信息的不對等性,直接使用卷積特征預(yù)測顯著性得到的結(jié)果往往不是最優(yōu)的。為此,本文利用全局注意力機(jī)制對深層特征進(jìn)行優(yōu)化,更加關(guān)注圖像中的前景信息。為了避免重復(fù)特征對最終結(jié)果的影響,本文采用分層學(xué)習(xí)融合的方式對兩層的顯著性特征進(jìn)行處理,使得最終的融合結(jié)果集中了全部顯著性映射的有效特征,如式(4)所示。

        (4)

        2.2 漸進(jìn)結(jié)構(gòu)感受野

        當(dāng)顯著性目標(biāo)內(nèi)部結(jié)構(gòu)復(fù)雜時,現(xiàn)有方法所利用的多尺度特征的方式區(qū)別不大,導(dǎo)致最終獲得的顯著性區(qū)域高亮不均勻。本文從顯著性對象的結(jié)構(gòu)出發(fā),利用特征金字塔結(jié)構(gòu)對FCNs骨干網(wǎng)絡(luò)提取的特征進(jìn)行卷積操作,將全局信息傳遞到不同層次的特征圖上。然而,如何建立不同層次中全局信息之間的關(guān)系是一個值得探討的問題。

        為此,本文提出使用漸進(jìn)結(jié)構(gòu)感受野作為引導(dǎo)模塊。該模塊由4個分支組成,如圖3所示:首先,為了降低參數(shù)量,增加模型的非線性表達(dá)能力,利用1×n和n×1不對稱的卷積對每一個分支進(jìn)行處理,其中n=1,2,3,4。然后,為了擴(kuò)大模型的感受野,更加關(guān)注整個空間區(qū)域,采用相同大小的擴(kuò)張卷積進(jìn)行上采樣解碼;最后分別將兩個子分支進(jìn)行連接,使得模型捕獲到任意空間位置在不同尺度下的上下文語義信息,從而建立顯著性對象區(qū)域的結(jié)構(gòu)性特征信息。通過卷積核大小為3和1的卷積消除融合過程帶來的噪聲,降低特征維度。最后利用Relu作為非線性激活函數(shù)。通過漸進(jìn)結(jié)構(gòu)感受野處理后的特征映射能夠有效獲得完整的前景信息,解決了顯著性對象區(qū)域高亮不均勻的問題。

        圖3 漸進(jìn)結(jié)構(gòu)感受野模塊Figure 3. Structure receptive field module

        2.3 全局注意力機(jī)制

        為了獲得更好的突出目標(biāo)檢測的顯著性映射,近年來的方法融合了不同層次卷積神經(jīng)網(wǎng)絡(luò)的特征,取得了顯著的進(jìn)展。然而,不同特征層之間的差異給融合過程帶來了困難,可能導(dǎo)致顯著性預(yù)測不理想。為了解決這一問題,本文提出了全局注意力機(jī)制來增強(qiáng)顯著目標(biāo)檢測的特征間一致性。首先,利用1×1的卷積層將特征進(jìn)行升維,通道的增加使得特征離散化分布,對輸入特征映射的通道數(shù)進(jìn)行統(tǒng)一處理,接著使用3×3卷積提取細(xì)節(jié)信息,從而達(dá)到區(qū)分細(xì)化特征的效果。得到的特征圖利用BatchNorm2d函數(shù)映射到[0,1]區(qū)間得到注意力圖。隨后,對得到的注意力圖添加Relu函數(shù)線性修正單元,激活離散并細(xì)化后的特征,從而消除特征圖中的非顯著特征。最后將此特征映射拆分為權(quán)重與顯著因子,將不同的通道信息提取作為殘差操作,使得處理后的特征映射具有很強(qiáng)的語義一致性。

        S′=S2+B(φ(Ru(E;θ));S2)

        (5)

        其中,Ru(·;θ)表示卷積操作,其參數(shù)為θ,旨在改變通道特征的數(shù)量特征;φ(·)函數(shù)表示ReLU激活函數(shù);B(·;S2)表示BatchNorm2d歸一化函數(shù);S2表示骨干網(wǎng)絡(luò)獲取的特征;E表示增強(qiáng)后的特征。

        同一特征圖的不同位置所含信息的重要程度有所差別,利用全局注意力機(jī)制能夠有選擇性地進(jìn)行篩選,從而提高語義特征的有效性。所設(shè)計的注意力機(jī)制將較為淺層的顯著圖中的顯著性區(qū)域位置傳遞到骨干網(wǎng)絡(luò)獲取的高層特征,可使其顯著性對象區(qū)域更加明確。

        3 實驗和結(jié)果分析

        本節(jié)首先描述實驗設(shè)備、參數(shù)、使用的目標(biāo)函數(shù)、數(shù)據(jù)集和評估方法;然后在5個公共基準(zhǔn)數(shù)據(jù)集上進(jìn)行了定量和定性的實驗;最后敘述了本文方法與其他先進(jìn)方法的比較和分析。

        3.1 實驗細(xì)節(jié)

        本實驗采用GTX 1080Ti GPU進(jìn)行加速訓(xùn)練。網(wǎng)絡(luò)模型訓(xùn)練分為兩個步驟:(1)訓(xùn)練骨干網(wǎng)絡(luò)。采用VGG-16預(yù)訓(xùn)練模型初始化骨干網(wǎng)絡(luò)參數(shù),利用DUTS-TR[7]作為訓(xùn)練集,其中使用了Adam優(yōu)化器進(jìn)行訓(xùn)練,初始化學(xué)習(xí)率為5e-5,衰減權(quán)值為5e-4,共訓(xùn)練20個epoch;(2)加入底層分支,采用相同的數(shù)據(jù)集,使用Adam優(yōu)化器,初始學(xué)習(xí)率設(shè)為5e-6,權(quán)重衰減為5e-5。在步驟(2)中,網(wǎng)絡(luò)訓(xùn)練10個epoch。采用分層訓(xùn)練方式可以促進(jìn)底層分支收斂,并且利用底層分支優(yōu)化深層分支使網(wǎng)絡(luò)在正確的方向上快速收斂,從而提高網(wǎng)絡(luò)的性能。

        3.2 目標(biāo)函數(shù)

        本文采用文獻(xiàn)[25]中的顯著性回歸策略對最終的顯著性結(jié)果進(jìn)行監(jiān)督訓(xùn)練,目標(biāo)函數(shù)如式(6)所示。

        L(X,Y,Z)=(1-λ)Lg(X,Y,θ)+λ×Ls(X,Y,θ)

        (6)

        其中,X是一個輸入圖像;Y是相應(yīng)的顯著圖;θ為網(wǎng)絡(luò)參數(shù);λ=0.5為平衡參數(shù);總損失函數(shù)包括全局損失Lg(X,Y,θ)和局部損失Ls(X,Y,θ)。其中全局損失函數(shù)如式(7)所示。

        (7)

        局部損失函數(shù)如式(8)所示。

        (8)

        其中,N+表示顯著性區(qū)域的像素數(shù),N-表示非顯著性區(qū)域的像素數(shù);N表示總像素數(shù);xi表示輸入圖像X中的每一個像素值,X={xi|i=1,2,…,N};yi表示真值圖Y中的每一個像素值,Y={yi|i=1,2,…,N}(Y=Yj|j=1,2,…,N,Yj∈{0,1}),其值在[0,1]之間;f(·)函數(shù)表示網(wǎng)絡(luò)處理的過程;Ψ(·)函數(shù)表示Smooth-L1函數(shù);Lg(X,Y,θ)關(guān)注于全局損失,使得網(wǎng)絡(luò)輸出的結(jié)果更加接近真值圖,有利于降低網(wǎng)絡(luò)對訓(xùn)練樣本分布的敏感性;Ls(X,Y,θ)表示顯著性目標(biāo)區(qū)域像素的額外損失,使損失函數(shù)更關(guān)注顯著性區(qū)域。

        3.3 數(shù)據(jù)集

        本文使用5個顯著性基準(zhǔn)數(shù)據(jù)集來評估本文的模型。DUTS[7]數(shù)據(jù)集包含用于訓(xùn)練(DUTS-TR)的10 553張復(fù)雜圖像和測試評估(DUTS-TE)的5 019張圖像。DUT-OMRON[11]包括5 168張具有挑戰(zhàn)性的圖片,每張圖片通常都有復(fù)雜的背景。ECSSD[26]有1 000個語義上復(fù)雜的圖像。PASCAL[27]數(shù)據(jù)集由850幅圖像組成,均是帶有像素級注釋的自然圖像。HKUIS[28]包含4 447張低對比度的圖片,每張圖片中都有多個前景對象。

        3.4 評估方法

        為了客觀準(zhǔn)確地評估本文的模型,本文使用3個常用指標(biāo),分別是P-R曲線(Precision-Recall Curve)、F-measure得分和平均絕對誤差MAE(Mean Absolute Error)。

        3.4.1P-R曲線

        平均準(zhǔn)確率(Prediction)是指檢測到的顯著性圖中正確分配的顯著性像素的比例,召回率(Recall)是指正確的顯著性像素在地面真值中的比例。如式(9)和式(10)所示。

        (9)

        (10)

        3.4.2F-measure

        為測量整體性能,由平均準(zhǔn)確率和召回率加權(quán)均值計算,如式(11)所示。

        (11)

        其中,β2通常置為0.3,用于強(qiáng)調(diào)模型精度。F-measure值越大,模型的性能越好。本文對比分析F-measure最大值和平均值,分別用MaxF和AvgF表示,以凸顯本文模型的整體優(yōu)勢。

        3.4.3 平均絕對誤差(MAE)

        計算網(wǎng)絡(luò)輸出的顯著圖與真值圖像素之間的平均絕對誤差,進(jìn)行更全面的比較,如式(12)所示。

        (12)

        其中,H和W表示顯著性圖S的寬度和高度,S(x,y)和G(x,y)表示像素點(x,y)處的顯著性值和二元真值。MAE分?jǐn)?shù)越小,顯著圖與真值圖之間差距越小,相似程度高。

        3.5 實驗結(jié)果分析與討論

        為了驗證本文提出的方法,在5個公開數(shù)據(jù)集上與PiCANet[21]、PAGR[23]、MDF[28]、RFCN[29]、UCF[30]、NLDF[31]、 Amulet[18]等7個方法進(jìn)行了定量對比分析,均不采用任何后期處理方式優(yōu)化結(jié)果圖。

        3.5.1P-R曲線分析

        本文展示了3個常用數(shù)據(jù)集的P-R曲線,如圖4所示。本文方法得到的P-R曲線(加粗)與之前的所有方法相比較為突出。當(dāng)平均召回率值接近1時,平均準(zhǔn)確率比其他方法更高,說明顯著性圖的假陽性率很低。

        (a)

        3.5.2 定量分析

        如表1所示,其中最佳的結(jié)果加粗標(biāo)記,本文提出的方法在所有的數(shù)據(jù)集上都取得了當(dāng)前最好的F-measure和MAE指標(biāo)。從平均絕對誤差MAE值可以得出,本文的算法明顯減小了預(yù)測圖與真值圖之間的差距,表現(xiàn)了良好的性能。同時本文的F-measure 指標(biāo)有大幅度提升,在5個數(shù)據(jù)集DUTS-OMRON、PASCAL、DUTS-TE、ECSSD和HKUIS上明顯優(yōu)于次優(yōu)算法。其中綜合評價指標(biāo)F-measure的最大值指標(biāo)分別提高了0.3%、1.5%、1.0%、0.5%和0.6%,其均值指標(biāo)提升了6.4%、6.1%、5.5%、2.7%和2.3%,平均提升了4.62%。結(jié)果表明,本文模型的錯誤預(yù)測數(shù)明顯少于其他方法,能夠適應(yīng)各種復(fù)雜場景,體現(xiàn)了算法的高效性和可擴(kuò)展性。

        表1 基于5個數(shù)據(jù)集上進(jìn)行定量對比結(jié)果Table 1. Quantitative comparison results of 5 datasets

        3.5.3 定性分析

        為了進(jìn)一步說明本文方法的優(yōu)點,在圖5中給出了定性比較結(jié)果,圖5(a)~圖5(e)分別為前景與背景對比度較低的場景、較大的顯著性對象、復(fù)雜邊緣、帶有陰影的對象和多目標(biāo)小對象。顯著性檢測次優(yōu)方法PiCANet在圖5(b)~圖5(d)中表現(xiàn)良好,能夠基本檢測出顯著性對象,但顯著性區(qū)域仍存在高亮不均勻問題。該方法在圖5(a)及圖5(e)中不能正確檢測出顯著性對象。其他先進(jìn)的方法均存在較大問題。然而,本文提出的方法能夠準(zhǔn)確地識別圖像中最顯著的目標(biāo)對象,并且在幾乎所有情況下都能保持其尖銳的邊界分割,目標(biāo)區(qū)域高亮均勻,在特征融合以及抗噪性能方面達(dá)到了最優(yōu)效果。

        圖5 本文算法與其他模型定性比較結(jié)果Figure 5. Quqlitative comparison between the proposed algorithm and other models

        3.6 有效性驗證

        為了驗證本文提出的漸進(jìn)結(jié)構(gòu)感受野、全局注意力機(jī)制以及分層學(xué)習(xí)融合方式的有效性,本文對各模塊進(jìn)行了研究。在整體框架上進(jìn)行驗證實驗,采用DUTS-TR數(shù)據(jù)集作為訓(xùn)練集,DUTS-TE數(shù)據(jù)集作為測試集。表2的每一列的最佳結(jié)果都用加粗突出顯示。實驗結(jié)果說明,各個模塊對模型精度都有一定的提升,缺失任何模塊都會對模型精度造成影響。

        表2 基于DUTS-TE數(shù)據(jù)集的有效性分析Table 2. Validity analysis based on DUTS-TE dataset

        4 結(jié)束語

        本文提出了一種有效的可用于顯著性檢測的漸進(jìn)結(jié)構(gòu)感受野和全局注意力框架。該方法結(jié)合了FCNs與特征金字塔結(jié)構(gòu)的優(yōu)勢,利用漸進(jìn)結(jié)構(gòu)感受野模塊作為塊引導(dǎo),將多級語義信息進(jìn)行整合,避免了卷積和池化對不同分辨率顯著圖的影響,解決了顯著性區(qū)域高亮不均勻的問題。文中提出的新方法引入全局注意力機(jī)制,去除了背景噪聲,并且提高了模型對顯著性對象邊緣的感知性能。通過定量定性的實驗驗證了本文提出模型的準(zhǔn)確性,證明了其在復(fù)雜環(huán)境中能夠達(dá)到當(dāng)前最優(yōu)的性能。

        猜你喜歡
        特征檢測方法
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        如何表達(dá)“特征”
        不忠誠的四個特征
        抓住特征巧觀察
        可能是方法不對
        小波變換在PCB缺陷檢測中的應(yīng)用
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        国产精品天天狠天天看| 亚洲精品视频在线一区二区| 中文字幕无码免费久久9| 一区二区视频资源在线观看| 亚洲成人av在线蜜桃| 强奷乱码中文字幕| 欧美性受xxxx黑人xyx性爽| 亚洲美女国产精品久久久久久久久| 国产一区二区资源在线观看| 乱子轮熟睡1区| 无码人妻少妇色欲av一区二区| 精品国产一区二区三区亚洲人| 操国产丝袜露脸在线播放| 2019nv天堂香蕉在线观看| 日韩国产精品无码一区二区三区| 精品国产乱码久久久久久口爆网站| 青春草在线视频精品| 国产少妇高潮在线视频| 欧美老肥妇做爰bbww| 播放灌醉水嫩大学生国内精品| 免费视频成人 国产精品网站| 亚洲综合久久精品少妇av| 欧美性猛交xxxx免费看蜜桃| 三年片在线观看免费大全电影| 无码人妻专区一区二区三区| 国产av一区二区毛片| 狠狠躁天天躁中文字幕| 澳门精品无码一区二区三区| 女同久久精品国产99国产精| 国产欧美综合一区二区三区| 成人片黄网站色大片免费观看cn| 一区二区视频观看在线| 亚洲av调教捆绑一区二区三区| 成人免费无遮挡在线播放| 亚洲国产精品无码久久电影| 久久亚洲精品国产精品婷婷| 三级国产精品久久久99| 日本人与黑人做爰视频网站| 午夜国产一区二区三区精品不卡| 在线视频自拍视频激情| 亚洲 欧美 国产 制服 动漫|