亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于蟻群優(yōu)化算法的弱光圖像顯著性目標(biāo)檢測

        2021-11-05 01:29:52汪虹余張彧楊恒穆楠
        計算機應(yīng)用 2021年10期
        關(guān)鍵詞:弱光集上像素

        汪虹余,張彧,楊恒,穆楠

        (四川師范大學(xué)計算機科學(xué)學(xué)院,成都 610101)

        0 引言

        顯著性目標(biāo)檢測旨在模擬人類視覺系統(tǒng),自動過濾掉圖像或視頻中的冗余的背景信息,準(zhǔn)確地提取出與人類視覺感知一致的最感興趣區(qū)域。顯著性目標(biāo)檢測可以作為各類計算機視覺任務(wù)的預(yù)處理,能夠廣泛用于目標(biāo)識別[1]、視覺追蹤[2]、圖像檢索[3]、行人重識別[4]等領(lǐng)域。盡管在各種復(fù)雜場景下顯著性目標(biāo)的定位工作已經(jīng)取得了初步進(jìn)展,但在弱光條件下如何準(zhǔn)確檢測顯著性目標(biāo)仍然是一個具有挑戰(zhàn)性的問題。其主要原因可歸結(jié)為以下3個方面:1)視覺特征在弱光條件下的適應(yīng)性變差;2)弱光環(huán)境造成有效顯著性信息嚴(yán)重缺失;3)弱光條件中的圖像噪聲和雜亂背景對目標(biāo)檢測具有強烈干擾。

        處理這些問題的核心在于如何提取弱光場景中可用的視覺特征以及如何測得最佳對比度值,從而將顯著性物體從弱光背景中分離出來。大多數(shù)傳統(tǒng)的顯著性檢測模型都依賴于探索對比度線索,通過該線索確定圖像像素、超像素或區(qū)域相對于其局部鄰域或全局鄰域的差異性。Itti等[5]提出了第一個基于局部對比度的顯著性檢測模型,通過評估圖像塊多尺度特征的差異度來測量塊的顯著值;Zhang等[6]考慮了不同的空間布局和尺度變化,并提出了一種多尺度和多區(qū)域機制來生成局部顯著圖;Jian 等[7]提出了一種有效的局部顏色對比方法,該方法足以突出顯示并從復(fù)雜的背景中分離出顯著的對象;楊小岡等[8]基于局部特征綜合法設(shè)計了一種基于概率框架的多特征融合顯著性檢測算法來提升檢測的準(zhǔn)確率。這些基于局部對比度的顯著性檢測方法傾向于在目標(biāo)輪廓的周圍產(chǎn)生較高的顯著值。相比而言,基于全局對比度的顯著性模型能夠產(chǎn)生具有均勻內(nèi)部結(jié)構(gòu)的顯著性圖。Wu 等[9]設(shè)計了一個上下文模塊,該模塊受感受野塊(Receptive Field Block,RFB)的啟發(fā),以捕獲全局對比度信息;Wang 等[10]提出了金字塔注意模塊,該模塊為相應(yīng)的卷積層分配了具有更廣感受野的全局視圖;Zhao 等[11]提出了一種新穎的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN),稱為金字塔特征注意網(wǎng)絡(luò)(Pyramid Feature Attention Network,PFAN),以增強高級上下文特征和低級空間結(jié)構(gòu)特征。這些全局顯著性檢測方法的耗時相對較少,同時獲得了比較可靠的檢測結(jié)果。楊興明等[12]在聯(lián)合局部線索和全局線索的基礎(chǔ)上,采用多尺度的超像素分割,研究不同尺度下輪廓線索和外觀線索的互補特性,實現(xiàn)了目標(biāo)的顯著性檢測;凌艷等[13]使用多尺度的上下文信息增強局部特征,并結(jié)合邊界損失、類平衡損失和難分類損失,以局部-全局融合的方式實現(xiàn)顯著目標(biāo)檢測;紀(jì)超等[14]從局部到精細(xì),結(jié)合局部和全局上下文的深度環(huán)境信息得到顯著目標(biāo)。這些局部和全局相結(jié)合的顯著性檢測方法更有效地實現(xiàn)了對顯著目標(biāo)的判別,得到了更完整的顯著性目標(biāo),但在弱光條件下,這些模型容易對那些與顯著目標(biāo)相似的背景區(qū)域產(chǎn)生誤判。

        在分析了現(xiàn)有顯著線索的優(yōu)點和局限性之后,本研究發(fā)現(xiàn)要準(zhǔn)確地檢測出弱光圖像中的顯著性目標(biāo),需要解決以下兩個主要問題:1)提取有效的視覺特征來表征弱光圖像;2)探索最優(yōu)對比度信息用以分析顯著性目標(biāo)的特性。為了解決這些問題,本研究進(jìn)行了大量的工作,并從以下兩個方面來解決:1)探索特征圖的熵信息來自適應(yīng)地選擇出最優(yōu)視覺特征,2)提出蟻群優(yōu)化(Ant Colony Optimization,ACO)算法,用于搜索圖像區(qū)域的最優(yōu)鄰域。

        ACO 算法最早由Dorigo 等[15]提出,主要利用已有較優(yōu)解的后驗信息來獲取有希望成為解的先驗信息,其在圖像處理領(lǐng)域如圖像分割[16]、圖像上采樣[17]、圖像分類[18]等任務(wù)上取得了較好的結(jié)果。鑒于此,本文提出了一種基于ACO 算法的弱光圖像顯著目標(biāo)檢測模型,模型的架構(gòu)如圖1所示。

        圖1 基于ACO算法的顯著目標(biāo)檢測模型框架Fig.1 Framework of ACO algorithm based salient object detection model

        首先,利用多尺度超像素分割構(gòu)建圖像模型;其次,通過求取不同特征圖的一維熵來自適應(yīng)地選擇出各類弱光圖像的最優(yōu)視覺特征;然后,綜合全局對比度和空間關(guān)系線索,生成弱光圖像的初始顯著圖;最后,采用蟻群優(yōu)化算法對顯著性結(jié)果進(jìn)行優(yōu)化。本文將提出的顯著性檢測模型在3 個基準(zhǔn)數(shù)據(jù)集[19-21]以及所提出的弱光圖像數(shù)據(jù)集(本文使用的弱光圖像數(shù)據(jù)集的下載地址為https://drive.google.com/open?id=0BwVQK2zsuAQwX2hXbnc3ZVMzejQ)上進(jìn)行了廣泛的性能評估,實驗結(jié)果表明本文所提顯著性模型的性能優(yōu)于現(xiàn)有的一些先進(jìn)的顯著性模型。

        1 基于蟻群優(yōu)化算法的顯著性模型

        1.1 基于多尺度超像素的圖模型構(gòu)造

        對于給定的圖像,首先利用簡單線性迭代聚類算法[18]將其分割為N個超像素(表示為{si}),這樣可以極大地保持目標(biāo)的內(nèi)部結(jié)構(gòu)信息。本文將超像素的個數(shù)N分別設(shè)置為100、200、300,生成3 種不同尺度的超像素。根據(jù)超像素來構(gòu)建具有N個節(jié)點的圖模型Graph=(Vn,E),其中Vn和E分別表示節(jié)點集合和邊集合。Graph中的節(jié)點Vn可以看作是蟻群算法中的螞蟻,每個螞蟻的運動軌跡被定義為相應(yīng)節(jié)點的關(guān)聯(lián)邊E。當(dāng)螞蟻在圖模型上爬行時,信息素就沉積在了圖模型的節(jié)點上,這些信息素的數(shù)量通過蒸發(fā)和衰減策略得以更新。

        1.2 最優(yōu)特征選擇

        構(gòu)造蟻群算法的啟發(fā)式矩陣主要通過提取圖模型各節(jié)點的低層視覺特征來實現(xiàn)。由于圖像特征的有效性隨著光照條件的變化而產(chǎn)生巨大差異,因此可以引入自適應(yīng)特征選擇策略來選出最優(yōu)解。本文通過以下方式提取圖像的12 個手工特征,主要包括:

        1)9 個顏色特征。首先,對輸入圖像進(jìn)行歸一化,以消除陰影和不均勻光照的干擾。然后,將輸入的RGB 圖像分別轉(zhuǎn)換到LAB、HSV和YcbCr顏色空間并從中提取得到9個顏色特征(表示為L、A、B、H、S、V、Y、Cb和Cr)。LAB 顏色空間的L、A和B 分量能夠描述人眼可見的所有顏色,這些顏色更加接近人眼對弱光圖像的感知;HSV 顏色空間的H、S 和V 分量可以非常直觀地表示色調(diào),深度和明亮度,在亮度較低的弱光圖像中具有良好的適應(yīng)性;YCbCr顏色空間中的Y、Cb和Cr分量可以更好地感知強度變化以及色差,這將更有助于在弱光圖像中突出顯著目標(biāo)的整體信息。

        2)紋理特征(表示為T)。本文利用輸入圖像的二維熵來表示紋理特征,這主要基于二維熵具有很強的抗幾何形變和抗背景噪聲的能力。令I(lǐng)(0 ≤I≤255)表示圖像像素的灰度值,J(0 ≤J≤255)表示其鄰域像素的平均灰度值,則灰度分布的空間合成特性可以表示為:

        式中:f(I,J)表示特征組(I,J)的頻率,R2表示鄰域的尺寸。輸入圖像的離散二維熵可以定義為:

        3)方向特征(表示為O)。在灰度圖像gray(x,y)上,利用角度θ∈{0°,45°,90°,135°}四個不同方向上(表示為gθ(x,y))的Gabor 濾波器提取得到具有旋轉(zhuǎn)不變性和全局性的方向特征,從而減少了弱光對方向特征的影響。

        4)梯度特征(表示為G)。通過在水平梯度和垂直梯度上求平均可以計算得到梯度特征,用以描述局部灰度值的幅度變化,能有效對抗弱光的影響,具有較好的適應(yīng)性。

        通過以上方式計算得到輸入圖像的12 個特征圖之后進(jìn)一步求取12個特征圖的一維熵,計算方式如下所示:

        其中pI表示值為I的像素所占的比率。由于一維圖像熵代表了圖像灰度分布的聚集特征所包含的信息量,因此每個視覺特征的有效性都可以用熵值來衡量。

        最后,本文通過對12 個特征圖的一維熵值進(jìn)行排序選擇出9 個最優(yōu)特征(表示為{Fk},k=1,2,…,9),可以降低對顯著目標(biāo)表達(dá)能力較差的特征中冗余信息的干擾,確保特征更有針對性地處理弱光圖像顯著性。

        1.3 基于蟻群算法的全局優(yōu)化

        顯著性檢測可以看作是一項獨特的濾波任務(wù),目的是將前景目標(biāo)從背景區(qū)域中分離出來。為了從圖像中區(qū)分出顯著目標(biāo),主要策略是使用對比度信息來測量前景與其周圍背景之間的差異程度。本文主要通過計算全局對比度和空間關(guān)系來評估每個超像素的顯著性值,計算方式如下:

        其中pos(si,sj)表示超像素si與sj之間的距離。坐標(biāo)(xi,yi)與圖像中心(x′,y′)之間的空間距離c(si)可通過以下公式計算:

        其中vx和vy表示兩個變量,主要由圖像的水平和垂直信息所決定。

        通過測量所有N個超像素的顯著性值可以生成圖像的顯著圖,本文使用Otsu 的閾值方法[19]將顯著圖分為兩個部分:粗糙的顯著區(qū)域(前景種子)和非顯著區(qū)域(背景種子)。至此,本文通過計算全局對比度和空間相關(guān)性生成了弱光圖像的初始顯著圖。

        為了進(jìn)一步優(yōu)化超像素si的顯著值,本文利用ACO 算法從si的相鄰超像素區(qū)域(表示為{sj},j=1,2,…,M(i))中搜索出與si最相似的區(qū)域。基于ACO算法搜索最相似區(qū)域的詳細(xì)過程如下:

        1)初始化?;趫D模型,將m只螞蟻散布在隨機選擇的節(jié)點上,找到si的最佳關(guān)聯(lián)超像素。兩個超像素si和sj之間的距離(表示為dij)定義為:

        其中:m表示螞蟻的維數(shù),|?|表示歐幾里得距離,wk表示權(quán)重因子。

        2)構(gòu)造。令r表示簇半徑,Iij(t)表示在時間t內(nèi)從si到si的路徑上信息素的含量,其計算公式為:

        令(t)表示螞蟻k選擇從節(jié)點si到節(jié)點sj的路徑的概率,該概率可以通過以下方式獲得:

        其中:ηij=1/dij表示螞蟻選擇從節(jié)點si到節(jié)點sj的期望;參數(shù)α表示信息對當(dāng)前路徑的影響程度;參數(shù)β控制啟發(fā)信息ηij對路徑選擇的影響程度。Ω(si)={sj|dij≤r,j=1,2,…,M(i)}指當(dāng)前節(jié)點si鄰域可選節(jié)點的集合。

        3)更新。在螞蟻移動的過程中,每條路徑上剩余的信息量將發(fā)生變化。循環(huán)完成后,路徑上的信息素內(nèi)容將更新如下:

        其中:ρ表示信息素隨時間的蒸發(fā)速率;ΔIij=表示循環(huán)結(jié)束時,m只螞蟻從節(jié)點si到節(jié)點sj的信息素增量。

        4)決策。在m個螞蟻移動結(jié)束之后,信息素矩陣更新為:

        其中:φ∈[0,1]表示信息素衰減參數(shù);Iij(0)表示第一次循環(huán)的信息素矩陣;n表示步驟2和步驟3的迭代總數(shù)。

        其中:Oj是螞蟻食物的來源,為si的最優(yōu)鄰域。然后,通過式(6)可以將si的最佳顯著值計算為si和最優(yōu)鄰域Oj之間的差值。最終,測量所有超像素的顯著值即可生成最終的顯著圖。

        基于螞蟻覓食過程中借助信息素的傳遞和交流來自主選擇最優(yōu)覓食路徑的正反饋機制,蟻群算法主要以信息素的更新和概率轉(zhuǎn)移等操作來指導(dǎo)搜索方向。這種策略使得本文模型能夠準(zhǔn)確找出超像素si的最優(yōu)鄰域,從而進(jìn)一步計算得到si的最優(yōu)顯著值。由于該過程主要基于信息素更新,對光照等變化不敏感且能夠很好抑制弱光圖像中的噪聲干擾,有效提高了檢測的準(zhǔn)確性。因此,基于蟻群算法的全局優(yōu)化更加適合于弱光圖像的顯著性檢測。

        2 實驗結(jié)果

        本文在4 個數(shù)據(jù)集上進(jìn)行了廣泛的實驗,通過和11 個具有競爭性的顯著性模型進(jìn)行比較來評估本文所提出模型的性能。

        2.1 實驗設(shè)置

        為了證明本文模型能夠在自然光場景、復(fù)雜場景和弱光場景中都能獲得優(yōu)異的性能。進(jìn)行實驗測試的4個數(shù)據(jù)集包括:1)MSRA 數(shù)據(jù)集[15],其中包含10 000 張圖像,大多數(shù)圖像中僅有單個目標(biāo)且圖像具有良好的照明條件;2)CSSD數(shù)據(jù)集[22],其中包含各種復(fù)雜結(jié)構(gòu)的自然場景圖像;3)PASCAL-S數(shù)據(jù)集[23],其中包含背景混亂的各類圖像;4)弱光圖像(Nighttime Image,NI)數(shù)據(jù)集,其中包含200 個分辨率為640×480 的夜間圖像和與之匹配的像素級基準(zhǔn)圖像(Ground Truth,GT)。

        與本文方法作對比的11 個先進(jìn)的顯著性檢測模型包括:非參數(shù)(Non-Parametric,NP)模型[24]、上下文感知(Context-Aware,CA)模型[25]、低秩矩陣恢復(fù)(Low Rank Matrix Recovery,LR)模型[26]、塊差異性(Patch Distinction,PD)模型[27]、流形排序(Manifold Ranking,MR)模型[28]、顯著優(yōu)化(Saliency Optimization,SO)模型[29]、引導(dǎo)學(xué)習(xí)(Bootstrap Learning,BL)模型[30]、通用推廣(Generic Promotion,GP)模型[31]、空間色彩上下文(Spatiochromatic Context,SC)模 型[32]、結(jié)構(gòu)化矩陣分解(Structured Matrix Decomposition,SMD)模型[33]和多示例學(xué)習(xí)(Multiple Instance Learning,MIL)模型[34]。為了比較這些不同顯著性算法的有效性和準(zhǔn)確性,實驗中使用了8個指標(biāo),包括:

        1)PR(Precision-Recall)曲線。該指標(biāo)主要是通過使用不同的閾值對生成的顯著圖進(jìn)行二值化并比較其與GT 之間的差異來測得,精確率(Precision,P)定義為正確檢測到的顯著像素占二值顯著圖中所有顯著像素的比率,召回率(Recall,R)的定義為正確檢測到的顯著像素占GT 中所有顯著像素的比率,計算方法如下:

        式中:真陽性(True Positive,TP)是正確識別為顯著目標(biāo)的像素集合;假陽性(False Positive,F(xiàn)P)是錯誤識別為顯著目標(biāo)的像素集合;假陰性(False Negative,F(xiàn)N)是錯誤識別為非顯著區(qū)域的像素集合。

        2)真陽性率和假陽性率(True Positive Rate-False Positive Rate,TPR-FPR)曲線。TPR的計算類似于召回率,F(xiàn)PR的計算為錯誤檢測到的顯著像素占GT中所有非顯著像素的比率,計算方法如下:

        其中:真陰性(True Negative,TN)是正確識別為非顯著區(qū)域的像素集合。

        3)F-measure 曲線,主要通過測量精確率和召回率的加權(quán)調(diào)和平均值獲得,計算方法如下:

        式中β2為衡量精確率和召回率的參數(shù)。由于準(zhǔn)確率的重要性通常比召回率要高,研究中通常將β2的取值定為0.3 來強調(diào)準(zhǔn)確率。

        4)曲線下面積(Area Under the Curve,AUC)取值,其計算為TPR-FPR 曲線下面積所占的百分比。AUC 的取值一般在0.5~1.0,AUC 越接近于1,就表明檢測的準(zhǔn)確性越高。AUC值能夠直觀地表明顯著圖預(yù)測真實顯著目標(biāo)的優(yōu)劣。

        5)平均絕對誤差(Mean Absolute Error,MAE)取值,其定義為生成的顯著性圖和GT 之間的差異。MAE 的取值越小,就表明生成的顯著圖(記為Salmap(x,y))和基準(zhǔn)顯著圖(記為GT(x,y))之間的相似度越高,計算方法如下:

        6)加權(quán)F-measure(Weighted F-measure,WF)取值,通過在F-measure上增加權(quán)重來計算。

        7)重疊率(Overlapping Ratio,OR)取值,通過衡量二值顯著圖(記為BS(x,y))與基準(zhǔn)顯著圖GT(x,y)之間的重疊率來計算:

        OR 指標(biāo)主要考慮顯著像素的完整性和非顯著像素的正確性。

        8)測試每張圖像的平均執(zhí)行時間(單位:秒)。所有實驗都是在Intel i5-5250 CPU(1.6 GHz)和8 GB RAM 的標(biāo)準(zhǔn)計算機上進(jìn)行,主要的編程環(huán)境為Matlab。

        2.2 客觀性能分析

        在4 個數(shù)據(jù)集上不同顯著性檢測模型的PR 曲線、TPRFPR 曲線和F-measure 曲線如圖2 所示??梢钥闯觯疚哪P偷男阅軆?yōu)于其他作對比的顯著模型。在MSRA 數(shù)據(jù)集、CSSD數(shù)據(jù)集、PASCAL-S 數(shù)據(jù)集上,本文模型在三條曲線上的性能優(yōu)于絕大多數(shù)先進(jìn)模型,說明本文模型性能得到了顯著提升,并且在多個數(shù)據(jù)集上都能保持優(yōu)秀且穩(wěn)定的性能。在具有挑戰(zhàn)性的NI 數(shù)據(jù)集上,三條曲線的性能均有明顯下降,而本文模型的性能相比其他模型而言表現(xiàn)依舊良好,更加魯棒。

        圖2 四個數(shù)據(jù)集上各種顯著性檢測模型的PR、TPR-FPR和F-measure曲線Fig.2 PR,TPR-FPR and F-measure curves of various saliency detection models on four datasets

        表1 列出了各種模型的AUC 取值,MAE 取值,WF 取值,OR取值和時間消耗。排名前三的結(jié)果分別用下劃線、斜體和加粗字體表示,其中:↑表示值越大,檢測結(jié)果越好;↓則表示值越小,檢測性能越好。從表1 中可以看出,本文模型在3 個可見光數(shù)據(jù)集上都具有很強的競爭力,且在弱光數(shù)據(jù)集上的性能要明顯優(yōu)于其他數(shù)據(jù)集。

        表1 在四個數(shù)據(jù)集上各顯著模型的定量性能比較Tab.1 The quantitative performance comparisons of various saliency models on the four datasets

        對于MSRA 數(shù)據(jù)集而言,圖像要相對簡單一些。本文模型取得了最高的AUC 值和OR 值,模型的MAE 值和OR 值比基于全局優(yōu)化的SO 模型和基于多實例學(xué)習(xí)的MIL 模型稍微遜色。在CSSD數(shù)據(jù)集上,本文模型的AUC值、WF值、MAE值和OR 值僅排第2 名和第3 名,比SMD 模型的排名相對要低。這是因為SMD 算法基于結(jié)構(gòu)化矩陣分解,其在復(fù)雜場景中具有優(yōu)勢。在PASCAL-S 數(shù)據(jù)集上,本文模型取得了最佳AUC值、MAE 值和OR 值,并且WF 值排名第2,僅比SO 模型相差0.99 個百分點。在NI 數(shù)據(jù)集上,本文模型的AUC 值,WF 值,MAE 值和OR 值均排名第1,這意味本文模型更適應(yīng)具有低對比度、低信噪比的弱光圖像,應(yīng)用場景更加廣泛,因此本文模型具有較高的魯棒性,可以在豐富多樣的復(fù)雜場景中保持優(yōu)越的性能。此外,從各個數(shù)據(jù)集上的測試結(jié)果來看,本文模型在自然光場景、復(fù)雜場景和弱光場景上都能取得優(yōu)異的性能,這也說明本文的模型不只是滿足于單一的應(yīng)用場景,而是能 魯棒地適應(yīng)于具有挑戰(zhàn)性的不同場景。

        2.3 算法的時間復(fù)雜度分析

        蟻群算法在處理較大規(guī)模的組合優(yōu)化問題時,運算量較大、耗時較長,造成時間復(fù)雜度較高。此外,對于單個螞蟻而言,當(dāng)群體規(guī)模較大時,很難在較短的時間內(nèi)從雜亂無章的路徑中找到一條較好的路徑。本文蟻群算法計算規(guī)模為當(dāng)前節(jié)點si鄰域節(jié)點集合Ω(si)={sj|dij≤r,j=1,2,…,M(i)},相對而言規(guī)模不大且易于搜索。本節(jié)將從時間復(fù)雜度和空間復(fù)雜度兩個方面來分析本文基于蟻群算法的顯著性檢測復(fù)雜性。對于算法的時間復(fù)雜度而言,主要指在求解問題時,所有算法中最小的時間復(fù)雜性;對于算法的空間復(fù)雜度而言,主要指在求解問題時,所有算法中最小的空間復(fù)雜性。

        2.3.1 時間復(fù)雜度

        ①當(dāng)蟻群算法中螞蟻的數(shù)目m=1 時,本文稱只有一只螞蟻的蟻群優(yōu)化顯著性檢測(Ant Colony Optimization Saliency Detection,ACOSD)算法為ACOSD-1。

        設(shè)XACOSD?1(t)為算法對應(yīng)的隨機過程,在t+1 時刻的信息素率的期望為E{Iij(t+1)XACOSD?1(t)},假設(shè)函數(shù)ψ(i,t)為關(guān)于變量i,t的函數(shù),則:

        由式(19)可知,E{Iij(t+1)XACOSD?1(t)}與Iij(t)成正比,根據(jù)信息素的概念得知Iij(t)與信息素增量函數(shù)μ也是成正比關(guān)系,因此可以得出E{Iij(t+1)XACOSD?1(t)}與信息素增量函數(shù)μ成正比。

        若ψ(i,t) ≥ψ>0,則:

        ACOSD-1的期望收斂時間為:

        由式(22)可知,ACOSD-1 算法的時間復(fù)雜度會隨著問題規(guī)模的增大而不斷增大。

        ②當(dāng)蟻群算法中螞蟻的數(shù)目m≥1 時,稱該顯著性檢測算法為ACOSD-2。

        當(dāng)存在多只螞蟻時,在算法迭代過程中,這m只螞蟻單獨地作用于信息素矩陣且分別對各自路徑上的信息素進(jìn)行更新。

        對于ACOSD-2算法,求解所需的期望收斂時間為:

        由式(24)可知,增加螞蟻數(shù)目會減少算法的期望收斂時間,也即減小算法的時間復(fù)雜度。

        2.3.2 空間復(fù)雜度

        對于m只螞蟻,在問題規(guī)模為M(i)的鄰域中選擇si的最優(yōu)鄰域,蟻群算法所需要的內(nèi)存開銷如表2所示。

        表2 本文的蟻群算法所需要的空間開銷Tab.2 Spatial overhead required by ant colony algorithm in this paper

        通過對蟻群優(yōu)化算法的各個步驟進(jìn)行分析,可以得到算法的空間復(fù)雜度為Ο(M(i)2)+Ο(mM(i))。從表1 的時間性能方面來看,本文的算法相對來說是比較實時的。CA、LR、SC 和MIL 模型在4 個數(shù)據(jù)集上的執(zhí)行時間都普遍偏長,提取每幅圖像中顯著目標(biāo)所消耗的時間都需要20 s 以上,整體效率偏低,其中MIL 模型在每個數(shù)據(jù)集上的平均時間消耗都達(dá)到了100 s以上,這主要是因為MIL 模型將所有像素都?xì)w類完后,再進(jìn)一步得到K個超像素,通過更新聚類中心不斷迭代,如此反復(fù)直到收斂的迭代過程大大增加了計算復(fù)雜性。對于CA 模型,其將圖像中每個像素點的顏色特征進(jìn)行了全局對比度計算,因此時間復(fù)雜度會非常高。LR 模型將圖像分割成很多較小的段,再用每個段中所有特征向量的均值來表示這個段,進(jìn)而構(gòu)造矩陣,而每個段的特征一共53 維,使得計算時間明顯增加。SC 模型通過獲取顏色域的全局空間能量響應(yīng)和邊界顯著度來集成顏色顯著性,為每個像素分別生成區(qū)域和邊界顯著值,這樣的像素級全局運算使得模型的復(fù)雜度偏高。此外,CA、LR和PD模型在PASCAL-S數(shù)據(jù)集和NI數(shù)據(jù)集的時間消耗明顯增加,這是由于NI 數(shù)據(jù)集和PASCAL-S 數(shù)據(jù)集中圖像的分辨率都比較高,而這些模型基于全局計算的步驟在圖像分辨率較高時造成計算復(fù)雜度顯著增加,因此時間性能格外差。雖然本文模型的計算復(fù)雜度略高于基于超像素的模型SO 和GP,但本文模型可以得到更精確的估計。盡管本文模型也采用了全局對比度計算,不同的是本文首先將原始圖像分成若干個超像素塊,并用它來代替圖像像素參與計算,很大程度上減少了算法所需的計算量。另外,本文模型的時間性能相對遜色于SO 和MR 模型,但對于顯著目標(biāo)檢測的準(zhǔn)確率均優(yōu)于這些模型??偟膩碚f,本文模型采用全局搜索能夠明顯提升圖像顯著性檢測的性能,而其時間消耗的上升仍在可接受范圍,可以滿足弱光圖像實時顯著性檢測的需求。相較于NP、CA、LR、PD、BL 和GP 模型在弱光數(shù)據(jù)集NI 上的計算時間都顯著增加,本文的模型在弱光數(shù)據(jù)集上的時間性能依然能保持良好穩(wěn)定的性能。本文提出的模型作為圖像處理任務(wù)的預(yù)處理方法,其執(zhí)行時間最長在12.102 s左右,在弱光數(shù)據(jù)集上這樣的速度已經(jīng)超越了目前大部分的先進(jìn)模型,但在實際需求中還有一定的上升空間。作為顯著性檢測模型,除了具有較高的計算效率,能快速檢測出顯著區(qū)域之外,準(zhǔn)確的檢測性能也是必不可少的,同時應(yīng)避免對實際顯著區(qū)域的漏檢和錯誤地將背景標(biāo)注為顯著區(qū)域。

        2.4 算法的魯棒性分析

        魯棒性主要指優(yōu)化方案對于決策變量或者環(huán)境變量中一些小擾動的不敏感性。對于現(xiàn)有文獻(xiàn)而言,通常采用均值以及標(biāo)準(zhǔn)差作為衡量目標(biāo)函數(shù)和軟約束函數(shù)魯棒性的參數(shù),并簡單地將“最壞解”當(dāng)作強約束函數(shù)魯棒性的參數(shù)[35-37]。因此,本文為了計算蟻群算法可行解的魯棒性,主要通過在螞蟻搜索鄰域內(nèi)取大量的采樣點,然后計算這些采樣點上的目標(biāo)函數(shù)值/約束函數(shù)值。對于目標(biāo)函數(shù)f(x,δ),采用平均值或期望的適值函數(shù)來衡量可行解x的魯棒性能,計算如下:

        式中p(δ)代表不確定性或干擾的概率密度函數(shù)。

        對于蟻群算法的迭代過程而言,螞蟻在搜索路徑中得到的最優(yōu)解才有可能成為全局或局部最優(yōu)解,相對于其他遺傳算法,蟻群算法對初始路線的要求不高,也即蟻群算法的求解結(jié)果并不依賴于初始路線的選擇,同時在搜索過程中也不需要進(jìn)行額外的人工調(diào)整,其通過迭代不斷自我調(diào)整就能進(jìn)化出最優(yōu)解。其次,蟻群算法的參數(shù)比較少且設(shè)置簡單,能夠很容易應(yīng)用到顯著超像素的搜索且能夠高效地得到優(yōu)化解。因此,本文算法具有較強的自適應(yīng)性和魯棒性。

        2.5 主觀性能分析

        各模型的視覺性能對比如圖3 所示,從圖中可以看出所本文模型的主觀性能優(yōu)于其他顯著性檢測模型,特別是對于弱光圖像。

        圖3 在四個數(shù)據(jù)集上各種顯著性模型的定性比較Fig.3 Qualitative comparisons of various saliency models on four datasets

        NP 模型無法在復(fù)雜背景圖像上準(zhǔn)確檢測顯著物體。對于CA 模型、PD 模型和SC 模型,顯著目標(biāo)的內(nèi)部結(jié)構(gòu)信息無法得到完整表示。在復(fù)雜場景和弱光環(huán)境下,MR 模型、SO 模型、SMD 模型和MIL 模型無法獲得完整的顯著目標(biāo)。BL 模型和GP模型能夠在可見光圖像上獲得相對令人滿意的結(jié)果,但在弱光圖像上的性能卻比較差。本文提出的基于蟻群優(yōu)化算法的顯著模型可以魯棒且準(zhǔn)確地檢測出整個顯著目標(biāo)。

        3 結(jié)語

        本文針對弱光圖像提出了一種基于ACO 算法的顯著目標(biāo)檢測模型。通過超像素分割,以超像素為節(jié)點創(chuàng)建圖結(jié)構(gòu)。利用基于熵的特征選擇策略和全局對比度度量進(jìn)行顯著性計算。為了獲得更準(zhǔn)確的結(jié)果,使用了魯棒的ACO 結(jié)構(gòu)來優(yōu)化顯著圖。在3 個可見光圖像數(shù)據(jù)集和1 個弱光數(shù)據(jù)集上的綜合評估表明,本文模型與11 個先進(jìn)的顯著模型相比表現(xiàn)出了良好的準(zhǔn)確性與魯棒性。盡管模型在弱光圖像顯著性檢測任務(wù)上取得了初步成功,單純依靠手工特征難以充分表征弱光圖像的特性,鑒于深度特征強大的表達(dá)能力,基于手工特征和深度特征的聯(lián)合算法是本文今后針對弱光圖像顯著目標(biāo)檢測的重點研究方向。

        猜你喜歡
        弱光集上像素
        趙運哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        Cookie-Cutter集上的Gibbs測度
        鏈完備偏序集上廣義向量均衡問題解映射的保序性
        “像素”仙人掌
        太陽能聯(lián)棟溫室耐弱光蔬菜養(yǎng)心菜栽培初探
        復(fù)扇形指標(biāo)集上的分布混沌
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        拔節(jié)期弱光脅迫對揚麥15麥秸營養(yǎng)成分和體外發(fā)酵的影響
        四苯基卟啉鈀(Ⅱ)/9,10-二苯基蒽弱光上轉(zhuǎn)換體系的介質(zhì)效應(yīng)
        国产主播一区二区三区在线观看 | 国产在线不卡视频| 日本不卡的一区二区三区| 久久亚洲av熟女国产| 日韩精品久久午夜夜伦鲁鲁| 国产成人午夜福利在线观看| 精品亚洲成a人在线观看青青| 98精品国产综合久久| 中文字幕亚洲精品综合| 亚洲最新无码中文字幕久久| 男女啪啪永久免费观看网站| 国产免费播放一区二区| 久久亚洲国产高清av一级| 久久免费亚洲免费视频| av大全亚洲一区二区三区| av色欲无码人妻中文字幕| 八区精品色欲人妻综合网| 欧美性一区| 久久亚洲国产高清av一级| 丰满熟妇人妻av无码区| 躁躁躁日日躁| 久久久久久中文字幕有精品| 国产性感主播一区二区| 人妖一区二区三区在线| 国产美女精品一区二区三区| 亚洲人成绝费网站色www| 亚洲AV无码久久久一区二不卡| 亚洲一区二区三区新视频| 超碰国产精品久久国产精品99| 亚洲男人的天堂在线aⅴ视频| 91精品久久久久含羞草| 国产麻豆剧传媒精品国产av蜜桃| 久久96日本精品久久久| 亚洲国产成人影院在线播放| 中文字幕无码人妻丝袜| 天堂av国产一区二区熟女人妻| 成人国成人国产suv| 99久热re在线精品99 6热视频| 精品日产一区2区三区| 亚洲精品98中文字幕| 中文字幕亚洲综合久久|