亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的海面顯著性目標(biāo)檢測

        2021-03-23 03:44:20賀鈺博
        計算機工程與應(yīng)用 2021年6期
        關(guān)鍵詞:云霧海面卷積

        賀鈺博,劉 坤

        上海海事大學(xué) 信息工程學(xué)院,上海 201306

        圖像的顯著性區(qū)域是指由于人類的視覺注意機制,人們會快速地搜索和定位圖像中最感興趣的區(qū)域。我國海域十分遼闊,海事海洋的監(jiān)控管理越來越為重要,海面顯著性檢測是海事海洋監(jiān)管圖像處理中的重要的預(yù)處理步驟,能夠迅速提取到圖像中的重要關(guān)鍵信息,減少其計算量及處理時間,為后續(xù)的海面目標(biāo)識別與跟蹤等提供有效支持。但海面環(huán)境復(fù)雜,如海面目標(biāo)經(jīng)常受到云霧環(huán)繞、遮蓋等情況,因此提取海面顯著目標(biāo)時容易丟失特征、存在偽影甚至丟失顯著性區(qū)域?;谏鲜銮闆r,如何有效地提取海面目標(biāo)顯著性區(qū)域一直是國內(nèi)外科研工作者關(guān)注的熱點問題。

        傳統(tǒng)的提取圖像顯著性區(qū)域方法,大致分為生物啟發(fā)、頻域殘差、相位譜、背景檢驗方法等。其中,Itti 等[1]以數(shù)學(xué)歸納的方法從圖像強度、圖像顏色、目標(biāo)結(jié)構(gòu)三個方面描述了顯著性目標(biāo)特征。Achanta 等[2]則在顯著性領(lǐng)域上首次將注視點的預(yù)測轉(zhuǎn)移到物體區(qū)域的二值圖的預(yù)測上,并逐步發(fā)展為主要對圖像目標(biāo)進行檢測。將圖像中的每個像素顏色值、平均顏色值、彩色圖像中的距離作為顯著性值,進行逐像素預(yù)測。Srivastava等[3]使用背景分塊、Gabor濾波、目標(biāo)與背景最小距離三個參數(shù)進行特征信息集合并計算,最后得出顯著性目標(biāo)。Cheng等[4]基于圖像顏色對比度和顏色平滑程度對同頻率像素進行排列,根據(jù)權(quán)值進行逐像素賦值,從而得出顯著性圖。海面氣象環(huán)境復(fù)雜,云霧遮擋就是海面環(huán)境中常遇到的情況之一,傳統(tǒng)方法提取被云霧遮擋的艦船等海面目標(biāo)時會造成圖像灰度差值減小,頻域權(quán)重混亂,并損失一定的低級語義特征,進而影響后續(xù)顯著性目標(biāo)的邊界輪廓、顯著性范圍,甚至導(dǎo)致圖像無法提取顯著性目標(biāo)。因此面向海面環(huán)境的顯著性提取時,傳統(tǒng)方法在顯著性提取時穩(wěn)定性較差,顯著性區(qū)域凸顯不明顯,易受到噪聲干擾的影響。

        近年來,深度學(xué)習(xí)逐漸在圖像處理領(lǐng)域逐步得到應(yīng)用?;谏疃葘W(xué)習(xí)的顯著性目標(biāo)檢測領(lǐng)域方法通過神經(jīng)網(wǎng)絡(luò)特征提取,可以獲得更加豐富的高級語義信息,且由于數(shù)據(jù)訓(xùn)練量大,其網(wǎng)絡(luò)參數(shù)的泛化能力較強,更能夠利用好圖像上下文信息。Zhao 等[5]提出利用超像素分割和深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)框架,并且結(jié)合全局背景和局部背景的信息,得出最終的顯著性圖。Cheng等[6]在使用VGG 模型的基礎(chǔ)上,提出了一種并聯(lián)結(jié)構(gòu),使神經(jīng)網(wǎng)絡(luò)每一層提取的信息都進行并聯(lián),減少有用信息特征的損失,并且使用了條件隨機場(CRF)進行最后顯著性目標(biāo)預(yù)測圖的優(yōu)化。Xi等[7]利用FCN[8]提出了一種端對端的網(wǎng)絡(luò),其算法不需要預(yù)處理及后期優(yōu)化,并且提出了一種結(jié)合角度的損失函數(shù),使神經(jīng)網(wǎng)絡(luò)可以更有效地學(xué)習(xí)。雖然以上深度學(xué)習(xí)方法增加了低級、高級語義對顯著性的作用[9],并且融合不同層的內(nèi)容信息,減輕網(wǎng)絡(luò)加深對圖像信息的分散性。但融合各層內(nèi)容信息的同時,沒有整合好高級和低級語義信息,并且只對最顯著的目標(biāo)進行融合對比,并未對云霧等噪聲信息進行區(qū)分,所以導(dǎo)致無法平滑、精確地恢復(fù)邊緣輪廓信息。

        因此,本文針對海面目標(biāo)易受海霧干擾的現(xiàn)象,提出了一種基于改進的Deeplabv3網(wǎng)絡(luò)的云霧遮擋海面圖像顯著性檢測方法。首先,創(chuàng)建海面云霧遮擋圖像數(shù)據(jù)集,可以減小其他因素對顯著性區(qū)域的影響并且使卷積神經(jīng)網(wǎng)絡(luò)能更有效地學(xué)習(xí)顯著性特征。其次,在特征提取過程中使用了空洞卷積[10],可以不通過池化也獲取較大的感受野從而提取更多的特征信息,因而對海面云霧遮擋目標(biāo)的輪廓能夠更加準(zhǔn)確、平滑。然后,經(jīng)過不同空洞率卷積的特征矩陣進行并聯(lián),融合上下文信息,使得顯著性區(qū)域結(jié)果更加準(zhǔn)確完整。最后,對卷積神經(jīng)網(wǎng)絡(luò)原來使用的二分類交叉熵?fù)p失函數(shù)添加約束項來對其所提取到的顯著性特征進行約束,使得從分類器中獲取到的顯著性目標(biāo)圖能夠與真值圖接近。實驗結(jié)果表明本文方法與其他方法相比,在云霧遮擋的海面目標(biāo)輪廓及顯著性區(qū)域準(zhǔn)確度上,無論是主觀視覺評價還是客觀指標(biāo)評價都有著良好的表現(xiàn)。因此本文算法可應(yīng)用于海面圖像在云霧情況下顯著性目標(biāo)檢測的預(yù)處理步驟,同時為進一步海面目標(biāo)檢測、目標(biāo)追蹤等圖像任務(wù)提高其算法效率。

        1 改進的Deeplabv3網(wǎng)絡(luò)模型

        Deeplabv3算法模型[10]基于ResNet[11](Residual Network)殘差網(wǎng)絡(luò)作為網(wǎng)絡(luò)骨架。ResNet 具有較好的殘差學(xué)習(xí)能力,增加網(wǎng)絡(luò)深度的同時也優(yōu)化了梯度退化的情況。

        現(xiàn)代深度學(xué)習(xí)方法進行顯著性檢測時通過連續(xù)的池化和下采樣層集成了多尺度上下文信息,降低了分辨率,直到獲得全局預(yù)測。相反,精準(zhǔn)的顯著性區(qū)域預(yù)測需要多尺度上下文推理和全分辨率輸出。因此,空洞卷積能夠解決這一方面的相關(guān)問題。Deeplabv3網(wǎng)絡(luò)在經(jīng)過殘差單元塊之后,級聯(lián)了空洞率(rate)為2 的空洞卷積,并且采用了空間金字塔并行結(jié)構(gòu),利用不同的空洞率來學(xué)習(xí)多尺度信息特征。因此根據(jù)Deeplabv3網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)勢及特點,選擇其網(wǎng)絡(luò)結(jié)構(gòu)來進行顯著性目標(biāo)檢測。但其顯著性結(jié)果經(jīng)過測試后,對于出現(xiàn)一些海面復(fù)雜場景及顯著性目標(biāo)較小的情況時,無法準(zhǔn)確定位顯著性區(qū)域,目標(biāo)輪廓不平滑或缺失。所以在進行顯著性特征提取時,需要提高顯著性特征的有效性,更具體地說,由于顯著性目標(biāo)的邊緣信息可能被初始顯著性圖過濾掉,最終的顯著性目標(biāo)結(jié)果很難被精確預(yù)測。

        因此,提出了一個改進的Deeplabv3的網(wǎng)絡(luò)模型,與Deeplabv3網(wǎng)絡(luò)相比,引用視覺注意力機制,即增加全局注意力模塊,其模塊作用如下:

        輸入圖像經(jīng)過ResNet 網(wǎng)絡(luò)及空洞卷積過后,其特征映射經(jīng)過optimization 層和初始顯著性映射時,可以使用注意力機制策略,使特征映射直接與顯著性圖相乘。當(dāng)從全局注意力模塊獲得準(zhǔn)確的顯著性圖時,該策略將有效地抑制遮擋信息的干擾。相反,如果云霧干擾區(qū)域歸類為顯著性區(qū)域,則該策略會導(dǎo)致異常分割結(jié)果。因此,需要提高初始海面顯著性圖的有效性。顯著性目標(biāo)的邊緣信息可能受到云霧遮擋噪聲信息干擾并且被初始顯著性圖過濾掉,并且在后續(xù)處理中難以恢復(fù),因為難以精確預(yù)測。另外在實驗過程中處于云霧遮擋條件下的目標(biāo)很難被完全分割。所以提出了一個全局注意力模塊,擴大初始海面顯著性圖的覆蓋范圍。

        上述公式表示一個有著高斯核k和偏置為0 的卷積操作,其中fmin_max其中表示一個歸一化函數(shù),來讓顯著圖的范圍變?yōu)閇0,1]。而MAX()的操作表示取最大值函數(shù),使其函數(shù)趨向于增加平滑后的Si中顯著性區(qū)域的權(quán)重系數(shù)。相較于初始的注意力,提出的全局注意力機制增加了一定計算消耗,但是也進一步高亮了整體顯著性目標(biāo)。并且高斯核參數(shù)設(shè)置為變量(Tensor)可以在訓(xùn)練中自動學(xué)習(xí),改進的Deeplabv3 網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        圖1 改進的Deeplabv3網(wǎng)絡(luò)結(jié)構(gòu)

        圖2 基于改進的Deeplabv3網(wǎng)絡(luò)海面云霧遮擋顯著性檢測算法

        2 基于改進的Deeplabv3網(wǎng)絡(luò)海面云霧遮擋顯著性目標(biāo)檢測

        基于上述所提出的網(wǎng)絡(luò)結(jié)構(gòu)模型進行了面向海面圖像顯著性目標(biāo)檢測研究,為了有效抵抗云霧噪聲的影響,提高模型訓(xùn)練的穩(wěn)定性,對云霧遮擋圖像中提取、分析到的云霧特征在神經(jīng)網(wǎng)絡(luò)顯著性特征中進行遮擋特征約束。因此就可以得到一個能夠較為有效抑制云霧的端對端網(wǎng)絡(luò),無需前期手動預(yù)處理及后期手動優(yōu)化圖像,其結(jié)構(gòu)如圖2所示。

        模型的訓(xùn)練方法采用Pre-Training+Finetunning[12]方法進行模型的訓(xùn)練與特征提取,將其提取到的特征進行降維、上采樣、歸一化分類就可得出其受云霧遮擋影響圖像的顯著性目標(biāo)圖。其部分仿真結(jié)果如圖3所示,經(jīng)特征提取后尺寸為14×14通道數(shù)為256的特征圖經(jīng)通道合并降維,變?yōu)槌叽鐬?4×14通道數(shù)為1的特征圖,而此時的特征圖顯著性區(qū)域并不明顯。于是經(jīng)歸一化分類后,顯著性區(qū)域及非顯著性區(qū)域分類明顯,再經(jīng)上采樣后,得到大小為256×256 的顯著性目標(biāo)結(jié)果。由于Pre-Training 相比于Finetunning 缺少了云霧數(shù)據(jù),所以Pre-Training 的仿真結(jié)果受云霧影響程度較大,并從顯著性目標(biāo)仿真結(jié)果中可以看出,F(xiàn)inetunning的仿真結(jié)果表現(xiàn)較好。

        圖3 Pre-Training+Finetunning訓(xùn)練過程部分特征仿真圖

        2.1 數(shù)據(jù)集的建立

        在OUT-OMRON[13]和SOC6K[14]公開數(shù)據(jù)集中選取300張海面圖片,由于云霧遮擋情況下的圖片較少,所以使用柏林噪聲進行人工遮擋,然后設(shè)置不同的柏林系數(shù)來獲取30、40、50、60、70五個不同遮擋程度的云霧遮擋圖片,并且將其數(shù)據(jù)集擴充至1 800 張,選取其1 500 張作為訓(xùn)練集,300張作為測試集。雖然測試集規(guī)模小,但其中背景相對復(fù)雜,并均為多顯著性目標(biāo)圖,因此具有很高的參考性和測試價值。但即使擴充了數(shù)據(jù)集,對于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練仍然屬于少樣本訓(xùn)練情況。于是使用Pretrainning+Finetuning的方法進行網(wǎng)絡(luò)模型的訓(xùn)練,它通過在其他大樣本訓(xùn)練中進行預(yù)訓(xùn)練并保存其學(xué)習(xí)的權(quán)重,在此基礎(chǔ)上進行自己模型的訓(xùn)練,可以有效解決小樣本數(shù)據(jù)集的問題,獲得更加準(zhǔn)確的模型。因此使用MSRA10K[15]大型公開顯著性目標(biāo)數(shù)據(jù)集作為預(yù)訓(xùn)練數(shù)據(jù)集,其中含有10 000張高像素圖片及相對應(yīng)的10 000張人工標(biāo)注好的真值圖驗證集,進行100 次的迭代,然后保存其網(wǎng)絡(luò)模型參數(shù)。

        2.2 網(wǎng)絡(luò)訓(xùn)練

        完成模型權(quán)重及偏置的初始化設(shè)置后,首先假設(shè)輸入圖像的尺寸及通道數(shù)為224×224×3,然后使用ResNet50網(wǎng)絡(luò)進行特征提取,其中最后一層的特征卷積池化后得到14×14×2 048的特征圖,去掉其ResNet50的全連接層并且級聯(lián)rate=2、4 的空洞卷積層和全局注意力模塊。由于空洞卷積不降低其尺寸,所以最后得到是14×14×2 048的特征圖。

        從神經(jīng)網(wǎng)絡(luò)提取到14×14×2 048的特征圖分別通過以下操作:

        (1)通過使用256個步長為1的1×1卷積核,得到其特征信息從14×14×2 048降維至14×14×256的特征圖。

        (2)通過使用256個卷積核為3×3,rate=6、12、18的空洞卷積操作分別得到3個14×14×256的特征圖。

        (3)通過卷積核為256 的全局平均池化處理得到14×14×256的特征圖。

        將其5 個14×14×256 的特征圖矩陣進行并聯(lián)操作,得到14×14×1 280 的特征圖,經(jīng)過池化后得到14×14×256 的特征圖,然后降維至尺寸大小為14×14×1 的二維特征矩陣,經(jīng)雙線性上采樣后,最終得到大小及通道數(shù)為224×224×1的顯著性目標(biāo)圖,其過程部分卷積層特征仿真圖如圖4 所示。本文算法將每個通道提取到的關(guān)鍵特征分為兩類,相當(dāng)于對顯著性結(jié)果圖進行逐像素0/1分類:預(yù)測像素點為1時即顯著性區(qū)域、為0時即非顯著性區(qū)域。

        本文優(yōu)化器算法采用Adam梯度下降法[16](Adaptive Moment Estimation)。Batch_size 設(shè)置為 2,Train_size設(shè)置為352,訓(xùn)練迭代次數(shù)為100,初始學(xué)習(xí)率設(shè)置為0.000 1。學(xué)習(xí)率更新策略使用指數(shù)衰減法,訓(xùn)練過程中,計算網(wǎng)絡(luò)模型權(quán)重偏差和最終結(jié)果輸出目標(biāo)圖與真值圖的誤差,完成前向傳播。然后根據(jù)損失函數(shù)判斷其偏差及誤差,進行反向傳播更新網(wǎng)絡(luò)權(quán)值,并完成數(shù)據(jù)集的迭代,其過程為:

        其中,xl-1是l-1 層的輸出,也就是l層的輸入,Mj表示選擇的輸入特征圖組合,Kij是輸入的第i種特征圖和輸出的第j種特征圖之間的連接所用的卷積核,bj是第j種特征圖對應(yīng)的偏置,f是激活函數(shù)。

        在其預(yù)訓(xùn)練模型中固定的權(quán)重及偏置的基礎(chǔ)上,進行目標(biāo)云霧遮擋數(shù)據(jù)集的訓(xùn)練,由于預(yù)訓(xùn)練數(shù)據(jù)集和訓(xùn)練數(shù)據(jù)集圖像目標(biāo)和真值圖較為相近,故預(yù)訓(xùn)練參數(shù)與訓(xùn)練參數(shù)相同,最后訓(xùn)練結(jié)束保存其訓(xùn)練模型。如圖5所示,利用Pytorch及可視化工具Visdom得出最終的訓(xùn)練、測試過程中l(wèi)oss 曲線收斂情況,在訓(xùn)練時迭代10 次左右后loss 函數(shù)能夠較為穩(wěn)定的收斂,在測試時loss 函數(shù)能夠穩(wěn)定收斂在0.3 左右,說明其模型訓(xùn)練結(jié)果較為有效和穩(wěn)定。

        網(wǎng)絡(luò)訓(xùn)練的實質(zhì)就是損失函數(shù)的優(yōu)化,因此進行特征分析來優(yōu)化目標(biāo)函數(shù),使網(wǎng)絡(luò)盡可能有效的學(xué)習(xí)。

        2.3 特征分析

        海面圖像容易受到云霧干擾,導(dǎo)致顯著性提取目標(biāo)輪廓時發(fā)生不規(guī)則形變、顯著性區(qū)域誤判和顯著性目標(biāo)數(shù)量無法準(zhǔn)確預(yù)測等,影響后續(xù)顯著性目標(biāo)圖的質(zhì)量。若將遮擋圖像的特征與清晰圖像的特征的差異減小,即使云霧遮擋噪聲特征盡量剔除,那么所得顯著性目標(biāo)結(jié)果將較為接近其真值圖。因此本文采用特征約束函數(shù)來約束云霧遮擋噪聲特征,再計算與其真值圖之間的誤差,通過神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,誤差逐漸變小,直到得到最終的訓(xùn)練模型。因此針對上述問題設(shè)計目標(biāo)函數(shù):

        圖4 本文算法訓(xùn)練時部分卷積層特征仿真圖

        圖5 本文網(wǎng)絡(luò)訓(xùn)練、測試loss函數(shù)收斂曲線

        其中,λ為目標(biāo)函數(shù)云霧遮擋抵抗系數(shù)。LBCE是二分類交叉熵?fù)p失函數(shù),其表達式為:

        其中,x,y為輸入二維特征矩陣和其對應(yīng)的真值圖標(biāo)簽,其數(shù)值結(jié)果均為二維矩陣數(shù)組,ω為其對應(yīng)權(quán)值且為自適應(yīng)變量,隨著網(wǎng)絡(luò)參數(shù)的迭代收斂進行改變,將其全部數(shù)值代入式(4)即可得到損失函數(shù)的值。

        本文選用導(dǎo)向濾波作為云霧噪聲約束方法,是因為與普通的濾波方式相比,導(dǎo)向濾波在濾波處理過程中加入引導(dǎo)圖像中的信息,實現(xiàn)了雙邊濾波更好的保護邊緣及保持邊緣的細(xì)節(jié)。LGF是目標(biāo)函數(shù)云霧遮擋特征約束項,主要針對訓(xùn)練圖像施加,經(jīng)過約束項計算云霧遮擋特征,然后與神經(jīng)網(wǎng)絡(luò)提取的特征進行融合,可以有效抵抗與顯著性區(qū)域無關(guān)的信息影響,提高網(wǎng)絡(luò)學(xué)習(xí)效率,其特征約束項LGF定義為:

        其中,Pwh表示大小為為w×h的二維特征輸入特征矩陣;ΔQwh表示為輸入圖像進行導(dǎo)向濾波云霧特征約束后所得二維特征矩陣:

        定義Wij為濾波窗口,qi為二維特征矩陣中的元素,Pj為輸入圖像Pwh的像素,| |W是窗口的像素總數(shù),μk為引導(dǎo)圖在窗口W的平均值,σ2為引導(dǎo)圖在窗口W的方差。整理公式(3)~(5)可得目標(biāo)函數(shù)L為:

        為了能夠直觀地理解約束函數(shù)對所提取特征的差異,因此引用信息論中的信息熵來度量特征信息[17],熵越大表示圖像受云霧特征影響越嚴(yán)重,所含特征越復(fù)雜。如表1所示,列出了測試集圖像生成的特征在不同遮擋程度下,有無約束函數(shù)的平均特征信息熵值與遮擋程度為0時的平均特征熵值差,可以看出隨著云霧遮擋程度的加深,無約束目標(biāo)函數(shù)的特征熵值差變化較為明顯,而有約束目標(biāo)函數(shù)的特征熵值差雖然也存在變化,但與未加約束條件相比其變化趨勢相對較小。說明約束項能夠有效地從提取出的特征中,抑制云霧遮擋所帶來的影響,因此通過有約束項的目標(biāo)函數(shù),可以為后續(xù)顯著性區(qū)域的提取及判定提供較為準(zhǔn)確的目標(biāo)結(jié)果。

        3 仿真實驗結(jié)果對比與分析

        3.1 實驗環(huán)境

        本文實驗是基于64 位的Windows 操作系統(tǒng),CPU為 Intel Xeon Silver 4114 和 GPU 為 NVIDIA GeForce RTX 2080 Ti的深度學(xué)習(xí)服務(wù)器,采用深度學(xué)習(xí)框架為Pytorch,主要使用軟件工具為Pycharm、Python3.6、MatlabR2016a。

        表1 不同云霧遮擋程度下的平均特征熵值及平均熵值差

        3.2 海面顯著性檢測主觀視覺效果分析

        由于人類對視覺注意力機制的研究,使顯著性檢測算法進行不斷的發(fā)展,所以顯著性檢測效果的好壞應(yīng)從視覺觀感中進行判斷。為比較所提出算法與其他方法在不同情況下的顯著性目標(biāo)檢測效果,選擇傳統(tǒng)學(xué)習(xí)方法 HC[4]、RC[4]、LC[18]、GR[19]、CA[20]和深度學(xué)習(xí)方法DSS[6]、CPD[21]總共7種方法在云霧遮擋程度為30、40、50、60、70的情況下的效果圖進行對比。

        圖6 為部分圖像在不同云霧程度對各個算法顯著性目標(biāo)輪廓的影響情況,可以看出云霧遮擋對所有算法顯著性目標(biāo)檢測結(jié)果有著較大的影響,隨著云霧遮擋程度的提高,圖像中的可觀測信息被噪聲嚴(yán)重混淆,并且對顯著性目標(biāo)的結(jié)構(gòu)、顏色、位置進行干擾,使其對目標(biāo)輪廓及圖像前后景的區(qū)分,顯著性目標(biāo)圖的提取,各目標(biāo)之間輪廓的分割更加困難。雖然本文算法也出現(xiàn)了不同程度的顯著性目標(biāo)形變、邊緣不平滑、損失顯著性區(qū)域等問題,但其顯著性區(qū)域較為穩(wěn)定、準(zhǔn)確,不會受到大面積的云霧干擾和存在冗余信息,細(xì)節(jié)及輪廓還是較為平整地顯示出來,本文算法的顯著性結(jié)果比其他算法較為接近真值圖。為使在不同云霧遮擋程度下主觀視覺評價更加具有說服力,在其輪廓圖基礎(chǔ)上,提出了一種可以衡量其云霧平均影響程度的算法,令其云霧影響程度為:

        其中,S為顯著性區(qū)域面積,P0為原圖像各個算法的顯著性目標(biāo)輪廓圖,Pk表示為在n種不同遮擋程度下各個算法的顯著性目標(biāo)輪廓圖。表2 為不同算法云霧影響平均程度值,可以看出本文算法的云霧影響程度值較小,并同輪廓圖的主觀視覺效果對比結(jié)論相同對于海面圖像顯著性目標(biāo)抗云霧效果有著明顯的提升。

        表2 不同算法云霧影響程度值

        為了進一步對比在不同云霧遮擋程度下,各算法在不同類型目標(biāo)圖像中顯著性區(qū)域和目標(biāo)的對比。如圖7所示,部分測試集圖像在遮擋程度為70的情況下,可以看出云霧對HC、CPD、GR算法的影響最為嚴(yán)重,無法看出其顯著性目標(biāo)結(jié)果。DSS、RC、CA、LC 算法受其影響,其輪廓邊緣受到不同程度的嚴(yán)重干擾,無法準(zhǔn)確判斷其顯著性目標(biāo)位置。而本文算法雖然受云霧影響造成顯著性目標(biāo)圖的輪廓出現(xiàn)不平滑,目標(biāo)范圍不飽和的情況,但顯著性目標(biāo)數(shù)量、顯著性區(qū)域、目標(biāo)輪廓范圍與真值圖最為接近。

        如圖8 所示,在遮擋程度為 50 情況下,CA、LC、HC、DSS 算法顯著性結(jié)果受云霧遮擋影響的程度大大減少,但仍受到嚴(yán)重的云霧遮擋影響,無法準(zhǔn)確定位顯著性區(qū)域和顯著性目標(biāo)數(shù)量。GR、LC、CPD 算法能夠確定顯著性區(qū)域但其顯著性目標(biāo)數(shù)量及范圍出現(xiàn)了不同程度的的缺失。本文算法能夠確定顯著性區(qū)域及顯著性目標(biāo)數(shù)量,但其顯著性目標(biāo)邊界仍然受到云霧干擾。

        如圖9所示,在遮擋程度為30的情況下,HC、RC算法仍然受到嚴(yán)重的云霧影響,無法準(zhǔn)確定位顯著性目標(biāo)區(qū)域。LC、GR、CA、DSS算法能夠準(zhǔn)確定位在顯著性目標(biāo)區(qū)域,但仍然出現(xiàn)了顯著性區(qū)域不明顯、顯著性區(qū)域缺失的問題。本文算法和CPD算法能夠準(zhǔn)確定位顯著性目標(biāo)區(qū)域和目標(biāo)數(shù)量,但邊界仍然不夠平滑。通過綜合對比各個算法主觀視覺效果在大型艦船及多數(shù)量目標(biāo)等云霧遮擋圖像中的結(jié)果后,本文算法顯著性區(qū)域的前后背景平滑、目標(biāo)輪廓飽滿,顯著性范圍與真值圖較為接近。

        圖6 不同云霧程度對各算法顯著性目標(biāo)輪廓的影響

        圖7 遮擋程度為70時,各算法顯著性目標(biāo)結(jié)果對比

        圖8 遮擋程度為50時,各算法顯著性目標(biāo)結(jié)果對比

        圖9 遮擋程度為30時,各算法顯著性目標(biāo)結(jié)果對比

        3.3 海面顯著性檢測客觀評價

        將上述總共8種算法采用平均絕對誤差(Mean Absolute Error,MAE)值[22]、F-Measure值[22]和P-R曲線[22]作為評價指標(biāo)進行進一步分析本文方法的性能。

        MAE值可以更準(zhǔn)確地評價算法結(jié)果圖與真值圖的關(guān)系,進而評價其模型性能,其計算公式為:

        其中,M、N為顯著性圖的長和寬;G(x,y)表示真值圖在(x,y)點處的值;S(x,y)表示顯著性圖(x,y)點處的值。MAE值若較小,即證明其模型得到的顯著性圖和真值圖較為相似,性能較為優(yōu)秀。

        F-measure值計算公式為:

        其中,α設(shè)置為0.3;P為正確預(yù)測率;R為召回率;P、R的計算公式分別為:

        其中,GZ(x,y)為真值圖的值;Sb(x,y)為顯著性圖的值;下標(biāo)b表示閾值分割。F-measure值結(jié)合了正確預(yù)測率及召回率的關(guān)系,其值若較大,證明其模型較為優(yōu)秀。

        表3 展示了不同云霧遮擋程度下測試集圖像生成的結(jié)果在各個算法的MAE值和F-Measure值,可以看出本文算法的F-Measure 值在云霧遮擋程度為50 時的條件下均高于其他對比算法,在云霧遮擋程度為30 時的條件下,F(xiàn)-Measure值略低于DSS、CPD,而MAE值在所有云霧遮擋程度時的條件下相較于其他方法更低。圖10為各個算法在不同云霧遮擋程度下的P-R曲線,可以看出本文算法在云霧遮擋程度為70、50 的情況下其預(yù)測率和召回率均高于其他算法,在遮擋程度為30 時預(yù)測率和召回率僅略低于CPD 與DSS 算法,故綜合來講本文算法在一定程度上優(yōu)于其他算法。

        表3 云霧遮擋為30、50、70時各個算法性能對比

        4 結(jié)論

        本文提出了一種基于海面圖像云霧遮擋的顯著性檢測方法。針對海面圖像在云霧遮擋噪聲的情況,使用空洞卷積、全局注意力模塊、并聯(lián)金字塔結(jié)構(gòu)、云霧特征約束的方法,令遮擋區(qū)域與顯著性區(qū)域還有背景信息得到了較為明顯的區(qū)分,最終顯著性目標(biāo)輪廓較為平滑、顯著性區(qū)域較為完整。通過在海面圖像數(shù)據(jù)集上的測試并根據(jù)主觀視覺效果、客觀評價指標(biāo)與其他7種優(yōu)秀的顯著性檢測方法進行對比,實驗表明:本文所提算法在一定程度上均優(yōu)于其他算法,但對于云霧特征的分析僅從圖像處理的角度進行處理,泛化能力較差,可能過濾掉圖像中可用信息,導(dǎo)致顯著性輪廓出現(xiàn)缺失。下一步工作將從物理或深度學(xué)習(xí)的角度進行云霧特征分析,在特征分析中對云霧產(chǎn)生的噪聲進行更為有效的約束及優(yōu)化。

        猜你喜歡
        云霧海面卷積
        云霧
        撥云霧 識壓強
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        海面床,輕輕搖
        云霧是山做的夢
        第六章 邂逅“胖胖號”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        鄱湖云霧
        心聲歌刊(2019年1期)2019-05-09 03:21:28
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        少妇高潮无码自拍| 大桥未久亚洲无av码在线| 国产成人亚洲精品无码h在线| 亚洲国产成人精品91久久久| 黄片亚洲精品在线观看| 国产自拍精品一区在线观看| 影音先锋女人av鲁色资源网久久| 欧洲中文字幕| 中文字幕这里都是精品| 日本人妻伦理在线播放 | 亚洲精品无amm毛片| 色丁香久久| 国产精品高清亚洲精品| 久久精品亚洲熟女av蜜謦| 人妻丝袜av中文系列先锋影音 | 成 人 免 费 黄 色| 抽搐一进一出试看60秒体验区| 伊在人亚洲香蕉精品区麻豆| 深夜黄色刺激影片在线免费观看| 国产特黄级aaaaa片免| 午夜天堂精品久久久久| 亚洲日韩精品欧美一区二区| 激情中文丁香激情综合| 国产av无毛无遮挡网站| 又色又爽又高潮免费视频国产| 亚洲精品国产美女久久久| 国产精品国产三级国产一地| 玖玖色玖玖草玖玖爱在线精品视频 | 精品一区二区三区亚洲综合| 男人和女人做爽爽免费视频| 亚洲另类国产综合第一| 中文字幕一区二区三区.| 免费人成视频网站在线不卡| 暖暖视频在线观看免费| 青青国产成人久久91| 日本办公室三级在线观看| 国产七十六+老熟妇| 99精品久久这里只有精品| 亚洲第一女人天堂av| 人妻av中文字幕久久| 色一情一区二|