亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        采用多尺度密集殘差網(wǎng)絡(luò)的水下圖像增強(qiáng)

        2021-09-07 07:45:46衛(wèi)依雪周冬明王長城
        無線電工程 2021年9期
        關(guān)鍵詞:圖像增強(qiáng)殘差損失

        衛(wèi)依雪,周冬明,王長城,李 淼

        (云南大學(xué) 信息學(xué)院,云南 昆明 650504)

        0 引言

        隨著時(shí)代的發(fā)展以及科學(xué)技術(shù)的不斷進(jìn)步,人類對(duì)于水下生物、水下建筑以及水下火山等水下物體不斷地進(jìn)行著了解和拓展,但是由于水體本身衰減較大且水體中的水分子和各種微生物等對(duì)光具有一定的吸收和反射作用,從而造成獲取到的水下圖像存在亮度低、對(duì)比度低、輪廓模糊、顏色混亂等問題,低質(zhì)量的水下圖像給研究人員對(duì)水下環(huán)境的分析帶來巨大的困難。所以,用何種方式增強(qiáng)水下圖像的細(xì)節(jié),恢復(fù)水下圖像中的信息,引起了廣泛的研究[1]。

        由于無法獲得成對(duì)的水下模糊圖像和清晰圖像,水下圖像[2]的相關(guān)技術(shù)應(yīng)用一直受到限制,而目前的圖像處理技術(shù)對(duì)于水下圖像的增強(qiáng)還存在著一定的難度,因此,本文引入了采用多尺度密集殘差網(wǎng)絡(luò)對(duì)水下圖像增強(qiáng)[3]問題進(jìn)行研究。多尺度結(jié)構(gòu)可以提取更多的圖像細(xì)節(jié)特征,使圖像細(xì)節(jié)更加清晰;而密集殘差網(wǎng)絡(luò)不僅能夠使網(wǎng)絡(luò)結(jié)構(gòu)快速有效,還能解決網(wǎng)絡(luò)結(jié)構(gòu)冗余問題,可以更好地增強(qiáng)圖像,恢復(fù)圖像細(xì)節(jié);還在密集殘差網(wǎng)絡(luò)之間添加了SK注意力機(jī)制,使網(wǎng)絡(luò)可以根據(jù)不同尺度的圖像特征自適應(yīng)不同大小的感受野從而產(chǎn)生更好的增強(qiáng)效果。

        1 相關(guān)工作

        現(xiàn)有的水下圖像增強(qiáng)主要有基于物理模型和基于數(shù)據(jù)驅(qū)動(dòng)的方法。

        1.1 基于物理模型

        基于物理模型的方法[4]針對(duì)水下圖像退化過程構(gòu)建數(shù)學(xué)模型,通過該模型反演圖像退化過程,獲得理想狀態(tài)下未經(jīng)退化的圖像。Liu等[5]提出了一種物理有效且不依賴于輸入圖像場(chǎng)景深度估計(jì)的方法,在沒有任何預(yù)配置的情況下也可以恢復(fù)模糊的圖像。He等[6]提出了一種基于暗通道先驗(yàn)算法(DCP)用于圖像去霧,大多數(shù)人認(rèn)為大氣衰減和水下光衰減有很多相似的特性,所以暗通道先驗(yàn)算法也被用于水下圖像增強(qiáng)。Peng等[7]提出了一種基于光吸收的水下場(chǎng)景的深度估計(jì)方法[8],其不通過顏色通道就可以估計(jì)水下場(chǎng)景深度,被用于恢復(fù)和增強(qiáng)水下圖像。Huang等[8]提出了一種基于水下快速有效的場(chǎng)景深度估計(jì)模型(RGHS),通過基于學(xué)習(xí)的監(jiān)督線性回歸訓(xùn)練模型系數(shù),估計(jì)RGB圖像的背景光和投射圖的深度,從而恢復(fù)真實(shí)的水下場(chǎng)景映射圖。Wei等[9]提出了一種基于水下光衰減的快速有效的場(chǎng)景深度估計(jì)模型(ULAP),即場(chǎng)景深度隨著G、B通道的最大值與R通道之間的差值的增加而增加。Sun等[10]提出了基于暗通道和水下成像模型的水下圖像增強(qiáng)算法,其借助水下成像模型,對(duì)暗通道先驗(yàn)算法進(jìn)行了改進(jìn),提出了添加傳輸校正和顏色補(bǔ)償?shù)难芯糠椒?。盡管以上方法都能有效地增強(qiáng)水下圖像,但仍存在著對(duì)比度低、噪聲大和細(xì)節(jié)模糊等問題,這些問題降低了它們的實(shí)際適用性。

        1.2 基于數(shù)據(jù)驅(qū)動(dòng)

        基于數(shù)據(jù)驅(qū)動(dòng)的方法已經(jīng)成為當(dāng)前水下圖像增強(qiáng)研究的主要方法。Navin等[11]使用融合技術(shù)增強(qiáng)水下圖像,利用了白平衡技術(shù),通過加權(quán)融合得到輸出圖像,使得增強(qiáng)后的水下圖像或視頻降低了噪聲,更好地展現(xiàn)出了暗區(qū),增強(qiáng)了對(duì)比度,但在邊緣細(xì)節(jié)描述方面還有待提高。Ghani等[12]也采用了融合技術(shù),其從2個(gè)并行的過程對(duì)水下圖像進(jìn)行處理,第一個(gè)過程是依據(jù)瑞利分布在平均值處將圖像拉伸成2個(gè)不同強(qiáng)度的圖像;第二個(gè)過程是將顏色校正技術(shù)應(yīng)用于輸入圖像,最后將2個(gè)過程的結(jié)果進(jìn)行融合,最終的輸入圖像顏色有了很大的改善,提高了物體的可視性,但是噪聲較多。Li等[13]提出了一個(gè)水下圖像增強(qiáng)網(wǎng)絡(luò)(Water-Net),它是一個(gè)門控融合網(wǎng)絡(luò),將輸入與預(yù)測(cè)的置信度圖融合以實(shí)現(xiàn)增強(qiáng)的結(jié)果,首先通過特征轉(zhuǎn)換單元(FTU)精煉輸入圖像,然后預(yù)測(cè)置信度圖,最后通過融合改進(jìn)的輸入和相應(yīng)的置信度圖來獲得增強(qiáng)的結(jié)果,但是由于算法參數(shù)的設(shè)置問題,導(dǎo)致Water-Net并不能適應(yīng)于不同的水下環(huán)境。Li等[14]還提出了一種基于場(chǎng)景先驗(yàn)的水下圖像增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)模型,稱為UWCNN。UWCNN模型不是估計(jì)水下成像模型的參數(shù),而是直接重建清晰的水下圖像,這得益于水下場(chǎng)景先驗(yàn),可用于合成水下圖像訓(xùn)練數(shù)據(jù)。Li等[15]結(jié)合了生成對(duì)抗網(wǎng)絡(luò)提出了一種基于融合對(duì)抗的水下圖像增強(qiáng)算法,結(jié)合了對(duì)抗損失以關(guān)注真實(shí)圖像的紋理特征。Islam等[16]提出了一種基于全卷積條件生成對(duì)抗網(wǎng)絡(luò)的水下圖像增強(qiáng)模型(FUnlE-GAN),制定了一種新的損失函數(shù)用于評(píng)估圖像的感知質(zhì)量。后來,F(xiàn)abbri等[17]又提出了一種基于生成對(duì)抗網(wǎng)絡(luò)提高水下視覺場(chǎng)景質(zhì)量的方法(UGAN),使用GAN作為生成模型,將水下圖像增強(qiáng)問題變?yōu)槌蓪?duì)圖像到圖像的轉(zhuǎn)換問題,使輸出圖像更具視覺吸引力,但是由于UGAN使用的是歐幾里得距離損失,因此很容易產(chǎn)生模糊的實(shí)驗(yàn)結(jié)果。Li等[18]開發(fā)出了一個(gè)注意力網(wǎng)絡(luò)(UDA-Net),可以在學(xué)習(xí)訓(xùn)練期間融合不同類型的信息,然后根據(jù)該信息組合設(shè)計(jì)了一種協(xié)同匯集機(jī)制來提取通道,該模型可以自適應(yīng)地關(guān)注一個(gè)水下圖像中劣化斑塊的特征區(qū)域,并改善這些區(qū)域??偟膩碚f,基于深度學(xué)習(xí)的方法已經(jīng)很大程度上提高了水下圖像的視覺質(zhì)量,但是由于卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)很依賴于網(wǎng)絡(luò)的深度,而網(wǎng)絡(luò)層數(shù)的增加會(huì)造成梯度下降,導(dǎo)致實(shí)驗(yàn)結(jié)果過擬合化。

        基于以上研究,本文提出了一種新的多尺度改進(jìn)密集殘差網(wǎng)絡(luò)的水下圖像增強(qiáng)方法,在增強(qiáng)圖像亮度和對(duì)比度的同時(shí),減少了圖像中噪聲的影響,也可適應(yīng)于不同的水域場(chǎng)景,且在顏色校正方面有著一定的參考價(jià)值。無論是從主觀效果還是客觀指標(biāo),都表明所提出的算法取得了較為優(yōu)異的成果。

        2 主要方法

        2.1 多尺度改進(jìn)的密集殘差網(wǎng)絡(luò)結(jié)構(gòu)

        本文設(shè)計(jì)了一種新的多尺度改進(jìn)的密集殘差網(wǎng)絡(luò)模型來解決水下圖像增強(qiáng)問題。該模型采用端到端的結(jié)構(gòu),其中整體采用一個(gè)U型網(wǎng)絡(luò)結(jié)構(gòu)[19]以防止圖像的細(xì)節(jié)信息丟失,局部采取密集殘差模塊提取水下圖像特征,從而校正水下圖像的顏色,使圖像更清楚,質(zhì)量更高。其整體框架如圖1所示。

        圖1 算法總體框架圖Fig.1 The general framework of the algorithm

        多尺度特征提取[20]可以提取更全面的全局和局部特征信息。多尺度特征提取使網(wǎng)絡(luò)能更好地自適應(yīng)不同大小的輸入以及不同水域拍攝出的水下圖像。

        本文在每個(gè)密集殘差網(wǎng)絡(luò)[21]之間加入了SK注意力機(jī)制,其可以根據(jù)不同大小的感受野對(duì)于不同尺度的目標(biāo)產(chǎn)生不同的效果,其具體內(nèi)容如圖2所示。

        圖2 SK注意力機(jī)制總體框架圖Fig.2 The general framework of SK attention mechanism

        SK-net[22]對(duì)于不同圖像使用的卷積核權(quán)重不同,即一種針對(duì)不同尺度的圖像動(dòng)態(tài)生成卷積核的網(wǎng)絡(luò)。其主要由Split、Fuse、Select三部分組成。

        Split部分是對(duì)輸入使用不同大小卷積核進(jìn)行多次卷積操作,本文采用的是3×3和5×5大小的卷積核。

        Fuse部分是計(jì)算每個(gè)卷積核權(quán)重的部分,將兩部分的特征圖按元素求和,其計(jì)算公式為:

        (1)

        U通過全局平均池化(GAP)生成通道統(tǒng)計(jì)信息,得到的Sc維度為C×1,再經(jīng)過全連接生成緊湊的特征z(維度為d×1),其計(jì)算公式如下:

        (2)

        z=f(s)=δ(B(Ws)),

        (3)

        d=max(C/r,L),

        (4)

        式中,δ為ReLU激活函數(shù);B為BN層;z的維度為卷積核的個(gè)數(shù);W維度為d×C;d代表全連接后的特征維度;L在文中的值為32[22];r為壓縮因子。

        Select部分是通過softmax計(jì)算每個(gè)卷積核的權(quán)重,然后將權(quán)重應(yīng)用到特征圖上,再將2個(gè)新的特征圖進(jìn)行連接融合得到最終的輸出圖像。

        2.2 損失函數(shù)

        由于常用的誤差度量已經(jīng)不能體現(xiàn)圖像在各個(gè)方面的優(yōu)化程度,本文通過優(yōu)化損失函數(shù)解決這一問題,使輸出圖像更貼近真實(shí)圖像。本文使用4個(gè)損失函數(shù),分別是結(jié)構(gòu)性相似損失(Lossssim)、均方誤差(Lossmse)、梯度損失(Lossgrad)和感知損失(Lossvgg)[23]。其計(jì)算公式如下:

        Loss=α(Lossssim+Lossmse+Lossgrad)+βLossvgg。

        (5)

        結(jié)構(gòu)性相似性損失函數(shù)Lossssim指的是整體視覺效果,用來衡量真實(shí)圖像和使用本文算法增強(qiáng)后的圖像之間的差異性,旨在改善輸出圖像的視覺質(zhì)量:

        (6)

        均方誤差是目標(biāo)變量和預(yù)測(cè)值的差值平方和的均值。均方誤差損失函數(shù)會(huì)放大最大誤差和最小誤差之間的差距,而且均方誤差損失函數(shù)對(duì)異常點(diǎn)非常敏感:

        (7)

        在訓(xùn)練網(wǎng)絡(luò)時(shí),如果只使用均方誤差損失函數(shù),很容易陷入到局部最優(yōu)解中,所以,還引入了梯度損失,具體為:

        (8)

        由于光線的紅色分量在水下衰減最嚴(yán)重,造成水下圖像的顏色偏綠或偏藍(lán),所以對(duì)于損失函數(shù)的構(gòu)建,本文除了用結(jié)構(gòu)性相似損失、均方誤差損失和梯度損失函數(shù)以外,還引進(jìn)了感知損失Lossvgg來校正圖像的顏色分布,使得增強(qiáng)后的圖像細(xì)節(jié)更清晰,其計(jì)算公式為:

        (9)

        式中,E,G分別表示增強(qiáng)圖像和真實(shí)圖像;W,H,C分別表示VGG網(wǎng)絡(luò)三通道對(duì)應(yīng)特征圖的維度;φ表示VGG網(wǎng)絡(luò)的特征圖。

        3 實(shí)驗(yàn)評(píng)價(jià)

        本文進(jìn)行了大量的實(shí)驗(yàn),對(duì)所提出的算法進(jìn)行評(píng)價(jià)和驗(yàn)證,并與現(xiàn)有方法進(jìn)行比較。所有實(shí)驗(yàn)是在Windows10,Intel i7 9700KF 3.6 GHz,16 GB RAM,Nvidia 2070s GPU平臺(tái)上運(yùn)行,且使用的開源框架是Tensorflow1.15。利用了Li等[14]在UWCNN論文中合成的一個(gè)水下圖像退化數(shù)據(jù)集Type,其涵蓋了不同的水域類型和退化程度;以及Islam等[16]在FUnlE-GAN論文中建立的一個(gè)EUVP大規(guī)模數(shù)據(jù)集,其包括感知質(zhì)量較差和良好的成對(duì)圖像樣本集合,從中隨機(jī)選擇了3 700個(gè)成對(duì)的訓(xùn)練圖像和23個(gè)成對(duì)的測(cè)試圖像用于對(duì)所提出方法進(jìn)行訓(xùn)練和實(shí)驗(yàn)。設(shè)置學(xué)習(xí)率參數(shù)為0.000 1的Adam優(yōu)化算法對(duì)模型進(jìn)行優(yōu)化。網(wǎng)絡(luò)訓(xùn)練次數(shù)為1 000次,損失函數(shù)的權(quán)重參數(shù)設(shè)置為α=1,β=2。

        為保證公平性,所有模型的訓(xùn)練次數(shù)相同。將所提算法與現(xiàn)階段較先進(jìn)的IBLA[7]、RGHS[8]、ULAP[9]、UWCNN[14]、FUNLE[16]和UGAN[17]六種方法進(jìn)行不同指標(biāo)間的測(cè)試和比較。接下來,將從主觀效果和客觀評(píng)價(jià)指標(biāo)兩方面進(jìn)行分析。

        3.1 主觀評(píng)價(jià)

        從Type測(cè)試數(shù)據(jù)集中挑選了“Corridor”“Bookcase”和“Conference room”三張圖片,其實(shí)驗(yàn)對(duì)比結(jié)果如圖3所示。

        圖3 Type數(shù)據(jù)集實(shí)驗(yàn)結(jié)果對(duì)比Fig.3 Comparison of experimental results of Type dataset

        由圖3可以看出,UGAN方法增強(qiáng)后的圖像整體還是偏藍(lán)色,增強(qiáng)效果一般。ULAP方法對(duì)比度增強(qiáng)過度,人眼感官效果較差。RGHS、UWCNN和FUNLE方法增強(qiáng)后的圖片部分區(qū)域呈現(xiàn)紅色,是由于對(duì)水下圖像過度增強(qiáng)造成的。本文對(duì)圖像的部分區(qū)域進(jìn)行細(xì)節(jié)放大對(duì)比,細(xì)節(jié)對(duì)比結(jié)果如圖4所示。

        圖4 Type數(shù)據(jù)集實(shí)驗(yàn)結(jié)果細(xì)節(jié)對(duì)比Fig.4 Comparison of Type dataset experimental result details

        通過細(xì)節(jié)對(duì)比,很明顯可以看出RGHS、UWCNN和FUNLE增強(qiáng)后的圖像部分區(qū)域與“Label”圖顏色差距過大,而UGAN增強(qiáng)后的圖像OURS的細(xì)節(jié)圖在顏色恢復(fù)上都接近“Label”圖,但ULAP整體效果一般。

        通過EUVP數(shù)據(jù)集的比較結(jié)果如圖5所示。

        圖5 EUVP數(shù)據(jù)集實(shí)驗(yàn)結(jié)果對(duì)比Fig.5 Comparison of experimental results of EUVP dataset

        “Fish”“Coral”“Cay”和“Mollusc”四張圖片的IBLA、RGHS和UGAN方法只是將圖片進(jìn)行了亮度增強(qiáng),去水能力有待提高,圖像顏色仍然偏綠。UWCNN方法與“Input”圖相差無異,增強(qiáng)效果不理想,ULAP比其他方法的實(shí)驗(yàn)結(jié)果要模糊且亮度較低,色彩不夠豐富鮮艷。而ULAP和FUNLE去水能力得到一定的改善,但圖片顏色過于混亂,不符合人眼的視覺效果。相較于其他方法,本文提出的方法不僅去水能力更勝一籌,而且色彩保留方面也相較于其他算法有所提升,邊緣細(xì)節(jié)部分的處理也非常理想。

        3.2 客觀評(píng)價(jià)

        本文的客觀圖像評(píng)價(jià)指標(biāo)使用的是均方誤差MSE、信噪比SNR、峰值信噪比PSNR[24]、結(jié)構(gòu)相似性SSIM[25]、視覺信息保真度VIF[26]、信息保真度準(zhǔn)則IFC[27]和噪聲質(zhì)量評(píng)價(jià)NQM七個(gè)有參考的圖像質(zhì)量評(píng)價(jià)指標(biāo),其中VIF、IFC指標(biāo)和人眼感知結(jié)果最為接近,其次為NQM。還有自然圖像質(zhì)量評(píng)價(jià)NIQE[28]和亮度順序誤差LOE[29]兩個(gè)無參考的圖像質(zhì)量評(píng)價(jià)指標(biāo)。MSE、SNR、PSNR、SSIM、VIF、IFC和NQM的值越大,表明增強(qiáng)后的圖像越接近真實(shí)圖像,細(xì)節(jié)信息保留的越多,效果越好。NIQE和LOE的值越小,表示待測(cè)圖像的失真越小,圖像質(zhì)量越高。

        下面對(duì)本文在Type、EUVP數(shù)據(jù)集上測(cè)試的實(shí)驗(yàn)結(jié)果進(jìn)行了客觀指標(biāo)的對(duì)比,表1為Type數(shù)據(jù)集中所有測(cè)試圖像不同方法的客觀指標(biāo)平均值的對(duì)比結(jié)果。其中黑色加粗表示最優(yōu)結(jié)果,下劃線表示次優(yōu)結(jié)果。

        通過分析表1可以得出,本文所提出算法增強(qiáng)后的圖像所有指標(biāo)都遠(yuǎn)遠(yuǎn)高于其他算法。UWCNN算法在PSNR、SSIM、SNR、MSE和LOE這5個(gè)指標(biāo)中僅次于本文算法。通過圖4和圖5的細(xì)節(jié)對(duì)比發(fā)現(xiàn),由于有些測(cè)試圖的Label圖本身顏色偏暗,而RGHS和ULAP算法增強(qiáng)出來的圖像很亮最后導(dǎo)致VIF指標(biāo)偏高,但其增強(qiáng)后的結(jié)果與真實(shí)圖像嚴(yán)重不符。雖然每個(gè)算法都有自己較為顯著的方面,但也有自己不足的地方,而本文算法整體效果都有所提高。

        表1 Type數(shù)據(jù)集的圖像評(píng)價(jià)指標(biāo)對(duì)比Tab.1 Comparison of image evaluation indexes of Type dataset

        表2為EUVP數(shù)據(jù)集中所有測(cè)試圖像不同方法的客觀指標(biāo)平均值的對(duì)比結(jié)果。通過表2可以看出,本文算法增強(qiáng)后的圖像在所有指標(biāo)中都是最優(yōu)的。RGHS方法的PSNR、SSIM、SNR和MSE僅次于本文方法,而VIF、IFC和NQM指標(biāo)FUNLE方法略勝一籌是因?yàn)镕UNLE方法增強(qiáng)后得到的圖像顏色較為鮮艷,對(duì)比度更高。但由圖6的圖像細(xì)節(jié)對(duì)比發(fā)現(xiàn),F(xiàn)UNLE方法存在細(xì)節(jié)不夠清晰等問題。

        表2 EUVP數(shù)據(jù)集的圖像評(píng)價(jià)指標(biāo)對(duì)比Tab.2 Comparison of image evaluation indexes of EUVP dataset

        圖6 Fish圖像細(xì)節(jié)對(duì)比Fig.6 Comparison of fish image details

        4 消融研究

        對(duì)本文所提出的網(wǎng)絡(luò)模型的損失函數(shù)和SK注意力機(jī)制進(jìn)行了消融研究。

        首先,針對(duì)感知損失函數(shù)VGG的參數(shù)進(jìn)行了消融,由于篇幅限制,本文只選擇了Type數(shù)據(jù)集中的4張圖片進(jìn)行消融對(duì)比。通過圖片對(duì)比分析得出,VGG=1.0時(shí)效果最差,圖像的部分區(qū)域很模糊,噪聲也較大;VGG為1.5和1.8時(shí),效果有所提升,但有光照的地方光斑較為嚴(yán)重,且有偽影的存在;VGG為2.2和2.5時(shí),由于訓(xùn)練過度,圖像開始偏紅;VGG=2.0時(shí),光斑問題相較于其他參數(shù)有所緩和,顏色也最接近“Label”圖,所以本文最終確定VGG的參數(shù)為2.0,其實(shí)驗(yàn)結(jié)果如圖7所示。

        圖7 VGG損失函數(shù)參數(shù)的實(shí)驗(yàn)對(duì)比結(jié)果Fig.7 The comparison results of VGG loss function parameter experiments

        由于單張圖片的客觀評(píng)價(jià)指標(biāo)間的數(shù)值相差不大,本文將4張圖片的指標(biāo)參數(shù)進(jìn)行加權(quán)平均。通過表3可以分析得出,VGG=2.0時(shí)本文算法增強(qiáng)出的圖像效果最好,對(duì)于所有不同場(chǎng)景的水下圖像更具包容性。

        表3 VGG損失函數(shù)參數(shù)的評(píng)價(jià)指標(biāo)對(duì)比Tab.3 The comparison of evaluation indexes of VGG loss function parameter

        對(duì)SK注意力機(jī)制進(jìn)行了消融實(shí)驗(yàn),Type數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果如圖8(a)所示,EUVP數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果如圖8(b)所示。

        (a) Type數(shù)據(jù)集

        單獨(dú)研究沒有添加SK注意力機(jī)制的圖像,可以發(fā)現(xiàn)整體效果還是較為理想的。但通過對(duì)比可以看出,添加SK注意力機(jī)制后的實(shí)驗(yàn)結(jié)果更加接近真實(shí)圖像,顏色也更加鮮艷,細(xì)節(jié)部分更清晰。

        本文將2個(gè)數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果分別進(jìn)行加權(quán)平均得到的指標(biāo)對(duì)比如表4所示。通過表4可以更直觀地看出,去掉SK注意力機(jī)制后,客觀指標(biāo)明顯下降。

        表4 SK注意力機(jī)制消融實(shí)驗(yàn)的評(píng)價(jià)指標(biāo)對(duì)比Tab.4 The comparison of evaluation indexes of SK attention mechanism ablation experiments

        因此,可以證明本文所提出網(wǎng)絡(luò)結(jié)構(gòu)框架的有效性且每個(gè)部分都是不可或缺的。

        5 結(jié)束語

        針對(duì)水下圖像增強(qiáng)問題,本文提出了一種新的多尺度改進(jìn)的密集殘差網(wǎng)絡(luò)方法。采用多尺度特征提取對(duì)水下圖像進(jìn)行預(yù)處理,然后經(jīng)過改進(jìn)的密集殘差網(wǎng)絡(luò)進(jìn)行圖像增強(qiáng),最后整體通過U型網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行融合。大量的實(shí)驗(yàn)證明,多尺度結(jié)構(gòu)可以使網(wǎng)絡(luò)框架應(yīng)用更加廣泛,適應(yīng)于不同的水域環(huán)境。且改進(jìn)的密集殘差網(wǎng)絡(luò)可以很好地增強(qiáng)圖像的對(duì)比度,改善圖像色彩,強(qiáng)化圖像信息,使得增強(qiáng)后的圖像更加符合人眼視覺系統(tǒng)特性。通過實(shí)驗(yàn)的驗(yàn)證,本文算法遠(yuǎn)遠(yuǎn)優(yōu)于現(xiàn)有的大多數(shù)水下圖像增強(qiáng)算法。此外,為了促進(jìn)對(duì)水下圖像領(lǐng)域研究的進(jìn)步,接下來將考慮研究水下圖像數(shù)據(jù)集,從而給予更多研究者參考與實(shí)驗(yàn)。

        猜你喜歡
        圖像增強(qiáng)殘差損失
        基于雙向GRU與殘差擬合的車輛跟馳建模
        少問一句,損失千金
        圖像增強(qiáng)技術(shù)在超跨聲葉柵紋影試驗(yàn)中的應(yīng)用
        胖胖損失了多少元
        水下視覺SLAM圖像增強(qiáng)研究
        基于殘差學(xué)習(xí)的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        虛擬內(nèi)窺鏡圖像增強(qiáng)膝關(guān)節(jié)鏡手術(shù)導(dǎo)航系統(tǒng)
        玉米抽穗前倒伏怎么辦?怎么減少損失?
        基于圖像增強(qiáng)的無人機(jī)偵察圖像去霧方法
        国产高清成人午夜视频| 日韩亚洲制服丝袜中文字幕| 无码久久精品蜜桃| 毛片精品一区二区二区三区| 日本丰满老妇bbw| 国产熟妇人妻精品一区二区动漫| 最新亚洲人AV日韩一区二区 | 亚洲香蕉av一区二区蜜桃| 国产免费一区二区在线视频| 影音先锋色小姐| 国产精品露脸视频观看| 中文字幕日本熟妇少妇| 校园春色日韩高清一区二区 | 不卡a v无码在线| 男女深夜视频网站入口| av国产传媒精品免费| 波多野结衣免费一区视频| 无码av专区丝袜专区| 亚洲国产精品国自拍av| 熟妇人妻久久中文字幕| 91日韩高清在线观看播放| 偷拍av一区二区三区| 日本一二三区在线观看视频| 国产成人综合久久亚洲精品| 五月天综合社区| 国产av一区二区网站| 强开少妇嫩苞又嫩又紧九色| 十八岁以下禁止观看黄下载链接 | 久久久久久久久久久熟女AV| 亚洲视一区二区三区四区| 国产极品美女高潮无套| 无遮无挡爽爽免费视频| 中国女人a毛片免费全部播放| 国产精品一区久久综合| 色天使综合婷婷国产日韩av| 免费毛片在线视频| 亚洲av色精品国产一区二区三区| 欧美丰满老熟妇aaaa片| 国产av一区二区三区日韩| 最大色网男人的av天堂| 一区二区三区美女免费视频|