李碩士 劉洪瑞 甘永東 朱新山 張軍
摘? ?要:基于卷積神經(jīng)網(wǎng)絡的單幅圖像去霧算法雖然取得了一定進展,但仍然存在去霧不完全和偽影等問題. 基于這一現(xiàn)狀,提出了一種以編碼器-解碼器結(jié)構(gòu)為基本框架,融合注意力機制與殘差密集塊的單幅圖像去霧網(wǎng)絡. 首先,利用網(wǎng)絡中的編碼器、特征恢復模塊和解碼器三個部分直接對去霧后的圖像進行預測;然后,在網(wǎng)絡中引入本文所設計的帶有注意力機制的殘差密集塊,提升網(wǎng)絡的特征提取能力;最后,基于注意力機制提出自適應跳躍連接模塊,增強網(wǎng)絡對去霧圖像細節(jié)的恢復能力. 實驗結(jié)果表明,與現(xiàn)有去霧方法相比,提出的去霧網(wǎng)絡在合成有霧圖像數(shù)據(jù)集和真實有霧圖像上均取得了較為理想的去霧效果.
關(guān)鍵詞:圖像去霧;深度神經(jīng)網(wǎng)絡;編碼器-解碼器;注意力機制
中圖分類號:TP391.4? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻標志碼:A
Image Dehazing Network Based on Residual Dense
Block and Attention Mechanism
LI Shuoshi1,2,LIU Hongrui1,GAN Yongdong1,ZHU Xinshan1,2?,ZHANG Jun1
(1. School of Electrical and Information Engineer,Tianjin University,Tianjin 300072,China;
2. State Key Laboratory of Digital Publishing Technology,Beijing 100871,China)
Abstract:Although the single image dehazing algorithms based on the deep convolutional neural network have made significant progress,there are still some problems, such as poor visibility and artifacts. To overcome these shortcomings,we present a single image dehazing network, taking the encoder-decoder structure as the basic frame and combining the attention mechanism and residual dense block. First,the scheme integrates an encoder, a feature recovery module and the decoder to directly predict the clear images. Then, the residual dense block with attention mechanism is introduced into the dehazing network so as to improve the network's feature extraction ability. Finally, based on the attention mechanism, an adaptive skip connection module is proposed to enhance the network recovering ability for the clear images details. Experimental results show that the proposed dehazing network provides better dehazing results on synthetic datasets and real-world images.
Key words:image dehazing;deep neural networks;encoder-decoder;attention mechanism
在霧、霾等天氣下,霧氣中懸浮顆粒會對光線的散射造成影響,導致圖像傳感器所捕捉到的圖像出現(xiàn)對比度下降等圖像質(zhì)量退化問題. 這些退化的圖像無法真實反應場景中所存在物體的結(jié)構(gòu)、顏色等信息,降低了其在圖像分類[1]、目標檢測[2]等計算機視覺任務中的應用價值. 因此,圖像去霧是目前計算機視覺研究中的一個重要問題.
目前已有的圖像去霧方法主要可以分為兩類,一類是基于先驗知識的去霧方法,另一類是基于深度學習的去霧方法. 基于先驗知識的去霧方法通常對有霧圖像進行統(tǒng)計以獲取先驗知識,然后利用先驗知識對大氣散射模型[3-4]中的傳輸圖與大氣光值這兩個未知參數(shù)進行求解以實現(xiàn)圖像去霧. 該類方法中最具有代表性的是He等[5]提出的暗通道先驗(Dark Channel Prior,DCP)去霧方法,該方法利用其統(tǒng)計得到的暗通道先驗,對大氣散射模型中的傳輸圖進行了估計,在不引入額外參數(shù)的情況下較好地達到了圖像去霧的目的,但是當有霧圖像整體趨于白色時,該方法將不能取得良好的去霧效果,并且該方法有著相對較大的計算量. Zhu等[6]通過對大量有霧圖像的遠景、中景、近景進行分析發(fā)現(xiàn)霧的濃度與圖像的亮度和飽和度之差呈正比,并利用這一規(guī)律提出了一個簡單但有效的線性去霧模型. Tan[7]發(fā)現(xiàn)無霧圖像相比于有霧圖像有著更高的局部對比度,于是使用了馬爾可夫隨機場對有霧圖像的局部對比度進行了最大化以實現(xiàn)圖像的去霧. Berman等[8]指出無霧圖像中的像素點的顏色在RGB空間上可以聚類成幾百個緊致的團簇,并提出了基于該先驗知識的去霧算法. 基于先驗知識的去霧方法近年來取得了一定的進展,并比較好地完成了基本的圖像去霧任務,但是這些方法提出的先驗知識并不是在所有的場景都成立的,所以基于先驗知識的去霧方法具有很大的局限性.
隨著深度學習的不斷發(fā)展與大型去霧數(shù)據(jù)集[9]的建立,研究人員開始采用基于深度學習的方法對單幅圖像進行去霧. 最初,研究人員主要通過構(gòu)建神經(jīng)網(wǎng)絡對大氣散射模型中的未知參數(shù)進行估計,然后利用估計的參數(shù)實現(xiàn)圖像的去霧. Cai等[10]提出的DehazeNet去霧模型,通過特征提取、多尺度特征映射、局部極值求取與非線性回歸四個步驟實現(xiàn)了對大氣散射模型中傳輸圖的估計. Ren等[11]提出了多尺度深度去霧網(wǎng)絡(Multi-Scale CNN,MSCNN),使用多尺度神經(jīng)網(wǎng)絡實現(xiàn)了傳輸圖由粗到細的估計. Li等[12]將大氣散射模型進行了轉(zhuǎn)化,將大氣光值與傳輸圖這兩個未知參數(shù)合并為了一個未知參數(shù),并設計了一種輕量的具有多尺度融合的一體化網(wǎng)絡(All-in-One Network,AOD-Net),對該未知參數(shù)進行了估計. Zhang等[13]提出的密集金字塔去霧網(wǎng)絡(Densely Connected Pyramid Dehazing Network,DCPDN) 將大氣散射模型的公式嵌入到了其所構(gòu)建的神經(jīng)網(wǎng)絡之中,在網(wǎng)絡中分別對大氣光值與傳輸圖兩個參數(shù)進行了估計. 由于在現(xiàn)實中,霧的形成并不是嚴格符合大氣散射模型,所以有一些研究人員脫離物理模型,使用卷積神經(jīng)網(wǎng)絡直接學習有霧圖像與無霧圖像中的映射關(guān)系. Ren等[14]首先對有霧圖像分別進行了白平衡操作、對比度增強與伽馬變換,得到了三幅增強后的有霧圖像,然后使用其所提出的門控融合網(wǎng)絡(Gated Fusion Network,GFN)對這三幅圖像進行融合,恢復出了最終的去霧圖像. Liu等[15]設計了一種基于注意力機制的多尺度神經(jīng)網(wǎng)絡GridDehazeNet,實現(xiàn)了多尺度的特征融合,進一步提升了單幅圖像去霧的效果.
目前,基于深度學習的去霧方法在公開數(shù)據(jù)集上取得了良好的效果,但是仍有一些不足之處. 作為一個低級視覺任務,圖像去霧網(wǎng)絡除了要對圖像中的霧進行去除之外,還需要保留原始圖像的色彩與細節(jié)等信息. 這就要求網(wǎng)絡在設計時綜合利用各個尺度的特征信息,使用深層次的特征恢復出無霧圖像的主體,并結(jié)合底層的特征對圖像的細節(jié)信息進行豐富. 在對深層次的特征進行提取時,若使用下采樣操作,則會在一定程度上丟失圖像的特征信息,若不使用下采樣操作,則有著較低的特征提取效率與較高的運算復雜度. 如何高效率地進行特征提取與多尺度特征融合是目前需要解決的一個重要問題. 針對這個問題,本文基于注意力機制,提出了一個端到端的單幅圖像去霧網(wǎng)絡. 該網(wǎng)絡使用帶有注意力機制的殘差密集塊(Residual Dense Block with Attention,RDBA)作為模型的基本模塊,有效地提升了網(wǎng)絡的特征提取能力. 此外,本文基于注意力機制設計了一種自適應跳躍連接(Adaptive Skip Connection,ASC),有側(cè)重地從編碼器中提取特征信息以對圖像的細節(jié)進行補充. RDBA模塊與ASC模塊的使用,有效提升了網(wǎng)絡的恢復能力,使得網(wǎng)絡取得了良好的去霧效果.
1? ?模型框架
1.1? ?網(wǎng)絡的整體結(jié)構(gòu)
由于編碼-解碼結(jié)構(gòu)在圖像超分辨率[16-17]等低級視覺任務中取得了極大的成功,所以本文采用了U-net[18]這一被廣泛使用的編碼-解碼結(jié)構(gòu)作為了模型的基本框架. 如圖1所示,模型由編碼器、特征恢復模塊與解碼器三部分組成. 模型的輸入是一張有霧圖像,該圖像依次經(jīng)過3個模塊,得到最終的去霧圖像.
編碼器由卷積層、帶有注意力機制的殘差密集塊、下采樣模塊組成. 殘差密集塊[19] (Residual Dense Block,RDB)與普通的卷積層相比,在同等參數(shù)下具有更復雜的結(jié)構(gòu)和更好的特征提取能力,所以本文使用改進的帶有注意力機制的殘差密集塊作為網(wǎng)絡的基本塊. 下采樣模塊的作用是降低特征圖的尺寸以增大感受野,同時減少后續(xù)計算的復雜度,在本文中,下采樣模塊是通過卷積核大小為3、步長為2的卷積操作實現(xiàn)的. 特征恢復模塊由多個帶有注意力機制的殘差密集塊串聯(lián)組成,其作用是對編碼器得到的特征進行進一步的處理,以便于更好地恢復出無霧圖像的內(nèi)容信息. 在本文中,殘差塊的數(shù)量為9. 解碼器與編碼器的結(jié)構(gòu)對稱,由卷積層、帶有注意力機制的殘差密集塊、上采樣模塊組成. 上采樣模塊的作用是在空間上將特征恢復到輸入圖像的大小,在該模塊中,本文首先將輸入的特征圖進行雙線性插值,然后使用卷積核大小為3、步長為1的卷積層對插值后的特征進行進一步轉(zhuǎn)化. 卷積層的作用是從特征圖中恢復出無霧的圖像,得到網(wǎng)絡的輸出.
由于高級特征更關(guān)注圖像的整體風格而不是圖像的紋理等內(nèi)容信息,為了使得模型所恢復的圖像具有豐富的細節(jié)信息,本文在編碼器與解碼器之間使用了本文所設計的自適應跳躍連接. 此外,在超分辨率等以峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)和結(jié)構(gòu)相似性(Structural Similarity Index,SSIM)為主要評價指標的低級視覺任務中,去除批量歸一化(Batch Normalization,BN)層[20]已經(jīng)被證明有助于增強網(wǎng)絡的性能和減少計算的復雜度,同時也對生成圖像偽影的去除有一定的幫助,因此在本文所提出的網(wǎng)絡中,所有的模塊都沒有使用BN 層.
1.2? ?通道注意力機制
卷積神經(jīng)網(wǎng)絡的核心在于使用卷積算子對特征圖所包含的特征信息進行提取,在這里,將特征圖記為F,F(xiàn)∈RC × H × W,其中,H與W分別為特征圖的高度與寬度,C為特征圖的通道數(shù). 由于特征圖的各個通道往往具有不同的重要程度,所以如果平等地對各個通道的特征信息進行利用,難免會造成計算資源的浪費,限制網(wǎng)絡的特征表達能力. 因此,本文引入了通道注意力機制[21],有區(qū)別地對待特征圖中不同通道的特征信息. 通道注意力機制的計算過程表示為:
FA = βF? ? ? ? ? ? ? ? ? ? ?(1)
式中:β為特征圖中各個通道的權(quán)重,β∈RC × 1 × 1;FA為經(jīng)過通道注意力操作后,得到的加權(quán)后的特征圖; 表示元素相乘. 為了通過F得到β,首先對F進行全局池化,然后使用卷積等操作,對β進行求取,該過程可以表示為:
β = σ(Conv(δ(Conv(G))))? ? ? ? (2)
式中:G是對F全局池化得到的結(jié)果,G∈RC × 1 × 1;Conv表示卷積操作;δ為ReLu激活函數(shù);σ表示sigmoid激活函數(shù),用來將權(quán)重限制到0~1.
1.3? ?帶有注意力機制的殘差密集塊
殘差密集塊同時使用了殘差連接[22]與密集連接[23]兩種網(wǎng)絡設計方式,其中,密集連接部分充分使用了各個層級的卷積所提取的特征,有較高的特征提取能力,并且可以防止因網(wǎng)絡過深而出現(xiàn)梯度消失的現(xiàn)象. 殘差連接使得正向傳播的特征得以保留,即每一層的結(jié)果都是在之前的結(jié)果的基礎(chǔ)上得到的,這樣的連接方式不僅可以防止網(wǎng)絡梯度的消失,還有益于網(wǎng)絡的收斂. 本文在殘差密集塊的基礎(chǔ)上增加了注意力機制,在本文中,每個RDBA包括4個卷積核大小為3的卷積層,1個卷積核大小為1 的卷積層與1個通道注意力模塊. 如圖2 所示,RDBA的前四層卷積層采用了密集連接的方式以獲取更多的特征信息,最后一層卷積層將這些特征信息進行融合,融合后的特征通過通道注意力模塊對不同的通道進行加權(quán),加權(quán)后的特征作為殘差與RDBA的輸入以對應通道相加的形式進行融合. 和大多數(shù)文獻一樣,本文將密集連接部分的增長率設置為16. 在不同尺度下,RDBA輸入的特征圖的通道數(shù)是不同的,特征圖的大小越大,其通道數(shù)越少. 在本文中,RDBA在輸入圖像尺度、1/2輸入圖像尺度與1/4輸入圖像尺度下輸入輸出的特征圖的通道數(shù)分別為16、32、64.
1.4? ?自適應跳躍連接
為了獲得足夠大的感受野,獲取更多的上下文信息,編碼器中常常使用下采樣操作,但是下采樣操作常常會帶來特征圖的細節(jié)信息丟失的問題. 在U-net等編碼解碼結(jié)構(gòu)中,編碼器與解碼器之間往往采用跳躍連接的方式對解碼器中的特征進行增強. 一般來講,跳躍連接主要有兩種形式,一種是將編碼器中的特征信息與對應的解碼器中的特征信息以通道相加的方式進行融合;另一種是將編碼器中的特征信息與對應的解碼器中的特征信息進行堆疊,然后使用堆疊的特征進行后續(xù)處理. 這兩種跳躍連接的方式均起到了細節(jié)補充的效果,但是同時也引入了許多的無用信息. 針對這一問題,本文設計了一種自適應跳躍連接方式,如圖3所示,該方式主要包括以下4個步驟.
1)特征的初步融合. 將編碼器中的特征信息FE與對應的解碼器中的特征信息FD以通道相加的方式進行初步融合.
2)特征提取. 使用卷積核大小為3的卷積層對融合后的特征進行提取.
3)通道加權(quán). 使用通道注意力機制對提取的特征各個通道進行加權(quán),進一步提取出有用的特征信息.
4)特征增強. 將通道加權(quán)后的特征與步驟1中的解碼器中的特征信息FD以通道相加的方式融合,得到增強后的特征FS.
自適應跳躍連接可以有側(cè)重地進行特征融合,使得解碼器獲取到其所需要的增強信息,取得更好的特征融合效果.
1.5? ?損失函數(shù)
為了得到一個好的模型,需要設計合適的損失函數(shù)來衡量模型所預測的結(jié)果與訓練數(shù)據(jù)中的真實值的吻合程度. 由于目前圖像去霧的評價指標主要為客觀評價指標PSNR,所以大多數(shù)去霧網(wǎng)絡采用均方差(Mean Square Error,MSE)損失或MSE損失與感知損失[24]、生成對抗損失[25]相結(jié)合的方式作為模型的損失函數(shù)以取得更好的客觀評價質(zhì)量. 為了減少計算量,提升模型的訓練速度,本文采用了簡單的均方差損失對輸出圖像的各個像素點進行監(jiān)督,模型的損失函數(shù)為:
LMSE = ‖Ji(x) - Ii(x)‖2
2? ? ? (3)
式中:Ji(x)與Ii(x)分別表示去霧圖像與真實無霧圖像中像素x的第i個顏色通道的像素值;N為單個通道內(nèi)像素的總個數(shù).
2? ?實驗結(jié)果與分析
2.1? ?實驗數(shù)據(jù)與評價指標
為了與其他的模型進行對比,模型的訓練是在公開數(shù)據(jù)集RESIDE[9]上進行的,該數(shù)據(jù)集由合成的室內(nèi)有霧圖像集與合成的室外有霧圖像集組成. 對于室內(nèi)圖像去霧,本文直接使用了RESIDE中的室內(nèi)訓練集(Indoor Training Set,ITS)作為訓練集,該數(shù)據(jù)集由1 339張原始的圖像與13 990張有霧圖像組成,有霧圖像是由原始圖像使用大氣散射模型合成的,其中,全局大氣光值的取值范圍為0.8~1.0,大氣散射參數(shù)的取值范圍為0.04~0.2. 對于室外圖像去霧,RESIDE中的室外訓練集(Outdoor Training Set,OTS)中有部分原始圖像與測試集的標簽是一致的,這些圖像可能影響實驗結(jié)果,不能真實體現(xiàn)模型的性能,所以本文采用了文獻[15]對OTS清洗后的數(shù)據(jù)集進行了訓練,該數(shù)據(jù)集共包含296 695張合成有霧圖像與8 447張原始圖像. 本文以RESIDE中的合成客觀測試集(Synthetic Objective Testing Set,SOTS)為測試集對所提出的模型進行了客觀與主觀評價,該測試數(shù)據(jù)共包括500張室內(nèi)合成圖像與500張室外合成圖像. 在評價指標的選擇上,本文采取了兩種最常用的圖像客觀質(zhì)量評價指標PSNR與SSIM. 此外,本文還在文獻[14]所提供的真實有霧圖像上對提出的模型進行了主觀評價.
2.2? ?訓練細節(jié)
本文方法使用pytorch實現(xiàn),運行環(huán)境為Ubuntu,模型訓練是在NVIDIA 1080Ti GPU上完成的. 訓練時,對圖像以隨機裁剪方式進行處理,模型輸入的圖像塊大小為240×240. 使用批尺寸為24 的ADAM優(yōu)化器對模型進行訓練,其中,動量參數(shù)β1與β2分別采用默認值0.9和0.999. 模型的初始學習率為0.001,對于ITS 的訓練,進行了100次迭代,每20個迭代學習率衰減為之前的一半;對于OTS 的訓練,進行了10次迭代,每2個迭代學習率衰減為之前的一半. 選取了具有代表性的去霧方法進行了對比,包括經(jīng)典的去霧方法DCP[5]以及基于深度學習去霧方法AOD-Net[12]和GridDehazeNet[15]. 其中,AOD-Net和GridDehazeNet采取了和本文相同的訓練方式.
2.3? ?在合成數(shù)據(jù)集上的測試結(jié)果
從SOTS中選取了4張有霧圖像以進行主觀質(zhì)量評價,圖4展示了使用上述幾種去霧方法所得到的去霧結(jié)果,其中,第1行和第2行為室內(nèi)圖像的去霧結(jié)果,第3行和第4 行為室外圖像的去霧結(jié)果. 由圖4(b)與圖4(f)可以看到,DCP方法所生成的去霧圖像相較于真實無霧圖像有時會出現(xiàn)色彩的失真(如圖4(b)第1幅圖像的地板)與邊緣的模糊(如圖4(b)第1幅圖像的標記區(qū)域),這是因為該方法的去霧是依賴于其所提出的先驗知識的,當先驗知識不滿足時,該方法便會出現(xiàn)較差的去霧效果. 由圖4(c)可以看到,AOD-Net也取得了一定的去霧效果,但是該方法生成的去霧圖像在物體的邊緣處有時會出現(xiàn)一些明顯的偽影(如圖4(c)第1幅圖像的標記區(qū)域). 由圖4(d)和圖4(e)可以看到,GridDehazeNet和本文提出的方法都取得了相對較好的去霧效果,但是GridDehazeNet所生成的去霧圖像有時會出現(xiàn)一些比較小的偽影(如圖4(d)第2幅圖像的墻面與第3幅圖像的路面),而本文所提出的去霧方法所生成的去霧圖像在各個方面均比較接近真實的無霧圖像.
此外,表1 給出了各方法在SOTS上的客觀評價結(jié)果. 可以看到,在室內(nèi)測試集ITS上,本文所提出的方法取得了最高的PSNR值與次高的SSIM值,其中,PSNR值相較于GridDehazeNet有著0.5 dB的提升. 在室外測試集OTS上,本文提出的方法在PSNR與SSIM上均優(yōu)于其他方法,其中,PSNR值為33.21 dB,比排在第2名的去霧方法高將近2.5 dB.
2.4? ?在真實數(shù)據(jù)集上的測試結(jié)果
圖5展示了各去霧模型在真實數(shù)據(jù)集中的測試結(jié)果. 可以看到,上述幾種去霧方法基本完成了去霧任務,最終生成的圖像相較于有霧圖像有著更高的清晰度,但是各個方法也存在一些不足之處. 由圖5(b)可以看到,DCP方法在處理天空等區(qū)域時,容易出現(xiàn)顏色的失真. 由圖5(c)可以看到,AOD-Net方法所生成的去霧圖像有著較低的亮度,并且在物體的邊緣處會出現(xiàn)偽影(如圖5(c)的第1幅去霧圖像的屋頂區(qū)域). 由圖5(d)可以看到,GridDehazeNet的主要缺點是經(jīng)常會產(chǎn)生一些小的、暗的偽影(見圖5(d)第2幅圖像的路面與第3幅圖像的標記區(qū)域). 相比之下,本文提出的方法在恢復圖像清晰度的同時,具有更真實的色彩效果和更少的偽影,但是本網(wǎng)絡仍存在去霧不徹底的問題,對于場景中遠處的霧以及濃霧不能很好地去除.
2.5? ?消融研究
本文設計了4個消融實驗對所提出模型各個模塊的有效性進行驗證:1)以RDB為基本模塊的網(wǎng)絡模型(模型Ⅰ);2)以RDBA為基本模塊的網(wǎng)絡模型(模型Ⅱ);3)以RDB為基本模塊并帶有自適應跳躍連接的網(wǎng)絡模型(模型Ⅲ);4)以RDBA為基本模塊并帶有自適應跳躍連接的網(wǎng)絡模型(模型Ⅳ). 4種模型在SOTS中室內(nèi)數(shù)據(jù)集的表現(xiàn)如表2所示,可以看到,相較于模型Ⅰ,單獨使用RDBA模塊的模型Ⅱ和單獨使用ASC模塊的模型Ⅲ在PSNR指標上都有著超過1 dB的提升,在SSIM指標上也有著一定的改進. 綜合使用RDBA模塊與ASC模塊的模型Ⅳ相較于模型Ⅰ則有著更大的提升,在PSNR指標上有著將近2 dB的提升,在SSIM指標上也有著明顯的提升. 綜上所述,RDBA模塊與ASC模塊的引入,有效地提升了模型的去霧性能.
3? ?結(jié)? ?論
本文提出了一種基于注意力機制的多尺度單幅圖像去霧網(wǎng)絡,該網(wǎng)絡不依賴于大氣散射模型,可以直接對無霧圖像進行預測. 為了充分發(fā)揮網(wǎng)絡的性能,本文分別設計了RDBA模塊和ASC模塊,其中,RDBA模塊有效提升了網(wǎng)絡的特征提取性能,在一定程度上避免了特征信息的冗余;ASC模塊的引入實現(xiàn)了解碼器中細節(jié)信息的針對性補充,在引入少量參數(shù)的情況下提升了模型的精度. 實驗結(jié)果表明,在公開數(shù)據(jù)集上,本文提出的去霧網(wǎng)絡相對于所比較的方法有著更高的客觀評價指標與更好的視覺效果. 但是,本文提出的網(wǎng)絡也具有一定的局限性,當霧的濃度過大時,本文的模型同樣會出現(xiàn)去霧不徹底的問題.
參考文獻
[1]? ? 薛亞東,李宜城.基于深度學習的盾構(gòu)隧道襯砌病害識別方法[J]. 湖南大學學報(自然科學版),2018,45(3):100—109.
XUE Y D,LI Y C. A method of disease recognition for shield tunnel lining based on deep learning[J]. Journal of Hunan University(Natural Sciences),2018,45(3):100—109. (In Chinese)
[2]? ? 夏燁,陳李沐,王君杰,等. 基于SSD的橋梁主動防船撞目標檢測方法與應用[J]. 湖南大學學報(自然科學版),2020,47(3):97—105.
XIA Y,CHEN L M,WANG J J,et al.Single shot multibox detector based vessel detection method and application for active anti-collision monitoring[J]. Journal of Hunan University(Natural Sciences),2020,47(3):97—105. (In Chinese)
[3]? ? NARASIMHAN S G,NAYAR S K. Vision and the atmosphere[J]. International Journal of Computer Vision,2002,48(3):233—254.
[4]? ? NARASIMHAN S G,NAYAR S K. Chromatic framework for vision in bad weather[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Hilton Head Island,SC,USA:IEEE,2000:598—605.
[5]? ? HE K M,SUN J,TANG X O. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(12):2341—2353.
[6]? ? ZHU Q S,MAI J M,SHAO L. A fast single image haze removal algorithm using color attenuation prior[J]. IEEE Transactions on Image Processing,2015,24(11):3522—3533.
[7]? ? TAN R T. Visibility in bad weather from a single image[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Anchorage,AK,USA:IEEE,2008:1—8.
[8]? ? BERMAN D,TREIBITZ T,AVIDAN S. Non-local image dehazing [C]// Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA:IEEE,2016:1674—1682.
[9]? ? LI B Y,REN W Q,F(xiàn)U D P,et al. Benchmarking single-image dehazing and beyond[J]. IEEE Transactions on Image Processing,2019,28(1):492—505.
[10]? CAI B L,XU X M,JIA K,et al. DehazeNet:an end-to-end system for single image haze removal[J]. IEEE Transactions on Image Processing,2016,25(11):5187—5198.
[11]? REN W Q,LIU S,ZHANG H,et al. Single image dehazing via multi-scale convolutional neural networks[C]// Proceedings of 2016 European Conference on Computer Vision. Amsterdam,The Netherlands:Springer,2016:154—169.
[12]? LI B Y,PENG X L,WANG Z Y,et al. AOD-Net:all-in-one dehazing network[C]// Proceedings of 2017 IEEE International Conference on Computer Vision. Venice,Italy:IEEE,2017:4780—4788.
[13]? ZHANG H,PATEL V M. Densely connected pyramid dehazing network[C]// Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA:IEEE,2018:3194—3203.
[14]? REN W Q,MA L,ZHANG J W,et al. Gated fusion network for single image dehazing[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA:IEEE,2018:3253—3261.
[15]? LIU X H,MA Y R,SHI Z H,et al. GridDehazeNet:attention-based multi-scale network for image dehazing [C]//Proceedings of IEEE International Conference on Computer Vision. Seoul,Korea (South):IEEE,2019:7313—7322.
[16]? LIM B,SON S,KIM H,et al. Enhanced deep residual networks for single image super-resolution[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Honolulu,HI,USA:IEEE,2017:1132—1140.
[17]? WANG X T,YU K,WU S X,et al. Esrgan:enhanced super-resolution generative adversarial networks [C]//Proceedings of 2018 European Conference on Computer Vision Workshops. Munich,Germany:Springer,2018:63—79.
[18]? RONNEBERGER O,F(xiàn)ISCHER P,BROX T. U-net:Convolutional networks for biomedical image segmentation[C]//Proceedings of International Conference on Medical Image Computing and Computer-Assisted Intervention. Munich,Germany:Springer,2015:234—241.
[19]? ZHANG Y L,TIAN Y P,KONG Y,et al. Residual dense network for image super-resolution[C]//Proceedings of 2018 IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City,UT,USA:IEEE,2018:472—481.
[20]? IOFFE S,SZEGEDY C. Batch normalization:accelerating deep network training by reducing internal covariate shift [C]//Proceedings of IEEE International Conference Machine Learning. Lille,F(xiàn)rance:IMLS,2015:1—11.
[21]? HU J,SHEN L,ALBANIE S,et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011—2023.
[22]? HE K M,ZHANG X Y,REN S Q,et al. Deep residual learning for image recognition[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas,NV,USA:IEEE,2016:770—778.
[23]? HUANG G,LIU Z,VAN DER MAATEN L,et al. Densely connected convolutional networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Honolulu,HI,USA:IEEE,2017:2261—2269.
[24]? JOHNSON J,ALAHI A,LI F F. Perceptual losses for real-time style transfer and super-resolution[C]//Proceedings of 2016 European Conference on Computer Vision. Amsterdam,The Netherlands:Springer,2016:694—711.
[25]? GOODFELLOW I J,POUGET-ABADIE J,MIRZA M,et al. Generative adversarial nets [C]// Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge:MIT Press,2014:2672—2680.