亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種用于圖像去霧的改進(jìn)生成對(duì)抗網(wǎng)絡(luò)

        2022-06-16 05:24:50丁泳鈞
        計(jì)算機(jī)工程 2022年6期
        關(guān)鍵詞:一致性特征

        丁泳鈞,黃 山

        (四川大學(xué) 電氣工程學(xué)院,成都 610065)

        0 概述

        卷積神經(jīng)網(wǎng)絡(luò)良好的學(xué)習(xí)能力使得深度學(xué)習(xí)、人工智能得到快速發(fā)展[1],人臉識(shí)別、目標(biāo)跟蹤等技術(shù)的應(yīng)用變得越來(lái)越廣泛,如手機(jī)人臉解鎖、無(wú)人駕駛汽車等。在無(wú)人駕駛領(lǐng)域,圖像質(zhì)量與乘客安全密切相關(guān),在霧天情況下,空氣中存在大量懸浮顆粒物,它們對(duì)光線產(chǎn)生散射,使物體反射的光線衰減[2],同時(shí),這種反射光與觀察者接收的光線發(fā)生混合,造成觀察者獲取到的圖像對(duì)比度、清晰度等特征發(fā)生改變,細(xì)節(jié)信息大量丟失[3],這對(duì)人類的視覺(jué)感知以及許多依賴計(jì)算機(jī)視覺(jué)的智能系統(tǒng)而言都是一個(gè)巨大挑戰(zhàn)。

        近年來(lái),隨著圖像去霧相關(guān)研究的不斷發(fā)展,出現(xiàn)了很多優(yōu)秀的去霧算法,其中,應(yīng)用較廣泛的是直方圖均衡化去霧算法、暗通道先驗(yàn)去霧(DCP)算法[4]、基于神經(jīng)網(wǎng)絡(luò)的去霧算法等,這些算法可以分成基于手工先驗(yàn)、基于學(xué)習(xí)先驗(yàn)兩大類。

        基于手工先驗(yàn)的方法需要人手工制作圖像先驗(yàn),具有代表性的算法是暗通道先驗(yàn)算法,該算法基于大氣散射物理學(xué)模型,通過(guò)使用圖像像素點(diǎn)先驗(yàn)來(lái)估計(jì)透射率,其復(fù)雜度較低,然而,當(dāng)場(chǎng)景對(duì)象與大氣光值相似時(shí),該算法去霧效果不佳。此外,ZHU等[5]提出一種結(jié)構(gòu)簡(jiǎn)單但性能強(qiáng)大的顏色衰減先驗(yàn)算法,該算法為估計(jì)有霧圖像的場(chǎng)景深度建立了一種線性模型。BERMAN[6]提出一種非局部先驗(yàn)來(lái)重建原始的無(wú)霧圖像,該算法假設(shè)無(wú)霧圖像的顏色由數(shù)百種不同的顏色近似并在RGB 空間中形成緊密集群。盡管上述方法取得了一定的成功,但是基于手工先驗(yàn)的方法并不能很好地處理所有情況,且去霧處理后的圖片存在顏色失真的問(wèn)題。

        基于學(xué)習(xí)先驗(yàn)的方法使用卷積神經(jīng)網(wǎng)絡(luò)或生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[7]模型,通過(guò)大量的訓(xùn)練數(shù)據(jù)訓(xùn)練模型使其擁有去霧的能力。CAI[8]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的端到端去霧模型DehazeNet,該模型以有霧圖像作為輸入,輸出其介質(zhì)透射圖,并通過(guò)大氣散射模型重建無(wú)霧圖像。與之類似,ZHANG[9-10]也采用深度卷積神經(jīng)網(wǎng)絡(luò)來(lái)估計(jì)透射圖并以此重建無(wú)霧圖像,然而,不準(zhǔn)確的透射圖往往會(huì)對(duì)去霧效果產(chǎn)生不利影響。此外,ENGIN 等[11]提出一種基于循環(huán)生成對(duì)抗網(wǎng)絡(luò)(Cycle Generative Adversarial Network,CycleGAN)的改進(jìn)去霧網(wǎng)絡(luò)Cycle-dehaze,該網(wǎng)絡(luò)通過(guò)增加循環(huán)感知一致性損失以及循環(huán)一致性損失來(lái)增強(qiáng)用于單圖像去霧的CycleGAN 架構(gòu)。YANG等[12]將與霧度相關(guān)的先驗(yàn)學(xué)習(xí)引入到深度學(xué)習(xí)網(wǎng)絡(luò)中,所提算法結(jié)合了傳統(tǒng)的基于先驗(yàn)的去霧方法和深度學(xué)習(xí)方法的優(yōu)點(diǎn)。LI[13]提出一種輕量級(jí)的CNN網(wǎng)絡(luò)AODNet,該網(wǎng)絡(luò)可以直接生成無(wú)霧圖像,這種端到端設(shè)計(jì)使得研究人員可以很容易地將AOD-Net 嵌入到其他深度學(xué)習(xí)模型中。ZHANG 等[14]提出一個(gè)雙分支卷積神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)首先提取基本特征和恢復(fù)特征,其次將這些特征通過(guò)遞歸門模塊進(jìn)行融合以獲得超分辨率的清晰特征,從而提高了生成圖像的質(zhì)量。

        盡管上述方法大多取得了較好的性能指標(biāo)結(jié)果,但是普遍依賴于成對(duì)的數(shù)據(jù)集,這就意味著對(duì)于每一個(gè)有霧圖像,都需要一個(gè)與之相對(duì)應(yīng)的無(wú)霧圖像。然而,由于光照強(qiáng)度和對(duì)比度在不斷地發(fā)生變化,同時(shí)收集同一場(chǎng)景下的有霧圖像與無(wú)霧圖像時(shí)成本較高,難度較大。因此,需要探索一種不依賴于成對(duì)數(shù)據(jù)集訓(xùn)練的圖像去霧算法。

        本文選用CycleGAN[15]作為基礎(chǔ)網(wǎng)絡(luò),該網(wǎng)絡(luò)于2017 年被提出,之后廣泛應(yīng)用于圖像修復(fù)、風(fēng)格遷移等領(lǐng)域[16]。近年來(lái),有很多優(yōu)秀的去霧算法都使用CycleGAN 及其衍生網(wǎng)絡(luò)[17],相較傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),CycleGAN 最大的優(yōu)勢(shì)在于不需要成對(duì)的數(shù)據(jù)集進(jìn)行訓(xùn)練,大幅降低了對(duì)數(shù)據(jù)集的要求。但是,CycleGAN依然存在去霧后圖像失真的問(wèn)題。為此,本文在CycleGAN 的基礎(chǔ)上對(duì)網(wǎng)絡(luò)的損失函數(shù)進(jìn)行改進(jìn),通過(guò)引入顏色損失函數(shù)使去霧后的圖像與原始無(wú)霧圖像具有相同的顏色分布,此外,引入特征損失函數(shù),以保留圖像的細(xì)節(jié)特征,提高去霧后圖像的質(zhì)量。

        1 網(wǎng)絡(luò)結(jié)構(gòu)

        1.1 生成對(duì)抗網(wǎng)絡(luò)

        GAN 采用博弈論中二人零和博弈的思想,網(wǎng)絡(luò)包括生成器和判別器,采用對(duì)抗訓(xùn)練的方式進(jìn)行訓(xùn)練。其中,生成器根據(jù)輸入圖像生成一張類似訓(xùn)練數(shù)據(jù)的虛假圖像以“騙”過(guò)判別器,而判別器的作用是區(qū)分真實(shí)數(shù)據(jù)和所生成的虛假數(shù)據(jù),并將其判斷結(jié)果反饋給生成器,生成器根據(jù)結(jié)果再進(jìn)行訓(xùn)練,以提高生成更真實(shí)圖片的能力。通過(guò)上述過(guò)程,生成器與判別器之間會(huì)達(dá)到一個(gè)均衡的狀態(tài),GAN 的目標(biāo)函數(shù)可以表示為:

        其中:x是真實(shí)的輸入數(shù)據(jù);Pdata(x)表示真實(shí)數(shù)據(jù)的分布;z表示隨機(jī)噪聲;P(z)表示生成網(wǎng)絡(luò)的分布。該目標(biāo)函數(shù)表示:對(duì)于判別器D,希望它能夠準(zhǔn)確分辨出生成器生成的虛假圖片,即希望D(G(z))接近于0,此時(shí)目標(biāo)函數(shù)的值最??;對(duì)于生成器G,希望它生成的每張圖片都可以騙過(guò)判別器,即希望D(G(z))接近于1,此時(shí)目標(biāo)函數(shù)的值最大。當(dāng)D(G(z))=0.5 時(shí),就達(dá)到了平衡狀態(tài)。

        1.2 循環(huán)生成對(duì)抗網(wǎng)絡(luò)

        CycleGAN 的目的是實(shí)現(xiàn)X域圖像數(shù)據(jù)與Y域圖像數(shù)據(jù)的相互轉(zhuǎn)換。如圖1(a)所示,CycleGAN包含2個(gè)映射函數(shù),分別是G:X→Y和F:Y→X,同時(shí)還包括DY和DX這2 個(gè)判別器。DY輸出的判別結(jié)果會(huì)激勵(lì)生成器G 將X向Y域中轉(zhuǎn)換,同樣,DX輸出的判別結(jié)果會(huì)激勵(lì)生成器F 將Y向X域中轉(zhuǎn)換。此外,為了保證圖像轉(zhuǎn)換時(shí)的一致性,避免出現(xiàn)X域中的所有圖片都被映射到Y(jié)域中同一張圖片的情況,CycleGAN 中引入2 個(gè)循環(huán)一致性損失,所謂循環(huán)一致性損失,指的是圖像從源域轉(zhuǎn)換到目標(biāo)域后,同樣也可以從目標(biāo)域返回到源域。圖1(b)所示為前向循環(huán)一致性損失,即圖像從X域經(jīng)過(guò)生成器G 后,再經(jīng)過(guò)生成器F 仍然可以轉(zhuǎn)換到源域,可表示為:x→G(X)→F(G(X))≈x。同理,圖1(c)所示為反向循環(huán)一致性損失,即Y域中的圖片經(jīng)生成器轉(zhuǎn)換到X域后,再經(jīng)過(guò)生成器G 仍然可以轉(zhuǎn)換到源域,可以表示為:y→F(Y)→G(F(Y))≈y。

        圖1 CycleGAN 結(jié)構(gòu)Fig.1 CycleGAN structure

        1.3 對(duì)抗損失

        CycleGAN 中引入了2 個(gè)對(duì)抗損失,對(duì)于映射函數(shù)G:X→Y以及判別器DY,有:

        其中:Pdata(x)表示X域的樣本分布;Pdata(y)表示Y域的樣本分布。式(2)表示當(dāng)生成器G 試圖讓其生成的圖像與Y域中的圖像盡可能相似時(shí),判別器D 也在試著將真實(shí)圖片與生成的虛假圖片區(qū)分開,這樣,生成器與判別器就形成了對(duì)抗關(guān)系,因此,可以表示為。

        同理,另一個(gè)映射F:Y→X和它的判別器DX也是如此,可以表示為:。

        1.4 循環(huán)一致性損失

        從理論上來(lái)講,當(dāng)G 和F 是隨機(jī)函數(shù)時(shí),1.3節(jié)中的對(duì)抗損失可以使生成器G 和F 分別產(chǎn)生與目標(biāo)域Y和X相同分布的輸出。然而,僅使用對(duì)抗損失可能出現(xiàn)圖像在轉(zhuǎn)換時(shí)無(wú)法保留其內(nèi)容、結(jié)構(gòu)等信息的問(wèn)題,CycleGAN 通過(guò)引入循環(huán)一致性損失來(lái)解決該問(wèn)題。如圖1(b)所示,對(duì)于X域中的每一張圖像x,圖像的循環(huán)轉(zhuǎn)換都應(yīng)該能夠?qū)還原成原始圖像,即x→G(X)→F(G(X))≈x,同樣對(duì)Y域中的每一個(gè)圖像y來(lái)說(shuō),G 和F 也要滿足反向循環(huán)一致性條件:y→F(Y)→G(F(Y))≈y。循環(huán)一致性損失定義如下:

        其中:G(x)和F(y)是前向生成器和反向生成器;x是屬于X域的圖像;y是屬于Y域的圖像;F(G(x))和G(F(y))是重新構(gòu)建的圖像。

        2 CycleGAN 改進(jìn)

        CycleGAN 使用對(duì)抗損失函數(shù)使得判別器擁有判斷一張圖片是否具有目標(biāo)域風(fēng)格的能力,同時(shí),使用循環(huán)一致性損失函數(shù)來(lái)確保重構(gòu)圖像與原始圖像大致相似。但是,在CycleGAN 中,去霧前后圖像顏色失真,此外,圖像在特定域轉(zhuǎn)換時(shí)由無(wú)關(guān)域隨機(jī)變化導(dǎo)致生成器不能很好地保留圖像特征。本文引入顏色損失和特征損失來(lái)解決上述問(wèn)題。

        2.1 顏色損失函數(shù)

        通常來(lái)說(shuō),有霧的圖像缺乏亮度與對(duì)比度,因此,受文獻(xiàn)[18]的啟發(fā),本文引入顏色損失函數(shù)來(lái)最小化無(wú)霧圖像與重構(gòu)的無(wú)霧圖像之間的誤差,以此強(qiáng)制生成器生成與無(wú)霧圖像具有相同顏色分布的圖像。顏色損失函數(shù)定義如下:

        其中:()p表示一個(gè)像素點(diǎn);∠(,)是將RGB 顏色作為3D 矢量并計(jì)算2 種顏色之間角度的運(yùn)算符;y是Y域中的無(wú)霧圖像;G(F(y))是重構(gòu)的無(wú)霧圖像。通過(guò)優(yōu)化重構(gòu)圖像與原始無(wú)霧圖像中每個(gè)像素點(diǎn)的誤差和,可以解決圖像轉(zhuǎn)換過(guò)程中顏色失真的問(wèn)題。

        2.2 特征損失函數(shù)

        如圖2 所示,已知CycleGAN 中有生成器映射G:X→Y,表示生成器G 將X域中的圖像轉(zhuǎn)換為Y域中的圖像,那么當(dāng)向G 中輸入原本就是Y域的圖像y時(shí),希望G(y)與原始的y圖像盡可能地接近。因此,采用文獻(xiàn)[19]的思想,本文在2 個(gè)生成器上分別添加一個(gè)恒等映射,即G:Y→Y和F:X→X,將此映射中的損失稱為特征損失。在加入了特征損失后,生成器G 在原有輸入的基礎(chǔ)上增加了Y域圖像的輸入,生成器F 也添加了X域圖像的輸入。使用L1 損失函數(shù)對(duì)原圖像和生成的圖像進(jìn)行優(yōu)化,可以確保2 個(gè)生成器在生成目標(biāo)域圖像時(shí)能獲取目標(biāo)域中圖像的特征,從而更好地還原原始圖像的細(xì)節(jié)特征,提高生成圖像的質(zhì)量。

        圖2 生成器的輸入和輸出Fig.2 Input and output of the generator

        特征損失函數(shù)定義如下:

        其中:x是屬于X域的圖像;y是屬于Y域的圖像;Pdata(x)表示X域的樣本分布;Pdata(y)表示Y域的樣本分布;G(y)與F(x)分別是添加了Y域圖像輸入和X域圖像輸入的生成器。

        改進(jìn)之后的網(wǎng)絡(luò)總損失函數(shù)可以表示為:

        其中:LGAN是對(duì)抗損失;Lcolor是顏色損失;Lcycle是循環(huán)一致性損失;Lidt是特征損失;λ和μ分別是循環(huán)一致性損失與特征損失的權(quán)值參數(shù)。λ的值選用CycleGAN 中的默認(rèn)值10,μ的值會(huì)影響網(wǎng)絡(luò)的性能表現(xiàn),下文將對(duì)此進(jìn)行討論。

        3 實(shí)驗(yàn)結(jié)果與分析

        3.1 實(shí)驗(yàn)過(guò)程

        本文實(shí)驗(yàn)采用NYU-depth-v2 數(shù)據(jù)集[20],其為圖像去霧領(lǐng)域常用的數(shù)據(jù)集,共包含1 449 張有霧圖與無(wú)霧圖,NYU 數(shù)據(jù)集規(guī)模較大,本文選擇在該數(shù)據(jù)集上進(jìn)行訓(xùn)練和測(cè)試。首先,將數(shù)據(jù)集按照一定比例隨機(jī)劃分為訓(xùn)練集和測(cè)試集,訓(xùn)練集由trainA 和trainB 這2 個(gè)部分組成,trainA 中存放有霧圖像,trainB 中存放無(wú)霧圖像,訓(xùn)練集中不包含測(cè)試集圖像的任何信息。同時(shí),在訓(xùn)練之前將訓(xùn)練圖像壓縮至286×286 像素,以適配網(wǎng)絡(luò)要求的輸入尺寸。

        實(shí)驗(yàn)所用環(huán)境為:Ubuntu16.04 系統(tǒng),CPU 為Intel?Xeon?E5-2678 v3 @2.50 GHz,62 GB 內(nèi)存,GPU 為一塊NVIDIA 2080Ti 11 GB 顯卡,使用深度學(xué)習(xí)框架Pytorch 1.4.0,編程語(yǔ)言為Python3.6。

        本次實(shí)驗(yàn)使用batch size 為1 的Adam 優(yōu)化器。網(wǎng)絡(luò)共迭代200 個(gè)epoch,在前100 個(gè)epoch 中,網(wǎng)絡(luò)的學(xué)習(xí)率保持0.000 2 不變,在之后的100 個(gè)epoch 中學(xué)習(xí)率線性衰減至0。

        3.2 評(píng)價(jià)指標(biāo)

        本文采用圖像去霧領(lǐng)域常用的性能指標(biāo)對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行評(píng)價(jià),包括結(jié)構(gòu)相似性指數(shù)(Structural Similarity Index,SSIM)[21-22]、峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)。

        SSIM 通過(guò)比較參考圖像與待評(píng)圖像的亮度、對(duì)比度和結(jié)構(gòu),以計(jì)算2 幅圖像之間的結(jié)構(gòu)相似性,該值越大,說(shuō)明圖像失真越小,生成圖像的質(zhì)量越好。SSIM 效果可靠且具有說(shuō)服力,因此,在圖像去霧領(lǐng)域得到廣泛應(yīng)用[23]。

        PSNR 通過(guò)計(jì)算待評(píng)圖像與參考圖像之間各個(gè)像素點(diǎn)的誤差之和來(lái)評(píng)價(jià)一個(gè)算法的性能,該值越高,表明圖像失真越小,重建方法越有效。

        3.3 結(jié)果分析

        本文實(shí)驗(yàn)主要包括3 個(gè)部分:首先,通過(guò)客觀數(shù)據(jù)證明本文算法相較其他算法的優(yōu)越性;其次,列舉消融實(shí)驗(yàn)和對(duì)比實(shí)驗(yàn)的結(jié)果,證明本文所提改進(jìn)方法的有效性;最后,討論不同的特征損失函數(shù)權(quán)值μ對(duì)網(wǎng)絡(luò)去霧能力的影響,并給出μ值的選取建議。

        3.3.1 客觀評(píng)價(jià)

        使用圖像去霧領(lǐng)域常用的指標(biāo)SSIM、PSNR 進(jìn)行比較,消融實(shí)驗(yàn)結(jié)果如表1 所示,從表1 可以看出,相較原始CycleGAN,在添加了顏色損失函數(shù)和特征損失函數(shù)之后,結(jié)構(gòu)相似性指數(shù)SSIM 分別提高約4 和7 個(gè)百分點(diǎn),峰值信噪比PSNR 分別提高約3.1 和3.5個(gè)百分點(diǎn),這證明了本文所提改進(jìn)方法的有效性。

        表1 消融實(shí)驗(yàn)結(jié)果Table 1 Ablation experimental results

        使用不同的去霧算法在測(cè)試集上進(jìn)行圖像去霧,性能指標(biāo)結(jié)果如表2 所示。從表2 可以看出,使用DCP算法進(jìn)行去霧后雖然提高了圖像的平均PSNR 值,但其平均SSIM 值反而下降,使用另外3 種算法去霧后圖像的性能指標(biāo)有不同程度的提升,但是本文算法依然取得了最高的平均SSIM 值和PSNR 值。

        表2 去霧算法性能指標(biāo)對(duì)比結(jié)果Table 2 Comparison results of performance indexes of dehazing algorithms

        3.3.2 主觀評(píng)價(jià)

        本節(jié)首先通過(guò)消融實(shí)驗(yàn)證明本文引入的顏色損失和特征損失函數(shù)的有效性,隨后通過(guò)對(duì)比實(shí)驗(yàn)驗(yàn)證本文改進(jìn)后算法的優(yōu)勢(shì)。加入顏色損失函數(shù)的實(shí)驗(yàn)結(jié)果如圖3 所示,其中,左圖為未添加顏色損失函數(shù)的結(jié)果,右圖為加入顏色損失函數(shù)后的結(jié)果,從圖中的方框處可以看出,引入顏色損失函數(shù)之前圖片中桌子一側(cè)由于顏色失真引起了過(guò)度曝光的問(wèn)題,而加入顏色損失后解決了該問(wèn)題。引入特征損失函數(shù)的實(shí)驗(yàn)結(jié)果如圖4所示,從左到右依次是未添加特征損失函數(shù)處理結(jié)果、引入特征損失函數(shù)處理結(jié)果及對(duì)應(yīng)的原始圖像??梢钥闯觯尤胩卣鲹p失后能更好地還原方框中物體的細(xì)節(jié)特征,生成的圖像更接近原始圖像。

        圖3 添加顏色損失前后的去霧效果Fig.3 Dehazing effect before and after adding color loss

        圖4 添加特征損失前后的去霧效果Fig.4 Dehazing effect before and after adding feature loss

        將本文算法與DCP算法、CycleGAN算法、AOD-Net算法,以及基于CycleGAN的去霧算法Cycle-dehaze進(jìn)行比較,從實(shí)驗(yàn)結(jié)果中隨機(jī)抽取5張圖片,結(jié)果如圖5所示。從前2張圖片可以看出,本文算法在去霧能力上優(yōu)于3種對(duì)比算法,去霧效果更好。從后3張圖片可以看出,DCP算法去霧后存在嚴(yán)重的顏色失真問(wèn)題,而其余3種算法去霧后圖片雖然在顏色失真問(wèn)題上優(yōu)于DCP算法,但是去霧效果依然沒(méi)有本文算法明顯。因此,從主觀結(jié)果和客觀結(jié)果上可以得出,本文算法可以更好地還原圖像的細(xì)節(jié)特征及顏色信息,生成的圖像更接近原始圖像。

        3.3.3μ值對(duì)網(wǎng)絡(luò)性能的影響

        在證明引入特征損失函數(shù)可以有效提高網(wǎng)絡(luò)去霧性能之后,本文進(jìn)一步探究不同的特征損失權(quán)重參數(shù)μ值對(duì)網(wǎng)絡(luò)性能的影響,分別測(cè)試μ=0,0.5,1,2,4,8 時(shí)網(wǎng)絡(luò)在測(cè)試集上的性能指標(biāo),結(jié)果如圖6所示。從圖6(a)可以看出,當(dāng)μ取0.5~8 時(shí),網(wǎng)絡(luò)的SSIM 指標(biāo)在一個(gè)很小的范圍內(nèi)波動(dòng),從圖6(b)可以看出,當(dāng)μ取0.5 左右時(shí),網(wǎng)絡(luò)具有最好的PSNR 指標(biāo),同時(shí)在訓(xùn)練過(guò)程中觀察到,當(dāng)μ的取值大于2 時(shí),損失函數(shù)曲線收斂情況并不好。因此,根據(jù)該實(shí)驗(yàn)結(jié)果,本文建議將μ值設(shè)置在0.5 左右,以使網(wǎng)絡(luò)擁有最佳的去霧性能。

        圖6 μ 取不同值時(shí)網(wǎng)絡(luò)的性能指標(biāo)Fig.6 Performance index of network with different μ values

        4 結(jié)束語(yǔ)

        本文提出一種基于改進(jìn)循環(huán)生成對(duì)抗網(wǎng)絡(luò)的圖像去霧算法,該算法通過(guò)引入顏色損失和特征損失來(lái)解決網(wǎng)絡(luò)去霧過(guò)程中存在的顏色失真問(wèn)題,能更好地保留原始圖像的細(xì)節(jié)特征,使得去霧效果更佳。實(shí)驗(yàn)結(jié)果表明,該算法的去霧能力優(yōu)于AOD-Net、Cycle-dehaze等算法。下一步將使用Ghost 模塊[24]替代卷積塊并結(jié)合注意力機(jī)制,在保證去霧圖像質(zhì)量的同時(shí)減少網(wǎng)絡(luò)參數(shù),提高去霧的效率,從而將本文算法應(yīng)用于視頻去霧領(lǐng)域。

        猜你喜歡
        一致性特征
        抓住特征巧觀察
        關(guān)注減污降碳協(xié)同的一致性和整體性
        公民與法治(2022年5期)2022-07-29 00:47:28
        注重教、學(xué)、評(píng)一致性 提高一輪復(fù)習(xí)效率
        對(duì)歷史課堂教、學(xué)、評(píng)一體化(一致性)的幾點(diǎn)探討
        IOl-master 700和Pentacam測(cè)量Kappa角一致性分析
        新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        抓住特征巧觀察
        ONVIF的全新主張:一致性及最訪問(wèn)控制的Profile A
        男女深夜视频网站入口| 国产成人无码一二三区视频| 99久久久无码国产精品动漫| 自拍偷拍一区二区三区四区| 大香焦av一区二区三区| 少妇仑乱a毛片| 国产精品无码一区二区在线国| 精品亚洲一区二区视频| 国产精品国三级国产a| 欧美亚洲国产一区二区三区| 尤物99国产成人精品视频| av亚洲在线一区二区| 亚洲av一区二区三区色多多| 欧美私人情侣网站| 亚洲夜夜骑| 中文字幕人妻少妇精品| av在线免费观看蜜桃| 夜夜躁狠狠躁2021| 亚洲精品美女自拍偷拍| 亚洲av狠狠爱一区二区三区| 在线观看免费无码专区| 丰满五十六十老熟女hd| 国产成人精品蜜芽视频| 加勒比精品视频在线播放| 国产精品久久久久久久妇| 无码日韩AⅤ一区二区三区| 在线观看女同一区二区| 风韵丰满熟妇啪啪区老熟熟女| 牛鞭伸入女人下身的真视频| 少妇特殊按摩高潮惨叫无码| 日本a级黄片免费观看| 国产成人av一区二区三区| 亚洲综合国产精品一区二区99| 日本一二三区在线视频观看| 国产精品女同久久久久电影院 | 久久综合99re88久久爱| 中国老妇女毛茸茸bbwbabes| 亚洲电影一区二区| 亚洲第一女人的天堂av| 亚洲av无码专区亚洲av伊甸园| 亚洲国产精品国自产电影|