亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于注意力機(jī)制的多階段低照度圖像增強(qiáng)方法

        2023-12-18 18:13:49李健成雅清
        計(jì)算機(jī)時(shí)代 2023年11期
        關(guān)鍵詞:特征融合注意力機(jī)制特征提取

        李健 成雅清

        關(guān)鍵詞:低照度圖像;多階段;注意力機(jī)制;特征提?。惶卣魅诤?/p>

        中圖分類(lèi)號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1006-8228(2023)11-83-07

        0 引言

        低照度圖像增強(qiáng)是一項(xiàng)重要的圖像處理技術(shù),旨通過(guò)增強(qiáng)低照度條件下的圖像質(zhì)量來(lái)解決圖像的可視化效果差和信息傳遞效率低的問(wèn)題。隨著計(jì)算機(jī)視覺(jué)和圖像處理技術(shù)的不斷發(fā)展,越來(lái)越多的低照度圖像增強(qiáng)算法被提出并得到了廣泛應(yīng)用,如視頻監(jiān)控、車(chē)載導(dǎo)航、夜間拍攝、醫(yī)療影像等。

        傳統(tǒng)低照度圖像增強(qiáng)方法包括基于直方圖均衡化的算法[1]、Retinex(Retinacortex)理論的算法[2-5]。其中,基于直方圖均衡化的方法是旨通過(guò)調(diào)整圖像的灰度值分布,使得整張圖像的像素灰度值盡可能地分布在整個(gè)灰度值范圍內(nèi),從而提高圖像的對(duì)比度和亮度。基于Retinex 理論的方法是旨通過(guò)將圖像分解為反射和亮度兩部分,從而增強(qiáng)圖像的對(duì)比度和亮度。

        近年來(lái),隨著人工智能的發(fā)展,利用深度學(xué)習(xí)對(duì)低照度圖像進(jìn)行增強(qiáng)的方法逐漸取代了傳統(tǒng)方法。如Lore 等[6]最早運(yùn)用深度學(xué)習(xí)的方法實(shí)現(xiàn)了低光照?qǐng)D像增強(qiáng)LLNet(Low-light Net),提出了一種基于深度自動(dòng)編碼器的方法來(lái)識(shí)別弱光圖像中的信號(hào)特征,在不過(guò)度放大飽和高動(dòng)態(tài)范圍圖像的較亮部分的情況下自適應(yīng)地使圖像變亮。Wei 等[7]提出了一種基于Retinex 理論與深度學(xué)習(xí)方法相結(jié)合的網(wǎng)絡(luò)Retinex-Net (Retinacortex Net),該網(wǎng)絡(luò)利用三個(gè)模塊(分解模塊、增強(qiáng)模塊和重建模塊)去約束低照度圖像的反射光和照射光之間的關(guān)系,從而增強(qiáng)圖像效果。Jiang 等[8]提出了一種高效的無(wú)監(jiān)督生成對(duì)抗網(wǎng)絡(luò)EnlightenGAN (Enlighten Generative Adversarial Networks),其主要思想是利用生成器和判別器兩個(gè)網(wǎng)絡(luò)相互博弈以生成更加逼真的圖像。Guo 等[9]提出了一種無(wú)需參考圖像的網(wǎng)絡(luò)Zero-Dce(Zero-Reference Deep CurveEstimation),該方法通過(guò)深度學(xué)習(xí)模型自適應(yīng)地學(xué)習(xí)每張圖像的曲線,可以將輸入圖像的暗部分和明部分分別映射到對(duì)應(yīng)的輸出空間中。通過(guò)對(duì)這兩個(gè)部分的增強(qiáng),將增強(qiáng)后的圖像進(jìn)行合成,得到最終的增強(qiáng)結(jié)果。Ma 等[10]提出了一個(gè)輕量級(jí)的自校準(zhǔn)照明框架SCI(Self-Calibrated Illumination),建立了一個(gè)具有權(quán)重共享的級(jí)聯(lián)光照學(xué)習(xí)過(guò)程,用于針對(duì)不同的現(xiàn)實(shí)世界場(chǎng)景進(jìn)行低光照?qǐng)D像增強(qiáng)。

        基于深度學(xué)習(xí)的方法相比于傳統(tǒng)方法在結(jié)果上有顯著的提升,但是,目前所提出的基于深度學(xué)習(xí)的方法需要更多計(jì)算資源和訓(xùn)練時(shí)間,并且還存在顏色失真、細(xì)節(jié)恢復(fù)能力差和整體主觀視覺(jué)質(zhì)量低等問(wèn)題。針對(duì)上述問(wèn)題本文提出一種基于注意力機(jī)制的多階段低照度圖像增強(qiáng)方法,能夠有效解決局部噪聲、顏色失真、細(xì)節(jié)紋理丟失等問(wèn)題。

        本文的貢獻(xiàn):①提出了一個(gè)基于注意力機(jī)制的特征提取模塊,來(lái)解決圖像局部增強(qiáng)能力弱、語(yǔ)義特征提取效果差的問(wèn)題;②提出了一個(gè)基于上下文學(xué)習(xí)的細(xì)節(jié)恢復(fù)模塊,來(lái)解決紋理細(xì)節(jié)恢復(fù)能力差的問(wèn)題;③在公開(kāi)數(shù)據(jù)集LOL 上進(jìn)行實(shí)驗(yàn),采用峰值信噪比(PSNR)和結(jié)構(gòu)相似性(SSIM)[11]作為客觀評(píng)價(jià)指標(biāo),實(shí)驗(yàn)結(jié)果的主觀視覺(jué)效果、客觀評(píng)價(jià)指標(biāo)優(yōu)于其他大多數(shù)方法,證明了本文模型的有效性。

        1 網(wǎng)絡(luò)構(gòu)架設(shè)計(jì)本

        文提出一種基于注意力機(jī)制的多階段低照度圖像增強(qiáng)網(wǎng)絡(luò)AMS-Net(Attention Multi-Stage network)。網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。該網(wǎng)絡(luò)共分為三個(gè)階段,將原始圖片分別分割為不重疊的1/4 尺寸,1/2 尺寸和原始尺寸作為各階段的輸入信息,實(shí)現(xiàn)從“粗”到“細(xì)”的恢復(fù)方法,在增強(qiáng)圖像亮度的同時(shí)注重圖像細(xì)節(jié)的恢復(fù)。

        在該模型的各個(gè)階段中,首先通過(guò)一個(gè)卷積和注意力機(jī)制模塊PSA(Pyramid Split Attention)[12]進(jìn)行初步特征提??;然后,利用編碼器-解碼器完成更多的細(xì)節(jié)特征提取,并將前兩個(gè)階段的特征圖在空間維度上兩兩拼接;接著,由上下文學(xué)習(xí)模塊ACCA(AggregatedContextual Channel Attention)對(duì)局部特征進(jìn)行細(xì)節(jié)恢復(fù);最后,利用監(jiān)督注意力模塊SAM(SupervisedAttention Module)[13]對(duì)相鄰階段進(jìn)行特征融合。經(jīng)過(guò)以上三個(gè)增強(qiáng)階段的處理,最終將低照度圖像還原出與原始清晰圖像亮度、紋理清晰度接近的高質(zhì)量圖像。

        1.1 特征提取模塊

        特征提取部分是低照度圖像增強(qiáng)模型中的一個(gè)重要組成部分,其作用是從輸入圖像中提取有用的特征以便后續(xù)的處理。AMS-Net 的特征提取分為兩步:首先通過(guò)一個(gè)卷積和注意力機(jī)制模塊對(duì)輸入圖像的重要特征信息進(jìn)行提取,得到初步的特征圖;隨后使用編碼器-解碼器模塊,進(jìn)一步提取不同大小和形狀的物體語(yǔ)義特征。

        1.1.1 注意力機(jī)制特征提取模塊

        為了增強(qiáng)低照度圖像重要的空間位置信息并抑制不重要的背景信息,以提高模型對(duì)目標(biāo)的定位準(zhǔn)確性和語(yǔ)義信息的利用,本文采用注意力機(jī)制PSA(Pyramid Spatial Attention)模塊[12]對(duì)低照度圖像中重要的信息進(jìn)行提取。該模塊利用金字塔形特征提取和空間注意力機(jī)制提高網(wǎng)絡(luò)對(duì)不同尺度低照度圖像特征的感知能力和重要區(qū)域關(guān)注度。

        PSA 模塊構(gòu)造如圖2 所示。主要分為以下四個(gè)步驟:首先,通過(guò)實(shí)現(xiàn)分裂與拼接SPC(Split and Concat)模塊[12],獲得多尺度特征圖;其次,使seweight 模塊[12,14]提取具有不同尺度特征圖的通道注意力向量;然后,使用Softmax 函數(shù)重新校準(zhǔn)多尺度通道的注意力向量,得到多尺度通道的權(quán)重;最后,將重新校準(zhǔn)的權(quán)重和相應(yīng)的特征圖進(jìn)行逐元素乘積的運(yùn)算。通過(guò)以上操作,可以得到一個(gè)經(jīng)過(guò)細(xì)化的特征圖,該特征圖中包含更豐富的多尺度特征信息。

        1.1.2 編碼器-解碼器模塊

        為了提取不同大小和形狀的物體語(yǔ)義特征,本文采用編碼器和解碼器網(wǎng)絡(luò)。網(wǎng)絡(luò)基于U-Net 結(jié)構(gòu),通過(guò)編碼器進(jìn)行下采樣獲得多尺度的圖像特征,然后解碼器對(duì)多尺度圖像進(jìn)行上采樣來(lái)恢復(fù)圖像原有的分辨率。

        其網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示。具體結(jié)構(gòu)信息如下:首先,添加了通道注意力CAB(Channel AttentionBlocks)模塊[12]以提取每個(gè)尺度的特征;其次,對(duì)于編碼器-解碼器模塊中跳轉(zhuǎn)連接部分(Skip Connections)的特征圖也使用CAB 模塊處理;最后,使用雙線性上采樣加一個(gè)卷積層進(jìn)行處理,而不是使用轉(zhuǎn)置卷積,來(lái)提高解碼器處理后特征圖的分辨率,有助于減少輸出圖像中由于轉(zhuǎn)置卷積而出現(xiàn)的棋盤(pán)效應(yīng)。

        1.2 細(xì)節(jié)恢復(fù)模塊

        由于特征提取階段采用下采樣和上采樣的操作,會(huì)導(dǎo)致圖像細(xì)節(jié)的模糊和丟失。因此,受ACT(Aggregated Contextual Transformations)[15]啟發(fā),本節(jié)提出一種上下文注意力ACCA 模塊,模型結(jié)構(gòu)如圖4所示。該模塊利用遙遠(yuǎn)空間位置信息,來(lái)恢復(fù)圖像細(xì)節(jié),同時(shí)避免過(guò)度增加網(wǎng)絡(luò)層次。ACCA 模塊采用多級(jí)注意力機(jī)制,提升了特征圖的表達(dá)能力,并通過(guò)操作不同尺度的注意力圖增強(qiáng)了網(wǎng)絡(luò)對(duì)特定區(qū)域的感知能力。具體流程如下。

        ⑴ 接收上一層提取出來(lái)特征圖,將256 個(gè)通道的內(nèi)核拆分為四個(gè)子內(nèi)核,使每個(gè)子內(nèi)核具有64 個(gè)輸出通道。子內(nèi)核使用不同的膨脹率來(lái)執(zhí)行輸入特征X1的不同變換,使用較大的膨脹率專(zhuān)注感受野大的全局區(qū)域,使用較小膨脹率專(zhuān)注感受野小的局部區(qū)域。

        ⑵ 將每個(gè)子內(nèi)核輸出的特征圖分別經(jīng)過(guò)Mish 激活函數(shù)后,輸入到通道注意力EAC(Efficient ChannelAttention)[16]模塊中,對(duì)其進(jìn)行通道特征加強(qiáng)。EAC 模塊可以提供更精細(xì)的特征表示,并且其參數(shù)和計(jì)算量的需求也小,因此使用ECA 模塊可以?xún)?yōu)化模型結(jié)構(gòu)、減少模型計(jì)算量、提高模型的訓(xùn)練效率。

        ⑶ 將來(lái)自不同感受野的上下文信息通過(guò)級(jí)聯(lián)依次進(jìn)行聚合,然后通過(guò)3 × 3的卷積進(jìn)行特征融合。

        ⑷ 此外,通常使用殘差連接[17]方式提高模型的準(zhǔn)確性,其通過(guò)以空間不變的方式逐元素求和來(lái)聚合輸入特征X1和殘差特征X2,但是此操作忽略了缺失區(qū)域內(nèi)外像素值的差異,導(dǎo)致修復(fù)圖像中出現(xiàn)顏色差異問(wèn)題。為了解決這一問(wèn)題,本文采用一種新的門(mén)控殘差連接,門(mén)控殘差連接先通過(guò)標(biāo)準(zhǔn)卷積和Mish 激活函數(shù)運(yùn)算從X1計(jì)算空間變化的門(mén)值g,然后ACCA 模塊通過(guò)與g 的加權(quán)和來(lái)聚合輸入特征X1和殘差特征X2。

        通過(guò)門(mén)控殘差連接的特征聚合在恢復(fù)缺失區(qū)域內(nèi)特征的同時(shí),并保留缺失區(qū)域外的已知特征。

        2.4 對(duì)比實(shí)驗(yàn)

        2.4.1 主觀分析

        本節(jié)對(duì)不同的低照度圖像增強(qiáng)方法進(jìn)行對(duì)比實(shí)驗(yàn),可以更好地評(píng)估和比較它們的性能和優(yōu)劣之處,選取的經(jīng)典傳統(tǒng)方法有LIME(Low-light Image Enhancement)[20],具有代表性的深度學(xué)習(xí)方法有Zero-Dec(Zero-Reference Deep Curve Estimation), RetinexNet(Retinacortex Net),Kind(Kindling the Darkness) [21],HWMNet(Half Wavelet Attention on M-Net+)[22]。將以上實(shí)驗(yàn)置于統(tǒng)一實(shí)驗(yàn)環(huán)境,實(shí)驗(yàn)結(jié)果如圖6 所示。

        相較于本文提出方法的實(shí)驗(yàn)結(jié)果,LIME 方法整體亮度恢復(fù)偏暗,視覺(jué)效果不真實(shí),并且會(huì)出現(xiàn)顏色失真;RetinexNet 方法會(huì)出現(xiàn)過(guò)度增強(qiáng)的情況,導(dǎo)致圖像的細(xì)節(jié)損失和顏色失真,并且恢復(fù)后的圖像噪聲也特別多;Zero-Dec 方法相比于RetinexNet 算法在圖像整體感知質(zhì)量上表現(xiàn)略有提升,但在亮度增強(qiáng)方面存在不足,同時(shí)可能會(huì)引入偽影和失真,且噪聲抑制效果不佳,影響圖像的視覺(jué)效果;Kind 方法在亮度和飽和度方面表現(xiàn)不錯(cuò),但是對(duì)于局部細(xì)節(jié)紋理的恢復(fù)不夠清晰,且恢復(fù)過(guò)度容易引起顏色失真現(xiàn)象;HWMNet 方法在圖像的細(xì)節(jié)和紋理恢復(fù)的不錯(cuò),但在噪聲抑制方面效果不佳,并且圖像整體亮度過(guò)亮。本文提出的低照度圖像增強(qiáng)方法在亮度、對(duì)比度和噪聲抑制方面均表現(xiàn)出色,整體視覺(jué)效果相對(duì)于其他方法更佳,且主觀視覺(jué)效果更接近于真實(shí)清晰圖像。

        2.4.2 客觀分析

        為進(jìn)一步驗(yàn)證本文提出方法的有效性,本節(jié)實(shí)驗(yàn)采用PSNR 和SSIM 的指標(biāo)作為參考,分別對(duì)不同的低照度圖像增強(qiáng)方法進(jìn)行定量分析。實(shí)驗(yàn)結(jié)果如表1所示,黑色加粗表示對(duì)比實(shí)驗(yàn)中單項(xiàng)指標(biāo)的最優(yōu)值。本文方法在指標(biāo)PRSN,SSIM 的指標(biāo)都為最優(yōu),分別為26.31,0.921。

        從表1 中可以看出,AMS-Net 網(wǎng)絡(luò)在PRSN,SSIM指標(biāo)上遠(yuǎn)超于LIME、RetinexNet、Zero-Dce 網(wǎng)絡(luò);相比于Kind 在PRSN 指標(biāo)上提升了26.12%,在SSIM 指標(biāo)上提升了14.40%;相比與HWMNet 在PRSN 指標(biāo)上提升了8.53%,在SSIM 指標(biāo)上提升了8.09%。實(shí)驗(yàn)結(jié)果表明,AMS-Net 網(wǎng)絡(luò)在客觀評(píng)價(jià)指標(biāo)方面相比于其他主流網(wǎng)絡(luò)具備顯著的優(yōu)勢(shì),且在主觀視覺(jué)質(zhì)量方面更接近于原始高清圖像。

        2.5 消融實(shí)驗(yàn)

        為了驗(yàn)證本文網(wǎng)絡(luò)中局部特征提取模塊和細(xì)節(jié)恢復(fù)模塊的作用和效果,本文進(jìn)行以下的消融實(shí)驗(yàn):分別刪減AMS-Net 的局部特征提?。≒SA)模塊和細(xì)節(jié)恢復(fù)(ACCA)模塊,以及同時(shí)刪減這兩個(gè)模塊,并與完整AMS-Net 進(jìn)行對(duì)比。消融實(shí)驗(yàn)結(jié)果如圖7 所示。其中,圖7(a)為低照度圖像,圖7(b)為原始的清晰圖像,圖7(c)為AMS-Net 去除ACCA 模塊和PSA 模塊的生成圖,圖7(d)為AMS-Net只去除ACCA 模塊的生成圖,圖7(e)為AMS-Net 只去除PSA 模塊的生成圖,圖7(f)為本文提出的完整AMS-Net 的生成圖。

        可以看出,同時(shí)去除PSA 模塊和ACCA 模塊的增強(qiáng)結(jié)果,整體效果不錯(cuò),但是圖7(c)色彩盤(pán)處可以看到明顯的噪聲,圖片的整體亮度也偏暗;當(dāng)只去除ACCA模塊時(shí),增強(qiáng)結(jié)果相比于同時(shí)刪減兩個(gè)模塊顏色亮度有所提升,圖7(d)中公仔顏色更接近真實(shí)清晰圖像;當(dāng)只去除PSA 模塊時(shí),實(shí)驗(yàn)結(jié)果相比只去除ACCA 模塊圖像細(xì)節(jié)恢復(fù)的更加完整,但還是存在失真和噪聲,圖7(e)中非洲鼓上花紋顏色偏淡;而使用完整MMFNet的結(jié)果可以看出,本文設(shè)計(jì)的完整網(wǎng)絡(luò)不僅能夠有效地提高圖像亮度,在色彩飽和度,噪聲抑制,圖像細(xì)節(jié)恢復(fù)都表現(xiàn)出很好的結(jié)果。

        模塊消融實(shí)驗(yàn)的客觀評(píng)價(jià)如表2 所示。使用完整AMS-Net 模型的結(jié)果表現(xiàn)最優(yōu),相比于同時(shí)刪除兩個(gè)模塊,PSNR 指標(biāo)上升了3.3%,SSIM 指標(biāo)上升了1.6%。PSNR,SSIM 指標(biāo)越高意味著圖像恢復(fù)的質(zhì)量越好,此消融實(shí)驗(yàn)客觀結(jié)果表明,PSA 模塊與ACCA 模塊對(duì)低照度圖像有良好的增強(qiáng)效果。

        3 結(jié)束語(yǔ)

        本文提出了一種基于注意力機(jī)制的多尺度低照度圖像增強(qiáng)的方法,該方法能夠在不影響圖像質(zhì)量的情況下有效地對(duì)低照度圖像進(jìn)行增強(qiáng)。此網(wǎng)絡(luò)結(jié)構(gòu)分為三個(gè)階段,三個(gè)階段的輸入分別為不同尺寸的低照度圖像,其中每個(gè)階段首先經(jīng)過(guò)特征提取模塊,以提取圖像中重要特征信息;隨后,由一個(gè)聯(lián)系上下文學(xué)習(xí)模塊進(jìn)行細(xì)節(jié)恢復(fù);最后進(jìn)行特征融合,使得每個(gè)階段的聯(lián)系更緊密。通過(guò)與主流的低照度圖像增強(qiáng)方法的對(duì)比可以看出,本文方法在主觀視覺(jué)和客觀數(shù)據(jù)上均為最優(yōu)。然而,低照度圖像增強(qiáng)在噪聲抑制、信息丟失等問(wèn)題上仍然具有挑戰(zhàn)性,需要進(jìn)一步研究和探索。

        猜你喜歡
        特征融合注意力機(jī)制特征提取
        基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類(lèi)中的研究
        軟件工程(2017年11期)2018-01-05 08:06:09
        InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
        基于移動(dòng)端的樹(shù)木葉片識(shí)別方法的研究
        科技資訊(2017年11期)2017-06-09 18:28:13
        基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
        融合整體與局部特征的車(chē)輛型號(hào)識(shí)別方法
        Bagging RCSP腦電特征提取算法
        基于MATLAB的道路交通標(biāo)志識(shí)別
        av熟妇一区二区三区| 亚洲AV色无码乱码在线观看| 国产日韩欧美亚洲精品中字| 国产亚洲欧美在线观看的| 人妻人妻少妇在线系列| 日本中文字幕av网址| 国产精品一区二区久久乐下载| 成人日韩av不卡在线观看| 亚洲女同一区二区久久| 亚洲免费福利视频网站| 久久精品亚洲成在人线av乱码| 久久婷婷五月综合色高清| 久久99精品久久久久久清纯| 亚欧中文字幕久久精品无码| 夜夜高潮夜夜爽夜夜爱爱| 久久久久无码国产精品不卡| 欧美激情中文字幕在线一区二区| 日本精品人妻在线观看| 亚洲av日韩精品一区二区| 一区二区三区天堂在线| 久久国产色av免费观看| 久久水蜜桃亚洲av无码精品麻豆| 国产午夜三级一区二区三| 国产福利酱国产一区二区| 午夜一级在线| 亚洲天堂av大片暖暖| 亚洲中文字幕精品久久a| 在线观看人成视频免费| 国产成人av乱码在线观看| 亚洲免费网站观看视频| 夜色阁亚洲一区二区三区| 久久精品国产72国产精福利| 亚洲天堂色婷婷一区二区| 风流熟女一区二区三区| 精品在线视频在线视频在线视频| 丁香婷婷在线成人播放视频| 亚洲精品动漫免费二区| 久久精品人人爽人人爽| 亚洲熟妇AV一区二区三区宅男| 日韩在线精品视频观看 | 久久精品波多野结衣中文字幕|