亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于細(xì)節(jié)增強(qiáng)和多顏色空間學(xué)習(xí)的聯(lián)合監(jiān)督水下圖像增強(qiáng)算法

        2025-01-06 00:00:00胡銳程家亮胡伏原
        現(xiàn)代電子技術(shù) 2025年1期
        關(guān)鍵詞:特征提取

        摘" 要: 由于水下特殊的成像環(huán)境,水下圖像往往具有嚴(yán)重的色偏霧化等現(xiàn)象。因此文中根據(jù)水下光學(xué)成像模型設(shè)計(jì)了一種新的增強(qiáng)算法,即基于細(xì)節(jié)增強(qiáng)和多顏色空間學(xué)習(xí)的無(wú)監(jiān)督水下圖像增強(qiáng)算法(UUIE?DEMCSL)。該算法設(shè)計(jì)了一種基于多顏色空間的增強(qiáng)網(wǎng)絡(luò),將輸入轉(zhuǎn)換為多個(gè)顏色空間(HSV、RGB、LAB)進(jìn)行特征提取,并將提取到的特征融合,使得網(wǎng)絡(luò)能學(xué)習(xí)到更多的圖像特征信息,從而對(duì)輸入圖像進(jìn)行更為精確的增強(qiáng)。最后,UUIE?DEMCSL根據(jù)水下光學(xué)成像模型和聯(lián)合監(jiān)督學(xué)習(xí)框架進(jìn)行設(shè)計(jì),使其更適合水下圖像增強(qiáng)任務(wù)的應(yīng)用場(chǎng)景。在不同數(shù)據(jù)集上大量的實(shí)驗(yàn)結(jié)果表明,文中提出的UUIE?DEMCSL算法能生成視覺(jué)質(zhì)量良好的水下增強(qiáng)圖像,且各項(xiàng)指標(biāo)具有顯著的優(yōu)勢(shì)。

        關(guān)鍵詞: 水下圖像增強(qiáng); 多顏色空間學(xué)習(xí); 無(wú)監(jiān)督學(xué)習(xí); 細(xì)節(jié)增強(qiáng); 特征提??; 特征融合

        中圖分類(lèi)號(hào): TN911.73?34; TP391.41" " " " " " " " 文獻(xiàn)標(biāo)識(shí)碼: A" " " " " " " " " 文章編號(hào): 1004?373X(2025)01?0023?06

        Joint supervised underwater image enhancement algorithm"based on detail enhancement and multi?color space learning

        HU Rui1, 2, CHENG Jialiang2, HU Fuyuan2

        (1. Information Construction and Management Center, Suzhou University of Science and Technology, Suzhou 215009, China;

        2. School of Electronic and Information Engineering, Suzhou University of Science and Technology, Suzhou 215009, China)

        Abstract: Due to the special underwater imaging environment, serious color offset and atomization usually occurs to underwater images. In view of this, on the basis of the underwater optical imaging model, this paper designs a new enhancement algorithm, named unsupervised underwater image enhancement algorithm based on detail enhancement and multi?color space learning (UUIE?DEMCSL). In this algorithm, an enhancement network based on multi?color space is designed. This network converts the input into multiple color spaces (HSV, RGB and LAB) for feature extraction. The extracted features are fused, so that the network can learn more image feature information and enhance the input image more accurately. The UUIE?DEMCSL is designed according to the underwater optical imaging model and the joint supervised learning framework, which is more suitable for the application scenarios of underwater image enhancement tasks. A large number of experimental results on different data sets show that the proposed UUIE?DEMCSL algorithm can generate underwater enhanced images with good visual quality, and each index of the algorithm has significant advantages.

        Keywords: underwater image enhancement; multi?color space learning; unsupervised learning; detail enhancement; feature extraction; feature fusion

        0" 引" 言

        水下圖像是指通過(guò)水下攝影或潛水器等設(shè)備拍攝的海洋、湖泊等水域的景象。這些圖像通常呈現(xiàn)出清澈透明的水質(zhì),以及形態(tài)各異的水生動(dòng)植物、巖石和珊瑚礁等景觀[1?2]。水下圖像可以用于科學(xué)研究、環(huán)境監(jiān)測(cè)、旅游宣傳等領(lǐng)域,也可以作為藝術(shù)作品展示。然而,由于水下特殊的成像環(huán)境,水下圖像往往具有嚴(yán)重的色偏、霧化等現(xiàn)象。水下圖像增強(qiáng)可以有效地提高水下圖像的可見(jiàn)度和對(duì)比度,從而更好地展示水下世界的美麗景象。因此,水下圖像增強(qiáng)是一項(xiàng)重要的視覺(jué)任務(wù),對(duì)水下作業(yè)、水下探測(cè)等任務(wù)存在重要意義。

        目前,水下圖像增強(qiáng)可以分為三種方法:基于先驗(yàn)的方法、基于物理模型的方法以及深度學(xué)習(xí)驅(qū)動(dòng)的方法?;谙闰?yàn)的方法直接對(duì)輸入圖像的像素值進(jìn)行處理,或者利用不同顏色空間的直方圖以提高圖像的對(duì)比度;而基于物理模型的方法可以根據(jù)水下光學(xué)成像模型,分解出輸入水下圖像的多個(gè)分量,進(jìn)而求解出清晰的增強(qiáng)結(jié)果;深度學(xué)習(xí)驅(qū)動(dòng)的方法通過(guò)端到端的學(xué)習(xí),實(shí)現(xiàn)從水下降質(zhì)圖像到水下清晰圖像的映射,對(duì)水下圖像進(jìn)行增強(qiáng)。然而,基于先驗(yàn)的方法和基于物理模型的方法往往有部分區(qū)域存在過(guò)曝光或者顏色不均衡的問(wèn)題,基于深度學(xué)習(xí)的方法則不能很好地學(xué)習(xí)圖像的紋理等細(xì)節(jié)特征[3]。

        因此,本文提出了基于細(xì)節(jié)增強(qiáng)和多顏色空間學(xué)習(xí)的無(wú)監(jiān)督水下圖像增強(qiáng)算法(Unsupervised Underwater Image Enhancement Algorithm based on Detail Enhancement and Multi?color Space Learning, UUIE?DEMCSL)。首先,本文提出的UUIE?DEMCSL根據(jù)水下光學(xué)成像模型設(shè)計(jì),降質(zhì)的水下圖像經(jīng)過(guò)結(jié)構(gòu)與細(xì)節(jié)分離模塊提取出細(xì)節(jié)分量和[A]分量,[T]分量提取模塊提取出[T]分量,而清晰的水下圖像([J]分量)經(jīng)多顏色空間特征提取模塊和多顏色空間特征融合模塊獲得;其次,本文算法設(shè)計(jì)了一種基于多顏色空間的增強(qiáng)網(wǎng)絡(luò),將輸入轉(zhuǎn)換為多個(gè)顏色空間(HSV、RGB、LAB)進(jìn)行特征提取,并將提取到的特征融合,使得網(wǎng)絡(luò)能學(xué)習(xí)到更多的圖像特征信息,對(duì)輸入圖像進(jìn)行更為精確的增強(qiáng);最后,UUIE?DEMCSL根據(jù)水下光學(xué)成像模型和聯(lián)合監(jiān)督學(xué)習(xí)框架進(jìn)行設(shè)計(jì),更適合水下圖像增強(qiáng)任務(wù)的應(yīng)用場(chǎng)景。在不同數(shù)據(jù)集上大量的實(shí)驗(yàn)結(jié)果表明,本文提出的UUIE?DEMCSL算法能生成視覺(jué)質(zhì)量良好的水下增強(qiáng)圖像,且各項(xiàng)指標(biāo)具有顯著的優(yōu)勢(shì)[4]。

        1" 相關(guān)工作

        基于先驗(yàn)和物理模型的水下圖像增強(qiáng)算法是傳統(tǒng)的水下圖像增強(qiáng)算法[5?6]。基于先驗(yàn)的方法傾向于直接調(diào)整輸入圖像的像素值。文獻(xiàn)[7]設(shè)計(jì)了一種新的白平衡和融合模型,結(jié)合紅色通道先驗(yàn)和基于灰度世界假設(shè)的白平衡算法。文獻(xiàn)[8]通過(guò)直方圖先驗(yàn)進(jìn)行顏色校正,并將其與對(duì)比度增強(qiáng)相結(jié)合,進(jìn)一步對(duì)細(xì)節(jié)信息增強(qiáng)?;谖锢砟P偷姆椒ㄍǔJ峭ㄟ^(guò)求解成像模型來(lái)實(shí)現(xiàn),文獻(xiàn)[9]利用水下光學(xué)成像模型恢復(fù)水下圖像,并提出了一種適用于水下場(chǎng)景的暗通道先驗(yàn)?zāi)P停撍惴梢杂行У馗纳扑聢D像的霧化現(xiàn)象。文獻(xiàn)[10]使用超拉普拉斯反射先驗(yàn)作為修正變分模型對(duì)水下圖像進(jìn)行增強(qiáng),使得增強(qiáng)后的圖像更加明亮,視覺(jué)效果更好。

        近年來(lái),基于學(xué)習(xí)的水下圖像增強(qiáng)算法已成為主流,主要分為兩種類(lèi)型:基于卷積神經(jīng)網(wǎng)絡(luò)(Convolu?tional Neural Network, CNN)的水下圖像增強(qiáng)算法和基于生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)的水下圖像增強(qiáng)算法。基于學(xué)習(xí)的方法[11?13]可以端到端地學(xué)習(xí)從退化的圖像到清除圖像的映射,而不需要先驗(yàn)或物理模型。UWCNN[14]是第一個(gè)深度學(xué)習(xí)驅(qū)動(dòng)的模型,但由于其基于合成數(shù)據(jù)集進(jìn)行訓(xùn)練,合成數(shù)據(jù)集與真實(shí)數(shù)據(jù)集差異很大,在測(cè)試真實(shí)水下圖像時(shí)其結(jié)果顯示出嚴(yán)重的顏色失真。文獻(xiàn)[15]通過(guò)深度神經(jīng)網(wǎng)絡(luò)融合了傳統(tǒng)算法的三種增強(qiáng)結(jié)果(即白平衡、伽馬校正和直方圖均衡),獲得了良好的視覺(jué)質(zhì)量。他們還提出了Ucolor,該網(wǎng)絡(luò)利用不同的顏色空間進(jìn)行協(xié)作增強(qiáng),同樣獲得了不錯(cuò)的增強(qiáng)結(jié)果[16]。FUnIE?GAN基于條件生成對(duì)抗網(wǎng)絡(luò)(Conditional Generative Adversarial Network, CGAN),并通過(guò)損失函數(shù)考慮全局相似性和內(nèi)容一致性對(duì)水下圖像進(jìn)行增強(qiáng),增強(qiáng)后的結(jié)果更符合人類(lèi)的視覺(jué)感知[17]。

        2" 基礎(chǔ)理論

        由于水下圖像具有嚴(yán)重的色偏和霧化現(xiàn)象,本文提出了基于細(xì)節(jié)增強(qiáng)和多顏色空間學(xué)習(xí)的無(wú)監(jiān)督水下圖像增強(qiáng)算法(UUIE?DEMCSL)。它通過(guò)水下深度網(wǎng)絡(luò)估計(jì)水下光學(xué)成像模型的各個(gè)分量來(lái)進(jìn)行水下圖像增強(qiáng),具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

        2.1" [A]分量估計(jì)

        本節(jié)將介紹水下光學(xué)成像模型以及[A]分量估計(jì)。首先,根據(jù)水下光學(xué)成像模型,降質(zhì)的水下圖像可以表示為:

        [Iλ(x)=Jλ(x)Tλ(x)+Aλ(x)(1-Tλ(x))," "λ∈{R,G,B}]" (1)

        式中:[Iλ(x)]是輸入的水下降質(zhì)圖像;[Tλ(x)]是透射圖;[Aλ(x)]代表背景光;[Jλ(x)]是求解可得到的水下清晰圖像。

        通過(guò)對(duì)輸入進(jìn)行高斯模糊,可以獲得水下降質(zhì)圖像的大部分結(jié)構(gòu)信息,進(jìn)而可以從結(jié)構(gòu)信息中分解得到背景光。

        [Aλ(x)=B(Iλ(x))," " λ∈{R,G,B}] (2)

        式中[B(?)]代表高斯模糊操作。

        2.2" [T]分量估計(jì)

        為了得到水下光學(xué)成像模型中的[T]分量,本文設(shè)計(jì)了T?Net來(lái)生成透射圖[T],其具體結(jié)構(gòu)如下:

        [Tλ(x)=EiTIλ(x)," " λ∈{R,G,B}] (3)

        式中[EiT]代表估計(jì)[T]分量的網(wǎng)絡(luò)T?Net,[i]代表T?Net各層。以第一層為例,具體操作如下:

        [E1T(x)=σ(C(Iλ(x)))] (4)

        式中:[σ]是線性激活函數(shù)(ReLU);[C]是卷積核尺寸為3×3的卷積。

        2.3" [J]分量估計(jì)

        受到Li等人利用多色彩空間進(jìn)行水下圖像增強(qiáng)的啟發(fā),本文設(shè)計(jì)了基于多色彩空間的[J]分量估計(jì)網(wǎng)絡(luò)。如圖1所示,其具體結(jié)構(gòu)由多顏色空間提取模塊和多顏色空間特征融合模塊兩個(gè)部分構(gòu)成。

        為了能夠?qū)W習(xí)到水下圖像在不同色彩空間的特征表示,本文設(shè)計(jì)了多顏色空間提取模塊,通過(guò)在不同色彩空間進(jìn)行特征信息提取來(lái)獲得更加完整的水下圖像色彩表示。

        [fHSV(x)=FHSVIHSV(x)fLAB(x)=FLABILAB(x)fRGB(x)=FRGBIRGB(x)] (5)

        式中:[fHSV(x)]、[fLAB(x)]和[fRGB(x)]是提取到的色彩特征;[IHSV(x)]、[ILAB(x)]和[IRGB(x)]分別是HSV、LAB和RGB色彩空間下的水下降質(zhì)圖像;[FHSV]、[FLAB]和[FRGB]代表三種色彩空間的特征提取網(wǎng)絡(luò)。本文選用ResNet作為特征提取網(wǎng)絡(luò)。

        為了能夠充分利用三種色彩空間的優(yōu)勢(shì),本文提出了多顏色空間融合模塊,該模塊可以自適應(yīng)地學(xué)習(xí)三種色彩空間各自的優(yōu)良特征,并將這些特征融合。

        [F(x)=wRGB*fRGB(x)+wLAB*fLAB(x)+wHSV*fHSV(x)] (6)

        式中:[wRGB]、[wLAB]和[wHSV]分別是RGB、LAB和HSV色彩空間的權(quán)重,[wRGB]+[wLAB]+[wHSV]=1。

        2.4" 損失函數(shù)

        現(xiàn)有的基于深度學(xué)習(xí)的水下圖像增強(qiáng)算法大致可以分為監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)兩種學(xué)習(xí)方式。其中:監(jiān)督學(xué)習(xí)的方式可以端到端地學(xué)習(xí)從低質(zhì)量圖像到清晰圖像的映射;而無(wú)監(jiān)督學(xué)習(xí)的方式根據(jù)已有的圖像先驗(yàn)和水下光學(xué)成像模型來(lái)恢復(fù)圖像。為了綜合兩種學(xué)習(xí)方式的優(yōu)點(diǎn),本文提出了一種聯(lián)合監(jiān)督的學(xué)習(xí)方式。

        1) 監(jiān)督損失

        本文選用[L1]和VGG損失作為監(jiān)督損失。[L1]損失可以減少像素值間的差異,而VGG損失可以拉近生成圖像和真值圖像在高維特征空間上的距離。

        [Ls(x,y)=L1(x,y)+0.1×LVGG(x,y)] (7)

        式中:[x]是經(jīng)網(wǎng)絡(luò)增強(qiáng)后的水下圖像;[y]是真值圖像。

        2) 無(wú)監(jiān)督損失

        本文選用色彩損失和重建損失作為無(wú)監(jiān)督損失,以進(jìn)一步減少重建圖像的細(xì)節(jié)損失。

        [Lu(x,z)=L1x*T+A*(1-T), z] (8)

        式中:[x]是經(jīng)網(wǎng)絡(luò)增強(qiáng)后的水下圖像;[z]為輸入退化圖像;[T]為透射圖;[A]為背景光。

        3) 總損失

        總損失為有監(jiān)督損失和無(wú)監(jiān)督損失的線性疊加:

        [Lau=λ1Ls+λ2Lu] (9)

        式中:[λ1]設(shè)置為0.75;[λ2]為0.25。

        3" 實(shí)驗(yàn)結(jié)果

        本文使用PyTorch庫(kù)構(gòu)建UUIE?DEMCSL算法。本文提出的算法使用AdamW作為優(yōu)化器,并通過(guò)180個(gè)批次來(lái)完成網(wǎng)絡(luò)的擬合。初始學(xué)習(xí)率設(shè)定為0.000 1,每30個(gè)批次下降50%。網(wǎng)絡(luò)學(xué)習(xí)的過(guò)程中,設(shè)置Batchsize為4。所有訓(xùn)練中的圖像都被裁剪為[256×256]的尺寸,并歸一化至[0,1]。

        本文使用UIEB數(shù)據(jù)集和SQUID數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。UIEB數(shù)據(jù)集和SQUID數(shù)據(jù)集是兩個(gè)廣泛使用的水下圖像增強(qiáng)基準(zhǔn)數(shù)據(jù)集。首先,由于UIEB數(shù)據(jù)集的數(shù)量較少不滿足訓(xùn)練需求,本文對(duì)UIEB數(shù)據(jù)集做數(shù)據(jù)增廣。通過(guò)對(duì)數(shù)據(jù)集中的圖像做水平和垂直翻轉(zhuǎn)以及旋轉(zhuǎn)90°、180°和270°完成數(shù)據(jù)增廣。本文使用增廣后的12 680對(duì)圖像作為訓(xùn)練集,并選擇剩余圖像中的80對(duì)圖像作為測(cè)試集。對(duì)于SQUID數(shù)據(jù)集,本文也選擇其中的80對(duì)圖像作為交叉測(cè)試集。

        對(duì)于全參考圖像質(zhì)量評(píng)價(jià),本文使用PSNR和SSIM兩種指標(biāo)。其中,PSNR代表圖像信息量與噪聲量的比值,PSNR越高,圖像噪聲越少,與真值圖像更接近。而SSIM代表生成圖像與真值圖像的結(jié)構(gòu)相似度,其值越高,圖像越清晰,色彩與紋理更好。對(duì)于無(wú)參考圖像質(zhì)量評(píng)價(jià),本文選用UIQM和UCIQE兩種常用的水下圖像質(zhì)量評(píng)價(jià)指標(biāo)進(jìn)行測(cè)評(píng)。UCIQE指標(biāo)通過(guò)CIELab色彩空間進(jìn)行測(cè)定,它可以評(píng)估水下圖像的色彩失真、霧化等降質(zhì)現(xiàn)象的程度;而UIQM指標(biāo)通過(guò)HSV顏色模型進(jìn)行評(píng)價(jià),并考慮了顏色、銳度以及對(duì)比度三種屬性。UCIQE和UIQM值越高,代表水下圖像視覺(jué)質(zhì)量越好。

        為了驗(yàn)證本文提出算法的有效性,選擇16種水下圖像增強(qiáng)算法作為對(duì)比。其中,包括6種傳統(tǒng)算法:GDCP、HLRP、NUDCP、ACDC、ERH和Fusion算法,以及10種基于深度學(xué)習(xí)的方法:UWCNN、URSCT、L2UWE、FUnIE?GAN、LCNet、CLUIE?Net、TOPAL、Water?Net、UICoE?Net和Ucolor算法。

        3.1" 主觀評(píng)價(jià)與分析

        本文提出的方法在UIEB?80和SQUID?80測(cè)試集的增強(qiáng)結(jié)果視覺(jué)質(zhì)量對(duì)比分別如圖2和圖3所示。

        首先,傳統(tǒng)的水下圖像增強(qiáng)算法可以改善顏色退化,并且增強(qiáng)結(jié)果沒(méi)有明顯的綠色或藍(lán)色色偏。然而,這些處理后的圖像往往有嚴(yán)重的噪聲,而且色彩較為單一。與陸地上拍攝的無(wú)降質(zhì)圖像相比,色調(diào)偏黑白化。GDCP和NUDCP算法在亮度方面有了一些改進(jìn),但它們往往會(huì)產(chǎn)生不均勻的霧化現(xiàn)象和顏色失真;ACDC算法產(chǎn)生灰白色圖像,視覺(jué)效果較差;HLRP算法傾向于過(guò)度曝光圖像,而ERH和Fusion算法會(huì)產(chǎn)生更暗的結(jié)果。在基于學(xué)習(xí)的方法方面,大多數(shù)方法表現(xiàn)出更好的顏色和處理良好的細(xì)節(jié)。然而,他們的研究結(jié)果仍然有一些局限性。URSCT和L2UWE很難處理嚴(yán)重的彩色失真;FUnIE?GAN和LCNet增強(qiáng)后的圖像引入了紅色偽影,并且LCNet的大部分處理結(jié)果顯示出嚴(yán)重的紅色色偏;CLUIE?Net、TOPAL和UICoE?Net在某些結(jié)果中仍然表現(xiàn)出一些顏色退化。相比之下,本文提出的UUIE?DEMCSL算法在UIEB?80和SQUID?80測(cè)試集上取得了良好的結(jié)果,本文提出的算法可以有效地解決色彩失真、霧化等問(wèn)題,并且增強(qiáng)后的圖像有極佳的視覺(jué)效果。

        3.2" 客觀評(píng)價(jià)與分析

        本節(jié)將定量地比較本文提出的方法和State?of?The?Art(SOTA)方法。表1使用4個(gè)指標(biāo):PSNR、SSIM、UCIQE以及UIQM來(lái)評(píng)估UIEB?80數(shù)據(jù)集中的增強(qiáng)結(jié)果。在表1中,本文提出的方法在PSNR、SSIM和UCIQE指標(biāo)方面具有優(yōu)勢(shì)。此外,表2顯示了在SQUID?80數(shù)據(jù)集上測(cè)試的一些優(yōu)秀算法,該測(cè)試更加全面和具體。在表2中,本文算法的度量指標(biāo)均大幅度超過(guò)了其他算法。以上結(jié)果表明,本文提出的UUIE?DEMCSL方法在PSNR、SSIM、UCIQE和UIQM指標(biāo)方面比最優(yōu)秀的算法仍然具有顯著的優(yōu)勢(shì)??偟膩?lái)說(shuō),本文提出的算法在測(cè)試的UIEB?80和SQUID?80數(shù)據(jù)集上都表現(xiàn)良好,增強(qiáng)后的水下圖像在主觀測(cè)試和客觀評(píng)價(jià)中都有較好的結(jié)果。

        4" 結(jié)" 語(yǔ)

        水下圖像增強(qiáng)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要研究方向,由于水下環(huán)境的復(fù)雜性,水下圖像往往存在嚴(yán)重的色偏、霧化等問(wèn)題,這對(duì)圖像的識(shí)別和理解帶來(lái)了很大的困難。因此,設(shè)計(jì)一種有效的水下圖像增強(qiáng)算法具有重要的實(shí)際意義。本文提出UUIE?DEMCSL算法。首先,將輸入圖像轉(zhuǎn)換為多個(gè)顏色空間(如HSV、RGB、LAB);然后,在每個(gè)顏色空間中進(jìn)行特征提取,并將提取到的特征融合,使得網(wǎng)絡(luò)能學(xué)習(xí)到更多的圖像特征信息。這種方法可以有效地提高圖像的對(duì)比度,減少色偏和霧化現(xiàn)象,從而提高圖像的視覺(jué)質(zhì)量。此外,UUIE?DEMCSL算法還采用了聯(lián)合監(jiān)督學(xué)習(xí)框架,根據(jù)水下光學(xué)成像模型進(jìn)行設(shè)計(jì),這使得該算法更適合水下圖像增強(qiáng)任務(wù)的應(yīng)用場(chǎng)景。

        實(shí)驗(yàn)結(jié)果表明,UUIE?DEMCSL算法在各種數(shù)據(jù)集上都能生成視覺(jué)質(zhì)量良好的水下增強(qiáng)圖像,且各項(xiàng)指標(biāo)具有顯著的優(yōu)勢(shì)。這證明了該算法的有效性和優(yōu)越性。

        注:本文通訊作者為胡銳。

        參考文獻(xiàn)

        [1] HUIZENGA C, ABBASZADEH S, ZAGREUS L, et al. Air quality and thermal comfort in office buildings: Results of a large indoor environmental quality survey [J]. Proceedings of healthy buildings 2006, 2006, 3: 393?397.

        [2] ARIF M, KATAFYGIOTOU M, MAZROEI A, et al. Impact of indoor environmental quality on occupant well?being and comfort: A review of the literature [J]. International journal of sustainable built environment, 2016, 5(1): 1?11.

        [3] FRONTCZAK M, WARGOCKI P. Literature survey on how different factors influence human comfort in indoor environments [J]. Building and environment, 2011, 46(4): 922?937.

        [4] 百度百科.熱舒適度[EB/OL].[2022?07?11].https://baike.baidu.com/item/熱舒適度/15703491.

        [5] GOTO T, TOFTUM J, DE DEAR R, et al. Thermal sensation and comfort with transient metabolic rates [J]. Indoor air, 2002, 1: 1038?1043.

        [6] KARJALAINEN S. Gender differences in thermal comfort and use of thermostats in everyday thermal environments [J]. Building and environment, 2007, 42(4): 1594?1603.

        [7] ANCUTI C O, ANCUTI C. Single image dehazing by multi?scale fusion [J]. IEEE transactions on image processing, 2013, 22(8): 3271?3282.

        [8] ZHUANG P X, WU J M, PORIKLI F, et al. Underwater image enhancement with hyper?Laplacian reflectance priors [J]. IEEE transactions on circuits and systems for video technology, 2022, 33: 5442?5455.

        [9] ZHANG S, LI D L, ZHAO R, et al. PDCFNet: Enhancing underwater images through pixel difference convolution and cross?level feature fusion [EB/OL]. [2024?09?28]. https://arxiv.org/pdf/2409.19269.

        [10] MINHAS T, HASSAN F, IRSHAD R, et al. Underwater image enhancement using hyper?Laplacian reflectance priors and CNN?based classification [J]. Journal of imaging, 2023, 46(1): 14.

        [11] PAN J Y, DUAN Z Y, DUAN J H, et al. LUIE: Learnable physical model?guided underwater image enhancement with bi?directional unsupervised domain adaptation [J]. Neurocomputing, 2024, 602: 128286.

        [12] SU J W, XU B Y, YIN H J. A survey of deep learning approaches to image restoration [J]. Neurocomputing, 2022, 487: 46?65.

        [13] NIU W J, ZHANG K H, LUO W H, et al. Deep robust image deblurring via blur distilling and information comparison in latent space [J]. Neurocomputing, 2021, 466: 69?79.

        [14] LI C Y, ANWAR S, PORIKLI F. Underwater scene prior inspired deep underwater image and video enhancement [J]. Pattern recognition: The journal of the pattern recognition society, 2020, 98: 107038.

        [15] LI C Y, GUO J C, PORIKLI F, et al. LightenNet: A convolutional neural network for weakly illuminated image enhancement [J]. Pattern recognition letters, 2018, 104: 15?22.

        [16] JAZIZADEH F, MARIN F M, BECERIK?GERBER B. A thermal preference scale for personalized comfort profile identification via participatory sensing [J]. Building and environment, 2013, 68: 140?149.

        [17] JAZIZADEH F, GHAHRAMANI A, BECERIK?GERBER B, et al. Human?building interaction framework for personalized thermal comfort?driven systems in office buildings [J]. Journal of computing in civil engineering, 2014, 28(1): 2?16.

        [18] LIANG J, DU R X. Thermal comfort control based on neural network for HVAC application [C]// Proceedings of 2005 IEEE Conference on Control Applications. New York: IEEE, 2005: 819?824.

        [19] FELDMEIER M C, PARADISO J A. Personalized HVAC control system [C]// Proceedings of Internet of Things (IoT). New York: IEEE, 2010: 1?8.

        [20] YAO Y, LIAN Z W, LIU W W, et al. Experimental study on skin temperature and thermal comfort of the human body in a recumbent posture under uniform thermal environments [J]. Indoor and built environment, 2007, 16(6): 505?518.

        [21] CHOI J H, LOFTNESS V. Investigation of human body skin temperatures as a bio?signal to indicate overall thermal sensations [J]. Building and environment, 2012, 58: 258?269.

        基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(61472267)

        作者簡(jiǎn)介:胡" 銳(1986—),男,安徽六安人,碩士研究生,高級(jí)工程師,碩士生導(dǎo)師,研究方向?yàn)槿斯ぶ悄堋?/p>

        程家亮(2001—),男,江西撫州人,碩士研究生,研究方向?yàn)槿斯ぶ悄堋⒂?jì)算機(jī)網(wǎng)絡(luò)。

        胡伏原(1978—),男,湖南岳陽(yáng)人,博士研究生,教授,碩士生導(dǎo)師,研究方向?yàn)槿斯ぶ悄?、圖像處理。

        猜你喜歡
        特征提取
        特征提取和最小二乘支持向量機(jī)的水下目標(biāo)識(shí)別
        基于Gazebo仿真環(huán)境的ORB特征提取與比對(duì)的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于DNN的低資源語(yǔ)音識(shí)別特征提取技術(shù)
        Bagging RCSP腦電特征提取算法
        一種基于LBP 特征提取和稀疏表示的肝病識(shí)別算法
        基于DSP的直線特征提取算法
        基于改進(jìn)WLD的紋理特征提取方法
        淺析零件圖像的特征提取和識(shí)別方法
        基于CATIA的橡皮囊成形零件的特征提取
        av一区二区三区亚洲| 三年片大全在线观看免费观看大全| 韩国无码av片在线观看网站| 99热精品国产三级在线观看 | 一二三四在线观看免费视频| 综合无码一区二区三区四区五区| 亚洲一本之道高清在线观看| 国产嫩草av一区二区三区| 97久久草草超级碰碰碰| 午夜国产在线| 蜜桃在线一区二区三区| 亚洲综合日韩一二三区| 在线涩涩免费观看国产精品 | 日韩精品一区二区亚洲观看av| 少妇久久久久久人妻无码| 老湿机香蕉久久久久久| 亚洲AⅤ男人的天堂在线观看| 中文字幕午夜精品一区二区三区 | 天天躁夜夜躁狠狠是什么心态| 国产av精国产传媒| 2020国产精品久久久久| 成人欧美一区二区三区白人| 一区二区三区国产97| 天堂av网手机线上天堂| 中文字幕欧美人妻精品一区| 狼人国产精品亚洲| 高清少妇一区二区三区| 亚洲av无码偷拍在线观看| 亚洲熟女乱色一区二区三区| 亚洲片在线视频| 精品视频一区二区三区日本| 男女做爰猛烈啪啪吃奶动| 2019年92午夜视频福利| 午夜国产精品视频免费看电影| 黄色国产精品福利刺激午夜片| 美女网站免费福利视频| 熟妇人妻中文av无码| 国产精品久久一区性色a| 国产一级一片内射视频播放| 久久精品免费一区二区三区| 无码人妻一区二区三区免费手机|