亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于優(yōu)化策略和深度學(xué)習(xí)的低光照圖像增強

        2021-07-16 05:51:02黃子蒙陳躍鵬
        關(guān)鍵詞:響應(yīng)函數(shù)圖像增強殘差

        黃子蒙,陳躍鵬

        (1.武漢科技大學(xué)信息科學(xué)與工程學(xué)院,湖北 武漢 430081;2.武漢理工大學(xué)自動化學(xué)院,湖北 武漢 430070)

        可見度高的圖像能夠呈現(xiàn)出目標(biāo)場景的清晰細節(jié),這對于基于視覺的自動駕駛技術(shù)來說是必不可少的,如車輛檢測[1],車道識別[2]等。然而,通常在低光條件下拍攝的圖像可見度很差,其實際應(yīng)用價值受到限制。目前,國內(nèi)外學(xué)者已經(jīng)提出了許多圖像增強技術(shù)來增強低光照圖像,包括基于直方圖的方法[3-7],基于非線性單調(diào)函數(shù)的方法[8-9],灰度映射和基于濾波的方法[10-12],基于Retinex理論的方法[13-15]和基于去霧的方法[16-17]。雖然現(xiàn)有的方法能夠取得不錯的效果,但由于忽略或錯置非線性相機響應(yīng)函數(shù)(Camera Response Function,CRF),可能導(dǎo)致圖像增強過度或增強不足。

        Ren等人介紹了新相機響應(yīng)特性的增強框架[18],通過估計圖像的亮度成分獲得最佳曝光率,然后根據(jù)相機響應(yīng)功能模型獲得中等曝光增強效果。但是,與使用估計精確的三通道響應(yīng)曲線相比,其方法中使用的固定攝像機響應(yīng)曲線仍會產(chǎn)生增強圖像的失真。近年來,深度學(xué)習(xí)在計算機視覺領(lǐng)域取得了巨大成功[19-21]。與傳統(tǒng)算法相比,深度學(xué)習(xí)方法具有較強的自適應(yīng)能力,可以通過優(yōu)化策略獲得更強大的模型。

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像恢復(fù)和增強應(yīng)用中已經(jīng)證明了其有效性。例如,Li等人訓(xùn)練了深度卷積神經(jīng)網(wǎng)絡(luò)(LightenNet)來執(zhí)行低光圖像增強任務(wù)[19]。Guan等人試圖通過小波深度神經(jīng)網(wǎng)絡(luò)去除圖像中的條紋噪聲[20]。在這些應(yīng)用中,可以輕松生成與低質(zhì)量圖像相對應(yīng)的高質(zhì)量圖像。使用這些成對的訓(xùn)練數(shù)據(jù),CNN可以用來學(xué)習(xí)低質(zhì)量圖像與其相應(yīng)的高質(zhì)量參考圖像之間的映射函數(shù)。然而,對于移動設(shè)備來說,卷積神經(jīng)網(wǎng)絡(luò)技術(shù)由于其計算復(fù)雜性和模型較大而難以部署。

        針對以上問題,本文提出了一種新的融合相機響應(yīng)模型與深度學(xué)習(xí)的低光照圖像增強方法,通過采用相機響應(yīng)模型方法生成的數(shù)據(jù)集訓(xùn)練一個專門設(shè)計的深度學(xué)習(xí)網(wǎng)絡(luò)用于對低光照圖像細節(jié)的進一步增強,并且通過實驗驗證該方法的有效性。

        1 融合非線性相機響應(yīng)函數(shù)模型的深度學(xué)習(xí)方法

        1.1 方法流程

        本文提出的融合非線性相機響應(yīng)函數(shù)模型的深度方法,基本思路是:a)基于相機響應(yīng)函數(shù)模型,根據(jù)輸入圖像估計最佳曝光率,對曝光不足的區(qū)域做增強曝光處理,生成增強曝光的中間圖像;b)設(shè)計一種輕量級反向殘差卷積神經(jīng)網(wǎng)絡(luò) (Lightweight Reverse Residual Convolutional Neural Network,LRNet)來預(yù)測中間圖像與參考圖像之間的殘差;c)在網(wǎng)絡(luò)的最后階段,將丟失細節(jié)信息的輸入圖像與預(yù)測的殘差圖像進行融合得到最終的增強圖像。

        整個方法的流程圖如圖1所示。首先,中間圖像采用基于相機響應(yīng)模型的方法來生成。隨后,提出了一種LRNet,它可以直接學(xué)習(xí)中間圖像與參考圖像之間的殘差映射,以恢復(fù)中間圖像的細節(jié)。

        圖1 本文方法流程圖

        1.2 基于相機響應(yīng)模型的最佳曝光中間圖像生成

        圖像的成像過程可用相機響應(yīng)模型來解釋,相機響應(yīng)函數(shù)(CRF)可用做描述相機響應(yīng)模型,該模型刻畫了相機的曝光量E和圖像亮度值P之間的非線性關(guān)系[22],其定義為:

        P=f(E)

        (1)

        式中f為相機響應(yīng)函數(shù)。

        設(shè)P和P¢分別是在同一場景下不同曝光量E和E¢拍攝的圖像,且E¢=kE,其中k為曝光比。P和P¢的關(guān)系可表示為:

        P′=g(P,k)

        式中g(shù)為亮度映射函數(shù)(Brightness Mapping Function,BMF),它刻畫同一場景下不同曝光的圖像之間的亮度非線性映射關(guān)系[23]。由式(1)可得,

        P=f(E),P′=f(E′)=f(kE)

        因此,CRF與BMF之間的轉(zhuǎn)換關(guān)系可以表示為:

        g(f(E),k)=f(kE)

        于是,相機響應(yīng)模型也可以用BMF來表達。當(dāng)BMF已知時,通過對圖像P設(shè)置不同的曝光比k來生成不同曝光的圖像P′,從而起到改變圖像像素曝光值的效果。

        為了實現(xiàn)更好的增強效果需要找到最佳曝光比,利用式(2)獲到僅包含曝光不足的像素灰度值集合:

        Q={I(x)|T(x)<τ1}

        (2)

        式中T(x)為I(x)的光照分量圖,τ1為區(qū)分曝光不足像素的灰度閾值。于是,曝光不足的像素點信息熵為:

        H(Q)=-∑ipilog2pi

        式中pi代表Q中每個灰度等級i出現(xiàn)的概率。這樣,由圖像信息熵最大化原則就可以求解最佳曝光率:

        從而得到更加優(yōu)化的增強曝光中間圖像:

        P¢=g(P,k)=eb(1-ka)Pka

        (3)

        對于給定的相機,其BMF是固定的,參數(shù)也是固定的。本文使用文獻[18]中的參數(shù)a=-0.329 3,b=1.125 8,給定一幅輸入圖像,可以得到更加優(yōu)化的增強曝光中間圖像。

        1.3 通過LRNet恢復(fù)中間圖像的細節(jié)信息

        通過輕量化網(wǎng)絡(luò)恢復(fù)中間圖像信息的方法如圖2所示。設(shè)P為待處理的低光照圖像,P′為生成的中間圖像,它可以用式(3)來表示。

        圖2 輕量化網(wǎng)絡(luò)恢復(fù)中間圖像細節(jié)

        設(shè)y是圖像P的參考圖像,可以表示為

        y=yl+yh

        式中yl和yh分別是參考圖像中的低頻分量和高頻分量?;谏疃葘W(xué)習(xí)方法通常使用端到端的方法來表示y。在此過程中,神經(jīng)網(wǎng)絡(luò)必須保留所有輸入圖像的詳細信息,這對于許多權(quán)重層來說,需要長期儲存的端到端關(guān)系,容易出現(xiàn)梯度消失/爆炸的問題[24]。本文通過殘差學(xué)習(xí)來解決該問題。設(shè)y的初始圖像表現(xiàn)形式為F(P),它可以被視為已知的信息。設(shè)(y-F(P))為y′,即y的未知信息。則:

        本文采用的LRNet如圖3所示,具有三種不同顏色的類型模塊,分別描述如下:

        圖3 輕量級反向殘差卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        (1)卷積層模塊:(帶有標(biāo)準(zhǔn)化層和PReLU)采用了32個3×3的卷積核(stride 1,pad 1);

        (2)線性瓶頸模塊:又由三個卷積層構(gòu)成,第一卷積層(帶有標(biāo)準(zhǔn)化層和PReLU)采用64個1×1的卷積核,第二卷積層(帶有標(biāo)準(zhǔn)化層和PReLU)采用32個3×3的卷積核(stride 1,pad 1),第三卷積層(帶有標(biāo)準(zhǔn)化層)采用32個1×1的卷積核;

        (3)反向殘差模塊:在線性瓶頸模塊的基礎(chǔ)上增加了捷徑。插入捷徑方式的動機與經(jīng)典殘差連接的動機類似:希望提高梯度在乘數(shù)層之間傳播的能力[25]。反向殘差模塊有兩個優(yōu)點:(1)重用特征以緩解特征退化;(2)減少計算量和參數(shù)數(shù)量。這樣處理不僅可以加快網(wǎng)絡(luò)的收斂速度,還可以減少訓(xùn)練樣本的數(shù)量。由于池化在尺寸縮減過程中可能會丟失圖像信息,因此不會在網(wǎng)絡(luò)中使用。

        2 實驗結(jié)果與分析

        在本節(jié)中,通過構(gòu)建道路圖像數(shù)據(jù)集,并使用Caffe來訓(xùn)練LRNet。為了評估本文方法優(yōu)勢,先后通過對自制數(shù)據(jù)集和公共數(shù)據(jù)集SICE[26]進行訓(xùn)練,并將訓(xùn)練結(jié)果與五種現(xiàn)有的低光照圖像增強方法進行了比較。

        2.1 自制數(shù)據(jù)集上的比較

        本文自制數(shù)據(jù)集的圖像包含500個在真實場景中捕獲的低曝光/中曝光圖像對,其中部分如圖4所示:第一行為低光照圖像,第二行為參考圖像。為了避免受到其他因素干擾,只更改曝光時間,同時固定相機的其他配置。在室外環(huán)境中,拍攝移動物體(如行人、車輛和搖曳的樹木)很難獲得一個對齊良好的序列。因此需要通過使用三腳架防止相機抖動,并使用連續(xù)包圍模式自動捕獲一系列曝光圖像,以確保只改變曝光。本文通過數(shù)據(jù)集中圖像的多樣化,包括街道、道路標(biāo)識、建筑等場景,來表明LRNet方法的魯棒性。最后,本文隨機將數(shù)據(jù)集中的圖像分為兩個子集:460個圖像用于訓(xùn)練,其余的圖像用于測試。

        圖4 部分自制數(shù)據(jù)集

        將本文的方法與五種現(xiàn)有的低光照增強方法,如:LIME[16]、NPE[27]、Dong[17]、LECARM[18]和 RetinexNet[28]進行比較。如圖5所示,LIME方法處理后的圖像非常明亮,許多明亮的區(qū)域已經(jīng)飽和。NPE方法處理后的圖像在亮度較高區(qū)域產(chǎn)生了較為嚴重的失真。Dong方法處理后的圖像有很多夸張的邊緣,使圖像看起來像一幅藝術(shù)畫。LECARM處理后的圖像增強效果不明顯,圖像亮度整體偏暗。而RetinexNet處理后的圖像失真比較嚴重,出現(xiàn)了偏色和偽影的問題。本文方法處理后的圖像整體亮度較為均衡,在恢復(fù)出道路標(biāo)線的同時,也保證了道路兩旁的物體沒有過度增強,看起來比較自然,有利于人眼的視覺觀察。

        圖5 不同方法的增強結(jié)果對比

        定量比較使用常用的四個指標(biāo):SSIM和PSNR進行定量評估,NIQE用于評估自然保存,LOE用于評估亮度失真。SSIM和PSNR越高,增強的圖像與參考圖像越接近,NIQE和LOE值越低,圖像質(zhì)量越高。所有最佳結(jié)果都以粗體顯示,如表1所示。本文方法生成的測試圖像具有平均值更高的 SSIM、PSNR 和更低的NIQE。對于LOE平均值,它落后于LIME 和NPE。正如Guo等人[16]所說,使用輸入的低光照圖像本身來計算LOE是有問題的。因此,使用文獻[29]中使用參考圖像的方法來計算LOE,類似于計算SSIM和PSNR,并表示為 LOEref。這樣,本文的方法更具有一定的優(yōu)勢。

        表1 不同方法增強結(jié)果在自制數(shù)據(jù)集上的定量比較

        2.2 公共數(shù)據(jù)集上的比較

        為了進一步證明本文方法的魯棒性,本文還對公共數(shù)據(jù)集SICE進行了實驗。表2顯示了本文方法和五種現(xiàn)有的低光照增強方法的定量比較。由于SICE數(shù)據(jù)集的對比度很高,某些圖像看起來不太自然,因此只選擇了一部分圖像作為參考??梢钥吹剑m然在LOE和LOEref中,略落后于NPE排在第二位,但是在SSIM和PSNR上,本文的方法優(yōu)于其他所有方法。對于非參考指標(biāo)NIQE,本文方法也可以得到較低的值。實驗結(jié)果說明本文方法在恢復(fù)圖像細節(jié)質(zhì)量上具有一定的優(yōu)勢。

        3 結(jié)論

        本文提出了一個新的融合非線性相機響應(yīng)函數(shù)模型的深度學(xué)習(xí)方法,以提高低光照圖像質(zhì)量,為智能導(dǎo)航和自動駕駛提供高可見度的圖像。本文的主要思想是使用LRNet來學(xué)習(xí)殘差圖像,而不是簡單的端到端映射,從而利用殘差圖像的簡單性讓網(wǎng)絡(luò)有效地學(xué)習(xí)細節(jié)。此外,本文還創(chuàng)建了一個包含500個曝光不足圖像對的新數(shù)據(jù)集,使網(wǎng)絡(luò)能夠恢復(fù)低光照圖像清晰的細節(jié),更接近真實的參考圖像。本文在自制數(shù)據(jù)集和SICE數(shù)據(jù)集上進行了實驗,并比較了本文的方法與五種現(xiàn)有的方法,證明了本文的解決方案在可視化比較、SSIM、PSNR、NIQE和LOE指標(biāo)的定量比較方面的優(yōu)勢。

        猜你喜歡
        響應(yīng)函數(shù)圖像增強殘差
        不同探源距下241Am的α譜模擬與解析
        輻射防護(2024年6期)2024-12-31 00:00:00
        一類具有Beddington-DeAngelis響應(yīng)函數(shù)的階段結(jié)構(gòu)捕食模型的穩(wěn)定性
        基于雙向GRU與殘差擬合的車輛跟馳建模
        圖像增強技術(shù)在超跨聲葉柵紋影試驗中的應(yīng)用
        水下視覺SLAM圖像增強研究
        基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
        基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
        虛擬內(nèi)窺鏡圖像增強膝關(guān)節(jié)鏡手術(shù)導(dǎo)航系統(tǒng)
        相機響應(yīng)函數(shù)定標(biāo)的正則化方法
        基于圖像增強的無人機偵察圖像去霧方法
        一本久道视频无线视频试看| 熟女性饥渴一区二区三区| 欧美bbw极品另类| 国产日韩欧美亚洲精品中字| 精品国产迪丽热巴在线| 亚洲偷自拍国综合第一页国模| 亚洲第一网站免费视频| 亚洲精品国产精品国自产| 中国丰满熟妇xxxx| 欧美日韩一线| 一区二区三区视频偷拍| 亚洲黄片av在线播放| 中文字幕人妻第一区| 竹菊影视欧美日韩一区二区三区四区五区| 久久中文字幕亚洲精品最新 | 中文字幕人妻日韩精品| 永久天堂网av手机版| 性一交一乱一乱一视频| 人妻无码在线免费| 国产一级黄片久久免费看| 亚洲综合偷自成人网第页色| 先锋中文字幕在线资源| 久久精品国产亚洲精品| 18禁国产美女白浆在线| 久久av一区二区三区黑人| 国产精品久久久久久妇女| 疯狂撞击丝袜人妻| 国产精品27页| 亚洲国产中文字幕九色| 不卡一区二区黄色av| 一本色道无码道dvd在线观看| 亚洲 都市 校园 激情 另类| 精品蜜桃一区二区三区| 亚洲不卡一区二区视频| 精品偷拍被偷拍在线观看| 日韩精品人妻系列无码专区免费| 精品国产亚洲av麻豆尤物| 日本午夜免费福利视频| 国产成人自产拍免费视频| 国产一区二区亚洲一区| 亚洲国产精品无码久久一线|