亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        二尺度分解和顯著性提取的紅外與可見光圖像融合

        2023-02-22 06:26:50龔海峰婁熙承
        光譜學(xué)與光譜分析 2023年2期
        關(guān)鍵詞:尺度紅外像素

        馮 鑫, 方 超, 龔海峰, 婁熙承, 彭 燁

        1. 重慶工商大學(xué)機(jī)械工程學(xué)院制造裝備機(jī)構(gòu)設(shè)計(jì)與控制重慶市重點(diǎn)實(shí)驗(yàn)室, 重慶 400067 2. 重慶工商大學(xué)廢油資源化技術(shù)與裝備教育部工程研究中心, 重慶 400067

        引 言

        紅外與可見光圖像融合是一項(xiàng)重要且應(yīng)用很廣泛的圖像增強(qiáng)技術(shù)。 圖像融合的關(guān)鍵問題是如何從源圖像中提取突出的特征, 以及如何結(jié)合這些特征來生成融合后的圖像。 可見光圖像的空間分辨率較高并且細(xì)節(jié)明暗對(duì)比鮮明, 但比較容易受到周圍環(huán)境和氣候等因素的影響; 紅外圖像通過熱輻射來描繪物體, 能夠抵抗環(huán)境和氣候等因素干擾, 但紅外圖像分辨率較低和紋理信息比較差。 紅外與可見光圖像共享互補(bǔ)特性, 從而可以產(chǎn)生穩(wěn)健且信息豐富的融合圖像[1-2]。 近年來, 人們提出了許多圖像融合方法, 將源圖像中的特征結(jié)合到單一圖像中[3]。 這些方法被廣泛應(yīng)用于視頻監(jiān)督, 目標(biāo)識(shí)別和圖像增強(qiáng)[4-5]。 最典型的圖像融合方法是基于多尺度變換和基于表示學(xué)習(xí)的方法。

        在多尺度變換領(lǐng)域, 比較常見的有雙樹復(fù)小波變換(dual-tree complex wavelet transform, DTCWT)[6]、 曲波變換(curvelet transform, CVT)[7]、 Tetrolet變換[8]、 脈沖耦合神經(jīng)網(wǎng)絡(luò)(pulse coupled neural network, PCNN)[9]和四階偏微分方程(fourth order partial differential equations, FPDE)[10]等。 這些方法將源圖像投影到頻率域, 增加了計(jì)算的復(fù)雜性; 并且通過預(yù)先定義好的基函數(shù)來處理圖像, 源圖像中的細(xì)節(jié)紋理信息不能夠得到很好的提取。 因此, 研究者在變換域方法的基礎(chǔ)上, 提出基于表示學(xué)習(xí)的圖像融合方法。

        在表示學(xué)習(xí)領(lǐng)域, 最常見的紅外與可見光圖像融合方法是基于字典學(xué)習(xí)和稀疏表示。 比如基于壓縮感知(compressive sensing, CS)[11]、 潛在低秩分解(latent low-rank representation, LatLRR)[12]、 稀疏表示(sparse representation, SR)[13]等方法。 其中, LatLRR方法可以將源圖像進(jìn)行分解, 得到噪音分量、 低秩分量和顯著分量三部分。 在融合的時(shí)候可以分離出噪音分量, 達(dá)到減噪效果。 SR方法通過滑動(dòng)窗口將源圖像進(jìn)行分塊, 從而減少偽影和提高誤配準(zhǔn)魯棒性。 盡管基于表示學(xué)習(xí)的方法在紅外與可見光圖像融合質(zhì)量方面已具有較好表現(xiàn), 但是該類方法相對(duì)比較復(fù)雜且字典學(xué)習(xí)過程需要耗費(fèi)大量時(shí)間。 這些因素促進(jìn)了圖像融合中深度學(xué)習(xí)方法的發(fā)展, 以機(jī)器學(xué)習(xí)取代了稀疏表示的字典學(xué)習(xí)。

        基于深度學(xué)習(xí)的圖像融合方法利用源圖像中的深層特征來產(chǎn)生融合圖像。 比如預(yù)訓(xùn)練網(wǎng)絡(luò)VGG-19[14]和Resnet50[15]來提取源圖像中的深層特征, 使得融合圖像中包含更多源圖像的細(xì)節(jié)信息和結(jié)構(gòu)信息。 隨著網(wǎng)絡(luò)層加深, 信息損失減少, 但參數(shù)選擇會(huì)愈加復(fù)雜。

        基于以上分析, 提出一種基于二尺度分解和顯著性提取的紅外與可見光圖像融合方法。 首先, 為避免高頻分量和低頻分量混合減少光暈效應(yīng), 采用二尺度分解對(duì)源紅外與可見光圖像進(jìn)行分解, 分別獲得源圖像相應(yīng)的基本層和細(xì)節(jié)層; 然后對(duì)基本層融合采用基于視覺顯著圖(visual saliency map, VSM)的加權(quán)平均融合規(guī)則, 該規(guī)則能很好提取圖像中顯著結(jié)構(gòu)和目標(biāo); 針對(duì)細(xì)節(jié)層融合采用Kirsch算子對(duì)源圖像分別提取得到顯著圖, Kirsch算子能在八個(gè)方向上快速提取圖像邊緣特征, 使顯著圖包含更多特征信息且減少噪聲; 然后通過VGG-19網(wǎng)絡(luò)對(duì)顯著圖進(jìn)行特征提取, 獲取權(quán)值圖, 并與細(xì)節(jié)層融合; 最后將融合的基本層和細(xì)節(jié)層進(jìn)行融合, 得到最終融合結(jié)果。

        1 融合方法

        融合方法結(jié)構(gòu)圖如圖1所示。 在此以兩張待融合源圖像的情況為例, 多張?jiān)磮D像的融合策略類似。 融合方法步驟如下:

        圖1 本融合方法結(jié)構(gòu)圖Fig.1 Schematic diagram of the fusion method in this paper

        (4)將融合后的基本層和細(xì)節(jié)層疊加重構(gòu), 獲得最終融合結(jié)果If。

        2 二尺度分解

        (1)

        源圖像減基本層圖像獲取最終細(xì)節(jié)層圖像

        (2)

        二尺度分解方法處理源圖像結(jié)果如圖2所示。

        圖2 二尺度分解結(jié)果(a): 源紅外圖像; (b): 紅外圖像基本層; (c): 紅外圖像細(xì)節(jié)層; (d): 源可見光圖像; (e): 可見光圖像基本層; (f): 可見光圖像細(xì)節(jié)層Fig.2 Two scale decomposition results(a): Source infrared image; (b): Infrared image base layer; (c): Infrared image detail layer; (d): Source visible image; (e): Visible image base layer; (f): Visible image detail layer

        可以看出, 基本層中主要包括紅外與可見光圖像的亮度和輪廓信息; 而細(xì)節(jié)層中主要包括紅外與可見光圖像的細(xì)節(jié)顯著特征信息以及邊緣信息。

        3 融合規(guī)則制定

        3.1 基于VSM加權(quán)平均的基本層融合規(guī)則

        基于二尺度分解的方法能有效分離高頻信息和低頻信息, 其中高頻信息對(duì)應(yīng)二尺度分解的細(xì)節(jié)層, 而低頻信息對(duì)應(yīng)二尺度分解的基本層。 基本層中包含的低頻信息控制著融合圖像的整體輪廓和對(duì)比度, 如果僅僅采用加權(quán)平均的方法, 將無法充分整合這些低頻信息, 甚至還會(huì)導(dǎo)致融合圖像對(duì)比度損失。

        本工作提出基于VSM的加權(quán)平均融合規(guī)則來融合基本層圖像。 VSM能夠清楚感知到圖片中顯著的視覺結(jié)構(gòu)、 區(qū)域和突出目標(biāo)。 將VSM方法引入基本層融合, 能夠有效避免對(duì)比度損失。

        VSM將一個(gè)像素與其他像素進(jìn)行對(duì)比來定義像素級(jí)顯著性。 像素點(diǎn)p的顯著值S(p)定義如式(3)[17]

        S(p)=|Ip-I1|+|Ip-I2|+…+|Ip-IM|

        (3)

        式(3)中,Ip為在源圖像I中某個(gè)像素點(diǎn)p的像素值,M為源圖像I中總像素?cái)?shù)。 如果在源圖像中兩個(gè)像素有相同的像素值, 那它們的顯著值也是相同的。 則式(3)可表示為

        (4)

        式(4)中,i為像素強(qiáng)度,Ni為強(qiáng)度值與i相同的像素值,L為灰度值, 設(shè)置為256。 然后, 將S(p)歸一化到[0, 1]。 VSM方法對(duì)源圖像的處理結(jié)果如圖3所示。

        圖3 VSM方法處理的結(jié)果(a): 紅外圖像; (b): VSM處理(a); (c): 可見光圖像; (d): VSM處理(c)Fig.3 The result of VSM method processing(a): Infrared image; (b): VSM of image (a); (c): Visible image; (d): VSM of image (c)

        經(jīng)VSM處理后的紅外與可見光圖像分別表示為S1和S2。 可以通過如式(5)加權(quán)平均策略獲得融合的基本層

        (5)

        式(5)中, 權(quán)值Wb定義為

        (6)

        3.2 基于Kirsch算子和VGG-19的細(xì)節(jié)層融合規(guī)則

        3.2.1 Kirsch算子構(gòu)建顯著圖

        采用Kirsch算子來生成顯著圖, 該方法能在八個(gè)方向上快速提取圖像的邊緣特征, 在保留細(xì)節(jié)邊緣和抵制噪聲方面表現(xiàn)更優(yōu)。

        Kirsch算子獲取源圖像顯著圖可表示為

        (7)

        圖4 Kirsch算子處理結(jié)果(a): 紅外圖像; (b): 紅外顯著圖; (c): 可見光圖像; (d): 可見光顯著圖Fig.4 Kirsch operator processing results(a): Infrared image; (b): Saliency map of infrared iamge; (c): Visible image; (d): Saliency map of visible image

        3.2.2 基于VGG-19網(wǎng)絡(luò)的細(xì)節(jié)層融合

        VGG-19網(wǎng)絡(luò)共有19層, 包含16個(gè)卷積層和3個(gè)全連接層。 其結(jié)構(gòu)相對(duì)較簡單, 使用3×3的卷積層和2×2的池化層, 網(wǎng)絡(luò)表現(xiàn)隨著網(wǎng)絡(luò)結(jié)構(gòu)層數(shù)增加而提升[14]。 在VGG網(wǎng)絡(luò)中, 使用多個(gè)3×3卷積核來代替較大卷積核(11×11, 7×7, 5×5), 這樣在具有相同感知野的條件下, 提升了網(wǎng)絡(luò)深度和網(wǎng)絡(luò)的效果。 VGG-19網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        圖5 VGG-19網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.5 VGG-19 network structure diagram

        圖6 VGG-19網(wǎng)絡(luò)處理過程圖Fig.6 Diagram of the VGG-19 network processing procedure

        多層融合策略的詳細(xì)步驟如下。

        首先, 基于VGG-19網(wǎng)絡(luò)提取深層特征圖, 可表示為

        (8)

        然后, 將VGG-19網(wǎng)絡(luò)提取深層特征圖轉(zhuǎn)變成活動(dòng)水平圖, 可表示為

        (9)

        (10)

        (11)

        (12)

        3.2.3 最終融合結(jié)果重構(gòu)

        將融合的基本層和細(xì)節(jié)層重構(gòu), 得到最終融合圖像為

        (13)

        4 實(shí)驗(yàn)與結(jié)果討論

        方法的實(shí)驗(yàn)平臺(tái)為: AMD(R) Ryzen(R)5 3500X 6核6線程CPU、 Geforce RTX 2070 SUPER 8G顯卡、 16G 3200MHz內(nèi)存, 仿真平臺(tái)軟件為Matlab2020a, 在win10專業(yè)版的64位操作系統(tǒng)上實(shí)驗(yàn)。 實(shí)驗(yàn)測(cè)試數(shù)據(jù)選擇四組典型的紅外與可見光圖像Kaptein_1123、 Lake、 Jeep_in_front_of_house和Man_in_doorway。 實(shí)驗(yàn)對(duì)比方法為DTCWT方法[6]、 CVT方法[7]、 FPDE方法[10]、 LatLRR方法[12]、 VGG-19方法[14]和Resnet50方法[15]。 其中, DTCWT、 CVT和LatLRR是基于多尺度分解的方法; FPDE是基于子空間的方法; VGG-19和Resnet50是基于深度學(xué)習(xí)的方法, 主要通過深度學(xué)習(xí)網(wǎng)絡(luò)獲得相應(yīng)圖像權(quán)值圖, 然后將圖像與權(quán)值圖進(jìn)行融合。 對(duì)比方法代表了目前紅外與可見光圖像融合的主流方法, 用它們與本方法對(duì)比能很好驗(yàn)證其有效性。

        為了對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行定量評(píng)價(jià), 采用信息熵(Entropy, EN)、 互信息(mutual information, MI)、 多尺度結(jié)構(gòu)相似度測(cè)量(multiscale structural similarity measure, MS-SSIM)、 差異相關(guān)和(sum of correlations of differences, SCD) 和標(biāo)準(zhǔn)差(standard deviation, SD)等典型融合指標(biāo)對(duì)結(jié)果分析。 其中, EN是基于信息論來衡量融合圖像中包含源圖像的信息量, EN越大, 則表明包含源圖像的信息越多, 但它會(huì)受到噪聲的影響, 噪聲越多, 信息熵也會(huì)越大; MI表示融合圖像與源圖像之間的相關(guān)程度, 用于衡量從源圖像傳輸?shù)侥繕?biāo)圖像的信息量, MI越大, 目標(biāo)圖像包含源圖像信息量越多, 其融合效果越好; MS-SSIM用來衡量結(jié)構(gòu)信息, 其值越大, 表明融合圖像結(jié)構(gòu)與源圖像更接近; SCD根據(jù)融合圖像與源圖像差異相關(guān)性之和來評(píng)價(jià)融合效果, 其值越大, 融合效果越好; SD是基于融合圖像的分布和對(duì)比度來衡量融合效果, 其值越大, 表明融合圖像視覺效果比較好。

        圖7為已經(jīng)預(yù)配準(zhǔn)的四組典型的紅外與可見光圖像融合結(jié)果對(duì)比圖。 圖7第一列為Kaptein_1123紅外與可見光圖像融合結(jié)果。 第一行和第二行表示待融合源圖像, 第三行到第九行分別為DTCWT方法、 CVT方法、 FPDE方法、 LatLRR方法、 VGG-19方法、 Resnet50方法以及本方法融合結(jié)果。 可以看出, DTCWT方法和CVT方法融合結(jié)果紅框內(nèi)的目標(biāo)對(duì)比度較差, 綠框內(nèi)的樹出現(xiàn)了偽影現(xiàn)象。 FPDE方法引入較多噪聲。 LatLRR方法融合結(jié)果綠框中樹的細(xì)節(jié)顯示非常模糊。 VGG-19方法、 Resnet50方法以及本方法的融合結(jié)果, 目標(biāo)信息保留較為完整, 引入噪聲和偽影較少, 但本方法在對(duì)比度、 突出目標(biāo)方面優(yōu)于其他兩種方法。 所以, 本方法在突出目標(biāo)信息、 邊緣保持和對(duì)比度方面具有很好的優(yōu)勢(shì)。

        圖7 四組典型的紅外與可見光圖像融合結(jié)果Fig.7 Four sets of typical infrared and visible image fusion results

        圖7第二列為Lake紅外與可見光圖像融合結(jié)果。 可以看出, FPDE方法在紅色框內(nèi)的目標(biāo)受可見光圖像的影響, 沒有很好的突出目標(biāo)信息。 DTCWT方法CVT方法融合結(jié)果在綠框內(nèi)草中引入了噪聲。 LatLRR融合結(jié)果在綠框內(nèi)的植物難以辨認(rèn), 只保留了輪廓特征。 VGG-19方法、 Resnet50方法以及本方法的融合結(jié)果相對(duì)較好, 但本方法更好的保持了源圖像目標(biāo)信息, 地面上的草地清晰度較高, 更好的保留目標(biāo)的邊緣信息, 視覺效果好。

        圖7第三列和第四列分別表示Jeep_in_front_of_house和Man_in_doorway紅外與可見光圖像融合結(jié)果。 可以看出, 上述融合方法均取得較好融合結(jié)果, 但相比較而言, 本方法融合結(jié)果具有很高的辨識(shí)度, 保留較多源圖像中的細(xì)節(jié)信息, 目標(biāo)比較突出邊緣特征信息完整和對(duì)比度較高。

        表1為最典型一組實(shí)驗(yàn)(第三列圖像)的五個(gè)客觀評(píng)價(jià)指標(biāo)值。 表2為四組實(shí)驗(yàn)圖像的五個(gè)客觀評(píng)價(jià)指標(biāo)平均值。 從表中可以看出, 與其他六種方法相比, 本方法在評(píng)價(jià)指標(biāo)EN, MI, MS-SSIM, SCD和SD上都有不同程度的領(lǐng)先。 從方法運(yùn)行時(shí)間上看, 本方法耗時(shí)雖然相對(duì)較高, 但是低于基于LatLRR的復(fù)雜多尺度方法, 略高于基于深度學(xué)習(xí)的VGG-19與Resnet50方法。

        表1 典型圖像的客觀評(píng)價(jià)結(jié)果(第三列圖像)Table 1 Objective evaluation results of typical images (Third column images)

        表2 圖像評(píng)價(jià)結(jié)果的指標(biāo)平均值Table 2 Average value of indicators for image evaluation results

        5 結(jié) 論

        提出一種基于二尺度分解和顯著性提取的紅外與可見光圖像融合方法。 用二尺度分解方法將源圖像分解為基本層和細(xì)節(jié)層, 針對(duì)基本層融合采用基于VSM的加權(quán)平均融合規(guī)則, 該規(guī)則有效克服直接使用加權(quán)平均策略的對(duì)比度損失問題; 針對(duì)細(xì)節(jié)層融合采用Kirsch算子獲取顯著圖, 很好保留了源圖像細(xì)節(jié)邊緣信息和抵制噪聲, 引入VGG-19網(wǎng)絡(luò)獲取權(quán)值圖, 使融合圖像中包含更多顯著細(xì)節(jié)信息。 與目前主流的紅外與可見光融合方法對(duì)比, 本融合方法結(jié)果具有高對(duì)比度、 目標(biāo)突出、 細(xì)節(jié)信息豐富和圖像邊緣特征保持較好等優(yōu)勢(shì)。

        猜你喜歡
        尺度紅外像素
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        網(wǎng)紅外賣
        閃亮的中國紅外『芯』
        金橋(2021年4期)2021-05-21 08:19:20
        財(cái)產(chǎn)的五大尺度和五重應(yīng)對(duì)
        “像素”仙人掌
        TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
        電子制作(2019年7期)2019-04-25 13:17:14
        基于快速遞推模糊2-劃分熵圖割的紅外圖像分割
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        国产精品久久久一本精品| 国产网红主播无码精品| 无码精品国产va在线观看| AV成人午夜无码一区二区| 极品少妇在线观看视频| 男女主共患难日久生情的古言| 久久综合亚洲色hezyo国产| 久久精品国产9久久综合| 青青青国产免A在线观看| 亚洲天堂av在线免费观看| 亚洲av无码专区亚洲av网站| 免费精品无码av片在线观看| 无码8090精品久久一区| 亚洲天堂中文| 女优视频一区二区三区在线观看| 亚洲国产成人久久精品不卡| 日本最大色倩网站www| 亚洲爱婷婷色婷婷五月| 国产v精品成人免费视频400条| 久久久精品少妇—二区| 欧美精品欧美人与动人物牲交| 色一情一乱一伦| 岛国AV一区二区三区在线观看| 国产麻豆剧传媒精品国产av蜜桃| 日韩美女亚洲性一区二区| 色婷婷综合久久久久中文字幕| 天躁夜夜躁狼狠躁| 韩日无码不卡| 日本黄色影院一区二区免费看| 亚洲日韩av无码一区二区三区人| 猫咪www免费人成网最新网站| 国产毛片一区二区日韩| 人妻少妇被猛烈进入中文字幕| 欧美最猛性xxxxx免费| 日本一区二区三区激情视频| 国产专区亚洲专区久久| 18禁黄污吃奶免费看网站| 丰满少妇大力进入av亚洲| 天天射色综合| 久草视频这里只有精品| 肥臀熟女一区二区三区|