亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積網(wǎng)絡(luò)實(shí)現(xiàn)圖像配準(zhǔn)與圖像融合算法的研究

        2021-09-22 21:13:17臧景峰徐寧雪
        科技研究 2021年22期
        關(guān)鍵詞:圖像融合

        臧景峰 徐寧雪

        摘要:圖像的配準(zhǔn)與融合是計(jì)算機(jī)視覺(jué)和模式識(shí)別的研究熱點(diǎn),在航拍視頻序列處理、醫(yī)學(xué)圖像分析、運(yùn)動(dòng)分析等領(lǐng)域有著廣泛的應(yīng)用。視頻增強(qiáng)技術(shù)只在去霧、圖像配準(zhǔn)、圖像融合等某一個(gè)特定任務(wù)中表現(xiàn)很好,具有一定的局限性。而卷積神經(jīng)網(wǎng)絡(luò)的堆疊和利用可以同時(shí)實(shí)現(xiàn)視頻圖像增強(qiáng)所需的多種功能。本文采用孿生結(jié)構(gòu)的深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)圖像配準(zhǔn)和圖像融合,具有重大應(yīng)用價(jià)值。

        關(guān)鍵詞:孿生結(jié)構(gòu);圖像配準(zhǔn);圖像融合

        引言

        為獲得場(chǎng)景信息更豐富的圖像,通常用到圖像配準(zhǔn)與圖像融合方法,圖像融合是將多幅不同圖像集成為一幅圖像,集成后的圖像蘊(yùn)涵著所有圖像的優(yōu)勢(shì)信息,融合算法的基礎(chǔ)是圖像的配準(zhǔn)技術(shù),深度學(xué)習(xí)具有提升圖像融合和配準(zhǔn)質(zhì)量的潛力。

        1 孿生卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)

        本文所設(shè)計(jì)的孿生卷積網(wǎng)絡(luò)(Siamese Network)由兩個(gè)權(quán)重相同的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)組成。每個(gè)CNN由兩個(gè)卷積層,兩個(gè)池化層,一個(gè)殘差塊以及一個(gè)全連接層組成的,將原本Siamese網(wǎng)絡(luò)中的一個(gè)卷積層換成了殘差塊。輸入的patch為16×16,即卷積層和池化層的通道數(shù)都是16(即卷積模板為16種),其卷積核的大小為3×3,池化窗口尺寸為2×2,卷積方式為零填充(zero padding),卷積層的激活函數(shù)為Relu,且子CNN輸出的是256維特征向量,每個(gè)池化層包括跨信道歸一單元。

        2 基于Siamese網(wǎng)絡(luò)的圖像配準(zhǔn)算法

        本文提出一種孿生結(jié)構(gòu)的深度卷積神經(jīng)網(wǎng)絡(luò)來(lái)提取圖像卷積特征,算法先逐像素地提取固定圖像和浮動(dòng)圖像的圖像塊對(duì),并利用Siamese網(wǎng)絡(luò)提取圖像塊的特征。然后將提取到的特征構(gòu)建能量損失函數(shù),通過(guò)最小化能量損失函數(shù),在得到參考圖像與待配準(zhǔn)圖像特征點(diǎn)的對(duì)應(yīng)關(guān)系后,以仿射變換模型來(lái)求解參數(shù),仿射變換計(jì)算公式為:

        在得到配準(zhǔn)變換參數(shù)后,即可將待配準(zhǔn)圖像轉(zhuǎn)換到參考圖像的坐標(biāo)系下。本文采用三次樣條插值對(duì)待配準(zhǔn)圖像進(jìn)行插值,得到與固定圖像極為接近的配準(zhǔn)后圖像。

        3 基于Siamese網(wǎng)絡(luò)的圖像融合算法

        3.1 基于Siamese網(wǎng)絡(luò)的圖像融合框架

        整個(gè)圖像融合過(guò)程可以分為兩個(gè)部分,第一個(gè)部分用Siamese網(wǎng)絡(luò)進(jìn)行圖像信息的提取得到一個(gè)權(quán)重圖,第二部分是利用小波變換分解后再融合對(duì)小波分解后的不同的子帶分別采用不同融合方法進(jìn)行處理?;赟iamese網(wǎng)絡(luò)的圖像融合框架如圖1所示 。

        先將第一部分得到的權(quán)重圖W經(jīng)過(guò)小波變換得到G{W},再將兩張待融合圖片A和B進(jìn)行小波變換分別得到W(A)和W(B),再將得到的G{W}和W(A)、W(A)分別進(jìn)行基于邊緣檢測(cè)的小波變換圖像融合,最終進(jìn)行小波逆變換得到最終的融合圖像。

        3.2 融合規(guī)則

        在小波分解這一過(guò)程中,選用Db4小波作為小波基對(duì)圖像與權(quán)值圖進(jìn)行小波變換。

        1)使用Canny邊緣檢測(cè)算法提取低頻分量中包含的邊緣輪廓細(xì)節(jié)后,對(duì)低頻分量以平均數(shù)法進(jìn)行處理,再將提取出的邊緣輪廓細(xì)節(jié)與高頻分量?jī)?nèi)相應(yīng)分辨率的點(diǎn)通過(guò)絕大值系數(shù)法進(jìn)行處理,最后通過(guò)小波逆變換得到融合圖像。低頻分量平均數(shù)法表示為:

        其中f1、f2表示原圖像分解后在對(duì)應(yīng)的(m,n)上的小波系數(shù),f3表示結(jié)果圖像在(m,n)上的小波系數(shù)。

        2)高頻系數(shù)絕大值法表示為:

        式中表示小波分解系數(shù)。對(duì)子系數(shù)以小波逆變換處理,得到融合圖像。

        4 實(shí)驗(yàn)結(jié)果

        本文方法與現(xiàn)存兩種融合方法基于導(dǎo)向?yàn)V波 (Guided Filtering,GF)的融合方法、基于小波變換(Wavelet Transform,WT)的融合方法進(jìn)行比較,且比較了原始Siamese網(wǎng)絡(luò)結(jié)構(gòu)的結(jié)果和改進(jìn)后Siamese網(wǎng)絡(luò)的結(jié)果。為了更加客觀的表示融合效果,選取了幾個(gè)客觀的圖像融合評(píng)價(jià)標(biāo)準(zhǔn)?;バ畔?(MI),平均梯度 (AG),邊緣強(qiáng)度 (ES),最后給出了所有的方法在 CPU 上的運(yùn)行時(shí)間作參考。對(duì)比結(jié)果如表1所示。

        從表 1中可見(jiàn),本文所用方法融合后圖像的MI和AG的數(shù)值都要大于用GF和WT的數(shù)值,說(shuō)明本文所提方法融合后圖像包含原圖像的信息度上和清晰度上都要優(yōu)于GF和WT的融合圖像。與原始Siamese網(wǎng)絡(luò)結(jié)構(gòu)對(duì)比,運(yùn)行時(shí)間明顯減少。綜上所述,本文所提出的方法是具有一定的實(shí)用性的。

        5 結(jié)論

        本文提出了一種基于改進(jìn)的Siamese網(wǎng)絡(luò)的圖像配準(zhǔn)與融合方法,將原本Siamese網(wǎng)絡(luò)中的一個(gè)卷積層換成了殘差塊,比原本的算法更為簡(jiǎn)略,并且實(shí)驗(yàn)所用的時(shí)間更短,實(shí)現(xiàn)了像素級(jí)的圖像融合。

        參考文獻(xiàn)

        [1]王金寶.基于圖像融合的實(shí)時(shí)全景融合模型的設(shè)計(jì)與實(shí)現(xiàn)[D].中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院沈陽(yáng)計(jì)算技術(shù)研究所),2019.

        [2]李增祥,漆志亮,賈楠,等.基于小波圖像金字塔的工件目標(biāo)檢測(cè)與定位研究.現(xiàn)代電子技術(shù),2019,42(15):33–37.

        [3]孔韋韋,雷陽(yáng),任聰,趙文陽(yáng).基于改進(jìn)型CNN的多聚焦圖像融合方法[J].鄭州大學(xué)學(xué)報(bào)(理學(xué)版),2019,51(02):29-33.

        [4]Zhang Y,Liu Y,Sun P,etal.IFCNN:A general image fusion framework based on convolutional neural network.Information Fusion,2020,54:99-118.

        [5]Eppenhof K A J,Lafarge M W,Moeskops P,etal.Deformable image registration using convolutional neural networks[C].Medical Imaging 2018:Image Processing.

        基金項(xiàng)目:吉林省教育廳科學(xué)研究項(xiàng)目(JJKH20210839KJ),雨霧場(chǎng)景中基于卷積神經(jīng)網(wǎng)絡(luò)的視頻圖像增強(qiáng)方法研究

        猜你喜歡
        圖像融合
        基于區(qū)域匹配度的拉普拉斯金字塔圖像融合算法
        基于小波變換的多模態(tài)醫(yī)學(xué)圖像的融合方法
        PCA與小波變換的ECT圖像融合方法
        灰色關(guān)聯(lián)度在紅外與微光圖像融合質(zhì)量評(píng)價(jià)中的應(yīng)用研究
        林火安防預(yù)警與應(yīng)急處理系統(tǒng)設(shè)計(jì)
        基于Matlab的遙感圖像IHS小波融合算法的并行化設(shè)計(jì)
        科技視界(2016年11期)2016-05-23 08:13:35
        Contourlet變換系數(shù)加權(quán)的醫(yī)學(xué)圖像融合
        科技視界(2015年30期)2015-10-22 10:32:37
        一種新的IHS圖像多次融合的方法
        農(nóng)業(yè)物聯(lián)網(wǎng)雙光譜熱成像圖像融合模型設(shè)計(jì)
        基于壓縮感知的圖像融合方法
        亚洲中文av中文字幕艳妇| 婷婷激情六月| 久久久久久久久久久国产| 久久精品国产亚洲精品| 国产精品国产三级国产专区5o| 激情视频在线播放一区二区三区| 精品人妻一区二区三区浪人在线 | 亚洲av无码精品色午夜app| 亚洲日韩v无码中文字幕| 亚洲国产精品尤物yw在线观看| jlzzjlzz全部女高潮| 亚洲AV小说在线观看| 男女搞黄在线观看视频 | 国产精品久久久久免费a∨不卡| 日本女u久久精品视频| 无码中文字幕人妻在线一区| 亚洲裸男gv网站| 毛片在线播放a| 樱花AV在线无码| 丰满人妻被猛烈进入中文字幕护士| 久久精品国产亚洲av一般男女| 在线视频国产91自拍| 成人亚洲精品777777| 亚洲熟妇av乱码在线观看| 国产日本在线视频| 国产av区亚洲av毛片| 国产一区二区三区的区| 人妻少妇出轨中文字幕| 亚洲饱满人妻视频| 视频精品亚洲一区二区| 蜜桃久久综合一区二区| 国产亚洲美女精品久久久2020| 无码日韩精品一区二区三区免费| 久久成人麻豆午夜电影| 亚洲中文字幕乱码一二三区| 国产青青草自拍视频在线播放| 国产一区二区av免费在线观看| 亚洲色欲色欲www| 中文字幕久久久久久久系列| 国内偷拍精品一区二区| 亚洲youwu永久无码精品|