亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于梯度域?qū)驗(yàn)V波器和改進(jìn)PCNN的圖像融合算法

        2022-08-18 01:42:32何自豪
        關(guān)鍵詞:融合評價方法

        王 健, 何自豪, 劉 潔, 楊 珂

        (1. 西北工業(yè)大學(xué)電子與信息學(xué)院, 陜西 西安 710129;2. 西北工業(yè)大學(xué)第365所, 陜西 西安 710065)

        0 引 言

        隨著圖像融合技術(shù)發(fā)展迅速發(fā)展,為充分利用源圖像的空間信息,基于空間域的圖像融合方法得到大量的研究??臻g域圖像融合方法在一定程度上提高了空間和光譜信息的保持性能,但大多計(jì)算復(fù)雜度較高,不能滿足實(shí)時性要求。引導(dǎo)濾波是近幾年提出的高實(shí)時性圖像邊緣保持濾波,因其算法時間復(fù)雜度與窗口大小無關(guān),使得處理圖片時效率高,并有更好邊緣保持特性。在He等人首次提出引導(dǎo)濾波算法基礎(chǔ)上,Li等人將引導(dǎo)濾波與圖像融合相結(jié)合,以高計(jì)算效率獲得更好結(jié)果。江澤濤等人將改進(jìn)的引導(dǎo)濾波和雙通道脈沖發(fā)放皮層模型相結(jié)合,提出紅外與可見光圖像融合算法,但該方法引導(dǎo)濾波權(quán)重因子為常數(shù),易導(dǎo)致圖像邊緣處細(xì)節(jié)信息模糊。Pei等人提出基于引導(dǎo)濾波和稀疏表示的雙尺度多模態(tài)醫(yī)學(xué)圖像融合,使醫(yī)學(xué)圖像融合的細(xì)節(jié)更豐富,特征更突出。雖然引導(dǎo)濾波可以提高性能、加快速度、保持圖像邊緣,但是由于濾波過程窗口是區(qū)域性選擇,易在圖像融合過程中引入光暈,因此我們使用梯度域?qū)驗(yàn)V波(gradient domain guided filtering, GDGF)作為改進(jìn)。

        仿生物視覺機(jī)理的脈沖耦合神經(jīng)網(wǎng)絡(luò)(pulse-coupled neural network,PCNN),因能較好模擬人眼視覺神經(jīng)系統(tǒng),已被廣泛應(yīng)用于圖像融合。Broussard等人首先將PCNN應(yīng)用于圖像融合,驗(yàn)證PCNN圖像融合的可行性。王健等人將增補(bǔ)小波變換和PCNN的融合,能夠保留源圖像細(xì)節(jié)信息。Gai等人提出了一個改進(jìn)的基于量子蜂群優(yōu)化的PCNN(quantum-behaved particle swarm optimisation based PCNN, IQPSO-PCNN),在非下采樣剪切波變換(non-subsample shearlet transform, NSST)域中進(jìn)行醫(yī)學(xué)圖像融合。雖然圖像邊緣仍有小光暈,但上述利用PCNN的方法均得到較好融合效果。

        為得到更好的圖像融合結(jié)果,避免光暈偽影的出現(xiàn),本文提出一種基于GDGF和改進(jìn)的PCNN的圖像融合算法,充分利用導(dǎo)向?yàn)V波器的邊緣平滑和邊梯度保持等特性,以及PCNN模型的全局耦合和脈沖同步性。實(shí)驗(yàn)結(jié)果表明,本文方法不僅更好地保留了圖像邊緣、紋理和細(xì)節(jié)信息,避免了目標(biāo)邊緣的光暈偽影現(xiàn)象,而且在主觀效果和客觀評價上均優(yōu)于一些常用的圖像融合方法。

        1 相關(guān)理論

        1.1 GDGF

        導(dǎo)向?yàn)V波(guided filtering, GF)通過引入引導(dǎo)圖像,實(shí)現(xiàn)邊緣平滑和邊緣梯度保持的功能,但是依然無法準(zhǔn)確表示圖像邊緣信息,從而導(dǎo)致處理后的圖像出現(xiàn)偽影。因此,Li等人提出權(quán)重導(dǎo)向?yàn)V波方法,通過引入邊緣感知因子減少圖像偽影。但由于算法沒有明確的約束條件約束邊緣,也沒有同時考慮邊緣保留和圖像濾波,因此不能很好地保持邊緣,圖像依然會出現(xiàn)偽影。

        GDGF是Kou等人在權(quán)重導(dǎo)向?yàn)V波基礎(chǔ)上提出的優(yōu)化方法,該方法引入一階邊緣感知約束,使濾波過程可以更準(zhǔn)確表示圖像邊緣,同時性能也有所提高。

        GDGF假設(shè)引導(dǎo)圖像和輸出圖像之間存在局部線性關(guān)系并引入一階邊緣感知約束(),其定義為

        (1)

        式中:()為,1()和,()的乘積,,1()和,()分別為引導(dǎo)圖像在大小為3×3和(2+1)×(2+1)的窗口的方差;為像素總數(shù);為一個常數(shù),通常為(0001×),其中為輸入圖像的動態(tài)范圍。

        ()可以衡量像素相對于引導(dǎo)圖像的比重,從而更準(zhǔn)確檢測邊緣。因此,輸出圖像和輸入圖像之間的最小差值變?yōu)?/p>

        (2)

        式中:為正則化參數(shù),本文=10;為線性變換系數(shù)。定義為

        (3)

        式中:,∞為()的均值;由下式求得

        (4)

        因此,線性變換系數(shù)的最優(yōu)解為

        (5)

        =,()-,()

        (6)

        由于多個局部窗口可能包含同一個像素點(diǎn),即同一個像素點(diǎn)用不同局部線性函數(shù)表示,因此計(jì)算包含在不同局部線性函數(shù)中的某像素點(diǎn)的輸出值只需要對包含該像素點(diǎn)的所有局部線性函數(shù)進(jìn)行平均操作,即:

        (7)

        (8)

        (9)

        為便于描述,本文將GDGF操作表示為GDGF(,),表示濾波器窗口的大小,和分別表示輸入圖像和引導(dǎo)圖像。

        1.2 改進(jìn)的PCNN

        PCNN是由Eckhorn等人根據(jù)小型哺乳動物的大腦神經(jīng)能夠產(chǎn)生同步脈沖的現(xiàn)象提出來的,是一種單層、二維、橫向連接的新型的人工神經(jīng)網(wǎng)絡(luò),其每個神經(jīng)元不需要任何訓(xùn)練。

        在一個二維網(wǎng)絡(luò)中任何神經(jīng)元由(,)表示,其中和表示(,)的位置坐標(biāo)。當(dāng)PCNN應(yīng)用于圖像處理領(lǐng)域時,PCNN的大小等于二維圖像的輸入大小,即像素點(diǎn)與神經(jīng)元一一對應(yīng)。PCNN的神經(jīng)元模型如圖1所示,其可以通過如下方程式進(jìn)行數(shù)學(xué)描述。

        (10)

        (11)

        []=[](1+[])

        (12)

        []=e-[-1]+[-1]

        (13)

        (14)

        式中:[]表示反饋輸入;[]表示鏈接輸入;[]表示內(nèi)部激活狀態(tài);[]表示動態(tài)閾值;[]表示輸出;表示上一次迭代的輸出;表示迭代數(shù)目;表示(,)的外部輸入刺激;系數(shù)表示權(quán)值系數(shù)矩陣;、分別表示[]、[]和[]的衰減時間常數(shù);、分別表示[]、[]和[]的固有電壓,為一常數(shù);表示連接系數(shù)。

        圖1 PCNN經(jīng)典模型Fig.1 PCNN classic model

        上述的PCNN經(jīng)典模型在圖像處理領(lǐng)域?qū)嶋H應(yīng)用中存在部分問題。首先,反饋部分[]和連接部分[]的功能有互相重疊,均用于接收臨近的神經(jīng)元,這導(dǎo)致計(jì)算量增加;其次,在模型中PCNN的動態(tài)閾值[]初始值通常設(shè)置為0,沒有充分利用輸入圖像的細(xì)節(jié)信息;最后,該模型的輸出在實(shí)際應(yīng)用中沒有意義。

        為解決上述問題,本文在經(jīng)典模型基礎(chǔ)上采用改進(jìn)的PCNN模型,模型如圖2所示。

        圖2 改進(jìn)的PCNN模型Fig.2 Improved PCNN model

        首先,動態(tài)閾值的初值由輸入圖像的拉普拉斯算子確定,與其他初始值設(shè)為0的PCNN模型相比,能夠更充分利用輸入圖像的細(xì)節(jié)信息,即:

        (15)

        式中:表示輸入矩陣中的最大值;表示與對應(yīng)迭代次數(shù)的輸入;表示拉普拉斯算子,其計(jì)算值為

        (16)

        其次,在該模型中,只有連接部分接收相鄰神經(jīng)元,反饋部分不接收,從而減小計(jì)算量,即:

        =

        (17)

        最后,在改進(jìn)的模型中,最后的輸出由經(jīng)典模型中的輸出進(jìn)行加權(quán)求和,這樣與其他模型相比可以更精確地進(jìn)行圖像融合。其數(shù)學(xué)表達(dá)式為

        (18)

        式中:為最終的輸出;為迭代次數(shù);其他符號含義均不變。

        2 基于GDGF和改進(jìn)PCNN的圖像融合算法

        2.1 融合算法原理

        本文所提算法的原理圖如圖3所示。首先,根據(jù)圖像結(jié)構(gòu)顯著性、清晰度顯著性以及對比度顯著性3個互補(bǔ)的圖像特征對源圖像進(jìn)行檢測,得到初始決策圖;其次,為充分利用圖像空間一致性并抑制圖像中塊效應(yīng),采用GDGF對初始決策圖進(jìn)行優(yōu)化,得到優(yōu)化決策圖;然后,為使融合圖像更符合人眼視覺特性,采用改進(jìn)的PCNN對優(yōu)化的決策圖進(jìn)行處理,得到最終的融合權(quán)重圖;最后,根據(jù)最終的融合權(quán)重圖對源圖像進(jìn)行加權(quán)融合,得到最終的融合圖像。

        圖3 基于GDGF和改進(jìn)PCNN的圖像融合算法原理圖Fig.3 Principle diagram of image fusion algorithm based on gradient domain guided filtering and improved PCNN

        2.2 多視覺特征的初始決策圖構(gòu)造

        根據(jù)文獻(xiàn)[18]的描述,圖像清晰度、對比度以及結(jié)構(gòu)顯著性是對圖像質(zhì)量的3個重要評價特征。因此,本文將初始決策圖分為輸入圖像的3個關(guān)鍵評價特征進(jìn)行構(gòu)造:清晰度決策圖、對比度決策圖以及結(jié)構(gòu)顯著性決策圖。

        (1) 清晰度決策圖

        清晰度是評價圖像的一個重要特征。在圖像處理領(lǐng)域,圖像清晰度可以通過滑動窗進(jìn)行局部清晰度衡量得到。

        對于圖像中每一個像素,圖像的拉普拉斯能量值是通過對算子進(jìn)行平方操作,然后再局部平均得到。因此,源圖像清晰度數(shù)學(xué)表達(dá)式為

        (19)

        (20)

        通過上述方法得到的清晰度圖能夠真實(shí)反應(yīng)圖像細(xì)節(jié)信息(高頻信息),同時也表示圖像邊緣變化和清晰度信息。因此,圖像清晰度決策圖可以表示為

        (21)

        (2) 對比度決策圖

        人眼視覺系統(tǒng)(human visual system,HVS)對單獨(dú)像素變化沒有太多感受,但對某個局部范圍內(nèi)像素變化十分敏感。本文采用局部對比度方式構(gòu)造對比度決策圖,能夠充分利用圖像局部特征,又滿足視覺系統(tǒng)特性。因此,源圖像局部對比度數(shù)學(xué)表達(dá)式為

        (22)

        =LC*,

        (23)

        對比度圖能較好表示顯著性層次的細(xì)節(jié)信息,對比度顯著性越高,圖像融合效果越好。因此,圖像對比度決策圖可以表示為

        (24)

        (3) 結(jié)構(gòu)顯著性決策圖

        HVS適用于源圖像中提取結(jié)構(gòu)信息,本文通過引入結(jié)構(gòu)顯著性模型來構(gòu)建結(jié)構(gòu)顯著性決策圖。圖像局部結(jié)構(gòu)與梯度協(xié)方差關(guān)系密切,因此基于局部窗口的梯度協(xié)方差矩陣表示為

        (25)

        式中:()和()分別表示點(diǎn)=(,)沿和方向的梯度。為了得到圖像局部結(jié)構(gòu)描述,對上述梯度協(xié)方差矩陣進(jìn)行特征值分解:

        (26)

        圖像局部結(jié)構(gòu)與對應(yīng)矩陣特征值有關(guān)。圖像局部結(jié)構(gòu)的顯著性測量方法能夠?qū)D像結(jié)構(gòu)進(jìn)行穩(wěn)定描述,對模糊和隨機(jī)噪聲都具有魯棒性。同時,其適用于所有類型的結(jié)構(gòu),如脊、邊和角。因此,圖像結(jié)構(gòu)顯著性的定義為

        (27)

        式中:用于確定結(jié)構(gòu)中邊角的重要性,>-1。

        結(jié)構(gòu)顯著圖不僅可以反映圖像局部結(jié)構(gòu)顯著性,而且能夠反映HVS對不同結(jié)構(gòu)刺激的判別響應(yīng)。圖像結(jié)構(gòu)顯著性決策圖可以表示為

        (28)

        輸入一對多聚焦源圖像1和源圖像2,源圖像1的多視覺特征和多視覺特征初始決策圖如圖4所示。源圖像2的多視覺特征和多視覺特征初始決策圖如圖5所示。

        圖5 源圖像2的多視覺特征圖及初始決策圖Fig.5 Multi-visual feature map and initial decision map of source image 2

        2.3 基于GDGF的決策圖優(yōu)化

        (29)

        (30)

        式中:和為GDGF的參數(shù);=1,2,3。

        (31)

        (32)

        式中:,表示大小為(2+1)×(2+1),標(biāo)準(zhǔn)差為的高斯濾波器,根據(jù)文獻(xiàn)[13]的設(shè)置,取=20,=5。

        通過結(jié)合上述特征決策圖,源圖像優(yōu)化決策圖如圖6所示。即:

        (33)

        (34)

        圖6 源圖像的優(yōu)化決策圖Fig.6 Optimized decision diagram for source images

        對上述近似分量和細(xì)節(jié)分量的決策圖進(jìn)行加權(quán)處理獲得最終融合分量,即:

        (35)

        (36)

        最后,將融合的近似分量和細(xì)節(jié)分量相加得到最優(yōu)決策圖,如圖7(a)所示。即:

        (37)

        圖7 決策圖優(yōu)化及融合Fig.7 Decision map optimization and fusion

        2.4 基于改進(jìn)PCNN的融合權(quán)重圖構(gòu)造

        為得到圖像融合權(quán)重圖,采用改進(jìn)PCNN算法來從源圖像中準(zhǔn)確提取信息。首先將外部激勵輸入到改進(jìn)PCNN中。改進(jìn)PCNN具體實(shí)施步驟如下。

        將外部激勵歸一化到[0,1]范圍中。

        初始化相關(guān)的參數(shù)和矩陣:=1,==0,動態(tài)閾值的初值由式(15)計(jì)算得到。

        利用式(17)、式(12)~式(14)和式(18)計(jì)算輸入、內(nèi)部激活狀態(tài)、動態(tài)閾值、輸出以及輸出加權(quán)。

        如果式(14)計(jì)算得到=0,則進(jìn)行下一步計(jì)算;如果≠0,則令=+1,并退回步驟3進(jìn)行循環(huán)。

        根據(jù)式(18)計(jì)算改進(jìn)PCNN的輸出,并將歸一化到[0,1],即:

        (38)

        根據(jù)得到一個融合映射圖,即:

        (39)

        2.5 圖像融合

        根據(jù)融合映射圖生成最終融合圖像,如圖7(b)所示。首先,計(jì)算融合映射圖和源圖像之間差的絕對值,表達(dá)式如下:

        (40)

        (41)

        (42)

        3 實(shí)驗(yàn)結(jié)果與驗(yàn)證分析

        3.1 實(shí)驗(yàn)設(shè)置

        為檢驗(yàn)本文提出算法有效性,分別與混合多尺度分解(hybrid multi-scale decomposition, HMSD)、非下采樣輪廓波變換和PCNN(non-subsampled contourlet transform and pulse coupled neural network, NSCT-PCNN)相結(jié)合、多尺度變換和稀疏表示(multi-scale transform and sparse representation, MST-SR)相結(jié)合、基于相位與局部能量的變換域圖像融合算法(用文獻(xiàn)[24]指代)以及基于多尺度分解(用文獻(xiàn)[25]指代)進(jìn)行比較,并從主觀和客觀層面進(jìn)行分析。本文采用多聚焦、醫(yī)學(xué)和紅外與可見光3類圖像進(jìn)行實(shí)驗(yàn),每類3組圖像數(shù)據(jù)集,分別如圖8所示,測試圖像大小為256×256。在中,由于導(dǎo)向?yàn)V波對參數(shù)選擇依賴性不大,本文采用文獻(xiàn)[26]中的參數(shù)設(shè)置,即:=3,=7。根據(jù)文獻(xiàn)[27]的分析,上述參數(shù)設(shè)置對大多數(shù)圖像具有普適性,能得到較好的融合結(jié)果。在改進(jìn)的脈沖耦合神經(jīng)網(wǎng)絡(luò)中,=[05,1,05;1,0,1;05,1,05],=01,=1,=02,=1,=2 000。其中,必須足夠大,以確保允許PCNN的每個神經(jīng)元進(jìn)行一次計(jì)算,上述參數(shù)均通過大量實(shí)驗(yàn)經(jīng)驗(yàn)獲得。其他對比方法的參數(shù)設(shè)置均采用對比文獻(xiàn)所給出的最優(yōu)參數(shù)。本章實(shí)驗(yàn)環(huán)境為Intel(R) Core(TM) i3-8350 CPU @3.4 GHz,內(nèi)存為16 GB,采用Matlab R2016a編程。

        3.2 多聚焦圖像融合實(shí)驗(yàn)與分析

        將本文的方法分別與基于HMSD、NSCT-PCNN、MST-SR、文獻(xiàn)[24]、文獻(xiàn)[25]的方法進(jìn)行對比,結(jié)果如圖9所示,其中圖9(a1)、(b1)、(c1)基于HMSD圖像融合結(jié)果,圖9(a2)、(b2)、(c2)基于NSCT-PCNN圖像融合結(jié)果,圖9(a3)、(b3)、(c3)基于MST-SR圖像融合結(jié)果,圖9(a4)、(b4)、(c4)基于文獻(xiàn)[24]融合結(jié)果,圖9(a5)、(b5)、(c5)基于文獻(xiàn)[25]融合結(jié)果,圖9(a6)、(b6)、(c6)基于本文算法圖像融合結(jié)果。

        (1) 主觀評價

        由圖9知通過HMSD方法獲得的融合圖像(見圖9(a1)、(b1)所示)在聚焦與非聚焦過渡區(qū)域出現(xiàn)塊效應(yīng);盡管基于NSCT-PCNN的方法分別保留了基于NSCT方法的多方向性信息優(yōu)點(diǎn)和基于PCNN方法的利于視覺感知優(yōu)點(diǎn),但通過NSCT-PCNN方法得到的融合圖像會產(chǎn)生偽影現(xiàn)象,不能準(zhǔn)確提取聚焦區(qū)域邊界信息(見圖9(a2)、(b2)、(c2)所示);通過MST-SR方法獲得的融合圖像(見圖9(a3)、(b3)、(c3)所示)存在振鈴效應(yīng)并且圖像對比度也在一定程度上被弱化;文獻(xiàn)[24]對圖像邊緣的融合處理略有瑕疵,產(chǎn)生輕微模糊(見圖9(a4)、(c4)所示);文獻(xiàn)[25]融合圖像邊緣出現(xiàn)偽影(見圖9(a5)、(b5))。相比之下,本文提出的方法在3組圖像中沒有明顯錯誤,得到的融合圖像能從源圖像中準(zhǔn)確提取邊緣信息且聚焦信息保存完整、對比度高、聚焦與非聚焦區(qū)域過渡自然且魯棒性高,因此更利于視覺觀察。

        (2) 客觀評價

        上述主觀評價會受到主觀因素影響,為了更客觀評價本文提出算法的有效性和適用性,將采用圖像融合的客觀評價指標(biāo)信息熵、圖像梯度、結(jié)構(gòu)相似性以及視覺感知,對本文所提方法和7種對比方法進(jìn)行融合圖像的客觀評價,以此來評價不同圖像融合方法的融合性能。表1給出了3組多聚焦圖像的融合結(jié)果的客觀評價值,其中加粗的數(shù)值代表最優(yōu)的結(jié)果。

        表1 3組多聚焦圖像在不同融合方法下融合結(jié)果的客觀評價指標(biāo)

        由上述客觀評價指標(biāo)可以看到:對于第1組融合圖像,本文算法的和值最大,基于MST-SR融合方法的最大,文獻(xiàn)[25]的最大;對于第2組融合圖像,本文算法的、和值最大,文獻(xiàn)[25]的值最大;對于第3組融合圖像,本文算法的、值最大,基于HMSD融合方法的值最大, 基于MST-SR融合方法的最大。雖然本文算法在客觀評價的個別評價指標(biāo)略低于其他方法,但綜合主觀感受和客觀評價,本文的方法是最優(yōu)的,其不僅能夠保留圖像的細(xì)節(jié)信息,而且更利于人類的視覺感知。

        3.3 醫(yī)學(xué)圖像融合實(shí)驗(yàn)與分析

        對醫(yī)學(xué)圖像融合,并將本文的方法分別與基于HMSD、NSCT-PCNN、MST-SR、文獻(xiàn)[24]以及文獻(xiàn)[25]的方法進(jìn)行對比,結(jié)果如圖10所示。

        圖10 3組醫(yī)學(xué)圖像在不同融合方法下的結(jié)果圖Fig.10 Results of three sets of medical images under different fusion methods

        (1) 主觀評價

        由圖10知道HMSD方法獲得的融合圖像雖然整體效果好但是仍有細(xì)節(jié)信息丟失(見圖10(a1)邊緣區(qū)域);NSCT-PCNN方法獲得的融合圖像整體存在模糊,不利于視覺感知和計(jì)算機(jī)處理(見圖10(a2)、(b2)),且細(xì)節(jié)信息丟失(見圖10(c2));MST-SR方法獲得的融合圖像存在塊效應(yīng)(見圖10(a3));文獻(xiàn)[24]的邊緣細(xì)節(jié)處理仍有模糊(見圖10(c4));文獻(xiàn)[25]融合圖像的明暗對比度不明顯(見圖10(b5))。本文提出的方法在3組圖像中從視覺效果上均優(yōu)于其他7種對比方法,得到的融合圖像不僅保存了圖像中的細(xì)節(jié)信息,而且更利于視覺感知。

        (2) 客觀評價

        表2給出了3組醫(yī)學(xué)圖像的融合結(jié)果的客觀評價值,其中加粗的數(shù)值代表最優(yōu)的結(jié)果。由表2可知:雖然對于第1組融合圖像,本文算法只有值最大,但是對于第2組和第3組融合圖像,本文算法的、和值均為最大,所以綜合主觀感受和客觀評價,本文的方法仍是最優(yōu)的,其不僅能夠保留圖像的細(xì)節(jié)信息,而且更利于人類的視覺感知。

        表2 3組醫(yī)學(xué)圖像在不同融合方法下的客觀評價指標(biāo)

        3.4 紅外與可見光圖像融合實(shí)驗(yàn)與分析

        對紅外與可見光圖像融合,并將本文的方法分別與基于HMSD、NSCT-PCNN、MST-SR、文獻(xiàn)[24]以及文獻(xiàn)[25]的方法進(jìn)行對比,結(jié)果如圖11所示。

        圖11 3組紅外與可見光圖像在不同融合方法下結(jié)果圖Fig.11 Results of three sets of infrared and visible images under different fusion methods

        (1) 主觀評價

        由圖11知道HMSD方法獲得的融合圖像的對比度有所降低(見圖11(a1)所示);NSCT-PCNN方法獲得的融合圖像存在模糊(見圖11(a2)中建筑輪廓,圖11(b2)中路燈出現(xiàn)模糊,圖11(b2)中葉子邊緣輪廓)并且細(xì)節(jié)信息有所丟失;MST-SR方法獲得的融合圖像存在邊緣現(xiàn)象丟失以及圖像模糊(見圖11(b3)中路燈);文獻(xiàn)[24]融合圖像細(xì)微模糊(見圖11(b4)、(c4));文獻(xiàn)[25]明暗對比不明顯,細(xì)節(jié)信息有所丟失(見圖11(a5)中的小人、(b5)中的路燈)。本文提出的方法對上述3組圖像的融合視覺效果均優(yōu)于其他7種對比方法,所得融合圖像不僅表示出可見光圖像中的細(xì)節(jié)信息;而且表示出紅外圖像中的目標(biāo)信息。

        (2) 客觀評價

        表3給出了3組紅外與可見光圖像的融合結(jié)果的客觀評價值,其中加粗?jǐn)?shù)值代表最優(yōu)的結(jié)果。

        表3 3組紅外與可見光圖像在不同融合方法下的客觀評價指標(biāo)

        由表3可知:對于第1組和第2組融合圖像,本文算法的和值均為最大,基于MWGF的融合方法的值最大;對于第3組融合圖像,本文算法的和值最大,因此綜合主觀感受和客觀評價,本文的方法是最優(yōu)的,不僅能夠保留圖像的細(xì)節(jié)信息,而且更利于視覺感知。

        4 結(jié)束語

        本文提出一種基于GDGF和改進(jìn)的PCNN的圖像融合算法。首先,該算法利用圖像結(jié)構(gòu)、清晰度以及對比度顯著性這3個互補(bǔ)的圖像特征作為關(guān)鍵因素構(gòu)建圖像融合模型。其次,采用GDGF來取代傳統(tǒng)的優(yōu)化方法。然后,將優(yōu)化決策圖作為外部輸入刺激改進(jìn)PCNN模型,得到更利于視覺感知的融合權(quán)重圖。最后,對源圖像和得到的融合權(quán)重圖進(jìn)行加權(quán)操作得到最終融合圖像。實(shí)驗(yàn)結(jié)果表明,本文方法在主觀效果和客觀評價上均優(yōu)于其他幾種常用圖像融合方法,不僅更好地保留了圖像的邊緣、紋理和細(xì)節(jié)信息,避免了目標(biāo)邊緣的光暈偽影現(xiàn)象,而且更利于視覺觀察,獲得很好的融合效果。

        猜你喜歡
        融合評價方法
        村企黨建聯(lián)建融合共贏
        SBR改性瀝青的穩(wěn)定性評價
        石油瀝青(2021年4期)2021-10-14 08:50:44
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        可能是方法不對
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        捕魚
        基于Moodle的學(xué)習(xí)評價
        中文无码免费在线| 丰满人妻熟妇乱又伦精品软件 | 国产自拍在线视频91| 少妇高潮无套内谢麻豆传| 在教室伦流澡到高潮h麻豆| 精品国产高清a毛片| 亚洲精品天堂日本亚洲精品| 日本真人边吃奶边做爽电影| 久久精品国产第一区二区三区| 中文字幕AⅤ人妻一区二区 | 一区二区日韩国产精品| 亚洲中文字幕熟女五十| 女人av天堂国产在线| 日本高清视频www| 婷婷亚洲国产成人精品性色| 午夜精品人妻中字字幕| 无码专区人妻系列日韩精品 | 99久久久精品国产性黑人| 久久伊人亚洲精品视频 | 久久99亚洲网美利坚合众国| 午夜视频一区二区三区四区| 美女福利视频在线观看网址| 国产成人精品无码片区在线观看| 亚洲自偷自拍熟女另类| 久久亚洲国产精品123区| 日韩av一区二区三区精品久久 | 中文字幕在线日韩| 精品女同一区二区三区亚洲| 国产69精品久久久久9999apgf | 久久久久亚洲av成人片| 超薄肉色丝袜一区二区| 蜜桃一区二区三区自拍视频| 女人av天堂国产在线| a级毛片成人网站免费看| 加勒比在线一区二区三区| 久久99精品久久只有精品| 人妻无码一区二区三区免费| 一区二区三区日韩亚洲中文视频| 一区二区三区夜夜久久| 天天躁夜夜躁av天天爽| 免费现黄频在线观看国产 |