亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于奇異值分解的PCNN 紅外與可見光圖像融合

        2015-03-21 10:01:04陳廣秋高印寒韓澤宇
        液晶與顯示 2015年1期
        關(guān)鍵詞:神經(jīng)元矩陣強度

        陳廣秋,高印寒,段 錦,韓澤宇,才 華

        (1.吉林大學(xué) 儀器科學(xué)與電氣工程學(xué)院,吉林 長春130061;2.吉林大學(xué) 汽車仿真與控制國家重點實驗室,吉林 長春130022;3.長春理工大學(xué) 電子信息工程學(xué)院,吉林 長春130022)

        1 引 言

        紅外與可見光是兩類不同模態(tài)的傳感器,紅外傳感器通過探測物體自身的熱輻射產(chǎn)生圖像,能夠顯示隱藏的熱目標(biāo),且受外界干擾因素影響較小,但圖像對比度較低,目標(biāo)與場景的細節(jié)反映能力差,不符合人的視覺習(xí)慣;可見光成像傳感器是通過捕獲物體的反射光產(chǎn)生圖像,具有高分辨率的細節(jié)信息,但易受天氣、煙霧、照度等因素影響,不能全天候工作。將兩者結(jié)合使用,相互取長補短便可以發(fā)揮各自的優(yōu)勢,提高圖像的質(zhì)量,改善人們的視覺效果,增加圖像中的信息量及可靠性,顯現(xiàn)出目標(biāo)更加全面的特性,為決策者提供更可靠、更準(zhǔn)確的分析結(jié)果。因此,紅外與可見光圖像融合在軍事和安全監(jiān)控等領(lǐng)域有著廣泛的應(yīng)用。

        根據(jù)圖像處理域的不同,目前圖像融合算法主要分兩類:基于空間域的融合算法和基于變換域的融合算法[1]。前者是直接在圖像的像素灰度空間利用一定的算法進行融合;主要有加權(quán)、主成分分析(PCA)、HIS 變換和神經(jīng)網(wǎng)絡(luò)等算法;后者是先對源圖像進行變換,然后再對變換得到的系數(shù)利用各種融合策略進行組合,得到融合圖像的變換系數(shù),最后通過逆變換得到融合圖像;主要包括各種金字塔、小波、Curvelet、Controulet等變換。由于多尺度變換具有空頻域分析圖像的能力成為變換域圖像融合常用的方法及研究熱點[2-4]。對空間域的融合算法,在圖像融合發(fā)展早期研究較多[5-8],近年來對其研究較少。但基于空間域的融合算法復(fù)雜度低,便于硬件實施[9-10],融合效果可以通過優(yōu)化算法進行提高。另外,多數(shù)空間域融合算法可以直接應(yīng)用到變換域作為變換系數(shù)的融合策略,尤其近年來,研究多尺度與脈沖耦合神經(jīng)網(wǎng)絡(luò)(Pulse Coupled Neural Networks,PCNN)結(jié)合的相關(guān)融合算法逐漸升溫[11-12],所以有必要對空間域基于PCNN 的融合算法作進一步研究,以提高融合精度,同時為多尺度分解及硬件實施提供一種新算法。

        脈沖耦合神經(jīng)網(wǎng)絡(luò)(PCNN)是第三代人工神經(jīng)網(wǎng)絡(luò)的新模型,因具有同步激發(fā)、變閾值等特性而被應(yīng)用到圖像融合領(lǐng)域。在使用PCNN進行圖像融合的大部分文獻中,神經(jīng)元的鏈接強度都是通過經(jīng)驗或?qū)嶒炦x擇的一個常數(shù)。但人眼視覺系統(tǒng)對圖像中不同特征區(qū)域反應(yīng)的強烈程度是有差異的,即視覺皮層中不同神經(jīng)元耦合具有差異性,這種差異性體現(xiàn)在PCNN 中就是各神經(jīng)元的鏈接強度的不同。因此,PCNN中鏈接強度與圖像中該點像素處的特征信息是密切相關(guān)的。圖像矩陣的奇異值是一種性質(zhì)良好的代數(shù)特征,集中了圖像的能量,包含了圖像的絕大部分結(jié)構(gòu)信息,能夠反映圖像的區(qū)域特征,符合人眼的視覺處理機制。本文提出了一種基于局部區(qū)域奇異值分解的PCNN 圖像融合策略。利用局部區(qū)域奇異值構(gòu)造局部結(jié)構(gòu)信息因子,作為PCNN 對應(yīng)神經(jīng)元的鏈接強度,自適應(yīng)調(diào)整局部結(jié)構(gòu)信息因子值來表征圖像特征的變化,通過PCNN 運算得到能夠反映單點像素及其鄰域整體像素特征的點火映射圖,有效提取圖像中的目標(biāo)與背景信息,最后通過選擇性融合規(guī)則得到融合圖像,使融合圖像更符合人的視覺系統(tǒng)。

        2 算法的基本原理

        2.1 PCNN 基本原理和簡化模型

        PCNN 是由若干個神經(jīng)元互相鏈接形成的一種動態(tài)非線性反饋網(wǎng)絡(luò)模型,包括接收域、調(diào)制域和脈沖產(chǎn)生器3部分。最初基于哺乳動物視覺系統(tǒng)的PCNN 模型極為復(fù)雜[13],大量的文獻對其進行了改進與簡化。本文采用最常使用的離散數(shù)學(xué)迭代模型[14],如圖1所示。

        其數(shù)學(xué)方程描述為

        圖1 PCNN 神經(jīng)元簡化模型Fig.1 Simplified model of PCNN neuron

        其中:下標(biāo)(i,j)是神經(jīng)元的標(biāo)號;Fij(n)是神經(jīng)元在第n次迭代時的反饋輸入;Iij為外部輸入刺激信號,通常為像素點(i,j)的灰度值;Lij(n)是神經(jīng)元的鏈接輸入;βij是鏈接強度;Uij(n)是神經(jīng)元的內(nèi)部活動項;Yij(n)則是第n 次迭代時(i,j)神經(jīng)元的輸出;W 為神經(jīng)元之間的鏈接權(quán)系數(shù)矩陣,VL是鏈接輸入的放大系數(shù);θij和Vθ是變閾值函數(shù)輸出和閾值放大系數(shù);αL和αθ分別為鏈接輸入和變閾值函數(shù)的時間常數(shù);n 表示迭代次數(shù)。如果Uij(n)>θij,則神經(jīng)元產(chǎn)生一個脈沖,稱為一次點火。n次迭代以后,利用(i,j)神經(jīng)元總的點火次數(shù)來表示圖像對應(yīng)點處的信息。經(jīng)過PCNN點火,由神經(jīng)元總的點火次數(shù)構(gòu)成的點火映射圖作為PCNN 的輸出。

        2.2 圖像的奇異值分解及其特性

        奇異值分解(Singular Value Decomposition,SVD)為提取圖像的代數(shù)特征提供了新的方法,在數(shù)據(jù)壓縮、信號處理和模式識別等領(lǐng)域獲得了廣泛應(yīng)用。奇異值分解定理及其特性可詳細描述如下[15-16]:

        若矩陣A∈Rm×n,則存在兩個正交矩陣U=[u1,u1,…,um]∈Rm×m,V=[v1,v2,…,vn]∈Rn×n以及對角陣S=diag[σ1,σ2,…,σp],其中UTU=I,VTV=I,p=min(m,n),σ1σ2≥…≥σp>0使得式(6)成立:

        式(6)稱為矩陣A 的奇異值分解,S 稱為奇異值矩陣,σi(i=1,2,…,p)為矩陣A 的奇異值,矩陣的奇異值表現(xiàn)的是圖像的本質(zhì)特性而不是視覺特性,反映了圖像的內(nèi)在屬性。矩陣A 的能量E可 表 示 為E =‖A ‖2F,結(jié) 合 式(6),可 證明E=‖A‖2F=‖S‖2F:

        由式(7)可以看出,圖像A 經(jīng)過奇異值分解后,能量信息集中于奇異值矩陣S 中,換言之,圖像的奇異值代表了圖像的能量特征。文獻[17]對SVD 作了進一步研究,對圖像2(a)做奇異值分解,重構(gòu)時,將奇異值向量替換為同樣大小的單位對角矩陣,得出圖2(b)。

        圖2 剝除奇異值之后的殘差圖像Fig.2 Different image after removed singular value

        由圖2(b)可看出,剝除奇異值向量后,圖像的結(jié)構(gòu)信息幾乎完全被屏蔽,由此可見,圖像的奇異值向量包含了圖像的絕大部分結(jié)構(gòu)信息,奇異值越大,包含的結(jié)構(gòu)信息越豐富,在圖像處理領(lǐng)域引入奇異值分解概念是對圖像特征提取的一大應(yīng)用,這也是本文算法的理論基礎(chǔ)。

        圖像的奇異值具有以下特性:(1)穩(wěn)定性;奇異值的變化不大于擾動矩陣的2范數(shù)。這就意味著圖像的奇異值特征對圖像噪聲、圖像光照條件等不同引起的變化具有不敏感的特性;(2)旋轉(zhuǎn)位移不變性;即對圖像進行旋轉(zhuǎn)運算或是作行或列的置換運算時,圖像的奇異值特征不變。意味圖像奇異值能有效地反映圖像的內(nèi)在屬性,保證了奇異值特征衡量圖像質(zhì)量的魯棒性。

        2.3 自適應(yīng)鏈接強度的確定

        基于傳統(tǒng)PCNN 的圖像融合算法中,神經(jīng)元的鏈接強度是根據(jù)經(jīng)驗或?qū)嶒炦x擇的一個常數(shù)。但根據(jù)人眼視覺處理機制,視覺系統(tǒng)對圖像中不同特征區(qū)域的反應(yīng)的強烈程度是有差異的,即視覺皮層中不同神經(jīng)元耦合具有差異性,這種差異性體現(xiàn)在PCNN 中就是神經(jīng)元的鏈接強度系數(shù)的不同。從PCNN 數(shù)學(xué)描述方程中的內(nèi)部活動項可看出,輸入源圖像的明顯特征部分在最后融合圖像中所占權(quán)重與鏈接強度β值的大小有關(guān)。所以有理由認(rèn)為鏈接強度β值應(yīng)隨圖像特征的變化而改變,以此來表征圖像不同區(qū)域的特征信息,而不應(yīng)是一個常數(shù)。這樣可以有效地提取圖像細節(jié)信息??臻g域內(nèi)構(gòu)造PCNN 鏈接強度具有代表性的研究成果如文獻[18]~[20]。文獻[18]利用局域?qū)Ρ榷鹊玫綄?yīng)像素點的鏈接強度值;文獻[19]利用局域拉普拉斯能量和局域標(biāo)準(zhǔn)差構(gòu)造對應(yīng)像素點的鏈接強度值;文獻[20]利用鄰域空間頻域作為神經(jīng)元激勵,改進的拉普拉斯能量和作為鏈接強度值。這3種算法針對多聚焦或醫(yī)學(xué)圖像的融合都取得了較好的效果,但對光譜差異較大的紅外與可見光圖像,鏈接強度值的穩(wěn)定性會下降,容易造成融合圖像的不連續(xù)和邊緣模糊等缺陷。

        圖像的奇異值包含了圖像的結(jié)構(gòu)信息,集中了圖像的能量信息。文獻[21]利用兩幅圖像塊奇異值差值的均值來表征灰度圖像結(jié)構(gòu)信息的丟失程度;文獻[22]利用兩幅圖像塊奇異值差的加權(quán)均值與剝除奇異值之后的殘差圖像信息作為壓縮圖像質(zhì)量評價測度;上述文獻說明用局部區(qū)域奇異值來表征圖像的特征變化是可行的。文獻[23]利用梯度域局部區(qū)域奇異值和來區(qū)分圖像的平坦區(qū)域和非平坦區(qū)域,且具有較好的抗噪能力,但這種方法不能表征圖像平坦區(qū)域的特征變化與非平坦區(qū)域的結(jié)構(gòu)紋理信息變化,不適合作為PCNN中的鏈接強度值;受上述文獻啟發(fā),參照文獻[23]的構(gòu)造方法,本文利用局部區(qū)域奇異值的均值定義一個局部結(jié)構(gòu)信息因子,來表征單幅圖像局部區(qū)域的內(nèi)容及特征變化:

        式中σ1,σ2,…σr為局部區(qū)域內(nèi)的奇異值,e 值的大小體現(xiàn)了圖像局部區(qū)域內(nèi)基本結(jié)構(gòu)模式,體現(xiàn)局部區(qū)域包含細節(jié)信息的豐富程度,能夠表述圖像特征的變化。本文融合算法中采用局部結(jié)構(gòu)信息因子作為PCNN 中的鏈接強度值,表征圖像不同區(qū)域的特征信息。

        2.4 基于塊奇異值分解的PCNN 融合算法

        利用局部結(jié)構(gòu)信息因子值作為PCNN 對應(yīng)神經(jīng)元的鏈接強度值,同時像素灰度值激勵每個神經(jīng)元,再經(jīng)過PCNN 點火獲得參與融合圖像的每個特征對應(yīng)的點火映射圖,最后根據(jù)比較選擇算子來確定融合圖像。圖3 以兩幅圖像的融合為例說明基于奇異值分解的自適應(yīng)PCNN 圖像融合過程。

        圖3 PCNN 圖像融合框圖Fig.3 Schematic diagram of PCNN-based fusion algorithm

        算法步驟:

        (1)對待融合的兩幅圖像(M×N)進行歸一化處理,分別記為A 和B (可推廣到多幅)。令A(yù)作為第1個神經(jīng)網(wǎng)絡(luò)PCNNA中各神經(jīng)元的反饋輸入,B 作為第2 個神經(jīng)網(wǎng)絡(luò)PCNNB中各神經(jīng)元的反饋輸入。

        (2)對矩陣A 和B 進行滑動窗口平移分塊,塊的大 小為k×k,中心點為(i,j),共分M×N 個子塊,分別計算出各子塊圖像的奇異值,利用公式(8)計算局部結(jié)構(gòu)信息因子eA(i)和eB(i),形成大小為M×N 的矩陣,其元素值即為對應(yīng)的鏈接強度βij值,得到A、B 中 每個像素對應(yīng)的βA,ij、βB,ij值,i=1,2,…,M,j=1,2,…,N。

        (3)初始值分別設(shè)為:Lij(0)=Uij(0)=0,θij(0)=1, 此時所有的神經(jīng)元都處在熄火狀態(tài),即Yij(0)=0,脈沖數(shù)Tij(0)=0。

        (4)根據(jù)式(1)、(2)、(3)、(4)、(5)計算Lij(n)、Uij(n)、θij(n)和Yij(n)。

        (5)累計神經(jīng)網(wǎng)絡(luò)每次迭代運行的輸出:Tij(n)=Tij(n-1)+Yij(n)。

        (6)判斷n 值是否為Nmax(最大迭代次數(shù)),如果n<Nmax,重復(fù)步驟(5)~(6),如果n=Nmax,迭代運算結(jié)束。輸出點火圖OA和OB。

        H(i,j)為融合后的像素值。經(jīng)過PCNN 處理后,每幅參與融合的圖像得到各自對應(yīng)的點火映射圖,通過比較點火映射圖中相應(yīng)像素的點火頻數(shù),數(shù)值越大,表明圖像在該處的信息越豐富,融合時應(yīng)選擇該點像素,所以上述融合過程可有效提取圖像邊緣、紋理等信息。

        3 實驗與結(jié)果分析

        通過3 步實驗來驗證本文融合算法的有效性。

        第一步,將本文算法與常用的典型多尺度分解融合方法進行比較;第二步,本文算法與典型的空間域內(nèi)基于PCNN 的融合算法進行比較;第三步,本文算法與其他融合算法對噪聲圖像的融合效果進行比較;通過視覺觀察對融合結(jié)果進行主觀評價。第一步和第二步融合結(jié)果的客觀評價采用互信息MI[24]、結(jié)構(gòu)相似度SSIM[25]和邊緣信息傳遞量QAB/F[26]3種指標(biāo);由于待融合圖像含有噪聲,所以第三步融合結(jié)果的客觀評價采用信息熵(ENTROPY)[27]、估計信噪比(ESNR)[28]和清晰度(DEFINITION)[29]3種指標(biāo);本文融合算法中鏈接強度β值可通過計算3×3矩陣的結(jié)構(gòu)信息因子得到,PCNN 中其他參數(shù)根據(jù)經(jīng)驗進行設(shè)置,為體現(xiàn)公平性,本文的其他參數(shù)與文獻[18]~[20]中設(shè)置相同。每個神經(jīng)元與其周圍3×3鄰域內(nèi)的神經(jīng)元相鏈接即p×q=3×3,3×3鏈接核矩陣為:

        3.1 本文算法與多尺度分解方法融合效果的比較

        為了驗證本文融合算法能夠有效提取圖像邊緣、紋理等細節(jié)信息,同時保留源圖像的亮度和對比度等信息。分別應(yīng)用Contrast pyramid、Gradient pyramid、Laplacian pyramid、DWT、SIDWT、Curvelet、Contourlet和本文算法對圖4(a)(b)所示的紅外與可見光圖像進行融合實驗。多尺度分解中低頻系數(shù)采用等權(quán)值平均,高頻系數(shù)采用絕對值取大融合規(guī)則。融合結(jié)果如圖4(c)~(j)所示,客觀評價指標(biāo)如表1所示。

        圖4 本文算法與多尺度分解方法的融合結(jié)果Fig.4 Fusion results of proposed algorithm and multi-scale decomposition methods

        從圖4中可以看出,圖(j)相對于塔式分解、小波、Curvelet、Contourlet變換方法的融合圖像更清晰、自然,對比度適中,細節(jié)豐富,具有良好的視覺效果。這表明本文的融合算法能夠最大限度地提取源圖像細節(jié),保留源圖像的亮度和對比度信息。從表1中的數(shù)據(jù)可以看到,本文融合算法的客觀評價均為最優(yōu),與主觀評價一致,進一步證明了本文融合算法的有效性。

        表1 本文算法與多尺度分解方法融合結(jié)果的比較Tab.1 Fusion results comparison of proposed algorithm and multi-scale decomposition methods

        3.2 不同PCNN 方法融合結(jié)果的比較

        為了驗證局部區(qū)域奇異值分解得到的局部結(jié)構(gòu)信息因子作為鏈接強度在PCNN 方法中的優(yōu)越性,在空間域內(nèi),分別應(yīng)用傳統(tǒng)PCNN(鏈接強度β=0.2)、文獻[18]、文獻[19]、文獻[20]和本文算法對圖5(a)(b)紅外與可見光圖像進行融合實驗,融合結(jié)果如圖5(c)~(g)所示,客觀評價指標(biāo)數(shù)據(jù)如表2所示。

        表2 不同PCNN 方法融合結(jié)果的比較Tab.2 Fusion results comparison of different PCNN methods

        圖5 不同PCNN 方法的融合結(jié)果Fig.5 Fusion results using different PCNN methods

        從圖5中可以發(fā)現(xiàn),在圖(g)中,路燈下的人、路上行駛的車輛、屋頂?shù)饶繕?biāo)都清晰可見,圖像對比度適中,邊緣刻畫準(zhǔn)確,相對于(c)、(d)、(e)及(f)有更好的視覺效果,這表明應(yīng)用本文算法能夠更好地提取目標(biāo)信息,最大限度提取源圖像中的結(jié)構(gòu)細節(jié)和保留源圖像亮度信息。從(j)(k)(l)(m)(n)局部放大圖可以看到,本文算法的融合圖像中沒有出現(xiàn)不連續(xù)現(xiàn)象。圖(h)(i)的點火映射圖也表明了本文算法的有效性。對圖5 分析可知,應(yīng)用本文算法融合的圖像更能體現(xiàn)源圖像的細節(jié)信息,保證了圖像的整體清晰度且保留了源圖像中的結(jié)構(gòu)與紋理信息,這是因為本文利用局部區(qū)域奇異值構(gòu)造的區(qū)域結(jié)構(gòu)信息因子作為PCNN 中鏈接強度β 值,能更好地反映像素的特征信息,符合人眼的視覺系統(tǒng)對圖像特征變化的處理機制,具有較強的自適應(yīng)性,通過PCNN 處理后,能夠準(zhǔn)確地提取紅外與可見光圖像中的特征明顯區(qū)域,保留邊緣細節(jié)豐富區(qū)域,消除可能出現(xiàn)的不連續(xù)性,使融合后的圖像更符合人的視覺。從表2中可以看出,本文提出的融合策略融合的圖像客觀評價參數(shù)為最優(yōu),進一步驗證了本文算法的有效性。

        3.3 噪聲圖像融合效果的比較

        為了驗證矩陣奇異值所具有穩(wěn)定性和旋轉(zhuǎn)位移不變性在圖像融合領(lǐng)域的優(yōu)越性,分別應(yīng)用傳統(tǒng)PCNN、文獻[18]、文獻[19]、文獻[20]、Laplacian pyramid、DWT、SIDWT 和本文算法對圖6(a)(b)中含有均值為0、方差0.01的高斯噪聲圖像進行融合實驗。融合結(jié)果如圖6(c)~(j)所示,客觀評價數(shù)據(jù)如表3所示。

        圖6 不同融合算法對噪聲圖像融合的結(jié)果Fig.6 Fusion results of noisy images using different methods

        表3 不同融合算法對噪聲圖像融合結(jié)果的比較Tab.3 Fusion results comparison of noisy images using different methods

        從圖6中發(fā)現(xiàn),在圖6(j)中白色的人、柵欄、屋頂?shù)戎饕繕?biāo)都清晰可見。這說明矩陣奇異值所具有的穩(wěn)定性和旋轉(zhuǎn)位移不變性在一定程度上能夠消除噪聲的影響,使融合圖像具有一定的魯棒性。

        4 結(jié) 論

        針對紅外與可見光圖像,提出了一種基于局部區(qū)域奇異值分解的自適應(yīng)PCNN 圖像融合方法。利用局部區(qū)域奇異值構(gòu)造區(qū)域結(jié)構(gòu)信息因子,作為PCNN 對應(yīng)神經(jīng)元鏈接強度值,隨著圖像特征變化不斷地進行自適應(yīng)調(diào)整,通過PCNN 點火處理,得到能夠同時反映單個像素特征及其鄰域像素整體特征的點火映射圖,通過比較選擇算子,準(zhǔn)確選擇明顯特征區(qū)域,提升紅外與可將光圖像融合精度。實驗結(jié)果表明,本文提出的圖像融合方法與其他融合方法相比較,能夠得到較好的融合效果,具有較強的自適應(yīng)能力,同時本文算法可以作為多尺度分解的融合策略。

        [1] 才溪.多尺度圖像融合理論與方法[M].電子工業(yè)出版社,北京,23014:8-9.Cai Xi.Multiscal Image Fusion:Theory and Method [M].Beijing:Publishing House of Electronics Industry,2014:6-9.(in Chinese)

        [2] 陳小林,王延杰.非下采樣變換的紅外與可見光圖像融合[J].中國光學(xué),2011,4(5):489-495.Chen X L,Wang Y J.Infrared and visible image fusion based on nonsubsampled Contourlet transform[J].Chinese Optics,2011,4(5):489-495.(in Chinese)

        [3] 李光鑫,吳偉平,胡君.紅外和彩色可見光圖像亮度-對比度傳遞融合算法[J].中國光學(xué),2011,4(2):161-168.Li G X,Wu W P,Hu J.Luminance-contrast transfer based fusion algorithm for infrared and color visible images[J].Chinese Optics,2011,4(2):161-168.(in Chinese)

        [4] 唐艷秋,張星祥,李新娥,等.基于人眼視覺灰度識別特性的圖像動態(tài)范圍小波變換處理方法[J].液晶與顯示,2012,27(3):385-390.Tang Y Q,Zhang X X,Li X E,et al.Image processing method of dynamic range with wavelet transform based on human visual gray recognition characteristics[J].Chinese Journal of Liquid Crystals and Displays,2012,27(3):385-390.(in Chinese)

        [5] Burt P J,Kolcznski R.J.Enhanced image capture through fusion[C].IEEE4th international Conf.on Computer Vision,1993(4):173-182.

        [6] Jia Y H.Fusion of Landsat TM and SAR images based on principal component analysis[J].Remote Sensing Technology and Applications,1998,13(1):46-49.

        [7] Broussard R P,Rogers S K,Oxley M E,et al.Physiologically motivated image fusion for object detection using a pulse coupled neural network[J].IEEE Transactions on Neural Networks,1999,10(3):554-563.

        [8] Li S T,Kwork J T,Wang Y N.Multifocus image fusion using artificial networks[J].Pattern Recognition Letters,2002,23(8):985-997.

        [9] 范永杰,金偉其,李力,等.基于FPGA 的可見光/紅外雙通道實時視頻融合系統(tǒng)[J].紅外技術(shù),2011,33(5):257-261.Fan Y J,Jin W Q,Li L,et al.Real time fusion system for visible and IR video based on FPGA[J].Infrared Technology,2011,33(5):257-261.(in Chinese)

        [10] 駱媛,金偉其,劉效東.基于顏色查找空間的自然感彩色融合算法及DSP 實時實現(xiàn)[J].紅外與激光工程,2012,41(8):2241-2246.Luo Y,Jin W Q,Liu X D.Color look-up space based natural color fusion algorithm and DSP real-time implementation[J].Infrared and Laser Engineering,2012,41(8):2241-2246.(in Chinese)

        [11] 付朝陽,郭雷,常威威.基于小波變換和多通道脈沖耦合神經(jīng)網(wǎng)絡(luò)的高光譜圖像融合[J].吉林大學(xué)學(xué)報:工學(xué)版,2011,41(3):838-843.Fu Z Y,Guo L,Chang W W.Fusion algorithm of hyperspectral images based on wavelet transform and multichannel PCNN[J].Journal of JiLin University:Engineering and Technology Edition,2011,41(3):838-843.(in Chinese)

        [12] 傅瑤,孫雪晨,薛旭成,等.基于非下采樣輪廓波變換的全色圖像與多光譜圖像融合方法研究[J].液晶與顯示,2013,28(3):429-434.Fu Y,Sun X C,Xue X C,et al.Panchromatic and multispectral image fusion method based on nonsubsampled contourlet transform[J].Chinese Journal of Liquid Crystals and Displays,2013,28(3):429-434.(in Chinese)

        [13] Johnson J L,Padgett M L.PCNN models and applications[J].EEE Transactions on Neural Networks,1999,10(3):480-498.

        [14] 楊艷春,黨建武,王陽萍.基于提升小波變換與自適應(yīng)PCNN 的醫(yī)學(xué)圖像融合方法[J].計算機輔助設(shè)計與圖形學(xué)學(xué)報,2012,24(4):494-499.Yang Y C,Dang J W,Wang Y P.A medical image fusion method based on lifting wavelet transform and adaptive PCNN[J].Journal of Computer-Aidcd Dcsign &Computer Graphics,2012,24(4):494-499.(in Chinese)

        [15] 梁毅雄,龔衛(wèi)國,潘英俊,等.基于奇異值分解的人臉識別方法[J].光學(xué)精密工程,2004,12(5):543-549.Liang Y X,Gong W G,Pan Y J,et al.Singular value decomposition-based approach for face recognition[J].Optics and Precision Engineering,2004,12(5):543-549.(in Chinese)

        [16] 王宇慶.基于圖像結(jié)構(gòu)信息復(fù)數(shù)表示與奇異值分解的灰度圖像質(zhì)量評價方法[J].光電子·激光,2012,23(9):1827-1834.Wang Y Q.Image quality assessment based on complex number representation of image structure and singular value decomposition[J].Journal of Optoelectronics·Laser,2012,23(9):1827-1834.(in Chinese)

        [17] Aznaveh A M,Azadeh M,Azar F T,et al.Image quality measurement besides distortion type classifying[J]Optical Review,2009,16(1):30-34.

        [18] 苗啟廣,王寶樹.基于局部對比度的自適應(yīng)PCNN 圖像融合[J].計算機學(xué)報,2008,31(5):875-880.Miao Q G,Wang B S.A novel image fusion algorithm based on local contrast and adaptive PCNN [J].Chinese Journal of Computers,2008,31(5):875-880.(in Chinese)

        [19] 李美麗,李言俊,王紅梅,等.基于自適應(yīng)脈沖耦合神經(jīng)網(wǎng)絡(luò)圖像融合新算法[J].光電子·激光,2010,21(5):779-782.Li M L,Li Y J,Wang H M,et al.A new image fusion algorithm based on adaptive PCNN[J].Journal of Optoelectronics·Laser,2010,21(5):779-782.(in Chinese)

        [20] 夏加星,段先華,魏世超.利用鄰域激勵的自適應(yīng)PCNN 進行醫(yī)學(xué)圖像融合[J].計算機應(yīng)用研究,2011,28(10):3929-3933.Xia J X,Duan X H,Wei S C.Application of adaptive PCNN based on neighborhood to medical image fusion[J].Application Research of Computers,2011,28(10):3929-3933.(in Chinese)

        [21] Shnayderman A,Gusev A,Eskicioglu A M.An SVD based grayscale image quality measure for local and global assessment[J].IEEE Transactions on Image Processing,2005,14(2):422-429.

        [22] 張飛艷,謝偉,陳榮元,等.基于視覺加權(quán)的奇異值分解壓縮圖像質(zhì)量評價測度[J].電子與信息學(xué)報,2010,32(5):1061-1065.Zhang F Y,Xie W,Chen R Y,et al.Compression image quality assessment based on human visual weight and sin-gular value decomposition[J].Journal of Electronics &Information Technology,2010,32(5):1061-1065.(in Chinese)

        [23] 許光宇,檀結(jié)慶,鐘金琴.自適應(yīng)的有效非局部圖像濾波[J].中國圖象圖形學(xué)報,2012,17(4):471-479.Xu G Y,Tan J Q,Zhong J Q.Adaptive efficient non-local image filtering[J].Journal of Image and Graphics,2012,17(4):471-479.(in Chinese)

        [24] Qu G H,Zhang D L,Yan P F.Information Measure for performance of image fusion[J].Electronic Letters,2002,38(7):313-315.

        [25] Wang Z,Bovik A C,Sheik HR,et al.Image quality assessment:from error visibility to structural similarity[J].IEEE Transactions on Image Processing,2004,13(4):600-612.

        [26] Xydeas C S.,Petrovi V.Objective image fusion performance measure[J].Electronics Letters,2000,36(4):308-309.

        [27] Leung L W,King B,Vohora V,Comparison of image data fusion techniques using entropy and INI[C].Proc.of 22ndAsian Conference on Remote Sensing,Singapore,2001:152-157.

        [28] 朱博,王新鴻,唐伶俐,等.基于邊緣剔除與空間去相關(guān)的圖像信噪比評估方法研究[J].遙感技術(shù)與應(yīng)用,2012,27(1):39-44.Zhu B,Wang X H,Tang L L,et al.SNR estimation for remote sensing images based on edge extraction and spatial dimension decorrelation[J].Remote Sensing Technology and Application,2012,27(1):39-44.(in Chinese)

        [29] 李祚林,李曉輝,馬靈玲,等.面向無參考圖像的清晰度評價方法研究[J].遙感技術(shù)與應(yīng)用,2011,26(2):239-246.Li Z L,Li X H,Ma L L,et al.Research of definition assessment based on no-reference digital image quality[J].Remote sensing Technology and Application,2011,26(2):239-246.(in Chinese)

        猜你喜歡
        神經(jīng)元矩陣強度
        《從光子到神經(jīng)元》書評
        自然雜志(2021年6期)2021-12-23 08:24:46
        低強度自密實混凝土在房建中的應(yīng)用
        躍動的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
        Vortex Rossby Waves in Asymmetric Basic Flow of Typhoons
        地埋管絕熱措施下的換熱強度
        初等行變換與初等列變換并用求逆矩陣
        矩陣
        南都周刊(2015年4期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年3期)2015-09-10 07:22:44
        矩陣
        南都周刊(2015年1期)2015-09-10 07:22:44
        基于二次型單神經(jīng)元PID的MPPT控制
        69sex久久精品国产麻豆| 中文字幕亚洲综合久久久| 亚洲国产精品高清在线 | 内地老熟女老少配视频| 精精国产xxxx视频在线| 无码国产精品一区二区免费式芒果| 中文字幕日韩精品永久在线| 熟女无套高潮内谢吼叫免费| 欧美性猛交xxxx黑人猛交| 午夜影院91| 有码视频一区二区三区| 无码人妻精品一区二区三区夜夜嗨| 又色又爽又黄又硬的视频免费观看| 一区二区三区日本大片| 精品国产av一区二区三区| 久久国产劲爆∧v内射-百度| 国产免费无码一区二区三区| 丁香六月久久| 日本视频一区二区三区在线| 人妻少妇出轨中文字幕| 久久精品国产一区二区电影| 亚洲中文字幕乱码一二三区| 久久99精品国产麻豆| 国内精品视频在线播放不卡| 亚洲久无码中文字幕热| 久久最黄性生活又爽又黄特级片| 日韩人妻无码精品一专区二区三区 | 国产无套中出学生姝| 67194熟妇在线永久免费观看| 人妻中出精品久久久一区二| 国产精品国产三级国产an不卡| 97久久久久人妻精品区一| 抽插丰满内射高潮视频| 国产精品一区二区三密桃| 日本人视频国产一区二区三区| 国产精品成人久久电影| 午夜精品一区二区三区无码不卡| 亚洲粉嫩视频在线观看| 欧美最猛黑人xxxx| 国内精品久久久久久久久齐齐| 日韩精品极品在线观看视频|