亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于區(qū)域點火特性的PCNN圖像融合與仿真分析

        2014-07-05 22:37:17樂人銘丁旖姬緯通
        儷人·教師版 2014年5期

        樂人銘 丁旖 姬緯通

        【摘 要】本文研究了基于小波變換與脈沖耦合神經(jīng)網(wǎng)絡(luò)相結(jié)合的圖像融合方法,以實現(xiàn)對圖像融合質(zhì)量的提高。論文的主要研究介紹基于區(qū)域點火特性的多聚焦圖像融合。包括基于區(qū)域點火特性的PCNN融合新算法和多尺度分解下的PCNN點火特性。

        【關(guān)鍵詞】小波變換 圖像融合 脈沖耦合神經(jīng)網(wǎng)絡(luò)

        一、基于區(qū)域點火特性的PCNN融合新算法

        為了克服成像鏡頭的有限焦距引起的模糊現(xiàn)象,多聚焦圖像融合應(yīng)運而生。PCNN是一種以哺乳動物貓的視覺神經(jīng)細(xì)胞原理建立的神經(jīng)網(wǎng)絡(luò)模型,已被成功應(yīng)用于圖像處理中并初步應(yīng)用于圖像融合融合。

        在小波變換域內(nèi)應(yīng)用PCNN模型,可以有效的提取原圖像的特征,其信號形式和處理機制也符合視覺神經(jīng)系統(tǒng)的生理學(xué)基礎(chǔ)。但是,如果僅僅以單個像素的點火次數(shù)作為系數(shù)選擇標(biāo)準(zhǔn),原圖像在過渡區(qū)域的信息提取就不夠充分,將降低融合圖像信息。為增強PCNN對有效信息的提取,我們提出以PCNN脈沖點火次數(shù)的區(qū)域特性為基礎(chǔ)的融合新算法。

        定義點火區(qū)域強度(Regional Fire Intensity,RFI)為式中,為調(diào)節(jié)因子,用以權(quán)衡平均值和標(biāo)準(zhǔn)差在系數(shù)選擇中的重要性。

        系數(shù)選取規(guī)則為

        式中,,,表示ImageA、ImageB、ImageF的第i個小波系數(shù)矩陣(小波分解子圖)中(x,y)位置上的元素;、分別表示圖像A和圖像B經(jīng)過PCNN網(wǎng)絡(luò)后點火次數(shù)的強度區(qū)域。

        如果圖像A對應(yīng)像素的區(qū)域強度大于圖像B,就選擇圖像A的小波系數(shù)作為融合圖像的小波系數(shù),反之選擇圖像B的小波系數(shù)作為融合圖像的小波系數(shù)。

        可以看出,與直接以像素的點火次數(shù)為依據(jù)的意義相近,但由于充分考慮到點火次數(shù)具有的區(qū)域特性,可以有效的抑制系統(tǒng)噪聲。如果原圖像的某區(qū)域特性相近,點火次數(shù)的標(biāo)準(zhǔn)差較小,小波系數(shù)選取主要取決于區(qū)域均值的大小,此時系數(shù)選取方法基本與取最大值法一致。如果圖像某區(qū)域特性差異大,說明該區(qū)域處于邊緣或信息過渡區(qū),此時標(biāo)準(zhǔn)差較大,因此,新算法將使圖像的邊緣和過渡區(qū)域信息得以很好保留。

        ImageA和ImageB代表兩幅原圖像A和B,ImageF代表融合后的圖像,具體步驟如下:

        (1)對ImageA和ImageB進行DWT分解,得到圖像的低頻和高頻系數(shù)。

        (2)將低頻和高頻系數(shù)輸入PCNN中,利用PCNN網(wǎng)絡(luò)統(tǒng)計點火次數(shù)。

        (3)對點火次數(shù)進行區(qū)域強度(RFI)計算,并選擇強度大的小波系數(shù)。

        (4)對以上得到的小波分解系數(shù),經(jīng)過小波逆變換重構(gòu)得融合圖像ImageF。

        二、實驗仿真及分析

        評價指標(biāo)包括標(biāo)準(zhǔn)差(STD)平均梯度(AG)熵(EN)偏差(MAE)和互信息(MI)。

        其中,標(biāo)準(zhǔn)差越大,灰度分布越分散,可含信息量越大;平均梯度越大,圖像微小細(xì)節(jié)及紋理反映越好;熵越大,圖像包含的信息量越大;互信息越大,融合圖像與原圖像關(guān)聯(lián)性越強,包含了更多原圖像的信息;偏差越小,融合圖像與原圖像光譜差異越小,原圖像光譜特性保留越好。

        表1表明,基于區(qū)域點火特性的PCNN融合新算法與基于DWT的其它融合算法相比,標(biāo)準(zhǔn)差、平均梯度、熵和互信息都明顯高于其他方法,偏差低于其他方法。

        無論是仿真圖像還是評價指標(biāo)都可以看出,將PCNN應(yīng)用于圖像的小波域內(nèi),利用小波變換的多分辨力特性和PCNN從復(fù)雜背景下有效提取信息的特點,同時充分利用PCNN點火次數(shù)中包含的圖像信息,可以很好地保留了原圖像的邊緣和紋理,與原圖像關(guān)聯(lián)性強,提高融合圖像質(zhì)量。

        表1 不同融合算法的指標(biāo)比較

        1、最大值法;2、權(quán)重法;3、區(qū)域能量法。4、邊緣強度法;5、PCNN融合算法;6、本文算法

        三、結(jié)論

        PCNN是一種新型的神經(jīng)網(wǎng)絡(luò),其信號形式和處理機制更符合人類視覺神經(jīng)系統(tǒng)的生理學(xué)基礎(chǔ),近年來被廣泛應(yīng)用于圖像處理中,本文提出的基于DWT和PCNN的多聚焦圖像融合新算法,在充分保留了小波變換的多分辨率分解特性和PCNN全局耦合、能在復(fù)雜背景下有效提取圖像信息的特性基礎(chǔ)上,詳細(xì)分析了PCNN點火次數(shù)特性與圖像信息之間的關(guān)系,通過定義點火區(qū)域強度實現(xiàn)圖像特征的有效提取。與基于DWT的其他融合算法相比,標(biāo)準(zhǔn)差、平均梯度、熵和互信息都明顯高于其他方法,偏差低于其他方法。從圖像的主觀視覺效果來看,融合圖像邊緣和紋理清晰,很好地保留原圖像的光譜特性,有效提取了原圖像的圖像特性,多聚焦圖像的清晰區(qū)域得以幾乎完全保留,融合整體效果優(yōu)于其他方法。

        【參考文獻】

        [1]Kenneth.R.Castleman,朱志剛等譯.數(shù)字圖像處理[M].電子科學(xué)出版社,1998:1-25.

        [2]Wilson.J.D,Trunk.G.V,Tracking filters for multiple-platform radar integration[M].NavalResearch Lab,1979.

        [3]B.H Cantrell,A.Grindlay.Multiple site radar tracking system[M].IEEE International RadarConference,1980.

        [4]夏明革,何友,唐小明,夏仕昌.圖像融合的發(fā)展現(xiàn)狀與展望[J].船舶電子工程,2002,

        宅男66lu国产在线观看| 日本看片一区二区三区| av国产自拍在线观看| 久久99精品久久久久久清纯| 中国农村妇女hdxxxx| 免费一级毛片麻豆精品| 精品女同一区二区三区不卡| av色一区二区三区精品 | 98在线视频噜噜噜国产| 精品人妻一区二区三区蜜臀在线| 亚洲国产国语在线对白观看| 孕妇特级毛片ww无码内射| 国产久热精品无码激情 | 视频一区中文字幕亚洲| 国产精品自线一区二区三区 | 综合久久给合久久狠狠狠97色 | 在线播放偷拍一区二区| 亚洲午夜狼人综合影院| 无码人妻精品丰满熟妇区| 亚洲中文字幕久久精品蜜桃| 亚洲中文字幕一区高清在线| 揄拍成人国产精品视频| 久久伊人精品只有这里有| 中文字幕乱码熟女人妻在线| 性色做爰片在线观看ww| 亚洲A∨无码国产精品久久网| 中文字幕人妻乱码在线| 无码国产成人午夜电影在线观看| 又爽又黄又无遮挡的激情视频| 精品一区二区三区久久久| 经典黄色一区二区三区| 久久久久久久极品内射| 国产高清在线精品免费| 国产高清一区二区三区视频| 国产精品国产三级第一集| 少妇高潮潮喷到猛进猛出小说| 久久久久久无中无码| 国产高清视频在线不卡一区| 国产无遮挡又爽又刺激的视频老师| 亚洲人成7777影视在线观看| 人妻少妇粉嫩av专区一|