亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于連接突觸計算網(wǎng)絡的醫(yī)學圖像融合算法

        2018-01-08 07:33:56賈紫婷秦品樂王麗芳
        計算機應用 2017年12期
        關鍵詞:神經(jīng)元次數(shù)神經(jīng)網(wǎng)絡

        高 媛,賈紫婷,秦品樂,王麗芳

        (中北大學 大數(shù)據(jù)學院,太原 030051)

        基于連接突觸計算網(wǎng)絡的醫(yī)學圖像融合算法

        高 媛*,賈紫婷,秦品樂,王麗芳

        (中北大學 大數(shù)據(jù)學院,太原 030051)

        針對傳統(tǒng)的脈沖耦合神經(jīng)網(wǎng)絡(PCNN)融合方法中參數(shù)過多,以及參數(shù)和網(wǎng)絡迭代次數(shù)難以準確設置、融合效果差等缺點,提出了一種用連接突觸計算網(wǎng)絡(LSCN)模型的連接項(L項)進行圖像融合的算法。首先,把兩幅待融合圖像分別輸入到LSCN模型中;其次,使用L項代替?zhèn)鹘y(tǒng)PCNN中的點火頻率作為輸出;然后,使用多通工作方式終止迭代;最后,通過比較L項的值得到融合后圖像的像素。理論分析與實驗結(jié)果表明,與改進的PCNN模型和在PCNN模型的基礎上提出的新模型進行圖像融合的算法進行比較,所提算法得到的融合圖像更有利于人眼觀察;特別是與點火頻率作為輸出的LSCN方法相比,所提算法在邊緣信息評價因子、信息熵、標準差、空間頻率、平均梯度上均較優(yōu)。該算法簡單易行,不僅減少了待定參數(shù)數(shù)目,降低了計算復雜度,而且解決了傳統(tǒng)模型中迭代次數(shù)難以確定的問題。

        連接突觸計算網(wǎng)絡;點火頻率;圖像融合;計算機斷層掃描;磁共振成像;脈沖耦合神經(jīng)網(wǎng)絡

        0 引言

        目前國內(nèi)圖像融合領域研究的方法較多,如基于神經(jīng)網(wǎng)絡[1]、基于多尺度分解[2]、基于統(tǒng)計[3]的融合算法等。其中神經(jīng)網(wǎng)絡具有較強的生物學背景,能夠考慮到圖像的全局特性。一種特殊類型的神經(jīng)網(wǎng)絡來自貓的視覺皮層,稱為脈沖耦合神經(jīng)網(wǎng)絡(Pulse Coupled Neural Network, PCNN)[4]已經(jīng)成功地被應用于圖像融合,取得了不錯的成果[5]。盡管如此,PCNN模型本身存在一些弊端,由于其復雜的結(jié)構與實際生物腦神經(jīng)網(wǎng)絡的運行機制類似,所以如何使大量參數(shù)、迭代次數(shù)得到準確的設置以及降低計算復雜度仍然是迫切需要解決的問題[6]。目前基于PCNN融合方法的改進主要包括兩個方面:一種是改進PCNN模型自身,例如參數(shù)設置的改進。Qu等[7]在非下采樣輪廓波變換(NonSubsampled Contourlet Transform, NSCT)域內(nèi)采用空間頻率激勵PCNN模型來融合圖像,但該算法需要對圖像進行NSCT,提高了算法的計算復雜度。王佺等[8]采用粒子群算法優(yōu)化PCNN中的參數(shù),在很大程度上解決了參數(shù)設置問題,但粒子群算法的加入也增加了算法的復雜度。薛寺中等[9]將小波變換與PCNN相結(jié)合融合圖像得到了更好的視覺效果,但迭代次數(shù)設置為200次,浪費了大量時間,而迭代次數(shù)過小又不能使PCNN得到充分的執(zhí)行。另一種改進是在PCNN理論的基礎上提出新模型,如相交皮質(zhì)模型(Intersecting Cortical Model, ICM)[10]、脈沖發(fā)放皮層模型(Spiking Cortical Model, SCM)[11],這些模型也已經(jīng)應用于圖像融合中[12-14]。這兩種模型均簡化了PCNN,減少了參數(shù)的數(shù)目,但文獻[10-11]都沒有解決迭代次數(shù)的問題。

        基于以上分析,為了降低傳統(tǒng)算法的計算復雜度,減少待定參數(shù)的數(shù)目,解決網(wǎng)絡迭代次數(shù)難確定的問題,本文提出了一種用連接突觸計算網(wǎng)絡(Linking Synaptic Computation Network, LSCN)[15]的連接項進行圖像融合的算法。該算法具有更簡潔的模型結(jié)構,相比傳統(tǒng)算法減少了待定參數(shù)的數(shù)目,降低了計算復雜度,并通過多通工作方式解決了迭代次數(shù)難以確定的問題。通過三組計算機斷層掃描(Computed Tomography, CT)與磁共振成像(Magnetic Resonance Imaging, MRI)圖像進行實驗,結(jié)果表明無論從是主觀還是客觀上本文算法均有更優(yōu)良的圖像融合效果。

        1 LSCN基本結(jié)構

        Zhan等[15]于2017年1月提出了LSCN模型。在設計該模型時,受Ecknorn等[16]思想的啟發(fā),為了更恰當?shù)孛枋錾镫妭鬏數(shù)闹笖?shù)衰減和視覺皮層受到一定刺激時相鄰神經(jīng)元同步發(fā)放脈沖等現(xiàn)象,用反饋輸入作為外部激勵,并且用內(nèi)部活動項本身表示神經(jīng)元狀態(tài)的衰減項。

        不同于前幾代神經(jīng)網(wǎng)絡,LSCN與PCNN模型同屬第三代神經(jīng)網(wǎng)絡的范疇,該代神經(jīng)網(wǎng)絡主要利用脈沖同步發(fā)放現(xiàn)象實現(xiàn)對相鄰神經(jīng)元的激發(fā)和抑制。

        LSCN模型和PCNN有兩個主要的不同點:第一個不同點是在該模型中膜電位由漏電積分器表示;第二個不同點是反饋輸入僅僅由激勵表示。

        基本的PCNN模型涉及到饋送輸入、連接輸入、內(nèi)部活動項、點火閾值以及脈沖輸出5個方面的內(nèi)容,需要設定的參數(shù)數(shù)目高達10個。所以,眾多參數(shù)設置的準確性將對融合結(jié)果產(chǎn)生嚴重的影響,同時運行過程中會浪費大量的計算資源。

        相比之下,作為PCNN模型的改進模型,LSCN在輸入信號采集機制上不斷簡化,待定參數(shù)的總量也大大減少。傳統(tǒng)的PCNN模型中有三個漏電積分器,需要進行兩次卷積運算。而在LSCN模型中,也有三個漏電積分器,但只需進行一次卷積運算。這—點決定了LSCN模型的時間復雜度低于傳統(tǒng)模型,同時可以看出內(nèi)部活動項與外部激勵的關系更直接。不僅如此,與傳統(tǒng)PCNN不同,LSCN模型的迭代過程是自動停止而不是手動設置的,在多次迭代中,操作更加方便。

        LSCN的基本神經(jīng)元結(jié)構如圖1所示。

        圖1 LSCN基本神經(jīng)元結(jié)構Fig. 1 Basic neuronal structure in LSCN

        LSCN模型的數(shù)學表達式如下:

        Fij(n)=Sij

        (1)

        (2)

        Uij(n)=fUij(n-1)+Sij(1+βLij(n))

        (3)

        Θij(n)=Θij(n-1)-δ+hYij(n-1)

        (4)

        (5)

        式中:Fij(n)為神經(jīng)元的反饋輸入;(i,j)表示每個神經(jīng)元的索引;Sij攜帶刺激信息;Lij(n)為連接輸入;(p,q)表示其相鄰神經(jīng)元;l為連接常數(shù);Wijpq為應用于連接突觸的權重;Yij(n-1)是突觸后動作電位。在本文中,膜電位由漏電積分器表示,Uij(n)為內(nèi)部活動項,其中f是膜電位衰減常數(shù),β是連接強度;神經(jīng)元的閾值由漏電積分器表示,Θij(n)是點火閾值;δ是一個小的正常數(shù);h是幅度調(diào)整;Yij(n)為脈沖輸出。

        2 本文算法

        2.1 算法原理

        在LSCN網(wǎng)絡中,圖像里每個像素點相當于一個神經(jīng)元。當某個神經(jīng)元的Uij(n)>Θij(n)時,該神經(jīng)元點火,發(fā)出一個脈沖。此時閾值Θij(n)通過反饋輸入迅速提高,致使該神經(jīng)元停止發(fā)射脈沖。閾值隨著時間開始衰減,當其再次小于內(nèi)部活動項時,神經(jīng)元再次點火,如此反復。神經(jīng)元點火頻率越大說明對應像素點的亮度越大。

        在圖像融合中融合指標的好壞直接影響到融合結(jié)果。以往的基于PCNN及其改進模型的融合算法中均是根據(jù)若干次迭代后神經(jīng)元的點火頻率來決定融合后圖像的像素。選擇點火頻數(shù)較大的那幅圖像所對應的像素值作為融合后圖像的像素值。點火頻率如式(6):

        Mij(n)=Mij(n-1)+Yij(n-1)

        (6)

        但在本文中,使用L項代替?zhèn)鹘y(tǒng)的點火頻率作為輸出。由式(2)與(6)可知,當l取1時,L項和點火頻率相似。 但L項在每次迭代中均對Y作了卷積處理,實驗證明L項代替點火頻率輸出能夠取得更好的效果。

        2.2 算法流程

        假定CT圖像為A,MRI為B,并且已經(jīng)過幾何配準處理。融合過程如下:

        1)分別將待融合圖像A和B作為LSCN模型的反饋輸入;

        2)初始值設置為Lij(0)=0,Uij(0)=0,Yij(0)=0,YYij(0)=0,Θij(0)=1;

        3)分別按照式(1)~(5),計算Lij(n)、Uij(n)、Θij(n)、Yij(n);

        4)使用L項代替?zhèn)鹘y(tǒng)的點火頻率作為輸出;

        5)迭代使用式(1)~(5),使用多通工作方式作為迭代終止條件;

        6)利用比較選擇算子得到融合后圖像的像素,如式(7)所示:

        (7)

        式(7)中LSCN的L項數(shù)值越大,表示該像素點的亮度越大,所以選擇該點為融合后圖像中的像素點。

        在使用LSCN模型處理圖像時,迭代次數(shù)一直是一個棘手的問題,傳統(tǒng)的算法中迭代次數(shù)總是通過大量的實驗或者個人經(jīng)驗來設置。但迭代效果的好壞與迭代次數(shù)有很大的關系,如果迭代次數(shù)過大,將會浪費計算資源,迭代次數(shù)過少,將會導致算法運行不充分。LSCN模型中使用多通工作方式作為迭代終止條件,即當所有神經(jīng)元都點火迭代終止。設N是神經(jīng)元的總數(shù),在每一次迭代中神經(jīng)元點火的次數(shù)被統(tǒng)計,YY矩陣的初始值是0,其大小與Y相同,YY和Y之間是或運算關系,當YY矩陣中所有元素均為1時迭代終止,也就是YY中1的個數(shù)總和為N。

        3 實驗結(jié)果與分析

        本文分別使用正常腦部、腦膜瘤、腦弓形蟲病的CT和MRI圖像進行融合仿真實驗。實驗環(huán)境為:64位Windows 7操作系統(tǒng),Matlab R2015b,Intel Core i5- 2430,2.4 GHz處理器,8 GB運行內(nèi)存。實驗圖片來自哈佛大學醫(yī)學院。實驗結(jié)果如圖2~4所示。

        圖2 正常腦部的CT與MRI圖像及融合結(jié)果Fig. 2 CT and MRI images and fusion results of normal brain

        圖3 腦膜瘤患者的CT與MRI圖像及融合結(jié)果Fig. 3 CT and MRI images and fusion results of meningioma

        從圖2~4的子圖(a)和(b)中可以看出:CT圖像中骨骼成像突出,但軟組織對比度較低;MRI圖像則不同,骨結(jié)構顯示較差,但軟組織分辨力高,更有利于對病灶位置的定位。將文獻[7]算法、在NSCT下LSCN模型的融合算法、文獻[17]算法、基于SCM的融合算法、使用點火頻率作為輸出的LSCN融合方法和本文算法進行比較。其中文獻[7]算法為在NSCT下基于PCNN模型的融合算法,該模型的輸出為點火頻率;NSCT下LSCN模型的融合算法與文獻[7]的融合框架相同,其輸出為L項;文獻[17]為沒有分頻的PCNN融合算法,該模型的輸出為點火頻率;基于SCM的融合算法中,SCM模型是在PCNN上改進而來的,其輸出仍為點火頻率;使用點火頻率作為輸出的LSCN算法和本文中使用L項作輸出的算法的區(qū)別僅在于輸出項,目的是為了比較LSCN模型分別以點火頻率和L項來指導融合的結(jié)果。傳統(tǒng)的算法均是通過點火頻率的大小來選取融合后圖像的像素值。本文算法和分頻的LSCN算法是用L項的大小來決定融合后圖像的像素值。將本文算法與四種傳統(tǒng)算法進行對比,目的是比較分別使用L項和點火頻率進行圖像融合的結(jié)果。

        圖4 腦弓形蟲病患者的CT與MRI圖像及融合結(jié)果Fig. 4 CT and MRI images and fusion results of brain toxoplasmosis

        由圖2~4可見:6種算法都成功地融合了兩幅圖像,既突出了腦部的骨骼部分又包含了軟組織的信息,取得了不錯的效果。

        仔細觀察可以發(fā)現(xiàn):圖2(c)和2(d)中視覺效果差不多,但是均丟失了源MRI中的部分信息。圖2(e)中軟組織和骨骼信息較暗,圖像質(zhì)量較差;圖2(f)~(h)的融合結(jié)果較好,但圖2(h)的視覺效果最好,可以很好地保留圖像的空間細節(jié)信息,骨骼信息突出,軟組織對比度高,成像質(zhì)量最好。

        圖3(c)、(d)中在對MRI源圖像信息的提取和表達上表現(xiàn)不佳,存在一些偽影,圖3(e)視覺效果相對好一些,但是存在同樣的問題。相比之下,圖3(f)、(g)、(h)的清晰度、對比度較高,但本文算法中軟組織部分與源圖像較接近,融合效果最好。

        由圖4中腦弓形蟲病患者MRI圖像可知,圖4(c)、(d)中細節(jié)信息豐富,但是圖像灰暗難以觀察;圖4(e)中源MRI中的很多細節(jié)被弱化;圖4(f)、(g)、(h)在視覺效果上優(yōu)于其他對比算法,但本文算法中信息豐富成像質(zhì)量最好。

        以上是從人眼角度的主觀評價,為了更加全面地對融合結(jié)果進行評估,本文選取了客觀評價指標互信息(Mutual Information, MI)、邊緣信息評價因子(Edge Information Evaluation Factor, QAB/F)、信息熵(Information Entropy, IE)、標準差(Standard Deviation, SD)、空間頻率(Space Frequency, SF)、平均梯度(Average Grads, AG)(AG可衡量圖像的清晰度)對融合圖像進行評價。以上6個指標的值越大融合效果越好,評價結(jié)果如表1~3所示。

        表1 正常腦部的客觀指標Tab. 1 Objective indicators of normal brain

        由表1可以看出,本文算法中選用L項作為輸出在QAB/F、IE、SD、SF、AG均高于點火頻率作為輸出時的值。本文算法有4項指標高于SCM算法,有5項指標高于文獻[17]算法;本文算法有4項指標高于分頻后的LSCN,其中IE、AG低于該算法;本文算法有4項指標高于文獻[7]算法,IE、AG低于該算法。

        表2 腦膜瘤的客觀指標Tab. 2 Objective indicators of meningioma

        由表2可得本文算法在MI、QAB/F、IE、SD、SF、AG上均高于點火頻率作為輸出的值。本文算法有4項指標高于SCM,1項與其相同,有5項指標的值高于文獻[17]算法;本文算法有4項指標高于分頻后的LSCN,其中IE和AG均低于該算法;本文算法有4項指標高于文獻[7]算法,其中在IE和AG上低于該算法。

        表3 腦弓形蟲病的客觀指標Tab. 3 Objective indicator of brain toxoplasmosis

        由表3可得本文算法在QAB/F、IE、SD、SF、AG均高于點火頻率作為輸出的值。本文算法中5項指標均高于SCM,有6項指標均高于文獻[17]算法;本文算法有4項指標高于分頻后的LSCN,其中IE和AG均低于該算法;本文算法有4項高于文獻[7]算法,其中文獻[7]算法中IE和AG高于本文算法。

        由表1~3可知,本文算法和文獻[7]算法、文獻[17]算法、SCM算法、以點火頻率輸出的LSCN算法這些均是以點火頻率作為指標來融合圖像的算法相比,6項客觀評價指標中均有大于等于4項優(yōu)于對比算法。本文算法和分頻LSCN算法均是使用L項作為指標來融合圖像,但本文算法也有4項指標明顯高于對比算法。綜上所述,本文算法取得了不錯的結(jié)果,不僅能夠較好地融合圖像信息而且保留了細節(jié)部分,客觀評價與直觀觀察結(jié)果保持一致。

        通過觀察文獻[7]算法、分頻LSCN算法實驗結(jié)果可知,這兩種算法在IE、AG上均明顯高于其他算法。分頻的LSCN算法在IE、AG上均高于本文算法,這兩種算法的區(qū)別僅在于分頻與否,因此可得到一個結(jié)論:在利用LSCN模型進行圖像融合時,如果首先對圖像進行NSCT分頻處理,分頻后的LSCN算法在IE和AG指標上較高;如果不分頻,則該算法在MI、QAB/F、SD、SF上較高。因此在使用該模型進行圖像融合時可以針對融合圖像的需求選擇合適的算法。如果注重融合圖像的IE和AG則可對圖像進行分頻處理;如果更注重MI、QAB/F、SD、SF則不需分頻。

        4 結(jié)語

        本文首次使用LSCN模型進行圖像融合實驗,并使用多通工作方式作為迭代終止條件,使用該模型中L項代替點火頻率作為輸出,解決了傳統(tǒng)PCNN模型參數(shù)過多、參數(shù)和迭代次數(shù)難設置及融合效果差等問題,同時得出使用LSCN模型進行圖像融合時是否需要分頻處理的結(jié)論。通過與五種算法進行對比得出,本文算法不論是從人眼還是客觀評價指標均優(yōu)于對比算法。

        目前基于PCNN模型進行圖像融合的文獻較多,而基于兩種經(jīng)典的簡化模型ICM和SCM的融合算法研究較少,特別是,截止目前尚未發(fā)現(xiàn)基于LSCN模型進行圖像融合的文獻和相關研究成果。因此,接下來的工作就是對該模型進一步地深入研究,比如對激勵和連接強度的改進等。

        References)

        [1] WANG Z B, WANG S, ZHU Y, et al. Review of image fusion based on pulse-coupled neural network [J]. Archives of Computational Methods in Engineering, 2016, 23(4): 659-671.

        [2] LIU Y, LIU S P, WANG Z F. A general framework for image fusion based on multi-scale transform and sparse representation [J]. Information Fusion, 2015, 24: 147-164.

        [3] 佘二永,王潤生,徐學文.基于統(tǒng)計模型的遙感圖像多分辨融合方法[J].電子學報,2008,36(3):490-493.(SHE E Y, WANG R S, XU X W. Multi-Resolution fusion of remote sensing image based on statistical model [J]. Acta Electronica Sinica, 2008, 36(3): 490-493.)

        [4] ZHAN K, SHI J H, WANG H B, et al. Computational mechanisms of pulse-coupled neural networks: a comprehensive review[J]. Archives of Computational Methods in Engineering, 2017 , 24(3) : 573-588.

        [5] 薛寺中,周愛平,梁久禎.基于小波變換的自適應脈沖耦合神經(jīng)網(wǎng)絡圖像融合[J].計算機應用,2010,30(12):3225-3228.(XUE S Z, ZHOU A P, LIANG J Z. Image fusion based on wavelet transform and adaptive PCNN [J]. Journal of Computer Applications, 2010, 30(12): 3225-3228.)

        [6] 鄧翔宇,馬義德.PCNN參數(shù)自適應設定及其模型的改進[J].電子學報,2012,40(5):955-964.(DENG X Y, MA Y D. PCNN model automatic parameters determination and its modified model [J]. Acta Electronica Sinica, 2012, 40(5): 955-964.)

        [7] QU X B, YAN J W, XIAO H Z, et al. Image fusion algorithm based on spatial frequency-motivated pulse coupled neural networks in nonsubsampled contourlet transform domain [J]. Acta Automatica Sinica, 2008, 34(12): 1508-1514.

        [8] 王佺,聶仁燦,周冬明,等.多目標粒子群優(yōu)化PCNN參數(shù)的圖像融合算法[J].中國圖象圖形學報,2016,21(10):1298-1306.(WANG Q, NIE R C, ZHOU D M, et al. Image fusion algorithm using PCNN model parameters of multi-objective particle swarm optimization [J]. Journal of Image and Graphics, 2016, 21(10): 1298-1306.)

        [9] 薛寺中,周愛平,梁久禎.基于小波變換的PCNN多傳感器圖像融合[J].計算機工程與應用,2011,47(35):210-213.(XUE S Z, ZHOU A P, LIANG J Z. Fusion of multi-sensor images based on wavelet transform and PCNN [J]. Computer Engineering and Applications, 2011, 47(35): 210-213.)

        [10] EKBLAD U, KINSER J M, ATMER J, et al. The intersecting cortical model in image processing [J]. Nuclear Instruments & Methods in Physics Research, 2004, 525(1/2): 392-396.

        [11] ZHAN K, ZHANG H J, MA Y D. New spiking cortical model for invariant texture retrieval and image processing [J]. IEEE Transactions on Neural Networks, 2009, 20(12): 1980-1986.

        [12] KONG W W. Multi-sensor image fusion based on NSST domain I2CM [J]. Electronics Letters, 2013, 49(13): 802-803.

        [13] WANG N Y, MA Y D, ZHAN K. Spiking cortical model for multifocus image fusion [J]. Neurocomputing, 2014, 130(3): 44-51.

        [14] WANG R, WU Y, DING M Y, et al. Medical image fusion based on spiking cortical model [C]// Proceedings of the SPIE 8676, Medical Imaging 2013: Digital Pathology. Bellingham: SPIE, 2013: 867610.

        [15] ZHAN K, SHI J H, TENG J C, et al. Linking synaptic computation for image enhancement [J]. Neurocomputing, 2017, 238: 1-12.

        [16] ECKHORN R, REITBOECK H J, ARNDT M, et al. A neural network for feature linking via synchronous activity [J]. Canadian Journal of Microbiology, 1989, 46(8): 759-763.

        [17] WANG Z B, MA Y D, GU J. Multi-focus image fusion using PCNN [J]. Pattern Recognition, 2010, 43(6): 2003-2016.

        [18] 王念一. 脈沖發(fā)放皮層模型圖像融合技術研究[D].蘭州:蘭州大學,2014:28-47.(WANG N Y. Spiking cortical model for image fusion [D]. Lanzhou:Lanzhou University, 2014: 28-47.)

        This work is partially supported by the Natural Science Foundation of Shanxi Province (2015011045).

        GAOYuan, born in 1972, M. S., associate professor. Her research interests include image processing, artificial intelligence.

        JIAZiting, born in 1992, M. S. candidate. Her research interests include medical image fusion.

        QINPinle, born in 1978, Ph. D., associate professor. His research interests include machine vision, big data processing.

        WANGLifang, born in 1977, Ph. D., associate professor. Her research interests include machine vision, big data processing.

        Medicalimagefusionalgorithmbasedonlinkingsynapticcomputationnetwork

        GAO Yuan*, JIA Ziting, QIN Pinle, WANG Lifang

        (SchoolofDataScience,NorthUniversityofChina,TaiyuanShanxi030051,China)

        The traditional fusion methods based on Pulse Coupled Neural Network (PCNN) have the shortcomings of too many parameters, the parameters and number of network iterations difficult to accurately set, and poor fusion effect. In order to solve the problems, a new image fusion algorithm using the connection item (L item) of Linking Synaptic Computing Network (LSCN) model was proposed. Firstly, the two images to be fused was input into the LSCN model respectively. Secondly, the L term was used to replace the ignition frequency in the traditional PCNN as the output. Then, the iteration was terminated by the multi-pass operation. Finally, the pixels of the fused image were obtained by comparing the values of L terms. The theoretical analysis and experimental results show that, compared with the image fusion algorithms using the improved PCNN model and the new model proposed on the basis of PCNN model, the fusion images generated by the proposed algorithm have better visual effects. In addition, compared with the fusion algorithm of LSCN using ignition frequence as the output, the proposed algorithm is all superior in edge information evaluation factor, information entropy, standard deviation, space frequency, average grads. The proposed algorithm is simple and convenient, which not only reduces the number of parameters to be determined, reduces the computational complexity, but also solves the problem that the number of iterations in the traditional model is difficult to be determined.

        Linking Synaptic Computation Network (LSCN); ignition frequency; image fusion; Computed Tomography (CT); Magnetic Resonance Imaging (MRI); Pulse Coupled Neural Network (PCNN)

        2017- 06- 01;

        2017- 08- 30。

        山西省自然科學基金資助項目(2015011045)。

        高媛(1972—),女,山西太原人,副教授,碩士,主要研究方向:圖像處理、人工智能; 賈紫婷(1992—),女,山西呂梁人,碩士研究生,主要研究方向:醫(yī)學圖像融合; 秦品樂(1978—),男,山西長治人,副教授,博士,主要研究方向:機器視覺、大數(shù)據(jù)處理; 王麗芳(1977—),女,山西長治人,副教授,博士,主要研究方向:機器視覺、大數(shù)據(jù)處理。

        1001- 9081(2017)12- 3554- 04

        10.11772/j.issn.1001- 9081.2017.12.3554

        (*通信作者電子郵箱949763497@qq.com)

        TP391.41

        A

        猜你喜歡
        神經(jīng)元次數(shù)神經(jīng)網(wǎng)絡
        機場航站樓年雷擊次數(shù)計算
        《從光子到神經(jīng)元》書評
        自然雜志(2021年6期)2021-12-23 08:24:46
        2020年,我國汽車召回次數(shù)同比減少10.8%,召回數(shù)量同比增長3.9%
        商用汽車(2021年4期)2021-10-13 07:16:02
        一類無界算子的二次數(shù)值域和譜
        神經(jīng)網(wǎng)絡抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        躍動的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
        依據(jù)“次數(shù)”求概率
        基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        復數(shù)神經(jīng)網(wǎng)絡在基于WiFi的室內(nèi)LBS應用
        基于二次型單神經(jīng)元PID的MPPT控制
        電源技術(2015年5期)2015-08-22 11:18:38
        国产成人精品久久亚洲高清不卡| 日韩极品视频在线观看免费| 国产精品一区又黄又粗又猛又爽 | 伊人婷婷综合缴情亚洲五月| 日本妇人成熟免费2020| 欧美天天综合色影久久精品| 免费jjzz在线播放国产| 精品国产一区二区三区男人吃奶| 亚洲一区二区三区四区地址| 日产学生妹在线观看| 久久精品国产精品亚洲毛片| 青青草视频在线视频播放| 一区二区三区日本高清| 久久97久久97精品免视看| 人妻无码人妻有码中文字幕| 欧美—iGAO视频网| 亚洲一区二区刺激的视频| 日本乱偷人妻中文字幕| 中文字幕在线免费| 国产一区二区av男人| 色呦呦九九七七国产精品| a级毛片成人网站免费看| 国产资源精品一区二区免费| 羞涩色进入亚洲一区二区av| 妺妺窝人体色777777| 天天摸日日摸狠狠添| 国产一起色一起爱| 成av人大片免费看的网站| 品色堂永远免费| 狠狠色狠狠色综合| 国产成人精品自拍在线观看| 日日碰日日摸日日澡视频播放| 亚洲国产精品日韩av专区| 日韩精品一区二区三区四区| 亚洲性日韩一区二区三区| 国产精品成人网站| 成人午夜毛片| 小草手机视频在线观看| 欧美性生交大片免费看app麻豆 | 门卫又粗又大又长好爽| 亚洲饱满人妻视频|