亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)的腦片圖像區(qū)域劃分方法

        2020-06-01 10:55:00王松偉趙秋陽王宇航饒小平
        計算機(jī)應(yīng)用 2020年4期
        關(guān)鍵詞:模態(tài)小鼠區(qū)域

        王松偉,趙秋陽,王宇航,饒小平

        (1. 鄭州大學(xué)電氣工程學(xué)院,鄭州450000; 2. 中國科學(xué)院武漢物理與數(shù)學(xué)研究所,武漢430071)

        (?通信作者電子郵箱wangsongwei_zzu@163.com)

        0 引言

        動物的大腦由數(shù)目龐大、不同形態(tài)及功能的細(xì)胞組成,通過不同的神經(jīng)網(wǎng)絡(luò)主導(dǎo)各種心理、生理活動[1]。研究大腦是治療腦神經(jīng)疾病、模擬腦網(wǎng)絡(luò)功能、優(yōu)化人工智能的基礎(chǔ)。免疫組織化學(xué)染色[2]、乙酰膽堿酯酶染色[3-4]和尼氏染色[5-6]等神經(jīng)組織染色方法的出現(xiàn)和大量應(yīng)用,促使人們制作完成了多種動物的標(biāo)準(zhǔn)腦圖譜[7-9]。標(biāo)準(zhǔn)腦圖譜的建立為腦科學(xué)研究人員進(jìn)行腦區(qū)研究提供了極大的便利。隨著神經(jīng)環(huán)路標(biāo)記及神經(jīng)染色技術(shù)[10-12]的進(jìn)一步發(fā)展和磁共振成像技術(shù)(Magnetic Resonance Imaging,MRI)的應(yīng)用[13-14],往往需要對各個腦區(qū)的細(xì)胞數(shù)目、熒光信號強(qiáng)度以及分子表達(dá)水平進(jìn)行量化分析比較,進(jìn)而對腦網(wǎng)絡(luò)組成結(jié)構(gòu)及神經(jīng)細(xì)胞分布特性進(jìn)行研究。

        參照標(biāo)準(zhǔn)腦圖譜對腦片進(jìn)行區(qū)域劃分是腦區(qū)研究的基礎(chǔ),直接影響標(biāo)記神經(jīng)元及熒光信號在不同腦區(qū)分布的統(tǒng)計結(jié)果,從而對整體研究結(jié)論產(chǎn)生較大影響。自動化區(qū)域劃分通常需要配準(zhǔn)操作。盡管已經(jīng)開發(fā)了許多小鼠腦圖譜,但并不存在小鼠熒光染色圖譜。因此,采用常見的單模態(tài)或多模態(tài)配準(zhǔn)算法對小鼠腦圖譜與小鼠熒光染色腦切片配準(zhǔn)時,由于兩種圖像并不存在映射的對稱性,導(dǎo)致配準(zhǔn)效果較差。而且為保證小鼠腦切片中各個腦分區(qū)標(biāo)記神經(jīng)元數(shù)量統(tǒng)計的準(zhǔn)確性,需要保持腦切片的不變性,將標(biāo)準(zhǔn)腦圖譜配準(zhǔn)到小鼠腦切片上。目前常見的小鼠腦切片與標(biāo)準(zhǔn)腦圖譜配準(zhǔn)方法有以下幾種:1)參照標(biāo)準(zhǔn)圖譜,在腦切片圖像上人工識別腦分區(qū),并對腦區(qū)輪廓進(jìn)行手繪,但手繪需要依靠專家經(jīng)驗且標(biāo)準(zhǔn)不一,只適用于少量樣本繪制,不適用大量樣本規(guī)?;幚?;2)通過Photoshop 圖像處理軟件,進(jìn)行簡易腦片圖像的半自動區(qū)域劃分[15],此方法同樣需要專家經(jīng)驗,且費時費力,無法進(jìn)行規(guī)?;哪X區(qū)劃分。3)采用傳統(tǒng)多模態(tài)配準(zhǔn)方式進(jìn)行配準(zhǔn)[16],與模態(tài)內(nèi)配準(zhǔn)相比,模態(tài)間配準(zhǔn)是更具挑戰(zhàn)性的任務(wù),因為很難定義有效的相似性度量以指導(dǎo)跨模態(tài)的局部配準(zhǔn)。一般來說,互信息(Mutual Information,MI)[17]及其變體[18]是解決模態(tài)間配準(zhǔn)問題的常用方法。然而,MI是一種全局相似性度量,其精確進(jìn)行局部匹配的能力有限,因為局部區(qū)域中的體素數(shù)不足使得在計算MI時強(qiáng)度分布魯棒性較差。因此,采用多模態(tài)配準(zhǔn)算法對本研究任務(wù)進(jìn)行配準(zhǔn)時,其配準(zhǔn)精度較差,目前仍然缺乏簡單高效的腦片自動化區(qū)域劃分方法。為克服多模態(tài)配準(zhǔn)相似性度量的缺點,一些學(xué)者提出使用結(jié)構(gòu)表示的方法將多模態(tài)配準(zhǔn)轉(zhuǎn)換為單模態(tài)配準(zhǔn)。Heinrich 等[19]提出基于局部自相似的模態(tài)無關(guān)鄰域描述符(Modality Independent Neighbourhood Descriptor,MIND)方法進(jìn)行結(jié)構(gòu)表示,該方法對噪聲和強(qiáng)度差異魯棒性較強(qiáng)。Wachinger等[20]提出基于拉普拉斯的結(jié)構(gòu)表示方法,但該方法對圖像噪聲敏感且計算成本較高。Oktay 等[21]提出基于結(jié)構(gòu)化決策森林表示的概率邊緣圖,并用于多模態(tài)超聲圖像配準(zhǔn)上。但這些人為設(shè)計的低級特征并不能對圖像的復(fù)雜特征進(jìn)行很好的表示。

        由于傳統(tǒng)配準(zhǔn)算法的泛化性能差,且傳統(tǒng)配準(zhǔn)算法采用迭代優(yōu)化的方式進(jìn)行參數(shù)尋優(yōu),處理速度慢,無法做到實時化配準(zhǔn)。而深度學(xué)習(xí)方法具有很好的泛化能力且能夠做到實時化處理。因此,隨著近年來深度學(xué)習(xí)的發(fā)展,基于深度學(xué)習(xí)的醫(yī)學(xué)圖像配準(zhǔn)方法逐漸成為配準(zhǔn)熱門的研究方向。Simonovsky 等[22]提出使用深度學(xué)習(xí)網(wǎng)絡(luò)來估計兩個圖像的相似性度量以驅(qū)動迭代優(yōu)化策略;Miao 等[23]使用深度學(xué)習(xí)算法去預(yù)測輸入圖像的配準(zhǔn)變換參數(shù);Krebs等[24]使用人工代理優(yōu)化變形模型參數(shù),該方法對前列腺MRI圖像進(jìn)行配準(zhǔn)實驗時,表現(xiàn)出了較好的配準(zhǔn)結(jié)果;Marc-Michel 等[25]提出一種以全卷積神經(jīng)網(wǎng)絡(luò)為主要架構(gòu)的配準(zhǔn)網(wǎng)絡(luò),并在患者間的心臟圖像上進(jìn)行配準(zhǔn)實驗,表現(xiàn)出較好的配準(zhǔn)精度與配準(zhǔn)速度;劉晨等[26]提出一種結(jié)合深度學(xué)習(xí)與尺度不變特征轉(zhuǎn)換(Scale-Invariant Feature Transform,SIFT)的多尺度B 樣條配準(zhǔn)方法;高寧等[27]提出一種基于級聯(lián)的卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)漸進(jìn)分層的人臉配準(zhǔn)方法。但這些方法大都需要提供真實的解剖學(xué)標(biāo)志信息。

        基于以上腦科學(xué)研究需求及配準(zhǔn)方法的問題,本文利用ARA(Allen Reference Atlases)[28]中 的 成 年 小 鼠Average Template、Atlas 腦 圖 譜 和PCANet-SR(Principal Component Analysis Net-based Structural Representation)、U-net 以及空間變換網(wǎng)絡(luò),提出一種無監(jiān)督多模態(tài)腦片圖像的區(qū)域劃分方法。對于非剛性配準(zhǔn)任務(wù),與傳統(tǒng)的基于優(yōu)化的配準(zhǔn)算法相比,該配準(zhǔn)方法可以在測試階段有效地配準(zhǔn)兩個圖像而無需迭代優(yōu)化或參數(shù)調(diào)整。該配準(zhǔn)網(wǎng)絡(luò)架構(gòu)首先采用PCANet-SR網(wǎng)絡(luò)提取并融合圖像的多級特征,將非同一模態(tài)的腦切片與標(biāo)準(zhǔn)腦圖譜進(jìn)行同模態(tài)轉(zhuǎn)換,然后送入配準(zhǔn)神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,訓(xùn)練完成后將訓(xùn)練得到的空間變形場作用到Atlas 腦圖譜上,最后提取變形后的Atlas 腦圖譜的邊緣輪廓與原始腦切片融合,完成腦區(qū)劃分工作。此配準(zhǔn)框架較為簡單,可以擴(kuò)展到任何模態(tài)間配準(zhǔn)任務(wù)。本文使用模態(tài)內(nèi)相似性度量局部歸一化相關(guān)系數(shù)(Normalized Correlation Coefficient,NCC)[29]來有效地訓(xùn)練多模態(tài)配準(zhǔn)網(wǎng)絡(luò),而非直接定義不同模態(tài)的相似性度量。該方法適用于不同模態(tài)的腦片和腦圖譜配準(zhǔn)且在訓(xùn)練期間不需要解剖標(biāo)志等監(jiān)督信息,能夠精準(zhǔn)快速地進(jìn)行無監(jiān)督多模態(tài)腦片配準(zhǔn)。本文算法的流程如圖1所示。

        圖1 腦片圖像區(qū)域劃分算法流程Fig.1 Flowchart of brain slice image region division algorithm

        1 相關(guān)知識

        1.1 腦片圖像獲取

        小鼠腦片圖像獲取主要分為三步:嗜神經(jīng)工具病毒注射、取材及樣本制備、免疫組化及共聚焦成像。首先選取8 周齡成年小鼠進(jìn)行麻醉及消毒等準(zhǔn)備工作,然后在小鼠大腦目標(biāo)區(qū)域注入可以表達(dá)熒光蛋白的日本腦炎病毒(Japanese Encephalitis Virus,JEV)[30]。待病毒表達(dá)7.5 d 后,對小鼠進(jìn)行過量麻醉,然后進(jìn)行心臟灌流手術(shù)。手術(shù)完成后使用多聚甲醛固定液對小鼠腦組織進(jìn)行固定,再采用震蕩切片機(jī)對小鼠腦組織進(jìn)行切片處理并在磷酸鹽緩沖液中保存切片。最后使用10%羊血清和抗JEV 病毒對目標(biāo)切片進(jìn)行免疫組化處理,使用共聚焦顯微鏡(Leica SP8)對腦片紅綠藍(lán)三通道進(jìn)行熒光成像,然后導(dǎo)出Tiff 格式圖片。小鼠大腦內(nèi)與目標(biāo)區(qū)域相關(guān)的標(biāo)記神經(jīng)網(wǎng)絡(luò)切片如圖2所示。

        1.2 PCANet-SR特征提取網(wǎng)絡(luò)

        PCANet-SR 網(wǎng)絡(luò)是一個串級的線性網(wǎng)絡(luò),由基本的數(shù)據(jù)處理組件組成:級聯(lián)主成分分析(PCA)組件、輸出組件、結(jié)構(gòu)表示組件。級聯(lián)主成分分析組件由兩個隱藏層組成:第一個隱藏層通過提取輸入圖像的主要特征向量產(chǎn)生卷積核,輸入圖像與卷積核進(jìn)行二維卷積操作后輸出,作為第二個隱藏層的輸入;第二個隱藏層的結(jié)構(gòu)與第一個隱藏層類似。輸出組件使用sigmoid 函數(shù)對第二個隱藏層的輸出進(jìn)行表示。最后使用指數(shù)函數(shù)將第一個隱藏層的輸出和第二個隱藏層的輸出進(jìn)行多特征融合,然后輸出PCANet-SR 網(wǎng)絡(luò)感興趣的圖像特征。

        圖2 標(biāo)記小鼠腦神經(jīng)網(wǎng)絡(luò)的腦切片和標(biāo)記神經(jīng)元局部放大圖Fig. 2 Mouse brain neural network labeled brain slice and local enlargement of labeled neurons

        1.3 醫(yī)學(xué)圖像配準(zhǔn)

        醫(yī)學(xué)圖像配準(zhǔn)是指針對一幅圖像,尋求一系列空間變換,使之與另一幅圖像上的空間對應(yīng)點達(dá)到一致。通常,變換操作將來自目標(biāo)生理學(xué)的同源位置映射到源生理學(xué)位置。執(zhí)行配準(zhǔn)的兩幅圖像中:一幅被稱為參考圖像,另一幅被稱為浮動圖像。參考圖像由F 表示,浮動圖像由M 表示,空間變換由φ表示。配準(zhǔn)的目標(biāo)是估計優(yōu)化能量函數(shù)。能量函數(shù)定義如下:

        L(F,M,φ) = Lsim(F,M(φ)) + λLR(φ) (1)其中:M(φ)表示被空間變換關(guān)系φ 扭曲的浮動圖像M;函數(shù)Lsim表示對參考圖像F和扭曲后的浮動圖像M(φ)進(jìn)行相似性度量;LR表示對空間變換關(guān)系φ施加正則化約束,使空間變換更加平滑;λ 表示正則化系數(shù)。優(yōu)化問題會根據(jù)相似性度量函數(shù)的選擇對能量函數(shù)進(jìn)行最大化或最小化。

        1.4 配準(zhǔn)

        配準(zhǔn)算法主要涉及三個部分:變形模型、匹配準(zhǔn)則和優(yōu)化方法。常見的變形模型有彈性模型、擴(kuò)散模型、微分同胚和彈性樣條等。匹配準(zhǔn)則有基于描述符的匹配、基于屬性和強(qiáng)度的匹配及混合方法的匹配。本文的匹配準(zhǔn)則即通過將兩種模式映射到公共模式,從而將多模態(tài)配準(zhǔn)轉(zhuǎn)換為單模態(tài)配準(zhǔn)。優(yōu)化方法包括梯度下降法、共軛梯度法、擬牛頓法、高斯牛頓法以及貪婪法和進(jìn)化算法等。

        2 本文方法

        2.1 腦片圖像區(qū)域劃分

        2.1.1 全局粗配準(zhǔn)

        對圖像進(jìn)行全局剛性粗配準(zhǔn)可以校正圖像的全局形變,再對圖像進(jìn)行配準(zhǔn)時可以取得更好的配準(zhǔn)效果。通過嗜神經(jīng)工具病毒JEV 標(biāo)記小鼠大腦神經(jīng)網(wǎng)絡(luò)得到腦切片圖像,腦切片中因個體差異的存在,導(dǎo)致與標(biāo)準(zhǔn)腦圖譜形變差異較大,且在腦切片的制作過程中存在大位移誤差,這些誤差會對配準(zhǔn)產(chǎn)生較大影響,進(jìn)而影響配準(zhǔn)精度。通過提取腦切片與腦圖譜灰度特征,并對腦切片灰度值進(jìn)行調(diào)整,然后通過高斯濾波平滑處理,再使用優(yōu)化函數(shù)對兩幅圖像的均方誤差進(jìn)行優(yōu)化,最后對變換圖像進(jìn)行插值,以達(dá)到對標(biāo)準(zhǔn)腦圖譜仿射變換的目的。仿射變換后的標(biāo)準(zhǔn)腦圖譜如圖3所示。

        圖3 腦切片與仿射變換前后腦圖譜Fig.3 Brain slices and the brain maps before and after affine transformation

        2.1.2 PCANet-SR模態(tài)轉(zhuǎn)換

        在該配準(zhǔn)框架中,PCANet-SR 方法[31]用于提取圖像的多級特征。手工設(shè)計的結(jié)構(gòu)表示特征雖然可以對特定任務(wù)下的圖像進(jìn)行較好的特征提取,但是這些特征的泛化能力有限,對于新問題往往需要構(gòu)建新的特征,且對于結(jié)構(gòu)復(fù)雜的醫(yī)學(xué)圖像特征并不能進(jìn)行很好地表示,因此面對配準(zhǔn)任務(wù)并不能得到較高的配準(zhǔn)精度。而PCANet-SR可以提取圖像的多級特征并進(jìn)行特征融合,可以將不同模態(tài)的圖像轉(zhuǎn)換為同一模態(tài),減小模態(tài)之間的差異,可以從感興趣的數(shù)據(jù)中自動學(xué)習(xí)特征,且具有優(yōu)秀的泛化能力,因此PCANet-SR 方法面對配準(zhǔn)任務(wù)可以得到更好的配準(zhǔn)性能。具有兩個隱藏層的PCANet-SR模型如圖4所示。下文將詳細(xì)介紹PCANet-SR的結(jié)構(gòu)。

        圖4 使用PCANet-SR多級特征融合的結(jié)構(gòu)表示Fig.4 Structure representation using PCANet-SR multi-level feature fusion

        衰減參數(shù)a1和a2可以保證在PCANet-SR 中對于相似性較高的區(qū)域有一個較明顯的響應(yīng)。衰減參數(shù)對于每個圖像像素是局部自適應(yīng)的。衰減參數(shù)與噪聲方差成正比[33],因此衰減參數(shù)的選擇與圖像的梯度相關(guān)。

        2.1.3 配準(zhǔn)網(wǎng)絡(luò)架構(gòu)

        對配準(zhǔn)網(wǎng)絡(luò)進(jìn)行建模Reg-Net:(MPSR,F(xiàn)PSR;θ,λ) ?φ。對于輸入的浮動圖像M 和參考圖像F,首先使用仿射變換進(jìn)行預(yù)配準(zhǔn),然后使用PCANet-SR進(jìn)行同模態(tài)轉(zhuǎn)換,最后送入無監(jiān)督深度學(xué)習(xí)配準(zhǔn)框架中進(jìn)行訓(xùn)練,輸出與輸入圖像相同尺寸的變形場φ,使用空間變換網(wǎng)絡(luò)Τ以及訓(xùn)練得到的變形場φ對浮動圖像進(jìn)行扭曲以適應(yīng)參考圖像。在測試階段,只需要輸入新的浮動圖像和參考圖像,通過配準(zhǔn)網(wǎng)絡(luò)Reg-Net即可獲得空間變形場φ,配準(zhǔn)網(wǎng)絡(luò)架構(gòu)如圖5所示。

        圖5 配準(zhǔn)網(wǎng)絡(luò)框架Fig.5 Registration network framework

        網(wǎng)絡(luò)以MPSR和FPSR為輸入,配準(zhǔn)網(wǎng)絡(luò)Reg-Net中的參數(shù)θ(卷積核參數(shù))在訓(xùn)練時進(jìn)行學(xué)習(xí),根據(jù)參數(shù)θ 計算空間變形場φ,使用空間變換網(wǎng)絡(luò)和空間變形場φ 將MPSR扭曲為MPSR(φ),使得模型能夠評估MPSR(φ)與FPSR的相似性并更新θ。

        圖6 配準(zhǔn)網(wǎng)絡(luò)Reg-NetFig.6 Registration network Reg-Net

        空間變換網(wǎng)絡(luò)通過解碼器的輸出φ 扭曲浮動圖像MPSR,空間變換層使神經(jīng)網(wǎng)絡(luò)能夠執(zhí)行全局參數(shù)化圖像對齊,而無需監(jiān)督標(biāo)簽[35]。為了使用基于標(biāo)準(zhǔn)梯度的方法,本文構(gòu)建了基于空間變換器網(wǎng)絡(luò)的可微分運算來計算MPSR(φ),因為圖像值僅在整數(shù)位置處有定義,所以需要在相鄰像素處線性插值。

        配準(zhǔn)網(wǎng)絡(luò)通過最小化損失函數(shù)進(jìn)行迭代優(yōu)化。損失函數(shù)被定義為:

        其中:MPSR(φ)是被MPSR和空間變形場φ 扭曲后的圖像;φ 表示從FPSR到MPSR指定的每個像素的向量偏移量;函數(shù)Lsim(·)用來度量FPSR和MPSR(φ)的相似性;Lreg(φ)表示在φ 上施加正則化約束;和(φ)分別表示參考圖像和扭曲后的浮動圖像的去均值后的灰度值。在實驗中局部范圍取D = 9,使用局部歸一化相關(guān)系數(shù)定義Lsim(·):

        其中:p 表示圖像中的所有像素值;q 表示局部范圍內(nèi)的像素值;Ω 表示整個圖像域;D 表示局部大小為9 × 9 的圖像域。局部歸一化相關(guān)系數(shù)越大,說明配準(zhǔn)效果越好。通過最小化Lsim(·)來訓(xùn)練配準(zhǔn)網(wǎng)絡(luò),但是可能產(chǎn)生不連續(xù)的變形場φ,因此需要施加正則化約束對φ進(jìn)行平滑處理:

        圖7 部分仿射變換及PCANet-SR處理后的訓(xùn)練圖像Fig.7 Some training images after affine transformation and PCANet-SR processing

        其中:?表示拉普拉斯變換;λ 表示正則化參數(shù)。本文實驗中λ取值為0.55。

        完整的損失函數(shù)定義如下:

        2.2 數(shù)據(jù)集制作及網(wǎng)絡(luò)訓(xùn)練

        用免疫組化及共聚焦成像腦切片與ARA 中的成年小鼠Average Template 腦圖譜建立數(shù)據(jù)集。首先由腦科學(xué)專家人工選定與腦切片對應(yīng)的Average Template 腦圖譜,在預(yù)處理中,將所有圖像裁剪為相同尺寸(512 × 512),提取圖像灰度特征,然后使用仿射變換進(jìn)行全局粗配準(zhǔn),并使用鏡像操作進(jìn)行數(shù)據(jù)擴(kuò)充,最后將擴(kuò)充后的數(shù)據(jù)送入PCANet-SR 網(wǎng)絡(luò)中進(jìn)行模態(tài)轉(zhuǎn)換,生成腦切片F(xiàn)PSR和Average Template 腦圖譜MPSR數(shù)據(jù)集。腦切片F(xiàn)PSR與對應(yīng)Average Template 腦圖譜MPSR為一組圖像,共使用64組圖像送入配準(zhǔn)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,8組圖像進(jìn)行驗證,8 組圖像進(jìn)行測試。部分訓(xùn)練圖像組如圖7所示。

        本文方法在以Tensorflow為后端的Keras深度學(xué)習(xí)框架上實現(xiàn),Keras 是一個基于Python 編程語言的深度學(xué)習(xí)框架,它可以對幾乎所有類型的深度學(xué)習(xí)模型方便地定義和訓(xùn)練。Kera 目前有三個后端引擎實現(xiàn):Tensorflow 后端、Theano 后端和微軟認(rèn)知工具包后端,由于Tensorflow 的應(yīng)用最為廣泛,且可擴(kuò)展、可用于生產(chǎn)環(huán)境,所以本文最終選擇Tensorflow 作為Keras 的后端引擎。配準(zhǔn)網(wǎng)絡(luò)在Nvidia RTX2080Ti GPU 上訓(xùn)練。采用自適應(yīng)矩估計(Adaptive moment estimation,Adam)優(yōu)化策略,Adam優(yōu)化器利用梯度的一階矩估計及二階矩估計對每個參數(shù)的學(xué)習(xí)率實現(xiàn)動態(tài)調(diào)整。相對于其他優(yōu)化器,Adam優(yōu)化器實現(xiàn)簡單、計算高效,適合解決包含大規(guī)模數(shù)據(jù)和參數(shù)的優(yōu)化問題,且超參數(shù)具備可解釋性,因此本文實驗選擇Adam 優(yōu)化器作為優(yōu)化策略。通過模型訓(xùn)練曲線確定學(xué)習(xí)率為0.01。每輪訓(xùn)練1 000 次,共訓(xùn)練100 輪,當(dāng)損失函數(shù)沒有顯著降低時,停止訓(xùn)練。在本文實驗中,訓(xùn)練耗時約15 h。

        3 實驗與結(jié)果分析

        訓(xùn)練完成后,使用新的圖像進(jìn)行配準(zhǔn)效果測試。將測試生成的空間變形場同樣作用到與之對應(yīng)的Atlas 腦圖譜上,使之發(fā)生同樣的形變。

        從如圖8 所示的配準(zhǔn)效果可看出:腦切片與標(biāo)準(zhǔn)腦圖譜配準(zhǔn)精度較高,基本邊緣及內(nèi)部輪廓重疊程度較好,且變形后的Atlas 腦圖譜自動將腦切片圖像分為若干亞區(qū),各個亞區(qū)之間界限清晰,滿足實際腦科學(xué)研究需求。

        本配準(zhǔn)任務(wù)的精度通過腦切片與變形前后的Average Template 腦圖譜之間的均方根誤差(Root Mean Squared Error,RMSE)、相關(guān)系數(shù)(Correlation Coefficient,CC)以及MI 進(jìn)行衡量。均方根誤差越小,兩幅圖像的相似度越高;相關(guān)系數(shù)是廣泛使用的圖像相似性測度之一,它反映了圖像的相關(guān)程度,相關(guān)系數(shù)越大,兩幅圖像配準(zhǔn)效果越好;互信息用于描述兩幅圖像的統(tǒng)計相關(guān)性,兩幅圖像達(dá)到最佳配準(zhǔn)時,互信息值達(dá)到最大。B 樣條配準(zhǔn)方法是單模態(tài)配準(zhǔn)方法,經(jīng)過PCANet-SR 預(yù)處理后可以對多模圖像配準(zhǔn)。本文實驗測量了8 組原始圖像仿射變換前后、B 樣條配準(zhǔn)前后、PCANet-SR+B 樣條配準(zhǔn)前后以及本文方法配準(zhǔn)前后的均方根誤差、相關(guān)系數(shù)以及互信息,最后取8組圖像指標(biāo)的平均值,結(jié)果如表1所示。

        表1 配準(zhǔn)方法性能對比表Tab. 1 Registration method performance comparison

        從圖9 所示的原始腦切片圖像和不同配準(zhǔn)方法得到的區(qū)域劃分結(jié)果可看出,本文提出的配準(zhǔn)算法邊緣輪廓匹配程度優(yōu)于其他幾種對比方法。

        由實驗結(jié)果可知,本配準(zhǔn)方法配準(zhǔn)結(jié)果優(yōu)于PCANet-SR+B 樣條配準(zhǔn)方法。配準(zhǔn)完成后,RMSE 明顯降低,CC 及MI 明顯上升,與PCANet-SR+B 樣條配準(zhǔn)方法相比,本文方法的均方根誤差降低了1.6%,相關(guān)系數(shù)和互信息值分別提高了3.5%、0.78%。PCANet-SR+B 樣條配準(zhǔn)方法也可以對多模態(tài)的圖像進(jìn)行配準(zhǔn),但是與本文方法相比,PCANet-SR+B樣條配準(zhǔn)方法需要調(diào)整內(nèi)部參數(shù),且配準(zhǔn)過程較為耗時,兩幅512 ×512 大小的圖片進(jìn)行B 樣條配準(zhǔn)需要231 s。本文配準(zhǔn)方法可以實現(xiàn)無監(jiān)督多模態(tài)配準(zhǔn),只需要訓(xùn)練一次配準(zhǔn)網(wǎng)絡(luò),即可將配準(zhǔn)網(wǎng)絡(luò)模型泛化到新的配準(zhǔn)任務(wù)上去,采用訓(xùn)練得到的參數(shù)對新的圖像對進(jìn)行配準(zhǔn),只需要2 s 即可完成配準(zhǔn)操作,能夠?qū)崿F(xiàn)對多模態(tài)圖像的快速配準(zhǔn)和區(qū)域劃分。本文區(qū)域劃分方法的配準(zhǔn)指標(biāo)及實際區(qū)域劃分效果均優(yōu)于現(xiàn)有區(qū)域劃分方法。

        圖8 部分腦切片配準(zhǔn)及區(qū)域劃分效果Fig.8 Some brain slice registration and region division effects

        圖9 腦切片圖像與不同方法融合結(jié)果對比Fig.9 Comparison fusion results of brain slice images with different methods

        4 結(jié)語

        本文方法相對于手工劃分區(qū)域以及借助PS 軟件進(jìn)行區(qū)域劃分方法具有以下特點:無需專家經(jīng)驗,只需對大腦的一些標(biāo)志性結(jié)構(gòu)有所了解,即可規(guī)模化對腦區(qū)進(jìn)行劃分,且區(qū)域劃分準(zhǔn)確、快速;同時可以進(jìn)行大規(guī)模批量化處理。本文實驗展示的是小鼠冠狀腦切片的區(qū)域劃分,但是提出的腦片自動區(qū)域劃分方法也可應(yīng)用于小鼠矢狀腦切片以及大鼠和其他動物腦切片的區(qū)域劃分任務(wù)上。

        本文進(jìn)行了免疫組化及共聚焦成像腦切片與ARA 中的成年小鼠Average Template 腦圖譜的配準(zhǔn)及Atlas 腦圖譜的區(qū)域劃分,并且該算法的配準(zhǔn)效率和配準(zhǔn)精度均優(yōu)于目前現(xiàn)有的多模態(tài)配準(zhǔn)算法。此外,提出的配準(zhǔn)框架也易于擴(kuò)展并應(yīng)用于其他多種形式的配準(zhǔn)任務(wù)上。未來將側(cè)重于將此配準(zhǔn)框架向3D數(shù)據(jù)庫上擴(kuò)展。

        猜你喜歡
        模態(tài)小鼠區(qū)域
        愛搗蛋的風(fēng)
        小鼠大腦中的“冬眠開關(guān)”
        關(guān)于四色猜想
        分區(qū)域
        國內(nèi)多模態(tài)教學(xué)研究回顧與展望
        基于嚴(yán)重區(qū)域的多PCC點暫降頻次估計
        電測與儀表(2015年5期)2015-04-09 11:30:52
        基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
        加味四逆湯對Con A肝損傷小鼠細(xì)胞凋亡的保護(hù)作用
        由單個模態(tài)構(gòu)造對稱簡支梁的抗彎剛度
        計算物理(2014年2期)2014-03-11 17:01:39
        區(qū)域
        民生周刊(2012年10期)2012-10-14 09:06:46
        亚洲第一最快av网站| av天堂在线免费播放| 手机在线播放av网址| 国产精品无码一区二区三区电影| 国产精品亚洲专区无码不卡| 黑人巨大跨种族video| 国产精品高潮无码毛片| 爆乳午夜福利视频精品| 久久婷婷夜色精品国产| 亚洲丰满熟女乱一区二区三区 | 亚洲熟妇夜夜一区二区三区| 免费黄网站永久地址进入| 熟女人妻在线中文字幕 | 久久人人爽人人爽人人av| 99精品视频69V精品视频| 人妻无码在线免费| 中文字幕精品久久一区二区三区| 蜜臀久久99精品久久久久久| 国产99视频精品免视看9| 免费在线视频一区| 国内精品久久人妻性色av| 黄色av一区二区在线观看| 精品少妇人妻av一区二区| 日韩在线免费| 国产亚洲精选美女久久久久| 久久99国产精品久久99密桃| 国产无遮挡aaa片爽爽| 99精品人妻少妇一区二区| 好爽…又高潮了毛片免费看 | 国产人妖在线免费观看| 亚洲最好看的中文字幕| 亚洲va国产va天堂va久久| 蜜桃成人无码区免费视频网站| 男人j进女人p免费视频| 国产成人美涵人妖视频在线观看| 久久aaaa片一区二区| 亚洲av无码国产精品色午夜洪| AV成人午夜无码一区二区| 日韩激情视频一区在线观看| 五月天国产成人av免费观看| 国产精品开放小视频|