亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于二維卷積神經(jīng)網(wǎng)絡的電阻抗成像算法

        2022-08-30 08:54:48趙少峰
        儀表技術(shù)與傳感器 2022年7期
        關鍵詞:方根電位重構(gòu)

        趙少峰,李 靜

        (中國科學技術(shù)大學工程科學學院,安徽合肥 230027)

        0 引言

        電阻抗成像技術(shù)(electrical impedance tomography,EIT)是一種新型的無損檢測技術(shù)[1],可以重建目標物體的電導率分布,從而獲取物體內(nèi)部結(jié)構(gòu)的分布信息,在生物醫(yī)學領域有許多應用[2]。醫(yī)學EIT的實施方法是在人體皮膚上放置電極,注入交流電,測量相同或其他電極產(chǎn)生的電位,這種注入電流以建立人體組織的邊界電位構(gòu)成電阻抗成像的正問題;依據(jù)電極電位重構(gòu)人體組織內(nèi)部的阻抗變化或阻抗分布的圖像構(gòu)成了電阻抗成像逆問題[3]。EIT的逆問題是一個高度非線性的不適定問題,傳統(tǒng)成像方法通常會導致圖像模糊,成像質(zhì)量差,目標尺寸、位置計算不準確[4]。此外,傳統(tǒng)非迭代成像算法如Tikhonov方法[5],通常基于正則化來解決圖像重建問題,該方法成像存在偽影[6]。如何得到高質(zhì)量的重建圖像是EIT技術(shù)應用中的關鍵挑戰(zhàn)之一[7]。

        深度學習網(wǎng)絡(deep neural network,DNN)廣泛應用于不同的研究領域,如圖像分割[8]、人群密度估計[9]、語義關系分類[10]等。DNN從人工神經(jīng)網(wǎng)絡發(fā)展而來,具有分布式處理高度復雜非線性問題的能力;DNN由全連接的神經(jīng)元組成,不包含卷積單元。二維卷積神經(jīng)網(wǎng)絡(two dimensional convolutional neural network,2DCNN)是深度學習算法之一,具有提取數(shù)據(jù)深層特征的能力,與一維的DNN相比,2DCNN模型包含可以自適應地學習特征的卷積單元,具有更強的魯棒性和更好的泛化能力[11]。

        本文利用二維卷積神經(jīng)網(wǎng)絡(2DCNN)的非線性映射特性[11]來解決EIT逆問題,實現(xiàn)圖像重構(gòu)。首先構(gòu)建不同大小、形狀、位置且具有一定阻抗值的目標物體,基于EIT正問題計算邊界電位,將邊界電位數(shù)據(jù)輸入神經(jīng)網(wǎng)絡,經(jīng)過訓練和調(diào)參得到優(yōu)化過后的2DCNN網(wǎng)絡,由網(wǎng)絡輸出重構(gòu)圖像。

        1 相關理論

        2DCNN結(jié)構(gòu)主要包括卷積層、池化層、全連接層、剔除層、展平層和長短期記憶(long short term,LSTM)網(wǎng)絡層。

        卷積層通常使用相同大小的卷積核對輸入數(shù)據(jù)進行卷積運算,然后通過激活函數(shù)生成特征圖。訓練時不斷地更新卷積核中的參數(shù),以改善卷積核的特征提取。這個過程也被稱為特征學習。卷積層中非線性激活過程可以表示為

        (1)

        池化層的功能是將輸入數(shù)據(jù)劃分為一系列不重疊的矩陣,然后輸出每個子區(qū)間的最大值或平均值,池化操作如圖1所示。

        圖1 池化操作示意圖

        池化層通常在卷積層之后,最大池化函數(shù)表達式為

        (2)

        式中:Rk是特征圖中k個不重疊的子域;ai為第i層輸出。

        使用池化層是為了避免增加參數(shù)的數(shù)量,即避免在訓練階段過度擬合,提高網(wǎng)絡泛化性能,提高計算效率,使特征魯棒性更強。

        長短期記憶層(LSTM)主要是為了解決長序列訓練過程中的梯度消失和梯度爆炸問題,LSTM層在長序列中有更好的表現(xiàn)。展平層將提取的多維特征一維化,可用于從LSTM層到剔除層的過渡。網(wǎng)絡中的剔除層舍棄一些節(jié)點,使一些隱藏層節(jié)點不工作,可防止模型過擬合。在卷積層和池化層交替進行后,通常會加入全連接層來壓縮提取的特征。

        2 2DCNN結(jié)構(gòu)的建立

        仿真平臺如下:PC(英特爾核心Tesla K80 GPU,11G RAM),操作系統(tǒng)是Ubuntu 18.4.5,以深度學習開源框架TensorFlow2.6.0為基礎,以Python3為編程環(huán)境構(gòu)建2DCNN算法。2DCNN結(jié)構(gòu)如圖2所示,由3個卷積層、3個池化層、1個全連接層、1個展平層、1個剔除層和1個LSTM層組成。其中I1、O1分別為輸入和輸出,C1、C2、C3為卷積層,3個卷積核的尺寸分別為13×13×8,7×7×16,5×5×32,核的數(shù)量分別為8,16,32,填充像素方式相同,步長為1。P1、P2、P3為池化層,池化核為2×2,步長為2。LS為LSTM層,節(jié)點數(shù)設置為512,F(xiàn)L為展平層,DP為剔除層,隨機剔除25%的節(jié)點,F(xiàn)N為全連接層。

        圖2 用于EIT圖像重建的2DCNN結(jié)構(gòu)

        使用EIT邊界電壓數(shù)據(jù)作為輸入,無任何預處理和過濾,以避免丟失信息。使用的優(yōu)化器是自適應矩估計(Adam)[13]優(yōu)化器,Adam是一種一階優(yōu)化算法,可以取代傳統(tǒng)的隨機梯度下降過程。選取損失函數(shù)均方誤差(mean squared error,MSE)為網(wǎng)絡性能的評價指標。訓練時根據(jù)輸入數(shù)據(jù)迭代更新神經(jīng)網(wǎng)絡的權(quán)重,由預測結(jié)果計算MSE值,其值越小表示網(wǎng)絡性能越好。MSE表達式為

        (3)

        式中:Y為電位實際值;Y*為電位預測值;n為Y中元素個數(shù)。

        3 性能參數(shù)

        本文使用均方根誤差和圖像相關系數(shù)評估重構(gòu)圖像的質(zhì)量。

        均方根誤差(root mean square error,RMSE)表達式為

        (4)

        電位預測值與電位實際值越接近,RMSE數(shù)值越小,數(shù)值為0表示預測值與實際值完全吻合[14]。

        圖像相關系數(shù)(image correlation coefficient,ICC)表達式為

        (5)

        ICC越接近1,表示兩張圖像的相關程度越高,重建效果越好[15]。

        4 仿真與討論

        使用電阻抗斷層掃描和漫反射光學斷層掃描重建軟件(EIDORS)設計一個電位數(shù)據(jù)集。電極數(shù)量為16個,激勵電流為1 mA,測量模式及激勵模式均為相鄰模式。圖3為基于EIDORS軟件包模擬不同位置、大小、形狀的樣本,每一組樣本包括13×16個測量電位和1 024個電導率值。為防止過擬合,模擬了共30 000組數(shù)據(jù)。按照6:2:2的比例隨機分為訓練數(shù)據(jù)、驗證數(shù)據(jù)和測試數(shù)據(jù),樣本的分割如表1所示。

        圖3 不同樣本的典型分布

        表1 數(shù)據(jù)集的數(shù)量

        為了更好地了解和評估2DCNN方法在解決EIT逆問題中的性能表現(xiàn),將其與Tikhonov(以下簡稱TK)方法、深度學習DNN方法進行了比較。為了減少網(wǎng)絡訓練所需的時間,根據(jù)測試經(jīng)驗設置了一個訓練停止標準。對于DNN和2DCNN算法,如果均方根誤差在10次迭代內(nèi)沒有減少,訓練過程就會提前停止。經(jīng)過網(wǎng)絡參數(shù)訓練和調(diào)整,本文選擇了學習率為0.001,批次大小為60,迭代次數(shù)為254次的2DCNN網(wǎng)絡模型為最終模型。DNN模型學習率和批次與2DCNN模型相同。

        4.1 無噪聲情況下圖像重構(gòu)

        2DCNN方法下訓練集和驗證集的均方根誤差曲線如圖4所示,由圖4可知,訓練集和驗證集的均方根誤差隨迭代次數(shù)增加迅速減少,最后穩(wěn)定在0.003 1,表明網(wǎng)絡模型性能良好[16]。

        圖4 訓練集和驗證集的誤差曲線

        圖5顯示了無噪聲時DNN和TK方法重建的圖像均存在偽影,而2DCNN方法能更好地去除偽影,成像清晰可靠,分辨率高,精準地反映出目標的位置,清晰地反映出目標的大小和形狀。表2給出了3種算法重構(gòu)指標的對比,2DCNN方法具有最高的ICC和最小的RMSE值,因此,2DCNN方法具有最高的重建圖像質(zhì)量。

        圖5 無噪聲時3種算法成像結(jié)果對比

        表2 無噪聲時不同算法的重構(gòu)性能參數(shù)

        4.2 含噪聲情況下圖像重構(gòu)

        實際環(huán)境中噪聲不可避免,為評估2DCNN算法抗噪聲性能,正問題中加入信噪比SNR(signal to noise ratio)分別為30、40、50 dB的高斯隨機噪聲。信噪比SNR表達式如下:

        (6)

        式中:RMS(·)為求解均方根函數(shù);S為原電位信號;N為噪聲。

        SNR值越小表示干擾噪聲幅值越高。

        圖6~圖8展示了SNR分別為30、40、50 dB時3個方法的成像結(jié)果,表3給出了不同SNR下3個方法建立的模型中所有單元的平均RMSE和ICC。

        圖6 SNR為30 dB時3種算法的重構(gòu)圖像

        圖7 SNR為40 dB時3種算法的重構(gòu)圖像

        圖8 SNR為50 dB時3種算法的重構(gòu)圖像

        表3 含噪聲時不同算法的重構(gòu)性能參數(shù)

        由圖6~圖8和表3可知,基于2DCNN的重建圖像在3種噪聲下具有更好的成像質(zhì)量。信噪比為30 dB時,3種方法重建的圖像均存在偽影;隨著信噪比的增加,2DCNN的重建圖像中偽影最先減弱、消失。隨著噪聲的增加,3種方法下RMSE均持續(xù)增大,表示成像誤差逐漸增大;2DCNN的RMSE和ICC指標均顯著優(yōu)于DNN和TK方法。以上證明了2DCNN具有更好的抗噪聲能力和成像質(zhì)量。

        5 結(jié)束語

        根據(jù)卷積神經(jīng)網(wǎng)絡可以提取數(shù)據(jù)中抽象和復雜特征的特性,本文提出了2DCNN方法來實現(xiàn)圖像重構(gòu),對具有不同形狀、大小和位置的樣本進行了模擬,對新方法的有效性、抗噪聲能力進行了仿真測試。對于無噪聲的測試集,與Tikhonov和DNN算法相比,2DCNN算法訓練的結(jié)果明顯更好,實現(xiàn)了清晰可靠的圖像重建。在抗噪測試中,2DCNN方法與Tikhonov和DNN重建方法相比,具有偽影少、分辨率高、成像誤差小、抗噪聲能力強的優(yōu)勢。

        猜你喜歡
        方根電位重構(gòu)
        方根拓展探究
        長城敘事的重構(gòu)
        攝影世界(2022年1期)2022-01-21 10:50:14
        電位滴定法在食品安全檢測中的應用
        北方大陸 重構(gòu)未來
        北京的重構(gòu)與再造
        商周刊(2017年6期)2017-08-22 03:42:36
        均方根嵌入式容積粒子PHD 多目標跟蹤方法
        自動化學報(2017年2期)2017-04-04 05:14:28
        電鍍廢水處理中的氧化還原電位控制
        論中止行為及其對中止犯的重構(gòu)
        揭開心算方根之謎
        淺談等電位聯(lián)結(jié)
        国产精品日韩av一区二区| 在线免费午夜视频一区二区| 国产精品三级一区二区按摩| 女的把腿张开男的猛戳出浆| 亚洲va成无码人在线观看| 国内自拍视频在线观看h| 神马不卡影院在线播放| 男女性行为免费视频网站| 亚洲av不卡一区男人天堂| 亚洲国产av无码精品| 欧美另类人妖| 欧美jizzhd精品欧美| 毛片免费在线播放| 亚洲精品成人av观看| 美女露屁股无内裤视频| 老岳肥屁熟女四五十路| 麻神在线观看免费观看| 亚洲午夜av久久久精品影院色戒| 一本一道久久综合狠狠老| 亚洲av之男人的天堂| 产国语一级特黄aa大片| 日韩极品视频在线观看| 色婷婷久久精品一区二区| 中文字幕在线日亚州9| 极品成人影院| 免费人成年小说在线观看| 亚洲AV无码成人精品区网页| 亚洲精品中文字幕二区| 亚洲av无一区二区三区综合| 第一九区另类中文字幕| 热99re久久精品这里都是精品免费 | 一本一本久久aa综合精品| 成人做爰视频www| 亚洲一区二区综合色精品| 国产中文久久精品| 久久蜜桃一区二区三区| 2021亚洲国产精品无码| 男女后进式猛烈xx00动态图片| 国产欧美一区二区成人影院| 中文字幕乱码中文乱码毛片| 国产爽快片一区二区三区|