亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        應(yīng)用機器學(xué)習(xí)模型的CT圖像自動判讀技術(shù)研究

        2020-12-14 04:03:48姜微
        科技創(chuàng)新與應(yīng)用 2020年36期
        關(guān)鍵詞:機器學(xué)習(xí)大數(shù)據(jù)人工智能

        姜微

        摘? 要:近年來,應(yīng)用機器學(xué)習(xí)模型與技術(shù)的醫(yī)學(xué)影像分析方法開始得到應(yīng)用,其能夠用于輔助醫(yī)生決策或者解決臨床實踐中的棘手問題,因而具有較大的研究與應(yīng)用價值。文章旨在研究如何針對醫(yī)學(xué)圖像中常見的CT圖像進行智能的自動判讀技術(shù),通過使用計算機技術(shù)提取出相關(guān)的特征,再依據(jù)提取的特征建立機器學(xué)習(xí)的模型進行判斷,提高判斷精準(zhǔn)度,從而輔助醫(yī)生進行更好的診斷。

        關(guān)鍵詞:機器學(xué)習(xí);大數(shù)據(jù);CT圖像;輔助診斷;人工智能

        中圖分類號:TP391.41? ? ? 文獻標(biāo)志碼:A? ? ? ? ?文章編號:2095-2945(2020)36-0015-02

        Abstract: In recent years, machine learning models and technology has been applied in medical image analysis. It can be used to assist doctors in decision-making or solve difficult problems in clinical practice, so it has great research and application value. This paper aims to study how to carry out automatic intelligent interpretation technology for common CT images in medical images, extract relevant features by using computer technology, and then establish machine learning model for judgment according to the extracted features, so as to improve the accuracy of judgment, and assist doctors in better diagnosis.

        Keywords: machine learning; big data; CT image; auxiliary diagnosis; artificial intelligence

        醫(yī)學(xué)影像在醫(yī)學(xué)診斷中具有無可替代的重要作用,其包含了大量人眼無法識別的信息,對準(zhǔn)確識別相關(guān)疾病的具體情況,進行準(zhǔn)確的醫(yī)學(xué)診斷乃至確定具體的醫(yī)療策略,都能夠提供比較客觀可信的依據(jù)。

        近年來,隨著圖像處理與人工智能技術(shù)的發(fā)展[1],應(yīng)用基于醫(yī)學(xué)影像大數(shù)據(jù)的分析方法來輔助醫(yī)生決策或者解決臨床實踐中的棘手問題成為研究熱點[2]。傳統(tǒng)的CT影像判讀主要是依靠醫(yī)生的經(jīng)驗判斷,不僅費時且費力。因此,研究一種智能分析識別CT圖像具體情況,并進行智能分類判別的技術(shù)是十分必要的。

        1 機器學(xué)習(xí)模型

        機器學(xué)習(xí)(Machine Learning)[3]是計算機科學(xué)的一個重要分支,其總體目標(biāo)是,通過科學(xué)系統(tǒng)化的算法流程與模型,將目標(biāo)數(shù)據(jù)中的有用的特定模式發(fā)現(xiàn)出來,并將之應(yīng)用于自動化智能化的任務(wù)。具體來說,機器學(xué)習(xí)研究的主要內(nèi)容,是通過設(shè)計學(xué)習(xí)算法,以從數(shù)據(jù)中產(chǎn)生適用于解決具體任務(wù)的“模型”。以CT圖像判別為例,應(yīng)用機器學(xué)習(xí)的目的是用于對具體的圖像數(shù)據(jù)進行智能的判斷,識別對應(yīng)的CT圖像是否存在異常,這個過程由最終的機器學(xué)習(xí)模型自動確定。

        在CT圖像數(shù)據(jù)的機器學(xué)習(xí)建模過程中,在對圖片特征提取后,本文可根據(jù)標(biāo)注樣本的類別,分類為陽性和陰性,并采用多種分類方法進行判別。具體的方法可運用基于隨機森林(Random Forest)[4]的分類方法、基于樸素貝葉斯的分類方法等??墒紫炔捎秒S機森林算法對圖片的特征進行訓(xùn)練,并使用不同的特征進行多次訓(xùn)練,最后獲得多個相關(guān)性較強的特征,并使用10次交叉驗證等方法來確定最終的模型?;跇闼刎惾~斯的分類過程也類似。

        2 CT圖像分割

        一般來說,應(yīng)用機器學(xué)習(xí)進行CT圖像分割的方法,可以從目前比較成熟的方法中進行借鑒。目前機器學(xué)習(xí)中的深度學(xué)習(xí)方法在分割中能夠達到較好的效果。本文選用基于全卷積神經(jīng)網(wǎng)絡(luò)(簡稱FCN)框架的方法,特別地,可選擇具體的U-Net卷積神經(jīng)網(wǎng)絡(luò)方法進行解決。

        通常卷積神經(jīng)網(wǎng)絡(luò)(簡稱CNN)在卷積層之后會連接若干個全連接層, 從而將卷積層產(chǎn)生的特征圖映射成固定長度的特征向量,以便進一步獲得分類結(jié)果。以AlexNet為代表的經(jīng)典CNN結(jié)構(gòu)適合于圖像級的分類和回歸任務(wù),因為它們最后都期望得到整個輸入圖像的一個數(shù)值描述(概率)。

        相比之下,全卷積神經(jīng)網(wǎng)絡(luò)對CT圖像進行分類更有優(yōu)勢,其能夠?qū)崿F(xiàn)比較自然的像素級的分類,由此實現(xiàn)圖像分割任務(wù)。與卷積神經(jīng)網(wǎng)絡(luò)不同,全卷積神經(jīng)網(wǎng)絡(luò)可接受任意尺寸的CT圖像作為輸入,并在最后一個卷積層采用反卷積層操作進行上采樣, 對其圖像大小進行恢復(fù),再在此基礎(chǔ)上對每個像素都進行分類預(yù)測, 也即實現(xiàn)逐像素的分類。

        基于全卷積神經(jīng)網(wǎng)絡(luò)的算法較多,本文選擇U-Net方法。具體來說,U-Net共有23個卷積層,大致的模型結(jié)構(gòu)是,其包含多個2x2、3x3卷積層,多個max pooling層,同時包含擴展路徑與收縮路徑,用于分別實現(xiàn)下采樣與上采樣,并通過剪裁等操作保持圖像邊緣。最后,模型包含一個1x1卷積層,從而用來將維度為64維的特征向量映射到某一個具體的類別判定標(biāo)簽。

        3 分類判別方法

        本文將選擇樸素貝葉斯算法與隨機森林算法,對提取了CT圖像特征的數(shù)據(jù)進行分類模型的構(gòu)建。

        樸素貝葉斯分類算法是一類具有廣泛應(yīng)用的成熟算法[5],其具體算法過程如下:

        (1) 給定CT圖像數(shù)據(jù)集作為訓(xùn)練集,設(shè)其屬性有n個(記為B1,B2,…,Bn)。將每一個提取特征后的CT圖像數(shù)據(jù)樣本,表示為n維的向量,并將之記為Y=(y1,y2,…,yn)。在上式中,y1,y2,…,yn分別對應(yīng)為這n個屬性的具體取值。

        (2)假定目標(biāo)的判別類別有m類,將其記為C1,C2,…,Cm,模型的目標(biāo)即為確定每個數(shù)據(jù)樣本所歸屬的類別(CT圖像對應(yīng)的診斷結(jié)果)。對于每個具體樣本Y來說,根據(jù)貝葉斯理論,可以通過條件概率與后驗概率的轉(zhuǎn)換計算,求解得出在給定樣本Y情況下,其屬于某一個診斷類別Ck(1≤k≤m)的后驗概率P(Ck|Y)。

        (3) 在計算得出所有診斷類別的后驗概率之后,貝葉斯分類法求出這些概率值的最大值所對應(yīng)的診斷類別Ci,并將之指定為樣本Y的預(yù)測類別,也即有下式成立:

        隨機森林是一種組合分類器算法。利用Bootstarp算法初始化不同的CT圖像數(shù)據(jù)訓(xùn)練集,然后訓(xùn)練得到相應(yīng)的模型,將其組合在一起,最后得到隨機森林模型,通過投票等方法來進行預(yù)測分類。

        隨機森林是由決策樹集成,必須考慮決策樹的特點,即準(zhǔn)確性,多樣性和決策樹的數(shù)量。主要參數(shù)包括森林樹木的數(shù)量即決策樹的數(shù)量,尋找最佳分割時需考慮特征數(shù)量和葉節(jié)點上的最小樣本數(shù)量等。

        隨機森林訓(xùn)練生成多顆“隨機”的決策樹,本文在建模過程中,確定樹木數(shù)量的范圍為[100,500],通過使用包外樣本來估計泛化精度,研究不同樹木數(shù)量對隨機森林模型的影響。

        在具體實現(xiàn)方面,可利用 Python 語言進行開發(fā),結(jié)合開源的機器學(xué)習(xí)程序庫 scikit-learn來構(gòu)建實現(xiàn)過程,對隨機森林模型中的決策樹個數(shù)、隨機特征個數(shù)、葉節(jié)點最小樣本數(shù)等進行詳細的調(diào)試與設(shè)定。首先,針對隨機特征的個數(shù)確定問題,可將隨機數(shù)據(jù)特征數(shù)目設(shè)置為n,嘗試多個n值,構(gòu)建多個備選模型,并比較其優(yōu)缺特性,選定符合要求的n值作為最終的設(shè)置值。進一步地,通過固定模型中的其他參數(shù),以準(zhǔn)確率作為評判標(biāo)準(zhǔn)指標(biāo),對隨機特征的個數(shù)進行交叉驗證(本文選用10折交叉法),最后,對多個模型進行初步評估,并逐步確定模型的各個參數(shù)。

        4 算法流程

        針對收集到的CT圖像數(shù)據(jù),根據(jù)其標(biāo)定的診斷類別結(jié)果,應(yīng)用機器學(xué)習(xí)模型與算法,進行詳細研究,利用機器學(xué)習(xí)方法來構(gòu)建的面向CT圖像的智能診斷模型。

        (1)利用統(tǒng)計分析對CT圖像數(shù)據(jù)進行探索,發(fā)現(xiàn)樣本數(shù)據(jù)和圖像特征存在一定的相關(guān)性,同時研究圖像數(shù)據(jù)相對于診斷類別是否存在類別不平衡的問題。

        (2)基于end-to-end全卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的U-Net算法模型實現(xiàn)像素級別的判別比較模型,并在此基礎(chǔ)上為特征提取做好準(zhǔn)備。

        (3)在(2)所得結(jié)果的基礎(chǔ)上,進行多角度的圖像特征提取,取得相關(guān)性較強的圖像特征作為新構(gòu)建的數(shù)據(jù)集的特征集。也即,通過以上大數(shù)據(jù)與人工智能的手段,通過自動的方式,從CT圖像中提取具有較強語義的特征信息,無疑將會有助于臨床的專業(yè)醫(yī)生進行更好的判斷,也有利于下一步的分類判別模型構(gòu)建。

        (4)在經(jīng)過以上特征提取工作,以及其他的數(shù)據(jù)預(yù)處理之后,利用以上特征向量構(gòu)成的數(shù)據(jù)集,設(shè)計樸素貝葉斯、隨機森林模型,對數(shù)據(jù)進行自動的診斷分類預(yù)測。

        (5)通過具體的訓(xùn)練實驗進行模型對比,并選取精確率、召回率和F1等多項評價指標(biāo),對所得結(jié)果模型的各方面性能進行全面評估,用實際的CT圖像數(shù)據(jù)來驗證其有效性,從而在一定程度上為自動化、智能化的輔助臨床決策提供支持。

        5 結(jié)束語

        在本文中,我們針對醫(yī)療診斷實踐中常見的CT圖像判讀診斷問題,對如何利用機器學(xué)習(xí)方法,對其實現(xiàn)自動化、智能化診斷的具體技術(shù)路徑進行了研究與探討。如果基于機器學(xué)習(xí)模型與技術(shù)的醫(yī)學(xué)影像分析方法能夠得到廣泛而有效的應(yīng)用,必將能夠有助于為醫(yī)生決策或者解決臨床實踐中的棘手問題提供更多的實現(xiàn)路徑,因而具有較大的研究與應(yīng)用價值。

        參考文獻:

        [1]Krizhevsky A, Sutskever I, Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[G]//Pereira F, Burges C J C, Bottou L, et al. Advances in Neural Information Processing Systems 25. Curran Associates, Inc., 2012: 1097-1105.

        [2]張良均,王路,譚立云,等. Python 數(shù)據(jù)分析與挖掘?qū)崙?zhàn)[M].北京:機器工業(yè)出版社,2015:66.

        [3]Goodfellow I, Bengio Y, Courville A, et al. Deep learning[M]. MIT press Cambridge, 2016,1.

        [4]Cernadas E, Amorim D. Do we need hundreds of classifiers to solve real world classification problems?[J]. Journal of Machine Learning Research, 2014,15(1):3133-3181.

        [5]郁磊.MATLAB智能算法30個案例分析(第2版)[M].北京:航空航天大學(xué)出版社, 2015.

        猜你喜歡
        機器學(xué)習(xí)大數(shù)據(jù)人工智能
        2019:人工智能
        商界(2019年12期)2019-01-03 06:59:05
        人工智能與就業(yè)
        數(shù)讀人工智能
        小康(2017年16期)2017-06-07 09:00:59
        基于機器學(xué)習(xí)的圖像特征提取技術(shù)在圖像版權(quán)保護中的應(yīng)用
        基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測分析
        時代金融(2016年27期)2016-11-25 17:51:36
        前綴字母為特征在維吾爾語文本情感分類中的研究
        基于支持向量機的金融數(shù)據(jù)分析研究
        基于大數(shù)據(jù)背景下的智慧城市建設(shè)研究
        科技視界(2016年20期)2016-09-29 10:53:22
        下一幕,人工智能!
        久久www色情成人免费观看| 久久久人妻丰满熟妇av蜜臀| 中文字幕一区二区三区| 中文字幕乱码在线人妻| 国产无夜激无码av毛片| 午夜福利麻豆国产精品| 国产在线观看黄| 人妻精品人妻一区二区三区四五| 精品亚洲国产日韩av一二三四区| 日韩在线 | 中文| 777亚洲精品乱码久久久久久| 亚洲av成本人无码网站| 日本高清一区二区三区视频| 国产精品一二三区亚洲| 国产无套乱子伦精彩是白视频 | 狠狠色狠狠色综合| 国产成人av一区二区三区无码| 国产精品爽爽VA吃奶在线观看| 国产精品久久av高潮呻吟| 中文无码av一区二区三区| 少妇下面好紧好多水真爽播放| 久久天天躁狠狠躁夜夜爽| 亚洲一区二区成人在线视频| 成人av资源在线播放| 亚洲av无码专区国产不卡顿| 无码少妇一区二区浪潮av| 国产视频最新| 亚洲av熟女天堂久久天堂| 国产亚洲视频在线播放| 忘忧草社区www日本高清| 国产午夜无码视频免费网站| 中文字幕日本人妻一区| 国产av无码专区亚洲av毛网站| 国产精品成人3p一区二区三区| 国产精品jizz在线观看老狼| 欧美手机在线视频| 亚洲一区免费视频看看| 插鸡网站在线播放免费观看| 饥渴的熟妇张开腿呻吟视频| 国产精品98视频全部国产| 在线久草视频免费播放|