亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于U-net網(wǎng)絡的細胞核檢測方法

        2021-03-29 02:52:54秦晨陽楊海馬
        光學儀器 2021年1期
        關鍵詞:特征檢測模型

        秦晨陽,應 捷,楊海馬

        (上海理工大學 光電信息與計算機工程學院,上海 200093)

        引 言

        細胞或細胞核的檢測是計算機輔助醫(yī)療的一項基本內容,可對細胞形態(tài)等各種定量分析提供支持。細胞的觀察過程一般是由專家取樣,再經(jīng)過染色處理,最后在顯微鏡下查看載有細胞樣本的玻片。這個過程往往需要專業(yè)人士觀察大量的細胞樣本,因此這個方法及其耗費時間。隨著顯微數(shù)字成像技術的高度發(fā)展,越來越多的專家只需瀏覽計算機屏幕上的虛擬影像,而不需在顯微鏡下檢查玻璃幻燈片。所以現(xiàn)代的圖像處理方法和機器學習等技術為專家進行細胞方面的研究提供了更好的方法。

        目前,對細胞或細胞核的檢測方法主要有:距離變換、形態(tài)學操作、H-最大/最小值變換、拉普拉斯高斯(LoG)濾波、最大穩(wěn)定極值區(qū)域(MSER)檢測、Hough變換、監(jiān)督學習等方法。

        隨著深度學習模型和神經(jīng)網(wǎng)絡算法的不斷發(fā)展和優(yōu)化,深度學習在醫(yī)學圖像的分割和識別上顯示出了巨大的優(yōu)勢。卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)[1-2]是一種有監(jiān)督學習的深度學習模型,通過結合局部感受野、權值共享等實現(xiàn)對輸入數(shù)據(jù)的位移變化、尺度變化、形變變化的不變性。CNN是一種高效的識別方法,采用CNN可避免圖像的復雜前期預處理,可以直接輸入原始圖像。

        Xing等[3]使用了三種不同的CNN模型,分別對腦腫瘤、胰腺神經(jīng)內分泌腫瘤和乳腺癌病理圖像進行了自動細胞核檢測。Dong等[4]采用了9層的CNN結合非最大值抑制方法對斑馬魚圖像中的細胞進行檢測。Song等[5]提出了一種基于多尺度CNN框架的H&E染色宮頸圖像細胞核檢測方法,其中使用了三種規(guī)模的CNN提取特征,并將其應用于兩層神經(jīng)網(wǎng)絡的像素粗分割。Xie等[6]將一種快速掃描策略引入到深層卷積神經(jīng)網(wǎng)絡中,對胰腺細胞核進行檢測。Chen等[7]提出了一種基于深度學習和圖像處理的方法,通過分割邊界和檢測細胞核的幾何中心進行細胞核的分離和檢測。Kowal等[8]提出了一種結合卷積神經(jīng)網(wǎng)絡和分水嶺算法的方法,對乳腺癌細胞進行分割,得到的結果表明,卷積神經(jīng)網(wǎng)絡在大多數(shù)情況下優(yōu)于Otsu閾值法和自適應閾值法,尤其是在核重疊的情況下。

        CNN的基本結構包括兩層:其一為特征提取層,每個神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征,一旦該局部特征被提取后,它與其他特征間的位置關系也隨之確定下來;其二是特征映射層,網(wǎng)絡的每個計算層由多個特征映射組成,每個特征映射是一個平面,平面上所有神經(jīng)元的權值相等。特征映射結構采用影響函數(shù)核小的sigmoid函數(shù)作為卷積網(wǎng)絡的激活函數(shù),使得特征映射具有位移不變性。此外,由于一個映射面上的神經(jīng)元共享權值,因而減少了網(wǎng)絡自由參數(shù)的個數(shù)。卷積神經(jīng)網(wǎng)絡中的每一個卷積層都緊跟著一個用來求局部平均與二次提取的計算層,這種特有的兩次特征提取結構減小了特征分辨率。

        U-net網(wǎng)絡[9]在2015年提出的,尤其在醫(yī)學圖像方面,由于醫(yī)學圖像大多灰度差異較小,邊緣部分特征容易丟失,而U-net的網(wǎng)絡結構對于這些問題的解決有著很大的優(yōu)勢。

        本文將使用卷積神經(jīng)網(wǎng)絡的一種衍生網(wǎng)絡即U-net網(wǎng)絡進行細胞核的檢測。U-net網(wǎng)絡由編碼和解碼兩部分組成。U-net 在處理醫(yī)學圖像方面具有優(yōu)勢,它在每個階段通過編碼和解碼跳躍連接,將各階段編碼與解碼生成的相同大小的特征圖在對應位置疊加,并進行卷積操作以有效融合圖像的淺層與深層特征。這個操作對于圖像的細節(jié)和邊緣部分的分割有著很好的效果。

        1 基于 U-net網(wǎng)絡的細胞核檢測方法

        本文所用的U-net網(wǎng)絡和圖像處理方法如圖1所示。

        圖 1 總體處理流程圖Fig. 1 Overall processing flow chart

        首先,對原圖像進行數(shù)據(jù)預處理,其中包括隨機剪裁、邊緣檢測等操作,并將原圖像分割為128×128大小的圖像。其次,構建U-net網(wǎng)絡模型,根據(jù)輸入圖像的大小,調整模型的結構,得到細胞核分割的mask圖像。最后,對mask圖像標記幾何中心,將細胞核在原圖像中的邊緣和幾何中心標記出來,得到最終的處理結果。

        本實驗使用的數(shù)據(jù)集來自于網(wǎng)上公開的細胞核數(shù)據(jù)集,訓練集包含760張圖像,測試集包含120張圖像。本實驗對細胞核進行的操作是識別和分割,操作系統(tǒng)為Windows 10,CPU型號為 Intel(R)Core(TM)i7-9750H,CPU頻率為2.59 GHz,系統(tǒng)內存為 16 GB,GPU型號為NVIDIA GeForce GTX 1 660 Ti,安裝的深度學習框架為tensorflow+keras。

        2 數(shù)據(jù)預處理

        對原圖像進行隨機裁剪等操作進行數(shù)據(jù)集的擴充,在訓練集上對原圖像上標記出的細胞核進行一定的處理,并對原圖像中的細胞核進行分割。使用多種邊緣檢測算子對標簽圖像進行邊緣檢測,以得到更加清晰平滑且利于區(qū)分界限的mask圖像。不同邊緣檢測算子的檢測結果如圖2所示。

        由圖2可得,使用Canny算子和Roberts算子得到的圖像邊緣更加抖動,沒有Sobel算子和Log算子得到的圖像邊緣平滑,Log算子比Sobel算子得到的邊緣更加清晰和平滑,并且細胞核邊緣分離更加清晰,細胞核之間的分割效果更好。因此,最終使用Log算子對標簽圖像進行邊緣檢測,并作為制作U-net網(wǎng)絡使用的mask。

        3 網(wǎng)絡模型的構建

        本文構建了基本的U-net網(wǎng)絡,輸入圖像的大小為 128×128×3,每兩個 3×3 的卷積層后會跟一個用于下采樣步長為2的2×2最大池化操作,且均使用修正線性單元(rectified linear unit,RELU)作為激活函數(shù)。在每一個下采樣過程中,特征通道數(shù)量加倍。解碼部分則利用 2×2的卷積核對特征圖譜進行上采樣,特征通道數(shù)量減半,并連接來自相應位置的解碼的特征圖譜,再通過兩次3×3 的卷積進行卷積運算,且均使用 RELU 作為激活函數(shù)。在最后一層中,利用1×1 的卷積核將每一個 64 維的特征向量映射到網(wǎng)絡的輸出層,最后輸出的圖像大小為128×128×1。

        模型使用的是一般用于二分類的交叉熵損失函數(shù)。交叉熵損失函數(shù)是針對概率之間的損失函數(shù),其表達式為

        式中:yi為第i個輸出值;為第i個輸出值的殘差;n為輸出的數(shù)量。對式(1)進行偏微分,可得

        深度學習模型配置和參數(shù)如表1所示。

        4 網(wǎng)絡模型檢測指標

        網(wǎng)絡模型檢測指標分別為精確度、召回率、F指標。我們定義:Tp表示網(wǎng)絡模型成功檢測出細胞核區(qū)域,F(xiàn)p表示模型檢測的細胞核區(qū)域實際上為背景區(qū)域,F(xiàn)N表示模型沒有檢測為細胞核區(qū)域但實際上為細胞核區(qū)域。由此,精確度、召回率和F指標可分別表示如下:

        經(jīng)本實驗數(shù)據(jù)集的測試,所建立的U-net網(wǎng)絡模型對細胞核的檢測結果是:精確度為0.82,召回率為0.83,F(xiàn)指標為0.83。

        5 細胞核檢測結果

        對于輸入圖像進行細胞核檢測并返回mask圖像和細胞核標注圖像,在返回圖像中對于檢測得到的細胞核進行幾何中心的標定,得到的結果如圖3所示。

        圖 2 邊緣檢測對比圖Fig. 2 Comparison of edge detection

        表 1 深度學習模型配置和參數(shù)Tab. 1 Configuration and parameters of deep learning model

        圖 3 檢測結果Fig. 3 Test results

        從圖像的輸出結果可知,大多數(shù)的細胞核都能被很好地識別和標注出來。

        6 結 論

        本文建立了U-net網(wǎng)絡模型,利用該模型對細胞核進行了檢測,得到了較好的檢測結果。然而當圖像中的細胞核形狀不規(guī)則時,細胞核在原圖像中的標注與細胞核邊界不能完全符合,有些細胞核的標注形狀、大小會與細胞核不匹配,這些還需要通過進一步的研究來改善。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        如何表達“特征”
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        抓住特征巧觀察
        3D打印中的模型分割與打包
        奇米狠狠色| 久久国产精品亚洲婷婷片| 五月天中文字幕mv在线| 亚洲中文无码永久免| 99成人无码精品视频| 白色白色视频在线观看| 无码精品国产一区二区三区免费| 无码人妻精品丰满熟妇区| 欧美国产日本精品一区二区三区| 日韩av中文字幕少妇精品| 亚洲国产精品久久久av| 性色av无码久久一区二区三区| 亚洲AV无码精品一区二区三区l| 长腿丝袜在线观看国产| 国产精品无码一区二区三区在| 国产精品久久久久久无码| 欧美深夜福利视频| 日韩精品免费视频久久| 日韩人妻ol丝袜av一二区| 久久久久无码国产精品不卡 | 国产在线视频国产永久视频| 国产av午夜精品一区二区入口| 日日麻批免费40分钟无码| 亚洲国产成人久久一区www| 亚洲无线码一区在线观看| 日本a爱视频二区三区| 女人和拘做受全程看视频| 久久国产精品不只是精品 | 久久无码高潮喷水| 免费人人av看| 中文字幕精品人妻在线| 少妇性荡欲视频| 一区二区三区国产在线网站视频| 国产午夜精品久久精品| 欧美日韩亚洲中文字幕二区| 欧美自拍区| 国产网友自拍视频在线观看| 天天躁日日躁狠狠躁av麻豆| 久久久久久成人毛片免费看| 天堂女人av一区二区| 一区二区三区最新中文字幕|