亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于徑向變換和改進AlexNet的胃腫瘤細胞圖像識別方法

        2019-11-15 04:49:03甘嵐郭子涵王瑤
        計算機應(yīng)用 2019年10期

        甘嵐 郭子涵 王瑤

        摘 要:使用AlexNet實現(xiàn)胃腫瘤細胞圖像分類時,存在數(shù)據(jù)集過小和模型收斂速度慢、識別率低的問題。針對上述問題,提出基于徑向變換(RT)的數(shù)據(jù)增強(DA)和改進AlexNet的方法。將原始數(shù)據(jù)集劃分為測試集和訓練集,測試集采用剪裁方式增加數(shù)據(jù),訓練集首先采用剪裁、旋轉(zhuǎn)、翻轉(zhuǎn)和亮度變換得到增強圖片集;然后選取其中一部分進行RT處理達到增強效果。此外,采用替換激活函數(shù)和歸一化層的方式提高AlexNet的收斂速度并提高其泛化性能。實驗結(jié)果表明,所提方法能以較快的收斂速度和較高的識別準確率實現(xiàn)胃腫瘤細胞圖像的識別,在測試集中最高準確率為99.50%,平均準確率為96.69%,癌變、正常和增生三個類別的F1值分別為0.980、0.954和0.958,表明該方法較好地實現(xiàn)了胃腫瘤細胞圖像的識別。

        關(guān)鍵詞:小樣本數(shù)據(jù)集;數(shù)據(jù)增強;徑向變換;卷積神經(jīng)網(wǎng)絡(luò);胃腫瘤細胞圖像識別

        中圖分類號:TP391.4

        文獻標志碼:A

        Abstract:? When using AlexNet to implement image classification of gastric tumor cells, there are problems of small dataset, slow model convergence and low recognition rate. Aiming at the above problems, a Data Augmentation (DA) method based on Radial Transformation (RT) and improved AlexNet was proposed. The original dataset was divided into test set and training set. In the test set, cropping was used to increase the data. In the training set, cropping, rotation, flipping and brightness conversion were employed to obtain the enhanced image set, and then some of them were selected for RT processing to achieve the enhanced effect. In addition, the replacement activation of functions and normalization layers was used to speed up the convergence and improve the generalization performance of AlexNet. Experimental results show that the proposed method can implement the recognition of gastric tumor cell images with faster convergence and higher recognition accuracy. On the test set, the highest accuracy is 99.50% and the average accuracy is 96.69%, and the F1 scores of categories: canceration, normal and hyperplasia are 0.980, 0.954 and 0.958 respectively, indicating that the proposed method can implement the recognition of gastric tumor cell images well.

        Key words:? small dataset; Data Augmentation (DA); Radial Transformation (RT); Convolutional Neural Network (CNN); gastric tumor cell image recognition

        0 引言

        胃癌是世界范圍內(nèi)最常被診斷出的癌癥之一,具有預后不良的特點,一個重要原因是大多數(shù)患者在癌癥已經(jīng)發(fā)展時才被診斷出來[1],及時而精確地判斷出胃腫瘤細胞能夠改善胃癌的預后,為患者爭取寶貴的治療時間。隨著近年來人工智能的快速發(fā)展,自動識別胃腫瘤細胞圖像的需求日益迫切。

        目前,以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)為代表的深度學習(Deep Learning, DL)算法快速發(fā)展,常用來識別特征維數(shù)高、背景復雜的醫(yī)學圖像[2-6]。在胃腫瘤細胞圖像的應(yīng)用上,杜劍等[7]使用CNN,結(jié)合高光譜成像與顯微系統(tǒng),實現(xiàn)了癌變和正常組織的精確分類;但是該方法的數(shù)據(jù)獲取較為困難,需要一定的硬件條件才可實現(xiàn)。張澤中等[8]將AlexNet與GoogLeNet結(jié)合,使用專業(yè)標簽過濾后的胃癌病理圖像進行訓練取得了良好效果,但現(xiàn)實中難以對胃腫瘤細胞圖像進行實時過濾??梢?,CNN是實現(xiàn)胃腫瘤圖像識別的一個有效方法。

        由于DL是數(shù)據(jù)驅(qū)動技術(shù),所以當數(shù)據(jù)不足時,即使是更深的網(wǎng)絡(luò)也難以取得更好的效果[9]。胃腫瘤細胞圖像是典型的小樣本數(shù)據(jù)集,不適合直接輸入CNN進行訓練。Perez等[10]證明通過剪裁、旋轉(zhuǎn)、翻轉(zhuǎn)等方法可以達到數(shù)據(jù)增強(Data Augmentation, DA)的目的,將這些傳統(tǒng)DA方法組合起來可以進一步提高數(shù)據(jù)集的多樣性,但并不能滿足胃腫瘤細胞圖像的數(shù)據(jù)集要求。Salehinejad等[11]針對超小型多模態(tài)醫(yī)學數(shù)據(jù)集,提出使用徑向變換(Radial Transform, RT)進行數(shù)據(jù)擴增,表明RT在多模態(tài)醫(yī)學數(shù)據(jù)集上的可行性,由于胃腫瘤細胞圖像具有旋轉(zhuǎn)不變性,因此將傳統(tǒng)DA方法與RT結(jié)合實現(xiàn)其數(shù)據(jù)擴展不失為一種好方法。

        當maxRadius>110時,根據(jù)1.1節(jié)的分析,普遍存在Rm110,使得src.width/maxRadius<2,與標準采樣相比,有效的采樣點被下采樣,即圖像被整體縮小,如圖1(d)所示。

        綜上所述,若想提取全部的圖像信息,必須有Rm≤maxRadius,但是此時一定會出現(xiàn)超界缺失;若想不出現(xiàn)超界缺失,必須有Rm≥maxRadius,但是此時一定會出現(xiàn)信息丟失。因此,在使用固定極點的RT時,在超界缺失和信息丟失之間必須有所權(quán)衡。

        當極點偏離圖像中心,接近圖像邊緣時,相對極點位于圖像邊緣區(qū)域的射線,即Rm較小的射線,存在Rm

        綜上所述,極點坐標如果偏離圖像中心,超界缺失及信息丟失會同時出現(xiàn),且隨著偏離程度的增大,超界缺失及信息丟失的程度也越嚴重,因此,在使用RT進行數(shù)據(jù)擴增時,應(yīng)盡量使極點位于圖像的中心點。

        1.3 RT的采樣特點

        根據(jù)式(1)易知,θm變化的范圍是[0,2π]。根據(jù)式(3),當θm從0變化至2π時,q值也將從0變化至src.height,而p值保持不變。因此,在原圖像上以極點O(u,v)∈X為圓心的圓,經(jīng)過RT后,在新圖像上會映射為一條豎直的直線。由于src.height是定值,而圓的周長會隨著r的變化而變化,易知當r較小時,圓的周長也較小,經(jīng)過RT其長度會被拉伸到src.height;當r較大時,圓的周長也較長,經(jīng)過RT其長度會被壓縮到src.height。這樣的變化會使得極點的近鄰點被擴展,極點的遠鄰點被壓縮,由此可得RT的不均勻采樣特點:對于極點O(u,v)∈X,其近鄰點將會被上采樣,遠鄰點將會被下采樣。

        由于這種不均勻采樣的性質(zhì),原圖中的細胞組織經(jīng)過RT會產(chǎn)生形變,使得原來的細胞組織具有不同的表現(xiàn)形式,而這一過程并未產(chǎn)生新的圖像特征,對比圖2(a)(b)可以看出這一變化。同樣地,因為不均勻采樣的特點,這些不同的表現(xiàn)形式僅能作用于與極點有一定距離的環(huán)狀區(qū)域。也即是說,經(jīng)過RT處理的圖像僅能準確地反映原圖中一部分的特征信息,本文認為,在訓練過程中,這一效果與圖像放大、剪裁的DA方式相似。

        此外,結(jié)合本節(jié)的分析可知,在原圖中需要用非線性閾值劃分的區(qū)域可以在RT后使用線性閾值劃分,這表明RT不僅可以幫助增強圖像,還可以降低圖像中分類問題的復雜性,因此RT也常用于實現(xiàn)圖像分割任務(wù)[17],本文僅討論RT的DA能力。

        1.4 基于RT的DA策略

        根據(jù)1.3節(jié)的分析,RT的不均勻采樣特點使其具有DA能力,但是下采樣造成的信息丟失會導致CNN的分類能力下降[18],所以單獨使用RT實現(xiàn)DA的效果較差。而傳統(tǒng)的DA方法如剪裁、旋轉(zhuǎn)、亮度變換不會因為采樣不均勻?qū)е滦畔G失。因此使用RT實現(xiàn)DA時,應(yīng)該采用RT和傳統(tǒng)DA方法同時使用的策略。

        更詳細地,對于訓練集,某張圖片的增強圖片集應(yīng)分為兩個部分:一部分為使用RT處理的數(shù)據(jù),該部分保證圖像表現(xiàn)的多樣性;另一部分為僅使用傳統(tǒng)DA方法處理的數(shù)據(jù),該部分在增加多樣性的基礎(chǔ)上保證圖像信息的完整性,以彌補RT帶來的信息丟失問題。

        對于測試集,不宜使用RT進行處理。在1.3節(jié)的分析中,RT處理后的圖像僅能準確地反映原圖中一部分的特征信息,因為單張RT圖像包含的信息相當有限,而胃腫瘤細胞圖像的類與類之間差距很小,這些有限的信息可能不包含分類胃腫瘤細胞圖像所需的關(guān)鍵特征信息,所以在測試集中使用RT進行處理難以取得好的測試結(jié)果,前期實驗也表明對測試集進行RT處理會降低模型的識別準確率。

        2 AlexNet模型改進

        2012年Alex等[19]提出了AlexNet,并因為它出色的分類能力獲得了2012年ImageNet LSVRC比賽的冠軍,具有結(jié)構(gòu)簡單、參數(shù)少的特點。雖然目前已有如GoogLeNet、ResNet等更先進的網(wǎng)絡(luò)模型,但是有實驗結(jié)果表明,對于小型的多模態(tài)醫(yī)學圖像數(shù)據(jù)集,采用RT作為DA手段時,GoogLeNet與AlexNet的分類效果十分相近,對于某些類別,AlexNet的識別率甚至優(yōu)于GoogLeNet[11]。而對于ResNet等更復雜的網(wǎng)絡(luò)結(jié)構(gòu),數(shù)據(jù)集過小時,其海量參數(shù)更容易導致過擬合。本文使用的胃腫瘤細胞圖像數(shù)據(jù)集是典型的小樣本數(shù)據(jù)集,AlexNet足以勝任該分類任務(wù),因此選取AlexNet作為參考模型。

        為了使AlexNet有更好的訓練效果,嘗試在使用胃腫瘤細胞圖像數(shù)據(jù)時改進其網(wǎng)絡(luò)結(jié)構(gòu)。有研究指出,原始AlexNet的第三層和第四層卷積層對MRI等醫(yī)學圖像的特征提取能力最強[12],但是在這兩層的改動效果并不理想,對其他層的改動同樣會導致網(wǎng)絡(luò)的泛化能力下降,所以本文轉(zhuǎn)而在AlexNet的各個模塊中尋求改進方法。在前期實驗中,發(fā)現(xiàn)原始AlexNet的收斂速度很慢,訓練非常耗時;同時原始AlexNet在胃腫瘤細胞圖像數(shù)據(jù)上的識別率很低。因此,對AlexNet進行改進的主要目的是提高收斂速度、提高識別率。

        2.1 激活函數(shù)改進

        激活函數(shù)是神經(jīng)網(wǎng)絡(luò)的重要組成部分,通過激活函數(shù),神經(jīng)網(wǎng)絡(luò)才具備了分層的非線性映射能力。除了非線性映射的能力以外,更加平滑的激活函數(shù)還具有更快的逼近速率[20]。因此,使用更好的激活函數(shù)能夠提高模型的收斂速度,同時提高模型的泛化性能。

        原始AlexNet使用修正線性單元(Rectified Linear Unit, ReLU)作為激活函數(shù),當ReLU被激活至0以上時,其偏導恒為1,這解決了Sigmoid激活函數(shù)輸入過大時帶來的梯度消失問題,然而ReLU在輸入為負值時其偏導恒為0,此時出現(xiàn)完全飽和,這可能導致神經(jīng)元永遠不會被激活,在使用基于梯度的優(yōu)化算法時,這一缺點會使網(wǎng)絡(luò)的訓練速度變慢,甚至降低網(wǎng)絡(luò)的泛化性能,ReLU的函數(shù)圖像如圖3(a)所示。

        Leaky ReLU與ReLU激活函數(shù)的不同之處在于輸入為負值時其偏導不為0,這解決了ReLU可能出現(xiàn)神經(jīng)元不被激活的情況,使得網(wǎng)絡(luò)的訓練速度更快、效果更好,所以使用Leaky ReLU代替ReLU激活函數(shù),Leaky ReLU的函數(shù)圖像如圖3(b)所示。

        根據(jù)圖3(b),Leaky ReLU輸入為負值時其函數(shù)表示為yi=aixi,而ai的值與激活函數(shù)的表現(xiàn)有較大關(guān)聯(lián),當ai過小時,Leaky ReLU和ReLU的效果幾乎相等[21];可以預見地,當ai過大時,對于負值輸入,較大的梯度將使權(quán)重結(jié)果偏向正值,這將使模型訓練不穩(wěn)定,增加模型的訓練時間。在TensorFlow 1.10.0版本中,ai的默認值為0.2,使用該值時效果良好,無需改動,所以本文實驗中ai的值均設(shè)置為0.2。

        2.2 歸一化層改進

        在神經(jīng)網(wǎng)絡(luò)中,通常要對輸入數(shù)據(jù)進行歸一化處理,在隱含層輸入之前的歸一化操作稱之為歸一化層。歸一化層可以將不同參量去量綱化,縮小數(shù)值差別,并使網(wǎng)絡(luò)快速收斂。因此,通過改進歸一化層可以達到提高網(wǎng)絡(luò)收斂速度的目的。

        原始AlexNet中使用了局部響應(yīng)歸一化(Local Response Normalization, LRN)層對第一、二層進行歸一化操作,以增強模型的泛化性能,但是LRN層對模型的實際改善效果有限[22],還會極大增加模型的訓練時間。使用BN層替換LRN層可以提高計算效率的同時提高分類準確性[23],此外,使用BN層可以放寬網(wǎng)絡(luò)的初始化條件,主要體現(xiàn)在可以使用更大的初始學習率[14]。

        BN層與LRN層相似,也是一種歸一化算法。對于深度學習這類包含很多隱含層的網(wǎng)絡(luò)結(jié)構(gòu),訓練過程中各層參數(shù)都在不停變化,各層的輸入分布經(jīng)過處理也在不停變化,由于訓練期間網(wǎng)絡(luò)參數(shù)變化導致的網(wǎng)絡(luò)激活分布的變化稱為協(xié)變量偏移[24]。BN層通過將每層的輸入分布變換到均值為0、方差為1的正態(tài)分布來解決協(xié)變量偏移的問題。對于小批量梯度下降(Mini-Batch Gradient Descent, MBGD),設(shè)每層輸入為x=(x(1),x(2),…,x(d)),BN的具體操作就是對輸入x的每一維x(k)進行式(4)的變換:

        式(4)中的期望及方差由訓練集計算得來。經(jīng)過式(4)的變換,某層的輸入就變成了均值為0、方差為1的正態(tài)分布,從而限制分布,增大導數(shù)值,增強反向傳播信息流動性,提高訓練的收斂速度,但是這樣會導致網(wǎng)絡(luò)的表達能力下降。為了改進這一缺陷,BN對每個神經(jīng)元增加兩個可以學習的調(diào)節(jié)參數(shù)γ(k)和β(k),用來對經(jīng)過式(4)變換后的激活值進行反變換,從而增強網(wǎng)絡(luò)的表達能力,反變換操作為y(k)=γ(k)(k)+β(k),其中y(k)表示反變換結(jié)果。

        BN層提出時,原文將BN層設(shè)置在卷積層和激活函數(shù)中間,但是目前在實踐上傾向于把BN層放置在激活函數(shù)后面。BN層既然作為輸入的歸一化操作,而激活函數(shù)處理過后的數(shù)據(jù)就是下一層的輸入,所以本文更傾向于將BN層放在激活函數(shù)之后,但是前期實驗結(jié)果表明,BN層不論在哪個位置都對模型的訓練結(jié)果沒有明顯影響。

        需要說明的是,在加入BN層后,需要刪除原AlexNet中的隨機失活(Dropout)層并且不能使用L1、L2正則化項。有研究表明在使用BN層的網(wǎng)絡(luò)中可以移除Dropout層[24],而L1、L2正則化項與BN層不能同時使用的原因尚不清楚。實驗發(fā)現(xiàn),當BN層與Dropout層或正則化項同時使用時會導致模型的訓練過程不穩(wěn)定,主要表現(xiàn)在損失函數(shù)出現(xiàn)較大波動,而刪除Dropout層和正則化項后,損失函數(shù)趨于穩(wěn)定,且模型的泛化能力沒有出現(xiàn)明顯下降。

        2.3 改進AlexNet的模型結(jié)構(gòu)

        原始的AlexNet輸入為227×227×3大小的圖像,其中:227代表圖像的寬和高,3代表圖像的顏色通道數(shù)。因為對于胃腫瘤細胞圖像,灰度圖就足以判斷其類別,所以將模型的輸入調(diào)整為227×227×1,這樣做不僅利于避免顏色噪聲,還能一定程度上增加模型的訓練速度。除2.1、2.2節(jié)的改進之外,對于原始AlexNet卷積層、池化層和全連接層的參數(shù)不作改變,改進后的AlexNet網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。

        3 實驗過程

        3.1 實驗環(huán)境及超參數(shù)設(shè)置

        實驗通過1.10.0版本TensorFlow實現(xiàn)模型代碼,通過OpenCV實現(xiàn)圖像數(shù)據(jù)的預處理;訓練模型時使用GPU加速,顯卡使用單個RTX2070(8GB),CPU使用英特爾i5-9400。

        模型訓練使用MBGD方法,一個Batch大小設(shè)置為200,共訓練10000輪,使用滑動平均模型以減小過擬合,使用Adam優(yōu)化器,以0.0001為初始學習率,將訓練集圖片在輸入前充分打亂,以減少圖片順序?qū)δP偷挠绊?。?shù)據(jù)集處理的時間與模型訓練的時間一共約120min。

        3.2 數(shù)據(jù)集處理

        本文使用的實驗數(shù)據(jù)是由南昌大學第一附屬醫(yī)院提供的胃粘膜細胞切片圖像, 原始數(shù)據(jù)集共有387張彩色圖片,每張大小為320×240像素。其中,胃腫瘤細胞圖片180張,胃正常細胞圖片134張,胃增生細胞圖片73張。按比例隨機選取其中307張(80%)作為原始訓練集,80張(20%)作為原始測試集,將原始訓練集和原始測試集分開處理。

        對于原始訓練集中的每張圖片,處理步驟如下:

        1)首先對圖像進行剪裁:如果是胃腫瘤細胞圖片或胃正常細胞圖片,從左上角開始,橫坐標每隔5個像素,縱坐標每隔4個像素,截取130張220×220大小的局部圖片。如果是胃增生細胞圖片,從左上角開始,橫縱坐標每隔4個像素,截取156張220×220大小的局部圖片。

        2)對剪裁后的每張圖片依次進行隨機亮度變換、隨機翻轉(zhuǎn)和隨機旋轉(zhuǎn)處理,然后加入訓練集,該部分為訓練集中不使用RT處理的數(shù)據(jù)。

        3)重新對原始訓練集進行剪裁:如果是胃腫瘤細胞圖片或胃正常細胞圖片,從左上角開始,橫坐標隔4個像素,縱坐標隔2個像素,截取306張220×220大小的局部圖片;如果是胃增生細胞圖片,從左上角開始,橫坐標每隔3個像素,縱坐標每隔2個像素,截取357張220×220大小的局部圖片。

        4)對第3)步得到的每張圖片依次進行隨機亮度變換、隨機翻轉(zhuǎn)、隨機旋轉(zhuǎn)及RT處理,然后加入訓練集,該部分為訓練集中使用RT處理的數(shù)據(jù)。

        5)對處理后訓練集中所有圖像進行灰度化處理,并將每張圖片的尺寸通過雙線性插值法調(diào)整為227×227。

        經(jīng)過如上步驟,原始訓練集的每張圖片都可以處理為若干張大小為227×227的局部圖片,局部圖片的集合包含原圖像的所有信息。處理后的訓練集共有138754張圖片,其中經(jīng)過RT的約占70%,該比例并未經(jīng)過嚴格驗證,僅為了證明RT在DA中的有效性。

        對于原始測試集中的每張圖片,隨機剪裁出350張220×220大小的圖片,然后通過雙線性插值法調(diào)整為227×227大小并進行灰度化處理,處理后的測試集共有28000張圖片。

        需要說明的是,在原始訓練集處理的第1)步和第3)步中將圖片剪裁成220×220大小是為了方便討論RT參數(shù)的影響。而目前沒有文獻證明對圖片進行極小范圍的尺寸變化會影響圖像信息,因此本文認為將220×220尺寸的圖片調(diào)整為模型輸入所需的227×227尺寸時,不會對實驗結(jié)果產(chǎn)生影響。

        3.3 AlexNet改進效果

        根據(jù)2.1、2.2節(jié),對原始AlexNet的改進目的是提高模型的收斂速度同時提高模型的泛化性能,圖5對比了使用RT和不使用RT時原始AlexNet和改進AlexNet在訓練過程中的訓練集損失變化。

        圖5(a)中,原始AlexNet在10000輪仍未收斂,改進的AlexNet在3000輪左右收斂,且其在整體訓練過程中的損失都要小于原始AlexNet;圖5(b)中,原始AlexNet同樣在10000輪仍未收斂,改進的AlexNet在3000輪左右收斂。在前期實驗中,原始AlexNet約在100000輪收斂,由圖5可知,相比原始AlexNet,改進AlexNet具有更快的收斂速度,且不受RT影響。

        由于訓練損失僅能一定程度反映模型的訓練情況,并不能反映模型的泛化性能,為了進一步驗證本文AlexNet的改進效果,使用了兩個不同的數(shù)據(jù)集,將原始AlexNet和改進AlexNet的測試集平均準確率進行了對比,對比結(jié)果如表1所示。表1中,胃腫瘤細胞數(shù)據(jù)使用的是未經(jīng)RT處理的數(shù)據(jù)集。

        由表1可以發(fā)現(xiàn),改進AlexNet的測試集準確率在兩個數(shù)據(jù)集上均有不同程度的提升。對于未經(jīng)RT處理的胃腫瘤細胞圖像數(shù)據(jù)集,改進的AlexNet相比原始AlexNet提高了7.15個百分點;對于Cifar-10數(shù)據(jù)集,改進的AlexNet相比原始AlexNet提高了9.48個百分點。表明本文的改進AlexNet相比原始AlexNet有更好的泛化性能。綜上所述,本文對AlexNet的改進方法是有效的,相比原始AlexNet,具有更快的收斂速度和更好的泛化性能。

        3.4 RT的參數(shù)設(shè)置為了尋找使用RT實現(xiàn)DA時的最佳參數(shù)設(shè)置,采用先確定最佳極點坐標,然后確定最佳maxRadius的策略。

        令maxRadius恒為110,取圖像左上至右下對角線上的點至中心點(110, 110)的相對距離為橫坐標,兩點間的歐氏距離為相對距離乘以2,測試準確率為縱坐標,極點距圖像中心點的距離與測試集準確率的關(guān)系如圖6(a)所示,其中中心點左側(cè)的點取負距離,右側(cè)的點取正距離??梢园l(fā)現(xiàn),當距離為0時,即極點位于圖像中心點時測試準確率最高,當極點偏離圖像中心點時,測試準確率下降,這說明極點應(yīng)選取在圖像的中心,驗證了1.2.2節(jié)中極點應(yīng)盡量接近圖像的中心點的結(jié)論。

        令極點坐標恒為(110, 110),測試集的平均準確率隨maxRadius變化的情況如圖6(b)所示,可以發(fā)現(xiàn),maxRadius=110時,準確率最高,其他情況準確率均有下降。因此對于極點(110, 110),最佳的maxRadius應(yīng)為110,根據(jù)1.2.1節(jié)的分析,此時剛好不會出現(xiàn)超界缺失,圖像信息的丟失也最少,從側(cè)面印證了該參數(shù)設(shè)置的合理性。

        綜上所述,使用RT作為DA方法時,應(yīng)該采用不會出現(xiàn)超界缺失和信息丟失最少的RT參數(shù)。因此可以得到一個適用于胃腫瘤細胞圖像數(shù)據(jù)的RT參數(shù)設(shè)置方法:對于大小為N×N的方形圖像數(shù)據(jù)集,選取的極點坐標應(yīng)為(N/2, N/2),maxRadius=N/2。對于本文使用的數(shù)據(jù)集,N=220,因此最佳的參數(shù)設(shè)置應(yīng)為極點(110, 110),maxRadius=110。

        3.5 實驗結(jié)果分析

        本文使用改進的AlexNet模型進行訓練,采取極點(110, 110),maxRadius=110的RT方法對數(shù)據(jù)集進行DA處理,實現(xiàn)胃腫瘤細胞的圖像識別。表2顯示了使用RT和不使用RT時,DA對測試集準確率的影響??梢园l(fā)現(xiàn)使用RT比不使用RT的效果更好,它在測試集上的最高準確率和平均準確率分別提高了3.00和6.05個百分點,說明了使用RT作為DA手段的有效性。

        [9] ALOM M Z, TAHA T M, YAKOPCIC C, et al. The history began from AlexNet: a comprehensive survey on deep learning approaches[EB/OL]. [2019-02-08]. https://arxiv.org/ftp/arxiv/papers/1803/1803.01164.pdf.

        [10] PEREZ L, WANG J. The effectiveness of data augmentation in image classification using deep learning[EB/OL]. [2019-02-08]. https://arxiv.org/pdf/1712.04621.pdf.

        [11] SALEHINEJAD H, VALAEE S, DOWDELL T, et al. Image augmentation using radial transform for training deep neural networks[C]// Proceedings of the 2018 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway: IEEE, 2018: 3016-3020.

        [12] 呂鴻蒙, 趙地, 遲學斌. 基于增強AlexNet的深度學習的阿爾茨海默病的早期診斷[J]. 計算機科學, 2017, 4(S1): 60-70. (LYU H M, ZHAO D, CHI X B. Deep learning for early diagnosis of Alzheimers disease based on intensive AlexNet[J]. Computer Science, 2017, 44(S1): 60-70.)

        [13] 丁蓬莉, 李清勇, 張振, 等. 糖尿病性視網(wǎng)膜圖像的深度神經(jīng)網(wǎng)絡(luò)分類方法[J]. 計算機應(yīng)用, 2017, 37(3): 699-704. (DING P L, LI Q Y, ZHANG Z, et al. Diabetic retinal image classification method based on deep neural network[J]. Journal of Computer Applications, 2017, 37(3): 699-704.)

        [14] BJORCK N, GOMES C, SELMAN B, et al. Understanding batch normalization[EB/OL]. [2019-01-10]. https://arxiv.org/pdf/1806.02375.pdf.

        [15] WANG S, PHILLIPS P, SUI Y, et al. Classification of Alzheimers disease based on eight-layer convolutional neural network with leaky rectified linear unit and max pooling[J]. Journal of Medical Systems, 2018, 42(5): No.85.

        [16] 余博, 郭雷, 趙天云. 基于對數(shù)極坐標變換的灰度投影穩(wěn)像算法[J]. 計算機應(yīng)用, 2008, 28(12): 3126-3128. (YU B, GUO L, ZHAO T Y. Gray projection image stabilizing algorithm based on log-polar image transform[J]. Journal of Computer Applications, 2008, 28(12): 3126-3128.)

        [17] FU H, CHENG J, XU Y, et al. Joint optic disc and cup segmentation based on multi-label deep network and polar transformation[J]. IEEE Transactions on Medical Imaging, 2018, 37(7): 1597-1605.

        [18] KUMAR D, WONG A, CLAUSI D A. Lung nodule classification using deep features in CT images[C]// Proceedings of the 12th Conference on Computer and Robot Vision. Piscataway: IEEE, 2015: 133-138.

        [19] KRIZHEYSKY A, SUTSKEVER I, HINTON G E. ImageNet

        classification with deep convolutional neural networks[C]// Proceedings of the 25th International Conference on Neural Information Processing Systems. New York: Curran Associates Inc, 2012: 1097-1105.

        [20] MHASKAR H N, MICCHELLI C A. How to choose an activation function[C]// Proceedings of the 6th International Conference on Neural Information Processing Systems. San Francisco: Morgan Kaufmann Publishers Inc, 1993: 319-326.

        [21] XU B, WANG N, CHEN T, et al. Empirical evaluation of rectified activations in convolutional network[EB/OL]. [2019-02-08]. https://arxiv.org/pdf/1505.00853.pdf.

        [22] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2019-02-08]. https://arxiv.org/pdf/1409.1556.pdf.

        [23] JING J, DONG A, LI P, et al. Yarn-dyed fabric defect classification based on convolutional neural network[J]. Optical Engineering, 2017, 56(9): 093104.

        [24] IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[EB/OL]. [2019-01-10].https://arxiv.org/pdf/1502.03167.pdf.

        精品人妻系列无码一区二区三区| 亚洲精品久久区二区三区蜜桃臀| 肉色丝袜足j视频国产| 欧美xxxx色视频在线观看| 国产精品露脸张开双腿| 亚洲国产一区久久yourpan| 一本色道久久88加勒比 | 久久精品中文字幕久久| 在线观看日本一区二区三区| 日本xxxx色视频在线观看免费| 一本一道av中文字幕无码| 亚洲毛片αv无线播放一区| 亚洲素人av在线观看| 亚洲最大中文字幕熟女| 痉挛高潮喷水av无码免费| 免费看奶头视频的网站| 亚洲精品女优中文字幕| 在线观看午夜视频一区二区| 毛多水多www偷窥小便| 国产资源在线视频| 精品不卡视频在线网址| 国产精品爽爽ⅴa在线观看| 曰本女人与公拘交酡免费视频| 成人免费无码视频在线网站| 国产成人亚洲精品91专区高清| 国产婷婷色一区二区三区在线| 亚洲av成本人无码网站| 国产麻豆剧传媒精品国产av蜜桃| 成人久久久精品乱码一区二区三区| 美丽人妻在夫前被黑人| 日本一本久道| 白白色福利视频在线观看| 搡女人真爽免费视频大全| 日日噜噜噜夜夜爽爽狠狠| 国产呦系列视频网站在线观看| 人妻夜夜爽天天爽三区麻豆av| 无码欧美毛片一区二区三| 狠狠色狠狠色综合日日92| 日韩精品一区二区在线视| 真实的国产乱xxxx在线| 亚洲精品无码久久毛片|