亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        青光眼眼底圖像的遷移學(xué)習(xí)分類方法

        2021-02-04 14:15:58徐志京
        關(guān)鍵詞:分類實(shí)驗(yàn)模型

        徐志京,汪 毅

        上海海事大學(xué) 信息工程學(xué)院,上海201306

        青光眼是一種慢性、漸進(jìn)性視覺損傷的眼科疾病,其主要病理特征為視網(wǎng)膜神經(jīng)節(jié)細(xì)胞(Retinal Ganglion Cells,RGC)的凋亡和軸突的喪失[1],從而導(dǎo)致視力逐漸下降甚至失明,嚴(yán)重威脅患者的健康。據(jù)統(tǒng)計(jì),全球人群中青光眼的患病率為3.54%,約有6 426萬人;預(yù)計(jì)到2020 年和2040 年分別將達(dá)7 602 萬人和11 182 萬人[2]。由于該病具有較高的隱蔽性,患病初期不易被發(fā)現(xiàn),導(dǎo)致患者得不到及時(shí)的治療。數(shù)字眼底圖像(DFI)是目前檢測青光眼的主要工具之一,因而可以利用眼底圖像對青光眼進(jìn)行前期檢測,以免病情的進(jìn)一步惡化。但眼底圖像結(jié)構(gòu)性復(fù)雜,采用人工識別方法耗時(shí)費(fèi)力且很難得到客觀準(zhǔn)確的醫(yī)療診斷,因此很多學(xué)者嘗試采用人工智能技術(shù)對眼底圖像進(jìn)行患者篩查,但這是一項(xiàng)極具挑戰(zhàn)性的工作。盡管如此,相關(guān)工作者還是取得了一定的研究成果:Nguyen等人[3]提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的端到端深度學(xué)習(xí)系統(tǒng),自動地從電子醫(yī)療記錄中學(xué)習(xí)病理特征并臨床預(yù)測患病風(fēng)險(xiǎn)。丁蓬莉等人[4]提出基于緊湊的神經(jīng)網(wǎng)絡(luò)CompactNet對視網(wǎng)膜圖像進(jìn)行識別分類,但由于實(shí)驗(yàn)樣本有限,網(wǎng)絡(luò)在訓(xùn)練的過程中并沒有充分提取到相關(guān)特征,因此分類準(zhǔn)確率并不高。Marcos等人[5]利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行視盤分割,然后去除血管,進(jìn)而提取出其紋理特征并分類,在臨床診斷中獲得了良好效果。Raghavendra 等人[6]提出一種利用深度學(xué)習(xí)技術(shù)準(zhǔn)確檢測青光眼的新型計(jì)算機(jī)輔助診斷(CAD)系統(tǒng),設(shè)計(jì)一個(gè)18 層的卷積神經(jīng)網(wǎng)絡(luò),經(jīng)過有效訓(xùn)練提取特征之后進(jìn)行測試分類,該系統(tǒng)為青光眼患者早期快速輔助診斷提供了良好的解決方案。Chai等人[7]提出一種多分支神經(jīng)網(wǎng)絡(luò)(MB-NN)模型,利用該模型從圖像中充分提取深層特征并結(jié)合醫(yī)學(xué)領(lǐng)域知識實(shí)現(xiàn)分類。Balasubramanian等人[8]利用方向梯度直方圖(HOG)進(jìn)行提取特征,并結(jié)合支持向量機(jī)(SVM)實(shí)現(xiàn)對青光眼的分類,但該方法預(yù)處理步驟過于繁瑣,并且識別準(zhǔn)確率并不高。黃元康等人[9]提出基于Markov 隨機(jī)場理論提取出眼底圖像的視盤輪廓,同時(shí)在ISNT 法則的基礎(chǔ)上采用歐式距離和相關(guān)系數(shù)識別法分別實(shí)現(xiàn)對青光眼眼底圖像的識別,但該法需要人工輔助工作才能完成,效率低,自動性較差。

        訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò)需要大量的樣本,在沒有足夠多訓(xùn)練樣本的情況下,可能導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練過程中無法充分提取特征或者訓(xùn)練出來的模型泛化能力差。而遷移學(xué)習(xí)相對于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)主要的優(yōu)勢在于不需要大量的訓(xùn)練樣本[10],針對目前缺乏大型公開已標(biāo)記的青光眼數(shù)據(jù)集,本文引入遷移學(xué)習(xí)思想,提出了基于R-VGGNet(Reduce-VGGNet)網(wǎng)絡(luò)模型的青光眼眼底圖像識別系統(tǒng),選擇VGG16 深度神經(jīng)網(wǎng)絡(luò)作為基本的網(wǎng)絡(luò)結(jié)構(gòu),通過對網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)與微調(diào)實(shí)現(xiàn)對青光眼患者和正常人眼底圖像的判別。相比較于全新學(xué)習(xí),采用遷移學(xué)習(xí)策略,提高了小樣本下青光眼患者的識別率。同時(shí),本文還提取出了青光眼眼底圖像的感興趣區(qū)域,提高了識別速度與準(zhǔn)確率。與傳統(tǒng)的識別方法相比,R-VGGNet網(wǎng)絡(luò)模型具有更好的識別效果。

        1 系統(tǒng)設(shè)計(jì)

        1.1 青光眼識別模型

        本文搭建的青光眼患者識別系統(tǒng)如圖1 所示。該識別系統(tǒng)由三個(gè)部分組成:數(shù)據(jù)集預(yù)處理部分、基于遷移學(xué)習(xí)策略的模型訓(xùn)練與特征提取部分、自動識別分類部分。在對青光眼眼底圖像進(jìn)行識別分類時(shí),需要對原數(shù)據(jù)集進(jìn)行一系列的預(yù)處理操作,然后將預(yù)處理后的圖像輸入到網(wǎng)絡(luò)模型中進(jìn)行遷移訓(xùn)練與特征提取,最后將提取到的特征輸入Softmax 分類器進(jìn)行分類,實(shí)現(xiàn)青光眼的識別。

        圖1 青光眼患者識別模型

        1.2 數(shù)據(jù)集預(yù)處理

        1.2.1 圖像預(yù)處理步驟

        由于獲取的原始數(shù)據(jù)集存在背景多余、噪聲污染、樣本容量少、樣本分布不均勻等問題,如果直接將原數(shù)據(jù)集用于網(wǎng)絡(luò)模型訓(xùn)練,效果會非常不理想。因此,為了達(dá)到訓(xùn)練模型的要求,提高模型的準(zhǔn)確性,需要對原數(shù)據(jù)集進(jìn)行一系列預(yù)處理操作。預(yù)處理步驟為:(1)刪除污染嚴(yán)重,無使用價(jià)值的圖像。如圖2(a)所示;(2)裁剪多余的圖像背景。裁剪后的圖像如圖2(b)所示;(3)直方圖均勻化。對于一些曝光不足的圖像進(jìn)行直方圖均勻化,改善由光線引起的噪聲問題。如圖2(c)所示。

        圖2 圖像的預(yù)處理示例

        1.2.2 感興趣區(qū)域(ROI)提取

        眼底圖像是診斷青光眼的重要依據(jù),研究表明,青光眼患者具有三大特征,其中一大特征為青光眼患者的視杯面積與視盤面積之比一般大于0.6,即杯盤比(CDR>0.6)。同時(shí),為了縮短網(wǎng)絡(luò)處理時(shí)間,可以將更小的初始圖像作為網(wǎng)絡(luò)的輸入?;谏鲜鰞牲c(diǎn)原因,本文將ROI(Region Of Interest)區(qū)域作為深度卷積神經(jīng)網(wǎng)絡(luò)的輸入,提取出的眼底圖像ROI 區(qū)域(視杯與視盤部分)如圖3所示。

        圖3 ROI區(qū)域示例

        1.2.3 圖像增強(qiáng)

        利用深度學(xué)習(xí)技術(shù)來實(shí)現(xiàn)圖像分類任務(wù)時(shí),需要大量的訓(xùn)練樣本,而現(xiàn)實(shí)生活中很難獲取數(shù)以萬計(jì)的相關(guān)圖像,特別在醫(yī)學(xué)領(lǐng)域,這一問題體現(xiàn)得尤為明顯。因此,需要在已有數(shù)據(jù)集的基礎(chǔ)上進(jìn)行數(shù)據(jù)擴(kuò)充。本文在原數(shù)據(jù)集的基礎(chǔ)上采取平移(水平、豎直兩個(gè)方向)、旋轉(zhuǎn)(30°、60°、90°、180°)、比例縮放、翻轉(zhuǎn)等方法,實(shí)現(xiàn)對樣本的擴(kuò)充。這些變換的目標(biāo)是生成更多樣本以創(chuàng)建更大的數(shù)據(jù)集,防止過度擬合[11]。由2.1 節(jié)數(shù)據(jù)集簡介可知,本文所采用的數(shù)據(jù)集還存在正負(fù)樣本分布不均衡的情況,所以,需要對負(fù)樣本進(jìn)行適當(dāng)擴(kuò)充,從而解決樣本不均衡問題。

        1.3 R-VGGNet模型訓(xùn)練與特征提取

        本文提出的識別網(wǎng)絡(luò)模型R-VGGNet 以VGG16 網(wǎng)絡(luò)模型作為基本網(wǎng)絡(luò)結(jié)構(gòu),其網(wǎng)絡(luò)架構(gòu)圖如圖4 所示。

        圖4 R-VGGNet卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)圖

        VGG16 網(wǎng)絡(luò)由3×3 的卷積核和2×2 的最大池化層構(gòu)成,共13 個(gè)卷積層和3 個(gè)全連接層[12]。相比較8 層的AlexNet 網(wǎng)絡(luò),VGG16 網(wǎng)絡(luò)最大的特點(diǎn)是通過3×3 濾波器的組合與堆疊,提取出輸入領(lǐng)域內(nèi)更多非常細(xì)小的特征[13]。在每組卷積層之后都連接一層最大池化層,并且每個(gè)卷積層之后緊跟(Rectified LinearUnit)Relu激活函數(shù),其抑制特性使得神經(jīng)元具有稀疏激活性,有效解決了梯度彌散問題,同時(shí)加速網(wǎng)絡(luò)收斂。對于任意第i(0<i <16)層:

        由于VGG 結(jié)構(gòu)為深度卷積神經(jīng)網(wǎng)絡(luò),其具有強(qiáng)大的特征學(xué)習(xí)能力,所以被廣泛地用于圖像識別任務(wù)中。本文借助遷移學(xué)習(xí)思想,利用該網(wǎng)絡(luò)在ImageNet 數(shù)據(jù)集上的訓(xùn)練所獲得的權(quán)重參數(shù),凍結(jié)前13層并釋放后3層的權(quán)重,利用青光眼數(shù)據(jù)集訓(xùn)練全連接層和Softmax分類器,微調(diào)后進(jìn)行特征提取和分類。

        現(xiàn)有的VGG 結(jié)構(gòu)采用三層連接的全連接層,這三層全連接層占了訓(xùn)練參數(shù)的絕大部分,對于本文來說,識別任務(wù)僅僅只有兩類,即識別健康人和青光眼患者的眼底圖像,三層的全連接層相對冗余,因此,對VGG16全連接層進(jìn)行了重新設(shè)計(jì),即R-VGGNet,提出用2個(gè)全連接層替換原有的3個(gè)全連接層,其中設(shè)置第1個(gè)全連接層輸出神經(jīng)元個(gè)數(shù)為1 024 個(gè),第2 個(gè)全連接層輸出神經(jīng)元個(gè)數(shù)為2 個(gè),這樣得到的網(wǎng)絡(luò)相對于之前的網(wǎng)絡(luò),訓(xùn)練參數(shù)大大減少,提升了網(wǎng)絡(luò)的訓(xùn)練速度,訓(xùn)練時(shí)間也得到縮短。

        對網(wǎng)絡(luò)模型的優(yōu)化本質(zhì)上就是使損失函數(shù)盡可能的小。本文優(yōu)化算法采用隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)和Momentum相結(jié)合,設(shè)定動量參數(shù)為默認(rèn)值0.9,迭代次數(shù)為100次,Batch_size設(shè)定為32,初始學(xué)習(xí)率設(shè)定為0.001。學(xué)習(xí)率采用指數(shù)衰減法的更新策略。指數(shù)衰減法更新學(xué)習(xí)率的表達(dá)式為:

        式中,lr為衰減后的學(xué)習(xí)率,lr0為初始學(xué)習(xí)率,dr為衰減系數(shù),gs為當(dāng)前的迭代次數(shù),ds為衰減步長(即每迭代指定次數(shù)更新一次學(xué)習(xí)率)表示向下取整。在訓(xùn)練過程中代價(jià)函數(shù)采用交叉熵?fù)p失函數(shù),Softmax 計(jì)算損失。為了避免過擬合現(xiàn)象,在損失函數(shù)中附加L2正則化項(xiàng),最終的損失函數(shù)表達(dá)式為:

        式中,θ為權(quán)重,x為批次訓(xùn)練樣本,λ為正則化項(xiàng)系數(shù),p為期望的類別概率,q為模型預(yù)測的類別概率。在訓(xùn)練過程中,當(dāng)損失函數(shù)的loss值趨于穩(wěn)定時(shí)將學(xué)習(xí)率再次調(diào)小,直至達(dá)到最小值時(shí)獲得最優(yōu)識別模型,最終設(shè)定學(xué)習(xí)率為0.000 5。

        1.4 分類器的設(shè)計(jì)

        設(shè)計(jì)一個(gè)完整的卷積神經(jīng)網(wǎng)絡(luò),其最后部分往往會連接若干全連接層,這是因?yàn)槿B接層能夠?qū)⒕W(wǎng)絡(luò)提取到的特征映射到樣本的標(biāo)記空間中,因此,全連接層在整個(gè)卷積神經(jīng)網(wǎng)絡(luò)中實(shí)際上起到了“分類器”的作用。該分類器設(shè)置了兩個(gè)全連接層Fc1 和Fc2,由于實(shí)驗(yàn)樣本有限,為了避免過擬合現(xiàn)象的發(fā)生,在全連接層之后加入Dropout 層,并且設(shè)置Dropout 率為0.5。同時(shí)在每個(gè)全連接層之后引入線性修正單元(Relu),用來解決梯度彌散問題[14]。最后將VGG16 原有模型中包含1 000個(gè)節(jié)點(diǎn)的Softmax 層用一個(gè)包含2 個(gè)節(jié)點(diǎn)的Softmax 層代替。分類器結(jié)構(gòu)圖如圖5所示。

        圖5 分類器結(jié)構(gòu)圖

        2 實(shí)驗(yàn)結(jié)果與分析

        2.1 數(shù)據(jù)集

        文章使用的數(shù)據(jù)集為YiWeiChen等人收集的青光眼數(shù)據(jù)集(https://github.com/yiweichen04/retina_dataset),該數(shù)據(jù)集包含了300張健康人的眼底圖像和101張青光眼患者的眼底圖像,并且均為高分辨率的RGB 彩色圖像,如圖6所示。

        圖6 眼底圖像示例

        2.2 實(shí)驗(yàn)設(shè)計(jì)

        本實(shí)驗(yàn)是基于CPU為Intel i7-7800x,顯卡為NVIDIA GeForce GTX1080i 的計(jì)算機(jī)完成的,深度學(xué)習(xí)框架選擇keras 及tensorflow。由于VGG16 網(wǎng)絡(luò)的輸入層要求為224×224,因此,采用Python 的pillow 庫中crop 操作,設(shè)定固定的裁剪區(qū)域?qū)⑺袌D像的尺寸都裁剪為224×224。同時(shí)將數(shù)據(jù)集分成訓(xùn)練與測試兩部分(訓(xùn)練集與測試集的樣本比例為9∶1)。為了對比不同網(wǎng)絡(luò)結(jié)構(gòu)對分類精度的影響、提取ROI對分類精度的影響、同一網(wǎng)絡(luò)結(jié)構(gòu)不同訓(xùn)練方法對分類精度的影響以及R-VGGNet網(wǎng)絡(luò)結(jié)構(gòu)和提取ROI操作對時(shí)間復(fù)雜度影響,本文設(shè)計(jì)四組對比實(shí)驗(yàn)。

        第一組對比實(shí)驗(yàn):為了驗(yàn)證網(wǎng)絡(luò)結(jié)構(gòu)對識別率的影響,本組實(shí)驗(yàn)使用提取ROI后的數(shù)據(jù)集分別對LeNet和R-VGGNet兩種不同的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行實(shí)驗(yàn)。

        (1)LeNet 網(wǎng)絡(luò)是用于識別手寫數(shù)字的簡單卷積神經(jīng)網(wǎng)絡(luò),共有8層(包括輸入層),屬于淺層神經(jīng)網(wǎng)絡(luò)。

        (2)本文提出的基于遷移學(xué)習(xí)的R-VGGNet深度卷積神經(jīng)網(wǎng)絡(luò)。

        第二組對比實(shí)驗(yàn):為了驗(yàn)證提取ROI對識別率的影響,本組實(shí)驗(yàn)分別使用未提取ROI 的數(shù)據(jù)集和提取ROI 的數(shù)據(jù)集對本文提出的基于遷移學(xué)習(xí)的R-VGGNet深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)。

        第三組對比實(shí)驗(yàn):為了驗(yàn)證遷移學(xué)習(xí)的有效性,本組實(shí)驗(yàn)將丟棄R-VGGNet 在ImageNet 上學(xué)習(xí)到的權(quán)重參數(shù),采用全新學(xué)習(xí)策略進(jìn)行實(shí)驗(yàn)。

        第四組對比實(shí)驗(yàn):為了驗(yàn)證R-VGGNet 網(wǎng)絡(luò)結(jié)構(gòu)和提取ROI 操作對時(shí)間復(fù)雜度的影響,本組實(shí)驗(yàn)使用未提取ROI 的數(shù)據(jù)集和提取ROI 的數(shù)據(jù)集分別對R-VGGNet網(wǎng)絡(luò)結(jié)構(gòu)和VGG16網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行實(shí)驗(yàn)。

        目前對青光眼的識別是一項(xiàng)具有挑戰(zhàn)性的工作,不同的研究人員也嘗試多種方法來提高識別率。為了進(jìn)一步驗(yàn)證本文提出的青光眼圖像識別模型R-VGGNet的性能,本文還利用自身已有數(shù)據(jù)集對傳統(tǒng)的不同識別方法進(jìn)行對比實(shí)驗(yàn)。

        2.3 評價(jià)指標(biāo)

        在圖像分類任務(wù)中,一般從分類的準(zhǔn)確率和損失函數(shù)值兩個(gè)方面來評價(jià)分類模型的性能。本文損失函數(shù)采用交叉熵?fù)p失函數(shù),公式在1.3 節(jié)已給出。對于分類準(zhǔn)確率,令Ntotal代表測試集中視網(wǎng)膜圖像的總數(shù)量,Nrec代表其中被正確分類的圖像數(shù)量,則分類準(zhǔn)確率可以表示為[15]:

        2.4 結(jié)果與分析

        2.4.1 第一組實(shí)驗(yàn)分析

        圖7(a)和(b)分別展示了提取ROI 后的數(shù)據(jù)集對R-VGGNet和LeNet兩種不同網(wǎng)絡(luò)結(jié)構(gòu)的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)結(jié)果表明:當(dāng)?shù)螖?shù)為100次時(shí),R-VGGNet深度卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練準(zhǔn)確率(Tracc)和測試準(zhǔn)確率(Teacc)略低于LeNet網(wǎng)絡(luò),但R-VGGNet網(wǎng)絡(luò)模型更易于收斂,總體效果好。

        2.4.2 第二組實(shí)驗(yàn)分析

        圖8(a)和(b)展示了提取ROI和未提取ROI的數(shù)據(jù)集作為R-VGGNet模型的輸入,經(jīng)過遷移學(xué)習(xí)得到的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)結(jié)果表明:當(dāng)?shù)螖?shù)為100時(shí),提取ROI的測試準(zhǔn)確率明顯高于未提取ROI,提高了近15%。

        圖7 R-VGGNet和LeNet訓(xùn)練和測試的準(zhǔn)確率曲線

        圖8 提取ROI和未提取ROI訓(xùn)練和測試的準(zhǔn)確率曲線

        2.4.3 第三組實(shí)驗(yàn)分析

        根據(jù)圖7(a)和圖8(a)的實(shí)驗(yàn)結(jié)果圖,可以看出采用遷移學(xué)習(xí)策略的R-VGGNet 網(wǎng)絡(luò)模型在測試集上準(zhǔn)確率達(dá)到了0.9,而采用全新學(xué)習(xí)的方式對R-VGGNet進(jìn)行訓(xùn)練,在測試集上的準(zhǔn)確率為0.85。圖9 展示了R-VGGNet 模型迭代次數(shù)為100 時(shí)的訓(xùn)練與測試的loss曲線圖,其中測試的loss 值約為0.3。說明該網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集上學(xué)習(xí)到了特征,而這些特征有助于對眼底圖像進(jìn)行分類。

        圖9 R-VGGNet模型訓(xùn)練和測試的loss曲線

        表1總結(jié)了上述三組實(shí)驗(yàn)迭代100輪在訓(xùn)練集和測試集上的準(zhǔn)確率。由表1可知,本文提出的基于ROI和遷移學(xué)習(xí)的青光眼眼底圖像識別方法的分類精度最高。

        表1 三組實(shí)驗(yàn)迭代100輪的準(zhǔn)確率

        2.4.4 第四組實(shí)驗(yàn)分析

        圖10 展示了迭代次數(shù)為100 時(shí),采用未提取ROI和提取ROI 的數(shù)據(jù)集分別對R-VGGNet 和VGG16 進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明:將提取ROI 的數(shù)據(jù)集作為R-VGGNet 網(wǎng)絡(luò)的輸入,其訓(xùn)練時(shí)間耗時(shí)最短,識別速度最快。

        圖10 時(shí)間復(fù)雜度對比

        2.4.5 不同方法的比較

        為了驗(yàn)證本文方法的有效性,在保證實(shí)驗(yàn)環(huán)境相同,預(yù)處理環(huán)節(jié)一致的情況下,對不同的識別方法進(jìn)行對比實(shí)驗(yàn)。表2總結(jié)了不同方法的分類準(zhǔn)確率。

        根據(jù)表2 可知,本文提出的識別模型R-VGGNet 明顯提高了特征提取能力,其識別精度優(yōu)于其他傳統(tǒng)分類方法。

        表2 不同方法的分類準(zhǔn)確率

        3 結(jié)束語

        針對目前缺乏大型公開已標(biāo)記的青光眼眼底圖像數(shù)據(jù)集,為了解決小樣本學(xué)習(xí)能力不足、分類精度低等問題。本文借助遷移學(xué)習(xí)思想和深度卷積神經(jīng)網(wǎng)絡(luò)對青光眼眼底圖像進(jìn)行分類,進(jìn)而判斷是否患有青光眼。對VGG網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行重新設(shè)計(jì),簡化了全連接層,達(dá)到減少訓(xùn)練參數(shù),縮短訓(xùn)練時(shí)間的目的。同時(shí)根據(jù)青光眼患者的眼底特征提取其感興趣區(qū)域(ROI),將其作為網(wǎng)絡(luò)模型的輸入,實(shí)驗(yàn)結(jié)果表明本文提出的分類識別模型提高了識別率。為了進(jìn)一步提高該模型的識別率和廣泛的適用性,在后續(xù)的研究工作中將進(jìn)一步對圖像預(yù)處理環(huán)節(jié)進(jìn)行優(yōu)化,同時(shí)利用其他數(shù)據(jù)集對該模型進(jìn)行多次驗(yàn)證,以提高模型的魯棒性。

        猜你喜歡
        分類實(shí)驗(yàn)模型
        一半模型
        記一次有趣的實(shí)驗(yàn)
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        做個(gè)怪怪長實(shí)驗(yàn)
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        3D打印中的模型分割與打包
        中日韩欧美在线观看| 永久亚洲成a人片777777| 五月婷婷开心五月播五月| 国产乱人伦偷精品视频还看的| 亚洲码欧美码一区二区三区| 色偷偷av男人的天堂| 国产a级午夜毛片| 最新日韩人妻中文字幕一区| 免费看草逼操爽视频网站| 人人妻人人澡人人爽精品日本| 99久久国产综合精品五月天| 日韩欧美专区| 午夜亚洲精品视频网站| 亚洲精品一区三区三区在线| 久久精品中文字幕大胸| 九九精品视频在线观看| 男女上床视频在线观看| 丰满的少妇av一区二区三区| 人妻丰满熟妇av无码区| 丰满岳乱妇在线观看中字无码| 亚洲av成人一区二区三区色| 媚药丝袜美女高清一二区| 噜噜综合亚洲av中文无码| 欧美尺寸又黑又粗又长| 麻豆密入视频在线观看| 亚洲成人av一区二区| 免费无码精品黄av电影| 成人h动漫精品一区二区| a√无码在线观看| 国产女同舌吻1区2区| 久久久久亚洲av成人网人人网站| 国产免费资源高清小视频在线观看| 日本中文字幕一区二区在线观看| 亚洲高清三区二区一区| 久久久久亚洲av片无码v| 久久青草国产精品一区| 国产福利一区二区三区在线观看| 亚洲av成人无码一二三在线观看 | 男女做爰高清免费视频网站| 精品一区二区三区在线观看| 青青草免费高清视频在线观看|