亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度神經(jīng)網(wǎng)絡(luò)的肺炎圖像識別模型

        2019-08-27 02:26:02何新宇張曉龍
        計算機應(yīng)用 2019年6期
        關(guān)鍵詞:遷移學習隨機森林敏感度

        何新宇 張曉龍

        摘 要:當前的肺炎圖像識別算法面臨兩個問題:一是肺炎特征提取器使用的遷移學習模型在源數(shù)據(jù)集與肺炎數(shù)據(jù)集上圖像差異較大,所提取的特征不能很好地契合肺炎圖像;二是算法使用的softmax分類器對高維特征處理能力不夠強,在識別準確率上仍有提升的空間。針對這兩個問題,提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的肺炎圖像識別模型。首先使用ImageNet數(shù)據(jù)集訓練好的GoogLeNet Inception V3網(wǎng)絡(luò)模型進行特征提取;其次,增加了特征融合層,使用隨機森林分類器進行分類預測。實驗在Chest X-Ray Images肺炎標準數(shù)據(jù)集上進行。實驗結(jié)果表明,該模型的識別準確率、敏感度、特異度的值分別達到96.77%、97.56%、94.26%。在識別準確率以及敏感度指標上,與經(jīng)典的GoogLeNet Inception V3 + Data Augmentation(GIV+DA)算法相比,所提模型分別提高了1.26、1.46個百分點,在特異度指標上已接近GIV+DA算法的最優(yōu)結(jié)果。

        關(guān)鍵詞:肺炎圖像分類;遷移學習; 深度卷積神經(jīng)網(wǎng)絡(luò); 隨機森林; 敏感度;特異度

        中圖分類號: TP391.4

        文獻標志碼:A

        Abstract: Current recognition algorithm of pneumonia image faces two problems. First, the extracted features can not fit the pneumonia image well because the transfer learning model used by the pneumonia feature extractor has large image difference between the source dataset and the pneumonia dataset. Second, the softmax classifier used by the algorithm can not well process high-dimensional features, and there is still room for improvement in recognition accuracy. Aiming at these two problems, a pneumonia image recognition algorithm based on Deep Convolution Neural Network (DCNN) was proposed. Firstly, the GoogLeNet Inception V3 network model trained by ImageNet dataset was used to extract the features. Then, a feature fusion layer was added and random forest classifier was used to classify and forecast. Experiments were implemented on Chest X-Ray Images pneumonia standard dataset. The experimental results show that the recognition accuracy, sensitivity and specificity of the proposed model reach 96.77%, 97.56% and 94.26% respectively. The proposed model is 1.26 percentage points and 1.46 percentage points higher than the classic GoogLeNet Inception V3+Data Augmentation (GIV+DA) algorithm in the index of recognition accuracy and sensitivity, and is close to the optimal result of GIV+DA in the index of specificity.

        Key words: pneumonia image classification; transfer learning; Deep Convolution Neural Network (DCNN); random forest; sensitivity; specificity

        0 引言

        肺炎是一種常見的肺部疾病。當前,肺部 X 光檢查是肺炎診斷的主要途徑,這種方法在臨床護理以及流行病學研究中發(fā)揮著重要作用[1]。利用X光進行肺炎診斷是一項具有挑戰(zhàn)性的工作,需要醫(yī)生具備較高的醫(yī)療影像判斷能力。近年來,計算機輔助診斷(Computer-Aided Diagnosis, CAD)技術(shù)[2]作為一種輔助醫(yī)療工具,被廣泛應(yīng)用于很多發(fā)達國家的醫(yī)療相關(guān)領(lǐng)域,特別是在涉及醫(yī)療影像學的領(lǐng)域。借助計算機輔助診斷技術(shù),實現(xiàn)肺炎圖像的識別分類在提高醫(yī)生識別準確率、減少漏診誤診、提高工作效率等方面發(fā)揮著積極的促進作用。

        隨著圖像處理、模式識別、以及科學計算可視化技術(shù)的不斷發(fā)展,在肺炎圖像領(lǐng)域國內(nèi)外學者紛紛展開了研究。上海交通大學李陽等利用圖像處理技術(shù)將肺炎圖像的局部二值模式(Local Binary Pattern, LBP)[3]特征信息作為識別特征,然后用支持向量機(Support Vector Machine, SVM)算法進行肺炎圖像識別。雖然SVM算法對于處理高維度、非線性問題有較大優(yōu)勢,但是當訓練樣本較大時,計算量會呈指數(shù)增長,導致模型最終的效率偏低[4]。近年來,以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)[5]為代表的深度學習(Deep Learning)算法在計算機視覺領(lǐng)域的成功應(yīng)用,為CNN在醫(yī)療圖像處理領(lǐng)域的應(yīng)用奠定了基礎(chǔ)。劉長征等[6]利用卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)了肺炎影像的判別。該方法得到的識別準確率明顯高于使用人工提取的特征進行預測分類的SVM算法得到的識別準確率,這說明卷積神經(jīng)網(wǎng)絡(luò)自動提取的肺炎圖像特征比人工提取的特征更完善、更有表現(xiàn)力。但是他們所用的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)相對簡單,學習特征的能力有限,識別準確率還有提升的空間。在現(xiàn)階段的圖像識別任務(wù)中,往往將大規(guī)模圖像數(shù)據(jù)集(ImageNet)上訓練好的深度卷積神經(jīng)網(wǎng)絡(luò)作為其他圖像識別模型的特征提取器,然后在此基礎(chǔ)上進行識別分類。Kermany等[7]利用上述方法對肺炎圖像進行識別,識別準確率達到92.80%。相比人工進行特征提取的方法以及劉長征等[6]使用的方法,該方法得到的識別準確率有5~10個百分點的提升。Vianna等[8]利用預訓練的GoogLeNet Inception V3 網(wǎng)絡(luò)[9]與Data Augmentation方法相結(jié)合的方式對肺炎圖像進行識別,得到的識別準確率比Kermany等[7]得到的識別準確率提高2.71個百分點。

        雖然Kermany等[7]以及Vianna等[8]利用遷移學習的方法在肺炎圖像識別上取得了比已有研究更好的識別效果,但是,由于ImageNet數(shù)據(jù)集與肺炎數(shù)據(jù)集圖像差異較大,文獻[7-8]并沒有對已有的遷移學習模型進行相應(yīng)的改進,使它更加契合肺炎圖像數(shù)據(jù)集以便得到更高的識別準確率,因此本文提出了一種改進的基于GoogLeNet Inception V3網(wǎng)絡(luò)結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò)模型,并將其應(yīng)用于肺炎圖像的識別。

        本文研究的問題是肺炎圖像識別,主要的工作如下:1)構(gòu)建了特征融合層,優(yōu)選了特征融合層相關(guān)參數(shù),并且將GoogLeNet Inception V3網(wǎng)絡(luò)與特征融合層進行組合獲得了更加多樣化的非線性特征表示,緩解了ImageNet數(shù)據(jù)集與肺炎數(shù)據(jù)集圖像差異較大的問題;2) 使用隨機森林作為分類器,提升了模型抗干擾以及處理高維特征數(shù)據(jù)的能力。

        1 肺炎圖像識別系統(tǒng)架構(gòu)

        1.1 卷積神經(jīng)網(wǎng)絡(luò)模型

        傳統(tǒng)的圖像識別算法在對圖像進行分類時,需要人工參與進行特征處理,這樣得到的特征模型的泛化能力較差,識別準確率存在較大的提升空間。

        深度學習出現(xiàn)的目的在于獲得比淺層學習[10]更好的識別效果。CNN作為一種經(jīng)典的深度學習模型,可以捕捉輸入與輸出之間復雜的非線性映射關(guān)系。CNN是由多層感知機(Multi-Layer Perceptron, MLP)[11]發(fā)展而來,它以二維或者三維圖像直接作為模型的輸入,通過對多個卷積層以及池化層進行堆疊形成具有自主學習能力的層次化結(jié)構(gòu)模型。同時權(quán)值共享、局部感知技術(shù)的應(yīng)用使CNN的網(wǎng)絡(luò)結(jié)構(gòu)與生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)更加接近。其中:卷積層的主要作用是對輸入圖像進行多層次的特征抽取;池化層的作用主要是增加模型的平移、旋轉(zhuǎn)、以及尺度不變性,在保留主要特征的同時有效地減少參數(shù)量,防止過擬合,提高模型泛化能力。

        1.2 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

        GoogLeNet網(wǎng)絡(luò)是Szegedy等[12]于2014年提出的,由一種名為Inception的深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)構(gòu)成。相比AlexNet[13]、VGG(Visual Geometry Group)[14]等網(wǎng)絡(luò),GoogLeNet憑借更大的網(wǎng)絡(luò)深度(層數(shù))和寬度、更高效的資源利用率,獲得了更好的識別效果。

        表1為Resnet50、Inception V3等四種常用深度神經(jīng)網(wǎng)絡(luò)Top-1/ Top-5準確率、網(wǎng)絡(luò)參數(shù)量以及網(wǎng)絡(luò)深度對比情況 (https://keras-cn.readthedocs.io/en/latest/other/application)。由表1可以看到,Inception V3的網(wǎng)絡(luò)深度約為VGG網(wǎng)絡(luò)深度的7倍,但其參數(shù)量僅為VGG網(wǎng)絡(luò)的1/6,這得益于Inception V3在網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化上所作的改進。Inception V3模型將每個n×n的卷積層拆成1×n以及n×1的兩個卷積層,這樣做使網(wǎng)絡(luò)深度進一步增加,同時網(wǎng)絡(luò)的非線性表達能力也得到增強。在模型的構(gòu)建過程中,憑借這些改進可以將更多的計算資源應(yīng)用于網(wǎng)絡(luò)結(jié)構(gòu)的調(diào)整。本文選取 Inception V3網(wǎng)絡(luò)作為特征提取器的關(guān)鍵因素在于:1)通過表1可以發(fā)現(xiàn)Inception V3網(wǎng)絡(luò)訓練得到的Top-1/Top-5準確率明顯高于其他深度神經(jīng)網(wǎng)絡(luò)模型;2)在實際應(yīng)用中,參數(shù)少的模型在內(nèi)存受限的場景下具有突出的優(yōu)勢。

        1.3 GIV3網(wǎng)絡(luò)

        本文將GoogLeNet Inception V3網(wǎng)絡(luò)和特征融合層組合得到的新網(wǎng)絡(luò)簡稱為GIV3網(wǎng)絡(luò),原始的GoogLeNet Inception V3網(wǎng)絡(luò)簡稱為GIV網(wǎng)絡(luò)。

        實驗過程中,由于ImageNet數(shù)據(jù)集與實驗的目標數(shù)據(jù)集圖像差異較大,如果直接使用GIV網(wǎng)絡(luò)提取的特征數(shù)據(jù)作分類,得到的實驗結(jié)果會較差[15]。為了弱化源數(shù)據(jù)集與目標數(shù)據(jù)集圖像差異的影響,本文設(shè)計了一個特征融合層。該特征融合層可以對GIV網(wǎng)絡(luò)學習到的特征信息進行非線性的組合,得到更加多樣化的非線性特征表示。

        圖1是本文設(shè)計的GIV3網(wǎng)絡(luò)結(jié)構(gòu),它與傳統(tǒng)的GIV網(wǎng)絡(luò)不同之處在于特征融合層的增加。特征融合層包括兩個全連接層以及一個Dropout層。

        神經(jīng)網(wǎng)絡(luò)的構(gòu)建過程中,全連接層節(jié)點數(shù)相對固定,一般在1024、512、256、128、64中進行選擇,而Dropout層節(jié)點隱藏率一般是在0.3、0.4、0.5、0.6、0.7中進行選擇。本文模型為了得到最優(yōu)的組合參數(shù),在實驗中利用網(wǎng)格尋優(yōu)算法對節(jié)點數(shù)以及節(jié)點隱藏率進行隨機組合,然后分別進行數(shù)據(jù)集測試,根據(jù)最終測試結(jié)果選取的節(jié)點數(shù)組合為1024與512、Dropout層節(jié)點隱藏率為0.5 (不同節(jié)點組合以及節(jié)點隱藏率的識別準確率對比如表2所示)。

        1.4 分類識別

        隨機森林(Random Forest, RF)[19]是利用多棵決策樹對樣本進行分類預測的集成學習(Ensemble Learning)算法[20]。RF的基本組成單元是CART(Classification And Regression Tree)[21] 。首先,在總樣本中有放回地隨機抽取m個樣本作為CART樹的訓練集(m < M, M為總樣本數(shù))。然后,在特征的選取上也采用有放回的隨機取樣的方式從總特征中選取k個特征(k < K,K為總特征數(shù))。按照上述數(shù)據(jù)集以及特征的選取規(guī)則訓練多棵CART。最終,以投票或者賦予權(quán)重的方式對多棵CART的結(jié)果進行綜合處理得到分類結(jié)果。

        本文選取RF作為分類器的原因有:1)實驗提取出的特征維度較高,而RF在處理高維特征信息時表現(xiàn)出較高的識別準確率。2)本文使用的GIV3網(wǎng)絡(luò)結(jié)構(gòu)復雜,實驗數(shù)據(jù)較少,容易產(chǎn)生過擬合。憑借隨機性的特點,使用RF作為分類器的模型往往不容易發(fā)生過擬合。3)相比其他集成學習算法,RF得到的實驗結(jié)果更穩(wěn)定。

        本文模型整體算法流程如下所示。

        輸入 合并后的數(shù)據(jù)集S;

        輸出 RF分類器預測結(jié)果。

        1)按一定的比例隨機將S分為相互獨立的訓練集S1、驗證集V1、測試集T1。

        2)利用訓練集S1對GIV3網(wǎng)絡(luò)進行參數(shù)更新,并且利用驗證集V1實時評測GIV3網(wǎng)絡(luò)特征提取能力。

        3)利用GIV3網(wǎng)絡(luò)對訓練集S1、驗證集V1以及測試集T1圖像進行特征提取,得到的數(shù)據(jù)集圖像特征信息分別為XGIV3、X1GIV3、X2GIV3。

        4)將訓練集和驗證集圖像特征信息XGIV3、X1GIV3及其標簽值作為輸入訓練RF分類器。

        5)利用訓練好的RF分類器對測試集圖像特征信息X2GIV3進行分類預測。

        2 實驗結(jié)果及分析

        實驗在Windows 10系統(tǒng)下進行,CPU為Inter Core i5-7500CPU@3.41GHz,實驗環(huán)境是基于Windows的TensorFlow機器學習框架,實驗在CPU模式下運行。

        2.1 數(shù)據(jù)集

        本文采用加州大學圣迭戈分校Kermany等[7]于2018年公開的數(shù)據(jù)集Chest X-Ray Images。該數(shù)據(jù)集包括兩個獨立的肺炎圖像數(shù)據(jù)集:訓練集(5232幅)、測試集(624幅),每個數(shù)據(jù)集包含兩種類別的圖像:PNEUMONIA(肺炎圖片)和NORMAL(正常肺部圖片)。圖2是肺炎圖像數(shù)據(jù)集的相關(guān)數(shù)據(jù)實例展示。

        兩種類型的肺部圖像在兩個數(shù)據(jù)集中的具體分布情況如表3所示。為保證實驗過程中訓練集與測試集圖像的獨立性,提高模型的泛化能力,在實驗開始前將原始的訓練集以及測試集進行合并,然后按8∶1∶1的比例將合并后的數(shù)據(jù)集隨機分為訓練集、測試集和驗證集。

        2.2 實驗過程

        首先,利用預訓練得到的GIV3網(wǎng)絡(luò)對訓練集、驗證集、測試集圖像進行特征提取;然后,將訓練集和驗證集的特征數(shù)據(jù)及其對應(yīng)的標簽作為輸入訓練RF分類器;最后,利用訓練好的RF分類器對測試集圖像特征數(shù)據(jù)作分類預測。

        在實驗過程中,為了避免實驗結(jié)果出現(xiàn)局部最優(yōu)而不是全局最優(yōu)的情況,對學習率采取逐步遞減的方式。模型每迭代100次或者連續(xù)多次迭代的模型損失函數(shù)之間的差值小于某個閾值時,利用已訓練的肺炎圖像識別模型對驗證集圖像作分類預測、查看分類結(jié)果,然后將學習率變?yōu)樵瓉淼?.9倍。這樣做能使模型的實驗結(jié)果在訓練后期不會有太大的波動,并且更加接近全局最優(yōu)。

        3 實驗結(jié)果分析

        為全面衡量模型的分類性能,實驗使用了3個模型評價指標:準確率(Accuracy, Acc)、敏感度(Sensitivity, Sen)、特異度(Specificity, Spe),計算式分別如式(5)、(6)、(7)所示。

        其中TP、TN、FP、FN分別表示真陽性、真陰性、假陽性和假陰性。準確率體現(xiàn)的是模型的預測結(jié)果與真實檢測結(jié)果的符合程度,敏感度體現(xiàn)的是模型識別肺炎圖像的能力,而特異度體現(xiàn)的是模型識別非肺炎圖像的能力。

        表4是特征融合層增加后相關(guān)模型識別準確率的對比情況。通過對比實驗1與2、實驗3與4的識別準確率,可以發(fā)現(xiàn),特征融合層的增加使模型的識別準確率分別提高了1.03和1.62個百分點,表明改進之后的特征提取器獲得的特征更好地擬合了肺炎圖像數(shù)據(jù)集。同時分別對比實驗1與實驗3、實驗2與實驗4,可以發(fā)現(xiàn),使用RF作為分類器的模型得到的識別準確率比使用softmax作為分類器的模型得到的識別準確率更高,表明了RF分類器對高維肺炎特征的處理能力更強。

        4 結(jié)語

        本文提出了一種改進的深度卷積神經(jīng)網(wǎng)絡(luò)模型,實現(xiàn)了肺炎圖像的識別分類。本文模型在GoogLeNet Inception V3網(wǎng)絡(luò)的基礎(chǔ)上通過構(gòu)建特征融合層,使得模型獲得了更加多樣化的非線性特征表示,緩解了遷移學習過程中源數(shù)據(jù)集與目標數(shù)據(jù)集圖像差異大的問題;同時使用Random forest作為模型的分類器,用于處理高維肺炎圖像特征數(shù)據(jù)。在對比實驗中,本文模型在訓練集和測試集上均表現(xiàn)出比其他已有模型更好的識別效果和泛化能力。在后續(xù)工作中,考慮到醫(yī)療圖像的特殊性,可利用語義分割技術(shù)對圖像進行預處理,再利用深度神經(jīng)網(wǎng)絡(luò)對精確分割得到的圖像進行分類預測。

        參考文獻 (References)

        [1] RAJPURKAR P, IRVIN J, ZHU K, et al. CheXNet: radiologist-level pneumonia detection on chest X-rays with deep learning [EB/OL]. https://arxiv.org/pdf/1711.05225.pdf.

        [2] RINALDI P, MENCHINI L, MARTINELLI M, et al. Computer-aided diagnosis [J]. Rays, 2003, 28(1): 103-108.

        [3] ZHAO G, AHONEN T, MATAS J, et al. Rotation-invariant image and video description with local binary pattern features [J]. IEEE Transactions on Image Processing, 2011, 21(4): 1465-1477.

        [4] 呂洪艷,劉芳.組合核函數(shù)SVM在特定領(lǐng)域文本分類中的應(yīng)用[J].計算機系統(tǒng)應(yīng)用,2016,25(5):124-128.( LYU H Y, LIU F. Application of text classification for specific domains based on combination kernel function SVM [J]. Computer Systems & Applications, 2016, 25(5): 124-128.)

        [5] HERSHEY S, CHAUDHURI S, ELLIS D P W, et al. CNN architectures for largescale audio classification [C]// Proceedings of the 2017 IEEE International Conference on Acoustic, Speech and Signal Processing. Piscataway, NJ: IEEE, 2017: 131-135.

        [6] 劉長征,相文波.基于改進卷積神經(jīng)網(wǎng)絡(luò)的肺炎影像判別[J].計算機測量與控制,2017,25(4):185-188.(LIU C Z, XIANG W B. Recognition of pneumonia type based on improved convolution neural network [J]. Computer Measurement & Control, 2017, 25(4): 185-188.)

        [7] KERMANY D S, GOLDBAUM M, CAI W J, et al. Identifying medical diagnoses and treatable diseases by image-based deep learning [J]. Cell, 2018, 172(5): 1122-1131.

        [8] VIANNA V P. Study and development of a computer-aided diagnosis system for classification of chest X-ray images using convolutional neural networks pre-trained for ImageNet and data augmentation [EB/OL].[2018-09-16]. https://arxiv.org/pdf/1806.00839v1.pdf.

        [9] BALLESTER P, ARAUJO R M. On the performance of GoogLeNet and AlexNet applied to sketches [C]// AAAI 2016: Proceedings of the 2016 Thirtieth AAAI Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2016: 1124-1128.

        [10] MCDONNELL M D, VLADUSICH T. Enhanced image classification with a fast-learning shallow convolutional neural network [C]// Proceedings of the 2015 International Joint Conference on Neural Networks. Piscataway, NJ: IEEE, 2015: 1-7.

        [11] GAUDART J, GIUSIANO B, HUIART L. Comparison of the performance of multi-layer perceptron and linear regression for epidemiological data [J]. Computational Statistics & Data Analysis, 2004, 44(4): 547-570.

        [12] SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper with convolutions [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ:IEEE, 2015: 1-9.

        [13] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNet classification with deep convolutional neural networks [C]// NIPS 2012: Proceedings of the 25th International Conference on Neural Information Processing Systems. North Miami Beach, FL: Curran Associates Inc., 2012: 1097-1105.

        [14] HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2016: 770-778.

        [15] ZHANG C L, LUO J H, WEI X S, et al. In defense of fully connected layers in visual representation transfer [C]// PCM 2017: Proceedings of the 2017 18th Pacific Rim Conference on Multimedia, LNCS 10736. Cham: Springer, 2017: 807-817.

        [16] YUAN J W, YU S C. Privacy preserving back-propagation neural network learning made practical with cloud computing [J]. IEEE Transactions on Parallel and Distributed Systems, 2014, 25(1): 212-221.

        [17] MORSE G, STANLEY K O. Simple evolutionary optimization can rival stochastic gradient descent in neural networks [C]// GECCO 2016: Proceedings of the 2016 Genetic and Evolutionary Computation Conference. New York: ACM, 2016: 477-484.

        [18] ARTSTEIN-AVIDAN S, KNIG H, MILMAN V. The chain rule as a functional equation [J]. Journal of Functional Analysis, 2010, 259(11): 2999-3024.

        [19] BREIMAN L, LAST M, RICE J. Random forests: finding quasars [M]// FEIGELSON E D, BABU G J. Statistical Challenges in Astronomy. New York: Springer, 2003: 243-254.

        [20] PRUSA J D, KHOSHGOFTAAR T M, NAPOLITANO A. Using feature selection in combination with ensemble learning techniques to improve tweet sentiment classification performance[C]// ICTAI 2015: Proceedings of the 2015 IEEE 27th International Conference on Tools with Artificial Intelligence. Washington, DC: IEEE Computer Society, 2015: 186-193.

        [21] BREIMAN L I, FRIEDMAN J H, OLSHEN R A, et al. Classification and Regression Trees (CART) [J]. Encyclopedia of Ecology, 2015, 57(1): 582-588.

        [22] REN X D, GUO H N, LI S H, et al. A novel image classification method with CNN-XGBoost model [C]// IWDW 2017: Proceedings of the 2017 International Workshop on Digital Watermarking, LNCS 10431. Cham: Springer, 2017: 378-390.

        猜你喜歡
        遷移學習隨機森林敏感度
        全體外預應(yīng)力節(jié)段梁動力特性對于接縫的敏感度研究
        電視臺記者新聞敏感度培養(yǎng)策略
        新聞傳播(2018年10期)2018-08-16 02:10:16
        基于多特征融合的跨域情感分類模型研究
        奇異值分解與移移學習在電機故障診斷中的應(yīng)用
        隨機森林在棉蚜蟲害等級預測中的應(yīng)用
        基于二次隨機森林的不平衡數(shù)據(jù)分類算法
        軟件(2016年7期)2017-02-07 15:54:01
        在京韓國留學生跨文化敏感度實證研究
        拱壩變形監(jiān)測預報的隨機森林模型及應(yīng)用
        基于隨機森林算法的飛機發(fā)動機故障診斷方法的研究
        一種基于遷移極速學習機的人體行為識別模型
        久久精品亚洲乱码伦伦中文| 精品日本一区二区视频| 久久国产精品男人的天堂av | 国产喷水在线观看| 亚洲国产另类久久久精品黑人| 寂寞少妇做spa按摩无码| 国产成人精品日本亚洲专区61| 国产成人亚洲综合| 乱子伦在线观看| 无码aⅴ在线观看| 91精品91久久久久久| 精品国产高清a毛片| 国产精品久久国产精品久久| 成人自拍偷拍视频在线观看 | 欧美喷潮久久久xxxxx| 国产在线网址| 久久深夜中文字幕高清中文| 国产精品亚洲一区二区三区正片| 日韩精品高清不卡一区二区三区| 最新国产精品国产三级国产av| 亚洲a级视频在线播放| 亚洲一区二区av天堂| 免费视频无打码一区二区三区| 亚洲中文字幕国产视频| 国产亚洲精品久久久久5区| 麻豆婷婷狠狠色18禁久久| 国产乱妇乱子在线播视频播放网站| 久久久精品国产sm调教网站| 国产95在线 | 欧美| 久久久精品波多野结衣| 无码一区二区三区AV免费换脸| 亚洲精品美女自拍偷拍| 午夜免费福利一区二区无码AV| 中文字幕高清无码不卡在线| 亚洲国产日韩av一区二区 | 免费无码中文字幕a级毛片| 欧美 国产 综合 欧美 视频| av无码精品一区二区三区四区| 亚洲va欧美va| 日韩久久无码免费看A| 日本一道本加勒比东京热|