亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于遷移學(xué)習(xí)的小麥籽粒品種識(shí)別研究

        2023-08-04 14:19:23李平馬玉琨李艷翠馮繼克趙明富

        李平 馬玉琨 李艷翠 馮繼克 趙明富

        摘要:不同角度下小麥籽粒具有不同特征信息,造成分類結(jié)果存在差異。采用同一小麥籽粒多角度圖片,使用小麥籽粒腹溝向上、腹溝向下和腹溝朝前三個(gè)角度圖片構(gòu)建小麥籽粒品種數(shù)據(jù)集。選取黃淮麥區(qū)種植面積較大的6個(gè)小麥品種作為試驗(yàn)材料,對(duì)比不同模型在小麥籽粒識(shí)別上的準(zhǔn)確度。采用VGG-16、ResNet-50、Inception-V3卷積神經(jīng)網(wǎng)絡(luò),通過遷移學(xué)習(xí)的方式建立小麥籽粒品種識(shí)別分類模型,驗(yàn)證集識(shí)別準(zhǔn)確率最高為99.35%,高于不遷移學(xué)習(xí)的識(shí)別方法和傳統(tǒng)機(jī)器學(xué)習(xí)的識(shí)別方法。在相同的試驗(yàn)條件下,三種模型在使用遷移學(xué)習(xí)的情況下對(duì)小麥籽粒識(shí)別的測(cè)試集準(zhǔn)確率分別達(dá)到99.55%、99.77%、99.22%,優(yōu)于單面特征建模識(shí)別?;?種模型中分別選擇最優(yōu)試驗(yàn),對(duì)其3種角度分別識(shí)別。結(jié)果表明:腹溝向下的識(shí)別率在3種模型中最好,腹溝朝前次之,腹溝向上較差。通過試驗(yàn)發(fā)現(xiàn),采用同一小麥籽粒多角度圖片可以更準(zhǔn)確地提取小麥籽粒特征,并且有助于分類模型提升品種識(shí)別準(zhǔn)確率。

        關(guān)鍵詞:小麥籽粒;品種識(shí)別;卷積神經(jīng)網(wǎng)絡(luò);遷移學(xué)習(xí)

        中圖分類號(hào):S126: S512: TP391

        文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):20955553 (2023) 070220

        10

        Study on wheat seed variety identification based on transfer learning

        Li Ping1, Ma Yukun2, Li Yancui3, Feng Jike1, Zhao Mingfu1

        (1. College of Information Engineering, Henan Institute of Science and Technology, Xinxiang, 453003, China;

        2. School of Artificial Intelligence, Henan Institute of Science and Technology, Xinxiang, 453003, China;

        3. College of Computer and Information Engineering, Henan Normal University, Xinxiang, 453007, China)

        Abstract: Wheat grains under different angles have different feature information, resulting in differences in classification results. In this paper, we adopt the same wheat grain multi-angle pictures, and use the three angle pictures of wheat grain groove upward, groove downward and groove forward to construct the wheat grain variety dataset. Six wheat varieties with large planting area in Huanghuai wheat area were selected as test materials to compare the accuracy of different models in wheat grain recognition. VGG-16, ResNet-50, and Inception-V3 convolutional neural networks are used to build a classification model for wheat seed variety recognition by transfer learning, and the highest recognition accuracy of the validation set is 99.35%, which is higher than that of the recognition method without transfer learning and the traditional machine learning recognition method. Under the same test conditions, the test set accuracies of the three models for wheat seed grain recognition using migration learning reached 99.55%, 99.77%, and 99.22%, respectively, which were better than single-sided feature modeling recognition. Based on the selection of the optimal test among each of the three models, their three angles were recognized separately. The results showed that the recognition rate of ventral groove downward was the best among the three models, ventral groove toward the front was the second best, and ventral groove upward was poor. It was found that the use of multi-angle pictures of the same wheat grain can extract wheat grain features more accurately and help the classification model to improve the accuracy of variety identification.

        Keywords: wheat seeds; variety identification; convolutional neural network; migration learning

        0 引言

        小麥?zhǔn)鞘澜缟献钪匾霓r(nóng)產(chǎn)品之一,種植面積廣泛分布在全球各地。同時(shí),小麥也是中國(guó)糧食生產(chǎn)的主要作物之一,生產(chǎn)面積和總產(chǎn)量占比較高,而小麥的穩(wěn)定發(fā)展對(duì)我國(guó)的糧食安全儲(chǔ)備起到重要的作用[12]。目前小麥識(shí)別主要依靠人工的方法對(duì)不同小麥籽粒品種進(jìn)行識(shí)別,該方法成本比較低,但需要工作人員具有豐富的實(shí)踐經(jīng)驗(yàn),存在效率低、主觀性強(qiáng)、準(zhǔn)確率低等弊端。因此,該方法在生產(chǎn)實(shí)踐中沒能得到廣泛的應(yīng)用。傳統(tǒng)的機(jī)器學(xué)習(xí)方法需要人工總結(jié)規(guī)律并提取特征,需要耗費(fèi)大量時(shí)間、精力進(jìn)行在圖片預(yù)處理和特征有效性評(píng)估工作。攀超等[3]通過機(jī)器學(xué)習(xí)的方法對(duì)小麥品種提取6個(gè)顏色特征、5個(gè)形態(tài)特征、5個(gè)紋理特征進(jìn)行分析識(shí)別,結(jié)果表明當(dāng)采用3種特征的時(shí)候效果最好,識(shí)別準(zhǔn)確率達(dá)到93.13%。何紅霞[4]對(duì)小麥品種進(jìn)行提取6個(gè)顏色特征、5個(gè)形態(tài)特征、5個(gè)紋理特征進(jìn)行分析識(shí)別,通過三種算法對(duì)比,使用粒子群算法PNN神經(jīng)網(wǎng)絡(luò)的優(yōu)化效果最為顯著,準(zhǔn)確率達(dá)到96.32%。因此需要一種效率高、準(zhǔn)確率高的小麥品種識(shí)別方法。

        近年來(lái),以卷積神經(jīng)網(wǎng)絡(luò)代表的遷移學(xué)習(xí)技術(shù)迅速發(fā)展,在農(nóng)作物種類的研究上得到廣泛的應(yīng)用[510]。謝為俊等[11]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的油茶籽完整性識(shí)別算法,從網(wǎng)絡(luò)結(jié)果簡(jiǎn)化和超參數(shù)進(jìn)行優(yōu)化,使優(yōu)化后的網(wǎng)絡(luò)對(duì)油茶籽完整性識(shí)別準(zhǔn)確率達(dá)到98.05%。劉嘉政[12]提出一種基于Inception-V3的遷移學(xué)習(xí)模型對(duì)花卉進(jìn)行識(shí)別,在對(duì)各個(gè)參數(shù)進(jìn)行微調(diào)的情況下,平均識(shí)別率達(dá)到93.73%。王東方等[13]基于遷移學(xué)習(xí)提出了一種TL-SE-RseNeXt-101,用于不指定農(nóng)作物種類病蟲害檢測(cè)分類,與4種卷積模型進(jìn)行對(duì)比,該模型在對(duì)不同作物種類的不同病害分類準(zhǔn)確率達(dá)到98%??梢钥闯鐾ㄟ^遷移學(xué)習(xí)方式的卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別有較好的表現(xiàn)。

        傳統(tǒng)的小麥分類研究中,所拍攝的小麥品種圖像都是按照腹溝向上的形態(tài)進(jìn)行拍攝[1417],所采集的圖像方式單一,采集小麥籽粒單面的圖像往往不能更好的體現(xiàn)小麥籽粒的特征,本文所拍攝小麥品種圖像是采用單粒多圖多角度進(jìn)行拍攝,分別為腹溝向上、腹溝朝前45°、腹溝向下,以便于能更好地提取特征。本文以選取種植面積較大6種小麥種子籽粒分類為例,采用多幅同一小麥籽粒圖片分角度小麥籽粒分類數(shù)據(jù)庫(kù)有助于分類模型更準(zhǔn)確地提取小麥籽粒特征,避免了已有數(shù)據(jù)集中采集角度不統(tǒng)一造成的特征干擾問題,以較少數(shù)據(jù)量獲得較高識(shí)別率,提高了品種識(shí)別的兼容性和準(zhǔn)確性。采用遷移學(xué)習(xí)的方式對(duì)VGG-16[18]、ResNet-50[19]、Inception-V3[2021]這三種成熟的卷積神經(jīng)網(wǎng)絡(luò)對(duì)小麥籽粒進(jìn)行品種的分類,并與不遷移的方法和傳統(tǒng)的機(jī)器學(xué)習(xí)方法進(jìn)行對(duì)比。

        1 數(shù)據(jù)庫(kù)構(gòu)建

        1.1 傳統(tǒng)圖像采集

        樊超等[3]在對(duì)小麥品種進(jìn)行分類研究中,采用的是BENQ_5000E 型掃描儀進(jìn)行4個(gè)不同品種和6個(gè)不同品種圖像采集,拍攝時(shí)采用的方法是按照腹溝向上的形態(tài)進(jìn)行掃描。孟惜等[16]在對(duì)小麥品種識(shí)別中,采用的是BENQ_5000E型掃描儀進(jìn)行6個(gè)不同品種圖像采集,拍攝時(shí)采用的方法是按照腹溝向上的形態(tài)進(jìn)行掃描。陳文根等[17]在對(duì)小麥品種識(shí)別中,采用索尼IMX258進(jìn)行9個(gè)不同品種圖像采集,拍攝時(shí)采用的方法是籽粒背面圖片。所采集的圖像方式太過單一,都是采集的小麥籽粒的單面不能很好地體現(xiàn)小麥籽粒的特征性,采集圖像較少也不利于在深度學(xué)習(xí)模型中訓(xùn)練。

        1.2 本文圖像采集

        河南科技學(xué)院生命科技學(xué)院實(shí)驗(yàn)室有小麥品種300多個(gè),篩選出黃淮麥區(qū)種植面積較大的6個(gè)小麥品種,本文進(jìn)行圖像采集。表1為選擇拍攝的小麥品種編號(hào)、品種名稱以及本文對(duì)品種設(shè)置的標(biāo)簽。表1中品種編號(hào)為實(shí)驗(yàn)室原始編號(hào),品種標(biāo)簽為本文處理并報(bào)告結(jié)果所用標(biāo)簽。圖1為小麥品種實(shí)例。

        本文對(duì)選取的品種進(jìn)行單粒多圖多角度來(lái)構(gòu)建小麥籽粒圖片,分為三種角度進(jìn)行拍攝,分別為腹溝向上、腹溝朝前、腹溝向下,為了更好地提高品種識(shí)別的兼容性和準(zhǔn)確性。針對(duì)表1中選出的6個(gè)小麥品種,采用體視鏡進(jìn)行籽粒拍攝,拍攝時(shí)每個(gè)品種挑選出顆粒飽滿的種子1 000粒。拍攝在室內(nèi)自然光照和燈光條件下進(jìn)行,同時(shí),保持拍攝板的干凈整潔,避免雜質(zhì)影響后續(xù)的圖像處理結(jié)果。拍攝時(shí)以黑色吸光絨布為背景,體視顯微鏡參數(shù)設(shè)置為:放大倍數(shù)1倍,分辨率2 688像素×1 520像素,自動(dòng)白平衡(AWB)關(guān)閉,寬動(dòng)態(tài)平衡(WDR)關(guān)閉,LED補(bǔ)光燈設(shè)為中等。通過調(diào)整體視顯微鏡右側(cè)焦螺旋對(duì)小麥種子聚焦,每粒小麥分別拍攝腹溝向上、腹溝朝前、腹溝向下和空白4張圖片。小麥籽粒圖像采集過程中,為避免籽粒之間出現(xiàn)漏拍、多拍、錯(cuò)拍等現(xiàn)象,同時(shí)為方便后期篩選處理,使用空白照片將不同顆粒之間的小麥進(jìn)行分隔,圖2所示為采集的小麥籽粒原始圖像,三個(gè)方向圖片,拍攝時(shí)圖像名是日期加自動(dòng)編號(hào)。拍攝根據(jù)品種籽粒類別逐類拍攝,每類品種保存至一個(gè)文件夾中,最終得6個(gè)品種的19 800張照片(包含空白照片)。

        1.3 圖像命名

        本文拍攝的原始圖像命名格式是時(shí)間加自動(dòng)編號(hào),沒有體現(xiàn)小麥的品種類別和拍攝角度信息。如圖3所示,命名結(jié)合表1的品種標(biāo)簽,其中0代表農(nóng)大3416-18,內(nèi)樂288命名標(biāo)簽為1等;標(biāo)簽中第2位數(shù)字代表每個(gè)品種拍攝的小麥顆粒數(shù),0_1代表農(nóng)大3416-18的第一粒小麥,0_2代表農(nóng)大3416-18的第二粒小麥,以此類推;第三個(gè)數(shù)字表示每粒小麥分不同角度拍攝的3張圖像,1代表小麥腹溝向下,2代表小麥腹溝朝前45°,3代表小麥腹溝向上。綜上,3_1_1代表百農(nóng)4199第一粒小麥,拍攝的第一個(gè)角度的圖像,3_2_1 代表百農(nóng)4199第二粒小麥,拍攝的第一個(gè)角度的圖像,1_2_3代表內(nèi)樂288第二粒小麥,拍攝的第三個(gè)角度的圖像。使用程序?qū)?個(gè)小麥品種統(tǒng)一命名,刪除空白照片,統(tǒng)一命名后得到18 000張圖像。

        1.4 圖像預(yù)處理

        由于在拍攝中部分圖片會(huì)存在問題,比如主體不夠突出,辨識(shí)度低,圖片拍攝時(shí)沒有按照角度進(jìn)行命名,為方便后續(xù)試驗(yàn)本文對(duì)圖片先進(jìn)行了預(yù)處理。預(yù)處理有圖片降噪處理。

        原始小麥圖像分辨為2 688像素×1 520像素,且原始數(shù)據(jù)中小麥兩邊有部分黑邊。原始圖片帶有影響圖片的因素,因此要先對(duì)數(shù)據(jù)進(jìn)行降噪處理,去除掉照片中的干擾因素,方便后續(xù)試驗(yàn)。為使數(shù)據(jù)更加適合訓(xùn)練模型和降低圖像黑邊對(duì)訓(xùn)練的影響,本文將2 688像素×1 520像素的圖像切割為1 520像素×1 520像素。如不對(duì)圖像進(jìn)行壓縮,則易造成內(nèi)存溢出和訓(xùn)練時(shí)間較長(zhǎng)的情況,內(nèi)存溢出將導(dǎo)致模型無(wú)法完成訓(xùn)練,因此還需要對(duì)圖像進(jìn)行壓縮處理,為滿足卷積神經(jīng)網(wǎng)絡(luò)的輸入圖像的尺寸,本文將其按比例壓縮像素。小麥數(shù)據(jù)集選擇9 000張圖片,按照8∶1∶1的比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,分別包括7 200張訓(xùn)練圖像、900張驗(yàn)證集圖像、900張測(cè)試集圖像。為了滿足不同模型輸入的要求,對(duì)訓(xùn)練集圖像進(jìn)行隨機(jī)裁剪和歸一化處理,對(duì)驗(yàn)證集和測(cè)試集只進(jìn)行歸一化處理。如圖4所示為裁剪后的小麥籽粒圖像。

        2 試驗(yàn)方法

        2.1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)是一種帶有卷積結(jié)構(gòu)的深度神經(jīng)網(wǎng)絡(luò),卷積結(jié)構(gòu)可以減少深層網(wǎng)絡(luò)占用的內(nèi)存量,其三個(gè)關(guān)鍵的操作,第一是局部感受野,第二是權(quán)值共享,第三是池化(pooling)層,有效地減少了網(wǎng)絡(luò)的參數(shù)個(gè)數(shù),緩解了模型的過擬合問題。卷積神經(jīng)網(wǎng)絡(luò)的低隱層是由卷積層和最大池采樣層交替組成,高層是全連接層對(duì)應(yīng)傳統(tǒng)多層感知器的隱含層和邏輯回歸分類器。第一個(gè)全連接層的輸入是由卷積層和子采樣層進(jìn)行特征提取得到的特征圖像。最后一層輸出層是一個(gè)分類器,可以采用邏輯回歸,Softmax回歸對(duì)輸入圖像進(jìn)行分類。如圖5所示,該網(wǎng)絡(luò)是經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

        本文采用3種典型的卷積神經(jīng)網(wǎng)絡(luò),分別為VGG-16[18]、ResNet-50[19]、Inception-V3[2021]。

        VGG網(wǎng)絡(luò)是在2014年由牛津大學(xué)著名研究組提出,其特點(diǎn)在于使用堆疊多個(gè)3×3的卷積核疊加代替了大的卷積核同時(shí)增加了網(wǎng)絡(luò)層深度,整個(gè)網(wǎng)絡(luò)都是用了同樣大小的卷積核和最大池化尺寸,而且對(duì)于數(shù)據(jù)集具有很好的泛化能力。

        ResNet是在2015年由微軟實(shí)驗(yàn)室提出,其特點(diǎn)是參考VGG網(wǎng)絡(luò),在其基礎(chǔ)上進(jìn)行修改,在吸取了VGG網(wǎng)絡(luò)的基礎(chǔ)上加入了殘差網(wǎng)絡(luò),目的為了克服由于網(wǎng)絡(luò)深度加深而產(chǎn)生學(xué)習(xí)效率低和準(zhǔn)確率無(wú)法提升的問題。

        Inception-V1又名GoogLeNet,其中深度:層數(shù)更深避免梯度消失的問題;寬度:增加了多種核。Inception-V3通過改進(jìn)Inception-V1網(wǎng)絡(luò),加入了分解成小卷積的思想,將較大的二維卷積拆解成兩個(gè)較小的一維卷積,節(jié)約了大量參數(shù),加速運(yùn)算并減輕了過擬合。

        2.2 遷移學(xué)習(xí)及微調(diào)模型

        遷移學(xué)習(xí)也稱為歸納遷移,其目標(biāo)是將某個(gè)領(lǐng)域或任務(wù)上學(xué)習(xí)到的知識(shí)或模式應(yīng)用到不同的但相關(guān)的領(lǐng)域或問題中。針對(duì)圖像領(lǐng)域存在的訓(xùn)練成本高,可以用遷移學(xué)習(xí)來(lái)解決?;诰矸e神經(jīng)網(wǎng)絡(luò)的遷移學(xué)習(xí)就是將已訓(xùn)練好的模型及參數(shù)在新的識(shí)別任務(wù)上再次進(jìn)行訓(xùn)練,本文改進(jìn)后的模型結(jié)構(gòu)為:在原網(wǎng)絡(luò)基礎(chǔ)上增加一層ReLU激活函數(shù),一層Dropout層,一層6維全連接層以及一層Softmax層。

        本文采用不凍結(jié)任何網(wǎng)絡(luò)層,將模型所有層設(shè)置為遷移學(xué)習(xí)方式,即為直接訓(xùn)練模型所有參數(shù),并與凍結(jié)預(yù)訓(xùn)練模型的全部卷積特征提取層、僅對(duì)新分類器參數(shù)訓(xùn)練的遷移學(xué)習(xí)并和不遷移模型、傳統(tǒng)的KNN、SVM進(jìn)行對(duì)比。對(duì)于上述模型中訓(xùn)練及優(yōu)化方案,3種模型結(jié)構(gòu)共進(jìn)行26組模型訓(xùn)練。遷移學(xué)習(xí)主要是訓(xùn)練好的模型具有較強(qiáng)的特征提取能力,通過利用在Image大型數(shù)據(jù)集上三種預(yù)訓(xùn)練模型,采用遷移學(xué)習(xí)的方法對(duì)預(yù)訓(xùn)練模型卷積模塊參數(shù),遷移到小麥籽粒識(shí)別任務(wù)中,作為網(wǎng)絡(luò)的初始化參數(shù),并且將預(yù)訓(xùn)練網(wǎng)絡(luò)最后一層的全連接層替換為本文小麥籽粒數(shù)據(jù)集的類別數(shù),即為類別數(shù)6,通過全局訓(xùn)練和局部訓(xùn)練完成識(shí)別模型,通過測(cè)試集得到小麥籽粒分類準(zhǔn)確率。本文的小麥籽粒遷移學(xué)習(xí)框架如圖6所示。

        2.3 模型參數(shù)及優(yōu)化

        此處采用在ImageNet大規(guī)模視覺識(shí)別挑戰(zhàn)賽上取得較好成績(jī)的卷積神經(jīng)網(wǎng)絡(luò)VGG-16、ResNet-50以及Inception-V3的卷積。針對(duì)3種卷積神經(jīng)網(wǎng)絡(luò),在原網(wǎng)絡(luò)基礎(chǔ)上添加ReLU激活函數(shù),Dropout層,以及Softmax函數(shù),加入Dropout是為了緩解模型訓(xùn)練導(dǎo)致過擬合,在訓(xùn)練過程中修改網(wǎng)絡(luò)結(jié)構(gòu)。

        激活函數(shù)的引入是為了增加神經(jīng)網(wǎng)絡(luò)模型的非線性,沒有激活函數(shù)的每層就相當(dāng)于矩陣相乘。使用ReLU激活函數(shù),給神經(jīng)元引入非線性因素,可以解決線性能力不足的問題,這樣神經(jīng)網(wǎng)絡(luò)就可以應(yīng)用到眾多的非線性模型中。

        f(x)=max(0,x)

        (1)

        式中:

        x——輸入的數(shù)據(jù);

        f(x)——輸出的結(jié)果。

        最后一層是Softmax函數(shù),本算法主要用于多分類問題,目的是將多分類的結(jié)果以概率的形式展現(xiàn)出來(lái)。

        Softmax(x)=exi∑nj=1exj

        (2)

        式中:

        xi——第i個(gè)神經(jīng)節(jié)點(diǎn)的輸出值;

        j——

        輸出神經(jīng)節(jié)點(diǎn)個(gè)數(shù),即分類的類別個(gè)數(shù)。

        本文選用適用于大規(guī)模數(shù)據(jù)的隨機(jī)梯度下降法(Adaptive moment estimation, Adam)作為優(yōu)化算法,Adam將隨機(jī)梯度下降算法中的自適應(yīng)梯度算法(Adaptive gradient algorithm, AdaGrad)和均方根傳播(Root mean square propagation, RMSProp)的優(yōu)勢(shì)結(jié)合在一起,適合解決大規(guī)模數(shù)據(jù)和參數(shù)優(yōu)化的問題。選擇0.0001、0.001、0.01和0.1共4種初始學(xué)習(xí)率進(jìn)行學(xué)習(xí)。

        在模型訓(xùn)練過程中,本文引入早停技術(shù)(Early Stopping)來(lái)對(duì)模型訓(xùn)練后的驗(yàn)證集驗(yàn)證的結(jié)果進(jìn)行監(jiān)控,耐心值設(shè)置的為12,表示連續(xù)12次驗(yàn)證集的損失值不下降,立即停止對(duì)模型的訓(xùn)練,所以每次的迭代次數(shù)不是固定的。同時(shí)在訓(xùn)練過程中保存當(dāng)前最優(yōu)參數(shù),后續(xù)如果有更優(yōu)的結(jié)果則進(jìn)行替換。此方法限制模型取得最小損失函數(shù)值的迭代次數(shù),迭代次數(shù)過多,算法容易過擬合,迭代次數(shù)太少,則容易欠擬合。

        2.4 模型評(píng)價(jià)標(biāo)準(zhǔn)

        評(píng)價(jià)分類問題的評(píng)價(jià)指標(biāo):準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1值,混淆矩陣則是用來(lái)說(shuō)明分類任務(wù)的。TP(True Positive)表示將正類預(yù)測(cè)為正類;FP(False Positive)表示將負(fù)類預(yù)測(cè)為正類;TN(True Negative)表示將負(fù)類預(yù)測(cè)為負(fù)類;FN(False Negative)表示將正類預(yù)測(cè)為負(fù)類。

        準(zhǔn)確率定義:對(duì)于給定的數(shù)據(jù),分類正確的樣本數(shù)占總樣本數(shù)的比例。

        Accuracy=TP+TNTP+FP+FN+TN

        (3)

        2.5 試驗(yàn)環(huán)境

        試驗(yàn)采用PyTorch深度學(xué)習(xí)框架開發(fā)環(huán)境,PyTorch是Torch的Python版本,是由FaceBook開源的神經(jīng)網(wǎng)絡(luò)框架,主要用于GPU加速過的運(yùn)算替代與NumPy類似的運(yùn)算和構(gòu)建深度神經(jīng)網(wǎng)絡(luò)。根據(jù)相關(guān)學(xué)者研究結(jié)果,PyTorch的速度表現(xiàn)勝過TensorFlow和Kersa等框架,使用同樣的模型,PyTorch實(shí)現(xiàn)更有可能快過其他框架。與TensorFlow的靜態(tài)計(jì)算圖不同,PyTorch的計(jì)算圖是動(dòng)態(tài)的,可以根據(jù)計(jì)算需要實(shí)時(shí)改變計(jì)算圖。使用RTX3060 12G顯卡和CPU AMD銳龍5800X完成訓(xùn)練及驗(yàn)證結(jié)果。

        3 試驗(yàn)結(jié)果與分析

        3.1 基于深度學(xué)習(xí)的籽粒識(shí)別

        基于深度學(xué)習(xí)的分類識(shí)別與傳統(tǒng)機(jī)器學(xué)習(xí)識(shí)別方法對(duì)比如表2所示。傳統(tǒng)模型通過提取的28個(gè)特征進(jìn)行識(shí)別,結(jié)果顯示KNN的驗(yàn)證集識(shí)別準(zhǔn)確率最高為93.33%,KNN和SVM訓(xùn)練速度普遍高于卷積神經(jīng)網(wǎng)絡(luò),但卷積神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率大多高于KNN和SVM的準(zhǔn)確率。在同等條件下,Inception-V3的驗(yàn)證集要比VGG-16和ResNet-50分別高1.33個(gè)百分點(diǎn)和1.25個(gè)百分點(diǎn)。使用深度學(xué)習(xí)建立的識(shí)別方法要比傳統(tǒng)的機(jī)器學(xué)習(xí)識(shí)別方法驗(yàn)證集準(zhǔn)確率較高,實(shí)用性高于機(jī)器學(xué)習(xí)。

        3.2 基于遷移學(xué)習(xí)的籽粒識(shí)別

        與不遷移學(xué)習(xí)的模型相比,遷移學(xué)習(xí)能夠明顯提升模型的收斂速度以及準(zhǔn)確率。各組訓(xùn)練和驗(yàn)證的結(jié)果如表3所示,其中迭代次數(shù)的不同是指驗(yàn)證集早停技術(shù)對(duì)結(jié)果進(jìn)行監(jiān)控,當(dāng)損失值連續(xù)12次不下降時(shí)所產(chǎn)生的迭代次數(shù),一次迭代時(shí)間指的是通過總時(shí)間除以迭代次數(shù)所產(chǎn)生的時(shí)間。進(jìn)行全局訓(xùn)練的是指不凍結(jié)卷積特征提取層,并和新的分類器參數(shù)進(jìn)行所有參數(shù)訓(xùn)練方式,局部訓(xùn)練是指凍結(jié)卷積特征提取層,僅對(duì)新的分類器進(jìn)行參數(shù)訓(xùn)練方式。試驗(yàn)選擇初始學(xué)習(xí)率為0.1、0.01、0.001、0.000 1進(jìn)行模型訓(xùn)練。

        3.2.1 遷移學(xué)習(xí)方式對(duì)模型準(zhǔn)確率的影響

        表3為模型訓(xùn)練與驗(yàn)證的準(zhǔn)確率,可以看出在相同的參數(shù)下,直接訓(xùn)練所有參數(shù)的遷移學(xué)習(xí)方式要明顯優(yōu)于僅訓(xùn)練分類器參數(shù)的方式。局部訓(xùn)練參數(shù)的遷移學(xué)習(xí)方式下,試驗(yàn)8的驗(yàn)證集識(shí)別準(zhǔn)確率最高,為98.43%。全局訓(xùn)練參數(shù)的遷移學(xué)習(xí)方式下,試驗(yàn)20的驗(yàn)證集識(shí)別準(zhǔn)確率最高,為99.35%。在相同參數(shù)下,對(duì)比不遷移的模型,VGG-16遷移學(xué)習(xí)比不遷移學(xué)習(xí)高1.54個(gè)百分點(diǎn),ResNet-50遷移學(xué)習(xí)比不遷移學(xué)習(xí)高2.17個(gè)百分點(diǎn),Inception-V3遷移學(xué)習(xí)比不遷移學(xué)習(xí)高1.03個(gè)百分點(diǎn)。與不遷移學(xué)習(xí)的模型相比,遷移學(xué)習(xí)能夠明顯提升模型的收斂速度以及準(zhǔn)確率。

        從驗(yàn)證集的準(zhǔn)確率看,進(jìn)行全局訓(xùn)練的參數(shù)模型所得到的驗(yàn)證集準(zhǔn)確率明顯優(yōu)局部訓(xùn)練的參數(shù)模型,最高的分別為進(jìn)行全局訓(xùn)練的VGG-16模型初始學(xué)習(xí)率為0.000 1時(shí),驗(yàn)證集準(zhǔn)確率為98.53%;進(jìn)行全局訓(xùn)練的ResNet-50模型初始學(xué)習(xí)率為0.000 1時(shí),驗(yàn)證集準(zhǔn)確率為99.24%;進(jìn)行全局訓(xùn)練的Inception-V3模型初始學(xué)習(xí)率為0.000 1時(shí),驗(yàn)證集準(zhǔn)確率為99.35%,Inception-V3模型分別比VGG-16模型和ResNet-50模型高0.82個(gè)百分點(diǎn)和0.11個(gè)百分點(diǎn)。全局訓(xùn)練所迭代的時(shí)間雖然比較多,但準(zhǔn)確率是最高的,局部訓(xùn)練的三種模型來(lái)看,所訓(xùn)練的時(shí)間相對(duì)于全局訓(xùn)練要節(jié)省相對(duì)應(yīng)的一半,但其準(zhǔn)確率相對(duì)于全局訓(xùn)練相對(duì)較小一點(diǎn)。

        3.2.2 初始學(xué)習(xí)率對(duì)模型準(zhǔn)確率的影響

        從初始學(xué)習(xí)率看,學(xué)習(xí)率作為深度學(xué)習(xí)中重要的超參數(shù),其決定著目標(biāo)函數(shù)是否能收斂到局部最小值或者最優(yōu)值,設(shè)置太大會(huì)使結(jié)果超過最優(yōu)值,太小會(huì)使損失速度下降過慢,合適的學(xué)習(xí)率能夠使目標(biāo)在合適的數(shù)據(jù)內(nèi)收斂到局部最小值或者最優(yōu)值。隨著初始學(xué)習(xí)率的下降,訓(xùn)練集和驗(yàn)證集的準(zhǔn)確率也隨之提升。

        在局部訓(xùn)練中ResNet-50的學(xué)習(xí)率為0.001的時(shí),驗(yàn)證集的準(zhǔn)確率為92.53%,學(xué)習(xí)率為0.000 1時(shí),驗(yàn)證集的準(zhǔn)確率為92.68%,說(shuō)明當(dāng)學(xué)習(xí)率為0.001時(shí),已經(jīng)收斂到接近最優(yōu)值,再降低學(xué)習(xí)率也不會(huì)明顯增加準(zhǔn)確率。而初始學(xué)習(xí)率為0.000 1的時(shí)候試驗(yàn)4、試驗(yàn)12、試驗(yàn)20是三種模型中準(zhǔn)確率最高的,但時(shí)候驗(yàn)證集識(shí)別率呈現(xiàn)出一定的波動(dòng),尤其是VGG-16中的試驗(yàn)4波動(dòng)較大,模型不穩(wěn)定。以上結(jié)果表明,采用0.000 1的初始學(xué)習(xí)率時(shí)三種模型泛化能力最強(qiáng),效果也最優(yōu)。這是因?yàn)檫x用的微調(diào)遷移學(xué)習(xí),模型在原始數(shù)據(jù)上已經(jīng)收斂,所以設(shè)置較小的學(xué)習(xí)率在新數(shù)據(jù)上有更好的效果。

        3.2.3 準(zhǔn)確率與損失值曲線的分析

        從圖7來(lái)看,三種模型中,VGG-16中驗(yàn)證集的損失值和準(zhǔn)確率相對(duì)不穩(wěn)定,驗(yàn)證集損失值在第五次迭代過程中出現(xiàn)了極大的提升,在前15次迭代中有較大的波動(dòng),在15次后進(jìn)入相對(duì)穩(wěn)定狀態(tài)。ResNet-50中訓(xùn)練集和驗(yàn)證集的損失值和準(zhǔn)確率在21次迭代以后相對(duì)是平穩(wěn)的,在40多次的迭代次數(shù)中,第21次迭代和第36次迭代中驗(yàn)證集的精度有相對(duì)較大的波動(dòng),在之后訓(xùn)練中相對(duì)穩(wěn)定狀態(tài)。Inception-V3中訓(xùn)練集和驗(yàn)證集的損失值和準(zhǔn)確率都是趨于相對(duì)穩(wěn)定的狀態(tài),相對(duì)也是三種模型在全局訓(xùn)練并且學(xué)習(xí)率在0.000 1的條件下驗(yàn)證集效果最高的。三種模型均在達(dá)到穩(wěn)定狀態(tài)并且識(shí)別準(zhǔn)確率明顯提高,表明使用遷移學(xué)習(xí)的網(wǎng)絡(luò)可以保證準(zhǔn)確率和速度的情況下對(duì)小麥籽粒進(jìn)行識(shí)別的可行性,在識(shí)別前期不用做機(jī)器學(xué)習(xí)對(duì)圖像進(jìn)行過多的處理,大大降低了人工操作的成本。

        3.2.4 測(cè)試集準(zhǔn)確率的分析

        表4為3種模型VGG16、ResNet-50、Inception-V3在全局訓(xùn)練中學(xué)習(xí)率為0.000 1時(shí)測(cè)試集的結(jié)果。

        可以看出ResNet-50的測(cè)試結(jié)果最高,高于VGG-16準(zhǔn)確率0.22個(gè)百分點(diǎn),高于VGG-16 F1值0.19個(gè)百分點(diǎn);高于Inception-V3準(zhǔn)確率0.55個(gè)百分點(diǎn),高于Inception-V3 F1值0.53個(gè)百分點(diǎn),迭代時(shí)間是最短的。在VGG-16中,雖然識(shí)別率相對(duì)于ResNet-50較低一些,訓(xùn)練所需的迭代時(shí)間比ResNet-50高一些。在Inception-V3中,驗(yàn)證集雖然是最高的但是在測(cè)試集的識(shí)別率相對(duì)于另外兩種模型要低一些,訓(xùn)練所需的迭代時(shí)間要比ResNet-50高一些,相較于VGG-16的迭代時(shí)間相差不多。綜上所述ResNet-50模型全局訓(xùn)練模型運(yùn)算時(shí)間最短且分類效果在測(cè)試集上的準(zhǔn)確率最高。

        3.3 基于遷移學(xué)習(xí)的三種角度識(shí)別結(jié)果分析

        1) 角度統(tǒng)一的影響。

        在以往的試驗(yàn)中,采用的是單粒單圖單角度的圖片,從結(jié)果來(lái)看無(wú)法達(dá)到預(yù)期效果,在本試驗(yàn)中,單粒多圖多角度的圖片識(shí)別效果要比單粒單圖單角度識(shí)別效果更優(yōu)。通過遷移微調(diào)后的網(wǎng)絡(luò)與現(xiàn)有的小麥識(shí)別進(jìn)行對(duì)比,對(duì)比試驗(yàn)選擇文獻(xiàn)[14]和文獻(xiàn)[1718]的拍攝方式和試驗(yàn)方法。在三種模型中,通過測(cè)試集驗(yàn)證ResNet-50的平均識(shí)別率最高為99.77%,結(jié)果如表5所示。

        2) 三種角度的影響。

        為了更好地驗(yàn)證多幅同一小麥籽粒圖片的必要性,分別對(duì)三種角度在模型中的識(shí)別性能進(jìn)行分析。

        試驗(yàn)結(jié)果如圖8和表6所示,在VGG-16(試驗(yàn)4)中測(cè)試集對(duì)應(yīng)的混淆矩陣中品種標(biāo)簽2中有4張圖像被誤認(rèn)為了標(biāo)簽1,出現(xiàn)錯(cuò)誤上的在腹溝朝前方向1張,腹溝向上方向3張,在三種角度中,腹溝向下的識(shí)別率最好。在ResNet-50(試驗(yàn)12)中測(cè)試集對(duì)應(yīng)的混淆矩陣中品種標(biāo)簽2中有1張圖像被誤認(rèn)為標(biāo)簽1,標(biāo)簽4中有1張圖像被誤認(rèn)為標(biāo)簽5,出現(xiàn)錯(cuò)誤的在腹溝向上的方向2張,在三種角度中,腹溝向下的識(shí)別率最好。

        在Inception-V3(試驗(yàn)20)測(cè)試集對(duì)應(yīng)的混淆矩陣中品種標(biāo)簽0中有1張圖像被誤認(rèn)為標(biāo)簽3,標(biāo)簽1中有2張圖像誤認(rèn)為標(biāo)簽2,標(biāo)簽2中有1張圖像被誤認(rèn)為標(biāo)簽0和2張圖像被誤認(rèn)為標(biāo)簽1,標(biāo)簽4有1張圖像被誤認(rèn)為5,其中腹溝朝前的有4張圖像,腹溝向上的有3張圖像,在三種角度中,腹溝向下的識(shí)別率最好。通過圖9可以看出,在ResNet-50(試驗(yàn)12)中三種角度的混淆矩陣中,出現(xiàn)識(shí)別錯(cuò)誤的都在腹溝向上。綜上所述,可以看出從三種角度來(lái)講,腹溝向下識(shí)別率最好。進(jìn)一步驗(yàn)證了單粒多圖多角度籽粒圖片的必要性。

        4 結(jié)論

        本文試驗(yàn)使用遷移學(xué)習(xí)的方法,通過改進(jìn)原模型的結(jié)構(gòu),將VGG-16,ResNet-50,Inception-V3這三個(gè)網(wǎng)絡(luò)模型對(duì)小麥籽粒分類,證明了遷移學(xué)習(xí)對(duì)比深度學(xué)習(xí)和機(jī)器學(xué)習(xí)更有有效性。

        1)? 針對(duì)小麥籽粒識(shí)別分類的問題,采集了6個(gè)推廣面積比較廣的小麥籽粒圖像,每個(gè)品種分別采集1 000 粒小麥,針對(duì)每粒小麥分別采集腹溝向上、腹溝朝前、腹溝向下三種角度的圖像,每個(gè)品種采集3 000張圖像。選擇9 000張圖片,通過遷移學(xué)習(xí)的方法將3種典型的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到小麥籽粒識(shí)別的問題上進(jìn)行比較,結(jié)果表明驗(yàn)證集準(zhǔn)確率最高可達(dá)99.35%。根據(jù)網(wǎng)絡(luò)的復(fù)雜度,網(wǎng)絡(luò)的訓(xùn)練時(shí)間顯著差異,全局訓(xùn)練的時(shí)間相對(duì)于不進(jìn)行全局訓(xùn)練的時(shí)間將近多一倍左右,其中VGG-16網(wǎng)絡(luò)局部訓(xùn)練時(shí)學(xué)習(xí)率為0.000 1時(shí)所訓(xùn)練的時(shí)間最短,且驗(yàn)證集準(zhǔn)確率比全局訓(xùn)練的準(zhǔn)確率低0.1個(gè)百分點(diǎn),為98.43%。盡管使用遷移學(xué)習(xí)在訓(xùn)練的時(shí)間要遠(yuǎn)大于傳統(tǒng)的機(jī)器學(xué)習(xí),但顯著提高了小麥籽粒識(shí)別分類的準(zhǔn)確率,在小麥籽粒識(shí)別方面效果更好。

        2)? 對(duì)比深度學(xué)習(xí)、機(jī)器學(xué)習(xí)、遷移學(xué)習(xí)中,遷移學(xué)習(xí)明顯在準(zhǔn)確率上高于深度學(xué)習(xí)和機(jī)器學(xué)習(xí),通過遷移學(xué)習(xí)識(shí)別的結(jié)果可以看出使用遷移學(xué)習(xí)能夠更好地達(dá)到識(shí)別效果。從三種模型中各選擇識(shí)別最好的試驗(yàn),分別為試驗(yàn)4、試驗(yàn)12、試驗(yàn)20,進(jìn)行其性能比較,結(jié)果表明,試驗(yàn)12中ResNet-50的識(shí)別速度最快,識(shí)別率是最高的,對(duì)其三種角度分別測(cè)試結(jié)果發(fā)現(xiàn)腹溝向下跟腹溝朝前的效果最好。試驗(yàn)6和試驗(yàn)22雖然識(shí)別率不是最高,但是其識(shí)別準(zhǔn)確率也不差。從三種模型中分別去看三種角度平均識(shí)別率的試驗(yàn)中,腹溝向下的效果在三種模型中效果最好,腹溝朝前的要比腹溝向上的效果要好一點(diǎn)。驗(yàn)證了單粒多圖多角度小麥籽粒圖片的必要性。

        3)? 本文6類小麥籽粒采用三種模型進(jìn)行籽粒識(shí)別,通過測(cè)試選擇出了最優(yōu)的模型,但是其所迭代時(shí)間過長(zhǎng),速度過慢。下一步重點(diǎn)將選擇輕量級(jí)網(wǎng)絡(luò)和增加小麥籽粒類別,在不影響識(shí)別效率的情況下提高運(yùn)行速度,從而選擇出更適合的模型。

        參 考 文 獻(xiàn)

        [1] 王寧, 程威. 2000—2019年河南省小麥播種面積與產(chǎn)量變化趨勢(shì)分析[J]. 農(nóng)業(yè)科技通訊, 2021(6): 234-235, 322.

        [2] 馬斯霜, 白海波, 惠建, 等. 小麥主要品質(zhì)性狀研究進(jìn)展[J]. 中國(guó)農(nóng)學(xué)通報(bào), 2021, 37(24): 1-5.

        Ma Sishuang, Bai Haibo, Hui Jian, et al. Main quality characters of wheat: A review [J]. Chinese Agricultural Science Bulletin, 2021, 37(24): 1-5.

        [3] 樊超, 夏旭, 石小鳳, 等. 基于圖像處理的小麥品種分類研究[J]. 河南工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版), 2011, 32(5): 74-78.

        Fan Chao, Xia Xu, Shi Xiaofeng, et al. Wheat variety classification based on image processing [J]. Journal of Henan University of Technology (Natural Science Edition), 2011, 32(5): 74-78.

        [4] 何紅霞. 基于機(jī)器視覺的小麥種子品種分類模型研究[D]. 合肥: 安徽農(nóng)業(yè)大學(xué), 2018.

        He Hongxia. Study on classification model of wheat seed varieties based on machine vision [D]. Hefei: Anhui Agricultural University, 2018.

        [5] 程帥, 李艷玲, 司海平, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的農(nóng)作物種類自動(dòng)識(shí)別算法研究[J]. 河南科學(xué), 2020, 38(12): 1908-1914.

        Cheng Shuai, Li Yanling, Si Haiping, et al. Automatic recognition algorithm of crop species based on convolutional neural network [J]. Henan Science, 2020, 38(12): 1908-1914.

        [6] 徐巖, 劉林, 李中遠(yuǎn), 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的玉米品種識(shí)別[J]. 江蘇農(nóng)業(yè)學(xué)報(bào), 2020, 36(1): 18-23.

        Xu Yan, Liu Lin, Li Zhongyuan, et al. Recognition of maize varieties based on convolutional neural network [J]. Jiangsu Journal of Agricultural Sciences, 2020, 36(1): 18-23.

        [7] 劉小剛, 范誠(chéng), 李加念, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的草莓識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020, 51(2): 237-244.

        Liu Xiaogang, Fan Cheng, Li Jianian, et al. Identification method of strawberry based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(2): 237-244.

        [8] 張忠志, 薛歡慶, 范廣玲. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的紅棗缺陷識(shí)別[J]. 食品與機(jī)械, 2021, 37(8): 158-162, 192.

        Zhang Zhongzhi, Xue Huanqing, Fan Guangling. Research on jujube defect recognition method based on improved convolution neural network [J]. Food and Machinery, 2021, 37(8): 158-162, 192.

        [9] 石晨宇, 周春, 靳鴻, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的農(nóng)作物病害識(shí)別研究[J]. 國(guó)外電子測(cè)量技術(shù), 2021, 40(9): 93-99.

        Shi Chenyu, Zhou Chun, Jin Hong, et al. Research on crop disease recognition based on convolutional neural network [J]. Foreign Electronic Measurement Technology, 2021, 40(9): 93-99.

        [10] 邱津怡, 羅俊, 李秀, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的多尺度葡萄圖像識(shí)別方法[J]. 計(jì)算機(jī)應(yīng)用, 2019, 39(10): 2930-2936.

        Qiu Jinyi, Luo Jun, Li Xiu, et al. Multi-scale grape image recognition method based on convolutional neural network [J]. Journal of Computer Applications, 2019, 39(10): 2930-2936.

        [11] 謝為俊, 丁冶春, 王鳳賀, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的油茶籽完整性識(shí)別方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020, 51(7): 13-21.

        Xie Weijun, Ding Yechun, Wang Fenghe, et al. Integrity recognition of camellia oleifera seeds based on convolutional neural network [J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(7): 13-21.

        [12] 劉嘉政. 基于深度遷移學(xué)習(xí)模型的花卉種類識(shí)別[J]. 江蘇農(nóng)業(yè)科學(xué), 2019, 47(20): 231-236.

        Liu Jiazheng. Flower species identification based on deep transfer learning model [J]. Jiangsu Agricultural Sciences, 2019, 47(20): 231-236.

        [13] 王東方, 汪軍. 基于遷移學(xué)習(xí)和殘差網(wǎng)絡(luò)的農(nóng)作物病害分類[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2021, 37(4): 199-207.

        Wang Dongfang, Wang Jun. Crop disease classification with transfer learning and residual networks [J]. Transactions of the Chinese Society of Agricultural Engineering, 2021, 37(4): 199-207.

        [14] 何勝美, 李仲來(lái), 何中虎. 基于圖像識(shí)別的小麥品種分類研究[J]. 中國(guó)農(nóng)業(yè)科學(xué), 2005(9): 1869-1875.

        He Shengmei, Li Zhonglai, He Zhonghu. Classification of wheat cultivar by digital image analysis [J]. Scientia Agricultura Sinica, 2005(9): 1869-1875.

        [15] Punn M, Bhalla N. Classification of wheat grains using machine algorithms [J]. International Journal of Science and Research (IJSR), 2013, 2(8): 363-366.

        [16] 孟惜, 王克儉, 韓憲忠. 基于改進(jìn)BP網(wǎng)絡(luò)的小麥品種識(shí)別[J]. 貴州農(nóng)業(yè)科學(xué), 2017, 45(10): 156-160.

        Meng Xi, Wang Kejian, Han Xianzhong. Classification of wheat varieties by improved BP neural network [J]. Guizhou Agricultural Science, 2017, 45(10): 156-160.

        [17] 陳文根, 李秀娟, 吳蘭. 基于深度卷積網(wǎng)絡(luò)的小麥品種識(shí)別研究[J]. 糧食儲(chǔ)藏, 2018, 47(2): 1-4, 13.

        Chen Wengen, Li Xiujuan, Wu Lan. Research on wheat variety identification based on deep convolution network [J]. Grain Storage, 2018, 47(2): 1-4, 13.

        [18] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition [J]. arXiv preprint arXiv: 1409.1556, 2014.

        [19] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

        [20] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.

        [21] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2818-2826.

        亚洲国产一区二区在线| 99久久免费视频色老| 人妻无码一区二区三区| 国产熟妇人妻精品一区二区动漫| 欧美成人久久久免费播放| 国产天堂av手机在线| 久久蜜桃资源一区二区| 国产免费a∨片在线软件| 中文字幕亚洲综合久久久| 国产一品二品三品精品在线| 欧美黑人xxxx又粗又长| 国产最新地址| 久久精品国产亚洲av调教| 日本伦理精品一区二区三区| 极品少妇被猛的白浆直喷白浆| 欧美精品黄页在线观看视频| 91国产超碰在线观看| 久久精品国产亚洲av蜜点| 一区二区三区乱码在线 | 欧洲| 福利一区在线观看| 亚洲综合久久久中文字幕| 国产午夜激情视频在线看| 无码少妇丰满熟妇一区二区| 国产精品免费大片| 亚洲国产剧情在线精品视| 成人免费视频自偷自拍| 偷拍一区二区盗摄视频| 巨茎中出肉欲人妻在线视频| 69av视频在线观看| 91国内偷拍一区二区三区| 午夜dv内射一区二区| 日本精品无码一区二区三区久久久| 一二三四视频社区在线| 亚洲地区一区二区三区| 亚洲视频中文字幕更新| 美女脱了内裤露出奶头的视频| 国产特级毛片aaaaaaa高清| 久久久久久久一线毛片| 一区二区三区四区四色av| 国产精品第一二三区久久| 久久久久久好爽爽久久|