亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習的香花油茶果識別

        2024-01-30 15:19:17尹顯明彭邵鋒程俊媛陳夢秋張日清莫登奎韋維嚴恩萍
        經(jīng)濟林研究 2023年3期
        關(guān)鍵詞:深度學習

        尹顯明 彭邵鋒 程俊媛 陳夢秋 張日清 莫登奎 韋維 嚴恩萍

        摘 要:【目的】開發(fā)基于圖像的香花油茶品種識別技術(shù),快速、準確識別香花油茶無性系品種?!痉椒ā窟x擇自然光照條件下生長的20 個香花油茶無性系品種的油茶果作為研究對象,利用紅米K30 Pro、華為P40、華為nova7、iPhone 12、魅族16s 多種品牌型號的智能手機對自然狀態(tài)下油茶果的臍面、側(cè)面進行圖像采集,去除低質(zhì)量圖像,通過數(shù)據(jù)增強方法增加圖像數(shù)量,采用深度學習網(wǎng)絡(luò)GoogLeNet-V3 對20 個品種的香花油茶果圖像進行識別。同時對使用多個設(shè)備采集圖像的品種,進行不同設(shè)備型號及數(shù)量、相同設(shè)備數(shù)量但不同比例等情況可能造成的影響進行探討?!窘Y(jié)果】構(gòu)建了圖像數(shù)量為16 832 張的香花油茶果品種數(shù)據(jù)集。使用GoogLeNet-V3模型能滿足基于油茶果圖像的香花油茶品種識別要求,其中識別準確率、召回率、宏觀F1 值和微觀F1 值分別為89.13%、89.31%、89.22% 和94.29%。對多設(shè)備的研究結(jié)果表明數(shù)據(jù)量的增加能有效提高模型精度,且在保證單設(shè)備采集數(shù)據(jù)量的條件下,使用多種設(shè)備采集數(shù)據(jù)構(gòu)建的模型具有更高的魯棒性。以GoogLeNet-V3 模型為基礎(chǔ)構(gòu)建的移動端識別APP,具有PC 端同等精度,可用于香花油茶果品種的識別。【結(jié)論】使用深度學習網(wǎng)絡(luò)GoogLeNet-V3 模型能夠?qū)崿F(xiàn)香花油茶果的品種識別。

        關(guān)鍵詞:香花油茶;品種識別;深度學習;油茶果

        中圖分類號:S6-39 文獻標志碼:A 文章編號:1003—8981(2023)03—0070—12

        油茶Camellia spp. 是山茶科Theaceae 山茶屬Camellia 油用物種的總稱[1]。是世界四大木本油料樹種之一。其綜合利用價值較高,在醫(yī)療、保健、生物農(nóng)藥、生物飼料、殺菌消毒以及化學工業(yè)等方面應(yīng)用廣泛[2-3]。油茶樹具有保持水土、涵養(yǎng)水源、凈化空氣、調(diào)節(jié)氣候等多種生態(tài)功能,兼?zhèn)浣?jīng)濟效益和生態(tài)效益[4]。香花油茶C. osmantha 是馬錦林等[5] 于2012 年在廣西南寧發(fā)現(xiàn)的山茶屬新種,具有早熟、產(chǎn)量高、耐澇[6]、耐旱[7] 等特點。香花油茶較晚被發(fā)現(xiàn),無性系育種時間短,通過審定的品種較少,但有大量表型較好、有申報良種潛質(zhì)的無性系品種正在培育中。由于不同無性系表型差異較小,難以區(qū)分,給香花油茶無性系的推廣帶來困難,因此研究快速、準確識別香花油茶無性系品種的方法具有重要的意義。

        隨著人工智能技術(shù)的不斷發(fā)展,將深度學習應(yīng)用于圖像識別場景成為農(nóng)林業(yè)領(lǐng)域的重要研究方向。早期的研究主要采用基于統(tǒng)計模型的機器學習方法來開展[8]。例如:鄧立苗等[9] 提取23 個玉米品種的葉片形態(tài)、顏色及紋理特征,使用支持向量機模型進行識別研究,得到87% 以上的整體識別率;翟果等[10] 選取20 個觀賞菊品種提取顏色、紋理及形狀特征,使用KNN 算法分類器進行識別研究,達到92.17% 的平均識別率;Avshalom等[11] 基于3D 建模及SSR 分析對7 個葡萄品種進行識別研究,結(jié)果表明使用這種方法進行品種識別是可行的。由于卷積神經(jīng)網(wǎng)絡(luò)能自動提取圖片特征進行識別并分類,且分類準確率高,近年來研究者開始使用卷積神經(jīng)網(wǎng)絡(luò)進行品種識別研究。例如:陳文根等[12] 基于深度卷積網(wǎng)絡(luò)對9 種小麥進行品種識別研究,采用Softmax 分類器進行品種分類,達到97.78%的平均識別準確率;王立國等[13]基于高光譜提取6 個品種玉米種子主要的八維光譜信息,使用卷積神經(jīng)網(wǎng)絡(luò)進行識別研究,像素識別精度達到97% 以上,結(jié)合多數(shù)投票策略的識別精度可達到100%;李浩[14] 基于Caffe 使用卷積神經(jīng)網(wǎng)絡(luò)對15 個品種的茶葉進行識別研究,使用的卷積神經(jīng)網(wǎng)絡(luò)模型分別為8 層深度的傳統(tǒng)淺層CNN 和改進后22 層深度的深層CNN,發(fā)現(xiàn)改進網(wǎng)絡(luò)的識別率顯著提升,平均識別準確率由80%提升至90% 以上;石洪康等[15] 基于卷積神經(jīng)網(wǎng)絡(luò)MobileNet[16] 對10 個家蠶品種的幼蟲圖像進行識別研究,得到96% 的準確率,并用遷移學習方法對另外5 個家蠶品種的幼蟲圖像進行模型訓(xùn)練,發(fā)現(xiàn)遷移學習有助于提高模型品種識別的穩(wěn)定性;Pereira 等[17] 使用以AlexNet[18] 為基礎(chǔ)的遷移神經(jīng)網(wǎng)絡(luò)對自然環(huán)境中的6 個葡萄品種進行識別研究,得到77.30% 的測試準確率,證明在自然環(huán)境下使用卷積神經(jīng)網(wǎng)絡(luò)進行識別具有一定的可行性;曾慶揚等[19] 收集了湖南、江西、浙江、廣西4 個地區(qū)的油茶產(chǎn)量數(shù)據(jù)及氣象數(shù)據(jù)后,采用主成分分析法提取影響較大的主成分,使用BP 神經(jīng)網(wǎng)絡(luò)構(gòu)建油茶產(chǎn)量預(yù)測模型,得到的模型平均相對誤差低于3%,并以此為基礎(chǔ)預(yù)測了2025 年4 個地區(qū)的油茶單位面積產(chǎn)量;陳偉文等[20] 通過改進原始的AlexNet,減輕模型的過擬合現(xiàn)象,在番茄種苗葉片病害的識別上獲得了95.8% 的準確率,說明調(diào)整模型結(jié)構(gòu)能有效提升模型的識別效果。

        綜上所述,卷積神經(jīng)網(wǎng)絡(luò)已被廣泛應(yīng)用于農(nóng)林業(yè),基于神經(jīng)網(wǎng)絡(luò)對物種品種進行分類已有一定的研究基礎(chǔ),然而基于果實的深度學習品種分類方法的研究報道較少。香花油茶的品種選育大多是基于種內(nèi)雜交獲得后代進行的,不同的香花油茶品種之間存在一定的性狀差異,油茶的果形、果臍形狀、果臍開裂數(shù)等均存在差異,且表現(xiàn)穩(wěn)定,這是研究通過油茶果識別香花油茶品種的基礎(chǔ)。為了快速、準確識別香花油茶無性系品種,從而減少香花油茶造林時品種比例配置不當,或香花油茶林中不同品種種植位置不同導(dǎo)致的培育方法不適等問題,本研究中基于深度學習方法使用油茶果對香花油茶品種進行分類研究。

        1 材料與方法

        1.1 圖像獲取及預(yù)處理

        數(shù)據(jù)集的大小、圖像的清晰程度決定神經(jīng)網(wǎng)絡(luò)模型的識別效果,為提升模型的適用范圍,使用智能手機實地采集香花油茶果圖像。為增加模型的時效性,選擇表現(xiàn)較優(yōu)、預(yù)備申報良種的無性系種及已審定為良種的香花油茶無性系品種(共20 個)作為研究對象。采集時間為2021 年9—10 月,此時香花油茶果在外觀上已成熟,形態(tài)、顏色等特征穩(wěn)定。

        用于圖像采集的智能手機型號包括紅米K30Pro、華為P40、華為nova7、iPhone 12、魅族16s 等。為了減少自然環(huán)境下采集圖像可能存在的光照差異、不同大小油茶果聚焦距離不同等因素的影響,確定了統(tǒng)一的油茶果圖像采集方法:選擇健康、表面無遮擋的香花油茶果,使用智能手機以接近垂直的角度對油茶果的臍面、側(cè)面分別拍攝圖像,在拍攝過程中由較遠處緩慢地推進智能手機,使攝像頭自動聚焦于油茶果,與不同大小的油茶果保持相對穩(wěn)定的距離,將盡量多的果實特征加入到數(shù)據(jù)集中,包含油茶果的顏色、形狀等多種特征。采集圖像的長寬比例為1∶1,每品種采集約200 張圖像。對采集的圖像進行挑選、裁剪等處理,去除低質(zhì)量圖像。

        考慮到使用不同設(shè)備采集圖像可能會影響模型效果,為確定其影響,對于不同無性系使用不同型號的智能手機進行采集。在20 個香花油茶無性系中選取7 個品種(崇左1401、崇左1402、田陽1412、田陽1413、雅江1611、雅江1613、雅江1614),同時使用紅米K30 Pro、華為P40、華為nova7、魅族16s 等4 種設(shè)備進行采集。

        1.2 數(shù)據(jù)集準備

        將預(yù)處理后的香花油茶果臍面、側(cè)面圖像調(diào)整為299 像素×299 像素,使用旋轉(zhuǎn)、翻轉(zhuǎn)等方法擴增數(shù)據(jù)集,按數(shù)量比6∶2∶2 將每品種圖像劃分為訓(xùn)練集、驗證集和測試集。讀取圖片后,使用TensorFlow[21] 官方提供的函數(shù)將圖片的數(shù)據(jù)轉(zhuǎn)換為字符串,與寬、高及類別信息一起轉(zhuǎn)化為二進制格式,存入TFRecords 格式文件,將數(shù)據(jù)制作成3 通道的TFRecords 格式數(shù)據(jù)集。

        對于崇左1401、崇左1402、田陽1412、田陽1413、雅江1611、雅江1613、雅江1614 等7 個品種,根據(jù)采集設(shè)備分別使用GoogLeNet 進行識別,將來自同一設(shè)備的數(shù)據(jù)按數(shù)量比6∶2∶2 劃分訓(xùn)練集、驗證集和測試集,并根據(jù)使用不同設(shè)備的情況進行組合,用于分析使用不同設(shè)備型號及數(shù)量采集圖像對模型效果的影響。

        1.3 模型訓(xùn)練

        使用GoogLeNet 模型對訓(xùn)練集、驗證集進行訓(xùn)練,并自動保存訓(xùn)練精度最高的模型及固定訓(xùn)練頻率的模型,使用測試集檢驗訓(xùn)練模型的可行性,調(diào)整數(shù)據(jù)集和模型參數(shù),直到模型準確率滿足品種識別的要求。

        測試平臺:操作系統(tǒng)為64 位Windows 10 操作系統(tǒng), 深度學習框架為TensorFlow,GPU 為NVIDIA Tesla P4,計算機語言為Python。參數(shù)設(shè)置:迭代數(shù)量設(shè)置為480 000 次,初始學習率設(shè)置為0.001,每批次迭代訓(xùn)練圖像數(shù)量為16,每迭代100 次測試訓(xùn)練集的準確率,每迭代200 次測試驗證集的準確率,每迭代3 000 次保存1 次模型,且保存最優(yōu)驗證集準確率的模型。在研究不同設(shè)備對采集圖像的影響時,迭代數(shù)量設(shè)置為18 000 次,其他參數(shù)與上述一致。

        模型訓(xùn)練流程如圖1 所示,將油茶果圖像輸入GoogLeNet-V3 神經(jīng)網(wǎng)絡(luò)模型(簡稱“GoogLeNet-V3模型”),模型提取圖像特征后傳入連續(xù)多個Inception 模塊進行特征學習,最后進行平均池化并輸出分類結(jié)果。訓(xùn)練中模型會自動學習油茶果圖像的顏色、形狀、大小等多層次特征信息。

        1.4 模型效果評價

        使用深度學習分類中基于混淆矩陣的常用評價指標準確率(P)、召回率(R)、F1 值等對模型效果進行評價[22]。其中,F1 值是用來對準確率和召回率進行綜合評價的指標。

        P=nt/(nt+nf)×100%;R=nt/(nt+nf′)×100%;F1=[2×P×R/(P+R)]×100%。

        式中:nt 代表實際品種為目標品種,預(yù)測品種為目標品種的樣本數(shù)量;nf 代表實際品種不為目標品種,預(yù)測品種為目標品種的樣本數(shù)量;nf′ 代表實際品種為目標品種,預(yù)測品種不為目標品種的樣本數(shù)量。

        對分類模型進行整體評估時,使用2 種常用的整體F1 計算方法,分別是宏觀F1 和微觀F1[23]。

        其中,宏觀F1 是各類樣本F1 值的平均值,即平均F1 值,該F1 值不受不平衡數(shù)據(jù)影響,但易受識別性高的品種影響;微觀F1 則是對所有樣本的召回率與準確率單獨計算求得的F1 值,易受不平衡的數(shù)據(jù)影響,適合數(shù)據(jù)較平衡的數(shù)據(jù)集。

        P′=[(nt 1+nt 2+…+nti)/(nt 1+nt 2+…+nti+nf 1+nf 2+…+nfi)]×100%;

        R′=[(nt 1+nt 2+…+nti)/(nt 1+nt 2+…+nti+nf 1′+nf 2′+…+nfi′)]×100%;

        ?F1′=[2×P′×R′/(P′+R′)]×100%;

        F1″=(F1 1+F1 2+…+F1i)/i。

        式中:P′ 表示微觀準確率;R′ 表示微觀召回率;F1' 表示微觀F1 值;F1″ 表示宏觀F1 值;nt 1、nt 2、…、nti 分別表示第i 個類別實際品種為目標品種,預(yù)測品種為目標品種的樣本數(shù)量;nf 1、nf 2、…、nfi分別表示第i 個類別實際品種不為目標品種,預(yù)測品種為目標品種的樣本數(shù)量;nf 1′、nf 2′、…、nfi′分別表示第i 個類別實際品種為目標品種,預(yù)測品種不為目標品種的樣本數(shù)量。

        2 結(jié)果與分析

        2.1 油茶果品種的數(shù)據(jù)集

        經(jīng)預(yù)處理后最終獲得3 969 張圖像,各品種圖像數(shù)量及采集設(shè)備見表1,表中無性系的品種名為暫定名。

        預(yù)處理后的香花油茶果臍面、側(cè)面圖像如圖2 ~ 3 所示,將其調(diào)整為299 像素×299 像素,使用旋轉(zhuǎn)、翻轉(zhuǎn)等方法擴增數(shù)據(jù)集,共獲得15 876張圖像,按數(shù)量比6∶2∶2 將每品種圖像劃分為訓(xùn)練集、驗證集和測試集,數(shù)量分別為9 519、3 182 和3 175 張(表1)。

        2.2 模型的訓(xùn)練損失與測試精度

        基于GoogLeNet-V3 模型識別香花油茶品種訓(xùn)練損失與驗證集測試精度的變化如圖4 所示。由圖4 中訓(xùn)練損失變化情況可看出,GoogLeNet-V3模型的初始損失約為3.86,變化趨勢為迭代前20 000 次時快速下降,迭代20 000 ~ 120 000 次時緩速下降且較不穩(wěn)定,迭代120 000 ~ 480 000次時緩慢下降且較為穩(wěn)定,訓(xùn)練結(jié)束時約為0.5。這說明GoogLeNet-V3 模型的訓(xùn)練損失相對較低,訓(xùn)練損失下降速度快,且最終訓(xùn)練損失較為穩(wěn)定。

        由測試精度的變化情況可知,在迭代0 ~30 000 次時,GoogLeNet-V3 模型的測試精度迅速升高;在迭代30 000 ~ 80 000 次時,精度增長放緩;在迭代80 000 ~ 480 000 次時,精度緩慢增長,浮動較大,最終精度在90% 上下波動。這說明GoogLeNet-V3 模型收斂較快且較為穩(wěn)定,最終準確率達到90%。

        2.3 模型識別效果的評價

        2.3.1 混淆矩陣

        基于GoogLeNet-V3 模型的香花油茶果分類模型混淆矩陣如圖5 所示,同一列的數(shù)值為不同類別圖像被預(yù)測為該類別的數(shù)量,同一行的數(shù)值實際為該類別的圖像被預(yù)測為不同類別圖像的數(shù)量。由圖5 可知,GoogLeNet-V3 模型對各品種的識別較為準確,對于各品種均能達到較好的識別效果。其中有12 張崇左1401 的圖像被錯誤預(yù)測為崇左1402,有10 張老虎嶺1508 的圖像被錯誤預(yù)測為老虎嶺1502,推測性狀較為接近的品種容易被混淆。

        2.3.2 識別準確率和召回率

        根據(jù)圖5 中的數(shù)據(jù)可以計算得到基于GoogLeNet-V3 模型識別香花油茶品種的準確率和召回率, 結(jié)果如圖6 所示。由圖6 可知,GoogLeNet-V3 模型對各品種的識別準確率高,除對田陽1413 的識別準確率僅為76.74% 外,對其他品種的識別準確率均達到80% 以上,對品種G-8的識別準確率達到98.84%,平均識別準確率達到89.13%。GoogLeNet-V3 模型對各品種的識別召回率高,均達到80% 以上,最低的老虎嶺1502 的識別召回率達到81.61%,對品種F-10、G-8 的識別召回率分別達到95.2% 和94.97%,平均識別召回率達到89.31%。GoogLeNet-V3 模型對各品種的識別召回率之間的差距較小,與識別準確率相比更為穩(wěn)定。

        2.3.3F1 值

        模型的宏觀F1 值和微觀F1 值分別為89.22%和94.29%,兩者差別較大,說明各品種數(shù)據(jù)差異較大,但兩者均高于89%,說明模型準確率、召回率可信度高,模型具有一定的識別效果,能滿足進行香花油茶果品種分類的需要。

        2.4 智能設(shè)備對采集效果的影響

        使用不同型號和數(shù)量的設(shè)備采集圖像的模型識別效果見表2,其中識別準確率(All)和識別召回率(All)是對4 個設(shè)備共同測試集的合并測試集進行模型預(yù)測得到的識別準確率和召回率。由表2 可知,單獨使用華為nova7、華為P40 采集圖像的識別準確率、召回率均高于單獨使用紅米K30 Pro 及魅族16s,說明使用不同設(shè)備所采集圖像存在一定差異,但使用4 種設(shè)備所采集圖像的識別準確率、召回率均超過85%,說明使用不同設(shè)備采集的圖像均能用于品種分類研究。將使用多種設(shè)備采集的圖像混合,對各組合的識別準確率、召回率均降低,說明使用混合設(shè)備采集圖像會對品種識別造成一定的影響,但除對使用紅米K30 Pro 和魅族16s 組合所采集圖像的識別準確率低于85% 外,對使用其他組合所采集圖像的識別準確率、召回率均高于85%,說明使用多臺設(shè)備混合采集帶來的影響在可接受范圍內(nèi)。在以使用4 種設(shè)備共同采集的數(shù)據(jù)作為測試集時,以使用單個設(shè)備采集的數(shù)據(jù)作為訓(xùn)練集,得到的模型識別準確率、召回率均大幅下降,隨著訓(xùn)練集設(shè)備數(shù)量的增多,識別準確率、召回率有顯著提高,說明使用多種設(shè)備采集的數(shù)據(jù)組成的數(shù)據(jù)集的魯棒性較高,能夠降低使用不同設(shè)備拍攝對模型識別的影響。

        使用4 種設(shè)備不同比例數(shù)據(jù)的模型識別效果見表3。由表3 可知:當每種設(shè)備采集的數(shù)據(jù)均僅占拍攝數(shù)據(jù)的25% 時,總數(shù)據(jù)量與單個設(shè)備采集的數(shù)據(jù)量相當,但模型的訓(xùn)練效果大幅降低;當每種設(shè)備采集的數(shù)據(jù)均僅占50% 時,模型的訓(xùn)練效果比僅占25% 時有一定提升,但仍偏低;當每種設(shè)備采集的數(shù)據(jù)均達到75% 時,模型的訓(xùn)練效果與所有數(shù)據(jù)一起訓(xùn)練時差別不大。說明混合使用多種設(shè)備采集圖像時,采集的數(shù)據(jù)量會對模型訓(xùn)練的結(jié)果帶來較大影響,采集的數(shù)據(jù)量越多,模型訓(xùn)練的結(jié)果越好。

        2.5 基于模型的移動端APP

        為了便于隨時使用深度學習模型對香花油茶無性系品種進行識別,基于Android Studio 開發(fā)平臺[24],設(shè)計并構(gòu)建可用于香花油茶無性系果實圖像識別的移動端APP。

        香花油茶無性系識別APP 主要包括圖像拍攝、相冊圖像選取、品種識別和結(jié)果輸出4 個模塊。在選好所使用的模型后,軟件調(diào)用相機進行圖像拍攝,或調(diào)用系統(tǒng)相冊選取圖像,經(jīng)過縮放處理將圖像調(diào)整為299 像素×299 像素,之后調(diào)用Tensorflow 接口進行識別,最后輸出最高概率代表的無性系品種及概率。圖像拍攝模塊主要通過調(diào)用系統(tǒng)相機來實現(xiàn),拍攝過程中相機會自動進行聚焦,因此保持移動設(shè)備的穩(wěn)定非常重要。

        相冊圖像選取模塊的主要功能是調(diào)用系統(tǒng)權(quán)限獲取相冊或文件數(shù)據(jù),將得到的相冊圖像數(shù)據(jù)經(jīng)過OpenCV 處理后傳入模型進行識別。品種識別模塊是移動端APP 最重要的模塊,首先需要提供方法調(diào)用模型,其次,將經(jīng)過OpenCV 處理的圖像傳入后,使用模型進行識別,最后,依據(jù)模型的類別情況使用類別文件,從而輸出正確的識別結(jié)果。在模型識別過程中,Android 程序通過inferenceInterface.feed() 接口將模型輸入節(jié)點、名稱、圖像大小等固定,確定模型狀態(tài)為推理,將必要的輸入內(nèi)容提供完畢后,使用inferenceInterface.run() 來運行推理模型,得到模型預(yù)測結(jié)果,最后使用inferenceInterface.fetch() 對模型的輸出進行處理,獲得各類別預(yù)測概率,再結(jié)合類別文件,找出最大概率類別并輸出。結(jié)果輸出模塊為展示模塊,主要功能是將模型運行得到的結(jié)果展示到APP 主界面中,通過彈出新窗口展示拍攝獲得的圖像或點選相冊使用的圖像、識別結(jié)果及概率,其中當模型概率低于80% 時,會提示識別的目標類別可能不在本模型使用的香花油茶無性系數(shù)據(jù)庫中。由于模型直接使用PC 端訓(xùn)練的模型,因此可實現(xiàn)與PC 端模型一致的識別準確率。

        香花油茶無性系果實品種識別APP 主界面如圖7 所示。其中,左上角的閃電圖標為閃光燈按鈕,點按后出現(xiàn)相關(guān)可選項,分別為關(guān)閉、自動、打開、常亮,調(diào)整后會變成對應(yīng)閃光燈狀態(tài),右上角的使用說明圖標為APP 使用說明文檔按鈕,中間的非黑色區(qū)域為攝像機預(yù)覽,左下角的中空圓形圖標為相冊圖像選取按鈕,在選取相冊圖像后會切換為相冊圖像預(yù)覽,下方的白色圓形為圖像拍攝按鈕,點按后會調(diào)用相機模塊進行圖像拍攝,右下角帶有翻轉(zhuǎn)線條的圓形圖標為前置、后置相機調(diào)整按鈕,點按后會從后置相機切換到前置相機或從前置相機切換到后置相機。

        香花油茶無性系果實品種識別APP 的識別結(jié)果展示界面如圖8 所示。該界面會展示識別圖像縮放圖、模型預(yù)測的最可能結(jié)果及相應(yīng)概率,點擊左側(cè)繼續(xù)按鈕可以進行下一輪識別,點擊右側(cè)退出按鈕會關(guān)閉APP。

        3 結(jié)論與討論

        本研究中對將深度學習應(yīng)用于香花油茶品種識別的可行性進行了探究,采用GoogLeNet-V3 模型對20 個香花油茶品種的果實進行識別,同時進行精度驗證。結(jié)果表明:GoogLeNet-V3 模型的宏觀F1 值和微觀F1 值分別達到89.22% 和94.29%,能滿足識別油茶品種的要求;GoogLeNet-V3 模型的識別準確率、召回率分別為89.13%、89.31%,識別效果較好;在保證單設(shè)備數(shù)據(jù)采集量的條件下,使用更多設(shè)備采集數(shù)據(jù)能較多提高模型的魯棒性;基于香花油茶無性系果實品種識別模型構(gòu)建的移動端識別APP 能取得較高的識別準確率??傮w來說,使用該模型能對香花油茶果品種進行識別。

        3.1 果實特征識別的影響因素

        光照、環(huán)境、遮擋等因素均會對果實圖像的識別造成影響[25]。本研究中對在自然環(huán)境下采集的香花油茶果圖像進行品種識別研究,面臨著復(fù)雜的背景干擾問題,因此選取順光或陰涼處進行拍攝,以減少光照影響。采用不同智能手機對香花油茶果進行數(shù)據(jù)采集時,所采集油茶果圖像的分辨率、拍攝距離、拍攝角度均存在一定差異,這些差異可能對識別結(jié)果產(chǎn)生一定影響,因此研究了使用不同智能手機采集圖像對識別效果帶來的影響。后續(xù)的研究中將使用統(tǒng)一的設(shè)備采集各品種的圖像,避免使用不同設(shè)備采集數(shù)據(jù)帶來的影響。

        3.2 果實品種識別的精度

        香花油茶品種表型差異小,難以依靠肉眼進行區(qū)分,傳統(tǒng)識別方法多是依據(jù)專家的經(jīng)驗。深度學習方法與人工識別方法相比,具有快速、準確、客觀等特點?,F(xiàn)有的果實特征識別模型多樣,本研究中采用應(yīng)用廣泛的經(jīng)典模型對香花油茶果進行識別,驗證深度學習用于香花油茶品種識別的可行性?;诰矸e神經(jīng)網(wǎng)絡(luò)的經(jīng)典圖像分類模型有Lenet、AlexNet、VGG、GoogLeNet、ResNet等。通過網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化,GoogLeNet、ResNet 模型從不同的角度提升了網(wǎng)絡(luò)層較深時模型的性能,模型適用性較廣。使用GoogLeNet、ResNet 模型均能有效識別油茶品種,但GoogLeNet 的識別效果更優(yōu),較ResNet 更適用于油茶品種識別[26]。

        GoogLeNet[27] 是Google 在2014 年提出的分類網(wǎng)絡(luò),通過使用Inception 模塊、批歸一化方法[28]和輔助分類器,在不改變網(wǎng)絡(luò)深度和寬度的情況下,減少網(wǎng)絡(luò)參數(shù),達到提高模型性能的效果。Inception 模塊通過使用多尺寸卷積核提取特征并疊加的方法將不同尺度的特征進行融合,在較少參數(shù)情況下獲得較好的模型擬合效果;InceptionV1 模塊通過多個不同大小的卷積核分別提取上層的特征,添加1×1 的卷積核,并將提取的特征疊加傳入下層,比傳統(tǒng)的單一卷積核有更好的效果,同時減少網(wǎng)絡(luò)的參數(shù)量;在Inception V3[29] 的部分Inception 模塊使用2 個3×3 卷積核替代5×5 卷積核,減少了網(wǎng)絡(luò)的參數(shù)量,同時增加了非線性能力,且部分3×3 卷積核被替換為1×3 與3×1組成的非對稱卷積核,在進一步減少參數(shù)量的同時等效3×3 卷積核功能。批歸一化是指將一批數(shù)據(jù)的輸入值減去這批數(shù)據(jù)的均值再分別除以這批數(shù)據(jù)的標準差,經(jīng)處理后能夠減少訓(xùn)練過程中內(nèi)部節(jié)點分布的變化,減少網(wǎng)絡(luò)內(nèi)部協(xié)變量移位,進而加速深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。為防止網(wǎng)絡(luò)傳播過程中的梯度丟失,GoogLeNet 網(wǎng)絡(luò)訓(xùn)練增加輔助分類器,幫助傳播梯度,同時提供額外正則化,在訓(xùn)練早期輔助分類器并未提高收斂性,因此可以去除較低的輔助分支。因此,本研究中采用GoogLeNet-V3 深度學習框架對香花油茶果進行品種識別研究,通過在自然環(huán)境下采集油茶果圖像,實現(xiàn)對油茶果圖像品種的快速和準確識別。

        對模型分類結(jié)果進行對比后發(fā)現(xiàn),GoogLeNet-V3 模型的識別準確率及召回率較高,且較低訓(xùn)練數(shù)量條件下即可獲得較優(yōu)模型,說明存在減少模型深度而較少降低模型性能的可能性。添加注意力模塊[30-31],調(diào)整卷積層、Inception 層結(jié)構(gòu)[32-35]等方法均有助于提升神經(jīng)網(wǎng)絡(luò)的識別效果,因此后續(xù)將嘗試通過添加注意力模塊、調(diào)整模型結(jié)構(gòu)等方法,減少模型深度,以提高模型的識別速度。

        3.3 香花油茶果品種識別移動端APP 的特點

        香花油茶果品種識別移動端APP 的優(yōu)點:針對性強,可識別至無性系品種級別。該移動端APP以香花油茶無性系果實品種識別模型為基礎(chǔ),可準確識別20 種香花油茶的無性系品種,經(jīng)測試,識別準確率與PC 端模型效果無異。而市面上的“形色”“花伴侶”“花伴侶Pro”“曉草”“識花”等植物識別APP 多為識別至物種級別。香花油茶果品種識別移動端APP 的不足:數(shù)據(jù)庫較小,僅包含20 個香花油茶無性系品種。目前的香花油茶無性系圖像數(shù)據(jù)庫較小,僅使用本研究中采集的數(shù)據(jù)不能保證所有香花油茶無性系的順利識別,需要采集更多無性系及與香花油茶相似度較高的其他油茶物種的圖像增加數(shù)據(jù)庫的容量,以保證香花油茶無性系品種的順利推廣。而市面上的植物圖像識別APP 多與官方合作,數(shù)據(jù)庫大,包含的物種多,能滿足多數(shù)用戶的日常需求。

        參考文獻:

        [1] 王金鳳, 譚新建, 吳喜昌, 等. 我國油茶產(chǎn)業(yè)發(fā)展現(xiàn)狀與對策建議[J]. 世界林業(yè)研究,2020,33(6):80-85.

        WANG J F, TAN X J, WU X C, et al. Development status andsuggestions ofCamellia industry in China[J]. World ForestryResearch,2020,33(6):80-85.

        [2] 李志鋼, 馬力, 陳永忠, 等. 我國油茶籽的綜合利用現(xiàn)狀概述[J]. 綠色科技,2018(6):191-194.

        LI Z G, MA L, CHEN Y Z, et al. Study on the comprehensiveutilization of oil-teaCamellia seed[J]. Journal of Green Scienceand Technology,2018(6):191-194.

        [3] 吳瀟. 我國油茶產(chǎn)業(yè)發(fā)展影響因素及趨勢預(yù)測研究[D]. 北京:中國林業(yè)科學研究院,2017.

        WU X. Study on influencing factors and trend prediction ofcamellia industry development in China[D]. Beijing: ChineseAcademy of Forestry,2017.

        [4] 彭邵鋒, 陸佳, 陳永忠, 等. 油茶品種資源現(xiàn)狀與良種篩選技術(shù)[J]. 經(jīng)濟林研究,2012,30(4):174-179.

        PENG S F, LU J, CHEN Y Z, et al. Current status of varietyresources and selection of improved varieties inCamelliaoleifera[J]. Non-wood Forest Research,2012,30(4):174-179.

        [5] 馬錦林, 葉航, 葉創(chuàng)興. 香花油茶: 山茶屬短柱茶組一新種[J]. 廣西植物,2012,32(6):753-755.

        MA J L, YE H, YE C X. A new species ofCamellia sect[J].Paracamellia Guihaia,2012,32(6):753-755.

        [6] 劉凱, 周招娣, 王東雪, 等. 5 個油茶物種的耐澇性[J]. 廣西林業(yè)科學,2013,42(4):329-332.

        LIU K, ZHOU Z D, WANG D X, et al. Flooding tolerance offiveCamellia species[J]. Guangxi Forestry Science,2013,42(4):329-332.

        [7] 周招娣, 張日清, 馬錦林, 等. 6 個油茶物種苗期抗旱性的初步研究[J]. 經(jīng)濟林研究,2014,32(2):53-57.

        ZHOU Z D, ZHANG R Q, MA J L, et al. Study on droughtresistance in sixCamellia species at seedling stage[J]. Non-woodForest Research,2014,32(2):53-57.

        [8] 余凱, 賈磊, 陳雨強, 等. 深度學習的昨天、今天和明天[J].計算機研究與發(fā)展,2013,50(9):1799-1804.

        YU K, JIA L, CHEN Y Q, et al. Deep learning: yesterday, today,and tomorrow[J]. Journal of Computer Research and Development,2013,50(9):1799-1804.

        [9] 鄧立苗, 馬文杰. 基于支持向量機的玉米葉片品種識別[J].江蘇農(nóng)業(yè)科學,2014,42(6):372-374.

        DENG L M, MA W J. Corn leaf variety recognition basedon support vector machine[J]. Jiangsu Agricultural Sciences,2014,42(6):372-374.

        [10] 翟果, 李志敏, 路文超, 等. 基于圖像處理技術(shù)的觀賞菊品種識別方法研究[J]. 中國農(nóng)機化學報,2016,37(2):105-110,115.

        ZHAI G, LI Z M, LU W C, et al. Study on varietiesidentification of ornamental chrysanthemum based on imageprocessing[J]. Journal of Chinese Agricultural Mechanization,2016,37(2):105-110,115.

        [11] AVSHALOM K, OSHRIT R, MICHAL D, et al. Development ofa 3D seed morphological tool for grapevine variety identification,and its comparison with SSR analysis[J]. Scientific Reports,2018,8(1):6545.

        [12] 陳文根, 李秀娟, 吳蘭. 基于深度卷積網(wǎng)絡(luò)的小麥品種識別研究[J]. 糧食儲藏,2018,47(2):1-4,13.CHEN W G, LI X J, WU L. Research on wheat varietyidentification based on deep convolution network[J]. GrainStorage,2018,47(2):1-4,13.

        [13] 王立國, 王麗鳳. 結(jié)合高光譜像素級信息和CNN 的玉米種子品種識別模型[J]. 遙感學報,2021,25(11):2234-2244.

        WANG L G, WANG L F. Variety identification model for maizeseeds using hyperspectral pixel-level information combinedwith convolutional neural network[J]. National Remote SensingBulletin,2021,25(11):2234-2244.

        [14] 李浩. 基于深度學習的鮮茶品種識別研究[D]. 合肥: 安徽農(nóng)業(yè)大學,2020.

        LI H. Research on fresh tea type recognition based on deeplearning[D]. Hefei: Anhui Agricultural University,2020.

        [15] 石洪康, 田涯涯, 楊創(chuàng), 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的家蠶幼蟲品種智能識別研究[J]. 西南大學學報( 自然科學版),2020,42(12):34-45.

        SHI H K, TIAN Y Y, YANG C, et al. Research on intelligentrecognition of silkworm larvae races based on convolutionalneural networks[J]. Journal of Southwest University (NaturalScience Edition), 2020,42(12):34-45.

        [16] HOWARD A G, ZHU M L, CHEN B, et al. MobileNets:efficient convolutional neural networks for mobilevision applications[J/OL]. Computer Vision and PatternRecognition,2017[2022-05-20]. https://doi.org/10.48550/arXiv.1704.04861.

        [17] PEREIRA C S, MORAIS R, REIS M J C S. Deep learningtechniques for grape plant species identification in naturalimages[J]. Sensors,2019,19(22):4850.

        [18] KRIZHEVSKY A, SUTSKEVER I, HINTON G E. ImageNetclassification with deep convolutional neural networks[J].Communications of the ACM,2017,60(6):84-90.

        [19] 曾慶揚, 丁楚衡, 谷戰(zhàn)英, 等. 基于BP 神經(jīng)網(wǎng)絡(luò)的油茶產(chǎn)量預(yù)測模型構(gòu)建[J]. 經(jīng)濟林研究,2022,40(3):87-95.

        ZENG Q Y, DING C H, GU Z Y, et al. BuildingCamelliaoleifera yield prediction model based on BP neural network[J].Non-wood Forest Research,2022,40(3):87-95.

        [20] 陳偉文, 鄺祝芳, 王忠偉. 基于卷積神經(jīng)網(wǎng)絡(luò)的種苗病害識別方法[J]. 中南林業(yè)科技大學學報,2022,42(7):35-43.

        CHEN W W, KUANG Z F, WANG Z W. Method of seeddisease recognition based on convolutional neural network[J].Journal of Central South University of Forestry & Technology,2022,42(7):35-43.

        [21] ABADI M, BARHAM P, CHEN J M, et al. TensorFlow: asystem for large-scale machine learning[C]// Proceedings ofthe 12th USENIX conference on operating systems design andimplementation. Savannah, GA, USA: USENIX Association,2016:265-283.

        [22] 楊杏麗. 分類學習算法的性能度量指標綜述[J]. 計算機科學,2021,48(8):209-219.

        YANG X L. Survey for performance measure index ofclassification learning algorithm[J]. Computer Science,2021,48(8):209-219.

        [23] SOKOLOVA M, LAPALME G. A systematic analysis ofperformance measures for classification tasks[J]. InformationProcessing & Management,2009,45:427-437.

        [24] 尹孟征. 基于Android 的APP 開發(fā)平臺綜述[J]. 通信電源技術(shù),2016,33(4):154-155,213.

        YIN M Z. Summary of APP development platform based onAndroid[J]. Telecom Power Technology,2016,33(4):154-155,213.

        [25] 張習之. 基于卷積神經(jīng)網(wǎng)絡(luò)的自然光照下油茶果識別技術(shù)研究[D]. 長沙: 中南林業(yè)科技大學,2019.

        ZHANG X Z. The research on image recognition technologyofCamellia in the natural light based on convolutional neuralnetwork[D]. Changsha: Central South University of Forestry &Technology,2019.

        [26] 尹顯明, 棘玉, 張日清, 等. 深度學習在基于葉片的油茶品種識別中的研究[J/OL]. 南京林業(yè)大學學報( 自然科學版),2023[2023-04-24]. http://kns.cnki.net/kcms/detail/32.1161.S.20230316.1000.006.html.

        YIN X M, JI Y, ZHANG R Q, et al. Research on recognitionofCamellia oleifera leaf varieties based on deep learning[J].Journal of Nanjing Forestry University (Natural SciencesEdition),2023[2023-04-24]. http://kns.cnki.net/kcms/detail/32.1161.S.20230316.1000.006.html.

        [27] SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper withconvolutions[C]//Proceedings of the IEEE conference oncomputer vision and pattern recognition. Boston: IEEE,2015:1-9.

        [28] IOFFE S, SZEGEDY C. Batch normalization: acceleratingdeep network training by reducing internal covariate shift[C]//Proceedings of International Conference on Machine Learning.Lille: IEEE,2015:448-456.

        [29] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking theinception architecture for computer vision[C]//Proceedings of theIEEE conference on computer vision and pattern recognition. LasVegas: IEEE,2016:2818-2826.

        [30] 崔曉暉, 陳民, 陳志泊, 等. 基于注意力機制的林木物候期識別方法[J]. 中南林業(yè)科技大學學報,2021,41(7):11-19.

        CUI X H, CHEN M, CHEN Z B, et al. Forest phenologyrecognition method based on attention mechanism[J]. Journalof Central South University of Forestry & Technology,2021,41(7):11-19.

        [31] 劉敬愛, 王宇紅. 基于改進GoogLeNet 卷積神經(jīng)網(wǎng)絡(luò)的冰箱食材檢測算法研究[C]// 第41 屆中國控制會議論文集. 合肥:中國自動化學會控制理論專業(yè)委員會,2022:7846-7851.

        LIU J A, WANG Y H. Research on refrigerator food detectionalgorithm based on improved GoogLeNet convolutionalneural network[C]//Proceedings of the 41st Chinese ControlConference. Hefei: Technical Committee on Control Theory ofChinese Association of Automation,2022:7846-7851.

        [32] 宋晨勇, 白皓然, 孫偉浩, 等. 基于GoogLeNet 改進模型的蘋果葉病診斷系統(tǒng)設(shè)計[J]. 中國農(nóng)機化學報,2021,42(7):148-155.

        SONG C Y, BAI H R, SUN W H, et al. Design of apple leafdisease diagnosis system based on GoogLeNet improvedmodel[J]. Journal of Chinese Agricultural Mechanization,2021,42(7):148-155.

        [33] 曹林杰, 任德均, 任秋霖, 等. 基于改進GoogLeNet 的玻璃安瓿瓶微孔檢測[J]. 四川大學學報( 自然科學版),2022,59(5):052002.

        CAO L J, REN D J, REN Q L, et al. Microhole detection of glassampoule based on improved GoogLeNet[J]. Journal of SichuanUniversity (Natural Science Edition),2022,59(5):052002.

        [34] 潘衛(wèi)軍, 冷元飛, 吳天祎, 等. 基于改進GoogLeNet 的飛機尾流快速識別[J]. 兵器裝備工程學報,2022,43(7):38-44.

        PAN W J, LENG Y F, WU T Y, et al. Rapid identification ofaircraft wake based on improved GoogLeNet[J]. Journal ofOrdnance Equipment Engineering,2022,43(7):38-44.

        [35] 李少佳, 胡美振, 陳輝東, 等. 基于輕量化GoogLeNet 模型的軌道扣件缺陷狀態(tài)識別[J]. 北京聯(lián)合大學學報,2023,37(1):6-12.

        LI S J, HU M Z, CHEN H D, et al. Rail fastener defect statusidentification based on lightweight GoogLeNet model[J]. Journalof Beijing Union University,2023,37(1):6-12.

        [ 本文編校:聞 麗]

        猜你喜歡
        深度學習
        從合坐走向合學:淺議新學習模式的構(gòu)建
        面向大數(shù)據(jù)遠程開放實驗平臺構(gòu)建研究
        基于自動智能分類器的圖書館亂架圖書檢測
        搭建深度學習的三級階梯
        有體驗的學習才是有意義的學習
        電子商務(wù)中基于深度學習的虛假交易識別研究
        利用網(wǎng)絡(luò)技術(shù)促進學生深度學習的幾大策略
        考試周刊(2016年94期)2016-12-12 12:15:04
        MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學習算法應(yīng)用于巖石圖像處理的可行性研究
        醉酒后少妇被疯狂内射视频 | 色婷婷亚洲一区二区在线| 日本精品视频一视频高清| 日韩伦理av一区二区三区| 日本精品视频免费观看| 久久久受www免费人成| 精品伊人久久香线蕉| 日本免费一区精品推荐| 精品一区中文字幕在线观看| 人人爽久久涩噜噜噜丁香| 亚洲丁香婷婷综合久久小说 | 久久精品国产99精品国偷| 国产自产自现在线视频地址| 日本一二三区在线观看视频| 国产午夜福利100集发布| 国产精品短视频| 中文字幕一区二区网址| 国产精品久久精品第一页| 国产特级毛片aaaaaa高清| 精品国产一区二区三区香蕉| 国产诱惑人的视频在线观看| 国产三级在线观看完整版| 国产亚洲精久久久久久无码77777| 爱v天堂在线观看| 狼人伊人影院在线观看国产| 国产l精品国产亚洲区久久| 欧美亚洲高清日韩成人| 黄色大片国产精品久久| 国产精品国产三级国产av剧情 | 国产女人18毛片水真多18精品| 国产精品无码a∨精品影院| 99成人无码精品视频| 久久91精品国产一区二区| 真实国产精品vr专区| 91福利国产在线观看一区二区| 手机在线中文字幕av| 丰满熟妇人妻av无码区| 久久亚洲中文字幕无码| 国产精品女同久久久久久| 美女很黄很色国产av| 久久人人爽人人爽人人av|