高旋 趙亞鳳 熊強 陳喆
摘 要:使用樹干和樹葉圖像實現(xiàn)樹種自動識別,目前深度學(xué)習(xí)可以有效的解決該類問題,但它需要大量樣本做訓(xùn)練才能達到較高的識別精度。當(dāng)面對有限圖像數(shù)量時,提出基于遷移學(xué)習(xí)的方法,把經(jīng)過預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型進行遷移,即共享卷積層和池化層的權(quán)重參數(shù),對新的網(wǎng)絡(luò)模型超參數(shù)進行調(diào)整,并建立一個包含10種共計2 000張樹干圖像和8種共計1 725張樹葉圖像的數(shù)據(jù)庫,把圖片分為訓(xùn)練集和測試集,分別利用遷移學(xué)習(xí)、普通深度學(xué)習(xí)和SVM分類方法進行訓(xùn)練和測試,并將這3種方法作對比。最后,通過構(gòu)建樹干和樹葉圖像的混淆矩陣對遷移學(xué)習(xí)進行具體分析與說明。實驗結(jié)果表明,通過遷移學(xué)習(xí)得到的樹干和樹葉最高識別精度分別達到92.51%和98.20%,比普通深度學(xué)習(xí)提高了51.38%和51.69%,比SVM分類方法提高了43.94%和45.08%。遷移學(xué)習(xí)比普通深度學(xué)習(xí)和傳統(tǒng)SVM分類方法更適合用于小樣本數(shù)據(jù)集的分類識別,并且顯著優(yōu)于普通深度學(xué)習(xí)和SVM分類方法。
關(guān)鍵詞:深度學(xué)習(xí);遷移學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);混淆矩陣
中圖分類號:S781.1 ? ?文獻標(biāo)識碼:A ? 文章編號:1006-8023(2019)05-0068-08
Abstract:Objective Tree trunk and leaf images are used to realize automatic identification of tree species. At present, deep learning can effectively solve this kind of problem, but it needs a large number of samples for training to achieve high recognition accuracy. Methods When the number of images is limited, a method based on transfer learning is proposed to migrate the pre-trained convolution neural network model, that is, the weight parameters of convolution and pooling layer. The parameters of the new network are adjusted and a database containing 10 kinds of 2000 tree trunk images and 8 kinds of 1 725 leaf images are established. The images are divided into training sets and test sets, which are trained and tested by transfer learning, general deep learning and SVM classification methods respectively, and the three methods are compared. Results The experimental results show that the maximum recognition accuracy of tree trunks and leaves obtained through transfer learning is 92.51% and 98.20%, respectively, which is higher than general deep learning by 51.38% and 51.69%, and higher than SVM classification by 43.94% and 45.08%. Conclusion Transfer learning is more suitable for classification and recognition of small sample data sets than general deep learning and traditional SVM classification methods, and is significantly better than general deep learning and SVM classification methods.
Keywords:Deep learning; transfer learning; convolutional neural network; confusion matrix
0 引言
木材是人類賴以生存和發(fā)展的寶貴資源,保護并合理利用木材資源已成為全人類共同關(guān)心的課題[1]。對每個人來說,肉眼識別樹種是很難的,所以自動識別成為了最主要的識別途徑。樹葉和樹干作為樹木的獨特特征,越來越成為自動識別樹木種類的重要途經(jīng)。最早的樹種識別方法主要依靠具有木材解剖學(xué)知識以及豐富實踐經(jīng)驗的專業(yè)人員來鑒別,但是這種方法耗時、耗力,并不能保證準(zhǔn)確性[1]。隨著計算機時代的到來,我國大約從上世紀(jì)八十年代利用計算機建立了植物數(shù)據(jù)庫[2],國外起步相對較早,最新的樹種數(shù)據(jù)庫,如E Beech等人公布了一個關(guān)于樹種的數(shù)據(jù)庫[3],但并不能隨時進行更新。近幾年,隨著機器學(xué)習(xí)的發(fā)展,實現(xiàn)了對某些樹種的自動識別,如梁龍等人選擇基于支持向量機的近紅外特征變量選擇算法用于樹種識別[4]。雖然這種方法也取得了較好的識別結(jié)果,但它的缺陷是人工選取特征,具有局限性。后來隨著深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的興起,越來越多的人選擇這種方法實現(xiàn)對樹種的快速識別,其中利用卷積神經(jīng)網(wǎng)絡(luò)的效果最為顯著。例如,趙鵬超等將樹葉圖像放在卷積神經(jīng)網(wǎng)絡(luò)上進行分類訓(xùn)練,最終識別率可以達到95%,這是在大量樹葉圖像下的研究[5];SP Mohanty等人訓(xùn)練了一個深度卷積神經(jīng)網(wǎng)絡(luò),對該網(wǎng)絡(luò)進行了遷移學(xué)習(xí),將植物葉片病害進行分類識別,最終的識別精度可以達到99.35%,該研究是從網(wǎng)上收集了54 306張圖片,無法排除現(xiàn)實環(huán)境對拍攝樹葉照片時造成的影響[6]。還有研究者在大數(shù)據(jù)集的條件下訓(xùn)練關(guān)于樹干的網(wǎng)絡(luò)模型,例如M Carpentier等人自己建立了一個包含23 000張樹干圖片的數(shù)據(jù)庫,在ResNet18和ResNet34上進行訓(xùn)練,識別精度達到93.88%[7]。孫俊等人針對訓(xùn)練時間長、模型參數(shù)龐大的問題,提出將傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)模型改進,對從網(wǎng)上收集的21 917張葉片病害進行識別,平均測試識別準(zhǔn)確率達到99.56%[8]。但在現(xiàn)實條件下,人工不可能采集大量圖片,耗時又耗力。
為了更好的考慮自然環(huán)境帶來的影響,實地拍攝圖片。但是人工采集的圖片數(shù)量有限,針對這一問題,作者提出運用遷移學(xué)習(xí)這一方法,可以有效利用小樣本數(shù)據(jù)集進行識別訓(xùn)練。分別在校內(nèi)和林場內(nèi)采集了樹葉、樹干圖片,分成兩種數(shù)據(jù)庫。利用深度學(xué)習(xí)在卷積神經(jīng)網(wǎng)絡(luò)上對這兩種數(shù)據(jù)庫進行訓(xùn)練,然后利用遷移學(xué)習(xí)對這兩種數(shù)據(jù)庫再次進行訓(xùn)練并與深度學(xué)習(xí)和SVM分類方法作對比。最后,對樹葉和樹干數(shù)據(jù)庫分別構(gòu)建混淆矩陣,分析遷移學(xué)習(xí)的有效性。
1 網(wǎng)絡(luò)模型
1.1 深度學(xué)習(xí)與遷移學(xué)習(xí)
深度學(xué)習(xí)通過建立、模擬人腦的信息處理神經(jīng)結(jié)構(gòu)來實現(xiàn)對外部輸入的數(shù)據(jù)進行從低級到高級的特征提取,從而能夠使機器理解學(xué)習(xí)數(shù)據(jù),獲得信息。卷積神經(jīng)網(wǎng)絡(luò)作為經(jīng)典的深度學(xué)習(xí)網(wǎng)絡(luò),同時也是發(fā)展最為深入的網(wǎng)絡(luò),所以更適合解決圖像領(lǐng)域問題。通過對其結(jié)構(gòu)的不斷改進和研究,形成了一系列網(wǎng)絡(luò)模型。雖然深度學(xué)習(xí)在應(yīng)用中取得了很多成績,但仍存在很多局限:理論研究缺乏、無監(jiān)督學(xué)習(xí)能力弱等[9-10]。在實際生活中,無標(biāo)簽未知的數(shù)據(jù)是占主體的,有這樣的問題出現(xiàn)時,遷移學(xué)習(xí)的提出可以有效的解決這一問題。
遷移學(xué)習(xí)是一種學(xué)習(xí)的思想和模式,是指利用數(shù)據(jù)、任務(wù)或模型之間的相似性,將在舊領(lǐng)域?qū)W習(xí)過的模型應(yīng)用于新領(lǐng)域的一種學(xué)習(xí)過程。機器學(xué)習(xí)解決的是讓機器自主地從數(shù)據(jù)中獲取知識,從而應(yīng)用于新的問題中。遷移學(xué)習(xí)是機器學(xué)習(xí)的一個重要分支,它的核心問題是找到新問題和原問題之間的相似性[11]。
現(xiàn)在遷移學(xué)習(xí)已被廣泛的應(yīng)用于計算機視覺的研究中,例如同一類圖片,不同拍攝角度、不同光照、不同背景,都會造成特征分布發(fā)生改變[11]。因此,使用遷移學(xué)習(xí)構(gòu)建跨領(lǐng)域的魯棒分類器是十分重要的[10]。通過認(rèn)識和學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的性能,選擇了在本實驗中比較適用的3個網(wǎng)絡(luò)架構(gòu),即ResNet18、DenseNet121、Vgg16。利用基于模型的遷移方法,是指從源域和目標(biāo)域中找到他們之間共享的參數(shù)信息,以實現(xiàn)遷移的方法。這種遷移方式要求的假設(shè)條件是:源域中的數(shù)據(jù)與目標(biāo)域中的數(shù)據(jù)可以共享一些模型的參數(shù)[11]。如龍明盛等人改進了深度網(wǎng)絡(luò)結(jié)構(gòu),通過在網(wǎng)絡(luò)中加入概率分布適配層,進一步提高深度遷移學(xué)習(xí)網(wǎng)絡(luò)對于大數(shù)據(jù)的泛化能力[12]。
1.2 卷積神經(jīng)網(wǎng)絡(luò)(CNN)
卷積神經(jīng)網(wǎng)絡(luò)(Convolution neural networks,CNN)是基于人工神經(jīng)網(wǎng)絡(luò)帶有卷積層的網(wǎng)絡(luò)結(jié)構(gòu)。它的基本結(jié)構(gòu)由輸入層、卷積層、池化層、全連接層及輸出層構(gòu)成。卷積層和池化層一般會取若干個,采用卷積層和池化層交替設(shè)置,即一個卷積層連接一個池化層,池化層后再連接一個卷積層,依此類推。由于卷積層中輸出特征面的每個神經(jīng)元與其輸入進行局部連接,并通過對應(yīng)的連接權(quán)值與局部輸入進行加權(quán)求和再加上偏置值,得到該神經(jīng)元輸入值,該過程等同于卷積過程,卷積神經(jīng)網(wǎng)絡(luò)也由此而得名[13]。
1.2.1 卷積神經(jīng)網(wǎng)絡(luò)之ResNet18
2 數(shù)據(jù)集
作者選擇在不同拍攝距離和角度,不同光照和天氣條件下采集圖像,確保數(shù)據(jù)集盡可能多樣化。首先,使用了不同的手機拍攝:魅族4、蘋果6s、華為note。然后,選擇了兩個地點:黑龍江省哈爾濱市東北林業(yè)大學(xué)校園內(nèi)和林場,不同的地方會影響樹木的生長情況。
數(shù)據(jù)庫中每一張圖片都有自己的編號,用來標(biāo)識不同的種類。小部分?jǐn)?shù)據(jù)集被刪除,主要是因為相機運動而拍攝的圖片模糊。然后手動剪裁剩余的每張圖片,尺寸全部改為256×256,這能使得更方便的對圖像進行處理,并去除每張圖片的背景。實驗中還采用了原始圖像與灰度圖像作對比,以防光照和色彩對實驗造成影響。
2.1 樹干數(shù)據(jù)集
為縮短數(shù)據(jù)收集過程,選擇每棵樹的不同位置,并距離該樹30 cm左右拍攝照片。這個距離的變化,取決于拍攝條件(手機前面是否有障礙物或者樹木粗細等)。共采集10種2 000張樹干圖片,樹干種類見表1。表1中a~j代表10種樹,第二、三行分別為樹木名稱以及用于實驗的圖片數(shù)目。原始圖像和灰度圖像如圖4所示。
2.2 樹葉數(shù)據(jù)集
樹葉的收集相對來說比較方便,一片樹葉為一張圖片。共采集1 725張8種類別樹葉圖像,見表2。表2中a~h代表8種樹葉,第二、三行為樹葉種類以及采集圖片數(shù)目。原始圖像和灰度圖像如圖5所示。
3 實驗
3.1 模型訓(xùn)練
使用兩種學(xué)習(xí)環(huán)境,一種是開源深度學(xué)習(xí)框架Pytorch0.4.1進行深度學(xué)習(xí)實驗,選用Python作為編程語言,另一種是MATLAB開發(fā)環(huán)境。實驗硬件為Ubuntu 16.04 LTS 64 位系統(tǒng),計算機內(nèi)存為16GB,搭載 Intel CoreTM i7-7800XCPU @ 3.50GHz×12處理器,并采用GeForce GTX 1080Ti顯卡加速圖像處理。
為了了解采用的方法是否會過度擬合,所以在接下來的訓(xùn)練-測試中,將兩類數(shù)據(jù)集分別調(diào)整為80%和20%(80%用于訓(xùn)練,20%用于測試),60%和40%(60%用于訓(xùn)練,40%用于測試),40%和60%(40%用于訓(xùn)練,60%用于測試),20%和80%(20%用于訓(xùn)練,80%用于測試)。在實驗中,還要確保樹葉和樹干的每一個類別都分布在訓(xùn)練和測試中。
三種機器學(xué)習(xí)方式:一是從頭開始對訓(xùn)練集進行訓(xùn)練,即普通深度學(xué)習(xí);二是遷移網(wǎng)絡(luò)模型,即遷移學(xué)習(xí),這兩種方式的差異性在于權(quán)重的初始狀態(tài)在哪一層;三是傳統(tǒng)識別方式SVM分類器,人工選擇提取圖片的HOG和GLCM特征。分析這三種結(jié)構(gòu)在訓(xùn)練-測試數(shù)據(jù)集上的性能。實驗參數(shù)如下:
(1)神經(jīng)網(wǎng)絡(luò)模型:ResNet18、Vgg16、DenseNet121
(2)訓(xùn)練機制:普通深度學(xué)習(xí)、遷移學(xué)習(xí)、SVM
(3)訓(xùn)練數(shù)據(jù)集分布:訓(xùn)練:80%,測試:20%;訓(xùn)練:60%,測試:40%;訓(xùn)練:40%,測試:60%;訓(xùn)練:20%,測試:80%。
為了使得測試結(jié)果之間進行公平的比較,在實驗中標(biāo)準(zhǔn)化超參數(shù),如下:
(1)算法:隨機梯度下降。
(2)學(xué)習(xí)率:0.01。
(3)學(xué)習(xí)衰減:0.001。
(4)動量:0.5。
(5)權(quán)重衰減:0.000 5。
(6)批量大小:64。
3.2 研究方法
作者將2 000張的樹干圖片,分為4種形式的訓(xùn)練和測試集,即總圖片數(shù)的80%訓(xùn)練20%測試、60%訓(xùn)練40%測試、40%訓(xùn)練60%測試、20%訓(xùn)練80%測試。并在ResNet18、Vgg16、DenseNet121三種網(wǎng)絡(luò)模型中訓(xùn)練。將1 725張樹葉圖片,選擇和樹干相同形式的訓(xùn)練-測試集和相同的網(wǎng)絡(luò)模型。
由于擔(dān)心卷積神經(jīng)網(wǎng)絡(luò)在提取圖片特征時可能會提取與顏色有關(guān)的特征,所以使用樹干和樹葉的灰度圖像測試這三種網(wǎng)絡(luò)模型在沒有顏色的情況下識別精度會不會有變化。
最后利用混淆矩陣,具體對遷移學(xué)習(xí)進行說明與分析。實驗中只使用了樹干原始圖像和樹干數(shù)據(jù)集的80%訓(xùn)練—20%測試,即樹干圖像總數(shù)為2 000張,1 600張為訓(xùn)練圖像,400張為測試圖像。并且分別表示出遷移學(xué)習(xí)在ResNet18、Vgg16、DenseNet121上的混淆矩陣?;谶w移學(xué)習(xí)的樹葉圖像混淆矩陣表示方法與樹干相同,樹葉圖片共為1 725張,其中1 374張為訓(xùn)練圖像,351為預(yù)測圖像。
3.3 結(jié)果與分析
3.3.1 樹干圖像識別結(jié)果與分析
表3表示普通深度學(xué)習(xí)和遷移學(xué)習(xí)的三種網(wǎng)絡(luò)模型以及SVM分類器在4種訓(xùn)練測試模式下的識別精度。當(dāng)訓(xùn)練集分別為80%、60%、40%、20%時,普通深度學(xué)習(xí)最高識別精度分別為41.13%、35.52%、32.28%、28.05%,遷移學(xué)習(xí)最高識別精度92.51%、88.02%、70.52%、69.98%。隨著訓(xùn)練圖片數(shù)量的減少,識別精度也逐漸降低,訓(xùn)練為20%時,SVM最低識別精度為31.76%,普通深度學(xué)習(xí)最低識別精度為21.73%,而遷移學(xué)習(xí)最低識別精度為61.90%。
實驗證明灰度圖像與原始圖像相比,識別準(zhǔn)確率會下降,但變化并不大,見表3。當(dāng)訓(xùn)練分別為80%、60%、40%、20%時,普通深度學(xué)習(xí)最高識別精度分別為35.31%、30.61%、25.83%、24.90%,遷移學(xué)習(xí)最高識別精度分別為89.32%、84.72%、68.61%、66.10%。當(dāng)訓(xùn)練集數(shù)量最少時,普通深度學(xué)習(xí)最低識別精度為16.56%,遷移學(xué)習(xí)最低識別精度為58.29%。
3.3.2 樹葉圖像識別結(jié)果與分析
表4第一行為訓(xùn)練測試集4種形式,第二部分深度學(xué)習(xí)和遷移學(xué)習(xí)在三種網(wǎng)絡(luò)模型下的識別精度,最后為SVM的識別精度。從表4中得到,當(dāng)訓(xùn)練集數(shù)量最少為20%時,SVM分類器最低識別精度為31.67%,普通深度學(xué)習(xí)最低識別精度為16.53%,遷移學(xué)習(xí)最低識別精度為69.90%。當(dāng)訓(xùn)練集分別為80%、60%、40%、20%時,最高識別精度分別為98.20%、96.65%、94.19%、84.25%。并利用了灰色圖像證明顏色是否會被當(dāng)作特征被提取,實驗證明識別精度雖下降,但與原始圖像相差不大。
在原始圖像識別中,運用了傳統(tǒng)的分類識別方法SVM和普通深度學(xué)習(xí)與遷移學(xué)習(xí)做了對比。實驗結(jié)果表明無論是圖像類型(原始圖像和灰度圖像)不同,訓(xùn)練—測試形式不同,還是網(wǎng)絡(luò)模型不同,數(shù)據(jù)集(樹干和樹葉)不同,最終得到在小樣本數(shù)據(jù)集上,利用遷移學(xué)習(xí)得到的識別結(jié)果明顯高于前兩種識別方法。
3.4 混淆矩陣
3.4.1 樹干圖像的混淆矩陣
利用混淆矩陣對遷移學(xué)習(xí)這一方法進行分析。在混淆矩陣中,用藍色代表識別準(zhǔn)確度,顏色越深,識別越準(zhǔn)確。x軸表示為測試數(shù)據(jù)集,y軸表示為訓(xùn)練數(shù)據(jù)集,a~j代表了10種樹干類別,具體的介紹在表1。其中80%訓(xùn)練共1 600張圖片,20%測試共400張,每種樹測試圖片均為40張。如圖6(a)所示,a~j這10種樹干,其中a全部識別正確;bcdeghj識別圖片錯誤數(shù)目在10張以內(nèi);而f有23張識別正確,有1張識別為j,2張識別為d,2張識別為e,12張識別為h;i有29張識別正確,3張識別為b,1張識別為e,1張識別為h,6張為j。圖6(b)中,a和j全部正確;bcdehi錯誤在10張以內(nèi);f和g識別錯誤的圖片數(shù)目在10張以上。圖6(c)中,a和j全部識別正確;bcdefhi識別錯誤圖片數(shù)目10張以內(nèi);g有28張識別正確,有4張被識別為b,有4張被識別為c,有1張被識別為h,有3張被識別為i。這就是遷移學(xué)習(xí)在這三種網(wǎng)絡(luò)模型上的具體表現(xiàn),結(jié)果較為理想。雖有個別圖片識別出現(xiàn)錯誤,但是大部分圖片都被正確識別。出現(xiàn)這種錯誤的原因是不同樹干之間有相似性,例如顏色、紋理、形狀比較相像。
3.4.2 樹葉圖像的混淆矩陣
在混淆矩陣中,a~h代表了8種樹葉類別,具體介紹見表2。如圖7(a)所示,abdeg被識別正確;c有39張被識別,6張被識別為f,1張被識別為g;f有44張被識別,1張被識別為c、h有40張被識別,有3張分別被識別為a、b、c。如圖7(b)所示,a、b、d、e、g全部被識別正確,c、f、h別識別正確數(shù)目分別為37、44、38。如圖7(c)所示,a、b、d、e全部識別正確,c、f、g、h識別正確數(shù)目分別為34、41、41、42。
4 討論
在本實驗中,利用了傳統(tǒng)的SVM對樹干和樹葉進行了分類識別。雖然識別結(jié)果略高于實驗中使用的深度學(xué)習(xí)方法,主要是由于本實驗所用的樣本較少,無法滿足深度學(xué)習(xí)需要的大量樣本做支持這一條件。但是傳統(tǒng)的分類方法需要人工設(shè)定提取圖片特征。所以這種方法的性能在很大程度上取決于已經(jīng)設(shè)定好的特征。而設(shè)定圖像特征本身就是一個復(fù)雜而繁瑣的過程,一旦相關(guān)的數(shù)據(jù)集發(fā)生變化時,都需要重新對其進行特征提取。此外,通過機器學(xué)習(xí)進行分類的傳統(tǒng)方法通常只能識別單一物種,如龐俊震利用圖像處理技術(shù)和手機移動端結(jié)合的方法,得到了月季花的22個特征,雖說取得了一定的成果,但是算法復(fù)雜,且對單一物種比較合適[17]。雖然神經(jīng)網(wǎng)絡(luò)之前也被應(yīng)用于圖像識別,如袁培森等人利用卷積神經(jīng)網(wǎng)絡(luò)對菊花花型和品種進行識別,得到了較高的識別率,但他是把菊花的識別作為一個封閉的系統(tǒng),假設(shè)所有的識別結(jié)果都是菊花,該方法對其他花卉的識別會出現(xiàn)錯誤的輸出[18]。
作者選用的遷移學(xué)習(xí)方法是在了解了現(xiàn)在的深度學(xué)習(xí)之后提出的,在實驗中,選用了卷積神經(jīng)網(wǎng)絡(luò)作為訓(xùn)練模型,同樣的數(shù)據(jù)集和網(wǎng)絡(luò)結(jié)構(gòu)下與普通深度學(xué)習(xí)和傳統(tǒng)方法SVM相比分類效果明顯。在圖片數(shù)量僅有幾千張情況下,遷移訓(xùn)練過的ResNet18、Vgg16、DenseNet121三種神經(jīng)網(wǎng)絡(luò)模型,最高識別精度樹葉達到98.20%,樹干達到92.51%。
然而,現(xiàn)階段仍然存在許多問題。首先,用于訓(xùn)練的圖像是在不同條件下拍攝,例如拍攝工具不同、光照強度不同、天氣陰晴等,與相同條件下獲得圖像進行對比時,模型準(zhǔn)確率也是大大降低。要想更好的符合實際情況,而且還要保證準(zhǔn)確性高,則需要更多樣化的數(shù)據(jù)集做訓(xùn)練。第二個問題是,無論是樹干還是樹葉,不同種類之間總會存在相似性,而同一種類之間又會存在差異性,出現(xiàn)這一問題時,不僅對最終的識別精度會產(chǎn)生影響,而且還會產(chǎn)生識別錯誤的結(jié)果。經(jīng)驗證,本文中提出的方法對樹干和樹葉的識別相當(dāng)適用。最后還要說明一點,在這里介紹的方法并非是取代現(xiàn)有的識別方法,而是為了彌補不足,表明這種方法的測試結(jié)果要比視覺識別更可靠。
5 結(jié)論
本文成功的將遷移學(xué)習(xí)引入具有少量樣本的樹種識別中,并與普通深度學(xué)習(xí)和傳統(tǒng)分類方法SVM作對比,通過測試集得到基于遷移學(xué)習(xí)的樹葉和樹干最高識別精度為98.20%、92.51%,比普通深度學(xué)習(xí)提高了51.69%和51.38%,比SVM分類方法提高了45.08%和43.94%,該方法使得識別精度得到很大提高。但所面臨的問題有,一是樹葉或樹干在同種類間是存在差異性,不同種類間存在相似性,在構(gòu)建的混淆矩陣中已經(jīng)表示出來,這會影響識別準(zhǔn)確度。二是拍攝的樹木包含松科類,當(dāng)樹葉被作為樹種特征進行識別時,松樹的松針大部分很相似,很難被作為識別特征,而且現(xiàn)在也沒有相關(guān)的研究成果。對于這兩個問題,作者將會在接下來的實驗中擬引入信息融合的方法,選取適合的網(wǎng)絡(luò)模型,解決這類問題。
【參 考 文 獻】
[1]賈瀟然,劉迎濤.樹種識別技術(shù)的研究進展[J].林業(yè)機械與木工設(shè)備,2009,37(9):15-19.
JIA X R, LIU Y T. Research advances in identification system of timber-producing tree species management and the development trend[J]. Forestry Machinery & Woodworking Equipment, 2009, 37(9):15-19.
[2]任洪娥,高潔,馬巖.我國木材材種識別技術(shù)的新進展[J].木材加工機械,2007,18(4):38-41.
REN H E, GAO J, MA Y. The newly evolvement of wood recognition technology in China[J]. Wood Processing Machinery, 2007, 18(4):38-41.
[3]BEECH E, RIVERS M C, OLDFIELD S, et al. GlobalTreeSearch: the first complete global database of tree species and country distributions[J]. Journal of Sustainable Forestry, 2017, 36(5):454-489.
[4]梁龍,房桂干,吳珽,等.基于支持向量機的近紅外特征變量選擇算法用于樹種快速識別[J].分析測試學(xué)報,2016,35(1):101-106.
LIANG L, FANG G G, WU H, et al. Fast identification of wood species by near infrared spectroscopy coupling with support vector machine[J]. Journal of Instrumental Analysis, 2016, 35(1):101-106.
[5]趙鵬超,戚大偉.基于卷積神經(jīng)網(wǎng)絡(luò)和樹葉紋理的樹種識別研究[J].森林工程,2018,34(1):56-59.
ZHAO P C, QI D W. Study on tree species identification based on convolution neural network and leaf texture image[J]. Forest Engineering, 2018, 34(1):56-59.
[6]MOHANTY S P, HUGHES D P, SALATHE M. Using deep learning for image-based plant disease detection[J]. Frontiers in Plant Science, 2016, 7:1419.
[7]CARPENTIER M, GIGUERE P, GAUDREAULT J. Tree species identification from bark images using convolutional neural networks[J]. IEEE/RSJ International Conference on Intelligent Robots and Systems, 2018:1075-1081.
[8]孫俊,譚文軍,毛罕平,等.基于改進卷積神經(jīng)網(wǎng)絡(luò)的多種植物葉片病害識別[J].農(nóng)業(yè)工程學(xué)報,2017,33(19):209-215.
SUN J, TAN W J, MAO H P, et al. Recognition of multiple plant leaf diseases based on improved convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(19):209-215.
[9]侯宇青陽,全吉成,王宏偉.深度學(xué)習(xí)發(fā)展綜述[J].艦船電子工程,2017,37(4):5-9.
HOU Y Q Y, QUAN J C, WANG H W. Review of deep learning development[J]. Ship Electronic Engineering, 2017, 37(4):5-9.
[10]程玉柱,顧權(quán),王眾輝,等.基于深度學(xué)習(xí)的木材缺陷圖像檢測方法[J].林業(yè)機械與木工設(shè)備,2018,46(8):33-36.
CHENG Y Z, GU Q, WANG Z H, et al. Wood defect image segmentation based on deep learning[J]. Forestry Machinery & Woodworking Equipment, 2018, 46(8):33-36.
[11]莊福振,羅平,何清,等.遷移學(xué)習(xí)研究進展[J].軟件學(xué)報,2015,26(1):26-39.
ZHUANG F Z, LUO P, HE Q, et al. Survey on transfer learning research[J]. Journal of Software, 2015, 26(1):26-39.
[12]LONG M S, ZHU H, WANG J M, et al. Deep transfer learning with joint adaptation networks[J]. International Conference on Machine Learning, 2016, 26(1):26-39.
[13]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計算機學(xué)報,2017,40(6):1229-1251.
ZHOU F Y, JIN L P, DONG J. Review of convolutional neural network[J]. Chinese Journal of Computers, 2017, 40(6):1229-1251.
[14]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[J]. Computer Vision and Pattern Recognition, 2016:770-778.
[15]HUANG G, LIU Z, MAATEN L V D, et al. Densely connected convolutional networks[J]. Computer Vision and Pattern Recognition, 2017:2261-2269.
[16]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014.
[17]龐俊震,淮永建.基于移動端的月季花快速識別方法研究[J].計算機應(yīng)用與軟件,2017,34(8):36-41.
PANG J Z, HUAI Y J. Rapid recognition approach for Chinese rose based on mobile phone[J]. Computer Applications & Software, 2017, 34(8):36-41.
[18]袁培森,黎薇,任守綱,等.基于卷積神經(jīng)網(wǎng)絡(luò)的菊花花型和品種識別[J].農(nóng)業(yè)工程學(xué)報,2018,34(5):152-158.
YUAN P S, LI W, REN S G, et al. Recognition for flower type and variety of chrysanthemum with convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(5):152-158.