亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于遷移學(xué)習(xí)的樹(shù)種識(shí)別

        2019-10-09 02:58:54高旋趙亞鳳熊強(qiáng)陳喆
        森林工程 2019年5期
        關(guān)鍵詞:遷移學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

        高旋 趙亞鳳 熊強(qiáng) 陳喆

        摘 要:使用樹(shù)干和樹(shù)葉圖像實(shí)現(xiàn)樹(shù)種自動(dòng)識(shí)別,目前深度學(xué)習(xí)可以有效的解決該類問(wèn)題,但它需要大量樣本做訓(xùn)練才能達(dá)到較高的識(shí)別精度。當(dāng)面對(duì)有限圖像數(shù)量時(shí),提出基于遷移學(xué)習(xí)的方法,把經(jīng)過(guò)預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行遷移,即共享卷積層和池化層的權(quán)重參數(shù),對(duì)新的網(wǎng)絡(luò)模型超參數(shù)進(jìn)行調(diào)整,并建立一個(gè)包含10種共計(jì)2 000張樹(shù)干圖像和8種共計(jì)1 725張樹(shù)葉圖像的數(shù)據(jù)庫(kù),把圖片分為訓(xùn)練集和測(cè)試集,分別利用遷移學(xué)習(xí)、普通深度學(xué)習(xí)和SVM分類方法進(jìn)行訓(xùn)練和測(cè)試,并將這3種方法作對(duì)比。最后,通過(guò)構(gòu)建樹(shù)干和樹(shù)葉圖像的混淆矩陣對(duì)遷移學(xué)習(xí)進(jìn)行具體分析與說(shuō)明。實(shí)驗(yàn)結(jié)果表明,通過(guò)遷移學(xué)習(xí)得到的樹(shù)干和樹(shù)葉最高識(shí)別精度分別達(dá)到92.51%和98.20%,比普通深度學(xué)習(xí)提高了51.38%和51.69%,比SVM分類方法提高了43.94%和45.08%。遷移學(xué)習(xí)比普通深度學(xué)習(xí)和傳統(tǒng)SVM分類方法更適合用于小樣本數(shù)據(jù)集的分類識(shí)別,并且顯著優(yōu)于普通深度學(xué)習(xí)和SVM分類方法。

        關(guān)鍵詞:深度學(xué)習(xí);遷移學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);混淆矩陣

        中圖分類號(hào):S781.1 ? ?文獻(xiàn)標(biāo)識(shí)碼:A ? 文章編號(hào):1006-8023(2019)05-0068-08

        Abstract:Objective Tree trunk and leaf images are used to realize automatic identification of tree species. At present, deep learning can effectively solve this kind of problem, but it needs a large number of samples for training to achieve high recognition accuracy. Methods When the number of images is limited, a method based on transfer learning is proposed to migrate the pre-trained convolution neural network model, that is, the weight parameters of convolution and pooling layer. The parameters of the new network are adjusted and a database containing 10 kinds of 2000 tree trunk images and 8 kinds of 1 725 leaf images are established. The images are divided into training sets and test sets, which are trained and tested by transfer learning, general deep learning and SVM classification methods respectively, and the three methods are compared. Results The experimental results show that the maximum recognition accuracy of tree trunks and leaves obtained through transfer learning is 92.51% and 98.20%, respectively, which is higher than general deep learning by 51.38% and 51.69%, and higher than SVM classification by 43.94% and 45.08%. Conclusion Transfer learning is more suitable for classification and recognition of small sample data sets than general deep learning and traditional SVM classification methods, and is significantly better than general deep learning and SVM classification methods.

        Keywords:Deep learning; transfer learning; convolutional neural network; confusion matrix

        0 引言

        木材是人類賴以生存和發(fā)展的寶貴資源,保護(hù)并合理利用木材資源已成為全人類共同關(guān)心的課題[1]。對(duì)每個(gè)人來(lái)說(shuō),肉眼識(shí)別樹(shù)種是很難的,所以自動(dòng)識(shí)別成為了最主要的識(shí)別途徑。樹(shù)葉和樹(shù)干作為樹(shù)木的獨(dú)特特征,越來(lái)越成為自動(dòng)識(shí)別樹(shù)木種類的重要途經(jīng)。最早的樹(shù)種識(shí)別方法主要依靠具有木材解剖學(xué)知識(shí)以及豐富實(shí)踐經(jīng)驗(yàn)的專業(yè)人員來(lái)鑒別,但是這種方法耗時(shí)、耗力,并不能保證準(zhǔn)確性[1]。隨著計(jì)算機(jī)時(shí)代的到來(lái),我國(guó)大約從上世紀(jì)八十年代利用計(jì)算機(jī)建立了植物數(shù)據(jù)庫(kù)[2],國(guó)外起步相對(duì)較早,最新的樹(shù)種數(shù)據(jù)庫(kù),如E Beech等人公布了一個(gè)關(guān)于樹(shù)種的數(shù)據(jù)庫(kù)[3],但并不能隨時(shí)進(jìn)行更新。近幾年,隨著機(jī)器學(xué)習(xí)的發(fā)展,實(shí)現(xiàn)了對(duì)某些樹(shù)種的自動(dòng)識(shí)別,如梁龍等人選擇基于支持向量機(jī)的近紅外特征變量選擇算法用于樹(shù)種識(shí)別[4]。雖然這種方法也取得了較好的識(shí)別結(jié)果,但它的缺陷是人工選取特征,具有局限性。后來(lái)隨著深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的興起,越來(lái)越多的人選擇這種方法實(shí)現(xiàn)對(duì)樹(shù)種的快速識(shí)別,其中利用卷積神經(jīng)網(wǎng)絡(luò)的效果最為顯著。例如,趙鵬超等將樹(shù)葉圖像放在卷積神經(jīng)網(wǎng)絡(luò)上進(jìn)行分類訓(xùn)練,最終識(shí)別率可以達(dá)到95%,這是在大量樹(shù)葉圖像下的研究[5];SP Mohanty等人訓(xùn)練了一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò),對(duì)該網(wǎng)絡(luò)進(jìn)行了遷移學(xué)習(xí),將植物葉片病害進(jìn)行分類識(shí)別,最終的識(shí)別精度可以達(dá)到99.35%,該研究是從網(wǎng)上收集了54 306張圖片,無(wú)法排除現(xiàn)實(shí)環(huán)境對(duì)拍攝樹(shù)葉照片時(shí)造成的影響[6]。還有研究者在大數(shù)據(jù)集的條件下訓(xùn)練關(guān)于樹(shù)干的網(wǎng)絡(luò)模型,例如M Carpentier等人自己建立了一個(gè)包含23 000張樹(shù)干圖片的數(shù)據(jù)庫(kù),在ResNet18和ResNet34上進(jìn)行訓(xùn)練,識(shí)別精度達(dá)到93.88%[7]。孫俊等人針對(duì)訓(xùn)練時(shí)間長(zhǎng)、模型參數(shù)龐大的問(wèn)題,提出將傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)模型改進(jìn),對(duì)從網(wǎng)上收集的21 917張葉片病害進(jìn)行識(shí)別,平均測(cè)試識(shí)別準(zhǔn)確率達(dá)到99.56%[8]。但在現(xiàn)實(shí)條件下,人工不可能采集大量圖片,耗時(shí)又耗力。

        為了更好的考慮自然環(huán)境帶來(lái)的影響,實(shí)地拍攝圖片。但是人工采集的圖片數(shù)量有限,針對(duì)這一問(wèn)題,作者提出運(yùn)用遷移學(xué)習(xí)這一方法,可以有效利用小樣本數(shù)據(jù)集進(jìn)行識(shí)別訓(xùn)練。分別在校內(nèi)和林場(chǎng)內(nèi)采集了樹(shù)葉、樹(shù)干圖片,分成兩種數(shù)據(jù)庫(kù)。利用深度學(xué)習(xí)在卷積神經(jīng)網(wǎng)絡(luò)上對(duì)這兩種數(shù)據(jù)庫(kù)進(jìn)行訓(xùn)練,然后利用遷移學(xué)習(xí)對(duì)這兩種數(shù)據(jù)庫(kù)再次進(jìn)行訓(xùn)練并與深度學(xué)習(xí)和SVM分類方法作對(duì)比。最后,對(duì)樹(shù)葉和樹(shù)干數(shù)據(jù)庫(kù)分別構(gòu)建混淆矩陣,分析遷移學(xué)習(xí)的有效性。

        1 網(wǎng)絡(luò)模型

        1.1 深度學(xué)習(xí)與遷移學(xué)習(xí)

        深度學(xué)習(xí)通過(guò)建立、模擬人腦的信息處理神經(jīng)結(jié)構(gòu)來(lái)實(shí)現(xiàn)對(duì)外部輸入的數(shù)據(jù)進(jìn)行從低級(jí)到高級(jí)的特征提取,從而能夠使機(jī)器理解學(xué)習(xí)數(shù)據(jù),獲得信息。卷積神經(jīng)網(wǎng)絡(luò)作為經(jīng)典的深度學(xué)習(xí)網(wǎng)絡(luò),同時(shí)也是發(fā)展最為深入的網(wǎng)絡(luò),所以更適合解決圖像領(lǐng)域問(wèn)題。通過(guò)對(duì)其結(jié)構(gòu)的不斷改進(jìn)和研究,形成了一系列網(wǎng)絡(luò)模型。雖然深度學(xué)習(xí)在應(yīng)用中取得了很多成績(jī),但仍存在很多局限:理論研究缺乏、無(wú)監(jiān)督學(xué)習(xí)能力弱等[9-10]。在實(shí)際生活中,無(wú)標(biāo)簽未知的數(shù)據(jù)是占主體的,有這樣的問(wèn)題出現(xiàn)時(shí),遷移學(xué)習(xí)的提出可以有效的解決這一問(wèn)題。

        遷移學(xué)習(xí)是一種學(xué)習(xí)的思想和模式,是指利用數(shù)據(jù)、任務(wù)或模型之間的相似性,將在舊領(lǐng)域?qū)W習(xí)過(guò)的模型應(yīng)用于新領(lǐng)域的一種學(xué)習(xí)過(guò)程。機(jī)器學(xué)習(xí)解決的是讓機(jī)器自主地從數(shù)據(jù)中獲取知識(shí),從而應(yīng)用于新的問(wèn)題中。遷移學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)重要分支,它的核心問(wèn)題是找到新問(wèn)題和原問(wèn)題之間的相似性[11]。

        現(xiàn)在遷移學(xué)習(xí)已被廣泛的應(yīng)用于計(jì)算機(jī)視覺(jué)的研究中,例如同一類圖片,不同拍攝角度、不同光照、不同背景,都會(huì)造成特征分布發(fā)生改變[11]。因此,使用遷移學(xué)習(xí)構(gòu)建跨領(lǐng)域的魯棒分類器是十分重要的[10]。通過(guò)認(rèn)識(shí)和學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的性能,選擇了在本實(shí)驗(yàn)中比較適用的3個(gè)網(wǎng)絡(luò)架構(gòu),即ResNet18、DenseNet121、Vgg16。利用基于模型的遷移方法,是指從源域和目標(biāo)域中找到他們之間共享的參數(shù)信息,以實(shí)現(xiàn)遷移的方法。這種遷移方式要求的假設(shè)條件是:源域中的數(shù)據(jù)與目標(biāo)域中的數(shù)據(jù)可以共享一些模型的參數(shù)[11]。如龍明盛等人改進(jìn)了深度網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)在網(wǎng)絡(luò)中加入概率分布適配層,進(jìn)一步提高深度遷移學(xué)習(xí)網(wǎng)絡(luò)對(duì)于大數(shù)據(jù)的泛化能力[12]。

        1.2 卷積神經(jīng)網(wǎng)絡(luò)(CNN)

        卷積神經(jīng)網(wǎng)絡(luò)(Convolution neural networks,CNN)是基于人工神經(jīng)網(wǎng)絡(luò)帶有卷積層的網(wǎng)絡(luò)結(jié)構(gòu)。它的基本結(jié)構(gòu)由輸入層、卷積層、池化層、全連接層及輸出層構(gòu)成。卷積層和池化層一般會(huì)取若干個(gè),采用卷積層和池化層交替設(shè)置,即一個(gè)卷積層連接一個(gè)池化層,池化層后再連接一個(gè)卷積層,依此類推。由于卷積層中輸出特征面的每個(gè)神經(jīng)元與其輸入進(jìn)行局部連接,并通過(guò)對(duì)應(yīng)的連接權(quán)值與局部輸入進(jìn)行加權(quán)求和再加上偏置值,得到該神經(jīng)元輸入值,該過(guò)程等同于卷積過(guò)程,卷積神經(jīng)網(wǎng)絡(luò)也由此而得名[13]。

        1.2.1 卷積神經(jīng)網(wǎng)絡(luò)之ResNet18

        2 數(shù)據(jù)集

        作者選擇在不同拍攝距離和角度,不同光照和天氣條件下采集圖像,確保數(shù)據(jù)集盡可能多樣化。首先,使用了不同的手機(jī)拍攝:魅族4、蘋果6s、華為note。然后,選擇了兩個(gè)地點(diǎn):黑龍江省哈爾濱市東北林業(yè)大學(xué)校園內(nèi)和林場(chǎng),不同的地方會(huì)影響樹(shù)木的生長(zhǎng)情況。

        數(shù)據(jù)庫(kù)中每一張圖片都有自己的編號(hào),用來(lái)標(biāo)識(shí)不同的種類。小部分?jǐn)?shù)據(jù)集被刪除,主要是因?yàn)橄鄼C(jī)運(yùn)動(dòng)而拍攝的圖片模糊。然后手動(dòng)剪裁剩余的每張圖片,尺寸全部改為256×256,這能使得更方便的對(duì)圖像進(jìn)行處理,并去除每張圖片的背景。實(shí)驗(yàn)中還采用了原始圖像與灰度圖像作對(duì)比,以防光照和色彩對(duì)實(shí)驗(yàn)造成影響。

        2.1 樹(shù)干數(shù)據(jù)集

        為縮短數(shù)據(jù)收集過(guò)程,選擇每棵樹(shù)的不同位置,并距離該樹(shù)30 cm左右拍攝照片。這個(gè)距離的變化,取決于拍攝條件(手機(jī)前面是否有障礙物或者樹(shù)木粗細(xì)等)。共采集10種2 000張樹(shù)干圖片,樹(shù)干種類見(jiàn)表1。表1中a~j代表10種樹(shù),第二、三行分別為樹(shù)木名稱以及用于實(shí)驗(yàn)的圖片數(shù)目。原始圖像和灰度圖像如圖4所示。

        2.2 樹(shù)葉數(shù)據(jù)集

        樹(shù)葉的收集相對(duì)來(lái)說(shuō)比較方便,一片樹(shù)葉為一張圖片。共采集1 725張8種類別樹(shù)葉圖像,見(jiàn)表2。表2中a~h代表8種樹(shù)葉,第二、三行為樹(shù)葉種類以及采集圖片數(shù)目。原始圖像和灰度圖像如圖5所示。

        3 實(shí)驗(yàn)

        3.1 模型訓(xùn)練

        使用兩種學(xué)習(xí)環(huán)境,一種是開(kāi)源深度學(xué)習(xí)框架Pytorch0.4.1進(jìn)行深度學(xué)習(xí)實(shí)驗(yàn),選用Python作為編程語(yǔ)言,另一種是MATLAB開(kāi)發(fā)環(huán)境。實(shí)驗(yàn)硬件為Ubuntu 16.04 LTS 64 位系統(tǒng),計(jì)算機(jī)內(nèi)存為16GB,搭載 Intel CoreTM i7-7800XCPU @ 3.50GHz×12處理器,并采用GeForce GTX 1080Ti顯卡加速圖像處理。

        為了了解采用的方法是否會(huì)過(guò)度擬合,所以在接下來(lái)的訓(xùn)練-測(cè)試中,將兩類數(shù)據(jù)集分別調(diào)整為80%和20%(80%用于訓(xùn)練,20%用于測(cè)試),60%和40%(60%用于訓(xùn)練,40%用于測(cè)試),40%和60%(40%用于訓(xùn)練,60%用于測(cè)試),20%和80%(20%用于訓(xùn)練,80%用于測(cè)試)。在實(shí)驗(yàn)中,還要確保樹(shù)葉和樹(shù)干的每一個(gè)類別都分布在訓(xùn)練和測(cè)試中。

        三種機(jī)器學(xué)習(xí)方式:一是從頭開(kāi)始對(duì)訓(xùn)練集進(jìn)行訓(xùn)練,即普通深度學(xué)習(xí);二是遷移網(wǎng)絡(luò)模型,即遷移學(xué)習(xí),這兩種方式的差異性在于權(quán)重的初始狀態(tài)在哪一層;三是傳統(tǒng)識(shí)別方式SVM分類器,人工選擇提取圖片的HOG和GLCM特征。分析這三種結(jié)構(gòu)在訓(xùn)練-測(cè)試數(shù)據(jù)集上的性能。實(shí)驗(yàn)參數(shù)如下:

        (1)神經(jīng)網(wǎng)絡(luò)模型:ResNet18、Vgg16、DenseNet121

        (2)訓(xùn)練機(jī)制:普通深度學(xué)習(xí)、遷移學(xué)習(xí)、SVM

        (3)訓(xùn)練數(shù)據(jù)集分布:訓(xùn)練:80%,測(cè)試:20%;訓(xùn)練:60%,測(cè)試:40%;訓(xùn)練:40%,測(cè)試:60%;訓(xùn)練:20%,測(cè)試:80%。

        為了使得測(cè)試結(jié)果之間進(jìn)行公平的比較,在實(shí)驗(yàn)中標(biāo)準(zhǔn)化超參數(shù),如下:

        (1)算法:隨機(jī)梯度下降。

        (2)學(xué)習(xí)率:0.01。

        (3)學(xué)習(xí)衰減:0.001。

        (4)動(dòng)量:0.5。

        (5)權(quán)重衰減:0.000 5。

        (6)批量大?。?4。

        3.2 研究方法

        作者將2 000張的樹(shù)干圖片,分為4種形式的訓(xùn)練和測(cè)試集,即總圖片數(shù)的80%訓(xùn)練20%測(cè)試、60%訓(xùn)練40%測(cè)試、40%訓(xùn)練60%測(cè)試、20%訓(xùn)練80%測(cè)試。并在ResNet18、Vgg16、DenseNet121三種網(wǎng)絡(luò)模型中訓(xùn)練。將1 725張樹(shù)葉圖片,選擇和樹(shù)干相同形式的訓(xùn)練-測(cè)試集和相同的網(wǎng)絡(luò)模型。

        由于擔(dān)心卷積神經(jīng)網(wǎng)絡(luò)在提取圖片特征時(shí)可能會(huì)提取與顏色有關(guān)的特征,所以使用樹(shù)干和樹(shù)葉的灰度圖像測(cè)試這三種網(wǎng)絡(luò)模型在沒(méi)有顏色的情況下識(shí)別精度會(huì)不會(huì)有變化。

        最后利用混淆矩陣,具體對(duì)遷移學(xué)習(xí)進(jìn)行說(shuō)明與分析。實(shí)驗(yàn)中只使用了樹(shù)干原始圖像和樹(shù)干數(shù)據(jù)集的80%訓(xùn)練—20%測(cè)試,即樹(shù)干圖像總數(shù)為2 000張,1 600張為訓(xùn)練圖像,400張為測(cè)試圖像。并且分別表示出遷移學(xué)習(xí)在ResNet18、Vgg16、DenseNet121上的混淆矩陣?;谶w移學(xué)習(xí)的樹(shù)葉圖像混淆矩陣表示方法與樹(shù)干相同,樹(shù)葉圖片共為1 725張,其中1 374張為訓(xùn)練圖像,351為預(yù)測(cè)圖像。

        3.3 結(jié)果與分析

        3.3.1 樹(shù)干圖像識(shí)別結(jié)果與分析

        表3表示普通深度學(xué)習(xí)和遷移學(xué)習(xí)的三種網(wǎng)絡(luò)模型以及SVM分類器在4種訓(xùn)練測(cè)試模式下的識(shí)別精度。當(dāng)訓(xùn)練集分別為80%、60%、40%、20%時(shí),普通深度學(xué)習(xí)最高識(shí)別精度分別為41.13%、35.52%、32.28%、28.05%,遷移學(xué)習(xí)最高識(shí)別精度92.51%、88.02%、70.52%、69.98%。隨著訓(xùn)練圖片數(shù)量的減少,識(shí)別精度也逐漸降低,訓(xùn)練為20%時(shí),SVM最低識(shí)別精度為31.76%,普通深度學(xué)習(xí)最低識(shí)別精度為21.73%,而遷移學(xué)習(xí)最低識(shí)別精度為61.90%。

        實(shí)驗(yàn)證明灰度圖像與原始圖像相比,識(shí)別準(zhǔn)確率會(huì)下降,但變化并不大,見(jiàn)表3。當(dāng)訓(xùn)練分別為80%、60%、40%、20%時(shí),普通深度學(xué)習(xí)最高識(shí)別精度分別為35.31%、30.61%、25.83%、24.90%,遷移學(xué)習(xí)最高識(shí)別精度分別為89.32%、84.72%、68.61%、66.10%。當(dāng)訓(xùn)練集數(shù)量最少時(shí),普通深度學(xué)習(xí)最低識(shí)別精度為16.56%,遷移學(xué)習(xí)最低識(shí)別精度為58.29%。

        3.3.2 樹(shù)葉圖像識(shí)別結(jié)果與分析

        表4第一行為訓(xùn)練測(cè)試集4種形式,第二部分深度學(xué)習(xí)和遷移學(xué)習(xí)在三種網(wǎng)絡(luò)模型下的識(shí)別精度,最后為SVM的識(shí)別精度。從表4中得到,當(dāng)訓(xùn)練集數(shù)量最少為20%時(shí),SVM分類器最低識(shí)別精度為31.67%,普通深度學(xué)習(xí)最低識(shí)別精度為16.53%,遷移學(xué)習(xí)最低識(shí)別精度為69.90%。當(dāng)訓(xùn)練集分別為80%、60%、40%、20%時(shí),最高識(shí)別精度分別為98.20%、96.65%、94.19%、84.25%。并利用了灰色圖像證明顏色是否會(huì)被當(dāng)作特征被提取,實(shí)驗(yàn)證明識(shí)別精度雖下降,但與原始圖像相差不大。

        在原始圖像識(shí)別中,運(yùn)用了傳統(tǒng)的分類識(shí)別方法SVM和普通深度學(xué)習(xí)與遷移學(xué)習(xí)做了對(duì)比。實(shí)驗(yàn)結(jié)果表明無(wú)論是圖像類型(原始圖像和灰度圖像)不同,訓(xùn)練—測(cè)試形式不同,還是網(wǎng)絡(luò)模型不同,數(shù)據(jù)集(樹(shù)干和樹(shù)葉)不同,最終得到在小樣本數(shù)據(jù)集上,利用遷移學(xué)習(xí)得到的識(shí)別結(jié)果明顯高于前兩種識(shí)別方法。

        3.4 混淆矩陣

        3.4.1 樹(shù)干圖像的混淆矩陣

        利用混淆矩陣對(duì)遷移學(xué)習(xí)這一方法進(jìn)行分析。在混淆矩陣中,用藍(lán)色代表識(shí)別準(zhǔn)確度,顏色越深,識(shí)別越準(zhǔn)確。x軸表示為測(cè)試數(shù)據(jù)集,y軸表示為訓(xùn)練數(shù)據(jù)集,a~j代表了10種樹(shù)干類別,具體的介紹在表1。其中80%訓(xùn)練共1 600張圖片,20%測(cè)試共400張,每種樹(shù)測(cè)試圖片均為40張。如圖6(a)所示,a~j這10種樹(shù)干,其中a全部識(shí)別正確;bcdeghj識(shí)別圖片錯(cuò)誤數(shù)目在10張以內(nèi);而f有23張識(shí)別正確,有1張識(shí)別為j,2張識(shí)別為d,2張識(shí)別為e,12張識(shí)別為h;i有29張識(shí)別正確,3張識(shí)別為b,1張識(shí)別為e,1張識(shí)別為h,6張為j。圖6(b)中,a和j全部正確;bcdehi錯(cuò)誤在10張以內(nèi);f和g識(shí)別錯(cuò)誤的圖片數(shù)目在10張以上。圖6(c)中,a和j全部識(shí)別正確;bcdefhi識(shí)別錯(cuò)誤圖片數(shù)目10張以內(nèi);g有28張識(shí)別正確,有4張被識(shí)別為b,有4張被識(shí)別為c,有1張被識(shí)別為h,有3張被識(shí)別為i。這就是遷移學(xué)習(xí)在這三種網(wǎng)絡(luò)模型上的具體表現(xiàn),結(jié)果較為理想。雖有個(gè)別圖片識(shí)別出現(xiàn)錯(cuò)誤,但是大部分圖片都被正確識(shí)別。出現(xiàn)這種錯(cuò)誤的原因是不同樹(shù)干之間有相似性,例如顏色、紋理、形狀比較相像。

        3.4.2 樹(shù)葉圖像的混淆矩陣

        在混淆矩陣中,a~h代表了8種樹(shù)葉類別,具體介紹見(jiàn)表2。如圖7(a)所示,abdeg被識(shí)別正確;c有39張被識(shí)別,6張被識(shí)別為f,1張被識(shí)別為g;f有44張被識(shí)別,1張被識(shí)別為c、h有40張被識(shí)別,有3張分別被識(shí)別為a、b、c。如圖7(b)所示,a、b、d、e、g全部被識(shí)別正確,c、f、h別識(shí)別正確數(shù)目分別為37、44、38。如圖7(c)所示,a、b、d、e全部識(shí)別正確,c、f、g、h識(shí)別正確數(shù)目分別為34、41、41、42。

        4 討論

        在本實(shí)驗(yàn)中,利用了傳統(tǒng)的SVM對(duì)樹(shù)干和樹(shù)葉進(jìn)行了分類識(shí)別。雖然識(shí)別結(jié)果略高于實(shí)驗(yàn)中使用的深度學(xué)習(xí)方法,主要是由于本實(shí)驗(yàn)所用的樣本較少,無(wú)法滿足深度學(xué)習(xí)需要的大量樣本做支持這一條件。但是傳統(tǒng)的分類方法需要人工設(shè)定提取圖片特征。所以這種方法的性能在很大程度上取決于已經(jīng)設(shè)定好的特征。而設(shè)定圖像特征本身就是一個(gè)復(fù)雜而繁瑣的過(guò)程,一旦相關(guān)的數(shù)據(jù)集發(fā)生變化時(shí),都需要重新對(duì)其進(jìn)行特征提取。此外,通過(guò)機(jī)器學(xué)習(xí)進(jìn)行分類的傳統(tǒng)方法通常只能識(shí)別單一物種,如龐俊震利用圖像處理技術(shù)和手機(jī)移動(dòng)端結(jié)合的方法,得到了月季花的22個(gè)特征,雖說(shuō)取得了一定的成果,但是算法復(fù)雜,且對(duì)單一物種比較合適[17]。雖然神經(jīng)網(wǎng)絡(luò)之前也被應(yīng)用于圖像識(shí)別,如袁培森等人利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)菊花花型和品種進(jìn)行識(shí)別,得到了較高的識(shí)別率,但他是把菊花的識(shí)別作為一個(gè)封閉的系統(tǒng),假設(shè)所有的識(shí)別結(jié)果都是菊花,該方法對(duì)其他花卉的識(shí)別會(huì)出現(xiàn)錯(cuò)誤的輸出[18]。

        作者選用的遷移學(xué)習(xí)方法是在了解了現(xiàn)在的深度學(xué)習(xí)之后提出的,在實(shí)驗(yàn)中,選用了卷積神經(jīng)網(wǎng)絡(luò)作為訓(xùn)練模型,同樣的數(shù)據(jù)集和網(wǎng)絡(luò)結(jié)構(gòu)下與普通深度學(xué)習(xí)和傳統(tǒng)方法SVM相比分類效果明顯。在圖片數(shù)量?jī)H有幾千張情況下,遷移訓(xùn)練過(guò)的ResNet18、Vgg16、DenseNet121三種神經(jīng)網(wǎng)絡(luò)模型,最高識(shí)別精度樹(shù)葉達(dá)到98.20%,樹(shù)干達(dá)到92.51%。

        然而,現(xiàn)階段仍然存在許多問(wèn)題。首先,用于訓(xùn)練的圖像是在不同條件下拍攝,例如拍攝工具不同、光照強(qiáng)度不同、天氣陰晴等,與相同條件下獲得圖像進(jìn)行對(duì)比時(shí),模型準(zhǔn)確率也是大大降低。要想更好的符合實(shí)際情況,而且還要保證準(zhǔn)確性高,則需要更多樣化的數(shù)據(jù)集做訓(xùn)練。第二個(gè)問(wèn)題是,無(wú)論是樹(shù)干還是樹(shù)葉,不同種類之間總會(huì)存在相似性,而同一種類之間又會(huì)存在差異性,出現(xiàn)這一問(wèn)題時(shí),不僅對(duì)最終的識(shí)別精度會(huì)產(chǎn)生影響,而且還會(huì)產(chǎn)生識(shí)別錯(cuò)誤的結(jié)果。經(jīng)驗(yàn)證,本文中提出的方法對(duì)樹(shù)干和樹(shù)葉的識(shí)別相當(dāng)適用。最后還要說(shuō)明一點(diǎn),在這里介紹的方法并非是取代現(xiàn)有的識(shí)別方法,而是為了彌補(bǔ)不足,表明這種方法的測(cè)試結(jié)果要比視覺(jué)識(shí)別更可靠。

        5 結(jié)論

        本文成功的將遷移學(xué)習(xí)引入具有少量樣本的樹(shù)種識(shí)別中,并與普通深度學(xué)習(xí)和傳統(tǒng)分類方法SVM作對(duì)比,通過(guò)測(cè)試集得到基于遷移學(xué)習(xí)的樹(shù)葉和樹(shù)干最高識(shí)別精度為98.20%、92.51%,比普通深度學(xué)習(xí)提高了51.69%和51.38%,比SVM分類方法提高了45.08%和43.94%,該方法使得識(shí)別精度得到很大提高。但所面臨的問(wèn)題有,一是樹(shù)葉或樹(shù)干在同種類間是存在差異性,不同種類間存在相似性,在構(gòu)建的混淆矩陣中已經(jīng)表示出來(lái),這會(huì)影響識(shí)別準(zhǔn)確度。二是拍攝的樹(shù)木包含松科類,當(dāng)樹(shù)葉被作為樹(shù)種特征進(jìn)行識(shí)別時(shí),松樹(shù)的松針大部分很相似,很難被作為識(shí)別特征,而且現(xiàn)在也沒(méi)有相關(guān)的研究成果。對(duì)于這兩個(gè)問(wèn)題,作者將會(huì)在接下來(lái)的實(shí)驗(yàn)中擬引入信息融合的方法,選取適合的網(wǎng)絡(luò)模型,解決這類問(wèn)題。

        【參 考 文 獻(xiàn)】

        [1]賈瀟然,劉迎濤.樹(shù)種識(shí)別技術(shù)的研究進(jìn)展[J].林業(yè)機(jī)械與木工設(shè)備,2009,37(9):15-19.

        JIA X R, LIU Y T. Research advances in identification system of timber-producing tree species management and the development trend[J]. Forestry Machinery & Woodworking Equipment, 2009, 37(9):15-19.

        [2]任洪娥,高潔,馬巖.我國(guó)木材材種識(shí)別技術(shù)的新進(jìn)展[J].木材加工機(jī)械,2007,18(4):38-41.

        REN H E, GAO J, MA Y. The newly evolvement of wood recognition technology in China[J]. Wood Processing Machinery, 2007, 18(4):38-41.

        [3]BEECH E, RIVERS M C, OLDFIELD S, et al. GlobalTreeSearch: the first complete global database of tree species and country distributions[J]. Journal of Sustainable Forestry, 2017, 36(5):454-489.

        [4]梁龍,房桂干,吳珽,等.基于支持向量機(jī)的近紅外特征變量選擇算法用于樹(shù)種快速識(shí)別[J].分析測(cè)試學(xué)報(bào),2016,35(1):101-106.

        LIANG L, FANG G G, WU H, et al. Fast identification of wood species by near infrared spectroscopy coupling with support vector machine[J]. Journal of Instrumental Analysis, 2016, 35(1):101-106.

        [5]趙鵬超,戚大偉.基于卷積神經(jīng)網(wǎng)絡(luò)和樹(shù)葉紋理的樹(shù)種識(shí)別研究[J].森林工程,2018,34(1):56-59.

        ZHAO P C, QI D W. Study on tree species identification based on convolution neural network and leaf texture image[J]. Forest Engineering, 2018, 34(1):56-59.

        [6]MOHANTY S P, HUGHES D P, SALATHE M. Using deep learning for image-based plant disease detection[J]. Frontiers in Plant Science, 2016, 7:1419.

        [7]CARPENTIER M, GIGUERE P, GAUDREAULT J. Tree species identification from bark images using convolutional neural networks[J]. IEEE/RSJ International Conference on Intelligent Robots and Systems, 2018:1075-1081.

        [8]孫俊,譚文軍,毛罕平,等.基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的多種植物葉片病害識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2017,33(19):209-215.

        SUN J, TAN W J, MAO H P, et al. Recognition of multiple plant leaf diseases based on improved convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering, 2017, 33(19):209-215.

        [9]侯宇青陽(yáng),全吉成,王宏偉.深度學(xué)習(xí)發(fā)展綜述[J].艦船電子工程,2017,37(4):5-9.

        HOU Y Q Y, QUAN J C, WANG H W. Review of deep learning development[J]. Ship Electronic Engineering, 2017, 37(4):5-9.

        [10]程玉柱,顧權(quán),王眾輝,等.基于深度學(xué)習(xí)的木材缺陷圖像檢測(cè)方法[J].林業(yè)機(jī)械與木工設(shè)備,2018,46(8):33-36.

        CHENG Y Z, GU Q, WANG Z H, et al. Wood defect image segmentation based on deep learning[J]. Forestry Machinery & Woodworking Equipment, 2018, 46(8):33-36.

        [11]莊福振,羅平,何清,等.遷移學(xué)習(xí)研究進(jìn)展[J].軟件學(xué)報(bào),2015,26(1):26-39.

        ZHUANG F Z, LUO P, HE Q, et al. Survey on transfer learning research[J]. Journal of Software, 2015, 26(1):26-39.

        [12]LONG M S, ZHU H, WANG J M, et al. Deep transfer learning with joint adaptation networks[J]. International Conference on Machine Learning, 2016, 26(1):26-39.

        [13]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)學(xué)報(bào),2017,40(6):1229-1251.

        ZHOU F Y, JIN L P, DONG J. Review of convolutional neural network[J]. Chinese Journal of Computers, 2017, 40(6):1229-1251.

        [14]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[J]. Computer Vision and Pattern Recognition, 2016:770-778.

        [15]HUANG G, LIU Z, MAATEN L V D, et al. Densely connected convolutional networks[J]. Computer Vision and Pattern Recognition, 2017:2261-2269.

        [16]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer Science, 2014.

        [17]龐俊震,淮永建.基于移動(dòng)端的月季花快速識(shí)別方法研究[J].計(jì)算機(jī)應(yīng)用與軟件,2017,34(8):36-41.

        PANG J Z, HUAI Y J. Rapid recognition approach for Chinese rose based on mobile phone[J]. Computer Applications & Software, 2017, 34(8):36-41.

        [18]袁培森,黎薇,任守綱,等.基于卷積神經(jīng)網(wǎng)絡(luò)的菊花花型和品種識(shí)別[J].農(nóng)業(yè)工程學(xué)報(bào),2018,34(5):152-158.

        YUAN P S, LI W, REN S G, et al. Recognition for flower type and variety of chrysanthemum with convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(5):152-158.

        猜你喜歡
        遷移學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
        基于多特征融合的跨域情感分類模型研究
        奇異值分解與移移學(xué)習(xí)在電機(jī)故障診斷中的應(yīng)用
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
        MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
        大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
        一種基于遷移極速學(xué)習(xí)機(jī)的人體行為識(shí)別模型
        大數(shù)據(jù)環(huán)境下基于遷移學(xué)習(xí)的人體檢測(cè)性能提升方法
        亚洲av伊人久久综合性色| 男ji大巴进入女人的视频小说| 亚洲日本在线电影| 深夜国产成人福利在线观看女同| 国产蜜臀精品一区二区三区| 91久久综合精品久久久综合 | av在线免费播放网站| 91精品国产综合久久久蜜| 国产一精品一av一免费| 五十路熟女一区二区三区| 太大太粗太爽免费视频| 午夜亚洲精品视频在线| 在线看片免费人成视频电影 | 亚洲啪av永久无码精品放毛片| 亚洲AV无码一区二区三区人| 精品久久免费一区二区三区四区| 国产丝袜长腿美臀在线观看| 美女高潮黄又色高清视频免费| 麻豆国产成人av高清在线观看| 免费无码AⅤ片在线观看| 亚洲激情一区二区三区不卡| 国产成人亚洲综合无码品善网 | 美女偷拍一区二区三区| 亚洲精品人成中文毛片| 国产精品无码a∨精品影院| 91精品国产91| 成年人视频在线观看麻豆| 亚洲一区二区三区影院| 亚洲欧美精品伊人久久| 日本熟妇精品一区二区三区| 一区二区三区激情免费视频| 久久久g0g0午夜无码精品| 女高中生自慰污免费网站| 国产精品自拍网站在线| 色欲欲www成人网站| 国产麻无矿码直接观看| 成人国产自拍在线播放| 青青草狠吊色在线视频| 亚洲日韩欧洲无码av夜夜摸| 久久这里有精品国产电影网| 小池里奈第一部av在线观看|