亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)的Cifar-10深度學(xué)習(xí)模型的金錢豹個體識別研究

        2018-07-23 05:30:12趙婷婷周哲峰李東喜
        太原理工大學(xué)學(xué)報 2018年4期
        關(guān)鍵詞:體側(cè)金錢豹池化

        趙婷婷,周哲峰,李東喜,劉 松,李 明

        (1.太原理工大學(xué) a.數(shù)學(xué)學(xué)院,b.大數(shù)據(jù)學(xué)院,太原 030024;2.山西沃成生態(tài)環(huán)境研究所,太原 030012;3.中國科學(xué)院大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,北京 100049;4.中國科學(xué)院信息工程研究所 物聯(lián)網(wǎng)信息安全技術(shù)北京市重點實驗室,北京 100093)

        金錢豹是世界上分布最廣的野生貓科動物之一。長期的過度獵捕、棲息地的破壞、種群過小且相互隔離等因素導(dǎo)致了金錢豹在亞洲的種群數(shù)量顯著減少。歷史上,除干旱戈壁沙漠和海拔大于4 000 m的西部山區(qū)外,豹的分布遍及中國。金錢豹在我國有3個亞種,長江以南的為華南豹,長江以北的為華北豹,分布在吉林和黑龍江的為東北豹[1]。近年的調(diào)查研究結(jié)果表明,金錢豹在中國急劇減少。現(xiàn)存金錢豹種群小且分散,主要存在于相互獨立的自然保護(hù)區(qū)中,使得它們面臨著較高的局部地區(qū)滅絕的風(fēng)險。金錢豹的保護(hù)工作引起了國家和社會越來越多的重視,并開展了大量的研究。金錢豹的個體識別,為分析國內(nèi)金錢豹的資源現(xiàn)狀和保護(hù)提供了科學(xué)依據(jù)。

        目前,主要使用紅外相機(jī)技術(shù)對金錢豹個體進(jìn)行調(diào)查與檢測研究。山西沃成生態(tài)環(huán)境研究所通過在自然保護(hù)區(qū)中布設(shè)大量的紅外觸發(fā)相機(jī),對金錢豹進(jìn)行長時間連續(xù)的監(jiān)測調(diào)查,獲得了大量金錢豹相關(guān)影像數(shù)據(jù)。通過處理金錢豹相關(guān)影像數(shù)據(jù),根據(jù)影像數(shù)據(jù)中金錢豹自身的可識別特征——局部花紋來區(qū)分個體,從而估算調(diào)查區(qū)域內(nèi)金錢豹的種群數(shù)量。

        當(dāng)前主要是通過人工目視比對圖片中金錢豹花紋的差異性來區(qū)分金錢豹個體。隨著金錢豹影像數(shù)據(jù)的增多,人工目視比對方法效率會降低。但在圖片識別領(lǐng)域,深度學(xué)習(xí)方法對于區(qū)分圖片差異有著顯著的優(yōu)勢?;诖耍疚膶⒁蕴嵘疱X豹個體識別的準(zhǔn)確率為目標(biāo),研究基于深度學(xué)習(xí)的具有普適性的金錢豹個體識別方法。

        1 研究現(xiàn)狀

        金錢豹個體識別指根據(jù)金錢豹個體之間的差異區(qū)分金錢豹個體。金錢豹個體識別是對金錢豹進(jìn)行有效保護(hù)的基礎(chǔ)。隨著金錢豹的種群數(shù)量顯著減少,對金錢豹個體識別的研究也逐漸增多起來。

        對金錢豹的個體識別,可以借鑒各類虎豹的個體識別方法。已有部分研究主要關(guān)注于通過虎豹的生物特征差異進(jìn)行識別。2000年,MILLS et al[2]通過從稀有或難以捕獲的物種的糞便和毛發(fā)中提取DNA進(jìn)行個體識別。2007年,KERLEY et al[3]使用專門訓(xùn)練的犬通過糞便的氣味進(jìn)行東北虎的個體識別。2010年,RIORDAN[4]通過提取虎和雪豹的腳印形狀進(jìn)行個體識別。DNA分析法可以識別到準(zhǔn)確的個體,但是花費(fèi)較高,并且在野外采集毛發(fā)、糞便樣本也較為困難。通過腳印形狀進(jìn)行個體識別花費(fèi)較少,并且腳印采集較為簡單,但是只能在冬季進(jìn)行,不利于全年的持續(xù)監(jiān)測。利用犬糞便氣味進(jìn)行個體識別則需要對犬進(jìn)行專門的訓(xùn)練,并且在金錢豹所在的自然保護(hù)區(qū)也比較難遇到金錢豹糞便,不適于長時間對金錢豹進(jìn)行監(jiān)測。

        近年來紅外照相技術(shù)在物種監(jiān)測中被廣泛應(yīng)用,通過紅外觸發(fā)相機(jī)可以獲得大量的金錢豹的形體特征[5-7]。通過金錢豹的形體特征進(jìn)行個體識別成為流行。在金錢豹的形體特征中,金錢豹體側(cè)花紋更為明顯。2006年,STEPHENS et al[8]提出虎豹的體側(cè)中部、后肢外側(cè)等部位條紋與斑點具有很大的個體差異性,非常適合進(jìn)行個體識別。HIBY利用動物個體體側(cè)花紋來進(jìn)行個體識別,從而精確得出檢測到的虎豹個體數(shù)量[9]。在當(dāng)前的通過體側(cè)花紋識別金錢豹的方法中,主要是通過人工目視比對進(jìn)行個體識別。人工目視比對對于少量金錢豹體側(cè)花紋圖片識別準(zhǔn)確度較高,而隨著紅外相機(jī)拍攝到的金錢豹的圖片數(shù)量增多,則需要更多的人力來進(jìn)行識別標(biāo)定。

        在圖片識別領(lǐng)域,深度學(xué)習(xí)取得的成績非常顯著。在人臉識別測試集LFW中,經(jīng)典的人臉識別算法EIGENFACE[10]僅能達(dá)到60%的識別率,非深度學(xué)習(xí)識別算法的最優(yōu)識別率為96.33%[11],而深度學(xué)習(xí)可以達(dá)到99.47%的高識別率[12]。

        本文首次將深度學(xué)習(xí)方法應(yīng)用到金錢豹花紋特征識別研究中,試圖得到一種金錢豹個體識別的普適方法。

        2 深度卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò),是受生物學(xué)上感受野的機(jī)制而提出的,已成為當(dāng)前語音分析和圖像識別領(lǐng)域的研究熱點。卷積神經(jīng)網(wǎng)絡(luò)通過使用卷積層代替部分全連接層以及添加子采樣層,獲得了3種結(jié)構(gòu)上的特性:局部連接,權(quán)重共享以及空間或時間上的次采樣。這些特性使得卷積神經(jīng)網(wǎng)絡(luò)具有一定程度上的平移、縮放和扭曲不變性[13]。

        深度神經(jīng)網(wǎng)絡(luò)可以從原始輸入數(shù)據(jù)中自動發(fā)現(xiàn)需要檢測的特征,進(jìn)行特征學(xué)習(xí)。通過堆疊多個隱藏層,深度神經(jīng)網(wǎng)絡(luò)能夠逐層學(xué)習(xí)到更加抽象復(fù)雜的特征,其中每一層學(xué)習(xí)到的特征表達(dá)都是前一層學(xué)習(xí)到的簡單特征表達(dá)的組合。比如對于圖像分類任務(wù),圖像往往以像素矩陣的形式作為原始輸入,第一層可以通過比較相鄰像素之間的亮度識別邊緣。給定第一個隱藏層對邊緣的描述,第二個隱藏層可以檢測角和輪廓,這些角和輪廓可以被看作是邊緣的集合。給定第二個隱藏層對角和輪廓的描述,第三個隱藏層可以通過查找角和輪廓的特定集合來檢測特定對象的整個部分。以此類推,之后的每一個隱藏層都是對前一個隱藏層檢測到的特征組合的描述。最后,所得到的描述可以用于識別圖像中存在的對象。對于深度學(xué)習(xí)而言,這些特征和隱藏層并不需要通過人工設(shè)計,它們都可以通過通用的學(xué)習(xí)過程得到。

        對于金錢豹花紋而言,可能會由于光線、拍攝角度以及金錢豹的行動等因素造成花紋亮度及其形狀的變化,但是花紋間的結(jié)構(gòu)是不變的。深度卷積神經(jīng)網(wǎng)絡(luò)可以自主進(jìn)行特征學(xué)習(xí),檢測出花紋結(jié)構(gòu),且對多種變形具有不變性。本文首次使用深度卷積神經(jīng)網(wǎng)絡(luò)來實現(xiàn)金錢豹的個體識別。結(jié)果表明,該方法具有很好的預(yù)測準(zhǔn)確性。

        2.1 卷積

        卷積神經(jīng)網(wǎng)絡(luò)得名于使用卷積層代替部分全連接層,即在部分隱藏層使用卷積運(yùn)算代替矩陣相乘。應(yīng)用于圖像識別領(lǐng)域,指輸出圖像中的每個像素都是由輸入圖像對應(yīng)位置的小區(qū)域的像素通過加權(quán)平均得到的,相應(yīng)的權(quán)值矩陣就稱作卷積核。卷積的結(jié)果經(jīng)激活函數(shù)后輸出該層的特征圖。卷積層可以看作是對輸入圖像進(jìn)行“抽象”的操作,經(jīng)過幾次處理之后,能夠提取出圖像的“特征值”。一般地,卷積層的計算形式為:

        (1)

        2.2 ReLU激活函數(shù)

        在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的作用是通過加入非線性因素,從而解決線性模型不能解決的問題。

        ReLU激活函數(shù)(The Rectified Linear Unit)是目前使用最多的激活函數(shù),其表達(dá)式為:f(x)=max(0,x),函數(shù)關(guān)系圖如圖1所示。

        圖1 ReLU激活函數(shù)Fig.1 Plot of the ReLU activation function

        相比傳統(tǒng)的Sigmoid和tanh函數(shù),ReLU激活函數(shù)的有效性體現(xiàn)在2個方面:a) 減輕梯度消失的問題;b) 加快訓(xùn)練速度。KRIZHEVSKY et al[14]指出,使用ReLU激活函數(shù)的深度卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練速度比同樣情況下使用tanh函數(shù)的訓(xùn)練速度快幾倍。

        2.3 池化

        卷積神經(jīng)網(wǎng)絡(luò)中的池化層歸納了同一個核特征圖中相鄰神經(jīng)元組的輸出,對輸入的特征圖進(jìn)行壓縮,一方面使特征圖變小,簡化網(wǎng)絡(luò)計算復(fù)雜度;一方面進(jìn)行特征壓縮,提取主要特征。常見的池化操作為平均池化(Ave)和最大池化(Max).通常,由鄰接池化單元歸納的鄰域并不重疊。確切地說,一個池化層可以被看作是包含了每間隔stride個像素的池化單元的柵格組成,每一個都?xì)w納了以池化單元為中心大小為sizeX×sizeX的鄰域,這里stride即為步長,sizeX指定池化層核的大小。如果令stride=sizeX,將會得到非重疊池化。若令stride

        本文模型使用了3個池化層,共有8種池化方式的組合,最終通過實驗選取相對于實驗數(shù)據(jù)最合適的池化組合。

        3 基于Cifar-10卷積神經(jīng)網(wǎng)絡(luò)的改進(jìn)模型

        Cifar-10是由KRIZHEVSKY和SUTSKEVER收集的一個用于普適物體識別的數(shù)據(jù)集。Cifar-10由60 000張像素的RGB彩色圖片構(gòu)成,共10個分類。其中50 000張用于訓(xùn)練,10 000張用于測試。Cifar-10快速簡易模型是基于該數(shù)據(jù)集推出的一個深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),理論上這個網(wǎng)絡(luò)容量可以把驗證集錯誤率降到25%左右。

        3.1 整體結(jié)構(gòu)

        本文模型參考了Cifar-10快速簡易模型。結(jié)構(gòu)方面,該模型包含5個學(xué)習(xí)層(3個卷積層和2個全連接層)。每一個卷積層后面都添加了池化層,其中,第一個卷積層之后采用最大池化,第二、三個卷積層之后采用平均池化。激活函數(shù)均使用ReLU函數(shù),除最后一個全連接層使用了Softmax函數(shù)。參數(shù)方面,該模型初始化每一層的權(quán)重,服從均值為0,標(biāo)準(zhǔn)差分別為0.000 1,0.01,0.01,0.1,0.1的高斯分布。初始化第二個卷積層以及第一個全連接隱層的偏置項為常數(shù)1.這種初始化通過向 ReLUs提供正的輸入來加速學(xué)習(xí)的早期階段。初始化其余層的神經(jīng)元偏置項為常數(shù)0.對于每一個卷積層的輸入,對其向外擴(kuò)充兩個像素點,以使得卷積運(yùn)算之后的特征圖大小不變。對于每一個卷積層,為防止損失太多信息,步長設(shè)置為1,卷積核的大小設(shè)置為5×5.對于每一個池化層,設(shè)置步長為2,核的大小為3×3.在輸入層,模型通過對原始數(shù)據(jù)減去像素均值以提高精度。

        3.2 引入Dropout防止過擬合

        對于深度神經(jīng)網(wǎng)絡(luò)而言,需要學(xué)習(xí)的參數(shù)較多,容易出現(xiàn)過擬合現(xiàn)象。本文使用的金錢豹數(shù)據(jù)相對于模型需要學(xué)習(xí)的參數(shù)來說較少,很容易發(fā)生過擬合。因此,本文選取一種非常有效的方法——“Dropout”防止訓(xùn)練得到的模型過擬合。

        “Dropout”的思想是在每一輪訓(xùn)練過程中,將每一個隱藏神經(jīng)元以固定的概率p“丟棄”。 這些以這種方式被“丟棄”的神經(jīng)元的輸出被設(shè)置為0,它們既不會參加前向傳遞,也不會參與反向傳播。而那些以概率(1-p)被保留下來的神經(jīng)元構(gòu)成了一個新的“瘦”的神經(jīng)網(wǎng)絡(luò)。這樣對于每一次輸入,神經(jīng)網(wǎng)絡(luò)都會學(xué)習(xí)到一個不同的結(jié)構(gòu)。因此,使用“Dropout”之后,可以將一個大網(wǎng)絡(luò)看做是多個小網(wǎng)絡(luò)的組合。最后通過對多個模型的輸出取平均來得到最終結(jié)果。這種方式相當(dāng)于綜合考慮多種不同模型的預(yù)測結(jié)果,可以有效降低測試誤差,提高預(yù)測的準(zhǔn)確度,而且能夠有效地防止過擬合,顯著降低泛化誤差。需要指出的是,如果神經(jīng)元在訓(xùn)練期間以概率(1-p)保留,那么該神經(jīng)元的輸出權(quán)重在測試期間要乘以(1-p).這確保了對于任何隱藏神經(jīng)元的輸出的期望(在已知訓(xùn)練期間被“丟棄”的神經(jīng)元的分布下)與測試時的實際輸出相同[15]。本文模型在第一個全連接層使用了“Dropout”,Nitish Srivastava等指出,使用“Dropout”時,在簡單情形下,使用驗證集選擇p值或直接設(shè)置p=0.5,可使通用網(wǎng)絡(luò)模型近似最優(yōu)[15]。本文設(shè)置p=0.5,即每一個神經(jīng)元有50%的概率被“丟棄”。

        圖2 標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)(左)與應(yīng)用“Dropout”之后的神經(jīng)網(wǎng)絡(luò)(右)Fig.2 A standard neural net with 2 hidden layers (Left) and an example of a thinned net produced by applying dropout to the network (Right)

        3.3 池化方式組合優(yōu)化

        Cifar-10 快速簡易模型的3個池化層分別為Max-Ave-Ave.為了更好地擬合實驗數(shù)據(jù),本文對池化層的組合方式進(jìn)行了調(diào)整,最優(yōu)組合方式通過實驗確定。

        3.4 改進(jìn)模型整體結(jié)構(gòu)

        最終改進(jìn)模型結(jié)構(gòu)如圖3,圖4所示。

        圖3 金錢豹左側(cè)中部數(shù)據(jù)最優(yōu)模型整體結(jié)構(gòu)Fig.3 Overall structure of the optimal model about leopard left middle data

        圖4 金錢豹右側(cè)中部數(shù)據(jù)最優(yōu)模型整體結(jié)構(gòu)Fig.4 Overall structure of the optimal model about leopard right middle data

        本文模型改進(jìn)主要是加倍了神經(jīng)元的個數(shù)以學(xué)習(xí)到更多的特征結(jié)構(gòu),添加了“Dropout”層來防止模型過擬合,并對池化層的組合方式進(jìn)行了適當(dāng)?shù)卣{(diào)整。可以發(fā)現(xiàn)左側(cè)中部數(shù)據(jù)的最優(yōu)模型池化層的組合方式與Cifar-10快速簡易模型是相同的。而右側(cè)中部數(shù)據(jù)的最優(yōu)模型的第一個和第二個池化層都進(jìn)行了改變。說明沒有哪一種模型是最好的,我們需要通過針對實驗數(shù)據(jù)對模型進(jìn)行靈活改動,以訓(xùn)練得到針對實驗數(shù)據(jù)的最佳模型。

        4 實驗

        4.1 數(shù)據(jù)描述

        本文使用的金錢豹數(shù)據(jù)來源于山西沃成生態(tài)環(huán)境研究所2010-2016年數(shù)據(jù)。

        目前通過人眼目視識別的豹子有80只左右,但對于不同豹子所獲得的影像數(shù)據(jù)數(shù)量不等。選取了其中影像數(shù)據(jù)量較多的3只豹子進(jìn)行識別分類,使用體側(cè)中部數(shù)據(jù)訓(xùn)練與驗證模型,可觀察到金錢豹體側(cè)中部的影像數(shù)據(jù)量如表1所示。

        表1 可觀察到金錢豹體側(cè)中部的影像數(shù)據(jù)量Table 1 Amount of images that can be observed leopard body-side middle

        4.2 數(shù)據(jù)預(yù)處理

        對于金錢豹影像數(shù)據(jù),首先使用Adobe Premiere Pro CC工具將視頻以每秒24幀的方式導(dǎo)出圖片,然后對導(dǎo)出的圖片進(jìn)行高效選擇:對于可以直觀明顯地觀測到體側(cè)中部花紋的圖片,按其連續(xù)動作進(jìn)行保存,對于圖片質(zhì)量稍差的圖片,從中選取幾幀典型動作(花紋較明顯)進(jìn)行保存。這里的質(zhì)量稍差指的是由于光線、角度以及金錢豹的行動造成的體側(cè)中部部分過亮或過暗、花紋不夠直觀明顯以及扭曲過于嚴(yán)重。接下來將篩選得到的圖片與直接獲取得到的質(zhì)量較好的金錢豹圖片導(dǎo)入Adobe Photoshop CS6進(jìn)行裁剪,獲得體側(cè)中部圖像。在利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像識別時,對于輸入層(圖像層),通常把數(shù)據(jù)歸一化成2的次方的長寬像素值。通過觀察待裁剪圖片的像素大小,本文將圖片統(tǒng)一裁剪為64×64像素大小。最后進(jìn)一步篩選適用于模型訓(xùn)練與驗證的圖片。統(tǒng)計數(shù)量如表2所示。

        表2 適用于模型訓(xùn)練與驗證的圖片數(shù)量Table 2 Number of pictures applicable for model training and verification

        圖5展示了通過預(yù)處理得到的用于模型訓(xùn)練的3只金錢豹的左側(cè)中部花紋數(shù)據(jù)的部分樣本數(shù)據(jù)。

        圖5 用于模型訓(xùn)練的3只金錢豹左側(cè)中部花紋對比圖Fig.5 Contrast chart of three leopard left-side middle pattern which used model training

        4.3 實驗驗證與討論

        4.3.1 數(shù)據(jù)集的構(gòu)建

        每次實驗,從各類樣本中隨機(jī)選取90張圖片作為訓(xùn)練集,剩余樣本構(gòu)成驗證集。對于兩側(cè)數(shù)據(jù),分別隨機(jī)選取3組互不相容的訓(xùn)練集與驗證集。其中訓(xùn)練集圖片在裁剪時以體側(cè)中部花紋為中心,截取體側(cè)中部。驗證集圖片簡單截取體側(cè)中部,盡量使體側(cè)中部居中,未刻意尋找中心花紋。參與模型的數(shù)據(jù)分布如表3.

        表3 參與模型訓(xùn)練與驗證的數(shù)據(jù)分布Table 3 Data distribution used model training and verification

        4.3.2 參數(shù)配置

        SRIVASTAVA et al[15]指出,使用“Dropout”時,0.95~0.99之間的動量值相對更好。不僅可以顯著加快學(xué)習(xí)速度,還可以有效降低噪音,所以本文中動量值設(shè)置為0.95.

        本次實驗使用隨機(jī)梯度下降法訓(xùn)練模型,最大迭代次數(shù)為1 000,基礎(chǔ)學(xué)習(xí)率為0.000 01,權(quán)重衰減參數(shù)為0.004. 權(quán)重衰減項可以控制神經(jīng)網(wǎng)絡(luò)的正則化項,一定程度上防止模型過擬合[14]。權(quán)重w的更新規(guī)則是

        (2)

        wi+1=wi+vi+1.

        (3)

        4.3.3 實驗平臺

        平臺方面,本文選取在Linux ubuntu16.04.2系統(tǒng)上搭建Caffe框架,進(jìn)行模型訓(xùn)練。

        Caffe(convolutional architecture for fast feature embedding)是由在Google工作的賈揚(yáng)清博士及其團(tuán)隊一同研制的一款用來計算卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)開源框架。其優(yōu)勢主要體現(xiàn)在高效的運(yùn)行速度上。Caffe可以通過文本文件的更改來實現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)的調(diào)整,從而避免了通過繁瑣的編碼進(jìn)行網(wǎng)絡(luò)優(yōu)化。Caffe支持CPU和GPU運(yùn)算的轉(zhuǎn)換,同時實現(xiàn)了多GPU的并行運(yùn)算,從而可以最大程度地提高計算效率。Caffe是基于BSD2-Clause協(xié)議的C++/CUDA架構(gòu),支持終端指令、Python和MATLAB等接口[16]。

        5 結(jié)果分析

        5.1 性能指標(biāo)

        本次試驗使用3組數(shù)據(jù)的平均準(zhǔn)確率來衡量模型預(yù)測結(jié)果的準(zhǔn)確度,使用準(zhǔn)確率的標(biāo)準(zhǔn)差來衡量模型的穩(wěn)定性,使用平均損失來衡量模型預(yù)測正確的可能性的大小。

        準(zhǔn)確率a和損失bloss的計算公式分別為:

        (4)

        圖6 使用金錢豹左右兩側(cè)體側(cè)中部數(shù)據(jù)建立模型,在驗證集上得到的平均準(zhǔn)確率、準(zhǔn)確率標(biāo)準(zhǔn)差與平均損失Fig.6 Using Leopard left and right body-sides middle pattern to build the model, the average accuracy, the standard deviation of accuracy and the average loss on validation set

        (5)

        從圖6可以看出,對于金錢豹左側(cè)中部數(shù)據(jù),池化層組合方式為MAX-AVE-AVE的模型平均預(yù)測準(zhǔn)確率較高且更穩(wěn)定,平均損失也基本穩(wěn)定在最低值;對于金錢豹右側(cè)中部數(shù)據(jù),池化層組合方式為AVE-MAX-AVE的模型的平均預(yù)測準(zhǔn)確率較好且相對更穩(wěn)定,平均損失也基本始終保持在最低值。

        5.2 結(jié)果分析

        綜合考慮平均準(zhǔn)確率、準(zhǔn)確率標(biāo)準(zhǔn)差、平均損失3種評價指標(biāo),對于左側(cè)中部數(shù)據(jù),本文模型選取池化層為MAX-AVE-AVE的組合方式,對于右側(cè)中部數(shù)據(jù),本文模型選取池化層為AVE-MAX-AVE的組合方式。其訓(xùn)練結(jié)果如表4所示。

        表4 訓(xùn)練結(jié)果隨迭代次數(shù)的變化Table 4 Training results vary with the number of iterations

        通過觀察實驗結(jié)果,可以發(fā)現(xiàn)本文模型的預(yù)測準(zhǔn)確率高達(dá)99.3%以上,且損失較低,說明模型以很高的概率預(yù)測到了正確類別。而且對于左右兩側(cè)中部數(shù)據(jù),本文通過實驗的方式選取了不同的池化組合。在實際訓(xùn)練模型時,我們需要根據(jù)實驗數(shù)據(jù)適當(dāng)?shù)恼{(diào)整模型結(jié)構(gòu),以訓(xùn)練得到相對于實驗數(shù)據(jù)的最優(yōu)模型。

        6 總結(jié)與展望

        本文基于山西沃成生態(tài)環(huán)境研究所通過紅外相機(jī)采集的大量金錢豹影像數(shù)據(jù),首次將深度學(xué)習(xí)方法應(yīng)用到金錢豹個體識別研究中,通過適當(dāng)改進(jìn)的Cifar-10深度學(xué)習(xí)模型,借助Caffe深度學(xué)習(xí)框架進(jìn)行模型訓(xùn)練,得到較優(yōu)的金錢豹個體識別深度學(xué)習(xí)模型。最終得到的深度學(xué)習(xí)模型可以達(dá)到99.3%的識別準(zhǔn)確率,能夠有效識別金錢豹個體。之后可以依據(jù)此方法分析金錢豹生存現(xiàn)狀,為金錢豹棲息地的保護(hù)提供理論基礎(chǔ)。

        本文根據(jù)已有數(shù)據(jù)構(gòu)建了豐富的圖像數(shù)據(jù)庫,之后拍攝到的新的金錢豹圖像可與當(dāng)前圖像庫中的豹紋圖片進(jìn)行比對,實現(xiàn)個體識別,擴(kuò)充數(shù)據(jù)庫。且隨著獲取到的圖像資料的增加,可以根據(jù)金錢豹的頭部、尾部、體側(cè)花紋分別構(gòu)建模型,然后將其集成為一個系統(tǒng),以便之后可以進(jìn)行推廣使用。

        猜你喜歡
        體側(cè)金錢豹池化
        基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識別方法研究
        無線電工程(2024年8期)2024-09-16 00:00:00
        基于Sobel算子的池化算法設(shè)計
        吃煩惱的金錢豹
        卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
        駱駝的秘密武器
        金錢豹身上的彩紋
        六字訣防神經(jīng)病變
        基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識別研究
        腰部保健操 消除久坐疲勞
        新天地(2017年4期)2017-04-17 20:56:05
        駱駝和金錢豹
        边啃奶头边躁狠狠躁| 日本视频在线播放一区二区| 人妻少妇哀求别拔出来| 性欧美老人牲交xxxxx视频| 亚洲色图视频在线| 伊人不卡中文字幕在线一区二区| 中文字幕女同人妖熟女| 亚洲欧美国产精品久久| 国产精品成人99一区无码| 亚欧免费视频一区二区三区| 久久精品视频日本免费| 欧美黑人又粗又大xxxx| 精品无码一区二区三区亚洲桃色| 最新欧美一级视频| 女主播国产专区在线观看| 亚洲午夜久久久久久久久电影网| 久久久久亚洲精品天堂| 狠狠躁夜夜躁人人爽天天不卡| 麻豆精品在线视频观看| 亚洲国产成人精品无码区在线秒播| 久久免费看少妇高潮v片特黄| 久久精品国产亚洲AV高清wy| 在线国人免费视频播放| 人妻哺乳奶头奶水| 欧美理论在线| 午夜亚洲精品视频网站| 51国产偷自视频区视频| 97se亚洲国产综合自在线| 成人精品国产亚洲欧洲| 成熟的女人毛茸茸色视频| 一区二区三区中文字幕| 久久中文字幕乱码免费| 久久深夜中文字幕高清中文| 图片小说视频一区二区| 午夜丰满少妇性开放视频| 色窝综合网| 精品人妻一区二区三区在线观看 | 啊v在线视频| 国产一区二区三区青青草| 国产av一区二区三区传媒| 国产成人免费a在线视频|