亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的蜜蜂采集花粉行為的識(shí)別方法

        2020-08-17 10:19:12王立揚(yáng)
        河南農(nóng)業(yè)科學(xué) 2020年8期
        關(guān)鍵詞:深度模型研究

        薛 勇,王立揚(yáng),張 瑜,沈 群,4

        (1.中國(guó)農(nóng)業(yè)大學(xué) 食品科學(xué)與營(yíng)養(yǎng)工程學(xué)院,北京 100083; 2.中國(guó)農(nóng)業(yè)大學(xué) 國(guó)家果蔬加工工程技術(shù)研究中心,北京 100083; 3.中國(guó)農(nóng)業(yè)大學(xué) 信息與電氣工程學(xué)院,北京 100083; 4.中國(guó)農(nóng)業(yè)大學(xué) 植物蛋白與谷類加工北京市重點(diǎn)實(shí)驗(yàn)室,北京 100083)

        蜜蜂是自然生態(tài)系統(tǒng)中最重要的單一傳粉媒介物種,人們利用蜜蜂為農(nóng)作物等傳授花粉,從而大幅提高糧食產(chǎn)量。近年來(lái),由于生存環(huán)境遭破壞及病蟲(chóng)害威脅等原因?qū)е旅鄯鋽?shù)量不斷減少,出現(xiàn)“蜜蜂危機(jī)”[1],繼而可能影響農(nóng)作物的產(chǎn)量和質(zhì)量。花粉和花蜜是蜜蜂的主要食物來(lái)源,蜜蜂在采集花粉和花蜜時(shí),攜粉足會(huì)收集花粉并形成花粉團(tuán)。其中,花粉的采集與蜜蜂的授粉效率密切相關(guān),同時(shí)蜜蜂所攜帶的花粉團(tuán)是一種高蛋白質(zhì)和低脂肪的營(yíng)養(yǎng)保健食品。因此,實(shí)時(shí)監(jiān)測(cè)蜜蜂覓食行為,不僅有助于評(píng)估當(dāng)?shù)剞r(nóng)作物授粉狀況[2],也有助于及時(shí)采取措施提高蜜蜂產(chǎn)品的產(chǎn)量和品質(zhì),增加蜜蜂養(yǎng)殖產(chǎn)業(yè)的附加值。近年來(lái),隨著精準(zhǔn)養(yǎng)蜂(Precise beekeeping,PB)概念提出,如何利用現(xiàn)代技術(shù)對(duì)蜜蜂行為(尤其覓食行為)進(jìn)行監(jiān)測(cè)與分析成為未來(lái)智能農(nóng)業(yè)發(fā)展導(dǎo)向之一[3]。STREIT等[4]提出基于射頻識(shí)別(Radio frequency identification,RFID)對(duì)昆蟲(chóng)單一個(gè)體跟蹤,較早實(shí)現(xiàn)昆蟲(chóng)監(jiān)測(cè),但強(qiáng)電磁波具有侵入性,易對(duì)監(jiān)測(cè)對(duì)象造成影響。最近,計(jì)算機(jī)視覺(jué)(Computer vision,CV)在監(jiān)測(cè)動(dòng)物行為方面研究較為深入,如肖德琴等[5]設(shè)計(jì)基于視頻追蹤的家豬運(yùn)動(dòng)監(jiān)測(cè)方法,勞鳳丹等[6]借助機(jī)器視覺(jué)對(duì)蛋雞行為進(jìn)行識(shí)別,取得良好效果。王俊等[7]構(gòu)建最優(yōu)二叉決策樹(shù)分類模型對(duì)奶牛運(yùn)動(dòng)行為進(jìn)行分類識(shí)別,陳彩文等[8]利用灰度差分統(tǒng)計(jì)法、灰度共生矩陣和高斯馬爾科夫隨機(jī)場(chǎng)模型提取魚(yú)群紋理特征,最后利用支持向量機(jī)(Support vector machine,SVM)對(duì)魚(yú)群圖像進(jìn)行分類識(shí)別,降維后達(dá)到0.935 0的識(shí)別準(zhǔn)確率。但有關(guān)蜜蜂行為的圖像識(shí)別卻鮮有報(bào)道[9],國(guó)外也僅有少量研究[10-13]。

        卷積神經(jīng)網(wǎng)絡(luò)(Convolution neural network,CNN)是一種深度前饋人工神經(jīng)網(wǎng)絡(luò),其人工神經(jīng)元可以響應(yīng)一部分覆蓋范圍內(nèi)的單元,對(duì)于大型圖像處理有出色表現(xiàn)。自20世紀(jì)末LeNet-5的誕生[14],到2012年ALEX等憑借AlexNet獲得當(dāng)年ImageNet比賽(大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽)冠軍,再到后來(lái)深層卷積神經(jīng)網(wǎng)絡(luò)(DCNN)的出現(xiàn)促進(jìn)醫(yī)療診斷等領(lǐng)域的發(fā)展[15]。利用CNN模型識(shí)別蜜蜂覓食行為,監(jiān)測(cè)蜜蜂個(gè)體情況對(duì)動(dòng)物行為進(jìn)行研究是一種新穎的思路,RODRIGUEZ等[16]借助基線分類算法、淺層CNN模型以及深層CNN模型對(duì)攜帶花粉蜜蜂的識(shí)別展開(kāi)研究,結(jié)果表明,淺層CNN模型表現(xiàn)較好。

        本研究設(shè)計(jì)5種CNN架構(gòu)并采用GoogLeNet V1的深度遷移模型,用于監(jiān)測(cè)視頻圖像中蜜蜂是否攜帶花粉。將計(jì)算機(jī)視覺(jué)技術(shù)引入蜜蜂覓食行為(是否攜帶花粉)的監(jiān)測(cè),設(shè)計(jì)5種淺層卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行對(duì)比分析,并與深層網(wǎng)絡(luò)GoogLeNet V1的遷移學(xué)習(xí)進(jìn)行對(duì)比,以尋找適合監(jiān)測(cè)蜜蜂覓食行為的最優(yōu)模型。

        1 材料和方法

        1.1 工作流程

        準(zhǔn)備工作包括圖像采集、預(yù)處理;主線工作包括CNN架構(gòu)的搭建、訓(xùn)練過(guò)程及調(diào)參、結(jié)果對(duì)比與分析;基線工作包括傳統(tǒng)機(jī)器學(xué)習(xí)的特征工程、分類器的選擇與訓(xùn)練、結(jié)果對(duì)比與分析(圖1)。試驗(yàn)對(duì)比不同深度網(wǎng)絡(luò)的特點(diǎn),并對(duì)不同網(wǎng)絡(luò)運(yùn)用在不同實(shí)際情況進(jìn)行討論。

        1.2 材料獲取

        本研究采用Kaggle公司的公開(kāi)訪問(wèn)數(shù)據(jù)集,該數(shù)據(jù)集根據(jù)2017年6月在波多黎各大學(xué)Gurabo農(nóng)業(yè)實(shí)驗(yàn)站拍攝的2段蜂群入口處的視頻(10:00和13:00,時(shí)長(zhǎng)各1 h)裁剪而來(lái),包括369幅攜帶花粉和345幅不攜帶花粉的高分辨率蜜蜂照片。值得注意的是,為檢測(cè)自然環(huán)境下模型的適應(yīng)性,該視頻分別在不同光照條件下錄制,并將所獲得的蜜蜂照片裁剪矩形的大小固定為180像素×300像素,這樣帶注釋的胸腔位置就會(huì)以坐標(biāo)(90,100)為中心出現(xiàn),并且蜜蜂是完全可見(jiàn)的。

        該視頻采集系統(tǒng)(圖2)由蜂箱、攝像頭、入口處以及遮光板組成。其中,攝像裝置使用4 Mpixels GESS IP攝像頭連接到8 Mbps的網(wǎng)絡(luò)錄像機(jī)上進(jìn)行連續(xù)錄制,遮光板利用透明的丙烯酸塑料蓋遮蓋在裝置頂部,同時(shí)為避免干擾蜜蜂生物周期只使用自然光。

        圖1 研究流程Fig.1 Research process

        ①:蜂箱; ②:攝像頭; ③:入口; ④:遮光板①:Beehive; ②:Camera; ③:Entrance; ④:Visor 圖2 視頻采集系統(tǒng)Fig.2 Video capture system

        1.3 數(shù)據(jù)預(yù)處理

        在圖像分析中,預(yù)處理是對(duì)輸入圖像進(jìn)行特征抽取、分割和匹配前所進(jìn)行的處理。其主要目的是消除圖像中無(wú)關(guān)的信息,恢復(fù)有用的真實(shí)信息,增強(qiáng)有關(guān)信息的可檢測(cè)性和最大限度地簡(jiǎn)化數(shù)據(jù)。研究中首先對(duì)原始數(shù)據(jù)集(圖3)進(jìn)行數(shù)據(jù)增強(qiáng)。數(shù)據(jù)增強(qiáng)是深度學(xué)習(xí)中增加訓(xùn)練數(shù)據(jù)量、提升模型泛化能力和魯棒性的有效技術(shù)手段[17],常見(jiàn)方法包括圖像旋轉(zhuǎn)180°(圖4a)、圖像水平翻轉(zhuǎn)(圖4b)、加入Gaussian噪聲(圖4c)等。本研究對(duì)數(shù)據(jù)集進(jìn)行上述處理后獲得1 476幅攜帶花粉蜜蜂圖和1 380幅未攜帶花粉蜜蜂圖,共計(jì)2 856個(gè)數(shù)據(jù)樣本。

        圖3 部分原始蜜蜂數(shù)據(jù)集對(duì)比Fig.3 Comparison of some raw bee data sets

        a:圖像旋轉(zhuǎn)180°;b:圖像水平翻轉(zhuǎn);c:加入Gaussian噪聲;d:直方圖均衡化;e:對(duì)應(yīng)直方圖;f:Lab空間轉(zhuǎn)換a:Image rotated by 180°;b:Image flipped horizontally;c:Added gaussian noise;d:Histogram equalization;e:Corresponding histogram;f:Lab space conversion圖4 原始數(shù)據(jù)集的數(shù)據(jù)增強(qiáng)處理Fig.4 Data augmentation treatment of original data base

        由于數(shù)據(jù)拍攝時(shí)間不統(tǒng)一導(dǎo)致圖像亮度不一致,因此有必要對(duì)其進(jìn)行圖像增強(qiáng)。圖像增強(qiáng)通過(guò)一定手段對(duì)原圖像附加一些信息或變換數(shù)據(jù),有選擇地突出圖像中感興趣區(qū)域(Region of interest,ROI)或者抑制(掩蓋)圖像中某些不需要的特征,使圖像與視覺(jué)響應(yīng)特性相匹配。常見(jiàn)方法為對(duì)比度拉升、Gamma校正、同態(tài)濾波器以及直方圖均衡化。本研究采用直方圖均衡化以增強(qiáng)圖像局部對(duì)比度,該方法增加灰度值的動(dòng)態(tài)范圍,使亮度更好地在直方圖上均勻分布。研究中設(shè)置直方圖離散水平為64,效果如圖4d,對(duì)應(yīng)直方圖如圖4e。

        本研究還對(duì)數(shù)據(jù)集顏色空間進(jìn)行轉(zhuǎn)換,將原始RGB彩色空間轉(zhuǎn)換為L(zhǎng)ab顏色空間,Lab空間色域?qū)掗?,不僅包含了RGB、CMYK的所有色域,還能表現(xiàn)其不能表現(xiàn)的色彩,彌補(bǔ)了RGB色彩模型和CMYK色彩模式色彩分布不均的不足。Lab顏色空間中亮度和顏色是分開(kāi)的, L通道沒(méi)有顏色,a通道和b通道只有顏色,因此調(diào)節(jié)操作簡(jiǎn)單,Lab空間轉(zhuǎn)換后如圖4f。

        1.4 模型構(gòu)建

        目前,深度學(xué)習(xí)在各領(lǐng)域中獲得極大成功,這與神經(jīng)網(wǎng)絡(luò)復(fù)雜性密切相關(guān),而提升網(wǎng)絡(luò)復(fù)雜性以增加網(wǎng)絡(luò)深度和寬度為主。本研究對(duì)神經(jīng)網(wǎng)絡(luò)深度展開(kāi)研究,分析不同深度的神經(jīng)網(wǎng)絡(luò)模型的效果從而尋找不同實(shí)際條件下的最適模型。研究設(shè)計(jì)7、9、11、13、15層共5種的CNN架構(gòu),其中,卷積層分別為2~6層,同時(shí)與目前數(shù)據(jù)挖掘挑戰(zhàn)賽主流算法GoogLeNet V1(22層)的深度遷移學(xué)習(xí)進(jìn)行對(duì)比,以構(gòu)建最優(yōu)化蜜蜂覓食自動(dòng)監(jiān)測(cè)模型。

        1.4.1 淺層CNN結(jié)構(gòu)設(shè)計(jì) CNN主要結(jié)構(gòu)包括卷積層、下采樣層(池化層)和全連接層。卷積層由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過(guò)反向傳播算法最佳化得到,目的是提取輸入的不同特征,因此是CNN的核心。池化層分為最大池化(Max pooling)與平均池化(Average pooling),通常以最大池化為主。池化層可以非常有效地縮小參數(shù)矩陣尺寸,從而減少最后全連層中的參數(shù)量,既可以加快計(jì)算速度也可以防止過(guò)擬合。全連接層的每個(gè)結(jié)點(diǎn)都與上1層的所有結(jié)點(diǎn)相連,用以把前邊提取到的特征綜合起來(lái),一般全連接層的參數(shù)也是最多的。其可以整合卷積層或者池化層中具有類別區(qū)分性的局部信息。本研究的淺層CNN采用輸入層—卷積層—池化層—全連接層—輸出層的基本架構(gòu),其中,卷積層與池化層交替連接,研究中依次增加卷積層與池化層的個(gè)數(shù),以增加網(wǎng)絡(luò)深度。各層設(shè)計(jì)具體如下:

        1.4.1.1 輸入層 研究采用預(yù)處理后的大小為32像素×32像素×3通道的蜜蜂圖片作為輸入。

        1.4.1.2 卷積層 在卷積操作中卷積核是可學(xué)習(xí)的參數(shù),常用的卷積核大小為3、5、7卷積,研究設(shè)置卷積核大小為5卷積。卷積核的步長(zhǎng)(Stride)設(shè)置為1,擴(kuò)充邊緣(Padding)設(shè)置為0。為探究網(wǎng)絡(luò)深度對(duì)模型效果的影響,依次增加卷積層層數(shù)(2~6層)。經(jīng)多次調(diào)參發(fā)現(xiàn),卷積層1~6層對(duì)應(yīng)分別為6、16、120、250、300、380種時(shí)模型效果最好。

        1.4.1.3 激勵(lì)層 激勵(lì)層中激勵(lì)函數(shù)提供非線性變化,若無(wú)激勵(lì)函數(shù),每一層節(jié)點(diǎn)的輸入都是上層輸出的線性函數(shù),輸出均為輸入的線性組合,即無(wú)法發(fā)揮隱藏層作用。傳統(tǒng)的激勵(lì)函數(shù)為sigmoid,該函數(shù)計(jì)算量較大且反向傳播時(shí)易造成梯度消失。目前深度神經(jīng)網(wǎng)絡(luò)大多采用ReLU函數(shù)作為激勵(lì)函數(shù),此函數(shù)不僅能減輕梯度彌散的問(wèn)題,而且計(jì)算量較小,但在學(xué)習(xí)速率較大時(shí)易造成神經(jīng)元大批量“消亡”。為解決此弊病,本研究采用LeakyReLU作為激勵(lì)函數(shù)。在該激勵(lì)函數(shù)作用下,當(dāng)神經(jīng)元未激活時(shí)仍有一個(gè)小梯度的非零值輸出,從而避免可能出現(xiàn)神經(jīng)元 “消亡”現(xiàn)象[18]。

        1.4.1.4 池化層 研究在每層卷積層后加入最大池化層,以減少上一級(jí)的參數(shù)矩陣尺寸。設(shè)置該層每個(gè)單元與上一層卷積層的特征圖的2×2鄰域相連接。

        1.4.1.5 全連接層 在本 CNN 結(jié)構(gòu)中,經(jīng)多個(gè)卷積層和池化層后,連接著1個(gè)全連接層。經(jīng)全連接層輸出后,利用softmax分類器進(jìn)行分類,輸出最后預(yù)測(cè)結(jié)果。

        1.4.1.6 Dropout層 研究在每個(gè)CNN架構(gòu)的全連接層后添加Dropout層,隨機(jī)讓網(wǎng)絡(luò)的某些節(jié)點(diǎn)輸出設(shè)置為0,也不更新權(quán)重,隨機(jī)刪除網(wǎng)絡(luò)中的一些隱藏神經(jīng)元,但使得輸入輸出神經(jīng)元數(shù)量相同,加入Dropout不僅能有效防止模型過(guò)擬合,而且取得較好的正則化效果,提升CNN的泛化能力。經(jīng)交叉驗(yàn)證,選擇Dropout為0.5。

        將5種CNN架構(gòu)按以上設(shè)置進(jìn)行設(shè)計(jì)(圖5),并進(jìn)行輸出結(jié)果對(duì)比分析。

        ①:卷積層;②:池化層;③:全連接層;④:Dropout層;⑤:輸出層①:Convolutional layer;②:Pooling layer;③:Fully connected layer;④:Dropout layer;⑤:Output layer圖5 淺層CNN結(jié)構(gòu)設(shè)計(jì)Fig.5 Shallow CNN structures design

        1.4.2 深層CNN結(jié)構(gòu)設(shè)計(jì) 為更好分析上述淺層CNN的模型效果,尋找最優(yōu)網(wǎng)絡(luò)結(jié)構(gòu),本研究使用2014年ImageNet挑戰(zhàn)賽的冠軍模型GoogLeNet進(jìn)行比較。GoogLeNet共有4個(gè)子模型,本研究選用其經(jīng)典版本GoogLeNet V1。為減小數(shù)據(jù)依賴性與提高訓(xùn)練效率,先在ImageNet上進(jìn)行預(yù)訓(xùn)練,得到初始模型而后進(jìn)行遷移學(xué)習(xí)。Inception是GoogLeNet的基礎(chǔ)模塊單元,其實(shí)現(xiàn)多尺度卷積提取多尺度局部特征,并經(jīng)過(guò)優(yōu)化訓(xùn)練得到最優(yōu)參數(shù)配置。研究選擇Inception的改進(jìn)版本作為深度遷移學(xué)習(xí)的基本單元,其改進(jìn)單元結(jié)構(gòu)如圖6。即通過(guò)1×1卷積、3×3卷積、5×5卷積和3×3最大池化構(gòu)成單位模塊,且3×3卷積和5×5卷積前添加1×1卷積,1×1卷積放在3×3最大池化之后以利于數(shù)據(jù)降維,從而降低龐大參數(shù)量帶來(lái)的計(jì)算量大的弊端。

        圖6 Inception改進(jìn)單元結(jié)構(gòu) Fig.6 Inception improved unit structure

        GoogLeNet V1共有22層網(wǎng)絡(luò)層數(shù),輸入層圖片大小224像素×224像素×3通道。該網(wǎng)絡(luò)共有9個(gè)Inception單元,包括Inception模塊的所有卷積在內(nèi)都用了ReLU修正線性單元激勵(lì)函數(shù),且使用Dropout層防止過(guò)擬合,最后采用平均池化層代替全連接層。整體結(jié)構(gòu)如圖7所示。

        1.5 CNN訓(xùn)練

        訓(xùn)練操作在Windows 10系統(tǒng)上完成,計(jì)算機(jī)配置為CPU Intel 酷睿 I7-6700 HQ、3.5GHz、內(nèi)存4 GB,編程均在MATLAB R2018a中進(jìn)行。針對(duì)上述衍生數(shù)據(jù)集,隨機(jī)抽取2 576幅(1 326幅帶花粉蜜蜂和1 250幅未帶花粉蜜蜂)圖像作為訓(xùn)練樣本,其余280幅作為驗(yàn)證樣本。同時(shí),訓(xùn)練數(shù)據(jù)集中隨機(jī)選取20%作為訓(xùn)練時(shí)的測(cè)試集。利用以上劃分后數(shù)據(jù)集分別進(jìn)行淺層、深層CNN的訓(xùn)練。

        訓(xùn)練時(shí)需對(duì)模型進(jìn)行調(diào)參,鑒于研究中對(duì)淺層CNN的5種架構(gòu)進(jìn)行對(duì)比研究,因此淺層CNN模型參數(shù)需保持一致。其中,初始學(xué)習(xí)速率是重要的參數(shù),通常在優(yōu)化的初始階段采用較大的學(xué)習(xí)率使模型有更大的搜索范圍,從而避免過(guò)早陷入局部極小值[19]。但較大學(xué)習(xí)速率易跨過(guò)極值點(diǎn)使得算法穩(wěn)定性較差,因此初始設(shè)置學(xué)習(xí)速率為0.01,觀察其損失函數(shù)的振蕩態(tài)勢(shì),當(dāng)達(dá)到穩(wěn)定時(shí)縮小到原始的0.1倍(即設(shè)置gamma=0.1),重復(fù)以上步驟直至尋找到時(shí)長(zhǎng)處于可接受范圍內(nèi)的最優(yōu)準(zhǔn)確率。其余參數(shù)按精度最優(yōu)原則進(jìn)行設(shè)置,最終使得5種淺層CNN與1種深層CNN均達(dá)到訓(xùn)練準(zhǔn)確率處于穩(wěn)定的狀態(tài)為止。模型基本參數(shù)設(shè)置見(jiàn)表1。

        圖7 GoogLeNet V1結(jié)構(gòu) Fig.7 GoogLeNet V1 structure

        表1 基本參數(shù)設(shè)置Tab.1 Basic parameter settings

        1.6 傳統(tǒng)機(jī)器學(xué)習(xí)

        為體現(xiàn)上述深度學(xué)習(xí)方法的優(yōu)越性,本研究還利用傳統(tǒng)機(jī)器學(xué)習(xí)方法與其對(duì)比。將預(yù)處理后的蜜蜂圖片作為數(shù)據(jù)集,特征工程時(shí)考慮到該數(shù)據(jù)集中蜜蜂拍攝位于不同時(shí)間段,光照強(qiáng)度不同,為最大程度避免光照對(duì)數(shù)據(jù)處理帶來(lái)的影響,選用提取圖像的方向梯度直方圖(Histogram of oriented gradient,HOG)作為分類器輸入的特征向量。HOG特征描述子最早用于靜態(tài)行人檢測(cè)[20],其是基于對(duì)稠密網(wǎng)格中歸一化的局部方向梯度直方圖的計(jì)算。實(shí)際操作中,將圖像分為小的元胞(cell),在每個(gè)元胞內(nèi)累加計(jì)算出一維的梯度方向(或邊緣方向)直方圖。同時(shí)通過(guò)將元胞組成更大的塊(blocks)并歸一化塊內(nèi)的所有元胞以獲得對(duì)光照和陰影的更好的魯棒性。本研究修改圖像分辨率為200像素×200像素,設(shè)置元胞大小為32 pixels×32 pixels,1個(gè)塊內(nèi)包含2個(gè)×2個(gè)元胞單元,最終每個(gè)樣本提取得到900維特征向量。

        本研究在分類器的選擇上采用經(jīng)典機(jī)器學(xué)習(xí)算法SVM、Bagging集成學(xué)習(xí)隨機(jī)森林(Random forest,RF)[21]與K最近鄰(K-nearest neighbor,K-NN)[22]。研究中導(dǎo)入特征向量進(jìn)行訓(xùn)練并進(jìn)行最優(yōu)化調(diào)參。

        2 結(jié)果與分析

        2.1 CNN訓(xùn)練結(jié)果

        5種淺層CNN與1種深層CNN訓(xùn)練迭代過(guò)程如圖8。對(duì)于前5種CNN模型,在同一迭代次數(shù)(1 545次)下模型均趨于穩(wěn)定。隨著模型層數(shù)遞增穩(wěn)定性增加且訓(xùn)練準(zhǔn)確率也有所上升。分析原因,神經(jīng)網(wǎng)絡(luò)越深,所提取的特征更加復(fù)雜,具有更好的非線性表達(dá)能力,因此網(wǎng)絡(luò)魯棒性提升[23]。但值得注意,隨網(wǎng)絡(luò)層數(shù)增加,模型達(dá)到穩(wěn)定狀態(tài)的迭代次數(shù)增多,這意味著完成模型訓(xùn)練需要更大的計(jì)算代價(jià)。圖8f展示GoogLeNet V1遷移學(xué)習(xí)的訓(xùn)練過(guò)程,與淺層CNN不同的是,該訓(xùn)練過(guò)程具有更高的穩(wěn)定性,且相比于其他深層網(wǎng)絡(luò),該網(wǎng)絡(luò)達(dá)到穩(wěn)定趨勢(shì)的迭代過(guò)程也較短。從網(wǎng)絡(luò)結(jié)構(gòu)分析,首先GoogLeNet V1不同于VGG等深度網(wǎng)絡(luò),GoogLeNet做了更大膽的網(wǎng)絡(luò)上的嘗試,采用Inception單元模塊而不是像VGG繼承了LeNet以及AlexNet的一些框架,該模型雖然有22層,但卻比AlexNet和VGG都小很多,性能優(yōu)越。因此能在保證準(zhǔn)確率的情況下最大程度地輕化網(wǎng)絡(luò),提升訓(xùn)練效率。其次,本研究在初始預(yù)訓(xùn)練的GoogLeNet V1網(wǎng)絡(luò)上進(jìn)行了遷移,進(jìn)一步加快模型訓(xùn)練。但不可否認(rèn), GoogLeNet V1即便結(jié)構(gòu)改進(jìn),參數(shù)量?jī)H為AlexNet的1/12(500萬(wàn)),但其參數(shù)總量仍然巨大,這對(duì)計(jì)算設(shè)備提出了較高的要求。

        a:7層CNN模型;b:9層CNN模型;c:11層CNN模型;d:13層CNN模型;e:15層CNN模型;f:GoogLeNet遷移模型(22層)a:7-Layer CNN model;b:9-Layer CNN model;c:11-Layer CNN model;d:13-Layer CNN model;e:15-Layer CNN model; f:GoogLeNet transfer model(22 layers)圖8 不同深度CNN訓(xùn)練迭代過(guò)程Fig.8 CNN training iterative processes at different depths

        2.2 模型性能評(píng)估

        本研究從蜜蜂覓食自動(dòng)監(jiān)測(cè)的實(shí)際需求出發(fā),選取測(cè)試準(zhǔn)確率、損失函數(shù)值以及訓(xùn)練時(shí)間對(duì)6種CNN模型進(jìn)行效果評(píng)估(如表2)。對(duì)于淺層CNN,擁有4層卷積層(11-Layer)的模型測(cè)試準(zhǔn)確率最高,達(dá)到0.903 6,其次是擁有2層卷積層(7-Layer)的深度網(wǎng)絡(luò),測(cè)試準(zhǔn)確率為0.892 5。值得思考的是,5層(13-Layer)和6層(15-Layer)卷積層的深度網(wǎng)絡(luò)測(cè)試準(zhǔn)確率并不是一直增加,甚至出現(xiàn)下降,不如最初始的2層卷積層(7-Layer)模型。從損失函數(shù)值上看,在一定范圍內(nèi),隨著卷積層層數(shù)增加,模型損失值越小。但當(dāng)模型總層數(shù)達(dá)到15層后,數(shù)值出現(xiàn)了反彈,擁有6層卷積層(15-Layer)的網(wǎng)絡(luò)的損失函數(shù)值為0.070 6,高于擁有4層(11-Layer)和5層(13-Layer)卷積層的深度模型。訓(xùn)練時(shí)長(zhǎng)隨網(wǎng)絡(luò)深度增加而增加,這便驗(yàn)證了深層網(wǎng)絡(luò)需要更大的計(jì)算代價(jià)的結(jié)論。而對(duì)于本研究所采用的深層網(wǎng)絡(luò)GoogLeNet V1遷移模型,發(fā)現(xiàn)其測(cè)試準(zhǔn)確率最高(0.953 6),損失函數(shù)值也相當(dāng)?shù)?,只?.017 4,但訓(xùn)練時(shí)間為7 326.0 s,遠(yuǎn)高于以上淺層網(wǎng)絡(luò)。

        表2 CNN性能評(píng)估指標(biāo)Tab.2 CNN performance evaluation indicators

        2.3 網(wǎng)絡(luò)深度影響機(jī)制與應(yīng)用討論

        深度學(xué)習(xí)中,越深的模型意味著更好的非線性表達(dá)能力,可以學(xué)習(xí)更復(fù)雜的變換,從而擬合更加復(fù)雜的特征輸入[24]。圖9展示蜜蜂數(shù)據(jù)經(jīng)CNN模型輸入后各卷積層可視化。從邊緣提取開(kāi)始,隨著卷積層數(shù)的增加,所學(xué)習(xí)到的特征也更加復(fù)雜。

        網(wǎng)絡(luò)加深能進(jìn)行逐層的特征學(xué)習(xí),理論上可獲得更優(yōu)的擬合效果。但本研究結(jié)果表明,并非網(wǎng)絡(luò)越深,模型效果越好,在淺層CNN中,當(dāng)網(wǎng)絡(luò)層數(shù)超過(guò)11層時(shí),測(cè)試準(zhǔn)確率不僅沒(méi)有上升,反而下降。分析其原因,一方面可能是加深深度帶來(lái)的梯度不穩(wěn)定問(wèn)題不僅沒(méi)有緩解,反而加重;另一方面是不斷簡(jiǎn)單加深網(wǎng)絡(luò)容易達(dá)到飽和,從而使模型性能無(wú)法提升,甚至開(kāi)始下降。另外,加深網(wǎng)絡(luò)還容易使得淺層網(wǎng)絡(luò)的學(xué)習(xí)能力下降,限制深層的繼續(xù)學(xué)習(xí)。但由于自身模型的優(yōu)越性,研究中深層遷移網(wǎng)絡(luò)GoogLeNet V1測(cè)試效果最佳。因此改進(jìn)深層CNN結(jié)構(gòu),有利于解決梯度不穩(wěn)定等弊端,使深層神經(jīng)網(wǎng)絡(luò)克服傳統(tǒng)網(wǎng)絡(luò)自身的瓶頸成為可能。

        (1)—(6):第1~6層卷積層(1)—(6):1st to 6th convolutional layers圖9 各卷積層可視化Fig.9 Visualization of each convolution

        若將不同深度網(wǎng)絡(luò)的各自特點(diǎn)運(yùn)用到不同情況的農(nóng)業(yè)研究中,既能符合生產(chǎn)需求,又能最大程度避免不必要的浪費(fèi)。本研究的GoogLeNet V1遷移模型測(cè)試準(zhǔn)確率最高(0.953 6),但訓(xùn)練時(shí)間長(zhǎng),設(shè)備要求高,可運(yùn)用于農(nóng)業(yè)上關(guān)于蜜蜂花粉研究中的小批量檢測(cè)與分析。但對(duì)于大規(guī)模蜜蜂養(yǎng)殖產(chǎn)業(yè)來(lái)說(shuō),這無(wú)疑耗資巨大且效率低下。而本研究所設(shè)計(jì)的卷積層4層的淺層CNN因具有測(cè)試準(zhǔn)確率較高(0.903 6)、計(jì)算成本較低(僅為GoogLeNet V1的1/7)的特點(diǎn)而更加符合生產(chǎn)實(shí)際。因此,綜合考慮模型效果和訓(xùn)練成本,結(jié)合蜜蜂覓食監(jiān)測(cè)任務(wù)的需求,選擇合適網(wǎng)絡(luò)更利于達(dá)到期望效果。

        2.4 對(duì)比分析

        為對(duì)比上述CNN結(jié)果,研究采用十折交叉驗(yàn)證法分別對(duì)HOG+SVM、HOG+RF和HOG+K-NN進(jìn)行測(cè)試,結(jié)果如表3。發(fā)現(xiàn)傳統(tǒng)機(jī)器學(xué)習(xí)算法的測(cè)試準(zhǔn)確率與CNN有較大差距,其中表現(xiàn)最好的是HOG+SVM,準(zhǔn)確率為0.847 2,其次是HOG+RF(0.797 2),準(zhǔn)確率最低的是HOG+K-NN(0.777 8)。這是因?yàn)閭鹘y(tǒng)機(jī)器學(xué)習(xí)算法需人工提取特征,這樣提取的特征具有單一性和淺顯性[25],之后將提取特征映射至目標(biāo)空間造成學(xué)習(xí)效果不如CNN。

        表3 傳統(tǒng)機(jī)器學(xué)習(xí)算法結(jié)果對(duì)比Tab.3 Comparisons of traditional machine learning algorithm results

        3 結(jié)論與討論

        研究對(duì)蜜蜂覓食行為進(jìn)行自動(dòng)檢測(cè),利用計(jì)算機(jī)視覺(jué)技術(shù)對(duì)攜帶花粉蜜蜂與不帶花粉蜜蜂進(jìn)行識(shí)別。對(duì)比了5種不同深度下的淺層CNN以及深層網(wǎng)絡(luò)GoogLeNet V1的遷移模型,結(jié)果發(fā)現(xiàn),淺層CNN在測(cè)試準(zhǔn)確率等方面不如深層CNN,其中11層的CNN模型具有最高測(cè)試準(zhǔn)確率(0.903 6),而GoogLeNet V1的測(cè)試準(zhǔn)確率達(dá)到0.953 6。但GoogLeNet V1遷移模型測(cè)試所消耗的訓(xùn)練時(shí)間遠(yuǎn)多于淺層CNN,需更高的設(shè)備計(jì)算要求。研究為不同實(shí)際需求下的蜜蜂覓食行為的監(jiān)測(cè)提供建議:GoogLeNet V1深層網(wǎng)絡(luò)適合用于小批量的科學(xué)研究,11層的CNN則更適用在大規(guī)模的蜜蜂養(yǎng)殖。其中,GoogLeNet V1深層網(wǎng)絡(luò)作為目前深度學(xué)習(xí)主流神經(jīng)網(wǎng)絡(luò),在許多方面都有應(yīng)用[26-27],但目前未報(bào)道其應(yīng)用于蜜蜂覓食行為的監(jiān)測(cè),因此本研究為今后蜜蜂養(yǎng)殖業(yè)中高精度的監(jiān)測(cè)提供新的可能。另外,本研究提出的11層CNN,雖然測(cè)試準(zhǔn)確率不如深層神經(jīng)網(wǎng)絡(luò),但其訓(xùn)練成本低的優(yōu)勢(shì)有利于大規(guī)模的應(yīng)用。

        同時(shí),本研究針對(duì)不同網(wǎng)絡(luò)深度對(duì)模型效果的影響規(guī)律展開(kāi)探討,對(duì)比發(fā)現(xiàn),在一定范圍內(nèi),加深網(wǎng)絡(luò)深度利于增加模型學(xué)習(xí)特征的復(fù)雜性,從而提升模型性能。但并非網(wǎng)絡(luò)越深,效果一定越好,當(dāng)網(wǎng)絡(luò)層數(shù)達(dá)到飽和時(shí),再簡(jiǎn)單重復(fù)疊加卷積層不僅無(wú)法提升網(wǎng)絡(luò)性能,甚至可能出現(xiàn)下降。反觀GoogLeNet V1模型,其雖然網(wǎng)絡(luò)層數(shù)(22層)遠(yuǎn)高于對(duì)比模型,但該網(wǎng)絡(luò)獨(dú)特的Inception架構(gòu)能減少模型的訓(xùn)練參數(shù)且有利于克服梯度下降,以此突破上述架構(gòu)的局限性從而極大提高了CNN性能。因此,加深模型的同時(shí)改進(jìn)網(wǎng)絡(luò)結(jié)構(gòu)是進(jìn)一步提升CNN性能的正確思路,未來(lái)需著重研究。

        另外,本研究還將CNN深度模型與傳統(tǒng)機(jī)器學(xué)習(xí)算法進(jìn)行對(duì)比,發(fā)現(xiàn)HOG+SVM、HOG+RF和HOG+K-NN等傳統(tǒng)算法雖然在原理上相比CNN中的Softmax分類器更為成熟,但因其人工特征工程的局限性導(dǎo)致識(shí)別的效果不如CNN,這體現(xiàn)了深度學(xué)習(xí)運(yùn)用于動(dòng)物行為監(jiān)測(cè)領(lǐng)域的優(yōu)越性。但這也為探索更高精度的模型提供思路,即將深度神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)分類器相結(jié)合,比如CNN提取圖像多維紋理特征后使用SVM等分類算法進(jìn)行分類,結(jié)合后二者的優(yōu)勢(shì)有望進(jìn)一步提升監(jiān)測(cè)效果,今后應(yīng)進(jìn)一步加強(qiáng)研究。

        猜你喜歡
        深度模型研究
        一半模型
        FMS與YBT相關(guān)性的實(shí)證研究
        遼代千人邑研究述論
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        視錯(cuò)覺(jué)在平面設(shè)計(jì)中的應(yīng)用與研究
        科技傳播(2019年22期)2020-01-14 03:06:54
        EMA伺服控制系統(tǒng)研究
        深度觀察
        深度觀察
        初女破初的视频| 无人视频在线播放免费| 变态调教一区二区三区女同| 又爽又黄又无遮挡的视频| 亚洲av成人精品日韩一区| 九九精品国产99精品| 中文字幕一区二区三区| 色婷婷一区二区三区四区成人网| 亚洲国产精品久久久久婷婷老年 | 玖玖色玖玖草玖玖爱在线精品视频| 中国老熟女重囗味hdxx| 在线观看欧美精品| 国产不卡一区在线视频| 经典三级免费看片天堂| 亚洲综合av一区二区三区| 六月婷婷国产精品综合| 一区二区三区午夜视频在线观看| 国产亚洲午夜精品久久久| 99久久精品免费观看国产| 岛国AV一区二区三区在线观看| 日本岛国大片不卡人妻| 久久综合久久综合久久| 亚洲娇小与黑人巨大交| 操出白浆在线观看| 在线播放偷拍一区二区| 久久国语露脸国产精品电影| 中文字幕一区二区人妻| 日本特黄a级高清免费大片| av一区二区在线免费观看| av免费网址在线观看| 欧美黑人又粗又大久久久| 久久人妻少妇中文字幕| 伊人久久这里只有精品| 黑人巨茎大战欧美白妇| 甲状腺囊实性结节三级| 福利视频偷拍一区二区| 久久久久av无码免费网| 国产av天堂成人网| 东京热日本道免费高清| 亚洲精品无码专区在线在线播放| 亚洲精品无码人妻无码|