亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Faster-RCNN的昆蟲小目標檢測研究

        2021-09-06 08:55:38
        喀什大學(xué)學(xué)報 2021年3期
        關(guān)鍵詞:卷積特征圖像

        易 星

        (沈陽化工大學(xué)信息工程學(xué)院,遼寧沈陽 110142)

        目標檢測是計算機視覺中較為熱門的研究方向,主要包含相關(guān)的目標定位和識別.目標檢測準確來說是在復(fù)雜背景的圖像中找到目標并進行邊框標注以及識別出目標的類別[1].檢測效果對圖像的語義理解和目標重識別有直接影響,當(dāng)前目標檢測已經(jīng)廣泛應(yīng)用于醫(yī)學(xué)圖像分析及檢測和監(jiān)控系統(tǒng)中,因此展開目標檢測研究對科技的發(fā)展有重要意義.

        小目標檢測[2]是目標檢測中的一類分支,相比于常規(guī)圖像的檢測,小目標檢測所需的技術(shù)和算法更嚴格.所謂小目標就是圖像中占比像素更少,提供的特征信息也相對較少,通常只有幾十個像素,如圖1(a)為小目標數(shù)據(jù)集,圖1(b)為檢測結(jié)果,本次實驗數(shù)據(jù)所包含的都是昆蟲標本圖像,所以研究小目標檢測是非常有意義的,尤其對目前安防、交通、救援等方面[3]有重要的應(yīng)用價值.

        圖1 昆蟲標本圖像

        Krizhevsky等人[4]提出AlexNet是在2012年,利用ImageNet 在圖像分類上取得了突破性成果,在這之后,很多從事計算機視覺任務(wù)的研究者利用深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)來進行目標檢測、圖像分割等任務(wù),并取得了不錯的效果.相較于傳統(tǒng)的目標檢測方法,深度學(xué)習(xí)的檢測方法具有更高的檢測精度以及特征提取充分等優(yōu)點.因此,深度學(xué)習(xí)方法被科研工作者應(yīng)用于各個領(lǐng)域.當(dāng)前大多數(shù)的視覺任務(wù)基本都是圍繞CNN 來開展的.但是,深度學(xué)習(xí)在小目標任務(wù)檢測上所達到的效果遠不如常規(guī)目標檢測.本文所述方法針對小目標檢測,使得檢測效果有一定提高.小目標檢測主要有以下兩個難點:

        (1)目標在信息量較為復(fù)雜的情況下占比較小,所反映的信息是有限的、甚至達不到檢測效果,這就使得常規(guī)目標檢測的算法很難用于小目標檢測.在小目標檢測任務(wù)中,只有特定算法才能達到特定效果,不適用于所有的檢測任務(wù),通用性不強.

        (2)從小目標檢測任務(wù)中來看,對圖像目標的標記[5]是一個難題,在作為訓(xùn)練數(shù)據(jù)時出現(xiàn)誤差對整體結(jié)果的影響很大;與此同時,數(shù)據(jù)標記需要耗費的人力、物力資源和時間成本都較大,使得所討論的數(shù)據(jù)集較小.

        針對上述的問題,本文提出了基于卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的小目標多尺度的Faster-RCNN 檢測算法[6].該算法在結(jié)構(gòu)上有相應(yīng)的改變,主要是將高層和低層特征多尺度的提取特征,通過可視化技術(shù)對模型進行分析后,使得針對小目標檢測所提出的方法能較好地解決本文所提出的問題.

        1 相關(guān)工作

        在2014年,F(xiàn)elzenszwalb等人[7]提出了可變形部件模型(deformable part model,DPM),隨后在目標檢測領(lǐng)域應(yīng)用了該模型,達到了很好的效果.引入深度學(xué)習(xí)方法后,DPM的檢測效果相比于深度學(xué)習(xí)來說效果不夠顯著,因此,深度學(xué)習(xí)成為目前經(jīng)常被使用的方法,尤其是在目標檢測領(lǐng)域成為絕大多數(shù)研究者熱衷的一個研究領(lǐng)域和方向.區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Regions with Convolutional Neural Network,RCNN)系列[8]的方法在進行目標檢測時效果也非常顯著.Girshick 等人[9]提出的RCNN 結(jié)合了候選區(qū)域生成和深度學(xué)習(xí)兩方面的分類方法,RCNN 先對候選區(qū)域進行分割,再通過卷積神經(jīng)網(wǎng)絡(luò)將區(qū)域內(nèi)的特征充分提取,之后進行分類器回歸操作,但是由于候選區(qū)域難以避免的重疊部分導(dǎo)致該方法效率較低.在何愷明等人[10]提出空間金字塔池化網(wǎng)絡(luò)定義和Sermanet等人[11]提出目標定位方法后,Girshick等人[12]提出了以RCNN 為基礎(chǔ)的Fast-RCNN,隨之再將目標區(qū)域池化(region of interest pooling,ROI pooling)也引入其中,有利于圖像特征的歸一化,得到目標的特征圖是尺寸大小相同的.這有利于避免重復(fù)卷積特征.該方法在精度和速度上都明顯優(yōu)于RCNN.Fast-RCNN 之后,任少卿等人[13]再一次提出了Faster-RCNN 算法.這種方法的原理是利用錨點(anchor)方式生成候選區(qū)域,并將候選區(qū)域生成工作也交由網(wǎng)絡(luò)來完成,速度和精度相較于Fast-RCNN 有進一步提升.在此之后Redmen 等人[14]提出了比Faster-RCNN 更快的目標檢測方法YOLO(you only look once).YOLO 是將目標檢測當(dāng)作回歸問題處理,不需要候選區(qū)域生成,僅需劃分回歸目標邊界框和將所屬類別定義準確.因此,YOLO 方法具有更快的檢測速度,但是同樣在小物體檢測方面效果不明顯,這兩類方法在常規(guī)目標檢測方面都有不錯的檢測效果.然而,在非常規(guī)的目標檢測、尤其是小目標檢測中,這些方法便不適用.實際上,達不到預(yù)期目標的主要原因是在深度學(xué)習(xí)提取小目標信息時,目標特征表示不出更多的有效信息,導(dǎo)致檢測方法對物體進行檢測時達不到要求.Takeki 等人[15]提出的小目標檢測方法結(jié)合了圖像語義分割內(nèi)容,這種方法是把全卷積網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和支持向量機(support vector machine,SVM)[16]結(jié)合在一起,只適用于圖像信息較為簡單的場景中,檢測僅限于天空下的小鳥這樣的任務(wù).由此可見,雖然科研人員在小目標檢測上花費了很多功夫,但是都不達到理想的效果,不具有通用性.

        2 多尺度Faster-RCNN檢測算法

        2.1 多尺度檢測

        在卷積神經(jīng)網(wǎng)絡(luò)中,通常低層特征能更好地將圖像紋理[17]和邊緣信息反映出來,高層特征更多的是傾向于對圖像的語義信息反映,會對圖像中比較細節(jié)的信息忽略,在目標非常小的時候,圖像中能得到的特征信息是有限的,因此需要低層特征去對細節(jié)信息進行提取和識別小目標.為此,在圖像信息進行重構(gòu)[18]方面使用的是梯度上升法提取小目標的特征.如圖2所示.

        圖2 實驗中所采用的昆蟲標本圖像

        通常的Faster-RCNN 特征信息目標區(qū)域池化由最后一個卷積層完成的,顯然這種方法不適用于小目標檢測.高層特征對小物體檢測會因為特征提取不充分產(chǎn)生較大的問題,通過學(xué)習(xí)SSD 算法[19]之后利用了多尺度檢測,這就使得我們的特征提取不單單是采用最后一層特征,而是從多個尺度來進行卷積網(wǎng)絡(luò)提取.具體流程如圖3所示:輸入圖片首先在CNN 中實現(xiàn)特征提取,將各個層提取的特征送入RPN 生成候選區(qū)域[20],對于不同尺寸的候選區(qū)域信息,所需的anchor box 尺寸也是不同,越低層的特征所選擇需求的候選區(qū)域會占比更小.在得到生成的候選區(qū)域和feature map的映射之后通過ROI pooling 來將特征歸一化,送入分類器中,通過這種方式來充分對小目標的特征信息進行提取,從而實現(xiàn)小目標檢測.

        圖3 RPN特征提取流程圖

        2.2 訓(xùn)練數(shù)據(jù)變換

        網(wǎng)絡(luò)結(jié)構(gòu)的改進解決了小目標檢測的瓶頸,針對小目標檢測中訓(xùn)練的樣本標記較難并且樣本不易獲取,因此訓(xùn)練的數(shù)據(jù)集較少.我們以昆蟲為主要的圖像進行目標特征提取,如圖4 所示.訓(xùn)練、驗證和測試的圖像中昆蟲分布是不規(guī)則的,因此,數(shù)據(jù)的分布可能存在一些差異.圖4(1)為部分訓(xùn)練圖像,圖4(2)為驗證圖像,圖4(3)為小目標檢測的部分測試圖像.

        圖4 訓(xùn)練數(shù)據(jù)中各個階段中所用的昆蟲標本圖像

        我們采用T-SNE[21]的方法將圖像進行特征降維以此驗證高分辨率(high resolution,HR)和低分辨率(low resolution,LR)目標在分布上存在差別,采用的特征網(wǎng)絡(luò)是FPN,用低分辨率圖像來訓(xùn)練模型,再用目標高分辨率圖像測試[22].對ROI pooling 層后得到的大小相同的特征同樣用TSNE方法進行降維.實驗結(jié)果顯示兩者確實存在很大差異.

        3 實 驗

        3.1 實驗設(shè)置及效果

        實驗采用的數(shù)據(jù)集主要采用標本數(shù)據(jù)集,檢測的小目標為昆蟲.為了試驗精度和準確性,昆蟲標本采用實驗室培養(yǎng)基下的標本.圖像數(shù)據(jù)集共有217 張,采用的是ResNet50 作為backbone 選擇,使用FPN 網(wǎng)絡(luò)作為特征網(wǎng)絡(luò)進行實驗,選擇COCO 作為預(yù)訓(xùn)練模型.因為檢測目標是昆蟲,所以,圖像尺寸統(tǒng)一固定在最短輸入尺寸是800、最長輸入尺寸是1333;在訓(xùn)練參數(shù)設(shè)置方面,為了能更精確地得到訓(xùn)練模型,迭代輪數(shù)增加到了12,學(xué)習(xí)率設(shè)置為0.00250000,warm up步數(shù)設(shè)置為84,學(xué)習(xí)率衰減輪數(shù)為[8,12],warm up的初始學(xué)習(xí)率是在0.00083333.模型訓(xùn)練loss收斂情況如圖5 所示.圖中展示了隨著迭代次數(shù)的增加,loss的收斂情況以及l(fā)oss_rpn的變化等情況.可以看出,模型都在迭代1000 次時趨于收斂,隨著loss的降低,訓(xùn)練的模型也達到了較高水平.

        圖5 模擬訓(xùn)練中l(wèi)oss收斂情況

        3.2 實驗結(jié)果

        將目標低分辨率數(shù)據(jù)集劃分成3 部分,昆蟲類別為6類,169 張用于訓(xùn)練數(shù)據(jù)集模型,24 張用于驗證數(shù)據(jù)集,24 張用于測試數(shù)據(jù)集,數(shù)據(jù)集圖片如圖6 所示.

        圖6 訓(xùn)練數(shù)據(jù)集部分

        檢測出來并進行標記的圖片如圖7所示.

        圖7 檢測出來后數(shù)據(jù)集部分

        在FPN特征網(wǎng)絡(luò)下所得的檢測結(jié)果如下表1所示.

        表1 各類別目標檢測精度及召回率

        從表1中可以得出兩個結(jié)論:

        (1)高層特征與低層特征相互彌補和使用多尺度檢測的方法,對小目標的檢測精度都有較為明顯的提升,這說明結(jié)合深度網(wǎng)絡(luò)的低層和高層特征進行多尺度檢測的方法在一定程度上確實可行.

        (2)檢測時需要高分辨率和低分辨率相互結(jié)合來進行訓(xùn)練模型,這樣的檢測效果可以達到更好.僅使用高分辨率圖像作為訓(xùn)練數(shù)據(jù)的模型檢測效果不佳,僅使用低分辨率圖像作為訓(xùn)練數(shù)據(jù)的模型檢測效果相對較好,因此采用折中的方法可以達到理想的效果.將24張測試圖像的平均檢測時間作為評估計算復(fù)雜度[23]的指標,在FPN 特征網(wǎng)絡(luò)下所得的檢測結(jié)果如圖8所示.

        圖8 檢測后圖像的標記和分類

        第1 列表示模型使用的網(wǎng)絡(luò)結(jié)構(gòu),之后每一列第1 行表示采用哪一層的特征進行檢測,表示采用全部三個特征.VGG的conv1_2,conv2_2,conv5_3分別簡寫為conv1,conv2,conv5.

        從圖9(1)(2)中可以得出兩個結(jié)論:

        圖9 數(shù)據(jù)集模型訓(xùn)練中相關(guān)參考數(shù)據(jù)

        (1)在只利用一個特征檢測時,利用高層特征的平均檢測時間相對較少,這說明大的低層特征是適用于小目標檢測的,但會帶來較高的計算開銷.

        (2)實時性較低的任務(wù)檢測可以通過多個特征增加計算開銷在可接受的范圍內(nèi)進行.

        從圖9還可以看出:

        (1)通過下采樣的方法訓(xùn)練高精度的目標檢測模型是可行的并且效果很好,這說明下采樣的方式可以減輕目標高分辨率圖像和目標低分辨率圖像數(shù)據(jù)差異帶來的影響.

        (2)最大池化在這樣一個問題信息量有限,特征以及像素點不多的背景下一般比平均池化效果要好.

        (3)結(jié)合采樣變換前后的目標高分辨率圖像和低分辨率圖像所訓(xùn)練出的模型檢測精度偏高,這表示對目標高分辨率圖像進行采樣變換對目標高分辨率圖像和目標低分辨率圖像數(shù)據(jù)差異確實有一定影響甚至改善的效果.在小目標檢測數(shù)據(jù)難以標記、缺少訓(xùn)練數(shù)據(jù)的情況下,為了提升檢測精度,可以對訓(xùn)練的數(shù)據(jù)量稍微增加.

        4 總結(jié)與展望

        目標檢測在計算機視覺領(lǐng)域是相對較為熱門的,也深受科研人員的關(guān)注,但是當(dāng)前常規(guī)目標檢測的方法應(yīng)用在小物體上的檢測效果不太明顯.當(dāng)前科研人員所研究出來檢測小目標的方法通用性太差,往往只能檢測單一小物體.因此,本文對小物體檢測進行了小目標檢測初步研究,以卷積神經(jīng)網(wǎng)絡(luò)為起點以及對Faster-RCNN 進行有效的改進后,引入多尺度檢測,將高層與低層特征相互彌補的方式對小目標進行多尺度檢測,進而得出物體檢測結(jié)果.依照這樣方式所改變的針對性較強的算法,相較于原先Faster-RCNN 算法在檢測精度上有明顯的變化.由于計算機硬件方面的問題,本文所采用的數(shù)據(jù)集較小,訓(xùn)練出來的模型精度相較于專業(yè)圖像檢測設(shè)備檢測出來的精度和準確度有很大差距,未來將從以下兩個方面進行相關(guān)研究:

        (1)嘗試于其他的方法進行改進應(yīng)用于小目標檢測,在改進的硬件基礎(chǔ)上對算法優(yōu)化調(diào)整,進一步提升檢測精度.

        (2)信息表達是小目標檢測目前主要面臨的問題和瓶頸,其次諸如像素分類問題也是當(dāng)前的難點,我們可以基于上述情況嘗試其他領(lǐng)域的研究包括圖像分割、遙感分割等.

        猜你喜歡
        卷積特征圖像
        改進的LapSRN遙感圖像超分辨重建
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        有趣的圖像詩
        如何表達“特征”
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        不忠誠的四個特征
        基于傅里葉域卷積表示的目標跟蹤算法
        抓住特征巧觀察
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        線性代數(shù)的應(yīng)用特征
        河南科技(2014年23期)2014-02-27 14:19:15
        91精品国产福利在线观看麻豆| 久久精品无码一区二区2020| 国产裸体AV久无码无遮挡| 男女啪啪啪的高清视频| 免费无码又爽又高潮视频| 亚洲学生妹高清av| 一本一道AⅤ无码中文字幕| 伊人色综合视频一区二区三区| 西西人体大胆视频无码| 午夜精品一区二区三区av免费| 国产亚洲精品久久情侣| 亚洲人成网站色www| 国产久视频国内精品999| 亚洲视频一区二区三区免费| 亚洲中文字幕在线一区| 国产乱码一二三区精品| 中文字幕少妇AV| 日本熟妇免费一区二区三区| 99re6在线视频精品免费| 国产精品久久久久久52avav | 久久夜色精品国产噜噜噜亚洲av| 亚洲综合成人婷婷五月网址| 欧美婷婷六月丁香综合色| 无码久久精品蜜桃| 男女做羞羞事的视频网站| 男人国产av天堂www麻豆 | 婷婷成人亚洲| 日本二区三区视频免费观看| 国产精品女主播福利在线| 成人免费一区二区三区| 日韩亚洲中文图片小说| 亚洲人成精品久久熟女| 国产成人无码av| 国产精品无码精品久久久| 日韩色久悠悠婷婷综合| 国产成人无码精品久久久免费| 国产成人无码免费看片软件| 亚洲日韩AV无码美腿丝袜| 高清日韩av在线免费观看| 国产精品无码久久久久久久久久| 久久精品性无码一区二区爱爱|