亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于YOLO的小型動(dòng)物識(shí)別系統(tǒng)設(shè)計(jì)

        2019-05-13 10:24:16周文萱胡龍?zhí)?/span>張敏方宇濤李欣鈺
        計(jì)算機(jī)時(shí)代 2019年3期
        關(guān)鍵詞:樹(shù)莓派神經(jīng)網(wǎng)絡(luò)

        周文萱 胡龍?zhí)? 張敏 方宇濤 李欣鈺

        摘 要: 針對(duì)常見(jiàn)動(dòng)物識(shí)別的問(wèn)題,提出了一種基于YOLO的識(shí)別分類(lèi)系統(tǒng)。通過(guò)搭載linux系統(tǒng)的樹(shù)莓派完成實(shí)施檢測(cè)運(yùn)行的識(shí)別程序。利用YOLO算法進(jìn)行目標(biāo)物體檢測(cè),其單個(gè)神經(jīng)網(wǎng)絡(luò)能夠在一幀圖像中直接預(yù)測(cè)邊界邊框(bounding box)和分類(lèi)概率(classified probability),最后根據(jù)輸入圖像來(lái)輸出動(dòng)物物種的識(shí)別結(jié)果。其識(shí)別準(zhǔn)確率針對(duì)鳥(niǎo)類(lèi)可達(dá)94.61%,狗類(lèi)為90.60%,牛類(lèi)為79.03%。

        關(guān)鍵詞: 物種圖像識(shí)別; 動(dòng)物識(shí)別; YOLO; 神經(jīng)網(wǎng)絡(luò); 樹(shù)莓派

        中圖分類(lèi)號(hào):TP319 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1006-8228(2019)03-22-04

        Design of YOLO-based small animal recognition system

        Zhou Wenxuan, Hu Longtao, Zhang Min, Fang Yutao, Li Xinyu

        (School of Optoelectronic Information and Computer Engineering, University of Shanghai for Science and Technology, Shanghai 200093, China)

        Abstract: To solve the problem of species identification and population identification of small animals, a recognition and classification system based on YOLO (You Only Look Once) is proposed in this paper. The recognition program is implemented on a Raspberry Pi with Linux system, and YOLO is used as the detection framework. The single neural network can directly predict the bounding box and the classified probability in a frame image, and output the animal recognized according to the input image. The accuracy rate of identification is 94.61% for birds, 90.60% for dogs and 79.03% for cattle.

        Key words: species image recognition; animal identification; YOLO; neural network; Raspberry Pi

        0 引言

        近年來(lái),機(jī)器視覺(jué)越來(lái)越多的用于人類(lèi)的交通、物流和安防等方面,其在代替人工重復(fù)機(jī)械的特征識(shí)別等方面發(fā)揮著重要的作用。但是自然環(huán)境、物種研究等領(lǐng)域的圖像識(shí)別卻并不多見(jiàn),隨著深度學(xué)習(xí)的發(fā)展,國(guó)內(nèi)外有很多學(xué)者使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像識(shí)別。HuangYue[1]等使用CNN算法進(jìn)行汽車(chē)圖標(biāo)識(shí)別,提高了識(shí)別的精度和系統(tǒng)的穩(wěn)定性。王福建[2]等設(shè)計(jì)了車(chē)輛信息檢測(cè)和識(shí)別系統(tǒng),其設(shè)計(jì)了不同顏色的識(shí)別,使得分類(lèi)更加細(xì)化。但是傳統(tǒng)的算法都普遍存在一個(gè)問(wèn)題,那就是檢測(cè)識(shí)別速度慢[3-6],計(jì)算量大不適合小型化。而Redmond提出的YOLO(you only look once)算法,能在保證識(shí)別精度的同時(shí),提升運(yùn)算效率,加快檢測(cè)速度[7]。

        針對(duì)機(jī)器視覺(jué)需要較大的處理系統(tǒng)和繁瑣的框架配置等問(wèn)題,本文利用搭載linux和YOLO框架的樹(shù)莓派設(shè)計(jì)了小型便攜的物種識(shí)別系統(tǒng),該系統(tǒng)成本低可以大范圍普及使用,兼顧智能算法識(shí)別與低功耗小巧的雙重優(yōu)點(diǎn),為產(chǎn)品普及提供了理論論證和數(shù)據(jù)支持。

        1 YOLO神經(jīng)網(wǎng)絡(luò)識(shí)別算法

        YOLO(You Only Look Once)算法,是一種端到端卷積神經(jīng)網(wǎng)絡(luò),常用于目標(biāo)物體檢測(cè)與識(shí)別。該算法將目標(biāo)檢測(cè)視為目標(biāo)區(qū)域預(yù)測(cè)與類(lèi)別預(yù)測(cè)的回歸問(wèn)題,采用單個(gè)卷積神經(jīng)網(wǎng)絡(luò)直接從圖像中預(yù)測(cè)目標(biāo)邊框和類(lèi)別概率。YOLO的主要特點(diǎn)是快速檢測(cè)和較高的準(zhǔn)確率。YOLO直接將一張整圖應(yīng)用到網(wǎng)絡(luò)中去,以便更好地區(qū)分目標(biāo)和背景;同時(shí),與其他目標(biāo)檢測(cè)識(shí)別方法將目標(biāo)檢測(cè)劃分成區(qū)域預(yù)測(cè)和類(lèi)別預(yù)測(cè)等多個(gè)流程相比,YOLO將區(qū)域預(yù)測(cè)和類(lèi)別預(yù)測(cè)整合在一個(gè)網(wǎng)絡(luò)中,從而提高檢測(cè)速率[5,8]。其檢測(cè)模型如圖1所示。

        該算法將待檢測(cè)圖像劃分為一個(gè)S×S的網(wǎng)格,并且假設(shè)識(shí)別目標(biāo)的中心落在某個(gè)網(wǎng)格內(nèi),則該網(wǎng)格負(fù)責(zé)檢測(cè)此目標(biāo)[7-11]。與此同時(shí)每個(gè)網(wǎng)格預(yù)測(cè)B個(gè)目標(biāo)窗口,每個(gè)目標(biāo)窗口負(fù)責(zé)5個(gè)參數(shù)的計(jì)算:目標(biāo)的中心坐標(biāo)(x,y)、寬度(width)、高度(height)和置信概率(confidence):

        式中:Pr(Object)為此網(wǎng)格中存在目標(biāo)的概率,表示該網(wǎng)格內(nèi)預(yù)測(cè)目標(biāo)中心坐標(biāo)位置的準(zhǔn)確性,也就是測(cè)量在特定數(shù)據(jù)集中檢測(cè)相應(yīng)物體準(zhǔn)確度的一個(gè)標(biāo)準(zhǔn)。

        如果網(wǎng)格內(nèi)不存在目標(biāo)物體,則其Pr(Object)的值為0,(Intersection Over Union)為目標(biāo)預(yù)測(cè)窗口與真實(shí)窗口的重疊度,是一個(gè)位置定位精度的概率。

        在最后進(jìn)行結(jié)果預(yù)測(cè)時(shí),每個(gè)類(lèi)別通過(guò)上述條件類(lèi)別概率和目標(biāo)置信度的乘積得到該類(lèi)別的置信分?jǐn)?shù):

        綜上所述,經(jīng)過(guò)一系列的運(yùn)算輸出了一個(gè)維度為S2的向量,再將該高緯度向量進(jìn)行篩除,將低于閾值的值去除掉,利用NMS算法進(jìn)行迭代-遍歷-消除的過(guò)程;最終只留下置信分?jǐn)?shù)最高的輸出。

        2 基于YOLO的樹(shù)莓派識(shí)別系統(tǒng)

        本文設(shè)計(jì)的搭載在樹(shù)莓派上的基于YOLO算法的識(shí)別系統(tǒng)可以完成常見(jiàn)動(dòng)物識(shí)別的工作[9]。對(duì)于細(xì)節(jié)和精度一直是圖像識(shí)別的難點(diǎn),所以在識(shí)別動(dòng)物有良好偽裝的情況下,準(zhǔn)確率大大降低。但在一般情況下,還是能將目標(biāo)物體與背景區(qū)分開(kāi),并且能給出目標(biāo)物體的中心坐標(biāo)和邊框。

        當(dāng)檢測(cè)到包含有目標(biāo)物體后,將其目標(biāo)區(qū)域內(nèi)的目標(biāo)物體特征提取出來(lái),用已經(jīng)訓(xùn)練好的分類(lèi)器進(jìn)行分類(lèi)識(shí)別,從而完成動(dòng)物和物種識(shí)別分類(lèi)的工作。

        本文使用具有強(qiáng)拓展的卡片電腦樹(shù)莓派作為運(yùn)算平臺(tái),圖像采集使用IMX2619原裝800萬(wàn)像素?cái)z像頭,并且在最新stretch版精簡(jiǎn)了無(wú)用的功能。并且采用Pascal VOC2012數(shù)據(jù)集目標(biāo)系統(tǒng),使用其訓(xùn)練好的模型,在去除掉無(wú)用的分類(lèi)后,可以針對(duì):鳥(niǎo)bird、,貓cat、牛cow、狗dog、馬horse、羊sheep這六種常見(jiàn)的動(dòng)物進(jìn)行識(shí)別[10]。

        本文運(yùn)行系統(tǒng)為raspiberry-stretch版,ARM架構(gòu)的雙核CPU,主頻800MHz,未使用CUDA和GPU核心,且已經(jīng)部署好OPENCV、TensorFlow和Darknet框架。由于其運(yùn)算能力和內(nèi)存都不足,故進(jìn)行了量化模型的操作。

        神經(jīng)網(wǎng)絡(luò)的節(jié)點(diǎn)和權(quán)重最初是存儲(chǔ)為32位的浮點(diǎn)數(shù)。量化模型最簡(jiǎn)單的一個(gè)做法就是通過(guò)存儲(chǔ)每一層最小和最大的值來(lái)壓縮文件的大小,接著壓縮每一個(gè)浮點(diǎn)數(shù)為8位整型。這樣文件的大小就減少了75%。部分代碼如下所示:

        curl-L"https://storage.googleapis.com/download.tensorflow.org/models/inception_v3_2016_08_28_frozen

        .pb.tar.gz" |

        tar -C tensorflow/examples/label_image/data -xz

        bazelbuildtensorflow/tools/graph_transforms:

        transform_graph

        bazel-bin/tensorflow/tools/graph_transforms/transform_graph \

        --in_graph=tensorflow/examples/label_image/data/inception_v3_2016_08_28_frozen.pb \

        --out_graph=/tmp/quantized_graph.pb \

        --inputs=input \

        --outputs=InceptionV3/Predictions/Reshape_1 \

        --transforms='add_default_attributes strip_unused_nodes

        (type=float, shape="1,299,299,3")

        remove_nodes(op=Identity, op=CheckNumerics)

        fold_constants(ignore_errors=true)

        fold_batch_norms fold_old_batch_norms

        quantize_weights quantize_nodes

        strip_unused_nodes sort_by_execution_order

        3 系統(tǒng)測(cè)試和試驗(yàn)結(jié)果

        經(jīng)過(guò)一系列準(zhǔn)備工作和框架部署,為了驗(yàn)證本文提出的基于YOLO算法的識(shí)別系統(tǒng)[11-14],采用自己制作的數(shù)據(jù)集進(jìn)行測(cè)試,通過(guò)編寫(xiě)網(wǎng)絡(luò)爬蟲(chóng)程序從中國(guó)動(dòng)物圖片網(wǎng)爬取了大量的動(dòng)物圖片,作為測(cè)試集使用。隨機(jī)抽取其中圖片如圖3所示。

        如圖3所示,四種數(shù)據(jù)集的測(cè)試集部分目標(biāo)圖像已經(jīng)被標(biāo)注出,其目標(biāo)區(qū)域中心坐標(biāo)和長(zhǎng)寬已經(jīng)保存[13],在此不再贅述。

        本文為了簡(jiǎn)化人工工作量,進(jìn)行人工校驗(yàn)實(shí)行分?jǐn)?shù)據(jù)集測(cè)試和校驗(yàn),分為鳥(niǎo)類(lèi)、狗、牛和人四類(lèi)數(shù)據(jù)集,其中人數(shù)據(jù)集為無(wú)關(guān)集,用來(lái)測(cè)試模型的誤檢測(cè)率。其檢測(cè)結(jié)果如表1所示。

        通過(guò)上述檢測(cè)可知,鳥(niǎo)類(lèi)和狗類(lèi)數(shù)據(jù)集的檢驗(yàn)正確率達(dá)到了90%以上,牛類(lèi)數(shù)據(jù)集的測(cè)試準(zhǔn)確率僅為79.03%。對(duì)于牛類(lèi)數(shù)據(jù)集測(cè)試發(fā)現(xiàn),基于人類(lèi)良好的視覺(jué)經(jīng)驗(yàn)可以在褐色背景識(shí)別出牛類(lèi),但是對(duì)于機(jī)器來(lái)說(shuō),對(duì)于目標(biāo)物體的識(shí)別在有不明顯背景色區(qū)分的情況下很難做出良好的判斷,導(dǎo)致正確率不高。對(duì)比其他兩類(lèi)驗(yàn)證數(shù)據(jù)集,牛類(lèi)的數(shù)據(jù)集中,如印度地區(qū)給牛身裝扮了很多首飾的圖片,也有泥濘背景中牛腿被泥水遮擋和不完整等情況的圖片,這類(lèi)圖像的目標(biāo)識(shí)別區(qū)域誤檢率和漏檢率比較高,容易對(duì)整個(gè)系統(tǒng)的監(jiān)測(cè)造成誤差。另一方面,訓(xùn)練樣本數(shù)目太少,且深度學(xué)習(xí)算法中多維特征的提取維度不夠多,所以需要更多的樣本。樣本模型的數(shù)量太少不足以對(duì)于整體數(shù)據(jù)樣本進(jìn)行描述,因此其泛化能力不夠,對(duì)于差異較大的圖像預(yù)測(cè)不準(zhǔn)的概率較大[15]。人類(lèi)的數(shù)據(jù)集作為不存在其分類(lèi)特征文件,故理論檢測(cè)為0,但經(jīng)過(guò)數(shù)據(jù)集的查驗(yàn),發(fā)現(xiàn)部分圖片有和寵物同框的現(xiàn)象,所以檢測(cè)結(jié)果也有部分識(shí)別到。同時(shí)該檢測(cè)結(jié)果運(yùn)行十分緩慢,由于系統(tǒng)內(nèi)存不夠,實(shí)驗(yàn)是分多次做的,最后統(tǒng)一計(jì)算出結(jié)果。

        針對(duì)上述系統(tǒng)誤差的分析結(jié)果,還可以采用如下改善方法。

        ⑴ YOLO中每個(gè)Grid有30維其中8維是回歸box的坐標(biāo),二維是box的confidence,還有20維的類(lèi)別,要在此基礎(chǔ)上增加基于HOG的局部特征和顏色提取等多維度的特征。

        ⑵ 損失函數(shù)設(shè)計(jì)的優(yōu)化,讓預(yù)測(cè)坐標(biāo)(x,y,w,h),confidence和classification這三個(gè)方面達(dá)到最優(yōu)的平衡,最基礎(chǔ)的yolo采用sum-squared error loss方法將坐標(biāo)權(quán)重和分類(lèi)誤差視為同等重要顯然是不合理的,需要增加坐標(biāo)預(yù)測(cè)的權(quán)重,將其loss weight賦予更大的值[16]。

        ⑶ 目標(biāo)待識(shí)別物體大小不同的預(yù)測(cè)處理中,小的bounding box中預(yù)測(cè)的框線偏一點(diǎn)其偏移loss很大,所以采取將box的長(zhǎng)和寬取平方根代替原本的長(zhǎng)和寬,其對(duì)于小box(狗類(lèi)和鳥(niǎo)類(lèi))的偏移,loss小的多,從而提高了其準(zhǔn)確率[17]。

        4 試驗(yàn)結(jié)論

        本文設(shè)計(jì)了一種基于YOLO算法的小型化的識(shí)別檢測(cè)跟蹤系統(tǒng),利用YOLO算法中tiny-model可以極大地減少cpu占用,從而提升其處理效率。經(jīng)檢驗(yàn)其識(shí)別率較好,但是精度有待提高。本研究主要研究和部署了基于ARM架構(gòu)的YOLO深度學(xué)習(xí)分類(lèi)器,并對(duì)于網(wǎng)絡(luò)爬取的不同類(lèi)型圖片進(jìn)行目標(biāo)檢測(cè)識(shí)別。其綜合檢測(cè)識(shí)別率為89.04%。樹(shù)莓派微型卡片電腦可以運(yùn)行該系統(tǒng),可以擴(kuò)展成為帶有圖像識(shí)別功能的監(jiān)控探頭,對(duì)于以后發(fā)展的智能監(jiān)控探頭,提供了理論驗(yàn)證的依據(jù)。

        同時(shí)對(duì)于默認(rèn)的YOLO-tiny算法中的前期特征提取和部分權(quán)重配置提出了增改的建議,但是增加維度會(huì)造成運(yùn)算量呈幾何數(shù)量增長(zhǎng)導(dǎo)致效率低下問(wèn)題還需進(jìn)一步解決,要平衡好效率與準(zhǔn)確率。

        本文在ARM架構(gòu)部署了YOLO和darknet的開(kāi)源神經(jīng)網(wǎng)絡(luò),并且實(shí)現(xiàn)了一套圖像輸入-識(shí)別-分類(lèi)的檢測(cè)系統(tǒng),將傳統(tǒng)工作站運(yùn)行的復(fù)雜神經(jīng)網(wǎng)絡(luò)進(jìn)行簡(jiǎn)化,為低功耗便攜式移動(dòng)圖像識(shí)別設(shè)備提供了可靠的理論驗(yàn)證。

        參考文獻(xiàn)(References):

        [1] Huang Y, Wu R, Sun Y, et al. Vehicle Logo Recognition

        System Based on Convolutional Neural Networks With a Pretraining Strategy[J]. IEEE Transactions on Intelligent Transportation Systems,2015.16(4):1951-1960

        [2] 王福建,張俊,盧國(guó)權(quán)等.基于YOLO的車(chē)輛信息檢測(cè)和跟蹤

        系統(tǒng)[J].工業(yè)控制計(jì)算機(jī),2018.7:89-91

        [3] Dlagnekov L, Belongie S. Recognizing cars[J]. Ecologi-

        calModelling,2005.113(13):71-81

        [4] 邱道尹,張紅濤,劉新宇等.基于機(jī)器視覺(jué)的大田害蟲(chóng)檢測(cè)系

        統(tǒng)[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2007.38(1):120-122

        [5] Redmon J, Farhadi A. YOLO9000: Better, Faster,

        Stronger[J],2016:6517-6525

        [6] 李彥冬,郝宗波,雷航.卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J].計(jì)算機(jī)應(yīng)用,

        2016.36(9):2508-2515

        [7] 魏海坤.神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的理論與方法[M].國(guó)防工業(yè)出版

        社,2005.

        [8] 魏星.基于SVM的山體滑坡災(zāi)害圖像識(shí)別方法[J].電子測(cè)量

        技術(shù),2013.36(8):65-70

        [9] 李亮,丁萬(wàn)山.基于ARM的紙幣號(hào)碼識(shí)別系統(tǒng)[J].電子測(cè)量技

        術(shù),2008.31(10):68-72

        [10] 程曦,吳云志,張友華等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的儲(chǔ)糧害

        蟲(chóng)圖像識(shí)別[J].中國(guó)農(nóng)學(xué)通報(bào),2018.34(1):154-158

        [11] 王宇寧,龐智恒,袁德明.基于YOLO算法的車(chē)輛實(shí)時(shí)檢測(cè)[J].

        武漢理工大學(xué)學(xué)報(bào),2016.38(10):41-46

        [12] 嚴(yán)曉波.基于單鏡頭的車(chē)輛檢測(cè)與跟蹤方法研究[D].貴州民

        族大學(xué),2018.

        [13] 潘蓉,孫偉.基于預(yù)分割和回歸的深度學(xué)習(xí)目標(biāo)檢測(cè)[J].光學(xué)

        精密工程,2017.25(10s):221-227

        [14] 劉堯.基于深度學(xué)習(xí)的氣泡水平尺自動(dòng)矯正系統(tǒng)設(shè)計(jì)[D].浙

        江大學(xué),2018.

        [15] 李天劍,黃斌,劉江玉等.卷積神經(jīng)網(wǎng)絡(luò)物體檢測(cè)算法在物

        流倉(cāng)庫(kù)中的應(yīng)用[J].計(jì)算機(jī)工程,2018.44(6):176-181

        [16] 張春玉,黃知紅.一種有效的基于卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛檢索

        算法[J].科技創(chuàng)新與應(yīng)用,2018.13.

        [17] 樂(lè)國(guó)慶.基于車(chē)載視覺(jué)系統(tǒng)的目標(biāo)檢測(cè)優(yōu)化算法研究[D].北

        京交通大學(xué),2017.

        猜你喜歡
        樹(shù)莓派神經(jīng)網(wǎng)絡(luò)
        神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        基于微信端的智能家居監(jiān)控系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
        智能安全防盜探測(cè)小車(chē)
        一種基于樹(shù)莓派的門(mén)禁系統(tǒng)快速構(gòu)建方法
        煙草物流中心工業(yè)無(wú)線網(wǎng)絡(luò)安全監(jiān)測(cè)系統(tǒng)設(shè)計(jì)
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        基于樹(shù)莓派的高清視頻播放器的設(shè)計(jì)與實(shí)現(xiàn)
        科技視界(2015年29期)2015-10-19 10:55:56
        基于嵌入式技術(shù)的農(nóng)村醫(yī)療系統(tǒng)設(shè)計(jì)
        基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        一本色道加勒比精品一区二区 | 欧美末成年videos在线观看| 亚洲无线码1区| 免费在线不卡黄色大片| 亚洲成a∨人片在线观看无码| 免费人成视频在线| 日韩欧美国产丝袜视频| 日韩性感av一区二区三区| 白白白在线视频免费播放| 中文字幕乱偷无码av先锋蜜桃 | 手机av在线播放网站| 国产精品乱码人妻一区二区三区| 精品国内自产拍在线观看| 亚洲av在线播放观看| 亚洲av高清一区二区| 国色天香中文字幕在线视频| 久久久久亚洲av无码专区导航| 国产av专区一区二区三区| 亚洲精品国产av成拍色拍| 国产精品日本一区二区在线播放| 亚洲国产成人va在线观看天堂| 国产美女a做受大片免费| 人妻有码av中文幕久久| 极品白嫩的小少妇| 国产91中文| 亚洲黄色一插一抽动态图在线看| 国产精品女主播福利在线| 天天躁狠狠躁狠狠躁夜夜躁| 日韩精品国产自在欧美| 国产午夜福利在线观看中文字幕| 午夜dy888国产精品影院| ā片在线观看| av日本一区不卡亚洲午夜| 国内自拍速发福利免费在线观看| 熟女体下毛毛黑森林| 久久久久亚洲AV无码专区喷| 亚洲精品一区二区三区四区| 国产乱子轮xxx农村| 国产精品深田咏美一区二区| 精品国产乱来一区二区三区| 变态调教一区二区三区女同|