亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)跟蹤算法

        2016-05-07 03:07:06楊偉清
        關(guān)鍵詞:深度特征區(qū)域

        胡 鵬 楊偉清 范 勇

        (西南科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 四川省綿陽(yáng)市 621010)

        ?

        基于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)跟蹤算法

        胡鵬楊偉清范勇

        (西南科技大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院四川省綿陽(yáng)市621010)

        摘要:深度學(xué)習(xí)在目標(biāo)識(shí)別、場(chǎng)景分割及圖像內(nèi)容理解上取得了不錯(cuò)的研究成果,但在目標(biāo)跟蹤的應(yīng)用還較少。提出區(qū)域選擇算法,先產(chǎn)生原始候選區(qū)域,再計(jì)算其中鄰近區(qū)域?qū)Φ念伾?、紋理相似性,對(duì)原始候選區(qū)域進(jìn)行過(guò)濾,在此基礎(chǔ)上,將最終的候選區(qū)域作為基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)的輸入,通過(guò)深度學(xué)習(xí)的方法提取目標(biāo)區(qū)域的特征,并將提取的特征通過(guò)線性支持向量機(jī)進(jìn)行相似度判斷,最終計(jì)算出跟蹤目標(biāo)的位置信息,同時(shí),利用采樣算法進(jìn)行跟蹤目標(biāo)正負(fù)樣本的采樣,更新卷積神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)。實(shí)驗(yàn)結(jié)果表明,基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)算法在目標(biāo)跟蹤的準(zhǔn)確率及算法的魯棒性兩方面均有不錯(cuò)的表現(xiàn)。

        關(guān)鍵詞:候選區(qū)域卷積神經(jīng)網(wǎng)絡(luò)多目標(biāo)跟蹤深度學(xué)習(xí)

        深度學(xué)習(xí)的概念由HINTON[1]等人在2006年提出。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的分支領(lǐng)域,是一種學(xué)習(xí)特征的結(jié)構(gòu)化方法,該方法試圖將原始數(shù)據(jù)通過(guò)多個(gè)處理層進(jìn)行計(jì)算,學(xué)習(xí)原始數(shù)據(jù)更加抽象、更加復(fù)雜的高層次表達(dá)形式。其中,處理層通常由某些簡(jiǎn)單的非線性模型構(gòu)成。通過(guò)足夠多的模型組合,即使是非常復(fù)雜的特征函數(shù)也能夠被學(xué)習(xí)。深度學(xué)習(xí)的核心在于,各層的特征都不是利用人工工程來(lái)設(shè)計(jì),而是使用一種通用的學(xué)習(xí)過(guò)程從原始數(shù)據(jù)中學(xué)習(xí)而來(lái)。同機(jī)器學(xué)習(xí)一樣,深度學(xué)習(xí)也分為有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)。其中,深度置信網(wǎng)絡(luò)(Deep Belief Nets, DBNs)屬于無(wú)監(jiān)督深度學(xué)習(xí)模型,而卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNNs)則屬于有監(jiān)督深度學(xué)習(xí)模型。

        由于深度學(xué)習(xí)通過(guò)原始數(shù)據(jù)自動(dòng)學(xué)習(xí)特征,避免人工設(shè)計(jì)特征帶來(lái)干擾等優(yōu)點(diǎn),被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別、自然語(yǔ)言處理等問(wèn)題中。在計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi),KRIZHEVSKY[2]等人設(shè)計(jì)的深度卷積神經(jīng)網(wǎng)絡(luò)由5個(gè)卷積層、6 000萬(wàn)個(gè)參數(shù)及500 000個(gè)“神經(jīng)元”組成,通過(guò)預(yù)先對(duì)小規(guī)模有標(biāo)記圖片的深度學(xué)習(xí),對(duì)屬于一千個(gè)不同類別的共1 300 000張圖片進(jìn)行了分類,取得了明顯高于當(dāng)時(shí)最佳分類算法的成績(jī);FARABET[3]等人則通過(guò)多尺度的卷積神經(jīng)網(wǎng)絡(luò),提取圖像的稠密特征向量,其提取的特征向量包含了紋理、形狀及上下文等信息,具有極大的分辨能力,利用該特征在圖像的場(chǎng)景分割實(shí)驗(yàn)中取得了較好的結(jié)果;KAVUKCUOGLU[4]等人則采用無(wú)監(jiān)督的深度學(xué)習(xí)方式,結(jié)合稀疏編碼,提出了稀疏卷積特征的概念,并利用該方法進(jìn)行了視覺(jué)識(shí)別及檢測(cè)的相關(guān)實(shí)驗(yàn),證明了該特征的有效性;趙志宏[5]等人將經(jīng)典的用于識(shí)別手寫(xiě)字符的LeNet-5引入到車(chē)牌字符識(shí)別中,并結(jié)合國(guó)內(nèi)車(chē)牌的特點(diǎn),對(duì)其做出了改進(jìn),提升了卷積神經(jīng)網(wǎng)絡(luò)的識(shí)別正確率和識(shí)別速度;鄭胤[6]等人則對(duì)目前深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)的應(yīng)用作了總結(jié),指出了當(dāng)前研究熱點(diǎn)還主要集中于目標(biāo)識(shí)別和行為識(shí)別上,應(yīng)該在更深層次上將深度學(xué)習(xí)應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)。

        可以看到,深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)的應(yīng)用范圍越來(lái)越廣,研究程度也越來(lái)越深。然而目標(biāo)跟蹤作為計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)一直以來(lái)的研究熱點(diǎn),利用深度學(xué)習(xí)來(lái)解決該問(wèn)題的研究目前還較少。在2013年,WANG[7]等人通過(guò)使用額外的自然輔助圖像,線下訓(xùn)練去噪的自編碼器,并利用線下訓(xùn)練結(jié)果構(gòu)造在線的卷積神經(jīng)網(wǎng)絡(luò),增強(qiáng)神經(jīng)網(wǎng)絡(luò)的魯棒性以應(yīng)對(duì)跟蹤目標(biāo)的外觀變化,利用深度學(xué)習(xí)完成了對(duì)目標(biāo)運(yùn)動(dòng)軌跡的跟蹤;GOTARREDONA[8]等人則利用大規(guī)模并行計(jì)算的方式來(lái)解決深度學(xué)習(xí)時(shí)間較長(zhǎng)的問(wèn)題,通過(guò)定制的芯片以及異步處理技術(shù),成功解決了深度學(xué)習(xí)計(jì)算時(shí)間長(zhǎng)導(dǎo)致跟蹤不能實(shí)時(shí)進(jìn)行的問(wèn)題。

        針對(duì)計(jì)算機(jī)視覺(jué)領(lǐng)域中的目標(biāo)跟蹤問(wèn)題,本文將深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)引入其中,通過(guò)選定圖像序列中的候選區(qū)域,經(jīng)由卷積神經(jīng)網(wǎng)絡(luò)計(jì)算候選區(qū)域的特征,再利用線性支持向量機(jī)對(duì)候選區(qū)域的特征進(jìn)行相似度判斷,在判斷的基礎(chǔ)上完成對(duì)目標(biāo)的跟蹤,同時(shí)利用采樣算法,選取正負(fù)樣本,更新線性SVM,增加SVM的魯棒性,降低對(duì)目標(biāo)外觀模型變化對(duì)跟蹤算法準(zhǔn)確率的影響。

        1算法概述

        本文將深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)引入到跟蹤算法中,選擇圖像序列中的候選區(qū)域作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,通過(guò)卷積神經(jīng)網(wǎng)絡(luò)計(jì)算的特征作為目標(biāo)的外表模型,而卷積神經(jīng)網(wǎng)絡(luò)的輸出(目標(biāo)特征)則作為線性支持向量機(jī)的輸入,通過(guò)線性支持向量機(jī)來(lái)判斷當(dāng)前候選區(qū)域是否是跟蹤目標(biāo),同時(shí),利用判斷結(jié)果,再結(jié)合采樣程序,對(duì)當(dāng)前幀的跟蹤目標(biāo)采集正負(fù)樣本,用以更新支持向量機(jī)。采用卷積神經(jīng)網(wǎng)絡(luò)提取的目標(biāo)區(qū)域特征,具有較好的分辨能力,結(jié)合線性支持向量機(jī)能夠準(zhǔn)確區(qū)分相似目標(biāo),在一定程度上解決了因跟蹤目標(biāo)相似導(dǎo)致的誤跟蹤問(wèn)題,增加了跟蹤算法的魯棒性。算法步驟如圖1所示。

        圖1 算法流程圖

        算法初始化時(shí),需要事先提供少量關(guān)于跟蹤目標(biāo)的圖像對(duì)卷積神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)同時(shí)進(jìn)行線下訓(xùn)練,用以獲得目標(biāo)的外表模型和支持向量機(jī)的分割超平面,在后續(xù)跟蹤中算法將自動(dòng)選擇候選區(qū)域(見(jiàn)式(1)),并對(duì)選定的候選區(qū)域利用卷積神經(jīng)網(wǎng)絡(luò)提取相應(yīng)的目標(biāo)特征(見(jiàn)式(2)),得到目標(biāo)的外表模型,再將提取的目標(biāo)特征經(jīng)由事先訓(xùn)練的線性支持向量機(jī)來(lái)判斷是否為當(dāng)前跟蹤目標(biāo)(見(jiàn)式(3)),并結(jié)合判斷結(jié)果,利用采樣程序采集關(guān)于跟蹤目標(biāo)的正負(fù)樣本,對(duì)卷積神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)進(jìn)行在線更新。同時(shí)將得到的當(dāng)前跟蹤目標(biāo)的位置作為算法的輸出。其中,采樣算法使用粒子濾波,支持向量機(jī)則使用線性支持向量機(jī),由于這兩個(gè)算法較為成熟,本文不再詳細(xì)描述其內(nèi)容。

        2基于區(qū)域卷積神經(jīng)網(wǎng)絡(luò)的多目標(biāo)跟蹤算法

        2.1CNN算法簡(jiǎn)介

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,

        簡(jiǎn)稱CNN)是由一個(gè)或多個(gè)卷積層和頂端的全連通層(對(duì)應(yīng)經(jīng)典神經(jīng)網(wǎng)絡(luò))組成,同時(shí)也包括關(guān)聯(lián)權(quán)重和池化層(pooling layer)。這一結(jié)構(gòu)使得卷積神經(jīng)網(wǎng)絡(luò)能夠更好利用數(shù)據(jù)的二維結(jié)構(gòu),因此在語(yǔ)音識(shí)別和圖像方面有較好的結(jié)果,本文的卷積神經(jīng)網(wǎng)絡(luò)采用反向傳播算法進(jìn)行訓(xùn)練。相較于其他深度學(xué)習(xí)算法,卷積神經(jīng)網(wǎng)絡(luò)所需參數(shù)較少,導(dǎo)致其計(jì)算時(shí)間相對(duì)較短。其中經(jīng)典的LeNet-5[9]卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        圖2 LeNet-5結(jié)構(gòu)圖

        LeNet-5共有7層(不包含輸入),每層都包含連接權(quán)值,每層都有多個(gè)特征圖,每個(gè)特征圖通過(guò)一種卷積濾波器針對(duì)輸入提取一種特征,而每個(gè)特征圖又有多個(gè)神經(jīng)元。其中,C1,C3,C5是卷積層,S2,S4,S6是降采樣層。利用圖像局部相關(guān)性原理,對(duì)圖像進(jìn)行局部降采樣,在減少數(shù)據(jù)處理量的同時(shí)保留有效信息。其中,LeNet-5采取的損失函數(shù)(Loss Function)如下:

        (1)

        卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程如下:

        (1)前向傳播階段

        1)從樣本集中選取某個(gè)樣本(X,YP),將X輸入網(wǎng)絡(luò);2)通過(guò)卷積神經(jīng)網(wǎng)絡(luò)計(jì)算出實(shí)際輸出OP。

        該過(guò)程也是卷積神經(jīng)網(wǎng)絡(luò)正常運(yùn)行時(shí)執(zhí)行的過(guò)程,在此過(guò)程中網(wǎng)絡(luò)實(shí)際計(jì)算的是:

        OP=FN(…(F2(F1(XPW(1))W(2))…)W(n))

        (2)

        (2)后向傳播階段

        1)計(jì)算實(shí)際輸出OP與相應(yīng)理想輸出YP的“差值”;2)按照極小化誤差的方法,反向傳播調(diào)整網(wǎng)絡(luò)各層的權(quán)重。

        該過(guò)程也是卷積神經(jīng)網(wǎng)絡(luò)更新的過(guò)程,通過(guò)后向傳播對(duì)于各卷積層調(diào)整自身權(quán)重,達(dá)到最優(yōu)。

        2.2區(qū)域選擇

        區(qū)域選擇算法對(duì)圖像進(jìn)行計(jì)算后,選擇可能為跟蹤目標(biāo)的候選區(qū)域,為后續(xù)卷積神經(jīng)網(wǎng)絡(luò)提供輸入,算法流程如表1所示。

        表1 區(qū)域選擇算法流程

        區(qū)域選擇算法中計(jì)算兩個(gè)區(qū)域的相似度函數(shù)如下:

        s(ri,rj)=a1scolour(ri,rj)+a2stexture(ri,rj)

        (3)

        scolour(ri,rj)是計(jì)算兩個(gè)區(qū)域顏色相似度的函數(shù):

        (4)

        對(duì)候選區(qū)域的每個(gè)顏色通道都提取顏色直方圖,采用L1范式進(jìn)行歸一化,箱的數(shù)目選擇為25個(gè),因此總共有n=75(25×3)個(gè)箱。計(jì)算兩個(gè)區(qū)域顏色直方圖的交集作為其顏色相似度的度量。stexture(ri,rj)是計(jì)算兩個(gè)區(qū)域紋理相似度的函數(shù):

        (5)

        對(duì)候選區(qū)域的每個(gè)顏色通道在8個(gè)梯度方向上計(jì)算高斯微分(α=1),并對(duì)每個(gè)梯度方向計(jì)算直方圖,用L1范式對(duì)其歸一化,直方圖箱的數(shù)目選擇為10個(gè),因此總共有n=240(10×8×3)個(gè)箱。計(jì)算兩個(gè)區(qū)域紋理直方圖的交集作為其紋理相似度的度量。區(qū)域選擇算法結(jié)果如圖3所示。

        圖3 區(qū)域選擇算法結(jié)果

        2.3基于區(qū)域的CNN

        在上述區(qū)域選擇算法的基礎(chǔ)上,將候選區(qū)域輸入到卷積神經(jīng)網(wǎng)絡(luò)中提取候選區(qū)域的特征。圖4所示為提取特征的可視化?;趨^(qū)域的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。該網(wǎng)絡(luò)總共有6層。前5層均是卷積層,最后一層為全連接層。卷積層中前兩層由卷積、Rectified Linear Units(ReLUs)[11]、池化及歸一化組成,中間兩層則由卷積、ReLUs組成,最后一層由卷積、ReLUs及池化組成。其中ReLUs層計(jì)算使用的公式如下:

        (6)

        該式子的目的在于用線性計(jì)算來(lái)代替指數(shù)計(jì)算,降低卷積層的計(jì)算量,加快網(wǎng)絡(luò)的計(jì)算。也可以直接選用類似f(x)=(1+ex)-1的函數(shù)進(jìn)行計(jì)算,但算法復(fù)雜度會(huì)急劇上升。

        池化則是對(duì)網(wǎng)絡(luò)中相鄰神經(jīng)節(jié)點(diǎn)進(jìn)行累加的過(guò)程,用以得到更高層次的抽象。更準(zhǔn)確地說(shuō),池化層可被認(rèn)為以s為間隔的由每個(gè)尺寸為z×z的單元組

        成的網(wǎng)格,如果s=z則是傳統(tǒng)的池化層,而本文則使用s=2,z=3的有重疊的池化層。

        歸一化則用如下公式計(jì)算:

        (7)

        全連接的意思是上一層的任何一個(gè)神經(jīng)元與下一層的所有神經(jīng)元都有連接,通過(guò)這種方式全連接相當(dāng)于訓(xùn)練了一個(gè)多分類的分類器,學(xué)習(xí)了目標(biāo)的全局特征,為區(qū)分候選區(qū)域與跟蹤目標(biāo)進(jìn)行了初次的篩選。

        同時(shí)為了避免特征學(xué)習(xí)的過(guò)擬合問(wèn)題,借鑒了文獻(xiàn)[12]的方法,在每個(gè)全連接層的ReLUs后增加了丟棄層,用以防止特征學(xué)習(xí)的過(guò)擬合。具體做法為隨機(jī)的以50%的概率將上層神經(jīng)節(jié)點(diǎn)的結(jié)果置為零,因此這些神經(jīng)節(jié)點(diǎn)在前向傳播和后向傳播中都不會(huì)產(chǎn)生影響。

        圖4 提取特征的可視化

        圖5 基于區(qū)域的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        3實(shí)驗(yàn)結(jié)果及分析

        本文選取了Basketball,F(xiàn)lower,Shaking,Skating以及Skydiving等視頻作為實(shí)驗(yàn)對(duì)象,對(duì)基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)和經(jīng)典的LetNet-5作了對(duì)比實(shí)驗(yàn),跟蹤算法其余部分保持不變。通過(guò)對(duì)比實(shí)驗(yàn)驗(yàn)證了基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)的正確性與有效性。

        圖6給出了對(duì)比實(shí)驗(yàn)的效果圖。圖中第一行為使用LeNet-5的實(shí)驗(yàn)結(jié)果,第二行為本文算法結(jié)果。選取的圖像依次為視頻中的1,113,225,337幀。在沒(méi)有使用全連接層的LetNet-5中,由于缺少對(duì)目標(biāo)特征全局性學(xué)習(xí),導(dǎo)致其中藍(lán)色目標(biāo)的跟蹤位置與實(shí)際位置有較大偏差,并且直接影響了黃色目標(biāo)的正常跟蹤,出現(xiàn)了目標(biāo)誤跟蹤、漏跟蹤等問(wèn)題。

        圖6 不同卷積神經(jīng)網(wǎng)絡(luò)跟蹤效果對(duì)比圖

        圖7為使用LeNet-5的算法與本文算法在對(duì)比實(shí)驗(yàn)視頻中跟蹤準(zhǔn)確率的對(duì)比圖。其中X軸表示測(cè)試的實(shí)驗(yàn)視頻,Y軸為該視頻的平均跟蹤準(zhǔn)確率。

        圖7 算法準(zhǔn)確率對(duì)比

        通過(guò)圖6、圖7可看出,增加了全連接層的卷積神經(jīng)網(wǎng)絡(luò),能夠較好地學(xué)習(xí)目標(biāo)的局部與全局特征,在結(jié)合區(qū)域選擇算法的基礎(chǔ)上,較好地完成對(duì)多個(gè)跟蹤目標(biāo)特征的提取工作,再通過(guò)支持向量機(jī)的判斷,能夠準(zhǔn)確獲取目標(biāo)位置信息。進(jìn)一步分析發(fā)現(xiàn),本文引入的區(qū)域選擇算法能夠較準(zhǔn)確地選取候選區(qū)域,而基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò),對(duì)于目標(biāo)特征的學(xué)習(xí)又較為精確,因此能夠在目標(biāo)外觀出現(xiàn)變化時(shí),及時(shí)學(xué)習(xí)到外觀的變化,減少了目標(biāo)變化帶來(lái)的干擾,增強(qiáng)了算法的魯棒性,從而提高了跟蹤準(zhǔn)確率。

        4結(jié)束語(yǔ)

        本文將卷積神經(jīng)網(wǎng)絡(luò)引入到目標(biāo)跟蹤算法中,提出了基于區(qū)域的CNN跟蹤算法。該算法自動(dòng)選擇候選區(qū)域,再利用卷積神經(jīng)網(wǎng)絡(luò)提取候選區(qū)域目標(biāo),最后通過(guò)線性支持向量判斷候選區(qū)域是否為跟蹤目標(biāo),計(jì)算跟蹤目標(biāo)軌跡信息。同時(shí),通過(guò)采樣算法收集跟蹤目標(biāo)的正負(fù)樣本,進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)和線性支持向量機(jī)的在線更新。由于卷積神經(jīng)網(wǎng)絡(luò)提取的特征具有較高的分辨能力,能夠較準(zhǔn)確地區(qū)分目標(biāo),提高了跟蹤算法準(zhǔn)確率,同時(shí)增強(qiáng)了魯棒性。實(shí)驗(yàn)結(jié)果充分說(shuō)明了基于區(qū)域的CNN跟蹤算法的有效性。進(jìn)一步的研究方向?yàn)榭焖俚幕趨^(qū)域的CNN跟蹤方法以及更好的候選區(qū)域選擇策略。

        參考文獻(xiàn)

        [1]HINTON G E, OSINDERO S, TEH Y W. A fast learning algorithm for deep belief nets[J]. Neural computation, 2006, 18(7): 1527-1554.

        [2]KRIZHEVSKY A, SUTSKEVER I, HINTON G E. Image Net Classification With Deep Convolutional Neural Networks[C].Advances in neural information processing systems. 2012. 1097-1105.

        [3]FARABET C, COUPRIE C, NAJMAN L, et al. Learning hierarchical features for scene labeling[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2013, 35(8): 1915-1929.

        [4]KAVUKCUOGLU K, SERMANET P, BOUREAU Y L, et al. Learning Convolutional Feature Hierarchies For Visual Recognition[C].Advances in Neural Information Processing Systems. 2010. 1090-1098.

        [5]趙志宏, 楊紹普, 馬增強(qiáng). 基于卷積神經(jīng)網(wǎng)絡(luò) LeNet-5 的車(chē)牌字符識(shí)別研究[J]. 系統(tǒng)仿真學(xué)報(bào), 2010 (3): 638-641.

        [6]鄭胤, 陳權(quán)崎, 章毓晉. 深度學(xué)習(xí)及其在目標(biāo)和行為識(shí)別中的新進(jìn)展[J]. 中國(guó)圖象圖形學(xué)報(bào), 2014, 19(2): 175-184.

        [7]WANG N, YEUNG D Y. Learning a Deep Compact Image Representation for Visual Tracking[C].Advances in Neural Information Processing Systems. 2013. 809-817.

        [8]SERRANO-GOTARREDONA R, OSTER M, LICHTSTEINER P, et al. CAVIAR: A 45k neuron, 5M synapse, 12G connects/s AER hardware sensory-processing-learning-actuating system for high-speed visual object recognition and tracking[J]. Neural Networks, IEEE Transactions on, 2009, 20(9): 1417-1438.

        [9]LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

        [10] FELZENSZWALB, PEDRO F, HUTTENLOCHER D P. Efficient graph-based image segmentation[J]. International Journal of Computer Vision, 2004, 59(20): 167-181.

        [11] NAIR V, HINTON G E. Rectified Linear Units Improve Restricted Boltzmann Machines[C].Proceedings of the 27th International Conference on Machine Learning (ICML-10). 2010. 807-814.

        [12] HINTON G E, SRIVASTAVA N, KRIZHEVSKY A, et al. Improving neural networks by preventing co-adaptation of feature detectors[J]. arXiv preprint arXiv, 2012,0580:1207.

        [13] CARREIRA J, SMINCHISESCU C. Cpmc: Automatic object segmentation using constrained parametric min-cuts[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2012, 34(7): 1312-1328.

        Object Tracking Based on Region Convolutional Neural Network

        HU Peng, YANG Wei-qing, FAN Yong

        (SchoolofComputerScienceandTechnology,SouthwestUniversityofScienceandTechnology,Mianyang621010,Sichuan,China)

        Abstract:Deep learning has already achieved good research results in object recognition, scene segmentation and image content understanding, but still few applications in object tracking. A region selection algorithm was proposed, first producing raw region candidates, next using color and texture similarities to filter candidates to get final results. Based on this, using the results as the input of convolutional neural network(CNN) based on region to extract the object feature, the output of CNN is used by the linear SVM to compute the final position. At the same time, the positive and negative samples of tracking objects are used to update CNN and SVM. The experiments show, the CNN based on region has good performance on object tracking both in accuracy and robustness.

        Key words:Region candidates; Convolutional neural network; Multi-object tracking; Deep learning

        中圖分類號(hào):TP391.41

        文獻(xiàn)標(biāo)志碼:A

        文章編號(hào):1671-8755(2016)01-0067-05

        作者簡(jiǎn)介:胡鵬,男,碩士研究生。通信作者:胡鵬(1991—),男,碩士,研究方向?yàn)槎嗄繕?biāo)跟蹤。E-mial:lanxis2372615@gmail.com

        基金項(xiàng)目:四川省教育廳項(xiàng)目(14CZ0012);綿陽(yáng)市三網(wǎng)融合基金項(xiàng)目(13ZD3109,13ZD3110)。

        收稿日期:2015-12-03

        猜你喜歡
        深度特征區(qū)域
        深度理解一元一次方程
        如何表達(dá)“特征”
        不忠誠(chéng)的四個(gè)特征
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        關(guān)于四色猜想
        分區(qū)域
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        久久成年片色大黄全免费网站| 边添小泬边狠狠躁视频| 未满十八勿入av网免费| 岛国熟女精品一区二区三区| 免费网站看av片| 八区精品色欲人妻综合网| 久久久精品中文无码字幕| 亚洲成人av一区免费看| 亚洲乱码中文字幕久久孕妇黑人| 18禁美女裸身无遮挡免费网站| 亚洲午夜看片无码| 国产av区亚洲av毛片| 日韩亚洲一区二区三区四区| 欧美人与动牲交a精品| 国产性猛交╳xxx乱大交| 91精品国产闺蜜国产在线| 午夜视频一区二区三区四区| 亚洲成av人片在www鸭子| 亚洲人成电影在线观看天堂色 | 免费a级作爱片免费观看美国| 国产美女精品aⅴ在线| 亚洲第一女人天堂av| 男吃奶玩乳尖高潮视频| 日韩内射美女人妻一区二区三区| 无码高清视频在线播放十区| 人妖啪啪综合av一区| 国产无吗一区二区三区在线欢| 亚洲人成电影在线无码| 黄色三级一区二区三区| 久久亚洲av成人无码电影| 欧美乱人伦人妻中文字幕| 最新精品亚洲成a人在线观看| 韩国女主播一区二区三区在线观看| 国产av激情舒服刺激| 一本大道久久东京热无码av| 欧美综合区自拍亚洲综合| 日本国产精品高清在线| 色欲欲www成人网站| 精品乱码卡1卡2卡3免费开放| 日本在线一区二区三区观看| 日本h片中文字幕在线|