亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Actor-Critic幀間預(yù)定位的改進(jìn)SiamRPN模型*

        2021-12-01 14:13:08陸建峰
        關(guān)鍵詞:跟蹤器成功率動(dòng)作

        韓 慧 陸建峰

        (南京理工大學(xué) 南京 210094)

        1 引言

        目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要研究方向之一,在雷達(dá)制導(dǎo)、航空航天、醫(yī)療診斷、智能機(jī)器人、人工智能、自動(dòng)控制等多領(lǐng)域都有廣泛的應(yīng)用[1]。目標(biāo)跟蹤,簡(jiǎn)而言之,其目的是在視頻的每一幀中尋找到運(yùn)動(dòng)目標(biāo)物體,并用一個(gè)緊緊包含該目標(biāo)物體的邊界框?qū)⑵洹白粉櫋背鰜?lái)。近幾十年來(lái),盡管視覺(jué)跟蹤算法已經(jīng)取得諸多進(jìn)展,但有些阻礙視覺(jué)跟蹤的問(wèn)題依然存在,例如:運(yùn)動(dòng)模糊、外觀變化、遮擋、光照變化和背景混雜等[2]。

        近些年來(lái),深度神經(jīng)網(wǎng)絡(luò)的發(fā)展為視覺(jué)跟蹤領(lǐng)域帶來(lái)豐富的特征表示,基于卷積神經(jīng)網(wǎng)絡(luò)CNN的目標(biāo)跟蹤方法更具魯棒性的同時(shí)也提升了性能。目前兩種主流的基于深度學(xué)習(xí)的目標(biāo)跟蹤算法發(fā)展方向主要是以輕量級(jí)網(wǎng)絡(luò)架構(gòu)MDNet[3]和孿生網(wǎng)絡(luò)架構(gòu)SiamFC[4]為代表。

        2015年,Nam等提出一種CNN架構(gòu)的檢測(cè)跟蹤算法MDNet[3],該算法采用淺層的VGG-M網(wǎng)絡(luò)[5],直接利用多域?qū)W習(xí)的網(wǎng)絡(luò)結(jié)構(gòu),將每一個(gè)視頻視為一個(gè)單獨(dú)的域,從多個(gè)標(biāo)注的視頻序列中預(yù)訓(xùn)練VGG-M網(wǎng)絡(luò),學(xué)習(xí)目標(biāo)的共性特征表示能力,對(duì)前一幀目標(biāo)鄰域采樣樣本進(jìn)行分類,并引入目標(biāo)檢測(cè)領(lǐng)域中的邊界框回歸[6]對(duì)分類得分最高的樣本框修正。該算法速度為1fps,除了完全被遮擋時(shí)會(huì)有跟蹤失敗的情況,精度和魯棒性都很好。在跟蹤視頻數(shù)據(jù)集,例如VOT2014[7]和OTB2015[2]上訓(xùn)練CNN,取得了比傳統(tǒng)追蹤器更好的結(jié)果。

        隨著深度強(qiáng)化學(xué)習(xí)在游戲、機(jī)器人、自然語(yǔ)言處理和智能駕駛等諸多領(lǐng)域更加廣泛的應(yīng)用推廣,目標(biāo)跟蹤領(lǐng)域也在近幾年開(kāi)始出現(xiàn)基于深度強(qiáng)化學(xué)習(xí)的目標(biāo)跟蹤方法。2017年,Yun等[8~9]提出順序性跟蹤動(dòng)作控制的目標(biāo)跟蹤算法ADNet,該方法參考MDNet使用VGG-M網(wǎng)絡(luò),利用深度強(qiáng)化學(xué)習(xí)方法學(xué)習(xí)目標(biāo)框偏移動(dòng)作,從而多次迭代出最佳目標(biāo)框。與當(dāng)下使用深度網(wǎng)絡(luò)的跟蹤器相比,這是第一次嘗試通過(guò)追蹤深度強(qiáng)化學(xué)習(xí)訓(xùn)練出的動(dòng)作來(lái)控制跟蹤策略。2018年,Chen Boyu等[10]提出了基于“Actor-Critic”架構(gòu)的實(shí)時(shí)追蹤器ACT,Actor模型旨在一個(gè)連續(xù)動(dòng)作空間里推測(cè)最佳選擇動(dòng)作,讓跟蹤器直接在當(dāng)前幀把邊界框移動(dòng)到目標(biāo)位置;線下訓(xùn)練時(shí),Critic模型輸出一個(gè)Q值來(lái)引導(dǎo)Actor和Critic深度網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程,在線跟蹤時(shí),作者采用MDNet作為Critic驗(yàn)證模塊使得跟蹤器更加魯棒。ACT作為第一個(gè)使用連續(xù)動(dòng)作空間和Actor-Critic框架的目標(biāo)跟蹤算法,實(shí)時(shí)跟蹤算法的跟蹤速度達(dá)到了30fps。

        MDNet系列算法關(guān)注學(xué)習(xí)目標(biāo)表觀特征,并需要在目標(biāo)外觀發(fā)生變化時(shí)更新模型,然而,SiamFC系列將目標(biāo)跟蹤問(wèn)題視為當(dāng)前幀的搜索區(qū)域與模板分支目標(biāo)相似性度量問(wèn)題。2016年,Luca等提出SiamFC[4],利用在大規(guī)模目標(biāo)檢測(cè)視頻集ILS?VRC2015[11]上進(jìn)行端到端訓(xùn)練的全卷積孿生網(wǎng)絡(luò)在搜索區(qū)域計(jì)算模板目標(biāo)響應(yīng)最強(qiáng)烈的位置進(jìn)行定位,由于無(wú)需在線更新模型,該算法速度達(dá)到了58fps,對(duì)目標(biāo)跟蹤方法的發(fā)展產(chǎn)生了深遠(yuǎn)的影響。2017年,Jack等提出CFNet[12],結(jié)合相關(guān)濾波器和SiamFC進(jìn)行端到端跟蹤,相關(guān)濾波的引入使得模型使用較淺層的神經(jīng)網(wǎng)絡(luò)就可以達(dá)到較好的效果。2018年,Li等提出了SiamRPN[13]算法,利用孿生子網(wǎng)絡(luò)對(duì)搜索區(qū)域和模板目標(biāo)進(jìn)行特征提取,借鑒目標(biāo)檢測(cè)領(lǐng)域的區(qū)域候選網(wǎng)絡(luò)RPN[14],對(duì)目標(biāo)前景和背景進(jìn)行分類和邊界框回歸。由于可以預(yù)先計(jì)算模板分支子網(wǎng)絡(luò)提取第一幀目標(biāo)特征并生成網(wǎng)絡(luò)的相關(guān)卷積層進(jìn)行在線跟蹤,且RPN修正候選框可以避免傳統(tǒng)算法對(duì)目標(biāo)框的多尺度測(cè)試和在線微調(diào)過(guò)程,SiamRPN在保持高準(zhǔn)確率和成功率的同時(shí),跟蹤速度達(dá)到了驚人的160fps。

        搜索區(qū)域通常與上一幀的目標(biāo)框大小有關(guān),常用的策略是2倍策略,如ACT[10],即裁剪區(qū)域以目標(biāo)框的中心為裁剪中心,區(qū)域邊長(zhǎng)為目標(biāo)框邊長(zhǎng)的2倍。致力于長(zhǎng)期跟蹤的MBMD[15]算法為了保證更大的搜索區(qū)域可以找到目標(biāo),采用了4倍策略,即區(qū)域邊長(zhǎng)為目標(biāo)框邊長(zhǎng)的4倍。SiamRPN模型其當(dāng)前幀的搜索區(qū)域基于上一幀目標(biāo)框的大小進(jìn)行裁剪并調(diào)整至模型輸入固定尺寸,裁剪公式如下:

        其中,s為裁剪區(qū)域邊長(zhǎng),w和h分別代表上一幀目標(biāo)框的寬和高,p是填充間距,p=(w+h)/2。裁剪區(qū)域近似于2倍策略大小。

        由于SiamRPN模型搜索目標(biāo)區(qū)域面積較小,模型有丟失目標(biāo)的風(fēng)險(xiǎn),為了提高跟蹤準(zhǔn)確率和成功率,本文提出了一種擴(kuò)大搜索區(qū)域的基于Ac?tor-Critic幀間預(yù)定位的改進(jìn)SiamRPN模型ACSia?mRPN。由于SiamRPN模型僅利用第一幀模板和當(dāng)前幀的相似性度量結(jié)果進(jìn)行目標(biāo)跟蹤,并未關(guān)注相鄰幀之間目標(biāo)的運(yùn)動(dòng)信息,ACSiamRPN融合前后幀的幀間目標(biāo)運(yùn)動(dòng)信息,擴(kuò)大搜索區(qū)域?yàn)?倍目標(biāo)邊長(zhǎng),借鑒ACT算法利用Actor-Critic方法訓(xùn)練預(yù)定位網(wǎng)絡(luò),在更大的搜索區(qū)域單步計(jì)算目標(biāo)位移,利用較大的搜索區(qū)域和預(yù)定位方法來(lái)改進(jìn)Sia?mRPN模型,本文的創(chuàng)新性如下:

        1)提出了一種融合幀間目標(biāo)運(yùn)動(dòng)信息來(lái)進(jìn)行預(yù)定位的方法,實(shí)驗(yàn)證明該方法能有效地利用幀間目標(biāo)運(yùn)動(dòng)信息在更大的搜索范圍里對(duì)目標(biāo)進(jìn)行預(yù)定位。

        2)提出了改進(jìn)的SiamRPN模型ACSiamRPN,結(jié)合幀間目標(biāo)運(yùn)動(dòng)信息來(lái)預(yù)定位目標(biāo),后續(xù)Siam?RPN模型跟蹤目標(biāo)的準(zhǔn)確性和成功率有所提高。實(shí)驗(yàn)證明本文提出的改進(jìn)SiamRPN模型ACSiam?RPN的跟蹤準(zhǔn)確率和成功率均超越了SiamRPN,運(yùn)行速度達(dá)到65fps,仍然保持良好的實(shí)時(shí)性能,與當(dāng)今較為先進(jìn)的一些跟蹤方法相比具有明顯優(yōu)勢(shì)。

        2 基于Actor-Critic幀間預(yù)定位方法

        2.1 幀間預(yù)定位模型框架

        為了保證更大的搜索區(qū)域可以找到目標(biāo),本文參考長(zhǎng)期跟蹤的MBMD[15]算法,采用4倍策略。幀間預(yù)定位模型Actor-Critic架構(gòu)示意圖如圖1所示,a代表Actor,c代表Critic。

        圖1 幀間預(yù)定位模型Actor-Critic架構(gòu)示意圖

        采用VGG-M網(wǎng)絡(luò)作為Actor和Critic的主干網(wǎng)絡(luò),其中Actor網(wǎng)絡(luò)用于決策一個(gè)連續(xù)的偏移動(dòng)作,可以直接將邊界框移動(dòng)到當(dāng)前幀中的目標(biāo)位置;Critic網(wǎng)絡(luò)輸出Q值用來(lái)引導(dǎo)Actor-Critic網(wǎng)絡(luò)的訓(xùn)練學(xué)習(xí)過(guò)程。利用預(yù)訓(xùn)練好的VGG-M的前三層卷積層初始化Actor和Critic網(wǎng)絡(luò),Actor網(wǎng)絡(luò)后兩層全連接層的輸出拼接后經(jīng)歷最后一層全連接層輸出一個(gè)三維的動(dòng)作向量,Critic網(wǎng)絡(luò)最后一層全連接層需要上一層拼接三維的動(dòng)作向量,從而獲得對(duì)當(dāng)前狀態(tài)的動(dòng)作評(píng)估Q值。在測(cè)試階段,僅保留Actor網(wǎng)絡(luò)作為預(yù)定位網(wǎng)絡(luò)使用。

        2.2 強(qiáng)化學(xué)習(xí)問(wèn)題設(shè)定

        本文將幀間目標(biāo)預(yù)定位問(wèn)題視為一個(gè)序列性決策問(wèn)題,服從馬爾科夫決策過(guò)程MDP。MDP的四個(gè)要素是:狀態(tài)s∈S,動(dòng)作a∈A,狀態(tài)轉(zhuǎn)移方程s′=f(s,a),獎(jiǎng)賞函數(shù)r(s,a)。在本文的MDP框架中,幀間預(yù)定位跟蹤器通過(guò)一系列的觀測(cè)狀態(tài)(s1,s2,…,st)、動(dòng)作(a1,a2,…,at)以及獎(jiǎng)賞(r1,r2,……,rt)與環(huán)境進(jìn)行交互,在第t幀,智能體根據(jù)當(dāng)前狀態(tài)st給出連續(xù)性動(dòng)作at,獲得目標(biāo)預(yù)定位結(jié)果作為新?tīng)顟B(tài)s′t。本文將第t幀目標(biāo)框與前一幀目標(biāo)框的相對(duì)位移定義為動(dòng)作at,詳細(xì)的狀態(tài)s、動(dòng)作a、狀態(tài)轉(zhuǎn)移方程f(s,a)、獎(jiǎng)賞r的設(shè)置如下所示。

        2.2.1 狀態(tài)

        本文定義邊界框b=[x,y,w,h]包圍的圖像塊作為狀態(tài)s,其中(x,y)為邊界框中心坐標(biāo),w,h分別為寬和高。定義預(yù)處理函數(shù)為在給定幀F(xiàn)中裁剪邊界框b相關(guān)區(qū)域并縮放成網(wǎng)絡(luò)所需固定尺寸的函數(shù),預(yù)處理后的結(jié)果也即為當(dāng)前狀態(tài)s,見(jiàn)式(2)。

        2.2.2 動(dòng)作和狀態(tài)轉(zhuǎn)移

        本文定義動(dòng)作空間是連續(xù)的,動(dòng)作a=[Δx,Δy,Δs]為目標(biāo)從上一幀運(yùn)動(dòng)到當(dāng)前幀位置的相對(duì)運(yùn)動(dòng),其中Δx,Δy分別為目標(biāo)中心點(diǎn)在水平和豎直方向上的相對(duì)位移,Δs為邊界框的尺度變化。依據(jù)跟蹤問(wèn)題的幀間差分連續(xù)性[10],限制動(dòng)作a的范 圍 為:Δx∈[-1,1],Δy∈[-1,1],Δs∈[-0.05,0.05]。目標(biāo)框b經(jīng)過(guò)動(dòng)作a偏移后的目標(biāo)框b′=[x′,y′,w′,h′],如式(3)所示。隨后,狀態(tài)轉(zhuǎn)移方程s′=f(s,a)即可依據(jù)偏移后的目標(biāo)框b′和預(yù)處理函數(shù)?(b′,F(xiàn))實(shí)現(xiàn)。

        本文可依據(jù)當(dāng)前狀態(tài)s通過(guò)Actor網(wǎng)絡(luò)直接推斷獲得最優(yōu)動(dòng)作a,如式(4),其中,μ(.)代表參數(shù)為θμ的神經(jīng)網(wǎng)絡(luò)Actor,可通過(guò)ACT中的改進(jìn)DDPG[10]策略線下訓(xùn)練得到。

        2.2.3 獎(jiǎng)賞

        獎(jiǎng)賞函數(shù)r(s,a)表明了從狀態(tài)s采取動(dòng)作a變成新?tīng)顟B(tài)s′時(shí)預(yù)定位的準(zhǔn)確性,本文依據(jù)新邊界框b′和真實(shí)值G的交并比IoU來(lái)定義獎(jiǎng)賞函數(shù),如式(5)所示,其中IoU的定義如式(6)所示。每次采取動(dòng)作都會(huì)產(chǎn)生相應(yīng)的獎(jiǎng)賞,隨后獎(jiǎng)賞會(huì)被用來(lái)訓(xùn)練更新神經(jīng)網(wǎng)絡(luò)。

        3 改進(jìn)SiamRPN模型ACSiamRPN

        3.1 模型結(jié)構(gòu)

        ACSiamRPN模型框架融合前一幀和當(dāng)前幀目標(biāo)的幀間目標(biāo)運(yùn)動(dòng)信息,擴(kuò)大搜索區(qū)域?yàn)?倍目標(biāo)邊長(zhǎng),借鑒ACT算法利用Actor-Critic方法訓(xùn)練預(yù)定位網(wǎng)絡(luò),在更大的搜索區(qū)域單步計(jì)算目標(biāo)位移,校正SiamRPN模型搜索區(qū)域中心,隨后SiamRPN部分利用孿生網(wǎng)絡(luò)分支對(duì)模板和搜索區(qū)域提取特征,RPN在相關(guān)性特征圖上進(jìn)行候選框的分類和回歸,最終獲得當(dāng)前幀的目標(biāo)框。ACSiamRPN模型框架如圖2所示。

        圖2 基于Actor-Critic幀間預(yù)定位的改進(jìn)SiamRPN模型ACSiamRPN示意圖

        3.2 模型線下訓(xùn)練

        3.2.1 訓(xùn)練Actor-Critic幀間預(yù)定位網(wǎng)絡(luò)方法

        本文的Actor-Critic幀間預(yù)定位網(wǎng)絡(luò)依據(jù)ACT改進(jìn)的DDPG方法[10]來(lái)訓(xùn)練,即在正式采用傳統(tǒng)DPPG訓(xùn)練之前,利用第一幀的監(jiān)督信息來(lái)初始化幀間預(yù)定位網(wǎng)絡(luò)Actor網(wǎng)絡(luò)從而適應(yīng)當(dāng)前環(huán)境,針對(duì)Actor網(wǎng)絡(luò)采取L2損失函數(shù)優(yōu)化幀間預(yù)定位動(dòng)作決策,如式(7)所示。其中,M為訓(xùn)練樣本數(shù),μ(.|θμ)代表參數(shù)為θμ的神經(jīng)網(wǎng)絡(luò)Actor,sm為第m個(gè)采樣狀態(tài),am為相應(yīng)的真實(shí)標(biāo)簽動(dòng)作向量。

        給定N對(duì)樣本(si,ai,ri,s′i),Critic模型Q(s,a)可以依據(jù)Q-learning中的貝爾曼方程來(lái)學(xué)習(xí),借助Actor目標(biāo)網(wǎng)絡(luò)μ′和Critic目標(biāo)網(wǎng)絡(luò)Q′,最小化累積差分誤差(即損失函數(shù)),如式(8)所示。

        隨后,利用微分鏈?zhǔn)椒▌t針對(duì)累積期望獎(jiǎng)賞J對(duì)Actor模型參數(shù)求導(dǎo),如式(9)所示,即可優(yōu)化更新Actor模型參數(shù)。

        線下訓(xùn)練幀間預(yù)定位網(wǎng)絡(luò)時(shí),從ImagetNet視頻[11]訓(xùn)練集中選取768個(gè)視頻序列,每次迭代時(shí)隨機(jī)從一段視頻里面選取20~40幀圖像,利用第一張圖像初始化幀間預(yù)定位網(wǎng)絡(luò)Actor時(shí),選取32個(gè)與目標(biāo)框真實(shí)值的IoU大于0.7的正樣本,這些正樣本服從以目標(biāo)框真實(shí)值為中心的正態(tài)分布,協(xié)方差為對(duì)角矩陣diag(0.09d2,0.09d2,0.25),其中d為跟蹤目標(biāo)框?qū)捄透叩木?。隨后,應(yīng)用Actor網(wǎng)絡(luò)和Critic網(wǎng)絡(luò)在第t幀獲得訓(xùn)練數(shù)據(jù)樣本對(duì)(st,at,rt,s′t)。初始化階段的學(xué)習(xí)率設(shè)置為1e-4,學(xué)習(xí)階段Actor網(wǎng)絡(luò)和Critic網(wǎng)絡(luò)的學(xué)習(xí)率分別設(shè)置為1e-6和1e-5,此外使用一個(gè)104大小的記憶回放緩存。整體訓(xùn)練迭代次數(shù)為240000次。

        此外,在傳統(tǒng)的DDPG算法基礎(chǔ)上采用一定概率為ε的專家決策(即真實(shí)動(dòng)作值)取代Actor網(wǎng)絡(luò)的結(jié)果來(lái)引導(dǎo)訓(xùn)練學(xué)習(xí)過(guò)程,概率ε初始值設(shè)置為0.5,每迭代10000次減少5%,與此同時(shí)更新Actor目標(biāo)網(wǎng)絡(luò)μ′和Critic目標(biāo)網(wǎng)絡(luò)Q′的網(wǎng)絡(luò)參數(shù)θμ′和θQ′,如式(10)所示,其中參數(shù)τ設(shè)置為0.001。

        3.2.2 訓(xùn)練SiamRPN模型方法

        本文的SiamRPN模型訓(xùn)練方法參考原文[13]。訓(xùn)練數(shù)據(jù)來(lái)源于ILSVRC2015大規(guī)模視頻圖像數(shù)據(jù)集[11],選取同一個(gè)視頻序列的第一幀和隨機(jī)間隔幀組成一個(gè)數(shù)據(jù)對(duì)。RPN的回歸分支損失函數(shù)Lreg針對(duì)回歸的歸一化坐標(biāo),定義錨框的中心點(diǎn)坐標(biāo)和尺寸為:Ax,Ay,Aw,Ah,定義對(duì)應(yīng)的目標(biāo)框真實(shí)值為:Tx,Ty,Tw,Th,歸一化距離如式(11)所示;Lreg參考Faster R-CNN[14]采用smoothL1損失,Lreg見(jiàn)式(12)。

        分類分支的損失函數(shù)Lcls為交叉熵?fù)p失函數(shù),聯(lián)合訓(xùn)練兩個(gè)分支的總體損失函數(shù)loss見(jiàn)式(13),其中λ為平衡兩個(gè)分支的超參數(shù)。

        4 實(shí)驗(yàn)結(jié)果及分析

        為了驗(yàn)證本文提出的基于Actor-Critic幀間預(yù)定位的改進(jìn)SiamRPN模型的效果,實(shí)驗(yàn)環(huán)境為Ubuntu 16.04系統(tǒng),采用TITAN Xp 12GB顯卡加速訓(xùn)練和測(cè)試,其中Actor-Critic幀間預(yù)定位模型訓(xùn)練采用TensorFlow框架訓(xùn)練,SiamRPN模型和AC?SiamRPN模型均采用Pytorch框架訓(xùn)練和測(cè)試。實(shí)驗(yàn)所用的訓(xùn)練數(shù)據(jù)集為ILSVRC2015大規(guī)模視頻圖 像 數(shù) 據(jù) 集[11],測(cè) 試 數(shù) 據(jù) 集 為OTB2013[16]、OTB2015[2]、DTB70[17]、NFS30[18]以及VOT2016[19]。

        4.1 評(píng)價(jià)指標(biāo)

        4.1.1 常用指標(biāo)

        大多數(shù)目標(biāo)跟蹤數(shù)據(jù)集,如OTB2013、OTB2015、DTB70和NFS30,主要采用精確率(Preci?sion Rate,簡(jiǎn)稱P)和成功率(Success Rate,S)來(lái)評(píng)價(jià)跟蹤器的效果,利用幀率(Frames Per Second,fps)來(lái)衡量跟蹤算法的實(shí)時(shí)性能。

        4.1.2 VOT2016指標(biāo)

        本文采用的VOT2016主要采用準(zhǔn)確率(Accu?racy,A)和魯棒性(Robustness,R)來(lái)評(píng)價(jià)跟蹤器的效果,利用幀率fps來(lái)衡量跟蹤算法的實(shí)時(shí)性能。

        4.2 實(shí)驗(yàn)結(jié)果與分析

        在OTB2013和OTB2015數(shù)據(jù)集上,本文選取了SiamRPN[13]、ACT[10]、ECO-HC[20]、SiamFC-Tri[4]、SiamFc_3s[4]、CFNet[12]等較為先進(jìn)的跟蹤算法和本文提出的ACSiamRPN作對(duì)比試驗(yàn),準(zhǔn)確性圖和成功率圖如圖3所示,圖例所示的數(shù)值為曲線所對(duì)應(yīng)的AUC(Area under curve)值,反映了跟蹤器在數(shù)據(jù)集上的平均精確率和平均成功率,其中主要采用平均成功率來(lái)對(duì)跟蹤器進(jìn)行排名。因此可見(jiàn):1)AC?SiamRPN在OTB2013和OTB2015上的平均精確率和平均成功率均超越了SiamRPN。2)ACSiamRPN在OTB2013上以0.657的平均成功率超越了所有的對(duì)比對(duì)象,在OTB2015上以0.642的平均成功率超越了幾乎所有對(duì)比對(duì)象,僅次于ECO-HC。

        圖3 OTB2013和OTB2015數(shù)據(jù)集ACSiamRPN對(duì)比試驗(yàn)圖

        在DTB70、NFS30和VOT2016數(shù)據(jù)集上,本文主要選取SiamRPN算法做對(duì)比實(shí)驗(yàn),從而比較AC?SiamRPN作為改進(jìn)SiamRPN模型與原始SiamRPN模型的跟蹤效果,如表1所示。在DTB70和NFS30上,ACSiamRPN的精確率和成功率均高于Siam?RPN,在VOT2016上,ACSiamRPN的準(zhǔn)確率超越了SiamRPN,但是魯棒性稍遜于SiamRPN。

        表1 ACSiamRPN和SiamRPN在DTB70、NFS30、VOT2016上的實(shí)驗(yàn)結(jié)果

        由OTB2013、OTB2015、DTB70、NFS30以 及VOT2016數(shù)據(jù)集上的對(duì)比實(shí)驗(yàn)結(jié)果可知,本文提出的ACSiamRPN模型作為SiamRPN的改進(jìn)模型,對(duì)于SiamRPN跟蹤效果的提升較為明顯,從精確性到成功率均取得了良好的改進(jìn)結(jié)果,與此同時(shí),和其他當(dāng)今較為先進(jìn)的跟蹤模型相比,ACSiamRPN模型依然具有明顯的優(yōu)勢(shì)。

        在實(shí)時(shí)性能方面,SiamRPN由于是端到端的一步跟蹤,在OTB2013數(shù)據(jù)集上達(dá)到了100fps的速度,ACSiamRPN由于采用更大的搜索區(qū)域且增加了幀間預(yù)定位模型來(lái)校正SiamRPN搜索區(qū)域的中心,這種兩步跟蹤的方法降低了SiamRPN原有的跟蹤速度,但是由于幀間預(yù)定位模型采用了輕量級(jí)網(wǎng)絡(luò)VGG-M,在OTB2013上的跟蹤速度依然可以達(dá)到65fps,在提高模型跟蹤效果的同時(shí)依然保持了較好的實(shí)時(shí)性能。

        5 結(jié)語(yǔ)

        本文提出了一種基于Actor-Critic幀間預(yù)定位的改進(jìn)SiamRPN模型ACSiamRPN。該方法融合前后幀的幀間目標(biāo)運(yùn)動(dòng)信息,擴(kuò)大搜索區(qū)域?yàn)?倍目標(biāo)邊長(zhǎng),利用Actor-Critic方法訓(xùn)練預(yù)定位網(wǎng)絡(luò),在更大的搜索區(qū)域單步計(jì)算目標(biāo)位移,從而校正Sia?mRPN模型搜索區(qū)域中心。實(shí)驗(yàn)證明該方法能有效地利用幀間目標(biāo)運(yùn)動(dòng)信息在更大的搜索范圍里對(duì)目標(biāo)進(jìn)行預(yù)定位,并且可以改進(jìn)和提升原始Sia?mRPN模型的準(zhǔn)確性和成功率,與此同時(shí)運(yùn)行速度達(dá)到65fps,仍然保持良好的實(shí)時(shí)性能,與當(dāng)今較為先進(jìn)的一些跟蹤方法相比具有明顯優(yōu)勢(shì)。

        猜你喜歡
        跟蹤器成功率動(dòng)作
        成功率超70%!一張冬棚賺40萬(wàn)~50萬(wàn)元,羅氏沼蝦今年將有多火?
        光伏跟蹤器陣列跟蹤精度的測(cè)算方法研究
        如何提高試管嬰兒成功率
        淺析一種風(fēng)光儲(chǔ)一體化跟蹤器
        超長(zhǎng)待機(jī)的自行車位置跟蹤器
        如何提高試管嬰兒成功率
        動(dòng)作描寫(xiě)要具體
        雙向多軌跡判定方法在目標(biāo)跟蹤中的應(yīng)用研究
        畫(huà)動(dòng)作
        動(dòng)作描寫(xiě)不可少
        亚洲国产精品国语在线| av鲁丝一区鲁丝二区鲁丝三区| 亚洲av永久无码国产精品久久| 中文字幕在线日韩| 久久久伊人影院| 日本中文字幕一区二区高清在线 | 欧洲熟妇色xxxx欧美老妇软件| 色播久久人人爽人人爽人人片av| 亚洲无码a∨在线视频| 伊人久久综合狼伊人久久| 人妻少妇偷人精品久久性色av| 日本公与熄乱理在线播放| 亚洲av成人一区二区三区在线观看| 国产日韩欧美视频成人| 日韩亚洲午夜精品一区二区三区| 国产精品网站91九色| 亚洲av无码久久精品狠狠爱浪潮| 最新亚洲人成网站在线| 亚洲精品99久91在线| 亚洲成av人片在线观看| 欧洲一卡2卡三卡4卡免费网站| 无码一区二区三区在线在看| 元码人妻精品一区二区三区9| 青青草视频视频在线观看| 欧美黑人又粗又大xxxx| 亚洲av日韩av无码av| 免费无码黄网站在线观看| 偷拍一区二区三区高清视频| 成人毛片无码一区二区三区| 狠狠狠色丁香婷婷综合激情| 亚洲av精品一区二区| 一区二区和激情视频| 男人激烈吮乳吃奶视频免费| 国产AV无码一区精品天堂| 久久久精品人妻一区二| 亚洲最近中文字幕在线| 国产精品无码无在线观看| 思思99热精品免费观看| 校花高潮一区日韩| 人妖一区二区三区在线| 日韩人妻无码精品久久|