亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于響應(yīng)正則化的孿生網(wǎng)絡(luò)目標(biāo)跟蹤算法

        2022-12-03 01:56:44周益飛徐文卓
        計算機應(yīng)用與軟件 2022年11期
        關(guān)鍵詞:分類

        周益飛 徐文卓

        1(武漢大學(xué)信息中心 湖北 武漢 430072)2(北京電子工程總體研究所 北京 100854)

        0 引 言

        隨著計算機硬件水平、視頻圖像處理技術(shù)以及人工智能技術(shù)的迅猛發(fā)展,目標(biāo)跟蹤[1-2]在視覺監(jiān)控、增強現(xiàn)實、人機交互、自動駕駛等領(lǐng)域[3]應(yīng)用也越來越廣泛。目標(biāo)跟蹤是在連續(xù)的視頻序列中,根據(jù)給定的第一幀圖像的目標(biāo)坐標(biāo)位置來計算目標(biāo)在下一幀圖像中的確切位置。目前視覺跟蹤已經(jīng)取得了非常大的進展,有許多優(yōu)秀的跟蹤算法用于解決跟蹤問題,但在目標(biāo)運動的過程中,由于尺度變化、形變、遮擋和復(fù)雜背景等眾多因素的影響,開發(fā)一個魯棒的跟蹤算法仍非常具有挑戰(zhàn)性。

        為了解決上述難題,實現(xiàn)魯棒的跟蹤算法,研究者們提出了很多解決辦法?;谙嚓P(guān)濾波的跟蹤算法KCF[17]通過循環(huán)移位來擴充樣本集數(shù)量,提高了跟蹤速度和跟蹤效率。SRDCF[12]使用空間正則化來增大特征學(xué)習(xí)的區(qū)域,Staple[18]提出顏色直方圖的方法,ACFN[13]提出注意力機制相關(guān)濾波網(wǎng)絡(luò),使用注意力網(wǎng)絡(luò)從多個特征提取器中選擇最優(yōu)的模塊用于跟蹤目標(biāo)。CSR-DCF[14]利用顏色直方圖約束相關(guān)濾波學(xué)習(xí),構(gòu)建前景空間可靠性圖。還有更多的基于深度學(xué)習(xí)的相關(guān)濾波跟蹤算法如DeepSRDCF[11]、CCOT[19]等。近年來,孿生網(wǎng)絡(luò)被廣泛應(yīng)用于視覺跟蹤。SiamFC[4]第一個提出用全卷積孿生網(wǎng)絡(luò)結(jié)構(gòu)來解決跟蹤問題。CFNet[5]將相關(guān)濾波(CF)整合為一個網(wǎng)絡(luò)層,并將其嵌入到基于孿生網(wǎng)絡(luò)的框架中。Dsiam[6]使用動態(tài)孿生網(wǎng)絡(luò)快速變換學(xué)習(xí)目標(biāo)外觀變化,并處理來自先前幀的背景抑制。SiamRPN/DASiamRPN[7-8]使用區(qū)域推薦網(wǎng)絡(luò)將目標(biāo)分類和目標(biāo)狀態(tài)估計進行結(jié)合。

        然而,基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法通過目標(biāo)與搜索區(qū)域的相似性學(xué)習(xí)得到響應(yīng)圖,通過響應(yīng)圖最大值來計算目標(biāo)狀態(tài)。在目標(biāo)發(fā)生尺度變化或復(fù)雜運動等情況下,目標(biāo)周圍出現(xiàn)干擾因素,響應(yīng)圖的最大值可能由次峰值逐漸增大形成,此時使用不準(zhǔn)確的響應(yīng)最大值進行計算目標(biāo)可能的位置,會導(dǎo)致跟蹤模型漂移。

        基于上述分析,本文提出了一種簡單有效的基于響應(yīng)正則化的孿生網(wǎng)絡(luò)目標(biāo)跟蹤算法,用于魯棒目標(biāo)跟蹤。本文從跟蹤響應(yīng)正則化的角度出發(fā),在SiamRPN網(wǎng)絡(luò)的基礎(chǔ)上,抑制潛在的子峰,同時聚合最大峰值響應(yīng),通過在分類模塊中使用更準(zhǔn)確的響應(yīng)值來計算目標(biāo)的狀態(tài),更準(zhǔn)確地判斷目標(biāo)的前景和背景,降低模型漂移的風(fēng)險。本文在OTB2013、OTB100和VOT2016上進行了大量的實驗,同時與當(dāng)前主流的目標(biāo)跟蹤算法進行了詳細(xì)對比分析。實驗結(jié)果表明,本文的算法在尺度變化和快速運動時具有更好的魯棒性。

        1 孿生區(qū)域推薦網(wǎng)絡(luò)

        孿生網(wǎng)絡(luò)將目標(biāo)圖片與待搜索圖片進行逐塊區(qū)域?qū)Ρ?,從左往右,從上至下。孿生網(wǎng)絡(luò)跟蹤算法提出了用一個函數(shù)f(z,x)定義z(模板幀)和x(檢測幀)的相似度,最終得到相似度分值表(響應(yīng)圖),相似度較高的地方分值較高,反之相似度較低的地方分值較低。

        在孿生區(qū)域推薦網(wǎng)絡(luò)跟蹤算法中,模板幀和檢測幀的相似度匹配過程分為分類分支和回歸分支兩個分支。分類分支用來判讀錨點框是前景或是背景,回歸分支用來得到錨點框的位置偏移量。核心公式如下:

        式中:z是第一幀所給出的目標(biāo)框,x可以看為當(dāng)前幀的搜索區(qū)域?!?”表示互相關(guān)層,可以看成是φ(z)在φ(x)上滑動搜索,最后得到一個響應(yīng)圖,圖上最大值對應(yīng)的點就是算法認(rèn)為的目標(biāo)中心所在位置。cls表示分類分支,reg表示回歸分支。

        2 本文目標(biāo)跟蹤算法

        在孿生網(wǎng)絡(luò)的模板幀與檢測幀的相似度匹配結(jié)果中可能存在具有干擾性的最大值,尤其在孿生區(qū)域推薦網(wǎng)絡(luò)中,分類分支決定著候選框為前景或是背景,這些具有干擾性的響應(yīng)圖最大值可能會影響候選框的判斷,進而帶來跟蹤算法的漂移。因此需要計算出更可靠的響應(yīng)值最大值,減少分類分支的錯誤判斷概率,以提高跟蹤算法的魯棒性。

        為了解決此問題,本文基于孿生區(qū)域推薦網(wǎng)絡(luò)的基礎(chǔ)之上,在分類分支部分增加響應(yīng)正則化模塊將峰值集中到目標(biāo)幾何中心,并與原響應(yīng)值進行融合得到新的響應(yīng)圖。算法如圖1所示。

        我們直接操作預(yù)測的目標(biāo)響應(yīng)圖,并重新公式化為:

        [φ(x)]cls*[φ(z)]cls

        (2)

        圖1 算法框架圖

        式中:M表示應(yīng)用于每個響應(yīng)圖的響應(yīng)正則化模塊,通過使用響應(yīng)正則化確保響應(yīng)圖有以目標(biāo)為中心的單個最大值。M([φ(x)]cls*[φ(z)]cls)表示響應(yīng)值經(jīng)過響應(yīng)正則化之后的結(jié)果,[φ(x)]cls*[φ(z)]cls表示分類分支中模板幀與檢測幀的原響應(yīng)圖。

        2.1 響應(yīng)正則化

        響應(yīng)正則化模塊對每個通道分別提取響應(yīng)圖的水平和垂直方向的最大值,然后求和將跟蹤響應(yīng)圖上的最大值集中到目標(biāo)幾何中心[9-10]。本文在孿生網(wǎng)絡(luò)的分類分支輸出的目標(biāo)響應(yīng)圖上,在水平方向找到每一行的最大值并為該行的所有像素分配最大響應(yīng)值,在垂直方向找到每一列的最大值并為該列的所有像素分配最大響應(yīng)值。響應(yīng)正則化模塊之后響應(yīng)圖的元素值計算如下:

        2.2 訓(xùn) 練

        本文通過離線訓(xùn)練的方式訓(xùn)練模型,并通過最小化損失函數(shù)來獲取最優(yōu)模型。使用反向傳播BPTT和隨機梯度下降SGD進行梯度傳播和參數(shù)更新。如下:

        loss=Lcls+Lreg

        (5)

        式中:Lcls分類損失;Lreg表示回歸損失。

        分類損失函數(shù)如下:

        l(y,v)=log(1+exp(-yv))

        (6)

        回歸損失函數(shù)為:

        2.3 算法實現(xiàn)

        算法流程:

        輸入:視頻序列[t],和第一幀的真值框,坐標(biāo)位置p1。

        輸出:目標(biāo)坐標(biāo)p2,p3,…,pn。

        1 Fort=1:ndo

        2 ift==1 then

        3 根據(jù)p1學(xué)習(xí)模板幀目標(biāo)的特征,分為分類特征和回歸特征

        4 else

        5 提取檢測幀的特征,分為分類特征和回歸特征

        7 對模板幀和檢測幀的分類特征和回歸特征分別進行相關(guān)匹配

        8 對于分類分支得到的響應(yīng)圖進行響應(yīng)正則化操作

        9 融合分類分支經(jīng)過響應(yīng)正則化后的響應(yīng)圖和原響應(yīng)圖得到新的響應(yīng)圖

        10 根據(jù)響應(yīng)圖得到綜合的分類結(jié)果和回歸結(jié)果,進而得到排行前k的候選框

        11 根據(jù)候選框選擇策略得到第t幀目標(biāo)的位置pt

        12 end if

        13 end for

        3 實驗結(jié)果和分析

        為了驗證本文算法的性能,本文將在3個標(biāo)準(zhǔn)數(shù)據(jù)集上運行實驗,包括OTB2013[15]、OTB100[16]和VOT[20]等,對比算法包括SiamRPN[7]、DeepSRDCF[11]、SRDCF[12]、CFNet[5]、SiamFC[4]、ACFN[13]、CSRDCF[14]、Staple[18]、CCOT[19]和KCF[17]等。

        3.1 實驗細(xì)節(jié)

        在本文的實驗中,計算機的配置為一臺帶有Intel i7 3.6 GHz CPU和GeForce GTX 1060 Ti GPU的PC機。

        本文的網(wǎng)絡(luò)與SiamRPN具有相同的結(jié)構(gòu),使用AlexNet的網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò)。本文網(wǎng)絡(luò)結(jié)構(gòu)在ILSVRC15視頻對象檢測數(shù)據(jù)集上進行離線預(yù)訓(xùn)練,使用動量為0.9的隨機梯度下降(SGD)從零開始訓(xùn)練網(wǎng)絡(luò),并將權(quán)值衰減設(shè)置為0.000 5。學(xué)習(xí)速率的指數(shù)從10-2至10-5衰減。訓(xùn)練周期為50個周期,最小批量為32。

        3.2 評價方法

        對于上述方法,我們在OTB2013和OTB100上用跟蹤精度和跟蹤成功率來評估所有的算法。

        OTB的兩個標(biāo)準(zhǔn)評價指標(biāo)是成功率(AUC)和精度(Precision)。精度是指跟蹤框和真值框的歐氏距離在給定閾值以內(nèi)條件下的幀數(shù)占總幀數(shù)的百分比。采用閾值dis=20像素作為評價和對比標(biāo)準(zhǔn)。成功率表示跟蹤框和真值框之間的重疊率大于閾值時,幀數(shù)占總幀數(shù)的百分比。通常取閾值為0.5。

        在VOT2016數(shù)據(jù)集上,算法的性能通過準(zhǔn)確率(Accuracy)、魯棒性(Robustness)和平均重疊期望(EAO)來進行評估。

        3.3 定量分析

        3.3.1在OTB2013與OTB100上對比結(jié)果

        通過與SiamRPN[7]、DeepSRDCF[11]、SRDCF[12]、CFNet[5]、SiamFC[4]、ACFN[13]和CSRDCF[14]等眾多主流的跟蹤器在OTB 2013/100數(shù)據(jù)集上進行比較,我們對所提出的算法進行了評估。SiamRPN、CFNet和SiamFC是最新的基于孿生網(wǎng)絡(luò)的跟蹤器,CSR-DCF和SRDCF使用注意機制,SiamRPN和DeepSRDCF是深度跟蹤器。在第一幀中,所有跟蹤器都初始化為真值狀態(tài),并報告平均成功率。單路徑評價(OPE)的精度圖和成功率圖如圖2所示。表1總結(jié)了更多的結(jié)果。比較表明,我們的算法在這兩種OTB基準(zhǔn)上的實時跟蹤性能都是最優(yōu)的。

        (a) OTB2013精度圖

        (b) OTB2013成功率圖

        (c) OTB100精度圖

        (d) OTB100成功率圖圖2 OTB2013和OTB100數(shù)據(jù)集上成功率和精度對比

        表1 OTB成功率、精度和平均運行速度的對比結(jié)果

        (1) 在OTB2013上對比結(jié)果。OTB-2013的結(jié)果顯示,我們提出的算法成功率和精度達到66.3%和88.9%,排名第一。在使用Siamese網(wǎng)絡(luò)的跟蹤器中,我們的性能優(yōu)于SiamRPN、CFNet和SiamFC,在成功率評分中分別相對提高了0.5%、5.2%和5.6%,在精度方面分別提高了0.5%、8.2%和8%。與使用其他方法的跟蹤器相比,我們的性能優(yōu)于CSR-DCF和ACFN,在成功率評分中分別相對提高了7%和5.6%,在精度方面分別提高了8.6%和2.9%。

        (2) 在OTB100上對比結(jié)果。在OTB-100的結(jié)果中,我們提出的方法達到了最優(yōu),在成功率評分和精度上比排名第二的跟蹤器SiamRPN提高0.4%和0.7%。在使用孿生網(wǎng)絡(luò)的跟蹤算法中,本文的算法性能優(yōu)于SiamRPN、CFNet和SiamFC。與SiamFC、CFNet和SiamRPN相比,將響應(yīng)正則化整合到我們的跟蹤器中,使得我們的成功率得分和精度值提高到64.1%和85.8%,說明了響應(yīng)正則化在實際跟蹤中的有效性。而與其他方法的CSR-DCF和ACFN相比,本文的算法不僅在AUC評分和精度上得分更高,在速度上也更快。

        (3) 運行速度。在表1中的平均速度上,前三名是SiamRPN算法、SiamFC算法和本文的算法,每秒傳輸幀數(shù)分別達到了160、86以及80。這三個算法中,本文算法的速度為80幀/s,低于前兩個算法,這是因為本文算法采用響應(yīng)正則化策略增加了計算負(fù)載。盡管如此,本文的算法在速度上接近于SiamFC算法,但是本文的算法在跟蹤的精度和成功率得分上相比SiamFC有更大的優(yōu)勢。

        3.3.2在VOT2016上對比結(jié)果

        圖3和表2展示了在VOT2016中我們的算法與SiamRPN[7]、CSRDCF[14]、CCOT[19]、Staple[18]、DeepSRDCF[11]、SRDCF[12]、SiamFC[4]和KCF[17]的對比結(jié)果。本文算法的EAO值為0.348 4,排名第一。SiamRPN雖然速度比我們的跟蹤器快了很多,但是在EAO和Failure方面低了很多,這表明引入的響應(yīng)正則化提高了跟蹤的性能。此外我們的跟蹤器較CCOT、DeepSRDCF和CSRDCF速度上快了很多。這驗證了我們的算法具有較快的處理速度和優(yōu)異的性能,顯示出了實際跟蹤應(yīng)用的潛力。

        圖3 VOT2016數(shù)據(jù)集上對比結(jié)果

        表2 VOT2016對比結(jié)果

        3.4 定性分析

        (1) 快速運動(FM):圖4(a)展示了4個算法在目標(biāo)經(jīng)歷了快速運動的視頻序列Tiger1中的跟蹤結(jié)果截圖。在Tiger1視頻序列中,由于目標(biāo)的快速走動和攝像機抖動等因素影響,SiamRPN、CFNet和SiamFC均一定程度的丟失目標(biāo),本文的算法能很好地跟蹤目標(biāo)。

        (2) 尺度變化(SV):圖4(b)展示了4個算法在目標(biāo)經(jīng)歷了尺度變化的視頻序列Lemming中的跟蹤結(jié)果截圖。在Lemming視頻序列中,由于尺度變化和光照影響,CFNet和SiamFC丟失目標(biāo),而本文的算法和SiamRPN能保持對目標(biāo)的穩(wěn)定定位。

        在這2個視頻序列中,本文的算法均能準(zhǔn)確地定位目標(biāo),而SiamRPN、CFNet和SiamFC均有一定程度的丟失。本文提出的算法性能良好的原因主要是我們關(guān)注目標(biāo)的干擾響應(yīng),對于目標(biāo)響應(yīng)進行適當(dāng)調(diào)整,以減少這些特征對于變形、旋轉(zhuǎn)和背景雜波引起的外觀變化的干擾影響。

        (a)

        (b)

        圖4 定性分析結(jié)果

        4 結(jié) 語

        在跟蹤方法中,響應(yīng)圖的選擇對最終的跟蹤算法結(jié)果影響至關(guān)重要。本文提出的基于響應(yīng)正則化的孿生網(wǎng)絡(luò)目標(biāo)跟蹤算法是一種簡單且具有較強魯棒性的目標(biāo)跟蹤算法。本文使用了響應(yīng)正則化減少孿生網(wǎng)絡(luò)分類分支中干擾信息的影響,增強算法對尺度變化和快速運動時差異的魯棒性。最后在OTB2013、OTB100以及VOT2016上的全面評估證實了本文提出的算法相比目前主流的一些跟蹤算法取得了較好的效果。為了獲得更好的準(zhǔn)確率和時效性,未來我們將著手使用深層網(wǎng)絡(luò)來解決目標(biāo)跟蹤問題。

        猜你喜歡
        分類
        2021年本刊分類總目錄
        分類算一算
        垃圾分類的困惑你有嗎
        大眾健康(2021年6期)2021-06-08 19:30:06
        星星的分類
        我給資源分分類
        垃圾分類,你準(zhǔn)備好了嗎
        分類討論求坐標(biāo)
        數(shù)據(jù)分析中的分類討論
        按需分類
        教你一招:數(shù)的分類
        亚洲一区二区综合色精品| 婷婷四虎东京热无码群交双飞视频| 国产精品嫩草99av在线 | 久久精品国产99国产精品澳门| a级毛片成人网站免费看| 国产高潮精品久久AV无码| 亚洲黄片av在线免费观看| 久久综网色亚洲美女亚洲av | 亚洲成人中文字幕在线视频| 亚洲日本va中文字幕| 亚洲午夜久久久久久久久久| 嗯啊哦快使劲呻吟高潮视频| 2021亚洲色中文字幕| 视频区一区二在线观看| 99久久婷婷国产综合亚洲| 狠狠色婷婷久久一区二区| 熟女少妇av免费观看| 天堂蜜桃视频在线观看| 无码丰满熟妇一区二区| 久久综合色鬼| 成人免费无码视频在线网站| 快射视频网站在线观看| 草草地址线路①屁屁影院成人| 日日干夜夜操高清视频| 国产精品国产三级国产在线观 | 亚洲av日韩av永久无码下载| 少妇高潮惨叫久久久久久| 日韩人妻无码精品系列专区无遮| 男女搞事在线观看视频| 免费高清av一区二区三区| 91高清国产经典在线观看| 99国产精品欲av麻豆在线观看| 日韩亚洲精品中文字幕在线观看| 色多多a级毛片免费看| 国产欧美日韩不卡一区二区三区| 亚洲中文字幕视频第一二区| 欧美三级不卡在线观看| 93精91精品国产综合久久香蕉| 日本在线播放不卡免费一区二区| 人妻少妇偷人精品免费看| av无码久久久久不卡网站下载|