亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        無人車駕駛場景下的多目標(biāo)車輛與行人跟蹤算法

        2021-03-21 05:11:54顧立鵬孫韶媛劉訓(xùn)華宋奇奇
        小型微型計算機系統(tǒng) 2021年3期
        關(guān)鍵詞:跟蹤器關(guān)聯(lián)特征

        顧立鵬,孫韶媛,李 想,劉訓(xùn)華,宋奇奇

        (東華大學(xué) 信息科學(xué)與技術(shù)學(xué)院,上海 201620)

        1 引 言

        多目標(biāo)跟蹤(Multi-Object Tracking,MOT)是計算機視覺領(lǐng)域的一個研究熱點,在自動駕駛、機器人續(xù)航、視頻監(jiān)控與行為分析等領(lǐng)域發(fā)揮著重要的作用[1].相比于單目標(biāo)跟蹤,多目標(biāo)跟蹤主要是在輸入的視頻中定位多個目標(biāo),維持它們的ID不變,并形成各自的軌跡,因此更復(fù)雜、更具挑戰(zhàn).近10年來,隨著深度神經(jīng)網(wǎng)絡(luò)的迅速發(fā)展,基于檢測的多目標(biāo)跟蹤算法受到了廣泛的關(guān)注.這類方法主要將多目標(biāo)跟蹤問題分為兩個步驟:第1步,使用目標(biāo)檢測網(wǎng)絡(luò)檢測出給定視頻序列中每一幀存在的感興趣的目標(biāo);第2步,使用數(shù)據(jù)關(guān)聯(lián)算法將檢測到的目標(biāo)隨著時間推移,分配各自的ID,并生成各自的軌跡[2].

        盡管已經(jīng)過多年的研究,多目標(biāo)跟蹤算法的性能仍還遠未達到人類的水平.當(dāng)前該問題面臨的挑戰(zhàn)主要包括:未知的目標(biāo)類別及數(shù)量;目標(biāo)之間頻繁的遮擋;目標(biāo)的漏檢或誤檢等[1].針對上述問題,目前的解決方法大多集中在以下幾個方面:優(yōu)化提升目標(biāo)檢測網(wǎng)絡(luò)性能、設(shè)計更具表現(xiàn)力的目標(biāo)特征模型、設(shè)計更高效的數(shù)據(jù)關(guān)聯(lián)算法[3].對于優(yōu)化提升目標(biāo)檢測器性能,Zhou[4]等人提出了CenterNet網(wǎng)絡(luò),利用關(guān)鍵點估計來確定潛在目標(biāo)的中心點,并回歸出寬高尺寸、偏移量等目標(biāo),具有整體網(wǎng)絡(luò)計算開銷小、精度高且速度快等優(yōu)點.Shang-Hua Gao[5]等人提出了Res2Net模塊,其可被便捷地嵌入到現(xiàn)有的目標(biāo)檢測網(wǎng)絡(luò)中,在不增加網(wǎng)絡(luò)整體計算開銷的基礎(chǔ)上,提升目標(biāo)檢測網(wǎng)絡(luò)的性能.針對設(shè)計更具表現(xiàn)力的目標(biāo)特征模型,Bo Li[6]等人提出的SiamRPN網(wǎng)絡(luò),通過將孿生網(wǎng)絡(luò)和區(qū)域推薦網(wǎng)絡(luò)結(jié)合到一起實現(xiàn)對初始幀的給定目標(biāo)的跟蹤,前者用來提取目標(biāo)在上一幀的區(qū)域和在當(dāng)前幀的兩倍區(qū)域的卷積特征,后者用來推理出該目標(biāo)在當(dāng)前幀的狀態(tài).針對優(yōu)化數(shù)據(jù)關(guān)聯(lián)算法,Leal-Taixé[7]等人使用孿生網(wǎng)絡(luò)提取局部時空域特征,再根據(jù)兩個檢測到目標(biāo)的時空域特征的響應(yīng)之間的幾何距離,得到兩個檢測到目標(biāo)之間的關(guān)聯(lián)概率,最后用匈牙利算法對相鄰幀檢測到的目標(biāo)進行關(guān)聯(lián).

        受上述啟發(fā),為了解決無人車駕駛場景下的多目標(biāo)跟蹤所面臨的各種問題,本文從優(yōu)化目標(biāo)檢測器和數(shù)據(jù)關(guān)聯(lián)算法兩個方面,提出了一種無人駕駛場景下的多目標(biāo)車輛與行人跟蹤算法:1)提出了Res2Net_plus模塊,具體是在Res2Net模塊中嵌入了1×1卷積和SE-Net模塊,以融合空間信息和通道信息,提升網(wǎng)絡(luò)對目標(biāo)區(qū)域特征的提取能力;2)用CenterNet網(wǎng)絡(luò)作為目標(biāo)檢測器,并用Res2Net_plus模塊替代網(wǎng)絡(luò)原有的殘差單元,以進一步提升CenterNet網(wǎng)絡(luò)對無人車駕駛場景下車輛和行人的檢測精度;3)受SiamRPN網(wǎng)絡(luò)啟發(fā),將其網(wǎng)絡(luò)一分為二,孿生網(wǎng)絡(luò)部分設(shè)計為關(guān)聯(lián)概率網(wǎng)絡(luò),進行基于外觀特征的關(guān)聯(lián)概率度量,而區(qū)域推薦網(wǎng)絡(luò)部分設(shè)計為輔助跟蹤器,來對歷史幀中的漏檢或消失又出現(xiàn)的目標(biāo)進行持續(xù)跟蹤,并將可靠的跟蹤結(jié)果合并到存在的軌跡中;4)設(shè)計了一種基于目標(biāo)外觀特征和位置信息融合的匹配策略,具體是孿生網(wǎng)絡(luò)對檢測到目標(biāo)所在區(qū)域的外觀特征進行提取,作為主要的匹配依據(jù).同時,目標(biāo)的位置信息作為輔助匹配依據(jù),用于剔除外觀相似但在兩幀中所處的位置較遠的虛假匹配關(guān)系.在KITTI跟蹤基準(zhǔn)數(shù)據(jù)集上的實驗結(jié)果表明,與已有的方法對比,本文方法具有競爭力,尤其對于因目標(biāo)檢測器的漏檢或目標(biāo)的消失又出現(xiàn)所導(dǎo)致的跟蹤軌跡不連續(xù)或目標(biāo)ID頻繁切換的問題有很大的改善作用.

        2 多目標(biāo)跟蹤框架

        本文提出的無人車駕駛場景下的多目標(biāo)檢測算法由目標(biāo)檢測網(wǎng)絡(luò)、關(guān)聯(lián)概率網(wǎng)絡(luò)和數(shù)據(jù)關(guān)聯(lián)模塊3部分組成,算法整體框圖如圖1所示.其中,①為輸入視頻序列;②為目標(biāo)檢測網(wǎng)絡(luò)檢測每幀的車輛與行人;③為提取目標(biāo)外觀和位置信息,并經(jīng)過關(guān)聯(lián)概率網(wǎng)絡(luò),得到關(guān)聯(lián)概率矩陣;④為經(jīng)過數(shù)據(jù)關(guān)聯(lián)模塊,得到車輛與行人跟蹤結(jié)果(目標(biāo)的ID和包圍框坐標(biāo)).

        圖1 算法整體框圖Fig.1 Algorithm block diagram

        2.1 目標(biāo)檢測網(wǎng)絡(luò)

        目標(biāo)檢測網(wǎng)絡(luò)對基于檢測的多目標(biāo)跟蹤器的整體性能有著至關(guān)重要的影響,這是因為目標(biāo)檢測網(wǎng)絡(luò)的誤檢或漏檢將造成目標(biāo)ID的頻繁切換或目標(biāo)軌跡的斷開等問題[8].因此,一個兼顧精度和速度的目標(biāo)檢測網(wǎng)絡(luò)對多目標(biāo)跟蹤算法十分重要.

        2.1.1 CenterNet網(wǎng)絡(luò)

        本文選取了CenterNet網(wǎng)絡(luò)作為多目標(biāo)跟蹤的目標(biāo)檢測器.不同于基于錨框的檢測網(wǎng)絡(luò),CenterNet網(wǎng)絡(luò)將目標(biāo)檢測問題巧妙地轉(zhuǎn)換成關(guān)鍵點估計問題,利用關(guān)鍵點估計來確定目標(biāo)的中心點,同時在中心點處回歸出該目標(biāo)的其他屬性,如寬高尺寸、中心點的偏移量等.這使得該網(wǎng)絡(luò)在整體計算開銷相對較小的情況下,擁有很好地提取并利用目標(biāo)內(nèi)部的信息的能力,實現(xiàn)了潛在目標(biāo)的檢測,因此具有其精度高且速度快的優(yōu)點,尤其對于無人車駕駛場景下數(shù)量多且有頻繁遮擋的車輛與行人具有很好的檢測能力,網(wǎng)絡(luò)結(jié)構(gòu)圖如圖2所示.

        圖2 CenterNet網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 Network structure of CenterNet

        在圖2中,右上角虛線圈內(nèi)網(wǎng)格中的黑點是對該圖片內(nèi)的車輛進行偏移量估計的放大圖,以實現(xiàn)對車輛位置的修正,對其精確定位.本文中所使用的Backbone為帶有動態(tài)卷積的DLA_34網(wǎng)絡(luò),該網(wǎng)絡(luò)是通過多級跳躍連接的,并以多次迭代的方式融合淺層與深層的信息,以獲得更具表現(xiàn)力的特征.在Backbone的輸出端增加了Keypoint heat head、Object size head和Local offset head,分別回歸輸入圖像中潛在目標(biāo)的關(guān)鍵點、寬高尺寸和中心點的偏移量,從而可以精準(zhǔn)地檢測到視頻序列中的車輛與行人.

        2.1.2 Res2Net_plus模塊

        由于無人車駕駛場景下存在很多較小的目標(biāo)或行人和車輛之間相互遮擋的情況,為了提高CenterNet網(wǎng)絡(luò)對小目標(biāo)和遮擋目標(biāo)的檢測效果,本文提出了Res2Net_plus模塊.Res2Net_plus模塊通過結(jié)合Octave Conv[9]和SE-Net[10]的思想對原始ResNet(Bottleneck)模塊進行改進.Octave Conv的核心思想是將原始特征圖按不同頻率進行分解,對含有不同頻率信息的特征圖分開操作,從而可以加速卷積的計算和提高任務(wù)的性能.而SE-Net的思想是引入了注意力的機制,用一個權(quán)重來表示輸入特征圖的通道在后續(xù)階段的重要程度,以實現(xiàn)特征圖的空間信息和通道信息的融合.

        受此啟發(fā),本文在Res2Net模塊中的以層級殘差式風(fēng)格連接3×3卷積前端分別加上一組1×1的卷積,以獲得含有不同頻率信息的特征圖,如圖3(b)中①號虛線框所示.同時,在Res2Net模塊中嵌入SE-Net,以融合特征通道間的關(guān)系,進一步提升網(wǎng)絡(luò)的空間特征表現(xiàn)力,得到更加有表現(xiàn)力的多尺度特征,如圖3(b)中②號虛線框所示.Res2Net模塊和Res2Net_plus結(jié)構(gòu)如圖3所示.

        圖3 Res2Net和Res2Net_plus模塊結(jié)構(gòu)Fig.3 Module structure of Res2Net and Res2Net_plus

        在圖3中,假設(shè)經(jīng)過頭部第一個1×1卷積后的尺寸為H×W×C的特征圖為U′,原來的Res2Net模塊僅僅簡單的將1×1卷積后的特征圖按通道等分成4份,而Res2Net_plus是將1×1的卷積后的特征圖分別經(jīng)過4個1×1×(C/4)的卷積,生成4個H×W×(C/4)特征圖送入后續(xù)卷積層,以獲得含有不同頻率信息但通道數(shù)減為原來4倍的特征圖.同時,嵌入的SE-Net模塊則是對經(jīng)過尾部最后一個1×1卷積輸出的尺寸為H×W×C的特征圖U″先后進行Squeeze操作、Excitation操作及Scale操作,以實現(xiàn)特征圖的空間信息和通道信息的融合.其中,Squeese操作是使用全局池化,將大小為H×W×C的輸入特征圖轉(zhuǎn)為1×1×C的特征描述,計算方法如公式(1).Excitation操作是將得到的1×1×C的特征描述經(jīng)過兩個全連接層和一個Sigmoid激活函數(shù),得到1×1×C的通道間的權(quán)重s.Scale操作是按通道將獲得1×1×C的權(quán)重s與原始輸出的H×W×C的特征圖U″通過簡單的乘法進行融合,得到H×W×C的特征圖U?,計算方法如公式(2).

        (1)

        (2)

        2.2 關(guān)聯(lián)概率網(wǎng)絡(luò)

        外觀特征是目標(biāo)檢測領(lǐng)域中一種具有很好區(qū)分性的屬性.尤其是在目標(biāo)之間相互遮擋或存在許多外觀相似的目標(biāo)時,外觀特征可以被使用來對目標(biāo)進行檢測、識別和區(qū)分.

        在早期的研究中,一些人工制作的特征常常被使用來表征物體的外觀特征.隨著深度神經(jīng)網(wǎng)絡(luò)的發(fā)展,基于深度神經(jīng)網(wǎng)絡(luò)提取的物體的外觀特征被廣泛地使用在目標(biāo)檢測、跟蹤等領(lǐng)域.本文利用基于嵌入了CIR單元(cropping-inside residual units)的CIResNet_22為主干網(wǎng)絡(luò)的孿生網(wǎng)絡(luò)提取目標(biāo)的外觀特征,并分別將其兩兩直接進行卷積計算如公式(3)所示,得到關(guān)聯(lián)概率值,值越高目標(biāo)越相似,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示.

        k=U1*U2

        (3)

        其中,U1和U2為兩個不同目標(biāo)經(jīng)過CIResNet_22提取的尺寸一樣的特征圖,*表示卷積計算操作,k為一個標(biāo)量,值越高,表示兩個目標(biāo)越相似,反之,則差異越大.

        該關(guān)聯(lián)概率網(wǎng)絡(luò)的輸入是目標(biāo)檢測網(wǎng)絡(luò)對視頻序列每幀檢測到的目標(biāo)的二維包圍框的左上角和右下角坐標(biāo),(x1,y1)和(x2,y2).然后根據(jù)二維包圍框的坐標(biāo)將每幀檢測到的目標(biāo)裁剪出來,把尺寸調(diào)整為127×127,送入CIResNet_22網(wǎng)絡(luò)中,來提取每幀中檢測到的每個目標(biāo)的外觀特征,其尺寸為6×6×256.假設(shè)上一幀和當(dāng)前幀分別代表第t幀和第t+1幀,且分別檢測到目標(biāo)的數(shù)量為Nt和Nt+1.然后,將第t幀的Nt個特征圖與第t+1幀的Nt+1個特征圖兩兩直接進行卷積計算,可以得到尺寸為Nt×Nt+1的關(guān)聯(lián)概率矩陣,例如圖4右上角虛線圈內(nèi)所示.

        圖4 關(guān)聯(lián)概率網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.4 Structure diagram of association probability network

        2.3 數(shù)據(jù)關(guān)聯(lián)模塊

        數(shù)據(jù)關(guān)聯(lián)也是基于檢測跟蹤的多目標(biāo)跟蹤方法中十分關(guān)鍵的一步,這直接決定了所檢測到的目標(biāo)之間匹配的效率與最終跟蹤效果.本文設(shè)計了一種級聯(lián)形式的數(shù)據(jù)關(guān)聯(lián)方法,首先采用匈牙利算法來完成相鄰幀之間檢測到的目標(biāo)的初步匹配,后續(xù)兩步工作由基于區(qū)域推薦網(wǎng)絡(luò)[11]的輔助跟蹤器完成,以進一步提升目標(biāo)跟蹤能力.

        2.3.1 數(shù)據(jù)關(guān)聯(lián)

        數(shù)據(jù)關(guān)聯(lián)一共分3步進行,工作流程如圖5所示.

        圖5 數(shù)據(jù)關(guān)聯(lián)模塊工作流程圖Fig.5 Workflow of data association module

        第1次匹配:充分利用目標(biāo)的外觀特征,得到相鄰幀的目標(biāo)的初步匹配關(guān)系.以 “集合Dt和Dt+1” 為輸入,通過關(guān)聯(lián)概率網(wǎng)絡(luò)計算得到相鄰幀的關(guān)聯(lián)概率矩陣.然后,使用匈牙利算法[12]得到相鄰兩幀所檢測到的目標(biāo)的初步匹配關(guān)系.接著,將滿足下述條件1和條件4的當(dāng)前幀的目標(biāo)合并到存在的軌跡中;反之,則將上一幀和當(dāng)前幀的未匹配上的目標(biāo)分別放入“集合Ut”和“集合Ut+1”.

        第2次匹配:利用基于區(qū)域推薦網(wǎng)絡(luò)的輔助跟蹤器對漏檢的目標(biāo)進行持續(xù)跟蹤.以“集合Ut”為輸入,使用輔助跟蹤器對上一幀未匹配上的目標(biāo)進行持續(xù)跟蹤,得到當(dāng)前幀的位置狀態(tài)和跟蹤得分.接著,將滿足條件2、條件3和條件5的跟蹤結(jié)果合并到存在的軌跡中;反之,則認(rèn)為該目標(biāo)已消失,將其放入“集合U30”.設(shè)置一個最大連續(xù)跟蹤幀數(shù)Nmax,當(dāng)超過連續(xù)Nmax幀時,該漏檢的目標(biāo)還未出現(xiàn),則不再對此進行跟蹤.

        第3次匹配:利用輔助跟蹤器對前30幀已經(jīng)消失的目標(biāo)進行推理判斷是否在當(dāng)前幀再次出現(xiàn).以“集合Ut+1和U30”為輸入,使用輔助跟蹤器對前30幀未匹配上的目標(biāo)進行持續(xù)跟蹤,推理出在當(dāng)前幀的狀態(tài).接著,將滿足下述條件2、條件3和條件5的跟蹤結(jié)果合并到存在的軌跡中,并將其從“集合U30”中刪除.最后,當(dāng)前幀未匹配上的目標(biāo)為新出現(xiàn)的目標(biāo),為其創(chuàng)建新的軌跡.

        其中,條件1為關(guān)聯(lián)概率大于閾值30;條件2為跟蹤得分大于閾值0.9;條件3為預(yù)測得到的目標(biāo)包圍框距離圖片邊界大于15像素值;條件4為兩個目標(biāo)的包圍框的IoU值大于閾值0.01;條件5為預(yù)測得到的目標(biāo)包圍框與歷史幀中該目標(biāo)的包圍框的IoU值大于閾值0.01.

        2.3.2 輔助跟蹤器

        C組自然分娩產(chǎn)婦所占比例高于A、B組,B組高于A組(P<0.05);C組陰道助產(chǎn)及剖宮產(chǎn)產(chǎn)婦所占比例低于A、B組,B組低于A組(P<0.05),見表4。

        本文中所使用的輔助跟蹤器是基于區(qū)域推薦網(wǎng)絡(luò)設(shè)計的,主要目的是改善因目標(biāo)檢測網(wǎng)絡(luò)的漏檢導(dǎo)致目標(biāo)ID頻繁切換或軌跡斷開的問題,具體網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示.

        其中,輔助跟蹤器中使用的主干網(wǎng)絡(luò)和前面關(guān)聯(lián)概率網(wǎng)絡(luò)的主干網(wǎng)絡(luò)一樣,都是使用CIResNet_22網(wǎng)絡(luò),且共享權(quán)重.輔助跟蹤器輸入由兩部分組成,分別為未匹配上的目標(biāo)集合(包括特征圖、ID和包圍框的坐標(biāo))和當(dāng)前幀的圖片.其中,未匹配的目標(biāo)的特征圖作為模板幀的特征圖,尺寸為6×6×256.而檢測幀的特征圖的提取通過兩個步驟:首先,以未匹配的目標(biāo)的中心點在當(dāng)前幀圖片中裁剪出同樣中心點的兩倍區(qū)域;然后用CIResNet_22網(wǎng)絡(luò)提取出尺寸為22×22×256的特征圖;接著,模板幀和檢測幀的特征圖復(fù)制雙份,分別送入?yún)^(qū)域推薦網(wǎng)絡(luò)的分類分支和回歸分支中進行后續(xù)操作.其中,分類分支,用于區(qū)分目標(biāo)的前景和背景;回歸分支,用于對目標(biāo)的候選區(qū)域進行微調(diào).

        圖6 輔助跟蹤器結(jié)構(gòu)圖Fig.6 Structure diagram of auxiliary tracker

        (4)

        (5)

        3 實驗與結(jié)果分析

        3.1 實驗配置與數(shù)據(jù)集

        本實驗是使用Pytorch 0.4.1框架實現(xiàn)的,實驗配置如表1所示.

        表1 實驗配置Table 1 Experimental configuration

        數(shù)據(jù)集使用了公開的KITTI目標(biāo)檢測基準(zhǔn)數(shù)據(jù)集和KITTI目標(biāo)跟蹤基準(zhǔn)數(shù)據(jù)集,其中,目標(biāo)檢測數(shù)據(jù)集主要是對汽車和行人的檢測,其訓(xùn)練集和測試集分別有7481和7518張圖片,而目標(biāo)跟蹤數(shù)據(jù)集主要是對汽車與行人的跟蹤,其訓(xùn)練集和測試集分別有21和29個視頻序列.在本實驗中,將KITTI目標(biāo)檢測基準(zhǔn)數(shù)據(jù)集原有標(biāo)注的8個不同的類別合并為兩個類別,具體是將Car、Van和Truck這3類合并為Car類,將Pedestrian、Person_sitting和Cyclist這3類合并為Pedestrian類,且僅保留Car和Pedestrian類.同時,也將KITTI目標(biāo)跟蹤基準(zhǔn)數(shù)據(jù)集原有標(biāo)注的Pedestrian和Person類合并為Pedestrian,將Van和Car合并為Car類,且僅保留Car、Pedestrian和Cyclist類.同時,將KITTI目標(biāo)檢測基準(zhǔn)數(shù)據(jù)集的訓(xùn)練集按8∶1∶1劃分為訓(xùn)練集、驗證集和測試集,用于對目標(biāo)檢測網(wǎng)絡(luò)的訓(xùn)練和評估.另外,考慮到目標(biāo)檢測數(shù)據(jù)集和目標(biāo)跟蹤數(shù)據(jù)集有部分圖片是重合的,為了公平起見,首先將目標(biāo)跟蹤數(shù)據(jù)集的訓(xùn)練集中21個視頻序列分別按7∶3的比例切分成訓(xùn)練集和驗證集,分別用來重新訓(xùn)練目標(biāo)檢測網(wǎng)絡(luò)和驗證本文提出的多目標(biāo)跟蹤算法.接著,將目標(biāo)跟蹤數(shù)據(jù)集的訓(xùn)練集全部用來重新訓(xùn)練目標(biāo)檢測網(wǎng)絡(luò),用于在該目標(biāo)跟蹤數(shù)據(jù)集的測試集上評估本文所提出的多目標(biāo)跟蹤算法.

        3.2 訓(xùn)練過程

        3.2.1 Centernet網(wǎng)絡(luò)訓(xùn)練過程

        首先,本文為了評估CenterNet網(wǎng)絡(luò),先使用KITTI目標(biāo)檢測基準(zhǔn)數(shù)據(jù)集.然后,為了評估多目標(biāo)跟蹤算法,使用KITTI目標(biāo)跟蹤數(shù)據(jù)集重新訓(xùn)練CenterNet網(wǎng)絡(luò),訓(xùn)練過程都是未加載預(yù)訓(xùn)練模型,優(yōu)化器都為Adam,初始的學(xué)習(xí)率都為1.25×10-4.在按比例劃分好的目標(biāo)檢測數(shù)據(jù)集的訓(xùn)練集和目標(biāo)跟蹤數(shù)據(jù)集的訓(xùn)練集上的兩次訓(xùn)練過程都是一樣的,輸入分辨率為512×512,訓(xùn)練140個epoch,batch為8,并分別在第90和120的epoch處,使學(xué)習(xí)率分別下降10倍.而在目標(biāo)跟蹤數(shù)據(jù)集的全部訓(xùn)練集上先后訓(xùn)練3次,第1次未加載預(yù)訓(xùn)練模型,第2、3次均以上次訓(xùn)練出來的模型為預(yù)訓(xùn)練模型來加載訓(xùn)練.首先以512×512的輸入分辨率,訓(xùn)練230個epoch,分別在第90和120的epoch處,使學(xué)習(xí)率分別下降10倍.接著,以384×1280的輸入分辨率,訓(xùn)練140個epoch,分別在第90和120的epoch處,使學(xué)習(xí)率分別下降10倍.最后,以384×1280的輸入分辨率,訓(xùn)練40個epoch,分別在第10和15的epoch處,使學(xué)習(xí)率分別下降10倍.

        3.2.2 關(guān)聯(lián)概率網(wǎng)絡(luò)和區(qū)域推薦網(wǎng)絡(luò)訓(xùn)練過程

        由于關(guān)聯(lián)概率網(wǎng)絡(luò)和基于區(qū)域推薦網(wǎng)絡(luò)的輔助跟蹤器是受SiamRPN網(wǎng)絡(luò)啟發(fā)而設(shè)計的,且其權(quán)重共享,因此關(guān)聯(lián)概率網(wǎng)絡(luò)和區(qū)域推薦網(wǎng)絡(luò)的權(quán)重可由以CIResNet_22為主干網(wǎng)絡(luò)的SiamRPN網(wǎng)絡(luò)訓(xùn)練得到.首先,SiamRPN網(wǎng)絡(luò)加載在ImageNet數(shù)據(jù)集上訓(xùn)練得到的預(yù)訓(xùn)練模型.接著,在使用裁剪程序處理后的VID和Youtu-BB數(shù)據(jù)集上訓(xùn)練,訓(xùn)練50個epoch.裁剪程序為從歷史幀中裁剪出目標(biāo)模板區(qū)域,并將其尺寸變?yōu)?27×127,且以歷史幀的目標(biāo)的中心點在當(dāng)前幀圖片中裁剪出同樣中心點的兩倍區(qū)域,并將其尺寸變?yōu)?55×255,以組成成對的圖片用于網(wǎng)絡(luò)的訓(xùn)練.

        3.3 評價指標(biāo)

        評估多目標(biāo)跟蹤算法采用的指標(biāo)如表2所示,其中,MOTA和MOTP對多目標(biāo)跟蹤算法總體性能進行評估,而Mostly Tracked(MT),Mostly Lost(ML)、ID-Switch(IDS)和Fragmentations(FRAG)對跟蹤器在給目標(biāo)分配正確的ID的效率進行評估.另外,本文也做了關(guān)于目標(biāo)檢測網(wǎng)絡(luò)性能的實驗評估,其指標(biāo)如表3所示.

        表2 多目標(biāo)跟蹤算法的指標(biāo)Table 2 Metrics used for multiple object tracking

        表3 目標(biāo)檢測算法的指標(biāo)Table 3 Metrics used for object detection

        3.4 實驗結(jié)果及分析

        圖7為KITTI跟蹤基準(zhǔn)數(shù)據(jù)集的測試集中視頻序列1中連續(xù)的4幀視頻序列的目標(biāo)檢測與跟蹤的結(jié)果.從圖7中可以看出,在第3和第4幀中,目標(biāo)檢測器因汽車有部分遮擋,所以沒有檢測到這輛汽車,但是輔助跟蹤器卻能很好地跟蹤這輛有部分遮擋的汽車,其ID為7,沒有發(fā)生改變.圖8為KITTI跟蹤基準(zhǔn)數(shù)據(jù)集的測試集中視頻序列0中連續(xù)的4幀的目標(biāo)跟蹤的結(jié)果.從圖8中可以看出,本文算法在擁擠的停車環(huán)境中仍然能對車輛進行很好的跟蹤.

        圖7 KITTI跟蹤基準(zhǔn)測試集中序列1中連續(xù)4幀視 頻序列的檢測與跟蹤對比結(jié)果Fig.7 Comparison results of detection and tracking of four consecutive video sequences in video sequence 1 of KITTI tracking benchmark test set

        為了驗證本文提出的Res2Net_plus模塊對CerterNet網(wǎng)絡(luò)的影響,本文將Res2Net_plus模塊拆分成Res2Net、1×1和SE-Net 3部分,在KITTI目標(biāo)檢測數(shù)據(jù)集上進行了對比實驗,結(jié)果如表4所示.另外,為了驗證所提出的關(guān)聯(lián)概率網(wǎng)絡(luò)、輔助跟蹤器對整體多目標(biāo)算法性能的影響,本文在KITTI跟蹤基準(zhǔn)數(shù)據(jù)集中包含21個視頻序列的訓(xùn)練集上進行了對比實驗,結(jié)果如表5所示.最后,為了與已有的多目標(biāo)跟蹤算法進行比較,本文還在KITTI目標(biāo)跟蹤數(shù)據(jù)集中包含28個視頻序列的測試集上進行與其他多目標(biāo)跟蹤算法的對比實驗,結(jié)果分別如表6和表7所示.

        圖8 KITTI跟蹤基準(zhǔn)測試集中序列0中連續(xù)4幀 視頻序列的跟蹤的結(jié)果Fig.8 Video sequence tracking results of four consecutive frames in video sequence 0 of KITTI tracking benchmark test set

        從表4中可以看出,Res2Net、1×1和SE-Net模塊可使CenterNet網(wǎng)絡(luò)的各項指標(biāo)均有提升,表明了所提出的Res2Net_plus模塊可提升CenterNet網(wǎng)絡(luò)對無人車駕駛場景下車輛和行人的檢測精度.

        從表5中可以看出,相較于僅使用目標(biāo)的位置信息(相鄰幀目標(biāo)的IoU值),關(guān)聯(lián)概率網(wǎng)絡(luò)和輔助跟蹤器均可以提高多目標(biāo)跟蹤算法對車輛目標(biāo)的跟蹤能力.另外,基于區(qū)域推薦網(wǎng)絡(luò)的輔助跟蹤器也可以一定程度上提高多目標(biāo)算法的性能,尤其是IDS和FRAG這兩個指標(biāo)都有明顯的提升.

        從表6和表7中可以看出,本文所提出的無人車駕駛場景下的多目標(biāo)跟蹤算法對于車輛與行人這兩類,在大部分指標(biāo)上都領(lǐng)先其他幾個多目標(biāo)跟蹤算法.尤其,本文提出的多目標(biāo)跟蹤算法在MOTP和FRAG這兩個指標(biāo)均領(lǐng)先其他算法許多,這也表明了所提出的多目標(biāo)跟蹤算法在無人車駕駛場景下具有很好的競爭力.

        表4 在KITTI檢測基準(zhǔn)數(shù)據(jù)集(訓(xùn)練集中劃分出來的748張圖片)上試驗Res2Net_plus模塊對CerterNet網(wǎng)絡(luò)的影響Table 4 Effects of Res2Net_plus module for CenterNet on the KITTI detecting benchmark dataset (748 pictures divided from the training set)

        表5 在KITTI跟蹤基準(zhǔn)數(shù)據(jù)集(21個視頻序列的訓(xùn)練集中劃分出來的驗證集)上試驗各模塊對多目標(biāo)跟蹤算法的影響Table 5 Effects of each module for the multi-object tracking algorithm on the KITTI tracking benchmark dataset (the verification set divided by 21 video sequences of training set)

        表6 在KITTI跟蹤基準(zhǔn)數(shù)據(jù)集的測試集上與其他多目標(biāo)跟蹤算法對比實驗結(jié)果(‘Car’類)Table 6 Comparison of experimental results with other multi-object tracking algorithm on test set of KITTI tracking benchmark dataset(′Car′class)

        表7 在KITTI目標(biāo)跟蹤數(shù)據(jù)集的測試集上與其他多目標(biāo)跟蹤算法對比實驗結(jié)果(‘Pedestrian’類)Table 7 Comparison of experimental results with other multi-object tracking algorithm on test set of KITTI tracking benchmark dataset(′Pedestrian′class)

        4 結(jié) 論

        本文提出多目標(biāo)算法在無人車駕駛場景下對車輛與行人具有很好的跟蹤能力.實驗結(jié)果表明,提出的Res2Net_plus模塊可以有效提高目標(biāo)檢測器對車輛與行人的檢測精度,關(guān)聯(lián)概率網(wǎng)絡(luò)也能很好地構(gòu)建目標(biāo)的特征表達模型,從而顯著提高多目標(biāo)跟蹤算法對目標(biāo)的跟蹤能力.另外,輔助跟蹤器也可以有效對漏檢的目標(biāo)進行持續(xù)跟蹤,這樣可以很好地改善因目標(biāo)部分遮擋、目標(biāo)檢測器失效造成的目標(biāo)漏檢所導(dǎo)致的目標(biāo)ID頻繁切換或跟蹤軌跡斷開等問題,尤其可以從IDS和FRAG這兩個指標(biāo)看出.但從實驗結(jié)果可以看出,相較于其他的算法,對車輛的跟蹤,本文提出的算法的MOTA和MT、ML這3個指標(biāo)還不是很具有競爭力,還有提升的空間,后續(xù)的研究將進一步解決好對相互擁擠且外觀相近的目標(biāo)跟蹤能力較弱的問題.

        猜你喜歡
        跟蹤器關(guān)聯(lián)特征
        光伏跟蹤器陣列跟蹤精度的測算方法研究
        太陽能(2022年3期)2022-03-29 05:15:50
        淺析一種風(fēng)光儲一體化跟蹤器
        太陽能(2020年3期)2020-04-08 03:27:10
        如何表達“特征”
        “一帶一路”遞進,關(guān)聯(lián)民生更緊
        不忠誠的四個特征
        超長待機的自行車位置跟蹤器
        奇趣搭配
        抓住特征巧觀察
        雙向多軌跡判定方法在目標(biāo)跟蹤中的應(yīng)用研究
        智趣
        讀者(2017年5期)2017-02-15 18:04:18
        国产欧美va欧美va香蕉在线| 国产免费人成视频在线观看播放播| 国产精品99久久久精品免费观看| 国产成人精品三上悠亚久久| 午夜视频福利一区二区三区| 蜜桃码一区二区三区在线观看| 日本久久久免费高清| 欧美激情视频一区二区三区免费| 国产猛男猛女超爽免费视频| 婷婷五月婷婷五月| 国产成人午夜精华液| 国产天堂网站麻豆| 一本一本久久久久a久久综合激情| 国产亚洲高清在线精品不卡| 色老板在线免费观看视频日麻批 | 男女啪啪免费视频网址| 久久精品国产亚洲综合av| av剧情演绎福利对白| 丝袜美腿一区二区三区| 精品国产人成亚洲区| 国产成人亚洲不卡在线观看| 久久精品日本美女视频| 男男做h嗯啊高潮涩涩| 国产情侣自拍一区视频| 99久久精品国产一区二区| 中文字幕一区二区三区人妻少妇| 欧美色色视频| 亚洲中文字幕有综合久久| 韩国三级黄色一区二区| 国产成人精品免费久久久久| 玩50岁四川熟女大白屁股直播| 人人妻人人玩人人澡人人爽| 久久这里都是精品一区| 午夜亚洲精品视频网站| 偷拍美女上厕所一区二区三区| 日韩一区二区三区无码影院| 国产一区二区在线视频| 精品五月天| 青青青伊人色综合久久| 女同恋性吃奶舌吻完整版| 午夜精品久久久久久久|