亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        搜索區(qū)域和目標尺度自適應的無人艇海面目標跟蹤

        2020-04-11 02:00:16岳琪琪陳加宏
        光學精密工程 2020年3期
        關鍵詞:海面像素點尺度

        劉 娜,岳琪琪,陳加宏,孫 健

        (1.上海大學 機電工程與自動化學院,上海 200444;2.上海大學 計算機工程與科學學院,上海 200444)

        1 引 言

        海面目標跟蹤任務對于海面目標行為分析及水面無人艇的導航避障等方面有著重要意義[1]。海面目標跟蹤任務的定義如下:根據海面圖像序列第一幀中海面目標的信息,該任務負責在之后的每一幀圖像中定位出該目標[2-3]。不同于普通場景的目標跟蹤任務,海面目標跟蹤雖然背景較為簡單,但是具有目標抖動劇烈和目標尺度變化大等獨特難點。

        普通場景的目標跟蹤算法需要充分利用視頻中圖像幀與幀之間的關系,通常的做法是根據上一幀目標的中心位置獲得一定的搜索區(qū)域,然后在該搜索區(qū)域內尋找當前幀目標的位置,因此一旦目標不在搜索區(qū)域內,肯定會造成跟蹤失敗。在海面目標跟蹤過程中,感知攝像機架設在無人艇上,無人艇受風浪影響會發(fā)生晃動,對于輕微晃動可以通過相機云臺來消除,但是當海況較差時,無人艇會發(fā)生超出云臺可調節(jié)范圍的劇烈晃動,使目標在圖像中的位置直接超出搜索區(qū)域,從而導致跟蹤失敗[4]。如圖1(a)所示(彩圖見期刊電子版),黃、藍、紅、綠4條直線分別表示前后4幀圖像中海天線位置的變化,在當時圖像采集頻率為30 frame/s的情況下目標在圖像畫面中產生了劇烈抖動。另一方面,尺度自適應對海面目標跟蹤算法的性能也有著重要的意義[5-10]。若估計的目標框比目標尺度大,則下一幀的搜索區(qū)域會包含更多背景信息,容易導致最佳響應值偏移到背景上從而導致跟蹤漂移甚至失敗;若估計的目標框比目標尺度小,則跟蹤模板只能學習到目標的局部外觀信息,容易導致定位精度低或發(fā)生非預期情況使跟蹤失敗。海面目標大多為船只,其長寬比較大,同時海面目標可活動范圍較大,操作自由度大,當目標自身發(fā)生轉向時,目標船只的尺度變化會很大。圖1右側圖表示了海面目標在尺寸和長寬比兩個方面的變化。以上兩個挑戰(zhàn)都會嚴重打破跟蹤算法的一個重要先驗:前后圖像幀中目標的變化不大。海面目標跟蹤算法必須能夠有效解決以上難點,并且實現定位準確,跟蹤魯棒和CPU下實時的跟蹤效果。

        (a)目標劇烈抖動(a)Intense target jitter(b)目標尺寸和長寬比變化(b)Change of target size and length-width ratio圖1 海面目標跟蹤面臨的獨特挑戰(zhàn)Fig.1 Unique challenges in sea surface target tracking

        目前常用的實時跟蹤算法可以分為兩類:一類是基于相關濾波的,另一類是基于孿生網絡的。早期,基于相關濾波的跟蹤算法使用人為設計的特征[5-13],其跟蹤魯棒性有較大提升空間。后來,基于相關濾波器的跟蹤算法通過循環(huán)樣本集訓練一個二維的濾波器來尋找圖像中目標的位置,并且根據循環(huán)矩陣可以在傅立葉域對角化的性質,將復雜的時域運算轉化到傅立葉域元素間的點乘運算,大大減少了運算量,跟蹤算法的效率很高[12],在CPU計算平臺上可實現超實時跟蹤。采用卷積神經網絡提取目標深度特征可以較大幅度地提升跟蹤性能,但是神經網絡的計算復雜度大,會降低跟蹤算法效率[14-18],無法做到在CPU計算平臺上跟蹤?;趯\生網絡的跟蹤算法通過將模板區(qū)域與候選區(qū)域做相似性匹配來尋找目標的位置[19],目前一些基于孿生網絡的跟蹤算法在精度和魯棒性方面都表現優(yōu)異[20-22],但是無人海洋平臺的供電功率有限,無法為算法處理提供高性能的GPU計算平臺,所以無法采用基于卷積神經網絡的跟蹤算法。因此,本文采用相關濾波作為跟蹤算法的基本框架。

        目前,以上兩類跟蹤算法均不能很好地處理海上目標抖動大的情況。所幸,相機抖動并不會造成圖像中場景相對位置的變化,因此本文提出一種搜索區(qū)域自適應方法,提取海面場景中海天線位置并通過海天線運動模型來修正目標搜索區(qū)域。該方法首先使用高斯混合模型[23]對海面場景進行建模,并使用EM迭代算法[24]對模型進行求解以完成海面分割任務,然后通過分割結果確定海天線在圖像中的位置,以海天線豎直方向的平移運動和平面內的旋轉運動對其主要運動進行建模,最后通過求解前后兩幀海天線的運動參數來修正跟蹤算法中目標搜索框的位置。

        上述兩類跟蹤算法解決目標尺度問題的方法大致可以分為兩類:一類是直接通過構建圖像金字塔以獲得不同尺度的候選目標[5-8];另一類是受目標檢測方法的啟發(fā)提取預先具備目標性質的候選區(qū)域[9,20]。但是這兩種方法的本質都是通過列舉不同尺度的目標來估計目標真實尺度,面對海面場景中目標尺度變化大的情況,跟蹤效果不理想。因此,本文采用圖像分割獲取目標真實大小的策略以實現跟蹤過程中目標尺度自適應。該方法首先使用基于馬爾可夫隨機場的圖像分割[25]策略充分利用全局色彩信息和位置信息來分割目標,然后使用基于結構化隨機森林的邊緣檢測策略以利用局部輪廓信息來提取邊緣細節(jié)[26],最后使用融合策略將以上兩種方法的處理結果進行融合得到更精確的目標尺度。該方法有效解決了跟蹤過程中因目標尺度變化較大而導致的無法獲取目標真實尺度以及跟蹤漂移的問題。

        為了驗證本文提出的搜索區(qū)域自適應算法和尺度自適應算法的有效性,分別選取了目標抖動大的視頻序列和不同尺度變化的視頻序列進行定性和定量分析,在目標抖動大的序列上測試,本文提出的算法精確度可以達到92%,而KCF只能達到3%,在不同尺度變化的序列上測試,本文提出的算法能夠更好地應對目標大尺度變化,并且實驗表明,在搜索區(qū)域自適應算法中應用的海天線檢測算法和在尺度自適應算法中應用的圖像分割算法都能夠達到很好的效果。在真實的海面目標圖像測試序列中,基于相關濾波跟蹤框架并結合上述兩種改進策略的跟蹤方法相比傳統(tǒng)的相關濾波算法,跟蹤精度至少提升了約26%,魯棒性至少提升了約16%。

        2 方 法

        2.1 總體框架

        本文跟蹤算法的總體框架如圖2所示,對于待跟蹤圖像,首先由上一幀目標的位置和尺度獲得搜索區(qū)域并提取搜索區(qū)域的HOG特征,采用相關濾波算法尋找目標的中心位置。相關濾波算法生成與搜索區(qū)域大小相同的響應圖,響應圖中值最大的位置即為目標中心位置。若目標中心位置的響應值大于閾值(通過實驗確定),則認為得到的目標中心位置可靠。此時進行尺度自適應算法,根據得到的目標中心位置截取圖像塊,再通過圖像分割算法將目標從背景中分割出來以獲得目標的精確尺度,最后由目標的尺度矯正目標中心的位置;若目標中心位置的響應值小于閾值,則認為得到的目標中心位置不可靠。此時執(zhí)行搜索區(qū)域自矯正算法,分割當前幀和上一幀圖像中的海天區(qū)域,并由此擬合出海天線的直線方程。由當前幀和上一幀的海天線方程可以得到海天線的運動模型,然后通過海天線的運動模型修正搜索區(qū)域的位置,再一次通過相關濾波獲取目標的中心位置,直到最大的響應值大于設定的閾值進行尺度自適應。

        圖2 海面目標跟蹤算法框架Fig.2 Framework of sea surface target tracking

        本文提出的跟蹤算法由相關濾波模塊、搜索區(qū)域自矯正模塊和尺度自適應模塊3個模塊組成。相關濾波算法[12]作為基礎框架,在其基礎上通過響應值大小來判斷跟蹤效果。在第i幀,以目標中心位置為中心,以目標尺度擴大一定的比例后得到的圖像塊作為基樣本,將基樣本循環(huán)位移后得到循環(huán)樣本集。依據嶺回歸模型求解濾波器,線性嶺回歸的優(yōu)化公式為:

        (1)

        其中:w為濾波器,xi為樣本,yi為樣本對應標簽,λ為正則化項系數,對于非線性,引入核空間:

        (2)

        在基本空間關于參數w的極小化問題轉換為對偶空間關于參數α的極小化問題。此時α存在閉式解,在頻域空間可得到:

        (3)

        其中:kxx為核自相關量,y是標簽矩陣,α為αi的向量化。在跟蹤過程中得到的搜索區(qū)域z的響應圖為:

        (4)

        其中:kxz為x與z的核相關值。響應圖中最大值所在的位置即為目標中心的位置,若最大的響應值小于閾值說明跟蹤失敗,此時執(zhí)行搜索區(qū)域自矯正模塊。為了應對目標變化大的問題,在相關濾波輸出的目標位置之后執(zhí)行尺度自適應模塊。

        2.2 基于海面場景分割的搜索區(qū)域自適應

        為了解決海面目標抖動劇烈的問題,本文通過海面環(huán)境的先驗信息來提取海天線并完成對目標運動模型的修正,具體方法流程如圖3所示。首先對當前幀圖像和前一幀圖像分別使用高斯混合模型進行分割,將海景分割為天空和海面兩個區(qū)域,兩區(qū)域的交界處即為海天線位置;然后使用直線方程擬合海天線,并通過前后兩幀海天線的直線方程得到海天線運動模型;最后由海天線運動模型獲取海天線的平移量和旋轉量并根據這兩個量修正目標搜索框的位置。通過上述操作流程可以將目標搜索框修正到更加合適的位置,從而解決因目標抖動過大而導致的跟蹤失敗問題。

        高斯混合模型及其優(yōu)化:觀察到海景中海面與天空兩個區(qū)域色彩差異較大,而單個區(qū)域中色彩又較單一的特點,本文使用高斯混合模型[23]對海面-天空場景進行建模。本分割任務將圖像分割成天空和海面兩個類別,因此使用的高斯混合模型由兩個高斯模型組成。最后通過EM優(yōu)化方法求解模型參數。為了得到更好的EM迭代效果,先通過自適應算法確定大致的海面和天空區(qū)域。

        圖3 搜索區(qū)域自適應算法流程圖Fig.3 Flowchart of adaptive search area algorithm

        大致確定海面和天空區(qū)域方法的流程如圖4所示。首先將原圖縮放至較小的分辨率,由于這里是對整幅圖像進行圖像分割,而圖像分割所花費的時間與像素點的個數成正相關,所以需要先對圖像進行縮放。在同時考慮速率和精度的情況下,將圖像縮放至50×50的分辨率;然后將三通道圖像轉換為單通道灰度圖并計算每行像素的均值。平均值能夠抑制干擾,得到正確的海天線的大致位置,所以此時數據維度變?yōu)?0×1。由于海上場景天空比較明亮,從天空區(qū)域過渡到海面區(qū)域灰度值會發(fā)生突然變小,對50×1維的數據求一階導數,一階導數最小的位置即為海天線大致位置。獲得海天線的大致位置后,將海面場景自適應的劃分為兩個區(qū)域,根據這兩個區(qū)域的大小初始化高斯模型。圖像中每個像素均包括像素位置通道(row,col)和像素色彩通道(Y,U,V)共5個通道,每個通道均對應一個高斯分布,使用EM算法分別對5個高斯分布的參數求解。

        圖4 混合高斯模型初始位置自適應流程圖Fig.4 Flowchart of adaptive initial position of mixed gauss model

        EM(Expectation Maximization)算法[24]可以分為如下兩步:第一步為E步(期望步),每個像素點的5個通道信息輸入對應通道的高斯分布,得到5個通道上的概率,整合后即可得到該像素屬于天空或者海面的概率。每次進行迭代后都要判斷是否已經達到預設的精度要求,如果達到了就停止迭代得到最終結果。這里使用概率分布的變化量作為判別標準,將本次迭代后求得的概率分布和上一次迭代求得的概率分布進行加權求和,再與本次迭代后求得的概率分布進行對應位置上的差值運算。在第一次迭代之前由于不知道像素的標簽,所以每個像素等概率的屬于天空和海面兩個區(qū)域即均為常值0.5。若前后兩次迭代中概率分布發(fā)生的變化較小說明已經達到迭代終止條件,則停止迭代;第二步為M步(最大化步),根據E步求出各像素點屬于海面的概率和屬于天空的概率,將所有像素點進行天空或海面的區(qū)域分類,根據新的分類結果求出使概率分布的似然函數取得極大值的新高斯模型的參數。接下來使用更新后的高斯模型參數進行下一次迭代的E步,以此循環(huán)迭代直至達到迭代終止條件。

        搜索區(qū)域修正:以圖像的平移運動和旋轉運動來描述海天線的運動。而海天線水平方向的運動主要是由無人艇自身的主動轉向導致的,其運動頻率較低不是導致海天線運動的主要原因,所以不進行考慮。因此,海天線在圖像相鄰兩幀的位置變化可以由豎直方向的平移運動和圖像平面內的旋轉運動的合成運動進行建模。根據上一步的分割結果通過簡單的邊緣提取操作即可獲得海天線的位置,然后使用基于RANSAC[27]的直線擬合方法擬合出海天線最佳位置的直線方程。

        如圖5所示(彩圖見期刊電子版),以圖像左上角為坐標原點,水平向右為x軸正方向,豎直向下為y軸正方向建立坐標系。圖像的寬度為W,高度為H,紅色線條為海天線在上一幀圖像中的位置,其方程式為y=kn-1x+bn-1,綠色線條為海天線在當前幀圖像中的位置,其方程式為y=knx+bn。紅點On-1(xn-1,yn-1)為上一幀目標中心位置即為當前幀矯正前搜索框的中心位置,綠點On(xn,yn)為當前幀經過校正后搜索框的中心位置。這兩點之間的轉換關系和兩海天線之間的轉換關系相同,求出兩海天線之間的轉換關系即為這兩點之間的轉換關系。

        圖5 海天線運動模型求解示意圖Fig.5 Sketch of getting sea-sky line motion model

        圖像矯正前后,圖像中各點的相對位置不會變化,所以向量CnOn與向量Cn-1On-1的模相等,夾角與前后兩幀海天線的夾角α相同,即:

        (5)

        而上一幀中海天線中心與搜索框中心組成的向量Cn-1On-1為:

        (6)

        向量Cn-1On-1旋轉角度α后得到CnOn為:

        (7)

        最終可得點On(xn,yn)的坐標為:

        (8)

        根據上一幀圖像中目標的位置以及公式(8)可求得修正后的目標搜索框的中心位置。

        2.2 基于搜索區(qū)域分割的目標尺度自適應

        尺度自適應方法的總體流程如圖6所示。首先對于新的一幀圖像,由相關濾波模塊得到目標的粗略位置,此時得到的位置信息并不準確;然后在這個粗略的目標位置上擴大一定的比例截取出待分割目標區(qū)域;接著使用基于馬爾可夫的海面目標分割方法和基于結構化隨機森林的海景邊緣提取方法分別得到目標的輪廓;再使用本文提出的融合方法將兩個結果融合得到最終的分割結果;最后使用分割結果在原圖上得到目標的精確位置以及尺寸。通過上述描述的流程即能實現目標在跟蹤過程中的尺寸自適應。

        圖6 尺度自適應算法流程圖Fig.6 Flowchart of adaptive target scale

        基于馬爾可夫的海面目標分割:在目標分割時,目標的中心位置已知,可以以某像素點屬于目標的概率會隨著與該中心位置的距離的增大而減小建立空間先驗信息。使用修改后的二維高斯分布作為空間先驗,二維高斯分布的函數形式如下:

        (9)

        其中row和col分別表示像素點在圖像坐標系中的行數和列數。

        隨后根據實際情況確定二維高斯分布中的參數σ1和σ2。以目標框為臨界位置,目標框及目標框外的位置屬于目標的概率等于0.5;靠近目標框中心屬于目標的概率大于0.5且逐漸增大,則可以得到如下等式:

        (10)

        (11)

        其中:式(10)、式(11)均是以圖像中心位置作為坐標原點,a表示中心位置屬于目標的概率,H表示目標框的高度,W表示目標框的寬度。那么可以計算得到:

        (12)

        (13)

        將指定中心位置像素點屬于目標的概率a以及目標框的尺度H和W帶入式(12)和式(13)即可以計算出σ1以及σ2。最終獲得的空間位置先驗形狀如圖7所示。

        海上環(huán)境中目標與背景的色彩差異較大,所以選擇顏色信息作為先驗,使用顏色特征可以實現對目標分割[28]。獲得圖像顏色編碼直方圖的過程如圖8所示。

        圖8 前景和背景編碼直方圖建立流程圖Fig.8 Flowchart of establish foreground and background coding histogram

        首先將待分割區(qū)域圖像從RGB顏色空間轉換到HSV顏色空間,HSV顏色空間能夠非常直觀地表達色彩的明暗、色調以及鮮艷程度,方便進行顏色之間的對比。目標框將待分割圖像分劃分為前景和背景區(qū)域,目標框內的像素點均屬于前景,目標框外的像素點均屬于背景。將HSV顏色空間的彩色圖像分離為3幅單通道的灰度圖像,分別統(tǒng)計出每幅單通道圖像的直方圖,由此可以分別提取前景以及背景的顏色統(tǒng)計直方圖。顏色直方圖的組距設置為16,這樣0~255的灰度值就會映射到直方圖的0~15區(qū)間內。前景和背景分別生成3幅直方圖,則圖像特征的維度共48維。但是此時3個通道之間的信息相互獨立,為了將3個通道關聯起來,對3幅直方圖進行編碼。編碼前HSV 3通道的直方圖均為16維,取值為0~15,編碼后的直方圖維度共4 096維。編碼的具體轉換公式如下:

        Hist4 096(hist)=256×H16(h)+
        16×S16(s)+1×V16(v),

        (14)

        其中:H16(h),S16(s),V16(v)分別表示像素點對應到3個通道直方圖的位置分別為h、s和v,16代表該向量為16維,Hist4 096(hist)則表示該像素點對應到編碼直方圖中的位置,4 096代表該向量為4 096維。根據該計算公式可得像素對應到編碼后的直方圖的位置,如此遍歷每一個像素點后即可得到前景和背景的編碼直方圖。

        綜合上述步驟,得到待分割圖像中每個像素的信息,包括顏色空間3通道特征(H,S,V)以及空間位置特征(x,y)共5個通道的數據,根據學習到的顏色統(tǒng)計編碼直方圖以及建立的空間概率分布圖計算出目標后驗概率。具體步驟如下:首先根據上一步驟生成的前景和背景圖像塊的編碼直方圖即可得到這個像素點屬于前景和背景的概率,將前景概率進行歸一化后可得到該像素點在只考慮色彩通道的情況下屬于前景的概率P1;然后將像素點的空間位置特征(x,y)帶入生成的空間先驗圖,得到該像素點在僅考慮空間位置的情況下屬于前景的概率P2。最后,將這兩項概率相乘即可得到該像素點屬于前景的概率(P1×P2)。

        基于結構化隨機森林的目標邊緣提?。簣D像中的邊緣在圖像分割任務中是非常重要的信息,通過邊緣檢測來達到較好的分割效果。基于結構森林的邊緣檢測是Dollar等[26]首先提出的,隨機森林由眾多互不相關的決策樹組成,每個決策樹相當于一個弱分類器,而決策樹組成的隨機森林相當于一個強分類器,能提高泛化以及容錯能力。對于單個決策樹j,使用訓練數據集進行訓練:

        Sj?X×Y,

        (15)

        其中:X為訓練樣本集合,Y為樣本對應的標簽集合。訓練的過程就是尋找節(jié)點分離函數:

        h(x,θj)=[xk<γ∈{0,1}],

        (16)

        其中:θj=(k,γ),k為樣本x的某一特征,γ為該特征對應的閾值。在此過程中根據如下信息增益準則來選擇特征:

        (17)

        (18)

        (19)

        (20)

        其中Py為訓練集Sj中標簽為y的概率。

        計算其每個特征的信息增益,并比較它們的大小,然后選擇信息增益最大的特征作為結點。如此不斷地遞歸訓練直到達到了設定的樹的深度或信息增益的閾值,最終就能確定決策樹的分支情況以及每個內部結點使用的判別特征。

        基于馬爾可夫隨機場的圖像分割實際上使用了圖像的全局信息,即目標的整體色彩信息,而基于結構化邊緣提取的圖像分割實際上使用了圖像的局部紋理信息。本文融合了全局信息和局部信息以實現更好的分割效果。融合方法如下:

        Ic=Ia.*Ib,

        (21)

        其中:Ia為使用基于馬爾可夫隨機場分割方法得到的目標概率圖,Ib為使用基于結構化森林邊緣檢測得到的邊緣響應圖,運算符號.*代表對應位置上元素相乘,Ic則為融合兩種方法得到的結果。

        3 實 驗

        3.1 目標跟蹤算法評估準則

        以安裝在水面無人艇上的環(huán)境感知攝像機拍攝的真實圖像序列作為本文跟蹤算法性能評估的測試數據集,并按照OTB100[2-3]目標跟蹤數據集公開的統(tǒng)一標準進行了人工標注。

        基于上述測試數據,本文定性地分析了海天線檢測算法和目標分割算法的有效性,定量地評估了跟蹤算法的成功率和精確度。成功率、精確度和魯棒性是評估跟蹤算法的3種度量指標。通常根據精確度曲線圖和成功率曲線圖對跟蹤算法的性能進行排名,用曲線與橫坐標和縱坐標所圍成的面積來量化表示,其取值范圍為0~1,越接近1代表算法的跟蹤效果越好。

        精確度曲線圖的橫坐標為中心距離閾值,縱坐標為中心距離小于對應橫坐標閾值幀數與總視頻總幀數的比值。中心距離定義為跟蹤算法得到的目標框的中心坐標與真實的目標框的中心坐標之間的歐式距離,距離公式定義如下:

        (22)

        其中:(xgt,ygt)是目標真實邊界框的中心坐標,(xbb,ybb)是計算得到的目標邊界框的中心坐標。

        從式(22)可以看出,該評估方法只考慮目標框的位置而沒有考慮目標框的尺度,因此這個評估方法常用于評估目標尺度固定的跟蹤算法的跟蹤精度。

        成功率曲線圖的橫坐標為重疊率閾值,縱坐標為重疊率超過對應的橫坐標閾值的幀數與視頻總幀數的比值。重疊率定義為跟蹤算法得到的目標邊界框與目標實際邊界框之間的交集與并集的比,其公式如式(23)所示:

        (23)

        其中:Areabb為計算得到的目標邊界框區(qū)域,Areagt為目標真實邊界框區(qū)域,∩和∪分別表示兩個邊界框之間的交集和并集,Num(·)表示指定區(qū)域中像素點的個數。重疊率IOU數值越大表示計算結果越理想,其取值范圍為0~1。

        魯棒性評估分為一次性通過評估(One-pass Evaluation,OPE)、時間魯棒性評估(Temporal Robustness Evaluation,TRE)和空間魯棒性評估(Spatial Robustness Evaluation,SRE)共3個算法魯棒性評估標準。本文只用到OPE和TRE,因此介紹這兩種魯棒性評估。OPE在視頻的第一幀用真實的目標位置對跟蹤算法進行初始化,使用跟蹤算法得到后續(xù)幀中目標的位置即完成一次性通過評估;TRE與OPE不同,其將每個視頻序列平分成20個等份,然后從不同等份的起始幀開始跟蹤器的初始化,使用跟蹤算法得到后續(xù)幀結果。因此,TRE相當于每個視頻序列的不同起始時間上獨立執(zhí)行算法20次,以此實現時間魯棒性的評估。

        3.2 海天線檢測算法有效性驗證

        從海面目標圖像序列中隨機選取一張海天圖片驗證EM迭代算法的有效性。如圖9所示,分別為原圖像和迭代1、2、3、4、5次后的分割效果。第1次迭代結果由于人為設定的初始化高斯模型與真實值存在偏差導致分割效果不理想;從第2次迭代開始,分割結果相對理想,但是前后兩次迭代的概率分布仍在變化,迭代仍然繼續(xù);第5次迭代完成后,概率分布的變化量小于指定閾值,即達到了迭代終止條件。上述分割結果與人為分割效果十分接近,由此可以看出EM迭代算法的有效性。

        圖9 EM迭代算法多次迭代分割效果Fig.9 Multiple iterative of EM iterative algorithms

        如圖10所示,每行分別表示一個圖像序列中的一幀圖像的海天線檢測過程,從左到右依次為縮放后的原始圖像、分割效果、提取的海天線和海天線直線擬合效果。前2行的海天線檢測效果表明:當目標較遠時,海天線沒有被物體遮擋,檢測海天線的難度較低;第4行和第5行的測試結果表明:即使視野出現較大的物體遮擋了海天線,本文檢測方法仍然能夠準確地檢測海天線的位置;最后2行由于海上天氣原因,造成圖像中天空和海面顏色差異較小,對于基于顏色特征的分割方法帶來了極大挑戰(zhàn)。第5行檢測結果顯示:雖然成功檢測出海天線位置,但是惡劣的天氣嚴重影響了海天線的檢測精度。

        圖10 海天線檢測實驗驗證Fig.10 Experiment of sea-sky line detection

        3.3 目標分割有效性驗證

        為了更直觀地感受目標分割方法的效果,單獨對目標分割的有效性進行了實驗驗證。從采集的圖像序列中抽取5個序列進行不同分割方法的對比,結果如圖11所示。從左到右依次為待分割圖像、真實分割效果、基于馬爾可夫隨機場分割方法得到的結果、基于結構化隨機森林提取的邊緣結果以及使用本文提出的融合策略得到的融合結果。第3列和第4列結果顯示:基于馬爾可夫隨機場的分割方法獲得分割結果的輪廓精確度較差;基于結構化隨機森林提取的邊緣包括了背景邊緣相比于只使用一種分割方法,使用本文提出的融合策略得到的分割結果更加貼近目標真實的輪廓和大小,用這種結果來確定目標尺度的效果會更好。

        圖11 目標分割方法效果對比Fig.11 Comparison of different target segmentation methods

        3.4 搜索區(qū)域自適應模塊實驗

        搜索區(qū)域自適應實驗是驗證算法對目標的定位效果而不考慮目標尺度,所以只需用中心距離衡量標準來評估跟蹤效果。選擇KCF,KCF2,LCT以及本文算法共4個算法進行對比。KCF[12]是本文算法的基礎框架,KCF2是將KCF的搜索框由之前的2.5倍調整到5.5倍,驗證以單純擴大搜索框的方法面對目標劇烈抖動的效果。LCT[29]算法中添加了跟蹤失敗再檢測模塊,能夠在跟蹤失敗后通過檢測重新定位目標位置。本文是本文提出的使用前后兩幀之間海天線的運動參數來矯正搜索框位置的算法。

        圖12為4種算法在一個目標抖動劇烈測試序列上的跟蹤效果對比圖。由于第1幀和第2幀之間目標抖動過大,KCF算法丟失了目標,而此時擴大了搜索區(qū)域的KCF2算法成功的定位到目標位置。第11幀,除了本文算法外其他算法均跟蹤失敗,但LCT的重檢測模塊能在后續(xù)幀中再次定位到目標位置。第95幀,只有本文算法和LCT算法定位到了目標實際位置。以上結果表明:單純的擴大搜索區(qū)域對目標抖動問題有一定的緩解作用,而本文提出的通過海天線的運動參數來矯正搜索框位置能有效地解決目標抖動劇烈的問題。

        圖12 目標抖動劇烈情況下跟蹤算法效果對比圖Fig.12 Comparison of tracking algorithm in the case of violent jitter of target

        圖13是目標抖動大的圖像序列上作一次性通過評估的精確度曲線圖。精確度曲線表明:算法之間的性能差距很大,這是由于在高海況場景下,即使相鄰幀之間目標也會發(fā)生較大位移,對于沒有跟蹤失敗再檢測功能的跟蹤算法而言,只要某幀跟蹤失敗后續(xù)幀幾乎都是錯誤的跟蹤結果。所以KCF以及KCF2算法的精度很低,LCT算法憑借著再檢測模塊對目標的重新定位以至不丟失目標,其跟蹤精度略好。而本文提出的算法表現最好,證明了本文提出的使用海天線運動模型參數修正目標搜索框的算法的有效性。

        圖13 目標抖動劇烈跟蹤算法精確度曲線Fig.13 Comparative experiment of target segmentation

        3.5 尺度自適應模塊實驗

        為了驗證本文提出的目標尺度自適應算法的有效性,選取了SAMF,DSST,KCFDP,KCF這4種算法與本文提出的算法進行對比。其中,SAMF[8]和DSST[5]能夠實現長寬比固定的尺度自適應,KCFDP[9]能夠實現長寬比自適應的尺度自適應,KCF[12]不能實現尺度自適應,其作為本文算法的基礎框架進行對比。本文算法提出使用目標分割方法來實現尺度自適應的算法。采用OPE以目標框的中心距離和重疊率兩個衡量標準來評估跟蹤效果。OPE和實際應用過程中的流程完全一致,通過該評估結果能夠直接體現算法在實際應用中的表現效果。

        圖14為5種算法在一個目標尺度變化大的測試序列上的跟蹤效果對比圖。跟蹤結果表明:只有本文算法能夠精確地獲取目標的位置及尺度。在第2~80幀之間船只目標發(fā)生急劇轉向,除了本文算法,其余4種算法對船只目標尺度的自適應能力不足;第610~650幀之間,目標在更遠的位置發(fā)生了急劇的轉向,本文算法仍然能夠通過目標分割算法準確的獲取目標的位置及尺度,KCFDP、DSST和SAMF 3種算法在第650幀目標完成轉向后只能跟住目標船只的尾部,而KCF由于不能實現尺度自適應導致背景信息所占的成分越來越多,到1 110幀跟蹤完全失敗。值得一提的是在該圖像序列的第2幀,本文算法得到的目標尺度與初始化的目標尺度相比發(fā)生了較大變化。這是由于本文的目標分割方法無法精細地解決船只邊緣細長的凸起物,只能將船只的主要部分分割出來。正是由于這一特性該算法才能著重于目標的主要特征部分從而減少了背景的干擾,獲得更好的跟蹤效果。

        圖14 目標尺度變化大的情況下跟蹤算法效果對比圖Fig.14 Comparison of tracking algorithm under large scale changes of target

        圖15 不同尺度變化情況下跟蹤算法精確度曲線和成功率曲線Fig.15 Precision plots and success plots of tracking algorithms under different scale variations

        如圖15所示是不同算法量化對比曲線圖。其中第1行為不同跟蹤算法在圖像序列上的精確度曲線圖,該評估標準中用定位誤差閾值為20像素點時的精度值來量化排名,因為此時各算法的精確度曲線趨于平穩(wěn),可以真實地體現跟蹤算法的性能;第2行結果為不同跟蹤算法在圖像序列上的成功率曲線圖。兩行跟蹤結果從左至右分別表示目標尺度變化逐漸增大。第1行結果顯示:目標尺度變化不大時本文算法與KCFDP的成功率接近,而目標尺度變化大時,本文算法與KCFDP的成功率差距顯著,表明本文提出的算法具備更好的處理海上目標尺度變化大的能力。第2行結果顯示:目標尺度變化不大時,幾個算法的精確度都可以達到100%。但是當目標尺度變化大時,本文算法的精確度仍有100%,其他算法則很低,進一步表明本文算法的有效性。

        根據圖15結果定量分析:(1)當目標尺度緩慢變化、長寬比不變化的情況下,這幾種算法的精確度均能夠達到100%;在獲取目標具體尺度方面,能實現尺度自適應的算法表現要優(yōu)于不能實現尺度自適應的KCF基礎算法,而其中本文提出的算法獲得成功率為85.5%的最優(yōu)量化評分,但是由于該情況比較簡單很難拉開差距,所以其相比于第2名的DSST只提高了3.3%。(2)當目標尺度急劇變化、長寬比緩慢變化的情況下,這幾種算法的精確度仍然都能達到100%,而在獲取目標具體尺度方面,能實現長寬比自適應的算法表現明顯要優(yōu)于其他算法,而其中本文提出的算法獲得成功率為73.7%的最優(yōu)量化評分,但是由于該情況下長寬比只發(fā)生了緩慢的變化,所以其相比于第2名的KCFDP只提高了0.8%。(3)當目標尺度急劇變化、長寬比也急劇變化的情況下,這幾種算法只有本文提出的算法精確度可以達到100%,并且在獲取目標具體尺度方面,本文算法的表現明顯要優(yōu)于其他算法,本文算法獲得成功率為65.6%的最優(yōu)量化評分,相比于第2名的DSST提高了26.9%的精確度,足以證明該算法在應對海上目標跟蹤惡劣情況的有效性。

        3.6 綜合性能對比

        為了驗證本文算法的整體有效性以及海上目標跟蹤的普適性,本節(jié)對本文提出的目標跟蹤算法進行了綜合性的評估。使用采集的所有海面目標序列對算法進行綜合性的評估,分別用一次性通過評估(OPE)和時間魯棒性評估(TRE)兩種方法以目標框的中心距離和重疊率兩個衡量標準來評估跟蹤效果。

        圖16和圖17的跟蹤結果顯示:無論是一次性通過評估(OPE)還是時間魯棒性評估(TRE),本文提出的跟蹤算法的表現都是最好的。從評估曲線以及性能指標可以看出,相比于其他跟蹤算法本文提出的算法應用在海面目標跟蹤場景中,無論是定位精度還是目標框大小,無論是實際應用情況評估還是魯棒性評估,都得到較大提升。

        圖16 跟蹤算法一次通過性評估精確度曲線和成功率曲線Fig.16 Success plot and precision plot of OPE

        圖17 跟蹤算法時間魯棒性評估精確度曲線和成功率曲線Fig.17 Success plot and precision plot of TRE

        4 結 論

        本文著重解決水面無人艇在海面執(zhí)行目標跟蹤任務時遇到的難題,主要針對海面目標跟蹤中普遍遇到的兩個難題進行研究:海面目標抖動劇烈,這種現象出現在海況較差、目標較遠的情況,本文利用海面場景簡單、海天線特性突出的特點,使用圖像分割的方法來檢測海天線位置,并通過海天線的運動模型來修正目標搜索區(qū)域。海面目標跟蹤過程中目標尺度變化大,本文利用海面場景中目標與背景色彩差距較大的特點,使用分割搜素區(qū)域的方法計算目標的真實大小,以實現目標的尺度自適應。為了驗證本文提出的算法的有效性,在真實應用場景建立了無人艇海面目標跟蹤測試序列中進行了定量和定性分析。實驗表明本文提出的算法有效地解決了海面目標跟蹤場景中目標抖動劇烈和尺度自適應問題,相比傳統(tǒng)的相關濾波算法,其跟蹤精度上至少提升了26%,跟蹤成功率至少提升了16%。

        猜你喜歡
        海面像素點尺度
        海面床,輕輕搖
        財產的五大尺度和五重應對
        第六章 邂逅“胖胖號”
        小學科學(2020年6期)2020-06-22 13:13:41
        基于canvas的前端數據加密
        海面上的“一千座埃菲爾鐵塔”
        基于逐像素點深度卷積網絡分割模型的上皮和間質組織分割
        宇宙的尺度
        太空探索(2016年5期)2016-07-12 15:17:55
        基于Node-Cell結構的HEVC幀內編碼
        電視技術(2014年11期)2014-12-02 02:43:28
        9
        亚洲av男人免费久久| 日韩精品无码久久久久久| 中文字幕在线久热精品| 少妇人妻出水中文字幕乱码| 亚洲色图视频在线免费看| 中文 在线 日韩 亚洲 欧美| 欧美日韩成人在线| 国产三级在线看完整版| 亚洲一区二区三区偷拍厕所| 热久久美女精品天天吊色| 1000部精品久久久久久久久 | 国产色秀视频在线播放| 久久免费视亚洲无码视频| 国产熟女露脸大叫高潮| 亚洲国产精品久久精品| 日本护士吞精囗交gif| 亚洲性69影视| 精品国产乱子伦一区二区三| 国产精品综合色区在线观看| 国产精品久久久久久麻豆一区| 青青草视频在线视频播放| 精彩亚洲一区二区三区| 帮老师解开蕾丝奶罩吸乳网站| 在线观看免费人成视频| 丰满人妻一区二区三区免费| 国产成人自拍高清在线| 免费无码黄动漫在线观看| 久久精品成人91一区二区| 午夜视频一区二区三区在线观看 | 精品亚洲成在人线av无码| 2022国内精品免费福利视频| 亚洲一区二区三区四区精品| 日本一道综合久久aⅴ免费 | 91短视频在线观看免费| 在线观看高清视频一区二区三区| 精品久久久久久无码专区| 久久人人爽人人爽人人av东京热 | 久久亚洲中文字幕精品二区| 米奇7777狠狠狠狠视频影院| 亚洲国产麻豆综合一区| 网址视频在线成人亚洲|