摘 要:為解決現有跟蹤控制方法中目標偏離圖像中心、方位角誤差大的問題,本研究提出一種集控動態(tài)目標跟蹤方法。通過整合不同監(jiān)控設備和傳感器信息,并進行信息預處理和特征提取,來融合有效信息。利用反向投影消除靜態(tài)背景,更新分類器以追蹤目標狀態(tài)變化。試驗結果顯示,當目標偏離中心時,相機角度值水平角在58°~95°,垂直角在60°~93°,符合預期;當200s時,方位角誤差趨近0。這種集控方法提高了安防反恐監(jiān)控的感知能力,實現了良好的跟蹤控制效果。
關鍵詞:安防反恐;監(jiān)控;目標跟蹤
中圖分類號:TP 27" " 文獻志碼:A
在當今社會,安防反恐工作面臨著前所未有的挑戰(zhàn)。隨著科技的不斷進步,恐怖活動和犯罪手段也日趨復雜和多樣化。傳統(tǒng)的監(jiān)控手段已經難以滿足現代安防的需求,因此,亟需探索和應用新的技術來提高安防反恐的效率和準確性。在這樣的背景下,多監(jiān)控手段集控動態(tài)目標跟蹤控制方法應運而生。通過動態(tài)目標跟蹤控制方法,系統(tǒng)能夠自適應地調整跟蹤策略,保證目標在復雜多變的場景中始終受到有效監(jiān)控[1]。引入目標跟蹤控制方法,不僅提高了安防反恐的智能化水平,也極大地提高了監(jiān)控的效率和準確性[2],它能夠在第一時間發(fā)現潛在的安全隱患,為決策者提供準確的信息支持,從而做出快速而精準的反應。這對保障人民生命財產安全、維護社會穩(wěn)定具有重要意義。由于傳統(tǒng)方法缺乏智能分析能力,因此無法對目標進行實時跟蹤等。當專注于目標細節(jié)時,可能會忽略周圍的其他移動目標,導致無法全面掌握監(jiān)控區(qū)域內的所有情況。在需要快速抓取目標細節(jié)過程中,具有較強的局限性,從而使結果無法達到預期。因此,現階段以安防反恐用多監(jiān)控手段集控動態(tài)目標為研究對象,對目標進行跟蹤控制,結合實際情況對其進行試驗。
1 動態(tài)目標跟蹤控制
1.1 多監(jiān)控手段集控信息融合
多監(jiān)控手段集控信息是安防反恐領域中的一個重要環(huán)節(jié),對不同監(jiān)控設備和傳感器的信息進行有效整合,以提高監(jiān)控過程的整體效能[3]。對各種信息源提供的數據和特征進行綜合處理,對監(jiān)控設備采集的信息進行預處理,對原始數據進行線性變換,使其能夠標準化。其計算過程如公式(1)所示。
z=f([i-]d) " (1)
式中:i為初始數據點;為數據均值;d為標準差。對原始數據進行預處理,使其質量更高。
在數據處理的過程中,關鍵步驟是將不同來源的數據進行關聯和對齊。這是建立數據間時空關系的基礎,有助于更全面地理解數據的本質和內在規(guī)律。數據關聯和對齊后,可保證數據之間的準確性和一致性,從而進行特征提取,獲得數據中最具代表性的部分。在特征提取的過程中,需要充分考慮不同網絡之間的差異以及監(jiān)控影像中動態(tài)目標的特點,保證提取的特征具有足夠的代表性和準確性。當提取監(jiān)控信息特征時,選擇合適的網絡深度至關重要。網絡過深會導致信息過度抽象和丟失,而網絡過淺則無法充分提取數據的內在特征[4]。因此,需要根據具體的應用場景和數據特點,選擇合適的網絡深度,以保證能從同一圖像中提取互補特征。
雖然通過特征提取可以獲得很多有用的信息,但在采樣提取特征的過程中,會不可避免地丟失部分細節(jié)信息。為了解決這個問題,采用編碼器和解碼器間,多個跳躍的連接方式。這種連接方式能夠將網絡提取的淺層和深層特征進行融合,從而有效地補全丟失的信息,提高特征提取的準確性和完整性。
因此,在網絡編碼器和解碼器中添加了殘差模塊的UNet,獲取多尺度上下聚合信息,設定網絡融合后的模型為e,獲取每個深度網絡對像素x的輸出概率p(k|x,ej)。將像素x識別為k類的概率,并設定背景為k2,目標為k1。
在數據處理實踐中,采用深度網絡融合的方式,將單張影像的多個通道的特征圖進行堆疊,以此構建一個更豐富和全面的數據集。這種方法能夠充分利用影像中的多通道信息,將不同通道的特征圖進行有機融合,從而提高數據的質量和價值。通過這種方式,有效地處理不同監(jiān)控設備之間的信息冗余問題。不同監(jiān)控設備由于其自身的技術特性和工作環(huán)境的差異,因此會產生一定的信息冗余或缺失。通過深度網絡融合,可以將這些信息進行有效整合和互補,從而得到一個更準確和完整的數據集。最終,這個數據集在經過訓練后,能夠為目標精確跟蹤識別提供有力的數據支撐。
1.2 多特征融合法背景消除
多特征融合法背景消除是一種有效的圖像處理方法,可以幫助提取目標并消除背景干擾。在實際應用中,這種方法廣泛應用于視頻監(jiān)控、智能交通、安防反恐等領域,用來實時跟蹤和識別動態(tài)目標。首先,該方法利用差分灰度直方圖作為判斷目標運動狀態(tài)的依據[5]。差分灰度直方圖可以反映圖像中像素值之間的變化情況,從而準確判斷目標是否處于運動狀態(tài)。對連續(xù)幀圖像進行差分處理,可以得到一個表示圖像變化的差分圖。其次,使用融合后的圖像作為目標,并找出與目標梯度特征相似的候選目標區(qū)域,可以通過比較目標區(qū)域與周圍圖像像素的梯度值來實現。梯度是指像素值的變化率,可以描述圖像的邊緣和紋理信息。通過計算候選目標區(qū)域的梯度特征,可以篩選與目標特征相近的區(qū)域。再次,針對選定的圖像中的動態(tài)目標,對原圖的梯度直方圖進行反向投影,從而消除其中的靜態(tài)背景。反向投影是一種將圖像中像素值映射回原始圖像的過程。通過將目標的梯度特征映射到原圖上,可以高亮顯示與目標相關的像素點,從而將靜態(tài)背景消除,突出目標的輪廓[6]。在運動目標檢測中,通過計算當前幀圖像和背景圖像之間的差值來獲得運動目標所在的區(qū)域。差值圖像可以準確地反映目標與背景之間的差異。通過設置適當的閾值,可以將差值圖像二值化,將運動目標所在的區(qū)域提取出來。對差分圖進行數字圖像處理,例如連通區(qū)域分析,可以得到目標的梯度特征。連通區(qū)域分析是指將圖像中相鄰的像素進行分組,形成表示目標區(qū)域的連通區(qū)域。通過計算連通區(qū)域的各項特征,例如面積、周長、中心點位置等,可以獲取更詳細的目標信息。最后,將不同特征進行融合,可以得到更全面準確的目標特征信息。
梯度特征融合的計算過程如公式(2)所示。
q(i0)=λq(i0)+(1-λ)q(o0) " (2)
式中:λ為色度值。通過梯度特征融合,能夠獲得直方圖的反向投影,從而避免了因單一特征相似而導致的目標圖像與背景圖像區(qū)分問題。通過三幀差來獲取動態(tài)目標,消除目標運行對背景產生的影響,獲得更精確的動態(tài)目標輪廓,其消除過程如公式(3)所示。
(3)
式中:bi為第i個幀。因此,運用幀間差分來檢測視頻圖像序列中相鄰幀之間的變化。在時間t的一個幀f(i,o,t)和下一個時刻f(i,o,t+1)間,通過計算幀間差分得到一個二值圖。設定決策閾值為Y,若幀間差分值小于Y,則視為背景圖的一部分。對該部分進行消除,這樣就完成了背景消除,獲得了目標所在區(qū)域。
1.3 主動跟蹤控制動態(tài)目標
在跟蹤控制過程中,需要將消除背景后的動態(tài)目標圖像投影到坐標系中,并進一步對其進行控制和跟蹤。為了消除X和Y方向上的偏移并對其進行精準控制,須使用旋轉云臺光軸的方法,將目標位置調整到Z軸上,形成虛擬成像。通過對目標的虛擬成像進行定位和旋轉,可以使目標沿著Z軸方向移動,從而簡化控制過程中X和Y的坐標調整。這種虛擬成像方法能夠有效地消除X和Y方向的偏移,并為后續(xù)控制與跟蹤提供更穩(wěn)定和準確的基礎[7]。為了消除X和Y方向上的偏移,通過旋轉云臺光軸,使目標位于Z軸上,形成虛擬成像。具體如圖1所示。
將三維坐標轉換成球面坐標,將Z軸水平方向旋轉θ角,再將Z軸沿垂直方向旋轉d角,從而消除Y方向上的偏移。通過控制水平和垂直脈沖寬度,從而控制云臺沿水平方向和垂直方向進行旋轉,以此跟蹤目標。在目標跟蹤過程中,當目標狀態(tài)發(fā)生變化時,需要對分類器進行更新來繼續(xù)跟蹤[8]。每隔幾幀對分類器進行更新,減少跟蹤漂移。在跟蹤結果周圍采取正負樣本來實時更新分類器。
設定在 t時刻目標位置附近采集若干正樣本,其余目標位置區(qū)域采集負樣本,然后對分類器進行更新。其更新過程如公式(4)所示。
(4)
式中:μ為目標樣本的均值。選擇分類器中最大響應值cmax為目標位置,結合每次移動的像素數,選取正負樣本對分類器參數進行更新后,就可以對下一幀樣本進行準確分類,得到像素最終類別如公式(5)所示。
(5)
式中:wi為像素分類識別權重。通過分類器進行分類,得到不同類別的目標,結合周圍環(huán)境變化以提高跟蹤的準確性。
2 試驗測試與分析
2.1 搭建試驗環(huán)境
試驗采用的硬件平臺為Pem Dual,設置一臺內存為1.3G的主機。采用了標定好的YR45相機進行實時跟蹤。試驗用到的軟硬件平臺環(huán)境及參數見表1。
設置正樣本的采樣數為50,移動的像素數為4。尺度變量為0.03,學習參數為0.02。通過參數調整,能夠在真實場景下對動態(tài)目標進行跟蹤控制,以此來驗證本文跟蹤控制方法的效果。針對這個問題,通過目標發(fā)生偏離時,YR45相機需要轉動的角度值來分析試驗結果。根據這些角度值,當設定水平角為50°~105°,垂直角為60°~95°時,能夠對目標進行有效主動跟蹤。
2.2 結果與分析
為了驗證本文方法的有效性,試驗選用標定好的YR45相機,在真實場景下對行人進行跟蹤。在相同的場景下,對不同動態(tài)目標進行跟蹤。通過控制攝像機得到目標在監(jiān)控視野中的位置,確定目標在相機監(jiān)控視野的中心位置,獲得水平與垂直方向旋轉角度值見表2。
在跟蹤過程中,當目標偏離圖像中心時,計算得出T1至T8的相機角度值水平角均在58°~95°,垂直角均在60°~93°,結果符合預期。說明運用本文跟蹤控制方法能使攝像機準確地調整角度與位置,使目標重新回到圖像中心,主動跟蹤運動目標。通過有效地控制相機,可以避免運動目標發(fā)生漂移或丟失等情況。當動態(tài)目標一直保持在攝像機監(jiān)控范圍內時,能夠為安防反恐領域提供一種更有效的技術手段,提高了監(jiān)控的效率。
同時,為了驗證本文方法的適用性,在相同的仿真設置條件下進行動態(tài)目標跟蹤半實物仿真試驗。在半實物仿真試驗中,動態(tài)目標的狀態(tài)信息更新頻率為12.3Hz。為避免目標信息反饋遲滯導致的后果,須對目標狀態(tài)信息進行濾波處理,以提高狀態(tài)信息的準確性。設置3個小組,根據不同時間內的目標動態(tài)變化情況,對角距離誤差進行計算,預期當200s時,誤差趨近0的情況下,能夠得到較優(yōu)跟蹤效果。3個小組的的具體變化情況如圖2所示。
由圖2可知,在跟蹤控制情況下,對動態(tài)目標進行協同跟蹤控制,當200s時,3個小組的方位角誤差值均趨近0,結果符合預期。說明運用本文跟蹤控制方法能夠顯著提高跟蹤性能,優(yōu)化控制所用時間,能夠在相同任務下,保持一定的跟蹤控制效果,提升跟蹤效率。利用本文跟蹤控制方法能夠在跟蹤過程中獲得大量信息,增加對安防反恐用多監(jiān)控手段集控過程中的感知能力,使在復雜環(huán)境下的監(jiān)控跟蹤更具實際意義。
綜上所述,本文目標跟蹤控制方法在目標跟蹤性能方面優(yōu)勢很明顯,這個方法能夠更準確地預測和跟蹤目標的運動軌跡,在相同條件下,具有較高的跟蹤精度。在應對復雜場景和動態(tài)環(huán)境方面,本文方法都能夠有效應對,并保持較高的跟蹤性能,能夠根據實時環(huán)境信息進行實時調整和優(yōu)化,計算效率更高,跟蹤控制效果較好。
3 結語
本文從目標跟蹤控制入手,結合安防反恐用多監(jiān)控手段集控方法,探究了安防反恐用多監(jiān)控手段集控動態(tài)目標跟蹤控制方法。但這個方法中還存在一些不足,例如數據的安全與隱私問題、損失函數的驗證問題、誤判問題等。動態(tài)目標跟蹤控制方法使監(jiān)控系統(tǒng)能夠自適應地調整跟蹤策略,保證目標在復雜多變的場景中始終受到有效監(jiān)控。這不僅有助于及時發(fā)現潛在的安全隱患,還能為決策者提供準確的信息支持。后續(xù),需要加強技術研發(fā)與合作,通過不斷優(yōu)化和完善多監(jiān)控手段集控動態(tài)目標跟蹤控制方法,共同推動安防反恐事業(yè)邁向新的高度。
參考文獻
[1]史揚杰,程馨慧,奚小波,等.農業(yè)機械導航路徑跟蹤控制方法研究進展[J].農業(yè)工程學報,2023,39(15):1-14.
[2]李奇,劉強,王天宏,等.基于EKF在線辨識的多堆燃料電池系統(tǒng)最大效率點跟蹤控制方法[J].中國電機工程學報,2022,42(2):673-684.
[3]劉樂,高杰,劉鵬,等.基于滑模觀測器的交流異步電機預設性能位置跟蹤控制[J].中國電機工程學報,2022,42(9):3432-3443.
[4]朱志遠,朱紫輝,周曉勤,等.三軸電磁-壓電混合驅動快速刀具伺服的軌跡跟蹤控制[J].光學精密工程,2023,31(15):2236-2247.
[5]遲瑞娟,熊澤鑫,姜龍騰,等.基于模型預測的插秧機路徑跟蹤控制算法[J].農業(yè)機械學報,2022,53(11):22-30,99.
[6]李新凱,虎曉誠,馬萍,等.基于改進DDPG的無人駕駛避障跟蹤控制[J].華南理工大學學報(自然科學版),2023,51(11):44-55.
[7]劉博,孟中杰.軟管連接約束下的加油機/無人機編隊跟蹤控制[J].航空學報,2023,44(17):263-273.
[8]張康,王麗梅.考慮同步誤差影響的直驅H型平臺輪廓跟蹤控制方法[J].電工技術學報,2022,37(8):1982-1990.