鄒子強,劉 星,張雪峰
(1.西安工業(yè)大學電子信息工程學院,陜西 西安 710021;2.北京宇航系統(tǒng)工程研究所,北京 100076)
在線陣激光雷達中,探測器可選擇旋轉掃描方式或平推掃描方式。旋轉掃描方式可獲得360°的探測視場,但對于非旋轉彈載激光雷達一般采用平推掃描方式。在這種工作模式下,線陣探測器在搭載平臺的前向運動過程中,對目標區(qū)域向下進行高速平行推掃,得到地面目標頂部及其周圍區(qū)域的距離像和強度像,信息處理模塊可通過分析距離像與強度像來提取目標頂部輪廓相關特征,以實現(xiàn)目標識別[1]。
針對激光雷達目標識別問題,目前國內(nèi)主要形成以下幾種算法。文獻[2]通過判斷探測圖像矩陣各元素與目標標準模板矩陣之間的豪斯道夫距離來實現(xiàn)目標的識別。文獻[3]提出一種數(shù)據(jù)挖掘的激光雷達圖像識別方法。通過采用小波變換對激光雷達圖像進行去噪處理,并提取特征向量,然后采用數(shù)據(jù)挖掘技術——深度層次網(wǎng)絡根據(jù)特征建立激光雷達圖像識別模型,最終實現(xiàn)目標分類識別。文獻[4]提出了基于多路窄波束激光測距的目標識別方法,建立了以測距值的突變來識別目標高度和寬度的數(shù)學模型。文獻[5]通過提取目標距離像特征,采用網(wǎng)格搜索算法對支持向量機參數(shù)進行優(yōu)化后實現(xiàn)目標分類識別。文獻[6]通過從不同的方位獲取目標的幾何尺寸信息,經(jīng)神經(jīng)網(wǎng)絡學習分類后實現(xiàn)目標識別。由于體積、成本等因素限制,應用于彈載的線陣掃描激光雷達成像單元數(shù)較少,平推掃描方式下激光雷達掃描獲得的是目標區(qū)域稀疏圖像,難以得到足夠的目標參數(shù)和質(zhì)量較高的目標區(qū)域圖像[7-8]。上述算法在處理稀疏圖像時目標識別率較低,容易形成誤判。針對這個問題,本文提出了基于目標頂部特征的BP神經(jīng)網(wǎng)絡目標識別算法。
如圖1所示,平推式線陣掃描激光雷達通過線陣APD(Avalanche Photo Diode)探測器實現(xiàn)Y方向掃描,通過搭載平臺的飛行形成X方向的掃描,經(jīng)發(fā)射和接收高頻脈沖激光來探測目標區(qū)域的信息,得到目標區(qū)域的回波強度像與距離像[9-10]。
圖1 線陣掃描激光雷達工作示意圖Fig.1 Schematic diagram for line array scanning laser radar
(1)
在距離信息矩陣T中,取在X方向前后兩相鄰點的距離信息差值為:
ΔSx=(S(m-1)λ-Smλ)
(2)
取Y方向上下相鄰點的距離信息差值為:
ΔSy=(Sm(λ-1)-Smλ)
(3)
給定閾值范圍θ=[α,β] ,判斷ΔSx、ΔSy是否超過設定的閾值范圍,把ΔSx、ΔSy分別歸為三類,即:
(4)
Ck={(Xi,Yi,Si)|i=1,…,nk}
(5)
對子集Ck,應用公式:
(6)
1)目標頂部輪廓統(tǒng)計特征提取
(7)
得到目標距離矩陣的方差D為:
(8)
2)目標頂部輪廓空間分布特征提取
對同一個典型目標,用式(4)將目標頂部輪廓分割成不同的部分,再用式(5)計算得出每個部分的中心點。此時目標頂部特征可用在空間散布的中心點之間的距離關系表示,將這些點連接起來可以得到目標的圖模型,再由圖模型得到頂部輪廓的空間分布特征[8,11]。
①目標圖模型的建立
計算中心點vk到中心點vj的距離dkj:
(9)
給定一個值ε:當dkj≤ε時,中心點k與中心點j之間有連接關系;當dkj>ε時,中心點k與中心點j之間無連接關系。若兩個中心點之間有連接關系,就把這兩點之間的連線kj稱為有效的邊,將點集V中所有中心點按照上述規(guī)則連接起來,能夠得到一個邊集合R={kj}。此時邊集合R和中心點點集可構成一個圖模型,即目標可以用ε圖:Graph=(V,R)表示。在ε圖Graph=(V,R)中,共有K個結點,并且每個結點都與距離它不大于ε的結點相連,每兩個結點之間的連線kj為ε圖的邊。其中,kj表示中心點k與中心點j之間的連線,(j,k)=(1,2,…,K)且k≠j。
②基于最小生成樹Prim算法結點遍歷的目標圖特征提取目標圖模型上結點出現(xiàn)的位置是相對固定的,對典型目標圖模型,采用最小生成樹Prim算法。在節(jié)點集V=(v0,v1,…,vK)中,以結點v0為起點,確定一個遍歷所有結點的最小生成樹,從而得到最短路徑Q。
在最小生成樹Prim算法中,定義p(v0,vk)=(v0…vk…vK)為ε圖中起點為v0終點為vK的最小生成樹路徑。按照最小生成樹路徑p中結點的順序,可以得到與其對應ε圖的鄰接矩陣E。鄰接矩陣E表達了在目標圖模型中每個結點之間的距離關系和位置關系,計算得到矩陣E的跡:
(10)
目標圖模型的最短路徑Q與鄰接矩陣的跡tr(E),表達了目標頂部輪廓不同部分之間的位置關系與距離關系,通過這兩個特征能比較好地描述目標頂部輪廓空間分布特征。
BP神經(jīng)網(wǎng)絡通過前向三層網(wǎng)絡可以實現(xiàn)任意從輸入到輸出的連續(xù)映射,該網(wǎng)絡采用分層梯度下降的方式對神經(jīng)網(wǎng)絡的權值進行調(diào)整,使得神經(jīng)網(wǎng)絡的輸出在訓練時誤差最小[12]。訓練過程中,令輸入為xi=x,神經(jīng)網(wǎng)絡節(jié)點k的實際輸出為Zk=Z,期望輸出為tk=t。
1)神經(jīng)網(wǎng)絡的設計
根據(jù)目標統(tǒng)計學特征和頂部輪廓空間分布特征的不同特點,設計人工神經(jīng)網(wǎng)絡進行分類,分別構建統(tǒng)計學特征神經(jīng)元、頂部輪廓空間分布特征神經(jīng)元。
①統(tǒng)計特征神經(jīng)元
②頂部輪廓空間分布特征神經(jīng)元
應用圖模型最小生成樹的最短路徑Q與鄰接矩陣的跡tr(E)來進一步確認待識別物體是否為目標。將這兩個特征作為神經(jīng)網(wǎng)圖神經(jīng)元的輸入x3、x4,則有:
x3=Q,x4=tr(E)。
③神經(jīng)網(wǎng)絡相關參數(shù)設定
為了驗證本文算法的有效性,選取了一個典型的目標。根據(jù)實際測量所得的目標參數(shù),模擬一個32元的線陣掃描激光雷達對目標掃描,該激光雷達的脈沖頻率f=4 kHz,搭載平臺速度v=200 m/s,平臺距地面高度為15 m。
計算得出激光雷達每掃描一次,平臺飛過的距離為5 cm。實際測得目標1的長寬高分別為:4 550 mm×1 780 mm×1 440 mm,因此目標1對應的矩陣T1的大小為(32×91)。對目標距離矩陣T1進行數(shù)據(jù)可視化,如圖3所示。
仿真測試所用軟件為Matlab 2014(b),硬件配置為2.8 GHz Intel Core i7處理器、8 GB內(nèi)存PC機。在訓練神經(jīng)網(wǎng)絡時,其訓練參數(shù)設置如表1所示。
表1 神經(jīng)網(wǎng)絡訓練參數(shù)
在仿真實驗中,由于目標統(tǒng)計特征可通過計算目標距離矩陣直接得出,而目標圖特征需要建立目標的圖模型后得出。因此分析仿真實驗時直接給出計算得到的目標統(tǒng)計特征,簡要描述目標圖特征提取過程。
1)特征提取
①統(tǒng)計特征提取
②圖特征提取
目標距離矩陣分割:根據(jù)距離值在X方向、Y方向變化將目標1的距離矩陣T1分割,分割完成后的結果如圖3所示。
根據(jù)分割完成后的平面效果顯示,目標距離矩陣被分割為8個子矩陣。
圖模型的建立:分別計算8個子矩陣的中心點v1…vK和各個中心點之間的距離dkj,構建目標的圖模型。運用圖的最小生成樹Prim算法,得到目標的最小生成樹與目標圖模型結點遍歷最短路徑x3=Q=1 204.194 2,結果如圖4所示。
由圖4目標圖模型最小生成樹得到目標圖模型的最短結點遍歷路徑P=(v0,v4,v3,v7,v8,v2,v1,v5,v6),再根據(jù)最短路徑P得到目標圖模型的鄰接矩陣E,計算矩陣E的跡x4=tr(E)=1 646.4。
圖2 目標1三維可視化Fig.2 Target 1 3D visualization
圖3 目標1分割可視化Fig.3 Target 1 segmentation visualization
圖4 目標1圖模型最小生成樹Fig.4 Target 1 graph model minimum spanning tree
2)神經(jīng)網(wǎng)絡訓練
按照設定好的神經(jīng)網(wǎng)絡參數(shù)對BP神經(jīng)網(wǎng)絡進行訓練,神經(jīng)網(wǎng)絡訓練誤差變化曲線顯示在第147步時,系統(tǒng)誤差就達到了要求。
該網(wǎng)絡的訓練的實際輸出與期望輸出如圖5(a)所示,BP神經(jīng)網(wǎng)絡訓練時的實際輸出大部分在期望輸出tk=1附近;其訓練誤差曲線如圖5(b)所示,曲線顯示訓練誤差小于0.03,大部分小于0.01。
3)神經(jīng)網(wǎng)絡預測
對已經(jīng)訓練好的BP神經(jīng)網(wǎng)絡,用另外80組樣本對該網(wǎng)絡進行預測。網(wǎng)絡的預測輸出與實際輸出差異如圖6(a),其預測誤差如圖6(b);統(tǒng)計在誤差|error| ≤0.015時,神經(jīng)網(wǎng)絡的正確識別率為93.75%。
圖5 神經(jīng)網(wǎng)絡訓練結果分析Fig.5 Analysis of neural network training results
圖6 神經(jīng)網(wǎng)絡預測結果分析Fig.6 Analysis of neural network prediction results
針對隱含層節(jié)點數(shù)過多容易收斂到局部極小值與節(jié)點數(shù)過少達不到訓練精度的問題,用相同的樣本集分別對隱含層結點數(shù)為5~10的BP神經(jīng)網(wǎng)絡進行訓練和測試,并統(tǒng)計預測誤差在|error|≤0.015時的正確識別率,仿真結果如表2所示。
表2 具有不同隱層節(jié)點數(shù)的BP神經(jīng)網(wǎng)絡的識別率
根據(jù)本文情況,當BP神經(jīng)網(wǎng)絡的隱含層節(jié)點數(shù)為8個時,其識別效果最佳。
本文提出了基于目標頂部信息特征的BP神經(jīng)網(wǎng)絡目標識別算法,通過分析模擬目標的線陣掃描數(shù)據(jù),應用統(tǒng)計算法提取目標輪廓數(shù)據(jù)特征,然后建立目標三維特征圖模型,采用最小生成樹Prim算法得到目標頂部輪廓空間分布特征。仿真實驗結果表明該算法簡單易于實現(xiàn),在預測誤差|error|≤0.015時,該算法對目標稀疏圖像有較好的識別效果。