史珂路,田軍委,雷志強,張歡歡,孫 雷
1(西安工業(yè)大學 電子信息工程學院,西安 710021)
2(西安工業(yè)大學 機電工程學院,西安 710021)
當高層建筑發(fā)生火災時,若遇內部停電停水則消防設備難以使用,在城市道路擁堵且云梯長度有限的情況下,消防設備不易接近起火點,嚴重影響高層建筑火災撲救,對生命財產造成不可估量的破壞[1].高空滅火無人機因其地形適應性好、具備垂直起降能力和懸停能力,能很好的承擔高層建筑滅火任務.
高空無人機在滅火時首先需要精確測量滅火點和無人機的間距.目前,常見的檢測方法有: 超聲波測距[2]、激光脈沖測距[3]、紅外測距[4]、光學測距[5]和立體視覺測距[6]等.超聲、激光、紅外測距法屬于主動測距法,因其發(fā)射和接收設備價格昂貴,反射、噪音、交叉等環(huán)境問題難以解決,因而主動法測距不具有普遍應用性.
雙目立體視覺測距系統(tǒng)具有信息豐富,探測距離廣,外界干擾較小,反應快,響應時間短,系統(tǒng)構成簡單,成本低等優(yōu)點[7].雙目視覺系統(tǒng)的測距精度,主要難點在于圖像匹配的精度,本文目的旨在解決這一難點.左右圖像匹配目前最常用的是動態(tài)模板匹配,目前已有不少研究成果.李軍將動態(tài)模板匹配應用到導彈跟蹤鎖定目標的過程中[8]; 陳永雷將動態(tài)模板匹配應用到確定動態(tài)圖像中的目標識別與跟蹤方面[9].
Long Van、Nguyen-Dinh,Daniel等人[10]將動態(tài)模板匹配應用到小型可穿戴設備的在線手勢識別系統(tǒng)中,提高了系統(tǒng)的抗干擾性.以上三種算法計算量大且實時性難以滿足高空滅火的需求,本文結合實際應用環(huán)境,提出了一種權重融合的動態(tài)模板匹配算法.通過給三種動態(tài)模板匹配算法分配相應的權重,來達到去除誤匹配點的目的,來提高測距精度.
本文所采用的雙目立體視覺系統(tǒng),將左右兩個攝像機平行放置,點O1和X1Y1Z1組成的直角坐標系為左攝像機坐標系,點O2和X2Y2Z2組成的直角坐標系為右攝像機坐標系,x1y1z1為左圖像坐標系,x2y2z2為右圖像坐標系.測距原理圖如圖1所示.
從圖1可得,設在攝像機坐標系下,P點的坐標為(X, Y, Z),左圖像坐標系下坐標為 (x1,y),右圖像坐標系下的坐標為(x2,y).P點在X-Z平面投影如圖2所示.
根據圖2,下列關系式成立:
圖1 雙目測距原理圖
圖2 X-Z平面投影圖
雙目視覺測距系統(tǒng)可實現遠距離目標搜索、定位、測距和跟蹤等功能,并實時將目標相對坐標位置和距離參數傳送給主控系統(tǒng).系統(tǒng)結構如圖3所示.
圖3 雙目測距系統(tǒng)總體方案框圖
該系統(tǒng)由云臺子系統(tǒng)、視覺測距子系統(tǒng)和電源子系統(tǒng)三部分構成,其中云臺子系統(tǒng)實現遠距離目標搜索和跟蹤等功能,視覺測距子系統(tǒng)用于遠距離測量(距離、尺寸、坐標)等參數、并將這些參數通過通訊總線傳送到無人機的中央信息處理系統(tǒng).
雙目視覺測距系統(tǒng)的實驗平臺主要由: 兩個200萬像素的攝像機、一個三腳架、一個微型主控板、一個顯示屏、一個測距儀、供電電源等組成.本文后續(xù)的測距實驗是在兩攝像頭平行放置,并且基線距離為300 mm的情況下進行的.其中精密測距儀,可以精確測量目標的距離,測程范圍為2~2000 m,測量誤差為±1 m,本實驗最終會將實驗平臺所測的數據與測距儀測得的數據進行對比和分析,得出結果.
2.金融支持下第一產業(yè)增長效率實證分析。測算結果顯示2000-2017年間,陜西省金融支持第一產業(yè)增長效率測度結果可以分為2000-2009年和2010-2017年兩個階段。2000-2008年之間,陜西省金融支持第一產業(yè)增長效率經過一段波動調整時期,表現為2002年、2003年和2006年,技術效率指數均小于1,均無效。金融支持第一產業(yè)增長效率低這一現象在2003年前后表現最明顯。2004年、2005年、2007年和2009年,金融支持第一產業(yè)增長的過程中,存在技術效率為1,而綜合效率無效的情況,說明第一產業(yè)的規(guī)模效率無效,需要通過產業(yè)結構的優(yōu)化配置等途徑提高規(guī)模效益和生產效率。
為了減少后續(xù)算法的計算量,首先雙目攝像機將采集到的彩色圖像使用加權平均值法轉化為灰度圖像;然后對左攝像頭采集圖像進行感興趣區(qū)域提取,獲得模板圖像; 然后對模板圖像和右目指定區(qū)域進行中值濾波,平滑掉圖像的噪聲,保留圖像細節(jié),然后對圖像進行直方圖均衡化,提高目標與背景的反差,達到增強圖像的目的; 最后使用Soble算子對圖像的邊緣進行處理,提高邊緣的清晰度.預處理算法流程圖見圖4.
圖4 圖像預處理算法流程圖
感興趣區(qū)域(簡稱ROI)即一幅圖像中最能引起觀察者的關注的部分,最能表達圖像的重點內容的區(qū)域.只對圖像的感興趣區(qū)域進行相應的操作,這樣可提高系統(tǒng)的運行效率,還可降低非感興趣區(qū)域對結果產生干擾[11].
本文采用基于圖像分割技術來提取ROI,但是傳統(tǒng)的圖像分割算法復雜度高、效率較低,不能滿足本課題實時性的需求,因此,筆者提出一種新的提取感興趣區(qū)域的思路,即我們設定左目中心虛框內獲取到的圖像為模板圖像T,將模板圖像T從整幅圖像中提取出來,然后右目在區(qū)域S內進行逐點掃描,進行相關匹配:
本系統(tǒng)的感興趣區(qū)域是左目的模板圖像T,如圖5(a)所示,和右目的指定區(qū)域S,如圖5(b)所示.
圖5 ROI提取示意圖
圖像匹配是圖像處理領域中極為重要的技術,它是在不同傳感器對同一目標在不同視角下得到的兩幅圖像中找出相似的特征點,根據匹配算法計算兩幅圖像的關聯程度[12].目前,應用比較廣泛的匹配方法是基于圖像灰度的模板匹配方法,模板匹配算法原理通俗易懂,算法實現相對容易,匹配精度高.目標不確定的情況下,如果根據固定不變的預知模板圖像進行模板匹配,則很容易導致本測距系統(tǒng)應用范圍狹窄.為此,我們采用動態(tài)模板匹配算法.動態(tài)模板匹配算法不是預先制定目標模板,而是在無人機探測的過程中,根據當前的圖像動態(tài),自動生成目標圖像作為模板進行匹配.
本文所使用的OPENCV環(huán)境提供了六種動態(tài)模板匹配方法,以此為基礎,本文提出一種基于權重融合的動態(tài)模板匹配算法.三種動態(tài)模板匹配的相似性度量函數如下:
1) 歸一化平方差匹配法(TM_SQDIFF_NORMED)
3) 歸一化相關系數匹配法(TM-CCOEFF_NORMED)
以上三種歸一化的匹配方法中,歸一化相關系數匹配法的誤判率是最低的,但是在實際應用中對于運動目標匹配的實時性和準確性還不能滿足我們的要求.因此我們采用融合以上三種匹配方法,就是給以上三種歸一化的匹配方法分配不同的權重,誤判率相對較低的分配的權重最高,誤判率相對較高的分配的權重最低.通過融合可以進一步提高算法的性能[13].其相似性度量函數為:
其中,公式(6)中R1(x,y)表示歸一化平方差匹配法,R2(x,y)表示歸一化相關匹配法,R2(x,y)表示歸一化相關系數匹配法.R(x,y)越大表示匹配效果越好.
完整的雙目測距算法流程如圖6所示.
圖6 雙目測距算法軟件流程框圖
實驗設置和流程如下: 實驗是由A、B、C、D人組成,測量范圍0~100 m,實驗時間2017年3月26日,下午4點,晴天,光照良好.A為目標,以固定間距運動,每次間隔5 m; B負責用本文設計的測距系統(tǒng)測量出目標人物與攝像頭的距離; C負責記錄視差和距離的實驗數據,D負責錄像.
實驗過程如圖7(a)所示; 顯示屏中的內容截圖如圖7(b)所示,其中,上圖為左目攝像頭的圖像,下圖為右目攝像頭的圖像,右上角顯示視差信息.
圖7 實驗過程與顯示截屏圖
匹配實驗數據如表1.
表1 匹配實驗數據
通過對表1中的實驗數據得知: 5 m到10 m,視差變化了422個像素,距離變化了5 m; 10 m到15 m,視差變化了113個像素,距離變化了5 m; 15 m到20 m,視差變化了49個像素,距離變化了5 m; …,95 m到100 m,視差變化了4個像素,距離變化了5 m,從而得知視差與距離是非線性的關系.
根據表1匹配實驗數據畫出距離與視差的曲線關系,如圖8所示.
圖8 距離與視差的曲線關系圖
通過以上分析可知: 視差與距離是非線性的關系,因此我們采用多段非線性補償法求視差與距離的關系.根據測量誤差小于一米的要求將視差曲線分成n條小線段或者切線,將這些小線段連起來形成折線,從而實現非線性補償的效果,為了保證補償曲線精度,曲線劃分段數需保證一定數目.
根據表1的匹配實驗數據,并經多次實驗最終確定n=10.采用非線性補償法對視差曲線進行分段,對每一段進行求解,得到距離d1與視差的非線性關系,如式(7)所示:
將已經建好的距離與視差曲線幾何關系模型加入到算法程序中去,再進行相關實驗,實驗過程如匹配實驗所描述,得到的數據結果如表2所示.
將表2中的實際距離和絕對誤差繪制成曲線圖,如圖9所示(單位: m).
表2 距離與視差關系模型d的實測結果
圖9 模型的絕對誤差圖
從圖9可以看出,模型d在50 m內誤差在1 m以內,在50~100 m誤差保持在2 m以內,精度比較好,可以滿足系統(tǒng)要求.從表2中可以計算出匹配精度: 首先計算每5 m視差的變化量,然后求100 m內視差變化量的平均值,通過計算可得匹配精度為6.947 pix/m.
為了解決傳統(tǒng)的雙目測距算法存在的缺點: 實時性差,算法復雜,匹配精度差等.本文提出了一種基于融合動態(tài)模板匹配的雙目測距算法,該算法具體實現相對簡單、容易理解實時性和匹配精度高等優(yōu)點,經過實驗驗證滿足高空無人機滅火在徑向100 m以內的精確測距需求.在下一步的工作中,筆者將進一步提高匹配算法的精度,使匹配結果更加準確.