亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于紅外與可見光圖像融合的無人機探測研究

        2022-05-09 02:26:17黃穎杰梅領亮王勇何鵬練彬王瑛
        電腦知識與技術 2022年7期
        關鍵詞:無人機

        黃穎杰 梅領亮 王勇 何鵬 練彬 王瑛

        摘要:為了進一步提高識別無人機的效率,提出基于紅外與可見光圖像融合的無人機探測方法,并且對配準算法進行改進,搭配Canny邊緣檢測ORB特征檢測的融合配準算法。首先,搭建雙目攝像頭、采集無人機圖像;接著,對圖像進行Laplace預處理、Canny邊緣檢測ORB特征檢測配準、Harr小波變換融合。將得到的融合圖像和融合前的可見光圖像分別進行YOLOv3檢測框架。實驗表明,圖像融合后的識別,mAP從92.45%提高到了93.39%。證明通過圖像融合的方法,可以提高對無人機識別的準確率。

        關鍵詞:圖像融合;無人機;目標識別;紅外圖像;可見光圖像

        中圖分類號:TP18? ? ? 文獻標識碼:A

        文章編號:1009-3044(2022)07-0001-08

        近年來,由于無人機影響逐漸變大,從中國民航局公布的2017年成都雙流機場的無人機入侵的“黑飛”事件到2020年軍用無人機摧毀了亞美尼亞一輛裝甲車,需要對無人機的識別準確率提出了更嚴格的要求。大部分提高識別準確率的方法都是從算法方面進行提升,本文嘗試在圖像質(zhì)量方面進行提升,增強無人機圖像在YOLOv3中的識別效果。識別無人機的難度大的具體原因主要有以下三點:

        1) 離干擾物距離近。無人機的飛行環(huán)境一般都有較多的房屋建筑和綠植等像素較為豐富的物體。干擾具體表現(xiàn)在樹木和建筑物造成的像素的摻雜、遮擋。

        2) 低速飛行或懸停。這些都給雷達探測帶來了挑戰(zhàn),雷達探測的主要原理是利用多普勒效應,效應越明顯,無人機顯示越清晰。但是低速飛行的無人機,使得效應特別不明顯。如果為了檢測不動或慢飛的無人機,卸裝多普勒元件,則會受到不動物體環(huán)境的干擾。

        3) 尺寸小。這會讓探測設備接收到的信息驟減。同時由于目標尺寸較小,對于原始可見光圖像,輪廓清晰的優(yōu)勢變小,容易被背景物體像素影響,識別起來難度加大。

        針對識別無人機的需求,文獻[1]提出一種基于對范圍內(nèi)的目標進行自動探測的方法,區(qū)分有價值目標和無價值目標,提高探測的效果;文獻[2]提出對雷達探測無人機的算法進行優(yōu)化;文獻[3]提出了對激光探測無人機的算法進行優(yōu)化;文獻[4]采用雙邊濾波結合去霧算法進行圖像增強處理,提高了無人機的圖像質(zhì)量;文獻[5]著重于處理目標的大小問題,在FasterR-CNN下優(yōu)化其特征提取層。本文實驗提高識別無人機準確率的方法為紅外和可見光圖像融合,得到信息熵更高的圖像,原理和優(yōu)勢如下:

        紅外成像原理:物體發(fā)射出紅外輻射的差值形成的紅外圖像,紅外波長0.75μm~ 1000μm。優(yōu)勢為全天候適應,劣勢為圖像分辨率低,著重于輪廓信息,容易產(chǎn)生欠曝,曝光不足。如圖 1所示。

        可見光成像原理:利用光反射原理成像,可見光的波長在0.39μm~ 0.75μm。優(yōu)點為目標細節(jié)更加清晰,缺點為受光線和天氣等自然條件的影響,容易產(chǎn)生過曝,降低圖片質(zhì)量。如圖 2所示。

        本文實驗依次對可見光圖像和紅外圖像進行預處理、配準、融合,得到信息更充足的圖像??梢杂^察到融合圖像相對于可見光圖像的背景像素干擾較少,無人機邊緣更加清晰,圖像中過曝和欠曝也較少,如圖 3所示。

        1 相關工作

        1.1 硬件平臺

        本文實驗中使用的雙目攝像頭是深圳市新成像電子科技有限公司的可見光紅外USB攝像頭模塊,型號為HM2131,可見光攝像頭和紅外攝像頭的像素為200萬,最大分辨率為1920*1080,感光元件類型為CMOS,如圖 4所示。

        1.2 軟件平臺

        基于VS2017+OpenCV3.4,實現(xiàn)對雙目攝像頭的調(diào)用,捕獲左右攝像頭的幀圖像,并且顯示左右攝像頭獲得的圖像,以按下空格保存圖像,如圖 5所示。

        1.3 數(shù)據(jù)集拍攝環(huán)境

        由于本實驗平臺中的紅外相機與可見光的雙目攝像頭位置關系保持在同一場景,無法跟隨無人機運動軌跡調(diào)整攝像頭角度,因此只能手動調(diào)整雙目攝像頭的方向?qū)崿F(xiàn)手動跟隨無人機。同時由于對無人機監(jiān)管時的場景多是天空背景,背景較為簡單。針對這兩點要求,本文選擇大廈背面、馬路邊、樹林邊等位置實現(xiàn)對無人機的拍攝,增強數(shù)據(jù)集的訓練效果,拍攝場景圖如圖 6所示。按照訓練集:測試集為5:1的比例,總共得到訓練集2565張,待融合的測試集中,可見光圖像和紅外圖像各498張。

        1.4 數(shù)據(jù)集標注

        在數(shù)據(jù)集訓練和測試前,需要對數(shù)據(jù)集的圖像目標進行框選分類,也是識別無人機的前期工作。圖 7為實驗數(shù)據(jù)集中訓練集圖像的標注結果圖。圖 8為待用于融合和測試的可見光圖像的標注結果圖。圖 9是可見光和紅外圖像融合圖像的標注結果圖。從圖中可以看出,對圖像中不同位置和不同尺寸的目標進行了框選并歸類為“drone”。為了保證實驗的準確性,可見光數(shù)據(jù)集和融合數(shù)據(jù)集的唯一區(qū)別就是融合效果,這也是實驗核心之一,不對融合圖像進行二次預處理,并且保證標注文件保持一致,即在其他變量一定的情況下,融合圖像帶來的圖像質(zhì)量改變,為實驗的唯一變量。本文就研究這唯一的變量對無人機的識別影響效果開展實驗研究。

        綜上,由訓練集得到相對應的2565份標注文件,由可見光得到相對應的498份標注文件,并且復制這498份標注文件當作融合圖像的標注文件。

        2 預處理

        2.1 預處理算法選擇

        紅外圖像通過物體發(fā)射出紅外輻射的差值形成像,具有全天候適應的優(yōu)勢,但由于紅外圖像的劣勢,紅外圖像分辨率低、圖像常常欠曝、邊緣信息不夠完善,會影響圖像未能將筆者感興趣的信息更清晰地呈現(xiàn)出來。另外,待配準和待融合的圖像往往具有對比度不夠或者圖像不匹配等問題。綜上兩點原因,需要對數(shù)據(jù)集進行預處理,才能更準確地配準和融合。在預處理算法中,主要分為濾波、邊緣增強、灰度形態(tài)學、算術運算等類型,由于實驗中無人機屬于小目標,所以對無人機的邊緣輪廓信息極其重要,同時也有利于接下來的邊緣提取,故選擇邊緣增強的Laplace算法。

        2.2 Laplace算法

        Laplace濾波首先對輸入圖片[I]采用非線性函數(shù)[ri]處理,獲得[rI],然后對[rI]進行拉普拉斯金字塔分解,獲得[LrI],最后把金字塔中系數(shù)[LlrIx,y]作為圖像[LlOx,y]中的系數(shù),重構后即可獲得拉普拉斯濾波圖像,[ri]如式(1):

        其中[fi=i-rii-g]為連續(xù)函數(shù),[ri]的定義如式(2):

        其中[g=GlIx,y]為高斯金字塔在[l]層中[x,y]位置的系數(shù)。當[0≤α<1]時,圖像表現(xiàn)出來的細節(jié)信息更多;當[α>1]時,圖像表現(xiàn)出來的細節(jié)信息更少;當[0≤β<1]時,減少圖像的取值范圍;當[β>1]時,增加圖像的取值范圍。[σr]的作用是把細節(jié)信息和邊緣信息清晰化,即亮度閾值。

        把圖像分解為兩層金字塔,拉普拉斯金字塔分解:

        公式如式(3):

        其中[L0O]為第0層拉普拉斯金字塔,[Gσp=12πσ2pGσp]為高斯核[σp]的標準化,[p=x,y]為金字塔相應層上的點,[Ip]為[p]點的像素值,[σp]用于構建金字塔,*為卷積操作。代入函數(shù)[ri],并令[L0I=I-Gσp*I,g=Ip]可以得到如式(4):

        然后,上采樣殘差圖像,并加到公式(4)兩邊,擴展卷積,得到濾波后的圖像金字塔輸出圖像如式(5):

        式(5)和雙邊濾波公式相似,其中[Gσp]可以看作空間權重,函數(shù)[f]可以看作值域權重。

        綜上可得到Laplace預處理后的圖像。

        3 配準

        3.1 配合算法選擇

        在本文實驗中,雙目攝像頭和無人機雖然都位于同一場景內(nèi),但是拍攝無人機時,始終存在角度不同,造成兩個攝像頭的同幀圖像不完全一致問題。在融合可見光和紅外圖像前,需要對紅外圖像和可見光圖像進行配準工作,即將待配準圖像(本文為紅外圖像)變換參數(shù),利用平移、旋轉(zhuǎn)及尺度縮放等相關圖像處理,對齊可見光圖像,才能使融合達到最佳效果。在圖像配準算法中,可分為基于灰度信息、基于圖像特征及基于變換域三種類型。由于實驗中是不同色度圖像進行融合,即不能采用基于灰度信息的配準方法。由于本次實驗的數(shù)據(jù)中,大多數(shù)背景都為設定的大廈背面、馬路邊、樹林邊,該類場景的特征較為明顯。針對這一特點,文獻[6]采用的是Sobel邊緣檢測;文獻[7]采用的是SURF算法邊緣檢測;文獻[8]采用的是SIFT和ORB特征檢測算法在地形三維重建中的配準算法;文獻[9-10]采用基于Canny邊緣SURF特征的紅外與可見光圖像配準算法;本文采用的是Canny邊緣檢測和ORB[11-13]特征檢測的配準算法。由于紅外的邊緣提取不夠明顯,為了提取紅外和可見光異源圖像中穩(wěn)定性較好的邊緣輪廓,在ORB特征檢測算法的基礎上,得到紅外圖像的Canny邊緣圖,將第一次得到的Canny邊緣圖經(jīng)過RANSAC[14]篩選,獲得更清晰的配準信息。

        3.2 Canny邊緣檢測和ORB特征檢測

        3.2.1 Canny邊緣檢測算法

        檢測算法的考量指標是每個檢測算法優(yōu)劣差別的參考參數(shù)。Canny邊緣檢測算法根據(jù)考量指標有取舍地運用了濾波方法和梯度計算方法,使Canny成為檢測的質(zhì)和量都表現(xiàn)不錯的邊緣檢測算法。其步驟包括圖像平滑、梯度計算、非極大值抑制、確定高低閾值和邊緣檢測,以下為該步驟的介紹:

        圖像處理,即采用高斯濾波算法處理圖像信息的每一行和每一列,在此得到的函數(shù)等式為:[Gx=exp-x22σ22πσ],其中等式左邊為高斯函數(shù),等式右邊的[σ]為標準差。此外,還會得到一個平滑信息[I'x,y]。

        梯度計算,目的是得到上述平滑信息[I'x,y]中具體圖像像素點的[Mx,y]和[θx,y],其中[M]代表的是該像素點的幅值信息,[θx,y]代表的是該像素點的方向信息。需要對上述像素點的關于[x]和[y]軸方向的計算,從而可以計算得到該像素點的梯度[dyx,y]。綜合以上信息,使用兩個2×2的行列式配合得到的平滑信息[I'x,y]對圖像信息進行卷積,兩個行列式具體如[H1、H2]所式(6):

        非極大值抑制:目的是確定[Mx,y]點是否為邊緣點。而判定條件為該點是否為局部最大值點,如果是局部最大值點則為邊緣點,若不是則把[Mx,y=0]。是否為局部最大點可以在3×3的圖像大小中對比前文得到的該點的[I'x,y]的[Mx,y]。

        舍棄部分值:利用手動設置的參數(shù),調(diào)整高閾值[Vh]和低閾值[VI],目的是刪選更合要求的邊緣點和像素點,使得二者達到預設的平衡。

        邊緣檢測:在滿足前一步的條件下,得到在[VI]和[Vh之間]的像素點,并且可以得到其相對應的邊緣點,通過這部分邊緣點得到邊緣檢測,獲得滿足前一步條件下的邊緣,即優(yōu)質(zhì)邊緣。即得到信息邊緣圖。

        3.2.2 ORB特征匹配算法

        由上述得到的信息邊緣圖,再進行ORB(Oriented FAST and Rotated BRIEF)特征匹配算法。主流特征匹配算法的兩步是檢測特征點及其匹配。在該算法中,使用的是oFAST(Oriented FAST)算法,即由FAST算法升級優(yōu)化得到。FAST是目前被證實最快的特征點提取算法。也就是說,使用FAST算法得到特征點后,為了使旋轉(zhuǎn)后的特征點不變,定義特征點方向,生成特征向量。然后由該特征向量和漢明距離[15]得到關于特征向量間的重復程度。

        第一步,Oriented FAST特征點檢測。角點即目標圖像在某一范圍內(nèi),像素相差明顯的點,Oriented FAST是由FAST算法升級優(yōu)化得到的。由文獻[16]可得:特征帶的概念為任一像素點的灰度值與其鄰域中的絕大部分像素點的灰度值相差大于提前設定的值時,就設定該點為特征點。當某像素點[p]的與其鄰域中16個像素點的灰度值相差大于提前設定的值時,則符合以下函數(shù),如式(10):

        需要補充的是,像素點[p]的灰度值為[Ip],像素點[p]鄰域中某一點的灰度值為[Ix],提前設定的相差值則為[t],式(11)表示的是所有符合條件的像素點[x]的[fdetIx,Ip]的總和。在該步驟中,需要設定一個值[T],由前文計算出來的[N]比該[T]值大時,則斷定所對應的點[p]為特征點。影響角點進行匹配的因素為角點的有效個數(shù),而決定這個數(shù)字的因素為前文設置的[t]與[T]。

        Oriented FAST與FAST最大的區(qū)別是,Oriented FAST在FAST提取出特征點后,定義了一個特征點方向,讓一個原本不具備方向信息的特征點,優(yōu)化成旋轉(zhuǎn)變化后都不會變形的特征點。在該算法中,存在一個由像素點和質(zhì)心決定的主方向。

        第二步,Rotated BRIEF特征點。該算法是借由BRIEF算法的方法確定的特征點。即在限定的條件下,在特征點附近對比其與其他點的灰度值,由一定條件生成的對比像素點對,對比的結果可以得到一條能表示BRIEF描述子特征向量的條件函數(shù)。當該點灰度值小于被對比點時,則輸出1;當該點灰度值大于或等于被對比點時,則輸出0,條件函數(shù)如式(12):

        需要補充的是,該點的灰度值為[px],被對比點的灰度值為[py],由上可得,特征描述子的公式如式(13):

        在這一步可以得到,Rotated BRIEF代入了Oriented FAST定義的一個特征點方向后,再由像素對比對可以得到一串涉及角度的信息。

        第三步,對特征點進行配準。最后結果則得到配準后的圖像。根據(jù)漢明距離得到的配準方法可以有兩個類型,第一個類型是把漢明距離減去比前者小的漢明距離,得到的結果再取絕對值,該值越小則越有配準價值;另一種類型是直接把漢明距離最小所對應的兩個點選為對點。但是,這兩個方法都需要面對一個舍取范圍的問題,以得到更優(yōu)化的配準。取舍的范圍限定得太低,會減少干擾信息的影響,但同時會舍去一些優(yōu)質(zhì)配準點,當取舍范圍限定得太高,可以得到大部分的配準點,但是也要面臨著干擾信息的影響,所以范圍的限定,對配準結果的影響較大。

        4 融合

        4.1 融合算法選擇

        在本文實驗中,圖像融合是將紅外攝像頭和可見光攝像頭采集到的目標圖像,經(jīng)過前文所述的操作后,再進一步圖像處理,將紅外和可見光圖像進行某種方式的信息整合,結合了紅外圖像信息,得到的圖像質(zhì)量會比之前的可見光圖像更高。圖像融合算法中,可分為像素級融合、特征級融合、決策級融合。像素級融合,顧名思義就是利用像素信息進行融合,該融合從最原本的信息著手處理,能夠得到最原本的信息。特征性融合更多是利用圖像內(nèi)的物體形狀特征進行匹配融合,常用于物體的邊角、紋理信息明顯的圖像。決策級融合則是綜合了像素級融合和特征級融合的特點,根據(jù)具體情況取其最優(yōu)綜合方案。在本文的實驗中,無人機類型的小目標識別對細節(jié)的要求較高,故選擇像素級融合的小波變換。

        4.2 Harr小波變換:信號分解與重構

        對圖像信號的分解和圖像信息的重構,Harr小波變換的實現(xiàn)過程如下[17]:

        首先,在某一變化條件下,獲取信號[ft]的值,另外采集信號[ank=fk2n],并且要求變化時間范圍大于或等于1/N。得到式(14):

        將[ft]函數(shù)用另一種方式表達出來。

        接著,將信號進行拆分。把等式左邊的[fnx]分布拆分為式(15):

        接著,加工得到的圖像信號。用式(16)表示:

        其中[blk]為需要調(diào)參的參數(shù),具體參數(shù)由具體情況而取最優(yōu)值。[b1k]為最優(yōu)解。

        最后,對圖像信號進行重新組合。設方程式為式(17):

        將上述等式代入該條件:

        已知[a0],與[b1l=0,1,2,…,n-1]是前面的分解與重構得到的修改參數(shù)。

        5 識別

        5.1 算法的選擇

        本文采用的識別算法是YOLOv3[18],是one-stage結構,輸入圖片,輸出bounding box和分類標簽,由一個網(wǎng)絡完成。Faster-RCNN對小目標檢測的效果很差、檢測速度較慢,屬于two-stage結構,輸入圖片,生成建議區(qū)域(Region Proposal),然后送入分類器分類。兩個任務由不同的網(wǎng)絡完成,因此,two-stage結構的特征層經(jīng)過多次卷積核才得到,這時的特征層就比較高了,抽象的層次越高,細節(jié)保留就越少。SSD對小目標的信息保留能力較差,由于目標跟蹤對實時性的要求比較高,而無人機又屬于小目標,需要更高的信息,因此本文選擇了耗時最小的YOLOv3算法作為無人機識別算法。

        5.2 YOLOv3

        經(jīng)過主干特征提取網(wǎng)絡Darknet-53后,如圖 10所示,持續(xù)下采樣,高和寬不斷被壓縮,通道數(shù)不斷擴張,此時得到一堆特征層,可以表示輸入的圖片特征,為了適應不同尺度的檢測,網(wǎng)絡對不同尺度的特征圖進行融合,得到三種不同尺度的特征圖,對應預測尺寸不同的目標。

        首先,計算[IoUIntersectionoverUnion],如式(18)所示:

        其中,Pred為經(jīng)過特征提取網(wǎng)絡和回歸預測后得到的預測框,GT為Labelimg中標注的真實框,IoU即兩個框的相似比例。當IoU>0.5時,即為:TP(TruePositive),當IoU<=0.5時,即為:FP(False Positive),當沒有檢測到GT的數(shù)量時,即為:FN(False Negative),即可得到查準率:Precision,公式如式(19),召回率Recall,公式如式(20)所示:

        對應不同的檢測結果框,會得到不同的置信度(IoU),取不同的置信度,可以獲得不同的Precision和不同的Recall。當取得置信度夠密集時,就可以獲得非常多的Precision和Recall。此時Precision和Recall可以在圖片上X軸為Recall和Y軸為Precision的坐標圖上畫出一條線,這條線下部分的面積就是該類的AP值。mAP就是所有的類的AP值求平均。

        6 實驗

        6.1 數(shù)據(jù)集

        在搭建的硬件平臺和軟件平臺的基礎上,對無人機進行拍攝。訓練集方面,如圖 11所示,總共獲得2565張,背景多為建筑和樹木的干擾信息。測試集方面,如圖 12和圖13所示,總共得到498張可見光圖像,498張紅外圖像。

        6.2 預處理結果

        由于對后續(xù)的Canny邊緣提取中,紅外圖像的成像特殊性,紅外目標物體熱輻射通常會出現(xiàn)邊緣信息模糊的現(xiàn)象,使得其對下一步邊緣提取和匹配效果造成影響。為了更好地利用邊緣信息進行配準,提前對紅外圖像進行Laplace預處理。圖 14為原始可見光圖像,圖 15為拉普拉斯濾波處理后獲得的增強圖像,可以發(fā)現(xiàn),可見光圖像的細節(jié)明顯增強,可用于提升圖像融合中的細節(jié)信息。

        6.3 配準

        分別把紅外圖像和可見光圖像通過Canny邊緣檢測得到的紅外圖像邊緣圖(如圖 16所示)、可見光圖像邊緣圖(如圖 17所示),即在ORB特征檢測算法的基礎上,得到紅外圖像的Canny邊緣圖,獲得清晰的配準信息,得到配準信息后完成可見光和紅外圖像的配準,如圖 18所示。

        6.4 融合

        將可見光和紅外圖像融合后,得到融合圖像圖 19,由表 1可看出,能達到可將光和紅外圖像的中和,融合后的圖像比可見光的信息熵更高,圖像信息更多。

        6.5 識別

        在訓練無人機數(shù)據(jù)集時,首先使用Labelimg對訓練集進行標注,得到2565張訓練集。同樣的方式對可見光圖像進行標注,得到498張可見光訓練集。由表 2可得,測試得到mAP為92.45%,以同樣的標注文件和498張融合圖像傳入網(wǎng)絡,測試得到mAP為93.39%,比原來提高了0.94%,證明融合圖像對識別有著正向作用。

        7 結束語

        本文整個流程圖如圖 20所示,由雙目攝像頭和可見光攝像頭拍攝所得的圖像,制作數(shù)據(jù)集,經(jīng)過Laplace預處理,再由Canny邊緣檢測ORB特征檢測融合配準算法進行配準,最后經(jīng)過Harr小波融合得到融合圖像,并且對融合前后的圖像進行無人機識別,得到不同的mAP值,提高了0.94%,證明圖像融合對無人機識別存在著積極的作用。在無人機識別方面,與以往文獻相比,首次使用紅外和可見光融合的角度提高識別率。在圖像配準方面,與以往的文獻相比,首次將Canny和ORB算法融合進行配準。與此同時,Canny閾值和ORB閾值的閾值選取方面,可以進一步加入自適應算法,提高手動選擇的準確率和時間。

        參考文獻:

        [1] 王海羅.基于視覺感知的無人機目標識別與跟蹤技術研究[D].北京:北京理工大學,2015.

        [2] 張宏偉,許道明,馬俊濤,等.Radon變換的雷達低慢小目標檢測方法[J].現(xiàn)代防御技術,2018,46(3):105-111.

        [3] 李菠.基于激光探測技術的低空慢速小目標航跡測量與定位研究[D].太原:中北大學,2017.

        [4] 傅小明.復雜天氣下飛行目標物識別跟蹤技術的研究[D].成都:電子科技大學,2020.

        [5] 曹靖豪,張俊舉,黃維,等.基于多尺度特征融合的無人機識別與檢測[J].空天防御,2021,4(1):60-64,70.

        [6] 李潔,袁知博,秦嘉悅.基于Sobel算子邊緣檢測的太陽電池缺陷特征提取方法[J].太陽能學報,2021,42(1):63-68.

        [7] 羅楠,孫權森,耿蕾蕾,等.一種擴展SURF描述符及其在遙感圖像配準中的應用[J].測繪學報,2013,42(3):383-388.

        [8] 周坤,谷晨鵬,張東,等.SIFT和ORB特征檢測算法在地形三維重建中的研究與應用[J].測繪與空間地理信息,2021,44(3):44-48.

        [9] 汪鵬,金立左.基于Canny邊緣SURF特征的紅外與可見光圖像配準算法[J].工業(yè)控制計算機,2020,33(4):64-65.

        [10] 王俊影.可見光、熱成像雙光譜融合體溫篩查系統(tǒng)的研究[D].廣州:廣東工業(yè)大學,2020.

        [11] 曾世聰,郭太良,林志賢.基于ORB和角點方向夾角約束的快速圖像配準方法[J].電視技術,2015,39(9):75-79.

        [12] 劉威,趙文杰,李德軍,等.一種基于ORB檢測的特征點匹配算法[J].激光與紅外,2015,45(11):1380-1384.

        [13] 張云生,鄒崢嶸.基于改進ORB算法的遙感圖像自動配準方法[J].國土資源遙感,2013,25(3):20-24.

        [14] CHUM O,MATAS J,KITTLER J. Locally optimized RANSA-C[C]//Proceedings of the 2013 Joint Pattern Recognition Symposium. Berlin: Springer, 2003:236-243.

        [15] Hamady M,Walker J J,Harris J K,et al.Error-correcting barcoded primers for pyrosequencing hundreds of samples in multiplex[J].Nature Methods,2008,5 (3):235-237.

        [16] Rosten E,Drummond T.Machine learning for high-speed corner detection[C]//ECCV'06:Proceedings of the 9th European conference on Computer Vision - Volume Part I.2006:430-443.

        [17] 陳科百.基于小波變換的滾動軸承故障診斷[J].內(nèi)燃機與配件,2020(2):37-39.

        [18] Redmon J,F(xiàn)arhadi A.YOLOv3:an incremental improvement[EB].arXiv:1804.02767v1,2018.

        [19] Ren S Q,He K M,Girshick R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

        [20] 樊璐,張軼.一種新的行人多目標跟蹤算法[J].計算機應用與軟件,2021,38(4):190-196,214.

        【通聯(lián)編輯:唐一東】

        收稿日期:2021-11-15

        基金項目:2020年東莞市科技裝備動員專項資金(KZ2020-02);2019年廣東省科技創(chuàng)新戰(zhàn)略專項資金(2019B090904007);廣東省科技計劃項目資金(2020B010190001)

        作者簡介:黃穎杰(1997—),男,廣東梅州人,碩士,研究方向為計算機視覺;梅領亮(1973—),男,浙江杭州人,教授,碩士,研究方向為計算機視覺;王勇(1968—),男,湖南長沙人,教授,博士,計算機視覺;何鵬(1987—),男,河南鄭州人,博士,研究方向為飛秒、皮秒、納秒激光;練彬(1984—),男,廣東梅州人,碩士,研究方向為軍民融合;王瑛(1970—),女,湖南長沙人,教授,博士,研究方向為計算機視覺。

        猜你喜歡
        無人機
        基于蟻群算法的一種無人機二維航跡規(guī)劃方法研究
        無人機動態(tài)跟蹤展示系統(tǒng)設計
        無人機配送的障礙性因素分析
        無人機在海上人命救助中的應用
        植保無人機操作規(guī)程及注意事項
        高職院校新開設無人機專業(yè)的探討
        人間(2016年26期)2016-11-03 17:52:40
        利用無人機進行航測工作的方式方法
        一種適用于輸電線路跨線牽引無人機的飛行方案設計
        科技視界(2016年22期)2016-10-18 14:30:27
        淺析無人機技術在我國的發(fā)展前景
        中国人在线观看免费的视频播放| 亚洲AⅤ男人的天堂在线观看| 久久一二三四区中文字幕| 亚洲一区二区国产一区| 欧美国产综合欧美视频| 久久久精品人妻一区亚美研究所| 4hu44四虎www在线影院麻豆| 国产一区二区中文字幕在线观看| 国产精品二区一区二区aⅴ污介绍| 午夜一区欧美二区高清三区| 91精品久久久久含羞草| 国产一区二区三区在线爱咪咪| 亚洲 欧美 综合 在线 精品| 97久久香蕉国产线看观看| 国产乱人伦真实精品视频| 精品蜜桃av免费观看| 无码专区亚洲综合另类| 亚洲美国产亚洲av| 国产亚洲曝欧美不卡精品| 亚州无吗一区二区三区| 国产精品vⅰdeoxxxx国产| 国产欧美日韩专区| 亚洲午夜精品国产一区二区三区 | 在线你懂| 天堂av网手机线上天堂| 乱人妻中文字幕| 国产乱人视频在线看| 亚洲天堂av另类在线播放| 美女脱了内裤露出奶头的视频| 亚洲人成网站18禁止久久影院| 国产乱人伦偷精品视频免| 亚洲福利一区二区不卡| 久久无码字幕中文久久无码 | 成人av天堂一区二区| 国产一区亚洲二区三区极品| 黑人巨大精品欧美一区二区| 国产成人九九精品二区三区| 丝袜人妻中文字幕首页| 欧美村妇激情内射| 亚洲AV日韩AV永久无码电影| 日韩精品国产一区二区|