亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種自標簽特征點異源圖像目標檢測算法

        2021-06-01 04:38:48張栩培賀占莊馬鐘楊一岱
        北京理工大學學報 2021年5期
        關(guān)鍵詞:異源紅外標簽

        張栩培,賀占莊,馬鐘,楊一岱

        (西安微電子技術(shù)研究所,陜西,西安 710068)

        目標實例檢測是指在預(yù)存圖像上選擇目標,在實時圖像中檢測出該目標及目標位置,因此該技術(shù)在景象匹配,視覺導(dǎo)航與定位等領(lǐng)域有著廣泛的應(yīng)用. 目前針對可見光圖像的實例識別算法已有很多. 然而在無人機視覺導(dǎo)航等實際應(yīng)用中,基于可見光圖像的目標實例檢測算法受光照影響較大,在夜晚、霧天等缺乏光照的場景下實時圖像質(zhì)量無法滿足該類算法的使用條件,而紅外圖像則可以利用熱成像原理克服光照不足的問題. 因此在可見光圖像選取目標在紅外圖像進行實例目標識別的異源圖像實例檢測成為了應(yīng)對這類應(yīng)用場景的研究熱點. 該技術(shù)是無人系統(tǒng)實現(xiàn)全天候視覺導(dǎo)航的關(guān)鍵,在軍民領(lǐng)域均有著重要的應(yīng)用潛力.

        近些年來隨著深度學習算法在計算機視覺領(lǐng)域的發(fā)展,通過神經(jīng)網(wǎng)絡(luò)提取圖像的不同層級的特征具有比傳統(tǒng)算法更好的目標識別效果,在異源圖像實例目標識別領(lǐng)域也出現(xiàn)了像孿生神經(jīng)網(wǎng)絡(luò)[1]等方法,該算法證明了異源圖像在高層級特征中存在著相似性,但現(xiàn)有的實驗結(jié)果表明基于塊匹配思想的該類方法在視角變換等場景變換情況下目標識別準確度以及目標定位精度上仍存在著比較大的實用差距. 而LIFT[2],Super-Point[3]基于深度學習的特征點匹配算法利用神經(jīng)網(wǎng)絡(luò)也能夠提取出高層次的特征,在可見光的同源圖像上也有了比傳統(tǒng)特征點匹配算法更好的效果,且能夠在視角變換及光照條件不足時提供比較高的目標識別準確度以及目標定位精度.

        但想要實現(xiàn)異源圖像實例目標檢測仍存在以下問題:1)基于特征點匹配的算法其核心是幾何配準,但由于外觀變化紅外與可見光圖像存在著幾何變化關(guān)系,怎樣將這個變換關(guān)系得到從而進行異源圖像上的特征點進行配準是異源圖像目標檢測的基礎(chǔ)問題. 2)基于深度學習的特征點匹配算法需要巨大的標注工作量無法利用人工完成,如何設(shè)計一種高效并且能夠獲得異源圖像共有特征來產(chǎn)生訓練需要真值的標注方法是異源圖像目標檢測需要解決的核心問題. 3)特征點匹配任務(wù)需要特征點提取與描述符計算同步進行,因此如何設(shè)計一個能夠同步訓練特征點提取和描述符計算的深度學習網(wǎng)絡(luò)也是異源圖像目標檢測的關(guān)鍵問題.

        針對上述問題,本文設(shè)計了一種能夠?qū)Ξ愒磮D像特征進行自標簽的深度學習特征點提取與匹配算法從而實現(xiàn)異源實例目標檢測. 實驗證明本文算法相較于傳統(tǒng)的SIFT算法和基于深度學習的特征點匹配算法對異源圖像的共有特征點有更好的提取匹配效果,對異源圖像的實例目標檢測成功率也有明顯的提升. 本文算法主要貢獻有:1)通過對圖像預(yù)處理,得到紅外圖像和可見光圖像間的幾何變換關(guān)系. 構(gòu)建了異源圖像間高層級特征點映射的基礎(chǔ). 2)通過隨機仿射變換的方法進行數(shù)據(jù)增殖,利用合成圖像上訓練的“粗”檢測器對可見光與紅外圖像提取特征,使算法具有同步提取異源圖像特征的能力,利用特征點重復(fù)性與幾何映射關(guān)系作為跨域特征的篩選方法,將異源圖像上具有映射關(guān)系并重復(fù)出現(xiàn)的特征點作為“偽”標簽值從而實現(xiàn)自標簽效果,為后續(xù)的特征點提取與匹配網(wǎng)絡(luò)的迭代訓練提供真值. 3)結(jié)合現(xiàn)有深度學習算法框架的特點設(shè)計了一個能夠?qū)崿F(xiàn)特征點提取和描述符計算同步訓練的網(wǎng)絡(luò)架構(gòu).

        1 相關(guān)工作

        1.1 特征點匹配算法

        基于特征點匹配的識別算法先通過在圖像數(shù)據(jù)上分別提取特征點,并將特征點對應(yīng)的描述子和特征點在圖像上的位置存儲下來. 只要找到足夠數(shù)量的匹配特征就可以利用基礎(chǔ)矩陣或單應(yīng)性矩陣等幾何配準算法實現(xiàn)目標識別[4]. 該類方法在SIFT[5]、SURF、ORB等特征匹配算法以及基于深度學習的特征提取算法提出后取得了非常明顯的進步. 但是由于紅外和可見光相機成像原理的差異,使得算法在異源圖像上提取的特征存在差異,而傳統(tǒng)的SIFT等算法并沒有學習能力不能自適應(yīng)這種異源圖像特征差異. 基于深度學習的特征點提取算法Super-Point可以利用神經(jīng)網(wǎng)絡(luò)提取出高層級的圖像特征,這些特征也被證明在異源圖像上存在著相似性,進而展現(xiàn)出了比傳統(tǒng)算法更高的潛力和更好的目標檢測效果. 如圖1所示,即使可以使用SIFT算法在紅外圖像和可見光圖像上提取到不少特征,但這些特征并不能滿足匹配關(guān)系,會導(dǎo)致出現(xiàn)大量誤匹配或沒有匹配點對. 而基于深度學習的Super-Point算法雖然能夠通過神經(jīng)網(wǎng)絡(luò)提取出異源圖像中高層級的相似特征,但這些特征沒有建立明確的映射關(guān)系,因此匹配的精度較差,甚至會出現(xiàn)誤匹配,通過上述方法實現(xiàn)異源圖像實例目標檢測任務(wù)非常困難[6-10].

        圖1 SIFT算法和Super-Point算法在RGB-IR圖像的目標檢測結(jié)果Fig.1 The instance detection results of SIFT/Super-Point on RGB-IR images

        1.2 深度學習特征點提取算法標簽值獲取

        與傳統(tǒng)分類任務(wù)與分割任務(wù)不同,基于深度學習的特征點提取匹配算法在獲取訓練標簽值時的難度非常大. 其主要原因是圖像特征點主要是依靠灰度值變化來確定,對于人工標注來說不可行,并且圖像特征點往往數(shù)量巨大也不利于人工標注. 目前基于深度學習的特征點提取算法主要依靠3類方式實現(xiàn). 1)通過RGBD相機或SFM(structure from motion)對具有視角重疊的圖像對進行三維重建,直接或估計出圖像上各點在空間中的坐標,利用多視圖幾何計算出空間點在圖像上的投影,從而設(shè)計損失函數(shù)進行網(wǎng)絡(luò)訓練. 這類方法標簽值的獲取成本高,標簽值的精度依賴于設(shè)備和三維算法的精度. 2)依靠光流追蹤算法實現(xiàn)標簽值獲取,其思想與三維重建方法類似,都需要借助其他算法來尋找圖像對之間的對應(yīng)關(guān)系. 3)與被動尋找圖像對之間對應(yīng)關(guān)系不同,本文所提出的自標簽方法是通過主動生成隨機幾何變換矩陣將原圖進行變換生成與原圖像具有確定變換關(guān)系的新圖像. 由于原圖像與新圖像之間的變換關(guān)系是已知的,那么在原圖像上的每一個特征點通過這個已知的變換矩陣一定在新圖像上會存在一個對應(yīng)的點. 因此在訓練時就可以將在原圖上提取到的點視為“偽”標簽值,并利用變換矩陣獲得的新圖像上的對應(yīng)點來設(shè)計損失函數(shù)完成訓練,從而實現(xiàn)不借助人工標注或其他工具的自標簽效果.

        2 基于異源圖像特征點匹配的目標識 別算法

        本文在采集可見光與紅外圖像后采用標注求解單應(yīng)性矩陣的方法得到了圖像間的幾何變換關(guān)系,為高層級共有特征映射關(guān)系建立基礎(chǔ). 其次將自標簽技術(shù)擴展至異源圖像的應(yīng)用中去. 通過利用深度學習算法設(shè)計一個粗檢測器,并對輸入的可見光與紅外數(shù)據(jù)進行特征點提取. 利用隨機單應(yīng)性矩陣對可見光和紅外圖像進行數(shù)據(jù)增殖,再利用粗檢測器對增殖的數(shù)據(jù)進行特征點檢測并記錄特征點的位置,由于可見光與紅外,可見光之間以及紅外圖像間的單應(yīng)性矩陣即仿射變換關(guān)系已知,便可將異源圖像上的共有特征映射到原可見光圖像上進行提取預(yù)篩,從而解決了異源圖像共有特征點的提取問題,并將對異源圖像的自標簽結(jié)果作為特征點提取和描述符計算迭代訓練的真值,從最終實現(xiàn)了異源圖像實例目標. 本文算法的整體框架如圖2所示. 針對網(wǎng)絡(luò)輸入的可見光,將對應(yīng)的紅外圖像加入到數(shù)據(jù)增殖與自標簽過程中獲取可見光與紅外共有的特征點作為后續(xù)訓練檢測器和描述子的偽標簽.

        圖2 本文算法流程圖Fig.2 The algorithm architecture

        2.1 異源圖像預(yù)處理與“粗”特征點檢測器

        本文用于訓練的異源圖像在采集過程中由于無人機飛行軌跡差異,以及可見光與紅外相機內(nèi)參的差異,因此本身圖像就存在著一定的仿射變換. 雖然深度學習方法能夠提取出高層級的特征,但由于這些仿射變換,相似的高層級特征在圖像上的位置也會由于上述仿射變換而產(chǎn)生差異. 因此,通過多視幾何求取單應(yīng)性矩陣的方法[6]對采集圖像進行同名點標注,計算出了所有可見光與紅外訓練圖像間的單應(yīng)性矩陣,如圖3所示,從而獲得可見光與紅外成對影像間的仿射變換關(guān)系,為后續(xù)異源圖像之間的特征點映射打下基礎(chǔ).

        圖3 利用同名點求解可見光紅外圖像間的變換關(guān)系Hrgb-irFig.3 Using homonymous points to solve the transformation matrix Hrgb-ir

        作為自標簽以及算法實現(xiàn)的基礎(chǔ),需要先利用神經(jīng)網(wǎng)絡(luò)設(shè)計一個特征提取器,并確保這個特征提取器對角點特征具有提取能力. 然而對于任意的圖像很難確定特征點的位置,但是如果圖像上只有線段、三角形、矩形、立方體等規(guī)則形狀的簡單圖形. 那么根據(jù)特征點提取的原理,特征點位置一般都在端點和角點上,這些位置的坐標就很好確定了. 因此使用圖形渲染工具生成大量規(guī)則圖形作為特征點檢測器訓練的初始數(shù)據(jù),通過記錄上述規(guī)則圖像的角點. 就可以利用這些確定位置的特征點作為標簽值進行特征提取器進行訓練. 通過將特征點檢測表達成一個分類問題,利用卷積神經(jīng)網(wǎng)絡(luò)提取特征后,對于對圖片的每個8×8圖像塊都計算一個概率,這個概率表示的就是其為特征點的可能性大小,前64維對應(yīng)每個點是否為關(guān)鍵點的概率,最后一維對應(yīng)是否存在特征點. 經(jīng)過了在合成數(shù)據(jù)上的訓練后,便可以得到一個具有特征點提取能力“粗”特征檢測器. 為了進一步提高對異源圖像共有特征的提取,就需要利用預(yù)處理的異源圖像和自標簽技術(shù)來迭代訓練這個“粗”特征檢測器,從而獲得高質(zhì)量的異源圖像特征點.

        2.2 可見光紅外圖像自標簽

        由于異源圖像特征點匹配的根本是要將異源圖像上公共的特征點提取出來,因此本算法的核心工作就是利用自標簽方法建立異源圖像之間特征的聯(lián)系從而將公共特征點進行提取匹配,從而實現(xiàn)目標匹配. 可見光紅外圖像自標簽流程如圖4所示.

        圖4 可見光-紅外影像自標簽流程Fig.4 Self-labeling on RGB-IR images

        在預(yù)處理階段為了提取異源圖像之間的公共特征首先需要建立可見光與紅外圖像之間的聯(lián)系. 已經(jīng)計算出了可見光與相應(yīng)紅外影像間的單應(yīng)性矩陣Hrgb-ir,得到了圖像對之間的仿射變換關(guān)系. 結(jié)束對數(shù)據(jù)集仿射變換關(guān)系的求解后,將可見光圖像作為輸入,利用在合成數(shù)據(jù)集上訓練好的特征點檢測器提取特征點,利用隨機生成的單應(yīng)性矩陣對原本的可見光數(shù)據(jù)進行仿射變換以達到數(shù)據(jù)增殖的效果. 同時由于在建立數(shù)據(jù)集時已經(jīng)通過前期處理獲得了可見光-紅外數(shù)據(jù)間的放射變換關(guān)系,那么也可以用同樣的方法對紅外數(shù)據(jù)進行數(shù)據(jù)增殖. 將仿射變換過后的可見光和紅外圖像也通過特征點檢測器提取特征點. 由于單應(yīng)性矩陣本身就可以反映二維圖像之間的幾何變換關(guān)系,假設(shè)frgb()為特征點在輸入可見光圖像上的映射關(guān)系,fir()為特征點在對應(yīng)的紅外圖像上的映射關(guān)系,RGB為輸入的可見光圖像,IR為對應(yīng)的紅外影像,Hrgb為可見光與可見光增殖數(shù)據(jù)間隨機生成的單應(yīng)性矩陣 ,Hir為紅外與紅外增殖數(shù)據(jù)間的單應(yīng)性矩陣,x代表提取到的特征點. 由此可得

        x=frgb(RGB)∪fir(IR)

        (1)

        根據(jù)計算機視覺原理,理想的情況下2D特征點在不同圖像上的形變也是能夠用單應(yīng)性矩陣來表征的,因此可以通過前期獲得的可見光-紅外圖像間的單應(yīng)性矩陣Hrgb-ir以及數(shù)據(jù)增殖時獲得的隨機單應(yīng)性矩陣Hrgb及Hir,將可見光增殖數(shù)據(jù)和紅外及紅外增殖數(shù)據(jù)上提取到的特征點映射到原可見光圖像. 換句話說特征點檢測應(yīng)該滿足如下關(guān)系:

        Hrgbx=frgb(Hrgb(RGB))∪fir(Hrgb-ir(Hir(IR)))

        (2)

        將Hrgb左移至等式右側(cè)則有

        (3)

        然而實際上,在標注Hrgb-ir以及本身“粗”檢測器在可見光與紅外影像上的提取結(jié)果無法完美的滿足公式(3)的等式關(guān)系,因此將通過隨機變換矩陣來生成新圖像以此來實現(xiàn)數(shù)據(jù)增殖的目的,并將特征點提取結(jié)果進行經(jīng)驗求和,最終篩選出在原圖像和生成圖像上重復(fù)出現(xiàn)次數(shù)最多的特征點作為本文自標簽結(jié)果. 即特征點檢測器F(·)滿足:

        (frgb(Hrgb(RGB))∪fir(Hrgb-ir(Hir-i(IR)))

        (4)

        如圖5所示,由此實現(xiàn)了異源圖像間共同特征點自標簽的工作,為后面訓練最終的特征點檢測器以及描述子提供了訓練的“偽”真值.

        圖5 自標簽效果Fig.5 Self-label in results

        2.3 特征點檢測器與描述子同步訓練網(wǎng)絡(luò)

        為了實現(xiàn)端到端的同步訓練,結(jié)合現(xiàn)有算法的框架本文網(wǎng)絡(luò)使用同一個編碼器(采用VGG16作為骨干網(wǎng)絡(luò))對輸入的圖像進行了降維處理后提取特征,在編碼器后網(wǎng)絡(luò)利用兩個解碼器分別學習不同的任務(wù)權(quán)重,分別是特征點檢測以及描述符計算. 網(wǎng)絡(luò)架構(gòu)如圖6所示.

        這里的特征點檢測器與粗檢測器使用的是一樣的設(shè)計思想和網(wǎng)絡(luò)架構(gòu),利用編碼器對圖像做8次降采樣,最后會輸出65通道的heatmap,每一個通道對應(yīng)原圖像上的8×8大小的圖像塊,后接softmax表示該點是特征點的概率,多出的一個值表示該圖像塊上是否存在特征點,這樣就將特征提取問題轉(zhuǎn)換成了一個分類問題. 而描述符計算則是先按照8×8的圖像塊來學習半稠密的描述子,然后利用雙三次插值算法得到完整的描述子,最后利用L2歸一化得到一個關(guān)鍵點對應(yīng)的D維描述子.

        圖6 訓練網(wǎng)絡(luò)框架Fig.6 Training-network architecture

        本文的loss函數(shù)也分為了特征點和描述子兩部分,整體的loss函數(shù)如下:

        L(X,X′,D,D′;Y,Y′,S)=

        Ldet(X,Y)+Ldet(X′,Y′)+λLdis(D,D′,S)

        (5)

        其中Ldet為特征點檢測器的損失函數(shù)而Ldis為描述子損失函數(shù). 本文對原始圖像做仿射變換,這里我們依然是通過隨機生成單應(yīng)性矩陣來實現(xiàn). 特征點檢測的損失函數(shù)是分別用特征點檢測器在原圖和隨機變換后的圖像上提取特征點. 將原圖特征點位置經(jīng)過單應(yīng)性矩陣變換得到的特征點位置作為偽真值Y和在隨機變換的圖像上提取的點的位置X計算差值得到Ldet(X,Y),Ldis(X′,Y′)則是相反的過程即先在變換的圖像上提取點的位置Y′,然后利用單應(yīng)性矩陣的逆得到原圖像上的位置X′求差值得到. 描述符的損失函數(shù)計算則是先利用S判斷特征點是否是對應(yīng)關(guān)系,對應(yīng)關(guān)系的判斷還是利用隨機單應(yīng)性矩陣與圖像塊實現(xiàn),即圖像塊位置利用單應(yīng)性矩陣變換后是否能落到變換的圖像上特征點位置的一個領(lǐng)域范圍內(nèi). 如果特征點對是對應(yīng)關(guān)系(在領(lǐng)域內(nèi))距離越近越好,如果特征點對不是對應(yīng)的(領(lǐng)域外)則距離越遠越好.

        3 實驗結(jié)果與分析

        3.1 數(shù)據(jù)集

        由于目前還沒有公開的可見光-紅外實例目標檢測數(shù)據(jù)集可以用于算法的訓練和測試. 本文算法的數(shù)據(jù)集是由利用無人機單獨收集的涵蓋了不同場景和目標的可見光-紅外圖像數(shù)據(jù). 數(shù)據(jù)集包含內(nèi)容如表1所示.

        表1 本文算法數(shù)據(jù)集概況Tab. 1 Our dataset overview

        測試集中主要包含了廠房、公園平房、板房、居民樓、交通道路等建筑物作為目標. 測試集圖像示例如圖7所示.

        圖7 測試數(shù)據(jù)集圖像示例Fig.7 The images in test dataset

        為了驗證本文算法的泛化能力,本文還選取了同源圖像進行實例目標檢測試驗,本文所選用的同源圖像為可見光圖像,采用的是公開數(shù)據(jù)集HPatches. 數(shù)據(jù)集中包含了共116個場景(每個場景5~6張圖像),其中光照變化場景57個,視角變換場景59個,共計696張圖像.

        圖8 HPatches數(shù)據(jù)集示例Fig.8 The images in HPatches

        3.2 評價流程與評價方法

        本文主要針對單張可見光目標圖像匹配多張紅外目標圖像,即將可見光圖片作為輸入圖像,分別與多張紅外圖像進行目標匹配. 主要的評價包含以下兩個方面:

        1)當紅外圖像中出現(xiàn)目標時,比較不同方法的準確率(參照單對圖像情況)和成功率(紅外目標與可見光目標匹配成功次數(shù));

        2)當紅外圖像中無目標時,比較不同方法誤匹配出現(xiàn)的次數(shù).

        針對上述情況,設(shè)想評價系統(tǒng)的流程如圖9所示.

        圖9 實驗評價流程圖Fig.9 Experimental evaluation flow

        綜上所述,本文主要利用AP(平均精度)及mAP(所有類別的平均精度)對算法進行評價.

        ① AP:計算平均精度時需要結(jié)合交并比(intersection over union,IoU)和實際的實例目標應(yīng)用場景.

        IoU是目標檢測中常見的評價標準,主要是衡量模型生成的bounding box和ground truth box之間的重疊程度,計算公式為

        其中:detectionResult為檢測結(jié)果;GroundTruth為真實值.

        而本文測試主要針對兩個場景,即紅外圖像上存在可見光目標以及紅外圖像上不存在目標. 假設(shè)紅外圖像中存在目標,并且IoU值大于預(yù)先設(shè)定的閾值(本文設(shè)為0.8),那就說明預(yù)測區(qū)域是對的,此時這個區(qū)域就是TP(true positive);假設(shè)紅外圖像中存在目標,但IoU值小于預(yù)先設(shè)定的閾值,那就說明這個預(yù)測是錯的,此時這個預(yù)測就是FP(false positive). 同理還可以將紅外圖像中不存在目標但錯誤檢測出目標的情況定義為FN(false negative),將紅外圖像中沒有目標算法也未檢測出目標定義為TN(true negative).

        3.3 實驗結(jié)果與分析

        為了充分驗證本文算法的先進性,選取了傳統(tǒng)的特征點匹配方法SIFT算法,基于塊匹配的KCF跟蹤匹配算法,Superpoint算法,R2D2算法,D2-Net[17]算法以及HOG-HardNet[18-19]算法. 將測試數(shù)據(jù)分為5個待檢測的可見光目標,每個目標分別對應(yīng)10張紅外圖像. 同時為了模擬紅外圖像中不存在目標的情況,利用不同目標對應(yīng)的紅外圖像進行了測試. 即正類樣本和負類樣本的紅外測試圖像均為20張,將IoU設(shè)為0.6,表2為實驗結(jié)果.

        由表2、表3所示本文算法在5個目標的兩類檢測任務(wù)中均比實驗對比的其他先進算法具有更好的檢測成功率以及魯棒性. 但對于部分可見光和紅外圖像尺度差異較大的目標4及目標5算法也出現(xiàn)了誤檢測和漏檢測的目標. 說明本文算法在尺度差異加大的情況下仍存在著不足. 為了直觀地體現(xiàn)本文算法的檢測效果,下面將展示幾組算法的檢測效果對比結(jié)果.

        表2 5個待測目標評價結(jié)果

        表3 算法在異源圖像上目標實力識別的總體表現(xiàn)

        圖10 對可見光紅外異源圖像目標的檢測效果Fig.10 The objection detection results on different source images

        從上述匹配效果圖可以看出,本文算法所提取的共有特征點充足且匹配準確率高,可以滿足在異源圖像上實例目標檢測的任務(wù),正確檢測出目標并給出目標所在位置.

        此外為了驗證本文算法的泛化能力,還對本文算法以及上述特征點提取匹配算法在同源圖像數(shù)據(jù)集HPatches上進行了實例目標檢測的測試. 表4為實驗結(jié)果.

        表4 算法在HPatches上的總體表現(xiàn)

        圖11 對光照變化下同源圖像(HPatches)目標的檢測效果Fig.11 The objection detection results in illumination change on same source images(HPatches)

        圖12 對視角變化下同源圖像(HPatches)目標的檢測效果Fig.12 The objection detection results in view-point change on same source images(HPatches)

        通過上述的客觀實驗結(jié)果和主觀的測試對比效果可以發(fā)現(xiàn):①在紅外圖像上存在目標時,本文算法效果明顯優(yōu)于現(xiàn)有的實驗對比算法. 本文算法成功的建立了跨域特征之間的聯(lián)系,使得異源圖像上的高層級特征有了明確的匹配關(guān)系. 因此在異源圖像上的實力識別準確率和精度都較其他兩種算法有了明顯的提升. 在紅外圖像無目標時,由于是基于特征點匹配的實力識別,因此無法找到足夠的目標區(qū)域匹配特征點的情況下3種算法均極少出現(xiàn)誤匹配的情況. ②針對異源圖像尺度差異較大的情況,本文算法雖然較實驗對比算法有較好的檢測效果但仍存在漏匹配和錯誤匹配的情況. 這主要是由于本算法并沒有過多的考慮解決尺度一致性的問題,在自標簽階段的數(shù)據(jù)增殖沒有考慮對尺度因子也進行縮放. 算法缺乏對該情況的學習,進而導(dǎo)致了漏匹配和錯誤匹配的情況. 這一問題在幾類比較算法中也存在. ③本文算法主要針對的是異源圖像上的實力目標檢測任務(wù),缺乏對同源圖像的針對性研究,但實驗顯示本文算法在同源圖像實例目標檢測任務(wù)上仍然能夠取得與先進算法接近的效果.

        4 結(jié) 論

        本文提出了一種基于深度學習特征點提取匹配的算法,該算法解決了以往研究無法獲取異源圖像共有特征的問題,從而實現(xiàn)了異源圖像實例目標檢測任務(wù). 并通過實驗證明了算法在異源圖像上對5類不同目標的識別整體精度較現(xiàn)有的表現(xiàn)最好的DOG-HardNet算法提升了8%. 未來針對尺度差異引起的誤匹配,漏匹配問題可以通過借鑒圖像金字塔的思想構(gòu)建新的自標簽方法,使得算法充分學習多尺度圖像特征點信息,從而解決圖像尺度差異所帶來的算法效果不佳的問題.

        猜你喜歡
        異源紅外標簽
        近岸水體異源遙感反射率產(chǎn)品的融合方法研究
        海洋通報(2022年4期)2022-10-10 07:40:26
        基于EM-PCNN的果園蘋果異源圖像配準方法
        網(wǎng)紅外賣
        閃亮的中國紅外『芯』
        金橋(2021年4期)2021-05-21 08:19:20
        臉譜與假面 異源而殊流
        中華戲曲(2020年2期)2020-02-12 05:17:58
        TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
        電子制作(2019年7期)2019-04-25 13:17:14
        無懼標簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        不害怕撕掉標簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        基于快速遞推模糊2-劃分熵圖割的紅外圖像分割
        標簽化傷害了誰
        永久免费观看的毛片手机视频| 国产禁区一区二区三区| 强开少妇嫩苞又嫩又紧九色| 日本高清www无色夜在线视频| 久久久久国产亚洲AV麻豆| 日本岛国视频在线观看一区二区| 中文乱码字幕精品高清国产| 凹凸在线无码免费视频| 国产亚洲欧美日韩综合综合二区| 国产三级av在线播放| 肥老熟女性强欲五十路| 国产av综合影院| 亚洲V在线激情| 日本顶级片一区二区三区| аⅴ天堂中文在线网| 国产欧美日韩久久久久| 久久道精品一区二区三区| 成人国产av精品麻豆网址| 粗大的内捧猛烈进出少妇| 国产极品久久久久极品| 天堂av无码大芭蕉伊人av孕妇黑人 | 国产一级黄色录像大片| 麻豆tv入口在线看| 欧美伊人久久大香线蕉在观| 国产三级精品三级在线观看粤语 | 精品亚洲一区二区区别在线观看| 亚洲色婷婷一区二区三区| 成年女人A级毛片免| 日本一区二区在线播放| 国产裸体美女永久免费无遮挡| 亚洲成a人v欧美综合天堂麻豆| 人妻无码AⅤ中文系列久久免费| 蜜桃视频在线免费视频| 消息称老熟妇乱视频一区二区 | 男人的精品天堂一区二区在线观看 | 欧美激情a∨在线视频播放| 亚洲第一免费播放区| 久久综合久久综合久久| 无码少妇精品一区二区免费动态 | 女优av福利在线观看| 国产av一区二区三区性入口|