亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        適用于傾斜影像的加速KAZE-SIFT特征提取算法

        2019-09-04 10:14:27薄單李宗春王曉南喬涵文
        計算機應用 2019年7期
        關(guān)鍵詞:特征提取

        薄單 李宗春 王曉南 喬涵文

        摘 要:針對傳統(tǒng)正攝影像的特征提取算法處理傾斜影像匹配效果不佳的問題,在已有特征提取算法的基礎上,提出了一種適用于傾斜影像的特征提取算法——加速KAZE-尺度不變特征變換(AKAZE-SIFT)算法。首先,為保證特征檢測的準確性與獨特性,采用充分保留圖像輪廓信息的加速KAZE(AKAZE)算子進行特征檢測;其次,為提升特征描述的穩(wěn)定性,采用穩(wěn)健的尺度不變特征變換(SIFT)算子進行特征描述;然后,依據(jù)目標特征向量和候選特征向量間的歐氏距離確定粗匹配點對;最后,采用隨機抽樣一致性算法進行單應性約束,提高匹配純度。模擬影像在傾斜攝影條件下的模糊、旋轉(zhuǎn)、亮度、視角和尺度變化,對特征提取算法性能進行評估,實驗結(jié)果表明,AKAZE-SIFT算法相比SIFT算法和AKAZE算法召回率分別提高了12.8%和5.3%,精準率提高了6.5%和6.1%,F(xiàn)1值提升了13.8%和5.6%;提取效率優(yōu)于SIFT算法,略遜于AKAZE。AKAZE-SIFT算法具有良好的檢測和描述能力,更適用于傾斜影像特征提取。

        關(guān)鍵詞:加速KAZE算法;尺度不變特征變換算法;傾斜影像;特征提取;特征匹配

        Abstract: Concerning that traditional vertical image feature extraction algorithms have poor effect on oblique image matching, a feature extraction algorithm, based on Accelerated KAZE (AKAZE) and Scale Invariant Feature Transform (SIFT) algorithm called AKAZE-SIFT was proposed. Firstly, in order to guarantee the accuracy and distinctiveness of image feature detection, AKAZE operator, which fully preserves the contour information of image, was utilized for feature detection. Secondly, the robust SIFT operator was used to improve the stability of feature description. Thirdly, the rough matching point pairs were determined by the Euclidean distance between object feature point vector and candidate feature point vectors. Finally, the homography constraint was applied to improve the matching purity by random sample consensus algorithm. To evaluate the performance of the feature extraction algorithm, the blur, rotation, brightness, viewpoint and scale changes under the condition of oblique photography were simulated. The experimental results show that compared with SIFT algorithm and AKAZE algorithm, the recall of AKAZE-SIFT is improved by 12.8% and 5.3% respectively, the precision of AKAZE-SIFT is increased by 6.5% and 6.1% respectively, the F1 measure of AKAZE-SIFT is elevated by 13.8% and 5.6% respectively and the efficiency of the proposed algorithm is higher than that of SIFT and slightly worse than that of AKAZE. For the excellent detection and description performance, AKAZE-SIFT algorithm is more suitable for oblique image feature extraction.

        Key words: Accelerated KAZE (AKAZE) algorithm; Scale Invariant Feature Transform (SIFT) algorithm; oblique image; feature extraction; feature matching

        0 引言

        傾斜攝影測量技術(shù)通過多視角攝影獲取建筑物頂部和側(cè)面信息,克服了傳統(tǒng)垂直攝影測量因拍攝視角單一,只能獲得建筑物的高度和頂部紋理信息的不足,得到了迅猛的發(fā)展。常用無人機搭載5臺相機,從1個下視方向和4個側(cè)視方向采集影像,并由定位定姿系統(tǒng)(Position and Orientation System, POS)記錄攝影位置、飛行航高、航速和航向等信息。傾斜影像經(jīng)過特征匹配、多視影像聯(lián)合平差、密集匹配,構(gòu)建地物三維模型。

        由于傾斜影像受多相機焦距和傾角不一致影響,圖像尺度和亮度差異明顯;受旋偏角和視角影響,圖像旋轉(zhuǎn)和視角變化劇烈;受云霧、光線和視線影響,模糊、陰影和遮擋現(xiàn)象突出,導致影像特征難以實現(xiàn)良好的重現(xiàn)性和高度的獨特性。簡單應用傳統(tǒng)基于垂直正攝影像的特征匹配算法,往往出現(xiàn)匹配數(shù)量少且匹配正確率低,嚴重影響影像聯(lián)合平差的精度[1-3],故對傾斜影像提取優(yōu)質(zhì)高效的特征是傾斜攝影測量技術(shù)的關(guān)鍵。

        1 相關(guān)工作

        自Lowe[4-5]提出尺度不變特征變換(Scale Invariant Feature Transform, SIFT)算法以來,眾多學者在其基礎上提出了一系列的特征提取算法,如加速穩(wěn)健特征(Speeded Up Robust Feature, SURF)[6]、ORB(Oriented FAST and Rotated BRIEF)[7]、KAZE[8]、加速KAZE(Accelerated KAZE, AKAZE)[9]算法等,用來解決圖像特征匹配的問題。

        SIFT算法很好地保持了尺度、旋轉(zhuǎn)和亮度不變性,作為主流算法,廣泛應用在遙感圖像的自動配準中,但該算法計算量大、耗時長。SURF算法在SIFT算法的基礎上進行了改進,引入積分圖像的概念,對高斯差分進行了簡化,把卷積運算轉(zhuǎn)化為簡易的加減運算,降低了算法復雜度,在提高程序運行速度的同時,提取效果與SIFT算法相當。SIFT和SURF算法使用高斯濾波構(gòu)建圖像尺度空間時,對圖像的輪廓和噪聲同時進行了高斯平滑,模糊了輪廓信息,造成邊界模糊和細節(jié)丟失,影響特征定位的獨特性和準確性。為解決上述問題,KAZE特征算法引入非線性擴散濾波的方法,構(gòu)建非線性尺度空間,具有魯棒性強、匹配效果好的優(yōu)點,但運行效率明顯低于其他算法,限制了其在工程實踐中的應用。AKAZE算法作為KAZE算法的加速版本,采用改進的局部差分二值描述符(Modified-Local Difference Binary descriptor, M-LDB),大幅縮短了特征提取的時間。AKAZE算法通過非線性濾波構(gòu)建尺度空間,自適應濾除噪聲和細枝末節(jié)的同時,保留圖像輪廓的關(guān)鍵特征信息,但由于M-LDB描述符的穩(wěn)定性弱于SIFT描述符,使得AKAZE算法總體表現(xiàn)不如SIFT算法[10]。

        文獻[11]針對無人機影像受拍攝條件或區(qū)域復雜環(huán)境的影響,匹配效果不佳的問題,提出了SURF算法和單應性約束結(jié)合的方法,對無人機影像進行特征匹配。文獻[12]為了穩(wěn)定、高效、精確地進行無人影像匹配,提出一種改進的AKAZE算法,首先利用AKAZE算法構(gòu)造非線性尺度空間檢測特征點,然后利用學習安排的三元組(Learned Arrangements of Three patCH, LATCH)描述符對獲取的特征點進行描述。文獻[13]對近景影像和普通影像數(shù)據(jù)進行研究,評估了幾種特征提取算法在旋轉(zhuǎn)、亮度及尺度等方面的性能。文獻[14]對遙感影像進行研究,在光譜、時相及尺度方面分析了特征提取算法的穩(wěn)定性。文獻[15]對密集城區(qū)、稀疏城區(qū)、平原及高山的正攝影像進行特征匹配實驗,指出SURF-SIFT算法具有良好的性能,AKAZE算法次之。

        上述文獻主要研究無人機正攝影像,缺少針對傾斜影像特征提取算法的性能評估研究。傾斜影像的影像配準,更加注重特征提取質(zhì)量和匹配效果,為此,結(jié)合高性能特征提取算法,本文提出一種適用于傾斜影像的AKAZE-SIFT特征提取算法。首先,為保證特征檢測的獨特性和準確性,在非線性尺度空間中,采用AKAZE算子檢測特征;其次,采用穩(wěn)健的SIFT算子描述特征向量;然后,根據(jù)特征向量的歐氏距離進行粗匹配;最后,采用單應性約束的隨機抽樣一致性(RANdom SAmple Consensus, RANSAC)[16-18]算法提高匹配純度。本文提出的特征匹配算法流程如圖1所示。

        2 AKAZE-SIFT算法

        2.1 AKAZE特征檢測

        AKAZE作為加速的KAZE算法,采用快速顯式擴散 (Fast Explicit Diffusion, FED)算法替代加性算子分裂(Additive Operator Splitting, AOS)算法構(gòu)建非線性尺度空間。既保留了非線性尺度空間特征檢測的獨特性和準確性的優(yōu)點,又較KAZE算法提高了計算速度。AKAZE算法首先通過FED算法構(gòu)建非線性尺度空間,然后利用Hessian矩陣行列式檢測特征點位置。

        2.1.1 構(gòu)建非線性尺度空間

        AKAZE算法使用各向異性擴散公式,通過非線性擴散濾波器構(gòu)造尺度空間,使得亮度在平緩區(qū)域擴散快,在邊緣處擴散慢,充分保留了圖像邊緣和細節(jié)。非線性擴散濾波的各向異性擴散公式可表示為:

        式中:L為圖像亮度矩陣;div、c(x,y,t)和分別表示散度函數(shù)、傳導函數(shù)和梯度函數(shù);(x,y)為圖像坐標;時間t為尺度參數(shù)。

        傳導函數(shù)c(x,y,t)可表示為:

        式中:Lσ表示圖像L經(jīng)過尺度因子σ高斯平滑后的梯度圖像;g(·)為傳導函數(shù),默認采用優(yōu)先保留寬度較大區(qū)域的g2函數(shù)。g2函數(shù)可表示為:

        式中:參數(shù)λ為控制擴散程度的對比度因子。

        對比度因子λ依據(jù)梯度圖像Lσ直方圖的分位值計算,可表示為:

        式中:NumberofBins為梯度直方圖的分位數(shù)量;MaxGradient為梯度直方圖的最大梯度;bin為梯度直方圖達到70%時的分位值。

        對輸入圖像進行高斯濾波,將平滑后的影像降采樣2倍形成下一組影像,重復降采樣過程,構(gòu)建影像金字塔(O組S子層)。圖像尺度因子σi可表示為:

        由于非線性擴散濾波模型是以時間為單位,需要建立尺度σi到擴散時間ti之間的轉(zhuǎn)換關(guān)系,可表示為:

        根據(jù)各向異性擴散式(1),顯式構(gòu)建非線性尺度空間,可表示為:

        式中:I為單位矩陣;A(Li)為Li的傳導矩陣;τ為時間步長。

        根據(jù)先驗估計Li+1,0=Li,不斷迭代生成Li+1,n,迭代過程可表示為:

        2.1.2 特征檢測

        非線性尺度空間構(gòu)建后,采用Hessian矩陣檢測特征點位置,此處采取與SIFT相同的檢測策略,即尋找歸一化后不同尺度的Hessian矩陣行列式LHessian的局部極值點,LHessian可表示為:

        式中:Lxx、Lyy分別為水平方向和垂直方向的二階導數(shù);Lxy為二階交叉導數(shù)。

        在非線性尺度空間內(nèi),比較當前點與上下兩層及當前層(3×3鄰域)的26個點的值,判斷其是否為極值點,從而確定特征點的位置,如圖2所示。

        2.2 SIFT特征描述

        首先,在非線性尺度空間內(nèi),建立梯度方向直方圖,求取特征點的主方向;其次,以特征點為中心,將特征點鄰域內(nèi)圖像梯度的位置和方向旋轉(zhuǎn)至主方向,實現(xiàn)描述符的旋轉(zhuǎn)不變性;然后,在特征點鄰域內(nèi)對影像特征進行描述,把12×12的鄰域劃分成4×4個等間隔子區(qū)域,計算每個子區(qū)域8個方向的梯度方向直方圖,形成128維SIFT特征向量。由于關(guān)于SIFT特征描述的研究[15-16,19-20]較多,此處不再贅述。

        2.3 特征匹配與提純

        特征向量生成后,根據(jù)向量間的歐氏距離E進行特征匹配。E值越小,表明兩個向量越相似。歐氏距離E可表示為:

        式中:特征向量a=(a1,a2…,a128);b=(b1,b2,…,b128)。

        由于相似的紋理特征,在匹配的特征點對中,存在大量的誤匹配點對,需要對匹配結(jié)果提純,減少錯誤匹配數(shù)量,提高特征匹配效果。本文采用單應性約束的RANSAC算法[16-18]對匹配結(jié)果進行提純。

        3 匹配評價標準

        3.1 點對匹配正確的判斷

        在參考圖像和待匹配圖像上,若兩個特征向量間的歐氏距離E很小,判斷這兩個特征點對應同一場景,認為是同名點對,坐標分別為(x1,y1)和(x2,y2)。參考圖像特征點(x1,y1)經(jīng)理論單應性矩陣映射到待匹配圖像的理論點位為(1′,1′),可表示為:

        在待匹配圖像上,理論點位(1′,1′)與實際匹配點位(x2,y2)存在偏差,即重投影誤差d,可表示為:

        若d小于經(jīng)驗閾值 (本文設為3像素),則認為點對匹配正確;否則認為點對匹配錯誤。

        3.2 召回率

        召回率(Recall)為兩幅相似影像中的正確匹配點對數(shù)n與理論特征點對數(shù)量M的比值,反映了特征檢測的性能,可表示為:

        3.3 精準率

        精準率(Precision)即匹配正確率,為兩幅圖像中正確匹配點對數(shù)量n與特征匹配點對數(shù)量N的比值,反映了特征描述的穩(wěn)定性,可表示為:

        3.4 F1值

        F1值(F1-measure)為召回率和精準率的加權(quán)調(diào)和均值,同時兼顧了召回率和精準率,可表示為:

        3.5 提取用時

        每個特征提取的平均用時Point_Time為每幅圖像提取特征平均用時TIME與提取特征點的數(shù)目均值NUM的比值,反映了特征提取算法的運行效率,可表示為:

        4 實驗結(jié)果與分析

        為測試本文算法效果,在Windows 7操作系統(tǒng),CPU為Intel Core i7-4790M,內(nèi)存為8GB,編程平臺為Microsoft Visual Studio 2013的實驗環(huán)境下,基于OpenCV 3.3.1進行實驗。以云南玉溪某地傾斜攝影的前視影像作為研究對象,相機為SONY ILCE-5100,傾角45°,焦距16mm,光圈值f/5.6,曝光時間1/2000s,拍攝時間上午10時許,天氣晴朗無風,影像尺寸為6000×4000。由于原圖像較大,為減少計算時間,對原圖像進行降采樣,壓縮后的影像尺寸為1500×1000。

        選取應用廣泛、性能高的SIFT、SURF、AKAZE算法進行對比實驗。此次實驗中,上述4種算法的特征檢測子和描述子均采用OpenCV的默認參數(shù)。

        4.1 模擬傾斜攝影的圖像變化

        為評價各種算法的穩(wěn)健性,模擬傾斜攝影條件下的5種圖像變化,分別描述如下:

        a)高斯模糊。模擬拍攝時受到噪聲影響引起的模糊變化,對原始影像進行高斯模糊,模糊半徑從0變化到10,步長為1,得到11張影像作為a組。

        b)旋轉(zhuǎn)變化。模擬不同相機朝向和航向變化造成的影像旋轉(zhuǎn)變化,把影像順時針旋轉(zhuǎn)0°至180°,步長20°,得到10張影像作為b組。

        c)亮度變化。模擬影像因光照強度改變引起的亮度變化,圖像亮度增量從-125至125,步長25,得到11張影像作為c組。

        d)視角變化。模擬不同視角或相機傾角下,相同地物在影像上的差異,將影像沿垂直方向翻轉(zhuǎn)-50°至50°,步長10°,得到11張影像作為d組。

        e)尺度變化。模擬航高變化和相機傾角造成的影像地物尺寸變化,縮放系數(shù)從0.25變化至2.0,步長0.25,得到8張影像作為e組。

        通過模擬得到5組圖像,如圖3所示(為簡化只顯示部分圖像)。

        4.2 結(jié)果分析

        對原始前視影像分別與上述模擬圖像進行特征匹配與提純實驗,采用召回率、精準率、F1值和運行時間評估各種特征提取算法的性能。

        4.2.1 特征提取效果分析

        F1值兼顧了召回率和精準率,綜合反映了算法的檢測和描述質(zhì)量。統(tǒng)計4種算法在上述5種模擬條件的F1值,結(jié)果如圖4所示。

        在圖4(a)中,隨著高斯平滑半徑的增大,圖像愈發(fā)模糊,F(xiàn)1值逐漸降低。由于AKAZE算法采用非線性擴散濾波的方式建立尺度空間,增強了圖像輪廓局部特征的表現(xiàn)能力,使得特征顯著性更高,AKAZE和AKAZE-SIFT算法的F1值高于另兩種算法。

        在圖4(b)中,在處理圖像旋轉(zhuǎn)變化時,采用局部不變特征的4種算法都能出色地描述圖像特征信息,取得了較好的匹配效果,但由于SURF算法引入積分圖像對高斯差分進行了簡化,降低了描述向量的維度,在處理旋轉(zhuǎn)變化時,匹配效果差于其他算法。

        在圖4(c)中,在面對亮度均勻變化時,由于4種算法都采用差分的方法解決了亮度均勻變化的問題,提取效果相當。

        在圖4(d)中,在處理圖像視角變化時,隨著圖像翻轉(zhuǎn)角度的增加,4種算法的匹配效果都明顯變差,表明圖像視角變化是影響匹配效果的關(guān)鍵因素。其中,本文算法的F1值高于其他算法。

        在圖4(e)中,引入尺度空間構(gòu)建影像金字塔,能夠很好解決尺度變化的問題,4種算法的匹配效果相當。隨著圖像尺寸的縮小,圖像的信息量變小,特征點的提取數(shù)量減少,且描述向量的顯著性變差,匹配效果明顯下降;尺寸放大時,圖像的信息量沒有明顯丟失,特征匹配效果緩慢變差。

        為定量分析4種算法的匹配效果,統(tǒng)計召回率、精準率、F1值在上述5種模擬變化下的均值,結(jié)果如表1所示。

        從表1可以看出,旋轉(zhuǎn)和亮度變化對匹配效果影響較小;視角和尺度變化是影響匹配效果的主要因素,這也正是傾斜攝影與垂直攝影的主要差異。其中,AKAZE-SIFT較SIFT算法召回率提高了12.8%,精準率提高了6.5%,F(xiàn)1值提升了13.8%;較SURF算法召回率提升了35.2%,精準率提升了23.4%,F(xiàn)1值提升了31.9%;較AKAZE算法召回率提升了5.3%,精準率提升了6.1%,F(xiàn)1值提升了5.6%。AKAZE-SIFT算法的召回率、精準率、F1值均高于另3種算法,表明其針對上述變化具有較強的穩(wěn)健性。

        SIFT算法計算量大,提取時間約1.39ms,用時最長;SURF算法較SIFT算法,運行效率有明顯提升,提取時間約0.85ms;由于AKAZE采用了加速的FED算法,每個特征點的提取時間約0.50ms,運行時間最短;AKAZE-SIFT算法作為AKAZE和SIFT的組合算法,每點特征提取時間為0.80ms,約為SIFT和AKAZE算法的均值。本文算法運行效率低于AKAZE,但優(yōu)于SIFT和SURF。

        綜合考慮影像5個方面的變化,AKAZE-SIFT算法的召回率、精準率和F1值均高于其他算法,具有良好的檢測和描述能力,匹配效果最好,AKAZE和SIFT算法次之。

        5 結(jié)語

        本文針對傾斜影像與正攝影像的差異,在研究已有特征提取算法的基礎上,設計了一種AKAZE-SIFT特征提取算法。考慮模糊、旋轉(zhuǎn)、亮度、視角及尺度變化的影響,把AKAZE-SIFT與現(xiàn)有的特征提取算法進行了對比,以特征匹配召回率、精準率、F1值和提取用時作為評價標準,評估了4種算法在多視角此處是否應該為“多視角”?請明確?;貜停河⑽谋磉_為multiple-view ,可譯作“多視”,也可作“多視角”。查閱他人文獻,二者均有使用。為表達流暢,建議使用“多視角”傾斜影像上的特征提取性能。模擬實驗結(jié)果表明:視角和尺度變化是影響傾斜影像特征匹配效果的關(guān)鍵因素;而旋轉(zhuǎn)和亮度均勻變化對匹配效果的影響較小。AKAZE-SIFT算法在傾斜影像特征提取時,具有較高的檢測和描述穩(wěn)定性,匹配效果優(yōu)于典型的SIFT、SURF和AKAZE算法,可作為一種實用的傾斜影像特征提取算法。

        由于本文實驗為傾斜影像受各種因素影響的模擬變化,而真實情況要遠復雜于模擬影像,如模擬時未考慮到地物遮擋和光照不均勻的情況,故實驗時各種算法的匹配正確率要高于真實情況,下一步考慮在真實數(shù)據(jù)庫上測試提取效果。

        參考文獻 (References)

        [1] 楊國東,王民水.傾斜攝影測量技術(shù)應用及展望[J]. 測繪與空間地理信息,2016,39(1):13-15,18.(YANG G D, WANG M S. The tilt photographic measuration technique and expectation [J]. Geomatics and Spatial Information Technology, 2016, 39(1): 13-15, 18.)

        [2] 邢帥,徐青,劉軍,等.多源衛(wèi)星遙感影像的光束法區(qū)域網(wǎng)平差[J].測繪學報,2009,38(2):125-130.(XING S, XU Q, LIU J, et al. Bundle block adjustment with multi-source satellite remote sensing images [J]. Acta Geodaetica et Cartographica Sinica, 2009, 38(2): 125-130.)

        [3] 張祖勛,張劍清.城市建模的途徑與關(guān)鍵技術(shù)[J].世界科技研究與發(fā)展,2003(3):23-29.(ZHANG Z X, ZHANG J Q. Solutions and core techniques of city modeling [J]. World Science-Technology Research and Development, 2003(3): 23-29.)

        [4] LOWE D G. Object recognition from local scale-invariant features [C]// Proceedings of the 7th IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE, 1999: 1150-1157.

        [5] LOWE D G. Distinctive image features from scale-invariant keypoints [J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

        [6] BAY H, TUYTELAARS T, GOOL L V. SURF: speeded up robust features [C]// Proceedings of the 2006 European Conference on Computer Vision, LNCS 3951. Berlin: Springer, 2006: 404-417.

        [7] BRADSKI G, KONOLIGE K, RABAUD V, et al. ORB: an efficient alternative to SIFT or SURF [C]// Proceedings of the 2011 IEEE International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2011: 2564-2571.

        [8] ALCANTARILLA P F, BARTOLI A, DAVISON A J. KAZE features [C]// Proceedings of the 2012 European Conference on Computer Vision, LNCS 7577. Berlin: Springer, 2012: 214-227.

        [9] ALCANTARILLA P F, NUEVO J, BARTOLI A J. Fast explicit diffusion for accelerated features in nonlinear scale spaces [C]// Proceedings of the 2013 British Machine Vision Conference. Durham, UK: BMVA Press, 2013: 1-11.

        [10] 張一.無人機遙感影像點特征匹配算法研究[D].鄭州:解放軍信息工程大學,2015:39.(ZHANG Y. Research on point feature matching algorithms of UAV remote sensing images [D]. Zhengzhou: PLA Information Engineering University, 2015: 39.)

        [11] 王曉紅,鄧仕雄,何志偉,等.結(jié)合SURF算法和單應性矩陣的無人機影像匹配[J].測繪通報,2018(7):38-42.(WANG X H, DENG S X, HE Z W, et al. Study of UAV image matching based on SURF algorithm and homography matrix [J].Bulletin of Surveying and Mapping, 2018(7): 38-42.)

        [12] 宋偉,王永波.基于改進AKAZE算法的無人機影像匹配[J].電子測量與儀器學報,2018,32(8):96-102.(SONG W, WANG Y B. UAV image registration based on improved AKAZE algorithm [J]. Journal of Electronic Measurement and Instrumentation, 2018, 32(8): 96-102.)

        [13] 張春美,龔志輝,黃艷.幾種特征點提取算法的性能評估及改進[J].測繪科學技術(shù)學報,2008,25(3):231-234.(ZHANG C M, GONG Z H, HUANG Y. Performance evaluation and improvement of several feature point detectors [J]. Journal of Geomatics Science and Technology, 2008, 25(3): 231-234.)

        [14] 葉沅鑫,慎利.面向遙感影像匹配的特征點檢測算子性能評估[J].西南交通大學學報,2016,51(6):1170-1176.(YE Y X, SHEN L. Performance evaluation of interest point detectors for remote sensing image matching [J]. Journal of Southwest Jiaotong University, 2016, 51(6): 1170-1176.)

        [15] 胡佳怡,趙棟梁,劉榮,等.基于特征的影像匹配算法性能評估[J].北京測繪,2018,32(2):179-185.(HU J Y, ZHAO D L, LIU R, et al. Performance evaluation of feature-based image matching algorithms [J]. Beijing Surveying and Mapping, 2018, 32(2): 179-185.)

        [16] 賈雯曉,張貴倉,汪亮亮,等.基于SIFT和改進的RANSAC圖像配準算法[J].計算機工程與應用,2018,54(2):203-207.(JIA W X, ZHANG G C, WANG L L, et al. Image registration algorithm based on SIFT and improved RANSAC [J]. Computer Engineering and Applications, 2018, 54(2): 203-207.)

        [17] 陳藝蝦,孫權(quán)森,徐煥宇,等.SURF算法和RANSAC算法相結(jié)合的遙感圖像匹配方法[J].計算機科學與探索,2012,6(9):822-828.(CHEN Y X, SUN Q S, XU H Y, et al. Matching method of remote sensing images based on SURF algorithm and RANSAC algorithm [J]. Journal of Frontiers of Computer Science and Technology, 2012, 6(9): 822-828.)

        [18] 高帥華,安巧絨.RANSAC在影像匹配中的應用[J].中國科技信息,2018(6):69-70.(GAO S H, AN Q R. Application of RANSAC in image matching [J]. China Science and Technology Information, 2018(6): 69-70.)

        [19] 代玉強,楊絮,熊昊,等.SIFT特征算法改進研究[J].現(xiàn)代計算機(專業(yè)版),2018(17):55-59.(DAI Y Q, YANG X, XIONG H, et al. Research on the improvement of SIFT feature algorithm [J]. Modern Computer (Professional Edition), 2018(17): 55-59.

        [20] 陳虹,肖越,肖成龍,等.基于SIFT算子融合最大相異系數(shù)的自適應圖像匹配算法[J].計算機應用,2018,38(5):1410-1414.(CHEN H, XIAO Y, XIAO C L, et al. Adaptive image matching algorithm based on SIFT operator fused with maximum dissimilarity coefficient [J]. Journal of Computer Applications, 2018, 38(5): 1410-1414.)

        猜你喜歡
        特征提取
        特征提取和最小二乘支持向量機的水下目標識別
        基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
        電子制作(2019年15期)2019-08-27 01:12:00
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        基于DNN的低資源語音識別特征提取技術(shù)
        自動化學報(2017年7期)2017-04-18 13:41:09
        Bagging RCSP腦電特征提取算法
        一種基于LBP 特征提取和稀疏表示的肝病識別算法
        基于DSP的直線特征提取算法
        基于改進WLD的紋理特征提取方法
        計算機工程(2015年4期)2015-07-05 08:28:02
        淺析零件圖像的特征提取和識別方法
        機電信息(2015年3期)2015-02-27 15:54:46
        基于CATIA的橡皮囊成形零件的特征提取
        亚洲香蕉成人AV网站在线观看 | 亚洲电影一区二区三区| 国产一级一片内射在线| 久久丝袜熟女av一区二区| 色费女人18毛片a级毛片视频| 国产a v无码专区亚洲av| 69国产成人综合久久精| 自拍偷拍韩国三级视频| 欧美成人国产精品高潮| 国产精品成人免费视频网站京东 | 青青草小视频在线观看| 国产产区一二三产区区别在线| 久久婷婷色综合一区二区| 人妻少妇精品一区二区三区| 日韩精品中文字幕一区二区| 国产va免费精品高清在线观看| 久青草国产在线观看| 极品少妇被后入内射视| 国产亚洲一区二区在线观看| 久久久精品456亚洲影院| 欧美高清视频一区| 人妻被公上司喝醉在线中文字幕| 亚洲中文字幕久久精品蜜桃| 无码专区天天躁天天躁在线| AV无码系列一区二区三区| 性生大片免费观看性少妇| 午夜福利一区二区三区在线观看| 国产欧美日韩综合在线一区二区| 亚洲一区二区三区在线更新| 亚洲中文字幕国产视频| 18成人片黄网站www| 亚洲九九夜夜| 亚洲国产综合人成综合网站| 人妻少妇精品中文字幕av| 國产AV天堂| 久久亚洲国产高清av一级| 亚洲中文字幕久久精品蜜桃| 免费的成年私人影院网站| 女同国产日韩精品在线| 中文有码亚洲制服av片| 日韩人妻无码一区二区三区久久99|