亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        橋梁自然特征點(diǎn)的快速精確跟蹤算法

        2023-09-04 07:46:54何雨薇諸葛盛徐祥鵬鐘立軍張小虎
        測(cè)繪通報(bào) 2023年5期
        關(guān)鍵詞:連續(xù)性閾值精度

        何雨薇,諸葛盛,徐祥鵬,鐘立軍,楊 夏,張小虎

        (中山大學(xué)航空航天學(xué)院,廣東 深圳 518107)

        近年來,隨著中國(guó)橋梁運(yùn)輸業(yè)的迅猛發(fā)展,重載大流量的交通問題日漸突出,導(dǎo)致部分橋梁在設(shè)計(jì)的使用壽命期內(nèi)出現(xiàn)結(jié)構(gòu)變形,帶來嚴(yán)重的交通安全隱患[1]。為降低橋梁事故的發(fā)生概率,結(jié)構(gòu)健康監(jiān)測(cè)系統(tǒng)應(yīng)運(yùn)而生,并逐步成為橋梁養(yǎng)護(hù)的重要手段[2]。其中,橋梁撓度最能夠真實(shí)地反映橋梁結(jié)構(gòu)的安全狀況,體現(xiàn)橋梁結(jié)構(gòu)在外部載荷和環(huán)境作用下的性能及內(nèi)部材料的老化情況,是橋梁健康監(jiān)測(cè)中的關(guān)鍵監(jiān)測(cè)參數(shù)[3]。

        對(duì)于橋梁撓度測(cè)量,現(xiàn)有的方法均存在一定缺陷[4]。基于視覺的測(cè)量方式能夠?qū)Υ罂缍葮蛄哼M(jìn)行非接觸式測(cè)量,但圖像采集的最佳位置受到限制[5-9]。結(jié)合無人機(jī)快速靈活采集圖像的優(yōu)勢(shì),利用無人機(jī)測(cè)量橋梁撓度的方法可突破上述測(cè)量方法的局限性,具備成本低、精度高、實(shí)時(shí)性強(qiáng)、適用范圍廣等諸多優(yōu)勢(shì),已成為橋梁撓度測(cè)量領(lǐng)域的研究熱點(diǎn)[10]。在此背景下,許多學(xué)者相繼開展相關(guān)研究,提出了各種利用無人機(jī)測(cè)量建筑結(jié)構(gòu)位移的方法。測(cè)量的基本原理為通過對(duì)無人機(jī)視頻中的特征點(diǎn)進(jìn)行跟蹤,再結(jié)合其他約束條件解算結(jié)構(gòu)位移[11-16]。

        在上述無人機(jī)測(cè)量橋梁撓度的方法中,特征點(diǎn)跟蹤的速度和精度直接影響測(cè)量的實(shí)時(shí)性和有效性,是整個(gè)測(cè)量流程的關(guān)鍵環(huán)節(jié)。在進(jìn)行無人機(jī)非接觸式測(cè)量橋梁撓度的研究中,筆者模擬計(jì)算分析特征點(diǎn)跟蹤誤差對(duì)橋梁結(jié)構(gòu)位移測(cè)量誤差的影響,結(jié)果表明,對(duì)于百米跨徑內(nèi)的橋梁,當(dāng)跟蹤精度達(dá)到亞像素級(jí)別時(shí),位移測(cè)量誤差小于0.3 mm,達(dá)到良好的測(cè)量效果。特征點(diǎn)提取精度與圖像分辨率成正比,為保證較高的特征點(diǎn)精度,測(cè)量時(shí)通常采用4 K高分辨率視頻數(shù)據(jù)進(jìn)行特征點(diǎn)跟蹤,考慮測(cè)量系統(tǒng)實(shí)時(shí)性的需求,則期望算法的跟蹤速度達(dá)到25 FPS。

        在現(xiàn)階段特征點(diǎn)跟蹤算法的研究中,文獻(xiàn)[11—12]采用Harris特征匹配的方法對(duì)結(jié)構(gòu)特征進(jìn)行跟蹤,該方法能夠較好地適應(yīng)光照變化,但在大角度變化的場(chǎng)景下易失效。文獻(xiàn)[13]利用具有尺度不變性的特征變換(SIFT)對(duì)自然特征點(diǎn)進(jìn)行跟蹤,跟蹤精度高,但特征提取與描述環(huán)節(jié)計(jì)算量較大,導(dǎo)致算法耗時(shí)較長(zhǎng)。文獻(xiàn)[14]將加速穩(wěn)健特征(SURF)檢測(cè)和二進(jìn)制穩(wěn)健不變可擴(kuò)展關(guān)鍵點(diǎn)(BRISK)特征描述的方法相結(jié)合,通過KNN和RANSAC實(shí)現(xiàn)特征匹配,大幅度提升算法速度,然而跟蹤精度有所下降。文獻(xiàn)[15]開發(fā)了一種基于顏色的檢測(cè)技術(shù),可簡(jiǎn)單、快速地實(shí)現(xiàn)目標(biāo)識(shí)別跟蹤,該方法需預(yù)先布設(shè)顏色標(biāo)志點(diǎn),難以快速移植到其他應(yīng)用場(chǎng)景。

        綜上所述,現(xiàn)有的特征點(diǎn)跟蹤算法難以同時(shí)兼顧速度和精度,或依賴于標(biāo)志點(diǎn)布設(shè),適用范圍有限。因此,研究一種橋梁自然特征點(diǎn)的快速精確跟蹤算法十分有必要。本文首先通過SURF特征匹配得到圖像序列特征點(diǎn)的初步定位結(jié)果,然后使用相位相關(guān)法對(duì)特征點(diǎn)進(jìn)行精確配準(zhǔn),并提出一種基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略,用于橋梁自然特征點(diǎn)跟蹤。

        1 算法理論

        1.1 橋梁自然特征點(diǎn)

        算法的跟蹤目標(biāo)是橋梁自然特征點(diǎn),具體是指在室外場(chǎng)景下拍攝的和橋梁側(cè)壁上的自然特征點(diǎn),主要包括以橋梁建筑結(jié)構(gòu)相關(guān)的自然特征點(diǎn)和與橋梁表面紋理相關(guān)的自然特征點(diǎn),如圖1所示。

        圖1 橋梁的自然特征點(diǎn)

        橋梁側(cè)壁上的自然特征點(diǎn)與橋梁結(jié)構(gòu)固聯(lián),利用特征點(diǎn)跟蹤技術(shù),可以計(jì)算橋梁的結(jié)構(gòu)位移。橋梁自然特征點(diǎn)穩(wěn)定、易觀測(cè),便于圖像數(shù)據(jù)采集,特征點(diǎn)周圍紋理信息豐富,有利于保證跟蹤的穩(wěn)定性與精度。與人工標(biāo)志相比,自然特征點(diǎn)可以直接從橋梁的建筑結(jié)構(gòu)及表面紋理上獲取,無需設(shè)計(jì)與施工,獲取范圍廣,獲取方式簡(jiǎn)單。脫離標(biāo)志的自然特征點(diǎn)跟蹤可以簡(jiǎn)化測(cè)量流程,有助于將測(cè)量系統(tǒng)移植于其他大型建筑的測(cè)量,對(duì)基于視覺的建筑測(cè)量方法具有重要意義。

        1.2 SURF特征匹配

        利用無人機(jī)對(duì)橋梁結(jié)構(gòu)進(jìn)行圖像采集時(shí),無人機(jī)自身的運(yùn)動(dòng)導(dǎo)致相機(jī)發(fā)生平移和視角轉(zhuǎn)動(dòng)。SIFT和SURF均具有旋轉(zhuǎn)、尺度不變性,相較于Harris和ORB等匹配方法能夠更好地適用于無人機(jī)圖像采集的場(chǎng)景。SURF在SIFT的基礎(chǔ)上優(yōu)化了計(jì)算流程,在匹配速度上更有優(yōu)勢(shì)[17-18]。本文采用SURF對(duì)無人機(jī)視頻中的序列圖像進(jìn)行粗匹配,主要步驟包括特征檢測(cè)、特征描述和特征匹配。

        (1)特征檢測(cè)。SURF通過建立尺度空間提取具有旋轉(zhuǎn)、尺度不變性的特征點(diǎn)。首先建立積分圖像,對(duì)輸入圖像做二階高斯微分卷積處理,計(jì)算Hessian矩陣,公式為

        (1)

        式中,H為Hessian矩陣;σ為圖像尺度;Lxx(x,y,σ)、Lxy(x,y,σ)和Lyy(x,y,σ)為高斯濾波二階微分。然后在積分圖像的基礎(chǔ)上,使用不同尺寸的盒子濾波器,在不同方向上對(duì)積分圖像做卷積計(jì)算,構(gòu)建尺度空間。最后通過H矩陣判別式提取局部極大值,檢測(cè)特征點(diǎn)。H矩陣判別式為

        Det(H)=DxxDyy-(ωDxy)2>K

        (2)

        式中,Dxx、Dxy和Dyy分別為圖像與不同尺寸濾波器卷積的結(jié)果;ω為補(bǔ)償系數(shù);K為給定閾值。

        (2)特征描述。SURF通過檢測(cè)Haar小波響應(yīng)計(jì)算每個(gè)特征點(diǎn)鄰域窗口的主方向,獲得相應(yīng)的特征描述符,具體步驟為:①創(chuàng)建60°扇形窗口,對(duì)以特征點(diǎn)為圓心的圓形鄰域進(jìn)行旋轉(zhuǎn)掃描,統(tǒng)計(jì)每個(gè)掃描區(qū)域的Haar小波特征,以統(tǒng)計(jì)值最大的扇形區(qū)域?qū)?yīng)的主方向作為特征點(diǎn)主方向。②以特征點(diǎn)為中心,將坐標(biāo)軸旋轉(zhuǎn)至主方向,并將特征點(diǎn)鄰域分割為16個(gè)正方形子區(qū)域。③按照相同的扇形窗口旋轉(zhuǎn)掃描方法,統(tǒng)計(jì)每個(gè)正方形子區(qū)域的Haar小波響應(yīng)結(jié)果,歸一化處理得到SURF特征描述符。

        (3)特征匹配。獲得SURF特征點(diǎn)及對(duì)應(yīng)特征描述符后,可通過距離度量實(shí)現(xiàn)特征點(diǎn)匹配,常用的匹配方法有最小距離法和最近鄰比值法等。最小距離法是以歐式距離為依據(jù)進(jìn)行特征點(diǎn)對(duì)匹配;最近鄰比值法則將最近鄰點(diǎn)和次近鄰點(diǎn)的比值作為閾值,將距離比率小于該閾值的特征點(diǎn)對(duì)為有效匹配。

        利用SURF特征匹配對(duì)圖像進(jìn)行匹配處理,可以得到特征點(diǎn)的粗匹配結(jié)果,以及兩幅圖像對(duì)應(yīng)的單應(yīng)變換矩陣。

        1.3 相位相關(guān)法

        相位相關(guān)法是一種基于傅里葉變換的圖像匹配方法,對(duì)于具有旋轉(zhuǎn)、平移及尺度縮放等變化的圖像有良好的匹配效果;同時(shí)兼?zhèn)淇乖肼?、運(yùn)算量小和匹配精度高的優(yōu)點(diǎn),得到廣泛的研究與應(yīng)用[19-20]。本文算法在SURF粗匹配的基礎(chǔ)上,利用相位相關(guān)法對(duì)特征點(diǎn)進(jìn)行精匹配,估算特征點(diǎn)粗匹配結(jié)果的平移偏差并進(jìn)行補(bǔ)償。相位相關(guān)法的具體原理與步驟如下。

        假設(shè)圖像f1(x,y)和圖像f2(x,y)之間存在平移量(x0,y0),則有

        f2(x,y)=f1(x-x0,y-y0)

        (3)

        則兩幅圖像對(duì)應(yīng)的傅里葉變換F1和F2應(yīng)有關(guān)系為

        F2(ξ,η)=e-j2π(ξx0+ηy0)F1(ξ,η)

        (4)

        定義圖像f1和f2對(duì)應(yīng)的傅里葉變化F1和F2的交叉功率譜為

        (5)

        利用相位相關(guān)法對(duì)特征點(diǎn)進(jìn)行精確配準(zhǔn),可進(jìn)一步提升特征點(diǎn)跟蹤精度,以滿足測(cè)量需求。

        1.4 基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略

        利用無人機(jī)采集橋梁視頻時(shí),由于無人機(jī)的運(yùn)動(dòng)是連續(xù)的,得到的視頻通常是一組具有時(shí)間連續(xù)性的序列圖像。本文的特征點(diǎn)跟蹤算法以SURF作為粗匹配,以相位相關(guān)法作為精匹配,通過兩步匹配法得到特征點(diǎn)的精確跟蹤結(jié)果。根據(jù)序列圖像的連續(xù)性,理論上可認(rèn)為同名特征點(diǎn)在相鄰兩幀圖像中的位置具有一定相似性,可將上一幀圖像的特征點(diǎn)解算結(jié)果作為下一幀圖像的特征點(diǎn)初值。

        完成特征點(diǎn)跟蹤后,對(duì)解算結(jié)果進(jìn)行連續(xù)性判斷。假設(shè)特征點(diǎn)在前一幀的圖像坐標(biāo)為P(x,y),在后一幀的圖像坐標(biāo)為P(x′,y′),則對(duì)應(yīng)的圖像位移距離為

        (6)

        以特征點(diǎn)的圖像位移距離標(biāo)準(zhǔn)差σ作為連續(xù)性判斷的依據(jù),其中n為特征點(diǎn)數(shù)量,則有

        (7)

        當(dāng)σ小于等于設(shè)定閾值時(shí),認(rèn)為結(jié)果符合連續(xù)性條件;當(dāng)σ大于設(shè)定閾值時(shí),認(rèn)為特征點(diǎn)跟蹤結(jié)果誤差較大,不符合連續(xù)性條件。其中,連續(xù)性判斷的閾值根據(jù)無人機(jī)運(yùn)動(dòng)速度手動(dòng)設(shè)置。

        基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略流程如圖2所示。對(duì)輸入的無人機(jī)序列圖像進(jìn)行順序解算,首次解算采用粗匹配與精匹配相結(jié)合的兩步匹配法,后續(xù)解算則將特征點(diǎn)在上一幀圖像的跟蹤結(jié)果作為初值,省去粗匹配環(huán)節(jié),直接進(jìn)行精匹配,并對(duì)得到的跟蹤結(jié)果進(jìn)行連續(xù)性判斷。若當(dāng)前特征點(diǎn)跟蹤結(jié)果符合連續(xù)性條件,進(jìn)入下一次解算;若不符合連續(xù)性條件,則重新采用兩步匹配法進(jìn)行解算。

        圖2 基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略流程

        利用基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略,可以在保證特征點(diǎn)跟蹤精度的基礎(chǔ)上簡(jiǎn)化計(jì)算流程,大幅度提升算法的運(yùn)行效率,對(duì)于高分辨率視頻數(shù)據(jù)的實(shí)時(shí)處理具有重要意義。

        2 算法流程

        本文算法以無人機(jī)采集的橋梁視頻數(shù)據(jù)為輸入,首先選定解算的起始幀和自然特征點(diǎn),通過SURF進(jìn)行粗匹配,再利用相位相關(guān)法進(jìn)行精匹配,同時(shí)采用基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略,實(shí)現(xiàn)自然特征點(diǎn)快速精確跟蹤。算法的具體流程如圖3所示。

        圖3 橋梁自然特征點(diǎn)的快速精確跟蹤算法流程

        2.1 選定起始幀和特征點(diǎn)

        2.2 采用兩步法進(jìn)行首次解算

        對(duì)于首次解算,即第一幀圖像與第二幀圖像的特征點(diǎn)跟蹤,采用以SURF為粗匹配,相位相關(guān)法為精匹配的兩步匹配法進(jìn)行計(jì)算。

        (3)相位相關(guān)法精匹配。分別對(duì)子圖像F1和F2進(jìn)行傅里葉變換,計(jì)算交叉功率譜并進(jìn)行傅里葉逆變換得到脈沖函數(shù),以最大脈沖對(duì)應(yīng)的平移參數(shù)對(duì)特征點(diǎn)P2進(jìn)行精確配準(zhǔn),重新計(jì)算特征點(diǎn)在第二幀圖像f2中的精確跟蹤結(jié)果P2。根據(jù)特征點(diǎn)P1和P2,重新計(jì)算第一幀圖像f1到第二幀圖像f2的精確單應(yīng)變換矩陣H2。

        2.3 采用加速策略進(jìn)行后續(xù)解算

        對(duì)于后續(xù)匹配,即剩余圖像f2(i>3)與第一幀圖像fi的匹配,采用基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略。

        (1)鄰域子圖像獲取。在圖像fi中,以上一幀圖像fi-1的精定位特征點(diǎn)Pi-1為中心,分割出若干個(gè)尺寸為64×64的子圖像。根據(jù)上一次解算得到的單應(yīng)矩陣Hi-1,對(duì)子圖像Fi做投影逆變換處理,得到與第一幀圖像相同相機(jī)位姿的特征點(diǎn)鄰域子圖像,再對(duì)其進(jìn)行10倍上采樣,記為Fi。

        (2)相位相關(guān)法精匹配。同樣的,通過相位相關(guān)法計(jì)算精定位特征點(diǎn)Pi,根據(jù)特征點(diǎn)P1和Pi,計(jì)算精確單應(yīng)變換矩陣Hi。

        按照上述流程,該算法可以對(duì)無人機(jī)視頻中的序列圖像實(shí)現(xiàn)自然特征點(diǎn)快速精確跟蹤,獲得自然特征點(diǎn)在每一幀圖像中的圖像坐標(biāo)。

        3 算法測(cè)試

        3.1 測(cè)試說明

        測(cè)試數(shù)據(jù)為無人機(jī)現(xiàn)場(chǎng)拍攝的橋梁視頻數(shù)據(jù),共包含6組4 K視頻圖像,測(cè)試環(huán)境為Windows 10操作系統(tǒng)(64位),Intel(R) Core(TM) i7-9700 CPU @3.00 GHz,32 GB內(nèi)存,測(cè)試對(duì)象為本文算法和SURF,具體的測(cè)試步驟如下。

        首先在每組視頻數(shù)據(jù)中選定起始幀和自然特征點(diǎn),本文測(cè)試時(shí)以橋梁標(biāo)志板上的4個(gè)頂點(diǎn)為自然特征點(diǎn),對(duì)連續(xù)的1000幀序列圖像進(jìn)行自然特征點(diǎn)跟蹤;然后記錄每組測(cè)試的算法運(yùn)行時(shí)間,分別計(jì)算本文算法和SURF的平均運(yùn)行速度。同時(shí),對(duì)本文算法得到的特征點(diǎn)跟蹤結(jié)果進(jìn)行局部放大,分析算法的跟蹤精度。

        3.2 速度測(cè)試

        分別采用SURF和本文算法對(duì)6組4 K視頻圖像中連續(xù)的1000幀序列圖像進(jìn)行特征點(diǎn)跟蹤,統(tǒng)計(jì)兩種算法的運(yùn)行速度,測(cè)試結(jié)果見表1。

        表1 算法速度測(cè)試結(jié)果

        根據(jù)算法的速度測(cè)試結(jié)果,可認(rèn)為本文算法在匹配速度上較SURF有顯著優(yōu)勢(shì),處理一幀圖像的平均耗時(shí)為0.04 s。對(duì)于4 K的視頻圖像,本文算法能夠滿足測(cè)量對(duì)特征點(diǎn)跟蹤的實(shí)時(shí)性要求。

        3.3 精度測(cè)試

        選取橋梁側(cè)壁上的4個(gè)自然特征點(diǎn)為算法的跟蹤目標(biāo),分別利用SURF算法和本文算法對(duì)其進(jìn)行連續(xù)1000幀特征點(diǎn)跟蹤處理,得到每次跟蹤處理后特征點(diǎn)的圖像坐標(biāo)。將前后兩幀圖像的特征點(diǎn)進(jìn)行對(duì)比,根據(jù)兩幅圖像的特征點(diǎn)連線圖判斷自然特征點(diǎn)跟蹤算法的穩(wěn)定性與有效性。將兩幅圖像的特征點(diǎn)鄰域局部放大,得到4個(gè)特征點(diǎn)對(duì)應(yīng)的鄰域灰度分布,通過比較特征點(diǎn)鄰域灰度分布的相似性估計(jì)本文算法的跟蹤精度。兩種算法的特征點(diǎn)跟蹤結(jié)果如圖4—圖7所示。

        圖4 SURF特征點(diǎn)跟蹤結(jié)果

        圖5 SURF特征點(diǎn)跟蹤結(jié)果局部放大

        圖6 本文算法特征點(diǎn)跟蹤結(jié)果

        圖7 本文算法特征點(diǎn)跟蹤結(jié)果局部放大

        分別利用SURF算法和本文算法對(duì)6組無人機(jī)視頻數(shù)據(jù)進(jìn)行精度測(cè)試,對(duì)比兩種算法的特征點(diǎn)跟蹤結(jié)果及特征點(diǎn)鄰域放大圖。SURF算法的特征點(diǎn)跟蹤誤差約為10像素,本文算法的特征點(diǎn)跟蹤誤差小于1像素,較SURF有顯著優(yōu)勢(shì)。本文算法對(duì)自然特征點(diǎn)的跟蹤精度達(dá)亞像素級(jí)別,能夠滿足無人機(jī)橋梁撓度測(cè)量對(duì)算法精度的要求。

        4 結(jié)論與討論

        針對(duì)無人機(jī)橋梁撓度測(cè)量的應(yīng)用背景,本文提出了一種橋梁自然特征點(diǎn)的快速精確跟蹤算法,本文算法的優(yōu)勢(shì)主要體現(xiàn)在以下3方面。①本文算法能夠脫離人工設(shè)計(jì)的標(biāo)志,對(duì)橋梁的自然特征點(diǎn)實(shí)現(xiàn)穩(wěn)定跟蹤,提升視覺測(cè)量方法的簡(jiǎn)便性與靈活性。②算法在SURF特征匹配的基礎(chǔ)上利用相位相關(guān)法對(duì)特征點(diǎn)進(jìn)行精確配準(zhǔn),對(duì)自然特征點(diǎn)的跟蹤精度達(dá)到亞像素級(jí)別,滿足測(cè)量系統(tǒng)對(duì)跟蹤算法的精度要求。③本文提出了一種基于無人機(jī)運(yùn)動(dòng)連續(xù)性的加速策略,在對(duì)無人機(jī)視頻中的序列圖像進(jìn)行順序解算時(shí),取上一次的解算結(jié)果作為初值,省略SURF特征匹配的環(huán)節(jié),大幅度減小計(jì)算量。對(duì)于4 K高分辨率視頻數(shù)據(jù),本文算法的跟蹤速度為25 FPS,滿足測(cè)量系統(tǒng)對(duì)跟蹤算法的實(shí)時(shí)性要求。以下進(jìn)一步討論當(dāng)前算法的局限性及改進(jìn)思路。

        (1)非共面特征點(diǎn)失效。本文算法的跟蹤目標(biāo)是橋梁側(cè)壁面上的自然特征點(diǎn),這些特征點(diǎn)基本處于一個(gè)平面,能夠?qū)崿F(xiàn)良好的跟蹤效果,若跟蹤目標(biāo)為非共面的特征點(diǎn),本文算法將不再適用。由于SURF特征匹配求得的單應(yīng)矩陣僅代表兩個(gè)平面間的變換關(guān)系,若所需跟蹤的特征點(diǎn)處于不同平面時(shí),對(duì)特征點(diǎn)進(jìn)行單應(yīng)變換將產(chǎn)生嚴(yán)重偏差,導(dǎo)致跟蹤算法失效,因此當(dāng)前算法僅適用于平面特征點(diǎn)的跟蹤,對(duì)非共面的三維特征點(diǎn)精確跟蹤還需進(jìn)一步研究。

        (2)背景單一的特征點(diǎn)失效。橋梁的自然特征點(diǎn)具有豐富的紋理信息,利用相位相關(guān)法對(duì)特征點(diǎn)進(jìn)行精確配準(zhǔn)可有效提升特征點(diǎn)的跟蹤精度。但對(duì)于背景單一的特征點(diǎn),相位相關(guān)法的配準(zhǔn)精度將大幅度下降,導(dǎo)致算法的跟蹤精度下降。

        (3)連續(xù)性判斷閾值需人為設(shè)定。算法對(duì)跟蹤結(jié)果進(jìn)行連續(xù)性判斷時(shí),連續(xù)性判斷的閾值需根據(jù)無人機(jī)的運(yùn)動(dòng)速度設(shè)定,使得算法的自動(dòng)化程度有所降低。進(jìn)一步將研究無人機(jī)在不同運(yùn)動(dòng)速度下連續(xù)性判斷閾值的合理取值,并考慮通過相鄰圖像對(duì)應(yīng)特征點(diǎn)的移動(dòng)幅度估算無人機(jī)的運(yùn)動(dòng)速度,自動(dòng)為算法選取合適的連續(xù)性判斷閾值,降低算法操作的復(fù)雜度。

        本文算法對(duì)于橋梁的自然特征點(diǎn)能夠?qū)崿F(xiàn)快速精確跟蹤,但對(duì)于非共面及背景單一的特征點(diǎn),當(dāng)前算法未能實(shí)現(xiàn)精確跟蹤,且連續(xù)性判斷閾值需設(shè)定。進(jìn)一步將考慮突破以上局限性,實(shí)現(xiàn)三維特征點(diǎn)精確跟蹤,并嘗試應(yīng)用于其他大型建筑的視覺測(cè)量。

        猜你喜歡
        連續(xù)性閾值精度
        不可壓縮Navier-Stokes方程解的非線性連續(xù)性
        非連續(xù)性實(shí)用類文本閱讀解題技巧例談
        小波閾值去噪在深小孔鉆削聲發(fā)射信號(hào)處理中的應(yīng)用
        基于自適應(yīng)閾值和連通域的隧道裂縫提取
        基于DSPIC33F微處理器的采集精度的提高
        電子制作(2018年11期)2018-08-04 03:25:38
        比值遙感蝕變信息提取及閾值確定(插圖)
        河北遙感(2017年2期)2017-08-07 14:49:00
        半動(dòng)力系統(tǒng)中閉集的穩(wěn)定性和極限集映射的連續(xù)性
        連續(xù)性
        室內(nèi)表面平均氡析出率閾值探討
        GPS/GLONASS/BDS組合PPP精度分析
        无码av一区二区大桥久未| 亚洲综合新区一区二区| 国产成人自拍视频播放| 艳z门照片无码av| 日韩精品一区二区亚洲av| 国产精品伦人视频免费看| 亚洲一区二区三区福利久久蜜桃| 一个人看的www片免费高清视频| 欧美大屁股xxxxhd黑色 | 欧美人与动人物牲交免费观看久久| 久99久热只有精品国产男同| 国产优质女主播在线观看| 24小时在线免费av| 亚洲小少妇一区二区三区| 国产一区二区视频免费在| 久久精品免费一区二区三区| 99视频全部免费精品全部四虎| 亚洲国产精品色一区二区| 一区二区三区在线观看人妖| 无码人妻一区二区三区免费看| 国产在线精品一区二区三区不卡| 色二av手机版在线| 日本一本一道久久香蕉男人的天堂 | 亚洲一区二区三区在线观看蜜桃| 国产免费人成视频网站在线18| 国产成人精品一区二区三区视频| 欧美a在线播放| 国产免费一区二区三区在线视频| 一 级做人爱全视频在线看| 吃奶摸下的激烈视频| 亚洲一区日韩无码| 毛片av中文字幕一区二区| 国产一区二区三区三区四区精品| 欧美日韩一区二区综合| 99久久国产综合精品女乱人伦| 五月婷婷开心五月播五月| 国内女人喷潮完整视频| 欧洲综合色| 国产成人亚洲精品一区二区三区| 欧美成人国产精品高潮| 亚洲日韩成人av无码网站|