亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于計(jì)算機(jī)視覺的機(jī)器人軌跡精度評估系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)

        2025-08-28 00:00:00何亞凡陳啟愉方晟堃李平鄧志張家業(yè)
        現(xiàn)代電子技術(shù) 2025年16期

        中圖分類號:TN911.23-34;TP391 文獻(xiàn)標(biāo)識碼:A 文章編號:1004-373X(2025)16-0172-05

        Designand realization of robot trajectoryprecision evaluation system based on computer vision

        HEYafan1,CHENQiyu2,F(xiàn)ANGShengkun2,LIPing2,DENG Zhiwen2,ZHANGJiaye3 (1.School of Mechanical and Automation Engineering,WuyiUniversity,Jiangmen 529o2o,China; 2.Guangdonglca 3.Guangzhou XinbangIntelligent EquipmentCo.,Ltd.,Guangzhou 51062o, China)

        Abstract:Inalusion tothe limitations of thecurrent robot accuracyasessment,arobot trajectory precision evaluation systembasedoncomputervisionisproposedtodetectthefeasibityofrobottrajectoryaccuracy.TheimprovedSURFalgorithm isusedtodetecttheoverlappingregioninthevideo,andthetimeoffeatureextractionisshorterby55.6%.TheRANSAC algorithmisusedtoeliminatetheposiblemismatchingpointsintheoverlappingregionoftheROI,soastorealizemore accuratematchingefect.Theweightedfusionalgorithmwithfixedwidthisproposed,whichisnotonlyabletoeficiently eliminatethesplicingseams,butalsocanbeapliedtoacertainreal-timerequirementsoflargescenes.Thehomographymatrix isusedasthecompensationparametertomatchandcalibratethesplicedrealmapwiththerastermapcreatedbytherobotin SLAM.Theauracy eror values between the actualtrajectory inthereal mapandtheplanned trajectoryintheraster mapare evaluated,where the average absolute errorsin the x and y directions are about 4.6% and 4% ,respectively.Itverifiesthat the proposed method can effectively evaluate the trajectory accuracy of robot operation.

        Keywords:computer vision;video stitching;trajectoryaccuracy;improved SURFalgorithm;RANSAC algorithm;image fusion;optical-flowmethod;mobilerobot

        在當(dāng)前的移動(dòng)機(jī)器人技術(shù)領(lǐng)域,軌跡精度是評估其性能的關(guān)鍵指標(biāo)之一,它可以反映機(jī)器人在執(zhí)行任務(wù)時(shí)定位、導(dǎo)航及執(zhí)行動(dòng)作的準(zhǔn)確性和穩(wěn)定性[。近年來,機(jī)器人軌跡精度評估的研究主要集中在基于運(yùn)動(dòng)學(xué)分析的方法、使用高精度測量設(shè)備以及人工定點(diǎn)采樣等方面。

        這三種方法各有其優(yōu)勢且被廣泛使用,但也存在一些不足之處?;谶\(yùn)動(dòng)學(xué)分析的方法雖然能夠提供理論上的精確度補(bǔ)償和誤差模型建立,但在實(shí)際應(yīng)用中面臨著參數(shù)標(biāo)定的復(fù)雜性和動(dòng)態(tài)誤差的難以預(yù)測性問題。例如,盡管通過改進(jìn)最小二乘算法選擇軌跡偏差最小時(shí)的最優(yōu)運(yùn)動(dòng)學(xué)參數(shù)可以提高軌跡精度,但這種方法仍然需要大量的實(shí)驗(yàn)數(shù)據(jù)和復(fù)雜的計(jì)算過程,且對機(jī)器人的動(dòng)態(tài)誤差處理能力有限3]。文獻(xiàn)[4]還指出現(xiàn)有的性能測試方法對運(yùn)動(dòng)學(xué)模型參數(shù)誤差的靈敏度分析不足,僅僅依靠運(yùn)動(dòng)學(xué)分析難以全面評估和處理機(jī)器人的動(dòng)態(tài)誤差問題。使用高精度測量設(shè)備,如激光跟蹤儀等能夠提供高精度的位置信息和方向信息,但其成本較高,在復(fù)雜環(huán)境下可能會受到外界干擾,從而影響測量結(jié)果的準(zhǔn)確性,而且使用過程也要求操作者具有較高的技能水平和經(jīng)驗(yàn)。使用人工定點(diǎn)采樣的方法雖然操作簡單、成本較低,但在高精度要求的應(yīng)用場景中往往無法滿足需求,容易受到人為因素的影響,導(dǎo)致測量結(jié)果不夠準(zhǔn)確和可靠[8]。

        針對上述三種常見的機(jī)器人精度評估方法存在的局限,本文綜合考慮實(shí)時(shí)性、精度、穩(wěn)定性、環(huán)境適應(yīng)性、成本等因素,并結(jié)合現(xiàn)有的視頻拼接、目標(biāo)追蹤等領(lǐng)域技術(shù),提出了一種計(jì)算機(jī)視覺方法來檢測機(jī)器人軌跡精度。該方法通過使用多攝像頭進(jìn)行場景拼接構(gòu)建出場景地圖,并在場景地圖內(nèi)對機(jī)器人運(yùn)行軌跡進(jìn)行實(shí)時(shí)追蹤,實(shí)現(xiàn)低成本、靈活適配多場景的通用移動(dòng)機(jī)器人運(yùn)行精度評估。

        1本文改進(jìn)拼接算法

        1.1 ROI區(qū)域的提取

        實(shí)時(shí)視頻拼接的本質(zhì)是將各攝像頭對應(yīng)的每一幀圖像做圖像拼接。文獻(xiàn)[9]提出了SURF算法,該算法是一種高效且魯棒性強(qiáng)的特征檢測與描述算法。傳統(tǒng)的SURF算法在處理圖像拼接時(shí),通常對待拼接圖像的整個(gè)區(qū)域進(jìn)行檢測,計(jì)算量大且容易造成特征冗余,尤其是在高分辨率圖像中,會影響實(shí)時(shí)應(yīng)用的可行性。而文獻(xiàn)[9]提出的SURF算法僅在ROI重疊區(qū)域內(nèi)進(jìn)行特征點(diǎn)檢測,可以顯著提高特征點(diǎn)檢測與匹配的速度。

        ROI區(qū)域獲取示意圖如圖1所示。假設(shè)圖1左側(cè)為待拼接的兩張圖像ABCD和EFJH,右側(cè)為圖像EFJH經(jīng)仿射變換后得到的圖像 EFJH 和圖像 ABCD 的拼接效果,陰影部分即為提取ROI區(qū)域的效果。根據(jù)圖像之間的頂點(diǎn)相減獲得陰影部分的尺寸,為了減小誤差,一般在重合區(qū)域的寬度上加100~200個(gè)像素的閾值。

        圖1ROI區(qū)域獲取示意圖

        1.2特征點(diǎn)檢測

        SURF算法通過構(gòu)建圖像的尺度空間來尋找局部極值點(diǎn),對每個(gè)候選的極值點(diǎn)計(jì)算其Hessian矩陣,公式如下:

        式中: Lxx(X,σ),Lxy(X,σ),Lyy(X,σ) 分別是原圖像與其對 應(yīng)的二階微分算子卷積

        為提高運(yùn)算速度,SURF引入盒式濾波器,同時(shí)添加參數(shù) γ=0.9 消除誤差,Hessian矩陣的行列式為:

        SURF算法在每個(gè)尺度層比較各像素點(diǎn)與其周圍26個(gè)鄰域點(diǎn)的Hessian矩陣行列式值,若該點(diǎn)行列式值在所有鄰域點(diǎn)中最大或最小,則認(rèn)為該點(diǎn)是特征點(diǎn)[1]。特征點(diǎn)方向確定示意圖如圖2所示,以特征點(diǎn)為中心,在半徑為 6σ(σ 為特征點(diǎn)的尺度)的鄰域內(nèi),采用張角為π/3 的扇形滑動(dòng)窗口,計(jì)算圖像的Haar小波響應(yīng)值dx和dy得到一個(gè)矢量 和 θ 公式如下:

        圖2特征點(diǎn)方向確定示意圖

        最后選取最大 Harr 響應(yīng)累加值所對應(yīng)的方向作為該特征點(diǎn)的主方向[13]

        1.3 RANSAC算法消除誤匹配

        1981年Fischler和Bolle提出了RANSAC算法[14],該算法能夠有效剔除傳統(tǒng)SURF算法的圖像配準(zhǔn)過程中存在的無用匹配點(diǎn),提高模型的魯棒性和特征匹配的效率[15]。

        RANSAC算法計(jì)算公式如下:

        式中: Φ(x,y) 為原圖像上點(diǎn)坐標(biāo); (x,y) 為目標(biāo)圖像點(diǎn)坐標(biāo); H 為單應(yīng)性矩陣。

        RANSAC算法從特征點(diǎn)中隨機(jī)選擇一小部分點(diǎn)作為子集,利用該子集計(jì)算初始單應(yīng)性矩陣;隨后將估計(jì)的單應(yīng)性矩陣應(yīng)用于所有匹配的特征點(diǎn),計(jì)算每個(gè)點(diǎn)的重投影誤差;接著,設(shè)定一個(gè)閾值,將重投影誤差小于此閾值的點(diǎn)對判定為內(nèi)點(diǎn)。不斷重復(fù)迭代前述的過程,最后在所有迭代結(jié)果中選擇內(nèi)點(diǎn)數(shù)量最多的單應(yīng)性矩陣作為最終模型[1]。

        1.4具有固定寬度的改進(jìn)圖像融合算法

        在融合區(qū)域比較大的場景中,使用傳統(tǒng)的線性漸變?nèi)诤纤惴ㄈ菀桩a(chǎn)生鬼影和重疊的現(xiàn)象。本文提出在拼接縫區(qū)域使用具有固定寬度的線性融合算法對圖像進(jìn)行處理。

        假設(shè) I1 和 I2 分別為待拼接的兩幅圖像,分別取拼接縫左右兩側(cè)寬度為 w 的一小段像素( χw 一般取100),拼接縫左側(cè)和右側(cè)的像素灰度值分別用函數(shù) 表示, x 是從左到右的位置索引。使用線性插值定義融合函數(shù) F(x)

        式中: α 是一個(gè)介于0~1之間的參數(shù),用于控制從 G1~G2 的過渡速度。為了使過渡更加平滑,引入一個(gè)平滑因子β 來控制 α 的變化速率,則 α 可以表示為:

        隨著 x 的增加, α 會從0增加到1,從而實(shí)現(xiàn)了從 G1~ G2 的平滑過渡。綜上,線性漸變?nèi)诤系墓娇梢詫憺椋?/p>

        2 地圖匹配

        通過多個(gè)攝像頭的視頻流進(jìn)行拼接生成的實(shí)景地圖,其坐標(biāo)系為實(shí)景地圖坐標(biāo)系;機(jī)器人在實(shí)際環(huán)境中通過激光雷達(dá)繪制的二維地圖所生成的坐標(biāo)系為柵格地圖坐標(biāo)系。對于這兩個(gè)坐標(biāo)系的地圖進(jìn)行匹配的流程如下。

        2.1轉(zhuǎn)換為齊次坐標(biāo)

        在二維空間中,一個(gè)點(diǎn) P 的笛卡爾坐標(biāo)通常表示為Φ(x,y) ,而其對應(yīng)的齊次坐標(biāo)則以 (x,y,w) 的形式表示,通常將第三維度 w 設(shè)為1,有助于簡化矩陣運(yùn)算。

        2.2計(jì)算校準(zhǔn)參數(shù)

        首先需提取兩個(gè)坐標(biāo)系中具有顯著特征的特征點(diǎn),例如路標(biāo)、障礙物及形狀輪廓等,使之具有良好的匹配能力以增強(qiáng)算法的可靠性。得到這些對應(yīng)的特征點(diǎn)對后,運(yùn)用最小二乘法計(jì)算校準(zhǔn)參數(shù) H 。

        2.3 軌跡補(bǔ)償

        利用校準(zhǔn)參數(shù)對實(shí)景地圖坐標(biāo)系中機(jī)器人實(shí)際運(yùn)行軌跡的點(diǎn)集信息進(jìn)行補(bǔ)償與校準(zhǔn),再將實(shí)景地圖坐標(biāo)系下機(jī)器人實(shí)際運(yùn)行軌跡變換至柵格地圖坐標(biāo)系中表示,從而完成地圖匹配過程。

        3實(shí)驗(yàn)驗(yàn)證及分析

        3.1實(shí)驗(yàn)準(zhǔn)備

        3.1.1 軟件平臺

        本文視覺算法的運(yùn)行環(huán)境為Windows10操作系統(tǒng),Intel?CoreTMi5-1035G7CPU ,內(nèi)存為8GB,選取 OpenCV4.5.5 作為核心開發(fā)庫,使用PyCharm平臺對采集的圖像進(jìn)行相關(guān)的拼接算法實(shí)驗(yàn),并對參數(shù)進(jìn)行記錄和分析。機(jī)器人的運(yùn)行環(huán)境為 Ubuntu 18.04 操作系統(tǒng),使用ROS軟件平臺進(jìn)行機(jī)器人導(dǎo)航與自主避障實(shí)驗(yàn)。

        3.1.2 硬件平臺

        機(jī)器人硬件設(shè)備包括樹莓派、慣性測量單元以及思嵐激光雷達(dá)RPLIDARS1等。在測試場地一邊以相同高度架設(shè)并固定兩只型號DS-2DE2Q140MY-T/GLSE的??低晹z像頭,攝像頭分辨率為2560像素 ×1440 像素,焦距為 4mm ,記錄所有攝像頭的架設(shè)位姿參數(shù)(如攝像頭高度為 2.1m ,角度向下俯仰 53° 等)。通過接入一臺5口POE交換機(jī)實(shí)現(xiàn)視頻流傳輸和連接,再利用多線程技術(shù)將視瀕匯集于一臺計(jì)算機(jī)中處理。之后使用棋盤格標(biāo)定法獲取攝像頭內(nèi)外參數(shù),并對視頻流進(jìn)行畸變矯正。

        3.2改進(jìn)SURF算法實(shí)驗(yàn)及結(jié)果分析

        不同特征提取方法的實(shí)驗(yàn)結(jié)果對比如表1所示。由表1可看出:以首幀使用SURF算法進(jìn)行特征提取為例,特征提取時(shí)間達(dá)到 1 780ms ,而本文改進(jìn)SURF算法特征提取的時(shí)間僅有 790ms ,較傳統(tǒng)方法減少了55.6% 。另外,傳統(tǒng)SURF算法對首幀圖像進(jìn)行粗匹配過濾前后的特征點(diǎn)對數(shù)量分別為285、132,過濾掉了153個(gè)誤匹配點(diǎn)對,而本文改進(jìn)SURF算法粗匹配過濾前后特征點(diǎn)對數(shù)量分別為219、127,過濾掉了92個(gè)誤匹配點(diǎn)對。由此可見,無論是傳統(tǒng)SURF算法還是本文改進(jìn)的SURF算法,RANSAC算法都能起到誤匹配的過濾效果,其中傳統(tǒng)SURF算法的誤匹配過濾效果更顯著,表明其在特征提取及初步匹配階段可能存在較多的誤匹配點(diǎn),間接證明了改進(jìn)后SURF算法降低了干擾因素的影響,提高了特征點(diǎn)的穩(wěn)定性和魯棒性。

        表1不同特征提取方法結(jié)果對比

        3.3改進(jìn)圖像融合算法實(shí)驗(yàn)及結(jié)果分析

        為了驗(yàn)證本文提出的改進(jìn)融合算法的效果,以首幀圖像為例,圖3a)為直接進(jìn)行配準(zhǔn),不做任何融合處理操作,存在較為明顯的拼接縫;圖3b)使用了傳統(tǒng)線性漸變?nèi)诤纤惴?,有明顯的鬼影和重疊現(xiàn)象;圖3c)為本文提出的算法,不僅有效消除了拼接縫,且能最快地獲得融合結(jié)果。

        3.4地圖及軌跡分析

        3.4.1視頻拼接中的實(shí)景地圖及運(yùn)行軌跡在機(jī)器人運(yùn)動(dòng)的初始階段,以其中心點(diǎn)處的像素點(diǎn)為基準(zhǔn),通過LK光流法對機(jī)器人的運(yùn)動(dòng)軌跡進(jìn)行追蹤。LK光流法是一種基于局部圖像特征的運(yùn)動(dòng)估計(jì)技術(shù),能夠有效捕捉圖像序列中像素點(diǎn)的運(yùn)動(dòng)信息。通過分析連續(xù)幀之間的像素變化,算法計(jì)算出每個(gè)像素點(diǎn)的運(yùn)動(dòng)向量,從而實(shí)現(xiàn)對機(jī)器人運(yùn)動(dòng)軌跡的精確追蹤。實(shí)驗(yàn)中記錄了前800f圖像中機(jī)器人中心點(diǎn)的像素坐標(biāo)變化,生成了相應(yīng)的運(yùn)動(dòng)軌跡圖。圖4所示為機(jī)器人在這段時(shí)間內(nèi)的行駛軌跡,清晰地反映了其運(yùn)動(dòng)路徑的連續(xù)性和穩(wěn)定性。

        圖4前800f機(jī)器人運(yùn)動(dòng)軌跡

        3.4.2 機(jī)器人SLAM中的地圖及運(yùn)行軌跡

        將機(jī)器人放置在四周無障礙物的地方,使用機(jī)器人激光雷達(dá)數(shù)據(jù)創(chuàng)建環(huán)境的柵格地圖。圖5展示了機(jī)器人柵格地圖下的建圖效果,墻壁和3個(gè)障礙物都被準(zhǔn)確識別出來,且機(jī)器人在柵格地圖中按照目標(biāo)位置規(guī)劃出了全局路徑以及局部路徑,通過ROS話題記錄并保存機(jī)器人運(yùn)動(dòng)過程中位姿的變化。

        圖5機(jī)器人的SLAM建圖效果

        3.5地圖匹配與軌跡誤差評估

        利用校準(zhǔn)參數(shù)對3.4.1節(jié)中攝像頭記錄的軌跡信息進(jìn)行補(bǔ)償與校準(zhǔn)后,與3.4.2節(jié)ROS中路徑規(guī)劃的運(yùn)動(dòng)軌跡進(jìn)行對比,取這2張地圖前60s軌跡的位置信息進(jìn)行詳細(xì)分析。圖6分別表示2條軌跡數(shù)據(jù)在 x,y 方向上的數(shù)據(jù)差異,可以看到2條運(yùn)動(dòng)軌跡的數(shù)據(jù)整體上差別較小,重疊率較高。觀察發(fā)現(xiàn),起始時(shí)刻在 x 方向上2條軌跡數(shù)據(jù)存在輕微波動(dòng),這可能是拼接過程中首幀圖像計(jì)算單應(yīng)性矩陣時(shí)資源耗費(fèi)造成的拼接延遲,影響了LK光流法對機(jī)器人的實(shí)時(shí)追蹤,進(jìn)而導(dǎo)致了軌跡的誤差。

        圖6 x,y 方向運(yùn)動(dòng)軌跡誤差示意圖

        為了更精確地比較兩者的軌跡誤差,截取拼接穩(wěn)定后60s內(nèi)的1500組數(shù)據(jù),計(jì)算得到2條運(yùn)動(dòng)軌跡在 x 和y 方向上的平均絕對誤差分別約為 4.6%4% ,該值較小說明數(shù)據(jù)偏差越小,運(yùn)動(dòng)軌跡的坐標(biāo)較為接近。另外,通過均方根誤差來衡量2條軌跡之間的整體偏差,結(jié)果顯示在 x 和y方向的均方根誤差分別約為 5%.2.3% ,進(jìn)一步證實(shí)了2條軌跡之間的高度一致性。本文還利用相關(guān)系數(shù)來評估2條軌跡之間的線性關(guān)系,2個(gè)方向的相關(guān)系數(shù)趨近于1,說明2條軌跡之間存在強(qiáng)正相關(guān)關(guān)系,運(yùn)動(dòng)趨勢和方向高度一致。誤差對比的詳細(xì)數(shù)據(jù)如表2所示。

        表2誤差對比

        通過上述數(shù)據(jù)分析,本文提出的通過視覺方法檢測機(jī)器人運(yùn)行精度的可行性得到了進(jìn)一步證實(shí)。實(shí)驗(yàn)結(jié)果表明,本文的研究方法在實(shí)際應(yīng)用中能夠高效、準(zhǔn)確地對機(jī)器人運(yùn)行軌跡進(jìn)行評估。

        4結(jié)語

        本文提出了一種基于計(jì)算機(jī)視覺進(jìn)行場景重構(gòu)的機(jī)器人運(yùn)動(dòng)軌跡精度測試方法,該方法具有高度自動(dòng)化,無需人工測量和標(biāo)記,能夠有效降低測量成本。對于不同的機(jī)器人場景,只需選擇對應(yīng)規(guī)格的攝像頭并進(jìn)行相應(yīng)的物理場地適配,即可進(jìn)行機(jī)器人精度測試。這種基于計(jì)算機(jī)視覺的方法為機(jī)器人運(yùn)動(dòng)軌跡精度測試提供了更加便捷、高效的方式,為機(jī)器人運(yùn)動(dòng)軌跡精度測試領(lǐng)域帶來了新的思路和方法。

        注:本文通訊作者為方晟堃。

        參考文獻(xiàn)

        [1]王志文,郭戈.移動(dòng)機(jī)器人導(dǎo)航技術(shù)現(xiàn)狀與展望[J].機(jī)器人,2003,25(5):470-474.

        [2]唐堯,張恩政,陳本永,等.基于運(yùn)動(dòng)學(xué)分析的工業(yè)機(jī)器人軌跡精度補(bǔ)償方法[J].儀器儀表學(xué)報(bào),2020,41(3):175-183.

        [3]梁兆東,肖永強(qiáng),游瑋,等.工業(yè)機(jī)器人誤差補(bǔ)償運(yùn)動(dòng)學(xué)算法設(shè)計(jì)[J].機(jī)械設(shè)計(jì)與制造,2021(5):273-275.

        [4]吳曉亮,王凌,高雁鳳,等.工業(yè)機(jī)器人性能測試方法的運(yùn)動(dòng)學(xué)模型誤差靈敏度分析[J].中國測試,2023,49(8):134-142.

        [5]張艷菊,符遠(yuǎn)翔,車丹.激光跟蹤儀在工業(yè)機(jī)器人位姿特性檢測中的應(yīng)用[J].機(jī)床與液壓,2018,46(21):29-33.

        [6]徐天一,樊留群,王楠,等.基于激光追蹤儀的機(jī)器人標(biāo)定及誤差分析研究[J].制造業(yè)自動(dòng)化,2020,42(4):61-64.

        [7]宋輝旭.高精度激光追蹤測量若干關(guān)鍵技術(shù)[D].北京:北京工業(yè)大學(xué),2020.

        [8]郭軍,王炳榮.機(jī)器人直線運(yùn)動(dòng)位置軌跡精度評估方法研究[J].機(jī)電工程,2020,37(6):724-728.

        [9]王釬灃,夏國靜,牛鑫鑫,等.基于改進(jìn)的SIFT圖像快速拼接方法[J].現(xiàn)代電子技術(shù),2022,45(8):159-162.

        [10]鄭玉龍.復(fù)雜環(huán)境下尺度不變特征的檢測與匹配技術(shù)研究[J].科學(xué)技術(shù)與工程,2011,11(23):5693-5696.

        [11]馮亦東,孫躍.基于SURF特征提取和FLANN搜索的圖像匹配算法[J].圖學(xué)學(xué)報(bào),2015,36(4):650-654.

        [12]李炳超,王軍,李海豐,等.弱紋理飛機(jī)蒙皮曲面圖像特征匹配及拼接[J].電子測量技術(shù),2024,47(5):124-132.

        [13]萬琴,顏金娥,李智,等.基于改進(jìn)RANSAC算法的全景圖像拼接技術(shù)[J].光電子·激光,2021,32(12):1253-1261.

        [14]李勇超.基于網(wǎng)格對齊與圖像融合的圖像拼接算法研究[D].武漢:武漢大學(xué),2021.

        [15]洪鵬程,唐,任重.基于SURF分割圓形區(qū)域的圖像拼接[J].電訊技術(shù),2021,61(11):1424-1430.

        [16]賴煥杰,孟祥印,肖世德,等.基于RANSAC的單應(yīng)性矩陣估計(jì)優(yōu)化算法[J].傳感器與微系統(tǒng),2023,42(8):135-138.

        [17]王昕平,張森林,劉妹琴,等.基于多尺度圖像融合和SIFT特征的水下圖像拼接研究[J].計(jì)算機(jī)應(yīng)用與軟件,2021,38(5):213-217.

        作者簡介:何亞凡(2000—),女,湖北襄陽人,碩士研究生,研究方向?yàn)橛?jì)算機(jī)視覺。陳啟愉(1973—),男,廣西梧州人,碩士研究生,正高級工程師,研究方向?yàn)橹悄苤圃?。方晟堃?984—),男,廣東潮州人,碩士研究生,工程師,研究方向?yàn)闄C(jī)器視覺。李平(1988—),男,湖南長沙人,碩士研究生,高級工程師,研究方向?yàn)橹悄苤圃?。鄧志文?985—),男,廣東梅州人,碩士研究生,工程師,研究方向?yàn)橛?jì)算機(jī)應(yīng)用。張家業(yè)(1994—),男,廣東茂名人,工程師,研究方向?yàn)闄C(jī)器視覺。

        在线亚洲午夜理论av大片| 九九在线中文字幕无码| 蜜桃av在线免费网站| 妺妺窝人体色777777| 国产av无码国产av毛片| 久久久久久无码av成人影院| 色偷偷噜噜噜亚洲男人| 男女啪啪免费体验区| 日韩成人无码一区二区三区| h国产视频| 久久99精品国产麻豆不卡| 亚洲 精品 综合 精品 自拍| 亚洲av第一成肉网| 乱子伦av无码中文字幕| 2021精品综合久久久久| 日本一区二区视频免费观看| 亚洲中文字幕一区高清在线 | 青青草骚视频在线观看| 日本a片大尺度高潮无码| 亚洲精品久久久久久久久久吃药| 夜夜欢性恔免费视频| 日韩av一区二区毛片| 亚洲国产精品一区二区第一| 少妇我被躁爽到高潮在线影片| 亚洲中文字幕高清av| 欧美成人家庭影院| 四虎影视成人永久免费观看视频| 国产涩涩视频在线观看| 日韩精品网| 日本在线一区二区三区观看| 强迫人妻hd中文字幕| 久久精品国产熟女亚洲| 亚洲一区二区三区中文字幂| 亚洲av国产av综合av| 在线观看一区二区女同| 日韩女同一区在线观看| 日韩少妇人妻精品中文字幕| 无码精品人妻一区二区三区av | 国产一级内射一片视频免费 | 国产精品一区二区三区专区| 在线亚洲+欧美+日本专区|