亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合距離圖像和彩色圖像的圓位姿測(cè)量方法

        2016-07-19 02:07:23張旭東
        關(guān)鍵詞:彩色圖像位姿坐標(biāo)系

        陳 欣 高 雋 張旭東 張 駿

        (合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院 安徽 合肥 230009)

        ?

        融合距離圖像和彩色圖像的圓位姿測(cè)量方法

        陳欣高雋張旭東張駿

        (合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院安徽 合肥 230009)

        摘要針對(duì)基于單目視覺(jué)的單個(gè)圓位姿測(cè)量解的二義性問(wèn)題,提出一種融合距離圖像和彩色圖像消除二義性的方法。該方法首先用RGB相機(jī)獲取的高分辨率彩色圖像計(jì)算圓位姿,獲得圓位姿的一組歧義解。然后將彩色圖像和飛行時(shí)間TOF(time-of-Flight)相機(jī)獲取的距離圖像融合,形成一個(gè)高分辨率的距離圖像。最后,根據(jù)距離圖像恢復(fù)圓在RGB相機(jī)下的三維信息,剔除圓位姿中的虛假解,從而得到圓的真實(shí)位姿。實(shí)驗(yàn)結(jié)果表明,該方法能夠有效地解決基于單目視覺(jué)的單個(gè)圓位姿測(cè)量的二義性問(wèn)題,且能夠準(zhǔn)確獲得較高精度的圓位姿。

        關(guān)鍵詞圓位姿測(cè)量二義性距離圖像彩色圖像融合

        0引言

        隨著計(jì)算機(jī)技術(shù)的飛速發(fā)展,基于計(jì)算機(jī)視覺(jué)的位姿測(cè)量在航天、軍事、智能交通、醫(yī)療、多媒體等領(lǐng)域有著廣泛的應(yīng)用[1,2]。在航天領(lǐng)域,多數(shù)在軌服務(wù)航天器為非合作目標(biāo),即沒(méi)有預(yù)先安裝合作標(biāo)志器(如發(fā)光標(biāo)志器、角反射鏡等裝置)。因此,對(duì)于非合作目標(biāo)位姿測(cè)量,只能利用目標(biāo)航天器本身的特征(如對(duì)接環(huán)和發(fā)動(dòng)機(jī)噴嘴)來(lái)實(shí)現(xiàn)目標(biāo)的識(shí)別和定位[3]。航天器的對(duì)接環(huán)和發(fā)動(dòng)機(jī)噴嘴具有圓形結(jié)構(gòu),使利用圓特征求解非合作目標(biāo)的位姿成為可能。

        相對(duì)于其他點(diǎn)線(xiàn)特征,圓代表的是個(gè)對(duì)稱(chēng)矩陣,在數(shù)學(xué)上比較容易計(jì)算,對(duì)于抗遮擋和圖像定位精度來(lái)說(shuō),圓也有很大的優(yōu)勢(shì)。然而,在沒(méi)有任何約束條件下,基于單個(gè)圓的單目視覺(jué)位姿估計(jì)的解具有二義性[4,5],難以應(yīng)用于實(shí)際中。因此,如何剔除位姿估計(jì)中的虛假解引起眾多學(xué)者研究。

        Velasquez等[6]給定目標(biāo)一個(gè)初始化位姿,利用擴(kuò)展卡爾曼濾波器EKF(ExtendedKalmanfilter)估計(jì)下一時(shí)刻的位姿信息,將接近預(yù)測(cè)值的解作為圓目標(biāo)真實(shí)位姿信息。但是若目標(biāo)的初始位姿不確定,該方法就不能獲得圓目標(biāo)的位姿信息。Xu等[7]利用雙目相機(jī)分別計(jì)算獲得圓目標(biāo)在兩個(gè)相機(jī)下的位姿解,將兩相機(jī)獲得的位姿解轉(zhuǎn)換到世界坐標(biāo)系下,對(duì)于同一圓,在世界坐標(biāo)系下,根據(jù)左右兩相機(jī)獲取的法向量的正確解間的夾角小于某一閾值,從而獲得圓的正確位姿信息。但是實(shí)際中,若是閾值選擇得不合適的話(huà),該方法就不再適用。Du等[8]將目標(biāo)航天器上的對(duì)接環(huán)和矩形底座邊緣作為識(shí)別對(duì)象,采用矩形底座邊緣的消隱點(diǎn)求解正確圓的法向量,從而剔除虛假解。但是當(dāng)矩形底座的其中一條邊被遮擋時(shí),該方法將不再適用。苗錫奎等[9]根據(jù)圓平面外一參考點(diǎn)到圓心距離的歐氏不變性,剔除虛假解。但是該方法需要已知在目標(biāo)本體坐標(biāo)系下參考點(diǎn)到圓心的距離信息,且必須保證參考點(diǎn)在圖像平面上成像。魏振忠等[10]根據(jù)圓所在平面上的一對(duì)相交直線(xiàn)角度在歐式空間中保持不變,對(duì)圓目標(biāo)正確定位。若圓所在的平面找不到角度約束的輔助信息,該方法就不再適用。

        上述解決二義性的圓位姿測(cè)量方法皆存在著不同的約束條件。鑒于此,本文采用一種新型的、小型化的基于飛行時(shí)間原理的三維立體成像設(shè)備飛行時(shí)間TOF相機(jī)[11]。它無(wú)需掃描便可同時(shí)獲取目標(biāo)的幅度圖像、距離圖像和灰度圖像。我們利用距離圖像恢復(fù)空間圓在TOF相機(jī)下的三維信息,從而對(duì)圓進(jìn)行準(zhǔn)確定位。然而,TOF相機(jī)獲取圖像分辨率較低[12],因此直接利用空間圓在TOF相機(jī)下的投影圖像計(jì)算空間圓位姿的精度不高。針對(duì)該問(wèn)題,本文利用RGB相機(jī)和TOF相機(jī)組成的2D/3D系統(tǒng)求解圓位姿。首先利用RGB相機(jī)獲取的高分辨率彩色圖像計(jì)算圓位姿;然后將彩色圖像和TOF相機(jī)獲取的距離圖像融合,形成一個(gè)高分辨率的距離圖像;最后根據(jù)距離圖像恢復(fù)圓在RGB相機(jī)下的三維信息,唯一確定圓的位置和姿態(tài)角參數(shù)。實(shí)驗(yàn)驗(yàn)證了本文提出的圓位姿測(cè)量算法有效地解決了解的二義性問(wèn)題,且能夠獲得較高的圓位姿測(cè)量精度。

        1位姿測(cè)量系統(tǒng)結(jié)構(gòu)

        為了便于分析,本文建立如圖1所示的目標(biāo)本體坐標(biāo)系os-x1y1z1,RGB相機(jī)和TOF相機(jī)坐標(biāo)系oc1-xc1yc1zc1、oc2-xc2yc2zc2。

        圖1 目標(biāo)本體坐標(biāo)系、相機(jī)坐標(biāo)系、像平面坐標(biāo)系的定義

        RGB相機(jī)和TOF相機(jī)像平面坐標(biāo)系分別定義如下:

        (1) 目標(biāo)本體坐標(biāo)系os-x1y1z1

        以目標(biāo)上圓特征的圓心為坐標(biāo)原點(diǎn)os,以圓面法向量為z1軸方向,利用右手法則依次建立x1軸和y1軸,從而建立目標(biāo)物體的本體坐標(biāo)系os-x1y1z1。

        (2) 像平面坐標(biāo)系

        ① 對(duì)于RGB像平面像素坐標(biāo)系o1-u1v1,以像平面的左上角第一個(gè)像素點(diǎn)為原點(diǎn)o1,u1軸和v1軸方向分別對(duì)應(yīng)于像平面的行方向和列方向;同理,建立TOF像平面像素坐標(biāo)系o2-u2v2;② 對(duì)于RGB像平面物理坐標(biāo)系of1-xf1yf1,以RGB相機(jī)的光軸與像平面的交點(diǎn)為原點(diǎn)of1,xf1、yf1分別與u1軸和v1軸平行;同理,建立TOF像平面物理坐標(biāo)系of2-xf2yf2。這里,單位為毫米。

        (3) 相機(jī)坐標(biāo)系

        對(duì)于RGB相機(jī)坐標(biāo)系oc1-xc1yc1zc1,以相機(jī)透鏡中心作為原點(diǎn)oc1,主光軸方向?yàn)閦c1軸,xc1軸、yc1軸分別與像平面坐標(biāo)系u1、v1平行。同理,建立TOF相機(jī)坐標(biāo)系oc2-xc2yc2zc2。

        為了解決單個(gè)圓姿態(tài)識(shí)別中的二義性問(wèn)題,本文采用如圖2所示算法框架。首先對(duì)RGB相機(jī)和TOF相機(jī)獲得圖像進(jìn)行預(yù)處理,主要包括對(duì)TOF相機(jī)獲取的距離圖像進(jìn)行濾波降噪;對(duì)RGB相機(jī)獲取的彩色圖像進(jìn)行邊緣檢測(cè),對(duì)于邊緣檢測(cè)后的圖像進(jìn)行橢圓檢測(cè),從而獲得圓在像平面上的投影橢圓。然后對(duì)彩色圖像上獲得的橢圓采用基于圓的單目視覺(jué)位姿估計(jì)算法[6],獲得圓的位姿解。針對(duì)圓位姿計(jì)算獲得的解具有二義性,將RGB相機(jī)獲取的彩色圖像和TOF獲取的距離圖像融合形成高分辨率的距離圖像DH,根據(jù)距離圖像DH恢復(fù)圓在RGB相機(jī)坐標(biāo)系下的三維點(diǎn)云,求出圓的正確位姿解。

        圖2 圓位姿測(cè)量算法框架

        2圓位姿估計(jì)

        2.1預(yù)處理

        2.2基于單目視覺(jué)的圓位姿估計(jì)法

        一般情況下,根據(jù)相機(jī)小孔成像模型,三維空間圓在相機(jī)二維像平面上的投影為橢圓,像平面上的投影橢圓和相機(jī)透鏡光心形成一個(gè)橢圓錐。圓三維位置和方向的求解就是在空間中尋找一個(gè)平面,且此平面與橢圓錐相交形成一個(gè)圓。

        對(duì)于2.1節(jié)中橢圓檢測(cè)獲得橢圓幾何參數(shù),利用圓姿態(tài)重建的閉式解法[5]在橢圓錐空間中找到兩個(gè)平面,且這兩個(gè)平面分別與橢圓錐相交的圓在像平面上的投影為同一個(gè)橢圓,如圖3所示。其中,RGB相機(jī)坐標(biāo)系oc1-xc1yc1zc1下的圓心坐標(biāo)和圓所在平面法向量的一組歧義解如式(1)所示:

        (1)

        圖3 圓位姿歧義解示意圖

        2.3基于距離圖像和彩色圖像融合消除位姿二義性

        2.3.1距離圖像和彩色圖像的融合

        利用立體配準(zhǔn)算法[18]將低分辨率距離圖像映射到高分辨率彩色圖像空間中,獲得一個(gè)初始高分辨率距離圖像DS。再利用Ferstl等[19]提出的距離圖像和彩色圖像的融合方法對(duì)距離圖像上采樣,將上采樣問(wèn)題轉(zhuǎn)化成二階廣義總變分(TGV)的全局能量函數(shù)優(yōu)化問(wèn)題。其中二階廣義總變分(TGV)的全局能量目標(biāo)函數(shù)如式(2)所示:

        (2)

        2.3.2三維點(diǎn)云獲取

        由于TOF相機(jī)獲得的距離數(shù)據(jù)為T(mén)OF相機(jī)光心到目標(biāo)物體的徑向距離,所以融合獲得的高分辨率距離圖像上每個(gè)像素點(diǎn)的距離數(shù)據(jù)為RGB相機(jī)光心到目標(biāo)物體的徑向距離。利用RGB相機(jī)的小孔成像模型,結(jié)合式(3)-式(5)計(jì)算圓上各點(diǎn)在RGB相機(jī)坐標(biāo)系oc1-xc1yc1zc1下的三維坐標(biāo)X(xi,yi,zi),即RGB相機(jī)下的三維點(diǎn)云。對(duì)于RGB相機(jī)獲取的3維點(diǎn)云存在著部分離散點(diǎn)和孤立點(diǎn),采用KNN鄰域?yàn)V波[22]對(duì)獲取的點(diǎn)云進(jìn)行平滑處理(本文實(shí)驗(yàn)K=10)。

        (3)

        (4)

        (5)

        2.3.3二義性消除

        由空間幾何可知,若空間圓心坐標(biāo)為O0(O0x,O0y,O0z),圓上任一點(diǎn)坐標(biāo)為Xo(xo i,yo i,zoi),那么圓所在的平面方程可用式(6)表示:

        nT[(Xo-O0]=0

        (6)

        式中,n為圓所在平面的法向量。

        對(duì)于計(jì)算獲得的圓的三維點(diǎn)云數(shù)據(jù),由于相機(jī)自身存在的系統(tǒng)誤差和非系統(tǒng)誤差,圓上各點(diǎn)并不能準(zhǔn)確滿(mǎn)足式(6),因此建立如式(7)的目標(biāo)函數(shù):

        f(n,O0,Xo)=nT(Xo-O0)

        (7)

        將RGB相機(jī)坐標(biāo)系下圓心坐標(biāo)、圓所在平面法向量的一組歧義解以及空間圓各點(diǎn)三維坐標(biāo)分別代入式(7),按式(8)獲得正確的圓心坐標(biāo)Ot和法向量nt:

        (8)

        其中,圓心坐標(biāo)為位置信息,從平面法向量求出繞x軸和y軸的旋轉(zhuǎn)角度。

        3實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證算法的可行性和準(zhǔn)確性,本文自行搭建位姿測(cè)量平臺(tái)。如圖4所示,包括自制的目標(biāo)模型(塑料)、TOF相機(jī)和RGB相機(jī)組成的2D/3D相機(jī)系統(tǒng)、旋轉(zhuǎn)平移平臺(tái)。

        圖4 位姿測(cè)量平臺(tái)

        其中,TOF相機(jī)為PMD?Camcube2.0,分辨率為204×204;RGB相機(jī)為大恒公司的DH-SV1421FC,分辨率為1392×1040,兩相機(jī)坐標(biāo)系間的旋轉(zhuǎn)矩陣R、平移矩陣T參數(shù)如表1所示。本實(shí)驗(yàn)中采用的圓特征為目標(biāo)模型中圓環(huán)的外圓,外圓直徑為150mm。

        表1 兩個(gè)相機(jī)坐標(biāo)系之間的坐標(biāo)轉(zhuǎn)換關(guān)系

        首先固定2D/3D相機(jī)系統(tǒng),控制旋轉(zhuǎn)平臺(tái)使其回到初始零位,校準(zhǔn)目標(biāo)模型,使模型中的圓平面與實(shí)驗(yàn)中的旋轉(zhuǎn)平臺(tái)的x軸、y軸平行,與z軸垂直。利用2D/3D相機(jī)系統(tǒng)采集目標(biāo)圖像,對(duì)采集的圖像利用本文算法計(jì)算圓的位姿。如圖5給出了不同步驟獲得的結(jié)果。(a)是RGB相機(jī)輸出的彩色圖像,(b)是TOF相機(jī)輸出的距離圖像。對(duì)RGB相機(jī)獲取的圖像進(jìn)行預(yù)處理,獲得圓的投影橢圓,(c)是彩色圖像中檢測(cè)到的橢圓,將檢測(cè)到的橢圓利用單目視覺(jué)圓位姿測(cè)量方法獲得圓位姿的一組歧義解;對(duì)TOF相機(jī)獲取的距離圖像進(jìn)行濾波降噪,得到如(d)所示的距離圖像;利用距離圖像和彩色圖像的融合方法獲取如圖5(e)所示的高分辨率的距離圖像;然后將高分辨率的距離圖像計(jì)算獲得三維點(diǎn)云,結(jié)果如(f)所示,最后消除位姿歧義解中的虛假解。

        圖5 圖像處理結(jié)果圖

        為了驗(yàn)證算法的可行性與準(zhǔn)確性,本實(shí)驗(yàn)分別設(shè)計(jì)了如下的相對(duì)位置測(cè)量實(shí)驗(yàn)和旋轉(zhuǎn)角度測(cè)量實(shí)驗(yàn)。

        (1) 相對(duì)位置測(cè)量實(shí)驗(yàn)

        以z向距離500mm處為測(cè)量基準(zhǔn)點(diǎn),分別在z向距離500、750、1000、1250、1500、1750、2000mm這個(gè)7個(gè)距離點(diǎn)采集數(shù)據(jù)。在每個(gè)距離點(diǎn)上,依次在x軸、y軸方向上平移目標(biāo),每次平移50mm,總共平移200mm。

        分別利用TOF相機(jī)系統(tǒng)以及TOF相機(jī)和RGB相機(jī)組成的2D/3D相機(jī)系統(tǒng)采集圖像,求解位移變化量,得到z軸、x軸、y軸依次單軸平移結(jié)果如表2、表3、表5所示。其中,表3表示在z向距離1000mm時(shí),x軸、y軸方向上的依次單軸平移測(cè)量結(jié)果。表5表示在不同距離點(diǎn)上,x軸、y軸上的平均平移誤差。實(shí)驗(yàn)結(jié)果表明,融合距離圖像和彩色圖像能夠準(zhǔn)確地獲取圓位姿。隨著單軸平移量的增加,各次平移的誤差也在增加。

        (2) 旋轉(zhuǎn)角度測(cè)量實(shí)驗(yàn)

        無(wú)論空間圓繞其軸旋轉(zhuǎn)多大角度,其在像平面成像都不會(huì)改變。因此本實(shí)驗(yàn)中,對(duì)于每個(gè)距離點(diǎn)上,只依次轉(zhuǎn)動(dòng)旋轉(zhuǎn)平臺(tái)x軸、y軸,每次轉(zhuǎn)動(dòng)10度,共轉(zhuǎn)動(dòng)50度。

        利用TOF相機(jī)系統(tǒng)以及2D/3D相機(jī)系統(tǒng)分別采集各個(gè)姿態(tài)角下的目標(biāo)圖像,利用本文的圓定位方法,確定各情況下旋轉(zhuǎn)角度變量,獲得x軸、y軸依次單軸旋轉(zhuǎn)時(shí)的測(cè)量結(jié)果如表4、表6所示。其中,表4表示在z向距離1000mm時(shí),x軸、y軸依次單軸旋轉(zhuǎn)時(shí)的旋轉(zhuǎn)角度誤差。表6表示在不同距離點(diǎn)上,x軸、y軸依次單軸旋轉(zhuǎn)時(shí)旋轉(zhuǎn)角度平均誤差。隨著單軸旋轉(zhuǎn)角度的增加,各軸的旋轉(zhuǎn)角度誤差也在增加。

        表2 z軸方向上的平移測(cè)量結(jié)果

        表3 z=1000 mm,x軸、y軸平移測(cè)量結(jié)果

        表4 z=1000 mm,x軸、y軸旋轉(zhuǎn)測(cè)量結(jié)果

        表5 x軸、y軸平均平移測(cè)量誤差

        表6 x軸、y軸旋轉(zhuǎn)平均測(cè)量誤差

        上述實(shí)驗(yàn)結(jié)果表明,與僅采用TOF相機(jī)系統(tǒng)輸出的低分辨率圖像求解圓位姿相比,利用2D/3D相機(jī)系統(tǒng)采集圖像,對(duì)獲取的距離圖像和彩色圖像進(jìn)行融合求解圓位姿的測(cè)量誤差明顯減小,能夠有效地獲取高精度的圓位姿。表3、表4表明隨著單軸平移量和旋轉(zhuǎn)角度的增加,各次平移和旋轉(zhuǎn)的誤差也在增加,單軸平移誤差小于1.7mm,單軸旋轉(zhuǎn)角度低于0.5度。實(shí)驗(yàn)驗(yàn)證了本文位姿測(cè)量方法的正確性和實(shí)驗(yàn)方案設(shè)計(jì)的合理性。表2、表5、表6表明,隨著z軸平移量的增加,x軸、y軸的平均平移測(cè)量誤差、z軸的平移誤差增大,且x軸、y軸旋轉(zhuǎn)平均角度誤差也增大。其中,平移平均測(cè)量誤差小于3.9mm,旋轉(zhuǎn)平均測(cè)量誤差小于0.5度。這主要是由于隨著距離的增加,非合作目標(biāo)上圓特征的成像橢圓大小逐漸減小,橢圓的擬合誤差增加,從而大大影響圓位姿的精度。

        4結(jié)語(yǔ)

        本文提出一種融合距離圖像和彩色圖像的圓位姿測(cè)量方法。該方法針對(duì)RGB相機(jī)求解圓位姿存在二義性,搭建RGB相機(jī)和TOF相機(jī)組成2D/3D相機(jī)系統(tǒng),將RGB相機(jī)獲取的彩色圖像和TOF相機(jī)獲取的距離圖像融合,形成一個(gè)高分辨率的距離圖像,由距離圖像恢復(fù)三維點(diǎn)云,剔除虛假解,唯一確定圓的位姿。實(shí)驗(yàn)結(jié)果表明,該算法能夠有效準(zhǔn)確地獲取較高精度的圓位姿,滿(mǎn)足實(shí)際位姿測(cè)量系統(tǒng)精度需求。

        參考文獻(xiàn)

        [1]OumerNW,PaninG.3Dpointtrackingandposeestimationofaspaceobjectusingstereoimages[C]//The21stInternationalConferenceonPatternRecognition(ICPR),Tsukuba,Japan,2012:796-800.

        [2]RegoliL,RavandoorK,SchmidtM,etal.On-linerobustposeestimationforRendezvousandDockinginspaceusingphotonicmixerdevices[J].Actastronautica,2014,96(3):159-165.

        [3]PetitA,MarchandE,KananiK.Vision-basedspaceautonomousrendezvous:Acasestudy[C]//2011IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems(IROS),California,USA,2011:619-624.

        [4]ShiuYC,AhmadS.3Dlocationofcircularandsphericalfeaturesbymonocularmodel-basedvision[C]//ProceedingsoftheIEEEInternationalConferenceonSystems,ManandCybernetics,Massachusetts,USA,1989:576-581.

        [5]Safaee-RadR,TchoukanovI,SmithKC,etal.Three-dimensionallocationestimationofcircularfeaturesformachinevision[J].IEEETransactionsonRoboticsandAutomation,1992,8(5):624-640.

        [6]VelasquezAF,MaraniG,EvansT,etal.Virtualsimulatorfortestingavisionbasedposeestimationsystemforautonomouscaptureofsatelliteswithinterfacerings[C]//2013 21stMediterraneanConferenceonControl&Automation(MED),Crete,Greece,2013:1597-1602.

        [7]XuWenfu,XueQiang,LiuHoude,etal.Aposemeasurementmethodofanon-cooperativeGEOspacecraftbasedonstereovision[C]//2012 12thInternationalConferenceonControlAutomationRobotics&Vision(ICARCV),Guangzhou,China,2012:966-971.

        [8]DuXiangdong,LiangBin,XuWenfu,etal.PoseMeasurementofaGEOSatelliteBasedonNaturalFeatures[C]//2012InternationalConferenceonVirtualRealityandVisualization(ICVRV),Qinhuangdao,China,2012:33-40.

        [9] 苗錫奎,朱楓,丁慶海,等.基于星箭對(duì)接環(huán)部件的飛行器單目視覺(jué)位姿測(cè)量方法[J].光學(xué)學(xué)報(bào),2013,33(4):123-141.

        [10] 魏振忠,趙征,張廣軍.空間圓姿態(tài)識(shí)別二義性的角度約束消除[J].光學(xué)精密工程,2010,18(3):685-691.

        [11]FoixS,AlenyaG,TorrasC.Lock-intime-of-flight(ToF)cameras:asurvey[J].SensorsJournal,IEEE,2011,11(9):1917-1926.

        [12]ZhangXudong,ShenYuliang,HuLiangmei.Super-resolutionreconstructionAlgorithmforPMDrangeimagebasedonregularization[C]//2011InternationalConferenceonIntelligentHuman-MachineSystemsandCybernetics(IHMSC),Hangzhou,China,2011:15-18.

        [13]KahlmannT,RemondinoF,IngensandH.Calibrationforincreasedaccuracyoftherangeimagingcameraswissrangertm[J].ImageEngineeringandVisionMetrology(IEVM),2006,36(3):136-141.

        [14]FrankM,PIaueM,HamprechtFA.Denoisingofcontinuous-wavetime-of-lightdepthimagesusingconfidencemeasures[J].OpticalEngineering,2009,48(7):1-24.

        [15]GaoJun,JiaBaozhu,ZhangXudong,etal.PMDcameracalibrationbasedonadaptivebilateralfilter[C]//2011InternationalSymposiumonPhotonicsandOptoelectronics(SOPO),Wuhan,China,2011:1-4.

        [16]PrasadDK,LeungMKH,ChoSY.Edgecurvatureandconvexitybasedellipsedetectionmethod[J].PatternRecognition,2012,45(9):3204-3221.

        [17]ZhangZhengyou.Aflexiblenewtechniqueforcameracalibration[J].PatternAnalysisandMachineIntelligence,2000,22(11):1330-1334.

        [18]LindnerM,KolbA,HartmannK.Data-fusionofPMD-baseddistance-informationandhigh-resolutionRGB-images[C]//2007InternationalSymposiumonSignals,CircuitsandSystems,Beijing,China,2007,1:1-4.

        [19]FerstlD,ReinbacherC,RanftlR,etal.Imageguideddepthupsamplingusinganisotropictotalgeneralizedvariation[C]//2013IEEEInternationalConferenceonComputerVision(ICCV),Sydney,Australia,2013:993-1000.

        [20]ChambolleA,PockT.Afirst-orderprimal-dualalgorithmforconvexproblemswithapplicationstoimaging[J].JournalofMathematicalImagingandVision,2011,40(1):120-145.

        [21]PockT,ChambolleA.Diagonalpreconditioningforfirstorderprimal-dualalgorithmsinconvexoptimization[C]//2011IEEEInternationalConferenceonComputerVision(ICCV),Barcelona,Spain,2011:1762-1769.

        [22]DavisLS,RosenfeldA.Noisecleaningbyiteratedlocalaveraging[J].IEEETransactionsonSystemsManandCybernetics,1978,8(9):705-710.

        CIRCLE POSE MEASUREMENT BASED ON FUSION OF DISTANCE IMAGEANDCOLOURIMAGE

        Chen XinGao JunZhang XudongZhang Jun

        (School of Computer and Information,Hefei University of Technology,Hefei 230009,Anhui,China)

        AbstractIn order to solve the equivocation problem in monocular vision-based single circle pose measurement, we presented an approach to eliminate equivocation by fusing distance image and colour image. First, the method calculates the circle pose using the high-resolution colour image acquired by RGB camera and thus obtains a set of equivocal solutions of circle pose. Then, it fuses the colour image and distance image captured by TOF camera to form a high-resolution distance image. Finally, according to distance image it restores the 3D information of circle in RGB camera, culls the false solutions in circle pose, so as to get real pose of circle. Experimental results indicated that this method can effectively solve the equivocation problem of single circle pose measurement based on monocular vision, and can accurately attain circle pose with higher precision.

        KeywordsCirclePose measurementEquivocationDistance imageColour imageFusion

        收稿日期:2015-02-09。國(guó)家自然科學(xué)基金項(xiàng)目(61273237,6127 1121);安徽省自然科學(xué)基金項(xiàng)目(11040606M149)。陳欣,碩士生,主研領(lǐng)域:機(jī)器視覺(jué),空間導(dǎo)航研究。高雋,教授。張旭東,教授。張駿,講師。

        中圖分類(lèi)號(hào)TP274

        文獻(xiàn)標(biāo)識(shí)碼A

        DOI:10.3969/j.issn.1000-386x.2016.06.046

        猜你喜歡
        彩色圖像位姿坐標(biāo)系
        基于FPGA的實(shí)時(shí)彩色圖像邊緣檢測(cè)
        電子制作(2019年16期)2019-09-27 09:34:46
        解密坐標(biāo)系中的平移變換
        坐標(biāo)系背后的故事
        基于重心坐標(biāo)系的平面幾何證明的探討
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        基于共面直線(xiàn)迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
        基于CAD模型的單目六自由度位姿測(cè)量
        小型四旋翼飛行器位姿建模及其仿真
        基于顏色恒常性的彩色圖像分割方法
        基于幾何特征的快速位姿識(shí)別算法研究
        久久综合久中文字幕青草| 久久午夜无码鲁丝片直播午夜精品| 二区三区视频| 青青草一级视频在线观看| 亚洲精品98中文字幕| 18禁黄网站禁片免费观看女女| 欧美xxxx黑人又粗又长精品| 久久精品国产精品亚洲婷婷| 国产白浆一区二区三区佳柔| 国产精品久久国产精麻豆99网站| 亚洲 精品 综合 精品 自拍| 久久精品国产亚洲Av无码偷窍| 手机免费在线观看日韩av| 无码免费无线观看在线视| 情侣黄网站免费看| 国产成人精品日本亚洲专区6| 亚洲av成人无网码天堂| 最美女人体内射精一区二区 | 九九久久99综合一区二区| 亚洲av之男人的天堂| 日韩精品首页在线观看 | 天天夜碰日日摸日日澡性色av| 97久久天天综合色天天综合色hd| 色噜噜狠狠色综合欧洲| av免费一区二区久久| 69精品人人人人| 国产精品久免费的黄网站| 成人综合亚洲国产成人| 日韩有码中文字幕在线观看| 欧美一区二区三区激情| 久久中国国产Av秘 入口| 午夜视频一区二区在线观看| 国产精品无码无卡无需播放器 | 自拍av免费在线观看| 国产日韩欧美一区二区东京热| 亚洲xxxx做受欧美| 草莓视频中文字幕人妻系列| 视频一区视频二区自拍偷拍 | 国产精品丝袜久久久久久不卡| 男性一插就想射是因为啥| 成人大片在线观看视频|