亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于假設(shè)檢驗(yàn)的數(shù)字影像線狀特征亞像素自動(dòng)提取

        2013-01-11 02:07:58李芳芳
        測(cè)繪學(xué)報(bào) 2013年1期
        關(guān)鍵詞:編組線段邊緣

        李 暢,李芳芳

        1.華中師范大學(xué) 城市與環(huán)境科學(xué)學(xué)院,湖北 武漢430079;2.國(guó)防科學(xué)技術(shù)大學(xué) 信息系統(tǒng)工程重點(diǎn)實(shí)驗(yàn)室,湖南 長(zhǎng)沙410073

        1 引 言

        直線是數(shù)字圖像處理領(lǐng)域中的中層描述符號(hào),利用它可以描述許多對(duì)象,即使是復(fù)雜的曲線在GIS和CAD中仍能用分段線段來表達(dá)。因此線特征自動(dòng)提取在 圖像處 理[1]、計(jì)算機(jī)視覺[2-3]、機(jī)器視覺[4-5]和數(shù)字?jǐn)z影測(cè)量與遙感[6-8]中有廣泛的研究。

        近年來在特征點(diǎn)與特征區(qū)域檢測(cè)方面取得了較大進(jìn)展[9-11],然而,由于圖像特征點(diǎn)的離散誤差和特征點(diǎn)提取過程中的位移現(xiàn)象,使得由二圖像點(diǎn)所確定的直線參數(shù)隨之產(chǎn)生某種不確定性[12]。此不確定性造成直線提取的不完整和過提取,也是導(dǎo)致直線特征立體匹配結(jié)果具有不確定性的關(guān)鍵因素[13],因此線提取還是影響視覺理解的關(guān)鍵因素。文獻(xiàn)[14—15]總結(jié)了具有代表性的線提取算法:霍夫變換法、啟發(fā)式連接算法、層次記號(hào)編組法和Burns設(shè)計(jì)的相位編組法等。理想的直線提取算法應(yīng)具有如下特征:①能提取低對(duì)比度線段;②保證線段提取完整性,盡量避免提取的破碎性;③防止線段被誤連,降低取偽概率;④提取線段精度高;⑤對(duì)噪聲不太敏感;⑥ 具有良好的局部特性。但現(xiàn)有算法都不能完全解決上述問題,尤其是如何在保證線段提取完整性的條件下盡可能避免“誤連”現(xiàn)象,似乎是一對(duì)不可調(diào)和的矛盾,這將是本文重點(diǎn)研究的問題之一。此外,如何把線提取精度提高至亞像素級(jí)(子像素)是進(jìn)行高精度視覺測(cè)量和三維重建的關(guān)鍵,本文也將探討。

        2 基于模糊融合和假設(shè)檢驗(yàn)的線特征初值提取

        2.1 邊緣檢測(cè)

        傳統(tǒng)的邊緣檢測(cè)算子大多是利用邊緣的梯度極值特性,檢測(cè)局部一階導(dǎo)數(shù)最大或二階導(dǎo)數(shù)過零點(diǎn)來作為邊緣點(diǎn)。這類算子由于直接對(duì)影像進(jìn)行微分運(yùn)算,一般對(duì)噪聲較為敏感,抗干擾性能差。文獻(xiàn)[3]指出邊緣檢測(cè)實(shí)際上是一個(gè)病態(tài)問題。為了減少噪聲對(duì)邊緣提取的干擾,在采用正則化方法的基礎(chǔ)上又發(fā)展起來許多邊緣檢測(cè)算子:如文獻(xiàn)[6]中的LOG(Laplacian of Gaussian)算子,它在直線提取中也有應(yīng)用,但LOG算子也有一定的局限性,在抗干擾和檢測(cè)出復(fù)雜形狀的邊緣之間存在尖銳的矛盾,而且平滑窗口大小的選擇也是一個(gè)很難解決的問題。Canny是一種經(jīng)典的邊緣檢測(cè)算子,它給出了評(píng)價(jià)邊緣檢測(cè)性能優(yōu)劣的3個(gè)指標(biāo):①好的信噪比;②好的定位性能;③對(duì)單一邊緣僅有唯一的響應(yīng)。因此本文選用此算法進(jìn)行邊緣檢測(cè)。該算法分為3步:①圖像與最優(yōu)濾波器卷積;②對(duì)卷積圖像進(jìn)行求導(dǎo);③檢測(cè)圖像梯度的局部極大值點(diǎn)作為邊緣點(diǎn)。本文采用Canny算子進(jìn)行邊緣檢測(cè)。

        2.2 感知編組與線段擬合

        特征編組指的是在不需先驗(yàn)知識(shí)的前提下,人類視覺系統(tǒng)從影像中獲取相關(guān)組織及結(jié)構(gòu)的基本能力,該觀點(diǎn)來自于術(shù)語感知編組(perceptual organization)。感知編組初期分為兩個(gè)過程:①對(duì)提取的線特征計(jì)算簡(jiǎn)單的幾何關(guān)系;②將這些提取的特征在幾何關(guān)系的基礎(chǔ)上建立更大的幾何結(jié)構(gòu)。

        在線狀特征自動(dòng)提取中,感知編組就是將邊緣檢測(cè)后形成破碎的線段“分組合并”生成完整線段。感知編組通常有兩類錯(cuò)誤:“棄真”,破碎線段沒能真正完全的合并從而破壞了線段的完整性;“取偽”,把不是同一條線段的破碎線段進(jìn)行了錯(cuò)誤的合并。當(dāng)前算法不同程度地存在上述錯(cuò)誤:

        (1)霍夫變換計(jì)算量大而且會(huì)出現(xiàn)“誤連”,即不能區(qū)分共線(具有近似的直線方程)但實(shí)際上不相連的直線,導(dǎo)致“取偽”;

        (2)跟蹤邊緣點(diǎn)是啟發(fā)式連接算法的關(guān)鍵,但通常只能考慮局部鄰域的候選連接點(diǎn)信息,因此忽略了全局的線段信息,所以當(dāng)影像噪聲大時(shí),會(huì)發(fā)生“棄真”,故不能保證線段的完整性;

        (3)相位編組法根據(jù)相位信息對(duì)圖像進(jìn)行分割,而相位信息的不一致性可能導(dǎo)致一條直線被分解為多條小線段,以致“棄真”。

        因此本算法將綜合全局尺度(避免“棄真”)和局部尺度(避免“取偽”)信息盡可能保證線段提取的完整性和正確性。而且通常線段擬合都是在感知編組或者邊緣跟蹤之后完成,而本算法將其統(tǒng)一到感知編組中。與目前一些算法將幾何和物理(光譜)信息同時(shí)定量化進(jìn)行編組決策不同,由于二者之間的權(quán)重不好確定,因此本算法將其分開,即在滿足幾何假設(shè)的條件下才對(duì)物理特征進(jìn)行單獨(dú)檢驗(yàn),這樣的好處在于進(jìn)行決策編組時(shí)避免了權(quán)重分配不當(dāng)導(dǎo)致的混淆和錯(cuò)誤。本文在文獻(xiàn)[15]算法的基礎(chǔ)上進(jìn)行改進(jìn)和優(yōu)化。

        2.2.1 幾何假設(shè)與檢驗(yàn)

        首先,通過幾何關(guān)系進(jìn)行模糊融合決策,為了降低“棄真”的概率,將閾值放寬盡可能納入更多的具有“全局尺度”的共線線段。從斷裂線段間的幾何拓?fù)潢P(guān)系來判斷合并連通的可能性,如圖1共4個(gè)指標(biāo)。

        (1)端點(diǎn)距離:線段間的端點(diǎn)必須落在直線的連接感知圓形區(qū)域內(nèi)??紤]到某一條線段越長(zhǎng),即使與另一條線段相距較遠(yuǎn)也有可能被連接,所以應(yīng)該綜合線段的長(zhǎng)短考慮鄰近性,而文獻(xiàn)[15]沒有考慮此因素,由此新定義具有對(duì)長(zhǎng)度自適應(yīng)性的隸屬度函數(shù)為

        式中,k為閾值(本文取0.5),lengthi為線段Li的長(zhǎng)度(i=1,2),x為兩條線段間最短距離。

        (2)側(cè)向距離:定義為一條線段中點(diǎn)到另一條線段的距離disi(i=1,2),隸屬度函數(shù)為

        式中,width1、width2分別為兩條直線對(duì)應(yīng)支持域?qū)挾鹊拈撝担ū疚娜?個(gè)像素),與文獻(xiàn)[15]中表示某一個(gè)距離不同,x為dis1和dis2的最小值。

        (3)共線方向差:若兩線段共線,那么它們之間的夾角應(yīng)較小,與文獻(xiàn)[15]定義30°(π/6)不同,本文認(rèn)為夾角大于10°時(shí),隸屬度為0,修改參數(shù)后定義隸屬度函數(shù)為

        式中,x為線段間夾角。

        (4)交疊度:反映兩線段重疊的度量,重疊度越高,置信度越低。如圖1(d),線段L2的端點(diǎn)Q1在L1上的投影到線段L1端點(diǎn)P2的距離dis1必須小于Q2到線段L1投影與L1端點(diǎn)P2的距離dis2,隸屬度函數(shù)為

        式中,x=dis2-dis1。首先將L1和L2往x、y軸投影,至少在一個(gè)投影方向上線段坐標(biāo)有相交則采用本隸屬度函數(shù),否則說明兩直線完全不重疊,隸屬度值直接賦1。綜合上述4個(gè)幾何拓?fù)潢P(guān)系進(jìn)行模糊融合決策如下

        當(dāng)S=1時(shí),進(jìn)行合并連接;S=0時(shí),不予連接。

        然后根據(jù)直線的角度選擇不同的殘差方向?qū)珊喜⒌木€段進(jìn)行擬合式中,θ表示直線與x軸的夾角。實(shí)際上,即使?jié)M足模糊融合的條件擬合出的直線也未必具有可信度,本文采用對(duì)直線方程的斜率參數(shù)a進(jìn)行假設(shè)檢驗(yàn)來提高擬合直線的信度。檢驗(yàn)統(tǒng)計(jì)量為

        式中,即應(yīng)服從自由度為(1,n-2)的F分布;Sregression是回歸平方和;Sresidual是殘差平方和;表示擬合的估值;為觀測(cè)值yi的均值。在顯著性水平α下,若F>Fα(1,n-2)則拒絕原假設(shè)a=0,接受備擇假設(shè)認(rèn)為線性回歸顯著,否則認(rèn)為不滿足線性關(guān)系,線段不予合并。

        圖1 線段編組中的幾何拓?fù)潢P(guān)系Fig.1 Geometric topology relationship of line segments perceptual organization

        2.2.2 物理光譜檢驗(yàn)

        上述基于全局尺度的幾何假設(shè)與檢驗(yàn)在降低“棄真”概率的同時(shí)會(huì)增加“取偽”概率。為了減少“取偽”概率,本文建議采用物理檢驗(yàn)的方法:即需在線段連接區(qū)域內(nèi)的“微觀尺度”進(jìn)行灰度和紋理信息的審核避免“誤連”。如圖2(a)中l(wèi)1和l2滿足幾何連接關(guān)系,但連接后圖2(b)、(c)中框選區(qū)域提取的紅色線段顯然是錯(cuò)誤的。通過上述式(1)~式(7)在幾何上確定線段l1和l2可以連接后,再對(duì)3條線段P1P2、P2Q1和Q1Q2進(jìn)行物理相似性測(cè)度,顯然若3線段物理特征相似性高可以進(jìn)行合并,反之則不予合并。采用文獻(xiàn)[16—17]提出的穩(wěn)健線段描述子中的MMSD(梯度幅值均值—標(biāo)準(zhǔn)差描述子)進(jìn)行連通性檢驗(yàn),該算子最大的優(yōu)點(diǎn)在于與線段長(zhǎng)度無關(guān),且具有平移、旋轉(zhuǎn)和線性光照不變性。歸一化后的MMSD為

        式中,L就是描述線段的4r+2維向量;r為支持域的寬度,本文取7個(gè)像素,此描述子與線段長(zhǎng)度無關(guān),具體計(jì)算參見文獻(xiàn)[16],通過公式(8)分別計(jì)算出線段P1P2、P2Q1和Q1Q2的MMSD描述子,然后利用歐式距離來測(cè)度相似性(閾值0.2)。若不相似則否定原假設(shè),最終不能連接,反之則相連。以圖2(a)、(b)為例,l1與l2通過式(1)~(5)模糊決策后S=1,再經(jīng)過式(7)進(jìn)行統(tǒng)計(jì)檢驗(yàn),在顯著性水平α=0.01下拒絕原假設(shè),認(rèn)為線性回歸顯著,故在幾何上可以連接。但計(jì)算P1P2和P2Q1的MMSD描述子之間的歐式距離發(fā)現(xiàn)‖MMSD(P1P2)-MMSD(P2Q1)‖>0.2,所以光譜信息不相似,最終拒絕連接。

        3 基于最小二乘模板匹配的線段亞像素精定位

        目前有很多文獻(xiàn)都對(duì)高精度線特征提取進(jìn)行了研究,文獻(xiàn)[18]提出了一種基于離散直線段的合并方法,該方法可以較好地保證局部邊緣特性[18]。還有一種結(jié)合精確單點(diǎn)定位方法和基于分裂的最小距離誤差線段逼近法的高精度輪廓直線特征提取算法[19]。由于已有線段較好的定位初值,故可采用最小二乘影像匹配(LSM)實(shí)現(xiàn)線段的子像素提取,該算法文獻(xiàn)[20]中提出,由于該方法充分利用了影像窗口內(nèi)的信息進(jìn)行平差計(jì)算,使影像匹配可以達(dá)到子像素級(jí)(1/10~1/100像素)精度。此后,文獻(xiàn)[21]對(duì)LSM 進(jìn)行了擴(kuò)展,以給定的特征模式作為參考模板與實(shí)際影像做最小二乘影像匹配(LSTM),從而高精度提取目標(biāo)。

        由于經(jīng)過上述嚴(yán)格的幾何和物理檢驗(yàn)已經(jīng)提取出比較精確的線段可作為真實(shí)影像線段的近似邊緣,故可利用最小二乘模板匹配的方法將線段提取的精度進(jìn)一步提高至亞像素。以階躍邊緣為例,由理論邊緣模式生成階躍邊緣模板,用此模板與實(shí)際的待檢測(cè)影像線段進(jìn)行匹配,通過調(diào)整定位線段的坐標(biāo)參數(shù)使得相關(guān)系數(shù)最大,從而可精確定位邊緣。假設(shè)給定模板為gm(x,y)、gt(x,y)是實(shí)際影像塊,建立兩者的匹配意味著gm(x,y)=gt(x+Δx,y+Δy)[22-24]。由于噪聲,它們之間不可能完全相等,但可寫出誤差方程進(jìn)行平差解算

        為計(jì)算方便在匹配前可將影像塊旋轉(zhuǎn)成水平影像,使二維匹配轉(zhuǎn)化為一維匹配。

        4 試驗(yàn)與分析

        通過VC++6.0結(jié)合OpenCV 1.0編制了程序進(jìn)行算法驗(yàn)證,選擇航空(1080像素×1920像素)和地面(1000像素×1500像素)近景真彩色影像進(jìn)行試驗(yàn)。為了便于給出提取線段的邊緣定位效果,在原始影像上用紅色線段進(jìn)行顯示。如圖3(a)和(f)為使用OpenCV中提供的霍夫變換對(duì)上述航空和地面影像提取線段的結(jié)果,它們的局部影像放大后對(duì)應(yīng)圖3(b)和(g),可發(fā)現(xiàn),放大區(qū)域存在大量的錯(cuò)誤提取直線,可能是共線的線段被誤連而導(dǎo)致的。圖3(c)和(h)是經(jīng)過邊緣檢測(cè)、感知編組但未進(jìn)行假設(shè)檢驗(yàn)提取的線段,也存在明顯的誤連(例如圖中虛框所示區(qū)域),圖3(d)和(i)是本文提出的算法,可以看出本算法可以較好地克服“兩類錯(cuò)誤”??梢妭鹘y(tǒng)的算法提取的近景建筑物影像線段雖然很長(zhǎng),但是存在錯(cuò)誤的分組合并,而經(jīng)過本算法的假設(shè)檢驗(yàn)后可以在一定層度上克服線段的“誤連”并同時(shí)盡可能保證線段的完整性。經(jīng)過LSTM后線段的定位精度得到了進(jìn)一步的提高,如圖3(j)可以看出匹配結(jié)果與實(shí)際邊緣完全吻合。表1給出了提取線狀特征的信息,不經(jīng)過假設(shè)檢驗(yàn)提取的線段合并得多所以數(shù)量少,而假設(shè)檢驗(yàn)后排除了大量誤連線段所以數(shù)量多。定位精度沒有達(dá)到理論上1/10~1/100像素,可能與線段合并擬合后降低了邊緣定位初始精度有關(guān),因?yàn)橛性囼?yàn)表明LSTM算法對(duì)初值的要求比較高。盡管如此,本試驗(yàn)定位線段的精度都達(dá)到了子像素,航空和地面影像的平均精度分別為0.13像素和0.12像素,其均方差分別為0.04和0.03,可用于高精度視覺測(cè)量和三維重構(gòu)。

        5 結(jié) 論

        筆者提出了一個(gè)基于幾何假設(shè)和物理檢驗(yàn)的線段“感知編組”算法,可提高線段提取的可靠性,通過模糊融合和回歸顯著性檢驗(yàn)在幾何上嚴(yán)格測(cè)試破碎線段的幾何連通性,從而保障線段的完整性,但在降低“棄真”概率的同時(shí)增大了“取偽”概率。所以,需考核可編組線段之間的物理光譜相似性來判斷最終是否能夠連接,從而避免誤連,這種從全局到局部尺度、幾何假設(shè)加物理檢驗(yàn)的感知編組方法可以克服霍夫變換和傳統(tǒng)邊緣跟蹤等算法的不足。最后利用LSTM可將線段的定位精度提升到亞像素。本算法可以同時(shí)減少“棄真”和“取偽”的概率,在一定程度上解決兩者之間的矛盾。

        雖然,利用連通區(qū)域光譜檢驗(yàn)可以很好地防止線段誤連,但由于陰影、背景和遮擋等“噪聲”會(huì)導(dǎo)致光譜差異變大從而破壞線段提取的完整性。因此,影像濾波和多波段信息的引入,以及“噪聲”的檢測(cè)是否能進(jìn)一步提高線特征抽取的魯棒性是將來研究的重點(diǎn)。

        表1 提取線特征信息Tab.1 The information of line extraction

        圖2 連接區(qū)域的假設(shè)檢驗(yàn)Fig.2 The hypothesis testing of connected region

        圖3 航空和地面影像線特征提取結(jié)果Fig.3 Results of line extraction for aerial and ground images

        [1] HUERLAS A N,EVATIA R.Detecting Buildings in Aerial

        [2] HUERLAS A,COLE W,EVATIA R.Detecting Runways in Complex Airport Scenes[J].Computer Vision Graphics and Image Processing,1990,51(2):107-145.

        [3] MA Songde,ZHANG Zhengyou.Computer Vision-Theory of Computation and Algorithm[M].Beijing:Science Press,2003.(馬頌德,張正友.計(jì)算機(jī)視覺[M].北京:科學(xué)出版社,2003.)

        [4] MERLET N,ZERUBIA J.New Prospects in Line Detection by Dynamic Programming [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1996,18(4):426-431.

        [5] ZHANG Guangjun.Machine Vision[M].Beijing:Science Press,2005.(張廣軍.機(jī)器視覺[M].北京:科學(xué)出版社,2005.)

        [6] ZHANG Zuxun,WU Jun,ZHANG Jianqing.A Method for Straight-Line Extraction Based on Line Space[J].Geomatics and Information Science of Wuhan University,2004,29(3):89-194.(張祖勛,吳軍,張劍清.一種基于線空間的直線抽取算法研究[J].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2004.29(3):189-194.)

        [7] SHE Eryong,WANG Runsheng.Line Extraction in Multiple Images Based on Fusion Edges[J].Chinese Journal of Computers,2005,28(1):142-145.(佘二永,王潤(rùn)生.基于邊緣融合的多圖像直線提取算法[J].計(jì)算機(jī)學(xué)報(bào),2005,28(1):142-145.)

        [8] BAILLARD C,SCHMID C,ZISSERMAN A,et al.Automatic Line Matching and 3DReconstruction of Buildings from Multiple Views[C]∥ Proceedings of ISPRS Conference on Automatic Extraction of GIS Objects from Digital Imagery.München:ISPRS,1999:69-80.

        [9] LOWE D G.Distinctive Image Features from Scale-invariant Keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.

        [10] MIKOLAJCZYK K,SCHMID C.A Performance Evaluation of Local Descriptors[J].IEEE Transactions on Pattern Analysis Machine Intelligence,2005,27(10):1615-1630.

        [11] MIKOLAJCZYK K,TUYTELAARS T,SCHMID C,et al.A Comparison of Affine Region Detectors[J].International Journal of Computer Vision,2005,65(1-2):43-72.

        [12] SUN Fengmei,HU Yu,HU Zhanyi.A Study on the Uncertainties in Line Extraction from Images[J].Acta Automatica Sinica,2003,29(4):589-598.(孫鳳梅,胡宇,胡占義.直線提取中的不確定性研究[J].自動(dòng)化學(xué)報(bào),2003,29(4):589-598.)

        [13] Wang Jiyang,Wen Gongjian,Li Deren.Uncertainty in Matching Straight Line Segments[J].Signal Processing,2010,26(5):641-647.(王繼陽(yáng),文貢堅(jiān),李德仁.直線特征立體匹配中的不確定性問題[J].信號(hào)處理,2010,26(5):641-647.)

        [14] Wen Gongjian,Wang Runsheng.A Robust Approach to Extracting Straight Lines[J].Journal of Software,2001,12(11):1660-1666.(文貢堅(jiān),王潤(rùn)生.一種穩(wěn)健的直線提取算法[J].軟件學(xué)報(bào),2001,12(11):1660-1666.)

        [15] MAO Xia,ZHAO Xingyuan,LI Lei.Algorithm of Extracting Straight Lines Based on Fuzzy Fusion[J].Infrared and Lase,2006,35(sup4):13-18.(毛峽,趙興國(guó),李磊.一種基于模糊融合的直線提取算法[J].紅外與激光工程,2006,35(sup4):13-18.)

        [16] WANG Zhiheng,WU Fuchao.Mean Standard Deviation Descriptor and Line Matching[J].Pattern Recognition and Artificial Intelligence,2009,22(1):32-39.(王志衡,吳福朝.均值—標(biāo)準(zhǔn)差描述子與直線匹配[J].模式識(shí)別與人工智能,2009,22(1):32-39.)

        [17] WANG Zhiheng,WU Fuchao,HU Zhanyi.MSLD:A Robust Descriptor for Line Matching[J].Pattern Recognition,2009,42(5):941-953.

        [18] SCHMID C,ZISSERMAN A.Automatic Line Matching Across Views[C]∥ Proceedings of the Conference on Computer Vision and Pattern Recognition.Puerto Rico:[s.n.],1997:666-671.

        [19] LI Cailin,GUO Baoyun,LI Chang.The High-accurate Extraction of Line Features of Object Contour[J].Acta Geodaetica et Cartographica Sinica,2011,40(1):66-70.(李彩林,郭寶云,李暢.目標(biāo)輪廓直線特征的高精度提?。跩].測(cè)繪學(xué)報(bào),2011,40(1):66-70.)

        [20] ACKERMANN F.High Precision Digital Image Correlation[D].Stuttgart:University of Stuttgart,1983:231-243.

        [21] GRUEN A.A Daptive Least Square Correlation:A Powerful Image Matching Technique[J].South African Journal of Photogrammetry and Remote Sensing,1985,14(3):175-187.

        [22] Subject Group of Survey Adjustment School of Geodesy and Geomatics Wuhan University.Error Theory and Surveying Adjustment Foundation[M].Wuhan:Wuhan University Press,2003.(武漢大學(xué)測(cè)繪學(xué)院測(cè)量平差學(xué)科組.誤差理論與測(cè)量平差基礎(chǔ)[M].武漢:武漢大學(xué)出版社,2003.)

        [23] XIE Wenhan.Camera Calibration Based on Vanishing Points of Multi-image[D].Wuhan:Wuhan University,2004.(謝文寒.基于多像滅點(diǎn)進(jìn)行相機(jī)標(biāo)定的方法研究[D].武漢:武漢大學(xué),2004.)

        [24] ZHANG Yongjun,WANG Cheng,ZHANG Zuxun,et al.Object Space-Based Matching and Reconstruction of Circles[J].Chinese Journal of Mechanical Engineering,2004,40(2):92-95.(張永軍,王乘,張祖勛,等?;谖锓街苯咏獾膱A匹配與重建[J].機(jī)械工程學(xué)報(bào),2004,40(2):92-95.)

        猜你喜歡
        編組線段邊緣
        畫出線段圖來比較
        基于靈活編組的互聯(lián)互通車載電子地圖設(shè)計(jì)及動(dòng)態(tài)加載
        怎樣畫線段圖
        我們一起數(shù)線段
        數(shù)線段
        一張圖看懂邊緣計(jì)算
        表觀對(duì)稱的輪廓編組算法
        集中管理模式下編組場(chǎng)無線通信方案的選擇
        重慶軌道2號(hào)線將換成6輛編組
        在邊緣尋找自我
        雕塑(1999年2期)1999-06-28 05:01:42
        亚洲精品视频一区二区三区四区| 亚洲伊人色欲综合网| 精品久久久久久亚洲综合网| 色欲av永久无码精品无码蜜桃| 国产肉体xxxx裸体137大胆| 亚洲av伊人久久综合密臀性色| 亚洲男人天堂av在线| 无码8090精品久久一区| 一区二区三区岛国av毛片| 国产护士一区二区三区| 在线观看中文字幕二区| 国产色欲av一区二区三区| 少妇激情一区二区三区视频| 天天看片视频免费观看| 五月天无码| 精品人妻一区二区三区不卡毛片| 青青草亚洲视频社区在线播放观看| 亚洲国产精品日本无码网站| av中文字幕潮喷人妻系列| 欧美日韩视频无码一区二区三| 精品国产一区二区三区亚洲人| 超高清丝袜美腿视频在线| 亚洲av日韩综合一区尤物| 久久亚洲av无码精品色午夜 | 欧美成人免费看片一区| 久久精品中文字幕免费| 高潮av一区二区三区| 精品国产一区二区三区三| 人妻 色综合网站| 毛片毛片免费看| 中文字幕成人精品久久不卡| 亚洲女同性恋第二区av| 亚洲乱码国产乱码精华| 午夜无码国产理论在线| 婷婷激情六月| 亚洲中文字幕亚洲中文| 91九色国产老熟女视频| 日韩av无码久久一区二区| 久久精品免视看国产成人| 思思久久96热在精品不卡| 国产激情小视频在线观看的|