亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于雙目會(huì)聚型立體攝像機(jī)的目標(biāo)深度測(cè)量

        2015-04-06 02:08:06宋曉煒吳源昭楊滿意劉洲峰
        激光與紅外 2015年7期
        關(guān)鍵詞:雙目攝像機(jī)立體

        宋曉煒,楊 蕾,吳源昭,楊滿意,劉洲峰

        (中原工學(xué)院電子信息學(xué)院,河南 鄭州 451191)

        ·光電技術(shù)與系統(tǒng)·

        基于雙目會(huì)聚型立體攝像機(jī)的目標(biāo)深度測(cè)量

        宋曉煒,楊 蕾,吳源昭,楊滿意,劉洲峰

        (中原工學(xué)院電子信息學(xué)院,河南 鄭州 451191)

        目標(biāo)物體的三維測(cè)量是雙目立體視覺的一項(xiàng)重要任務(wù)。基于視差的平行攝像機(jī)模型是最常見的用于三維重建的雙目攝像機(jī)模型。一般雙目立體攝像機(jī)不是嚴(yán)格平行的,所以采用上述方式進(jìn)行三維重建時(shí)需要進(jìn)行極線校正。提出了一種新的用于三維測(cè)量的雙目攝像機(jī)模型,該模型針對(duì)一般常見的非平行的會(huì)聚立體攝像機(jī)模型。采用該模型進(jìn)行目標(biāo)物體的三維測(cè)距時(shí),根據(jù)攝像機(jī)標(biāo)定得到的相對(duì)外參,即可快速得到目標(biāo)物體的深度信息。同時(shí),本文從分辨率的角度對(duì)提出的深度測(cè)量方法進(jìn)行了精度分析。實(shí)驗(yàn)結(jié)果驗(yàn)證了提出方法的有效性和可靠性。

        雙目會(huì)聚;立體攝像機(jī);三維重建;相對(duì)外參;目標(biāo)深度測(cè)量

        1 引 言

        當(dāng)前基于單目視覺進(jìn)行目標(biāo)深度測(cè)量面臨多幀圖像的角點(diǎn)檢測(cè)、特征提取、模型訓(xùn)練等問題[1-2],其處理速度受到較大影響,而利用雙目立體圖像來實(shí)現(xiàn)場(chǎng)景深度信息計(jì)算的相關(guān)技術(shù)日趨成熟[3]。雙目立體視覺是基于視差原理,由兩幅圖像獲取目標(biāo)物體三維幾何信息的方法。在一般的雙目立體視覺系統(tǒng)中,由雙攝像機(jī)從不同角度同時(shí)獲取目標(biāo)景物的兩幅圖像,并基于如圖1所示的雙目平行攝像機(jī)視差原理測(cè)量出目標(biāo)物體的三維距離信息[4],得到目標(biāo)的世界坐標(biāo)。

        圖1中的三維模型是基于兩個(gè)光軸平行的攝像機(jī),而用于雙目視覺及立體視頻拍攝的多數(shù)立體攝像機(jī)都是兩個(gè)光軸會(huì)聚型的攝像機(jī)[5-6]。即使有些場(chǎng)合用到光軸平行的雙目立體攝像機(jī),也無法在現(xiàn)實(shí)中保證左右攝像機(jī)的光軸嚴(yán)格平行。因此,基于以上原因,若采用圖1的模型進(jìn)行三維目標(biāo)測(cè)距就必須先對(duì)雙目攝像機(jī)進(jìn)行極線校正[7],將雙目攝像機(jī)獲取的左右圖像由會(huì)聚型和非嚴(yán)格平行型校正為嚴(yán)格平行型。傳統(tǒng)三維重建模型的使用離不開極線校正,其有以下兩點(diǎn)不足:首先,攝像機(jī)的標(biāo)定和左右圖像的立體匹配是三維重建中的兩個(gè)必要步驟,而極線校正是在上述兩步之間進(jìn)行的,這樣就增加了三維重建的運(yùn)算步驟,增大了運(yùn)算量。其次,極線校正是對(duì)立體圖像對(duì)進(jìn)行幾何變換,其在一定程度上改變了立體攝像機(jī)獲取的原始圖像信息。

        圖1 平行攝像機(jī)的三維模型

        基于上述原因,提出了一種新的用于三維目標(biāo)深度測(cè)量的雙目攝像機(jī)模型,該模型針對(duì)一般非平行的會(huì)聚立體攝像機(jī)模型。采用該模型進(jìn)行目標(biāo)的三維測(cè)距時(shí),根據(jù)攝像機(jī)標(biāo)定得到的相對(duì)外參,即可快速得到目標(biāo)物體的世界坐標(biāo),不用進(jìn)行極線校正。

        2 相對(duì)外參和會(huì)聚點(diǎn)

        如圖2所示,對(duì)于一個(gè)雙目立體攝像機(jī)系統(tǒng),可以用相對(duì)外參表示右攝像機(jī)坐標(biāo)系(CCS)相對(duì)于左CCS的空間位姿,相對(duì)外參由旋轉(zhuǎn)和平移兩個(gè)變換構(gòu)成。通常,平移由一個(gè)三參量的平移向量T表示,旋轉(zhuǎn)由一個(gè)三維旋轉(zhuǎn)矩陣R表示或者由一個(gè)三參量的旋轉(zhuǎn)向量V表示。通過引用Rodrigues旋轉(zhuǎn)公式[8]可實(shí)現(xiàn)R和V之間的自由轉(zhuǎn)換。本文規(guī)定平移向量和旋轉(zhuǎn)向量為:

        (1)

        我們已在前期工作[9]中提出了一種雙目立體攝像機(jī)的會(huì)聚點(diǎn)定位方法。其中,會(huì)聚點(diǎn)的空間位置信息可由左右攝像機(jī)之間的相對(duì)外參進(jìn)一步計(jì)算得到。也就是說,由基線長度B和光軸夾角ε可以計(jì)算出會(huì)聚點(diǎn)到基線之間的距離,其中基線長度B和夾角ε可由公式(2)得到:

        圖2 相對(duì)外參及雙目立體攝像機(jī)的會(huì)聚點(diǎn)

        (2)

        3 基于變換相對(duì)外參的深度測(cè)量模型

        3.1 目標(biāo)夾角

        本文提出的是一種新的不用進(jìn)行極線校正的目標(biāo)點(diǎn)三維測(cè)量方法。由前述可知:會(huì)聚點(diǎn)到基線的距離可以由基線的長度B和光軸夾角ε計(jì)算得到。同樣,目標(biāo)物體的深度信息也可以用基線長度和變換后的角度計(jì)算得到,這里將變換后的夾角稱之為目標(biāo)夾角(圖3中角c)。圖3中,會(huì)聚立體攝像機(jī)光軸將光軸平面上的空間分為4個(gè)區(qū)域,下面將以一個(gè)位于區(qū)域1的目標(biāo)物體為例,說明如何得到目標(biāo)夾角。

        圖3 目標(biāo)夾角的變換模型

        如圖3所示,目標(biāo)物體上的同一特征點(diǎn)在左、右攝像機(jī)內(nèi)的映射點(diǎn)分別稱為左對(duì)應(yīng)點(diǎn)(LCP)和右對(duì)應(yīng)點(diǎn)(RCP)。左、右攝像機(jī)光軸與圖像平面的交點(diǎn)分別稱為左主點(diǎn)(LPP)和右主點(diǎn)(RPP)。在左右圖像中,對(duì)應(yīng)點(diǎn)與主點(diǎn)在u方向上的像素差值為a′ 和b′,并規(guī)定:當(dāng)對(duì)應(yīng)點(diǎn)位于主點(diǎn)左邊時(shí),差值小于0;當(dāng)對(duì)應(yīng)點(diǎn)位于主點(diǎn)右邊時(shí),差值大于0。而當(dāng)目標(biāo)點(diǎn)位于區(qū)域1時(shí),a′ 和b′都小于0。因?yàn)槊織l光軸都垂直于各自的圖像平面,并將從光心到目標(biāo)點(diǎn)的直線稱為目標(biāo)點(diǎn)的對(duì)應(yīng)軸,所以光軸與目標(biāo)點(diǎn)的對(duì)應(yīng)軸之間的夾角a、b可由下式得到:

        (3)

        式中,fl和fr為以像素為單位的左右攝像機(jī)焦距[4]。如圖3所示,可以得到位于區(qū)域1中目標(biāo)點(diǎn)的目標(biāo)夾角c:

        (4)

        類似地,對(duì)于圖3中的另外三個(gè)區(qū)域:區(qū)域2(a<0,b>0 & >0)、區(qū)域3(a>0,b>0 &ε>0)以及區(qū)域4(a>0,b<0 &ε>0),同樣也可以推導(dǎo)出目標(biāo)點(diǎn)的目標(biāo)夾角為:c=ε-b+a。

        3.2 基于變換外參的目標(biāo)點(diǎn)測(cè)量模型

        下面介紹所提出的基于變換外參的目標(biāo)點(diǎn)三維測(cè)量方法。圖4示出了會(huì)聚型雙目立體攝像機(jī)在光軸平面上的一般模型。左右CCS的Z軸方向與各自光軸方向重合,并設(shè)世界坐標(biāo)系與左CCS重合。類似公式(1),左右CCS之間的相對(duì)外參為:

        (5)

        式中,平移向量的具體含義為:右CCS原點(diǎn)在左CCS內(nèi)的坐標(biāo);式(5)中的旋轉(zhuǎn)向量的具體含義為:該旋轉(zhuǎn)由3個(gè)旋轉(zhuǎn)角度來定義,其中α、β、γ分別為x、y、z軸各自軸向角的旋轉(zhuǎn)角度并符合右手定則[10-11],當(dāng)右CCS中的每一條坐標(biāo)軸按照各自軸向角的方向旋轉(zhuǎn)之后將與左CCS姿態(tài)相同。因此,光軸夾角ε與β相同[9,12]。

        如圖4所示,待測(cè)目標(biāo)點(diǎn)P位于區(qū)域1,該點(diǎn)的世界坐標(biāo)為(x,y,z),則:

        圖4 基于變換外參的深度計(jì)算模型

        (6)

        圖4三角形PAR中,角a在區(qū)域1內(nèi)為負(fù)值,有:

        (7)

        聯(lián)立式(4)、(6)和(7),可得到區(qū)域1內(nèi)的目標(biāo)點(diǎn)的深度計(jì)算公式為:

        (8)

        同理可證明式(8)對(duì)于位于區(qū)域2至區(qū)域4中的目標(biāo)點(diǎn)的深度計(jì)算同樣有效。

        由式(6)和(8)可得到世界坐標(biāo)中的X和Z的值,目標(biāo)點(diǎn)的世界坐標(biāo)中Y坐標(biāo)值的計(jì)算方法如圖5所示。在左圖像坐標(biāo)系中,LCP與LPP在v方向上的像素差值為v′,當(dāng)對(duì)應(yīng)點(diǎn)位于主點(diǎn)下方時(shí),v′大于0。

        (9)

        圖5 目標(biāo)點(diǎn)的Y坐標(biāo)值計(jì)算模型

        綜上可得,基于會(huì)聚型立體攝像機(jī)的目標(biāo)點(diǎn)坐標(biāo)測(cè)量計(jì)算公式為:

        (10)

        4 實(shí) 驗(yàn)

        本文中的實(shí)驗(yàn)主要分為兩個(gè)部分:首先在3ds Max三維虛擬場(chǎng)景和真實(shí)拍攝場(chǎng)景驗(yàn)證所提出的目標(biāo)點(diǎn)深度測(cè)量方法的正確性和有效性。最后分析攝像機(jī)分辨率對(duì)目標(biāo)點(diǎn)深度值測(cè)量精度(本文簡(jiǎn)稱為深度分辨率)的影響。所有實(shí)驗(yàn)中的標(biāo)定過程均采用了由Jean-Yves Bouguet提供的雙目立體攝像機(jī)標(biāo)定工具箱[13]。

        4.1 基于3ds Max的驗(yàn)證實(shí)驗(yàn)

        攝像機(jī)的標(biāo)定對(duì)于雙目立體視覺系統(tǒng)有著重要的意義,其主要為了獲取實(shí)際中攝像機(jī)本身參數(shù)及姿態(tài)等信息。目前攝像機(jī)標(biāo)定的方法多種多樣,并且標(biāo)定的精度已達(dá)到了較高的水平,這為我們利用現(xiàn)有的標(biāo)定技術(shù)獲得立體攝像機(jī)相對(duì)外參的精確近似值提供了途徑[14]。這里,首先利用3ds Max建模軟件建立了虛擬的雙目立體攝像機(jī)系統(tǒng),然后在該仿真平臺(tái)下驗(yàn)證方法的正確性。先采用虛擬的仿真平臺(tái)是因?yàn)檫@樣可以避免一些實(shí)際因素的誤差影響,在理想模型下以較高精度驗(yàn)證所提出的方法。

        虛擬的雙目立體攝像機(jī)實(shí)驗(yàn)平臺(tái)如圖6所示,在攝像機(jī)前方設(shè)置4個(gè)不同深度的平面,該實(shí)驗(yàn)中的長度和角度單位分別為毫米(mm)和弧度(rad)。如圖4所示,首先將虛擬的立體攝像機(jī)系統(tǒng)中的世界坐標(biāo)系設(shè)為與左CCS重合。在世界坐標(biāo)系中,右CCS的原點(diǎn)坐標(biāo)為(20,0,0),會(huì)聚點(diǎn)的坐標(biāo)為(0,0,200)。則可以得到左右攝像機(jī)坐標(biāo)系之間的相對(duì)外參為:平移向量T為(20,0,0),旋轉(zhuǎn)向量V為(0,0.09967,0)。

        圖6 基于3ds Max的虛擬實(shí)驗(yàn)環(huán)境

        然后,對(duì)3ds Max中的虛擬攝像機(jī)進(jìn)行標(biāo)定,得到左右攝像機(jī)的焦距fl和fr都為995個(gè)像素寬度。左右攝像機(jī)拍攝到的圖像如圖7所示。左右圖像的分辨率為1024×768,各自的主點(diǎn)坐標(biāo)均為(511.5,383.5)。實(shí)驗(yàn)結(jié)果如表1所示,可以看出:與虛擬目標(biāo)點(diǎn)的坐標(biāo)真值相比,本文提出的深度測(cè)量方法是正確的。

        圖7 虛擬立體攝像機(jī)拍攝的左右圖像

        表1 基于3ds Max的驗(yàn)證實(shí)驗(yàn)結(jié)果

        4.2 真實(shí)目標(biāo)深度測(cè)量實(shí)驗(yàn)

        本文將所提出的目標(biāo)深度測(cè)量方法進(jìn)一步用于實(shí)際的雙目立體攝像機(jī),并與深度攝像機(jī)Kinect進(jìn)行了對(duì)比。實(shí)驗(yàn)平臺(tái)如圖8所示。

        圖8 雙目立體攝像機(jī)實(shí)驗(yàn)平臺(tái)

        雙目立體攝像機(jī)由安裝在雙視點(diǎn)云臺(tái)上的兩臺(tái)flea2工業(yè)攝像機(jī)[15]構(gòu)成。將Kinect放置在左攝像機(jī)上方,使Kinect深度鏡頭與左攝像機(jī)鏡頭光心縱切面近似位于同一平面。由式(6)和式(9)可知,目標(biāo)點(diǎn)的測(cè)量關(guān)鍵在于目標(biāo)點(diǎn)的深度值Z的確定,所以我們的實(shí)驗(yàn)以目標(biāo)點(diǎn)深度值的測(cè)量作為重點(diǎn),說明本文提出方法的有效性。

        首先將五個(gè)玩偶放置在立體攝像機(jī)前方,作為待測(cè)目標(biāo),采集到的圖像如圖9所示。

        圖9 采集到的左右圖像

        然后,通過攝像機(jī)的標(biāo)定獲取雙目攝像機(jī)的內(nèi)參和相對(duì)外參,得到的相關(guān)參數(shù)如表2所示。

        表2 雙目立體攝像機(jī)標(biāo)定參數(shù)

        我們分別對(duì)五個(gè)玩偶目標(biāo)進(jìn)行深度距離測(cè)量,采用了SNDWAY激光測(cè)距儀來獲取每個(gè)目標(biāo)的深度真值,并將本文方法的實(shí)驗(yàn)結(jié)果與Kinect方法的深度測(cè)量值進(jìn)行了對(duì)比,總體實(shí)驗(yàn)結(jié)果如表3所示。

        表3 不同深度測(cè)量方法的對(duì)比

        兩種方法的深度測(cè)量值的對(duì)比和測(cè)量誤差的對(duì)比如圖10所示。

        圖10 兩種方法的對(duì)比曲線

        從該實(shí)驗(yàn)的對(duì)比結(jié)果可以看出:1)本文提出的深度測(cè)量方法是有效的;2)在目標(biāo)深度距離為1 m到2 m時(shí),所提出的方法比Kinect具有更高的精度;3)當(dāng)目標(biāo)深度超過4 m時(shí),Kinect無法測(cè)出目標(biāo)的深度信息;雖然有一定的誤差,但本文提出的方法仍可測(cè)出目標(biāo)深度值,誤差主要是由有限的圖像分辨率等因素造成的。

        4.3 圖像分辨率對(duì)深度測(cè)量精度的影響

        二維平面圖像的最小單位是像素,對(duì)于同一拍攝場(chǎng)景,攝像機(jī)獲得圖像的分辨率越高,則對(duì)場(chǎng)景的表達(dá)也就越細(xì)膩,但同時(shí)所包含的像素個(gè)數(shù)也就越多。雙目視覺對(duì)目標(biāo)的深度測(cè)量同樣是基于圖像像素的,可以預(yù)見:對(duì)于同一場(chǎng)景,雙目攝像機(jī)的分辨率越高,則對(duì)場(chǎng)景內(nèi)目標(biāo)點(diǎn)的深度識(shí)別能力也就越強(qiáng)。不僅如此,對(duì)于場(chǎng)景內(nèi)不同深度的目標(biāo)點(diǎn),雙目立體視覺對(duì)各個(gè)目標(biāo)點(diǎn)的深度分辨能力也不同,即存在同樣一個(gè)圖像分辨率中的一個(gè)像素,其對(duì)深度值分辨能力是變化的,本文將這種分辨能力稱為像素的深度分辨率。下面基于4.2節(jié)實(shí)驗(yàn)中的數(shù)據(jù)來討論深度分辨率的變化規(guī)律。

        4.2節(jié)實(shí)驗(yàn)中玩偶1的目標(biāo)點(diǎn)在左右圖像中的對(duì)應(yīng)點(diǎn)為(311,627)和(204,610),這里設(shè)置左對(duì)應(yīng)點(diǎn)不變,右對(duì)應(yīng)點(diǎn)變?yōu)?205,610)即右對(duì)應(yīng)點(diǎn)向右偏移一個(gè)像素單位,然后重新計(jì)算新對(duì)應(yīng)點(diǎn)的深度值,并求出新深度值與原深度值之間的差值。差值即為雙目攝像機(jī)對(duì)玩偶1的目標(biāo)點(diǎn)所處空間位置的深度分辨率。

        對(duì)4.2節(jié)實(shí)驗(yàn)中五個(gè)目標(biāo)點(diǎn)進(jìn)行類似實(shí)驗(yàn)可得出五個(gè)不同的深度分辨率。計(jì)算結(jié)果如表4所示,深度分辨率變化曲線如圖11所示。

        圖11 深度分辨率變化曲線

        從表4和圖11可知:隨著深度的增加,雙目攝像機(jī)的一個(gè)像素的深度分辨率增大,其分辨精度下降,目標(biāo)越遠(yuǎn)則誤差也越大。因此,對(duì)于這種因有限的圖像分辨率引起的誤差,可采用更大的圖像分辨率或采用像素插值等亞像素技術(shù)來改善重建精度。

        5 結(jié) 論

        基于雙目攝像機(jī)模型提出了一種新的用于三維重建的目標(biāo)深度測(cè)量方法,該方法適用于常見非平行的會(huì)聚立體攝像機(jī)模型。采用該模型進(jìn)行目標(biāo)物體的三維測(cè)量時(shí),根據(jù)攝像機(jī)標(biāo)定得到的相對(duì)外參,即可快速得到目標(biāo)物體的世界坐標(biāo)及深度值。實(shí)驗(yàn)結(jié)果證明了所提出方法的有效性和可靠性,并且從攝像機(jī)圖像分辨率的角度討論了其對(duì)深度測(cè)量精度的影響。在真實(shí)場(chǎng)景下采用本文方法進(jìn)行目標(biāo)點(diǎn)三維測(cè)量時(shí),可以考慮盡量增大圖像分辨率,提高目標(biāo)點(diǎn)測(cè)量精度以及三維重建的準(zhǔn)確性。

        表4 深度分辨率對(duì)比

        [1] ZHANG Yuedong,LI Li,LIU Xiaobo,et al.Obstacle detection for unmanned aerial vehicle based on monocular vision[J].Laser & Infrared,2009,39(6):673-676.(in Chinese) 張躍東,李麗,劉曉波,等.基于單目視覺的無人機(jī)障礙探測(cè)算法研究[J].激光與紅外,2009,39(6):673-676.

        [2] XI Lin,SUN Shaoyuan,LI Linna,et al.Depth estimation from monocular infrared images based on SVM model[J].Laser & Infrared,2012,42(11):1311-1315.(in Chinese) 席林,孫韶媛,李琳娜,等.基于SVM模型的單目紅外圖像深度估計(jì)[J].激光與紅外,2012,42(11):1311-1315.

        [3] SHAN Jie,TANG Yao,JIANG Hui.Real-time matching algorithm in binocular stereo camera and its implementation with FPGA[J].Laser & Infrared,2013,43(12):1406-1410.(in Chinese) 單潔,唐垚,姜暉.雙目立體相機(jī)中實(shí)時(shí)匹配算法的FPGA實(shí)現(xiàn)[J].激光與紅外,2013,43(12):1406-1410.

        [4] Steger C,Ulrich M,Wiedemann C.Machine vision algorithms and applications[M].Weinheim:Wiley-VCH,2008.

        [5] Song X,Yang L Liu Z.An Improved two-view convergent-style-based disparity estimation algorithm[C].International Conference on Audio,Language and Image Processing,2012:698-704.

        [6] Eslami M,Rzasa J,Davis C C.A stereo PTZ tracking and surveillance system with two dynamic cameras operating in a master-slave relationship[C].Proc.SPIE,2012,8517:851704.

        [7] Bradski G,Kaehler A.Learning OpenCV:computer vision with the OpenCV library[M].Sebastopol:O’Reilly Media,2008.

        [8] Lorenzo Solrgi.Two-view geometry estimation using the rodrigues rotation formula[C].18th IEEE International Conference on Image Processing (ICIP),2011:1009-1012.

        [9] Song X,Yang L,Wu Y.Convergent point positioning methods for dual-view stereo camera[C].Proc.SPIE,2013,8878:88780K.

        [10]Lee J.Representing rotations and orientations in geometric computing[J].IEEE Computer Graphics and Applications,2008,28(2):75-83.

        [11]Taubin G.3D rotations[J].IEEE Computer Graphics and Applications,2011,31(6):84-89.

        [12]Song X,Wu Y,Yang L.Object position measuring based on adjustable dual-view camera[C].The 2nd International Workshop on Emerging Multimedia Systems and Applications,(In conjunction with ICME 2013),2013.

        [13]Bouguet J Y.Camera calibration toolbox for matlab[DB/OL].(2013-12-2)[2013-12-28].http://www.vision.caltech.edu/bouguetj/calib_doc/index.html.

        [14]Zhang Z.A flexible new technique for camera calibration[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1330-1334.

        [15]Point Grey Research,Inc[EB/OL].[2013-12-28].http://www.ptgrey.com/products/flea2/flea2_firewire_camera.asp.

        Object depth measurement based on convergent binocular stereo camera

        SONG Xiao-wei,YANG Lei,WU Yuan-zhao,YANG Man-yi,LIU Zhou-feng

        (School of Electronic and Information Engineering,Zhongyuan University of Technology,Zhengzhou 451191,China)

        The object 3D measurement is an important task of the binocular stereo vision.The parallel binocular stereo camera model based on disparity is the most general 3D reconstruction model.Actually,the regular binocular stereo camera is not strictly parallel.Therefore,it is required to carry on a correction based on the epipolar geometry.A new model of the binocular stereo camera for 3D measurement was presented,and the model is suitable for the non-parallel convergent stereo camera.The depth information of the object can be rapidly obtained by the proposed method based on the relative extrinsic parameters from the stereo camera calibration.Furthermore,the accuracy analysis of the proposed depth measurement method from the resolution was discussed.The validity and the reliability are verified by the experimental results.

        binocular convergence;stereo camera;three-dimensional reconstruction model;relative extrinsic parameters;object depth measurement

        國家自然科學(xué)基金(No.60902063,No.61379113,No.61440031);河南省基礎(chǔ)與前沿技術(shù)研究計(jì)劃項(xiàng)目(No.092300410175);河南省國際科技合作項(xiàng)目(No.144300510062);河南省科技創(chuàng)新人才計(jì)劃杰出青年項(xiàng)目(No.124100510015)資助。

        宋曉煒(1978-),男,副教授,博士,主要研究方向?yàn)榱Ⅲw圖像,視頻處理。E-mail:sxw-tju@163.com

        2015-01-18;

        2015-02-09

        1001-5078(2015)07-0844-06

        TN911.74

        A

        10.3969/j.issn.1001-5078.2015.07.024

        猜你喜歡
        雙目攝像機(jī)立體
        念個(gè)立體咒
        基于雙目測(cè)距的卡爾曼濾波船舶軌跡跟蹤
        電子制作(2019年20期)2019-12-04 03:51:38
        立體登陸
        看監(jiān)控?cái)z像機(jī)的4K之道
        攝像機(jī)低照成像的前世今生
        新安訊士Q6155-E PTZ攝像機(jī)
        炫酷立體卡
        基于雙目視覺圖像的長度測(cè)量方法
        如何消除和緩解“攝像機(jī)恐懼癥”
        新聞前哨(2015年2期)2015-03-11 19:29:25
        基于雙目視覺的接觸線幾何參數(shù)測(cè)量方法
        日韩女优图播一区二区| 国产精品无套内射迪丽热巴| 国产91吞精一区二区三区| 高跟丝袜一区二区三区| 日本国产精品高清在线| 国产亚洲成人精品久久| 国产精久久一区二区三区| 大陆极品少妇内射aaaaa| 中文字幕巨乱亚洲| 亚洲av永久综合网站美女| 精品人妻69一区二区三区蜜桃| 大地资源高清在线视频播放 | 天堂av在线一区二区| 美女免费观看一区二区三区| 亚洲av一二三区成人影片| 成人免费看www网址入口| 极品 在线 视频 大陆 国产| 亚洲精品一区二区三区国产 | 免费福利视频二区三区| 在线人妻va中文字幕| 日韩欧美亚洲国产精品字幕久久久| 在线不卡av片免费观看| 国产综合精品久久亚洲| 国产猛男猛女超爽免费av| 日本免费在线一区二区三区| 久久国产免费观看精品3| 久久日本三级韩国三级| 国产成人久久精品流白浆| 亚洲天码一区二区三区| 亚洲午夜av久久久精品影院色戒| 情侣黄网站免费看| 国产午夜激情视频自拍| 日韩人妻大奶子生活片| 色翁荡熄又大又硬又粗又动态图| 久久成人国产精品| 久久久久亚洲AV无码专区喷| 日本一区二区高清视频在线 | 四川老熟妇乱子xx性bbw| 亚洲熟妇大图综合色区| 午夜视频一区二区在线观看| 老太婆性杂交视频|