亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種用于機器人抓取的單目實時三維重建系統(tǒng)

        2021-09-23 10:52:46吉白冰曹其新
        機械設(shè)計與制造 2021年9期
        關(guān)鍵詞:深度圖單目雙目

        吉白冰,曹其新

        (上海交通大學(xué)機械與動力工程學(xué)院,上海200240)

        1 引言

        三維重建系統(tǒng)在機器人、生物醫(yī)學(xué)工程、建筑測繪等領(lǐng)域均有廣泛的應(yīng)用。在機器人領(lǐng)域當(dāng)中,三維重建主要有兩類應(yīng)用,一類是移動機器人的定位導(dǎo)航地圖構(gòu)建,另一類是機器人的抓取任務(wù)中,待抓取物體的三維模型構(gòu)建。在機器人抓取任務(wù)中,無論是傳統(tǒng)的PPF方法[2]還是基于深度學(xué)習(xí)的物體姿態(tài)估計方法[3]都將待抓取物體的三維模型作為已知信息。目前基于結(jié)構(gòu)光原理[4-5]的三維掃描儀雖然可以重建較高精度的物體模型,但此類三維掃描儀價格昂貴且操作繁瑣,在家庭環(huán)境中難以被普通用戶接受和使用。視覺傳感器成本低且通用性強的傳感器。目前已有應(yīng)用單目傳感器解決工業(yè)機器人識別問題的研究[9],基于視覺的三維重建系統(tǒng),對家用服務(wù)機器人抓取任務(wù)也有很大意義。

        針對基于視覺傳感器的三維重建問題,文獻(xiàn)[10]提出了一種基于運動恢復(fù)的雙目視覺三維重建系統(tǒng),將原有拋物線擬合的方法加入到三維重建系統(tǒng),提高了三維重建系統(tǒng)精度。但并未考慮到雙目圖像錯誤立體匹配產(chǎn)生的三維結(jié)構(gòu),重建結(jié)果中噪點較多,因此上述方法僅在形狀規(guī)則的物體中取得較好的效果。面向家庭環(huán)境的機器人視覺抓取的三維重建系統(tǒng)具有以下幾個特點:一是涉及到的場景較小,一般為桌面上玩偶、書本等物體,太大或太小的物體都難于使用抓手抓?。欢侵亟ㄊ褂玫挠布腿S重建軟件系統(tǒng)需簡單易用,方便家庭用戶的使用;三是對精度與實時性有一定要求。

        針對上述特點,提出了一種應(yīng)用于家庭環(huán)境中機器人抓取任務(wù)的單目三維重建系統(tǒng),可以基于目前消費電子產(chǎn)品中主流的單目視覺傳感器實時運行,降低了傳統(tǒng)三維重建系統(tǒng)對傳感器的要求。同時,在傳統(tǒng)單目三維重建系統(tǒng)上增加了基于連通區(qū)域濾波器等后處理模塊,用于消除立體匹配中錯誤恢復(fù)的三維結(jié)構(gòu),保證重建效果和精度。此外,算法基于GPU并行處理技術(shù)[11]設(shè)計和實現(xiàn),加速立體匹配過程,確保三維重建系統(tǒng)實時性。

        2 單目三維重建系統(tǒng)算法框架

        雙目三維重建系統(tǒng)建立在的理想雙目相機成像模型下,即左右兩個相機位于同一平面(光軸平行),且相機固有參數(shù)(如內(nèi)參矩陣K)一致。可推出如下公式,如圖1所示。

        圖1 理想雙目模型Fig.1 Ideal Stereo Model

        式中:x2-x1—視差,b—相機左右目的光心O1和O2間的距離,p1—空間點P在左相機成像的像素,p2—空間點P在左相機成像的像素??臻g點P的深度Z與視差成反比,即深度圖的計算與視差圖的計算具有反比對應(yīng)關(guān)系。

        對于圍繞物體運動并采集圖像的單目相機而言,雖然缺少物理意義上的雙目結(jié)構(gòu),但可以組合當(dāng)前相機所拍攝圖像與歷史某時刻相機所拍攝的圖像組成從運動中構(gòu)造雙目(motion stereo)。如圖2所示,公式(1)在從運動中構(gòu)成雙目的相機配置下不再成立,且從運動中構(gòu)造雙目的相機相對位置關(guān)系未知且并不固定。因此不能簡單應(yīng)用雙目三維重建方法解決單目三維重建問題。

        圖2 從運動中構(gòu)造雙目的雙目相機位置關(guān)系Fig.2 Motion from Stereo

        針對單目三維重建問題的上述特點,提出了的三維重建系統(tǒng)算法框架。在單目三維重建系統(tǒng)中,首先根據(jù)SFM算法[7-8]恢復(fù)不同時刻相機間的相對運動關(guān)系,根據(jù)幾何關(guān)系選擇相機當(dāng)前幀和過去某一幀組成虛擬雙目。根據(jù)虛擬雙目間的幾何關(guān)系和圖像像素相似性,計算當(dāng)前幀視場內(nèi)的場景點云。經(jīng)過坐標(biāo)系變換將不同時刻相機幀重建點云拼接為完整的物體模型。系統(tǒng)基于SFM算法恢復(fù)相機運動,后應(yīng)用TSDF方法[6]完成坐標(biāo)系對齊功能。上述方法已有成熟的研究結(jié)果,因此不再贅述相應(yīng)原理。下文中將詳細(xì)說明基于虛擬雙目構(gòu)造、立體匹配及后處理過程,如圖3所示。

        圖3 算法流程圖Fig.3 Flow Chart of Proposed Algorithm

        3 單目三維重建系統(tǒng)的三維結(jié)構(gòu)恢復(fù)

        在單目三維重建系統(tǒng)中,三維結(jié)構(gòu)恢復(fù)指根據(jù)從運動中構(gòu)造的雙目計算相機視場內(nèi)的場景三維結(jié)構(gòu)。下面將從虛擬雙目構(gòu)造,虛擬雙目立體匹配,后處理三個部分介紹基于單目相機的三維結(jié)構(gòu)恢復(fù)方法。

        3.1 虛擬雙目構(gòu)造

        基于SFM方法恢復(fù)的相機相對位置關(guān)系存在一定誤差,因此要保證最終場景三維結(jié)構(gòu)的準(zhǔn)確性,需要合理選擇歷史相機幀與當(dāng)前幀配對,使得誤差對深度圖質(zhì)量的影響較小。在配對選擇的過程中,歷史相機幀與當(dāng)前相機幀間要保持較大的重疊和相似的朝向,這樣深度圖可以覆蓋圖像的大部分范圍,同時兩個相機狀態(tài)間要有合理的基線,較長的基線會降低圖像的重疊度,減少深度圖的有效區(qū)域,較短的基線會導(dǎo)致深度圖易受到噪聲的干擾,降低深度估計的準(zhǔn)確性?;谏鲜龇治?,提出了如下評價函數(shù):

        3.2 虛擬雙目的立體匹配

        由章2所述,從運動中恢復(fù)雙目得到雙目圖像對基本不滿足理想雙目模型,因此其立體匹配過程分為如下幾步:

        像素匹配和匹配代價計算:首先基于先驗信息確定待計算深度圖的圖像所對應(yīng)場景的深度分布區(qū)間,在得到的分布區(qū)間內(nèi)確定N個深度假設(shè),每個深度假設(shè)對應(yīng)于一個代表深度值d的平面。為增強深度估計結(jié)果對于場景光照變化和圖像噪聲的魯棒性,在以像素p為中心的方形領(lǐng)域內(nèi)采樣計算代價函數(shù)C(p,d)。應(yīng)用ZNCC算子構(gòu)造像素對應(yīng)代價函數(shù)C(p,d)。

        式中:q—右圖像中與像素p對應(yīng)的像素,K—內(nèi)參矩陣,R—相機旋轉(zhuǎn)矩陣,t—相機平移向量,n—平面法向量。q代表像素p在由圖像上的投影,如圖4所示。

        圖4 像素點投影示意圖Fig.4 Illustration of Pixel Reprojection

        代價聚合與深度值求精:計算得到每個深度假設(shè)d所對應(yīng)的代價函數(shù)C(p,d)后,按WTA規(guī)則估計每個像素p所對應(yīng)的深度:

        為補償深度假設(shè)離散化造成的精度損失,采用拋物線擬合的方式獲取亞像素級深度估計精度。則拋物線函數(shù)極小值點對應(yīng)的深度值dmin滿足公式(5):

        式中:di—最小C(p,d)所對應(yīng)的深度假設(shè),di-1di+1—與di相鄰的深度假設(shè),Δd—深度假設(shè)間距。由于間中每個像素的深度估計過程具有獨立性,因此每個像素的深度估計過程可以并行進(jìn)行,得到初始深度圖。

        3.3 后處理

        立體匹配計算的深度圖中存在大量錯誤深度估計,使最終的三維模型產(chǎn)生大量噪點,降低三維模型質(zhì)量。為解決這一問題,提出了如下的后處理過程。

        左右一致性檢查:由于立體匹配過程具有計算對稱性,因此估計正確的深度應(yīng)滿足如下所示的重投影誤差公式:

        式中:Dc—當(dāng)前幀深度圖,Dk—歷史幀深度圖,δ—閾值,其余符號同公式(3)。

        獨特性比率濾波器:在被圖像噪聲干擾或相對運動關(guān)系的誤差而產(chǎn)生錯誤深度估計的區(qū)域,其最小代價函數(shù)與次小代價函數(shù)會比較接近。根據(jù)上述觀察,定義如下獨特性比率過濾噪聲。當(dāng)像素p的獨特性比率小于閾值時過濾對應(yīng)深度:

        式中:runiq(p)—p像素的獨特性比率,dsec—次小代價函數(shù)對應(yīng)的深度假設(shè),dmin—最小代價函數(shù)對應(yīng)的深度假設(shè)。rthres—獨特性比率的閾值。

        連通區(qū)域濾波器:真實場景中大部分區(qū)域在空間是連續(xù)的,因此體現(xiàn)在深度圖上相鄰區(qū)域的深度值也具有一定的連續(xù)性。錯誤匹配的深度值一般與其周邊區(qū)域的深度值相比具有較大的不連續(xù)性,且在深度圖中零散的分布與各個區(qū)域。根據(jù)如下公式判斷深度圖上某像素與相鄰區(qū)域在深度圖上的連續(xù)性關(guān)系。

        式中:d—某像素對應(yīng)深度,dr某像素領(lǐng)域的對應(yīng)深度,Δd—深度假設(shè)間距。應(yīng)用上述公式將深度圖的深度連續(xù)區(qū)域的劃分問題轉(zhuǎn)化為一個二值圖像連通區(qū)域標(biāo)記問題,使用兩步法將所有的深度圖連通區(qū)域分類并標(biāo)記。根據(jù)標(biāo)記的連通區(qū)域中像素的數(shù)量,將像素數(shù)量小于一定值的連通區(qū)域從原始深度圖中去除。經(jīng)過上述后處理后得到的深度圖經(jīng)過坐標(biāo)系對齊后得到最終的物體模型。

        4 實驗

        在家庭環(huán)境中常用且易于機器人抓取的三種物體上進(jìn)行了實驗。實驗圖像分辨率為640×480,程序運行于配備i7-4710MQ處理器和GTX880M顯卡的筆記本電腦上。以Realsense SR300傳感器測量的結(jié)果作為真值。

        對比了應(yīng)用后處理和不應(yīng)用后處理方法的重建結(jié)果。在實際環(huán)境中由于采集的圖像中圖像噪聲及場景光照變化,一些在理想條件下正確匹配的像素在噪聲干擾下匹配錯誤,進(jìn)而物體模型表面不完整且中存在大量噪點。通過節(jié)3.3介紹的后處理流程可以過濾單幀深度圖中的錯誤匹配結(jié)果。在基于運動的單目三維重建系統(tǒng)中,不同幀圖像恢復(fù)的三維結(jié)構(gòu)存在一定冗余,某一幀中被過濾的錯誤三維結(jié)構(gòu)會被其他幀中正確估計的三維結(jié)構(gòu)代替,因此后處理模塊不會對完整性造成影響,如圖5所示。

        圖5 實驗結(jié)果對比Fig.5 Comparison of Experiment Result

        基于結(jié)構(gòu)光傳感器的測量結(jié)果作為真值計算三維重建結(jié)果物體模型的精度。根據(jù)計算結(jié)果繪制了誤差色溫圖,誤差表示范圍從0%到100%,且色溫越冷代表誤差越小。上述三個實驗物體的模型與結(jié)構(gòu)光傳感器測量真值的中位數(shù)相對誤差(MAE)均在1.0%左右,從相對誤差色溫圖中也可以看出重建物體模型的大部分區(qū)域誤差非常小。對于長寬高在20cm范圍內(nèi)的家庭中常見物體而言,生成的模型可以滿足服務(wù)機器人構(gòu)建抓取物體數(shù)據(jù)庫的模型精度要求,如圖6所示。

        圖6 三種不同物體重建模型(上)與誤差色溫圖(下)Fig.6 Models of Three different objects 3D Reconstruction(Up)and Corresponding Error Color Map(Down)

        為驗證三維重建系統(tǒng)實時性,記錄了圖6中玩偶熊模型建模過程中每一幀的處理時間并繪制了的處理時間隨拍攝時間變化的曲線。幀平均處理時間為33.95ms,即29.45幀/秒的處理速度,滿足實時運行的要求,如圖7所示。

        圖7 三維重建系統(tǒng)單幀處理時間曲線圖Fig.7 Graph of Running Time of 3D Reconstruction

        5 結(jié)論

        介紹了一種基于運動恢復(fù)深度的單目實時三維重建系統(tǒng),針對運動中單目相機采集的圖像序列,提出了一種虛擬雙目相機的構(gòu)造準(zhǔn)則。并推導(dǎo)了虛擬雙目相機的立體匹配公式。針對實際場景中圖像噪聲對三維重建結(jié)果產(chǎn)生較大影響的問題,在傳統(tǒng)算法框架基礎(chǔ)上增加了后處理模塊。實驗結(jié)果表明應(yīng)用后處理模塊,取得了質(zhì)量更好的物體模型。針對三種不同物體的重建實驗說明了應(yīng)用三維重建系統(tǒng)的精度。系統(tǒng)并行處理圖像數(shù)據(jù)并生成三維模型。平均處理速度為29.45幀每秒,滿足服務(wù)機器人抓取任務(wù)對建模系統(tǒng)速度的要求。未來將在本文實驗得到的模型基礎(chǔ)上,設(shè)計基于物體模型服務(wù)機器人抓取系統(tǒng),進(jìn)一步驗證本文模型對于服務(wù)機器人抓取任務(wù)的適用性。

        猜你喜歡
        深度圖單目雙目
        基于雙目測距的卡爾曼濾波船舶軌跡跟蹤
        電子制作(2019年20期)2019-12-04 03:51:38
        基于深度圖的3D-HEVC魯棒視頻水印算法
        一種單目相機/三軸陀螺儀/里程計緊組合導(dǎo)航算法
        單目SLAM直線匹配增強平面發(fā)現(xiàn)方法
        一種基于局部直方圖匹配的深度編碼濾波算法
        基于CAD模型的單目六自由度位姿測量
        疊加速度譜在鉆孔稀少地區(qū)資料解釋中的應(yīng)用
        科技視界(2016年2期)2016-03-30 11:17:03
        基于雙目視覺圖像的長度測量方法
        基于單目立體視覺的三坐標(biāo)在線識別技術(shù)研究
        基于雙目視覺的接觸線幾何參數(shù)測量方法
        機械與電子(2014年2期)2014-02-28 02:07:46
        国产麻豆一区二区三区在| 91精品国产丝袜在线拍| 欧美亚洲h在线一区二区| av在线一区二区三区不卡| 亚洲国产精品综合久久网络 | 精品人伦一区二区三区蜜桃麻豆| 99热最新在线观看| 国产麻豆放荡av激情演绎| 亚洲av日韩一卡二卡| 亚洲精品久久久久久久久久吃药| 手机看片久久国产免费| 亚洲人av毛片一区二区| 在线精品首页中文字幕亚洲| 无码中文字幕免费一区二区三区| 中文字幕天堂在线| 黄色国产一区在线观看| 午夜视频在线观看一区二区小| 国产一极内射視颍一| 无码人妻一区二区三区免费手机| 国产一区二区美女主播| 久久99精品久久久久久噜噜| 色悠久久久久综合欧美99| 国产中文aⅴ在线| 人妻av不卡一区二区三区| 国产精品会所一区二区三区| 狠狠色噜噜狠狠狠888米奇视频| 无码人妻精品一区二区三区下载| 中文字幕人乱码中文字幕乱码在线| 亚洲人成电影网站色| 亚洲av第一成肉网| 亚洲一区二区三在线播放| 森中文字幕一区二区三区免费| 777午夜精品免费观看| 免费国产一级片内射老| 久久久精品国产亚洲av网麻豆| 久久久久久九九99精品| 国产人成无码中文字幕| 亚洲精品在线一区二区三区| 色偷偷偷在线视频播放| 国产精品_国产精品_k频道| 欧美精品aaa久久久影院|