亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于單相機的飛行器結(jié)構(gòu)表面應變片三維定位方法

        2022-09-26 09:29:08李立欣周書濤周江帆董學金蘇志龍張東升
        強度與環(huán)境 2022年4期
        關鍵詞:標尺姿態(tài)重構(gòu)

        李立欣 周書濤 周江帆 董學金 蘇志龍 張東升

        (1 上海大學力學與工程科學學院上海市應用數(shù)學與力學研究所,上海 200444;2 北京強度環(huán)境研究所,北京 100076;3 上海衛(wèi)星裝備研究所,上海 200240)

        0 引言

        光學三維重建是研究物體三維信息獲取的熱點方向之一,發(fā)展了諸如明暗恢復法、多視角立體視覺、近景工業(yè)測量、光度立體法等。其中,多視角立體視覺技術(shù)利用視覺幾何,從一組普通光學圖像中對物體的三維形狀和空間位置進行測量和重構(gòu),可以大大提高三維測量的效率,有效地構(gòu)建目標的三維數(shù)據(jù),在工業(yè)自動化檢測和航空航天逆向工程等方面具有廣闊的前景。將多視角立體重構(gòu)與不同領域的應用需求相結(jié)合,研究人員們建立了多種具有實用價值的光學三維重建方法。例如,結(jié)構(gòu)光三維形貌測量是建立在雙視角成像基礎上的一種經(jīng)典三維形貌測量技術(shù),由于它測量精度高且適用性強,已經(jīng)廣泛應用于許多工業(yè)生產(chǎn)領域[1,2],但結(jié)構(gòu)光需要額外的投影設備配合才能進行測量。RGB-D相機和光場相機的出現(xiàn)為三維重建提供了簡單易行的途徑[3],由于這類測量主要采用共軸形式,測量精度有待進一步提高。隨著深度學習技術(shù)在計算機視覺領域中的快速發(fā)展,出現(xiàn)了基于單幀圖像的三維形貌重建技術(shù)[4,5],該技術(shù)在人臉三維重建得到了應用;然而這類方法目前還只能應用在特定的對象,并且需要大量的前期訓練才能提高測量精度。除此之外,采用單相機對物體進行多角度成像是多視角立體測量中一種經(jīng)濟的三維重建技術(shù)[6,7],可從不同角度獲得的場景圖像中實現(xiàn)對相機姿態(tài)和物體三維信息的同時估計,在實際應用中備受青睞,也是本文進行航天飛行器結(jié)構(gòu)三維點稀疏重建的關鍵方法。在航空航天領域,對飛行器結(jié)構(gòu)進行逆向工程是結(jié)構(gòu)和力學設計優(yōu)化的關鍵方法,對結(jié)構(gòu)安全性和可靠性具有重要意義。因此急需發(fā)展一種方便、可靠的幾何測量方法對飛行器結(jié)構(gòu)進行精確的三維測量。在結(jié)構(gòu)試驗中,一般會在結(jié)構(gòu)上布置大量的電阻應變片監(jiān)測部件主要部位的變形。為了精確對比試驗測試與數(shù)值仿真結(jié)果,需要精確測量所有應變片的空間位置。當飛行器結(jié)構(gòu)尺寸較大和粘貼的應變片的數(shù)量較多時,采用傳統(tǒng)的逐點式測量方法獲取應變片的三維坐標的難度和成本往往會很大。為此通過單相機多視角成像,發(fā)展了基于多視覺幾何的應變片三維坐標測量與定位方法,以期為航空航天領域飛行器結(jié)構(gòu)的優(yōu)化設計提供一種方便可靠的三維坐標重構(gòu)技術(shù)。為了實現(xiàn)飛行器結(jié)構(gòu)上應變片三維坐標的精確測量,使用一個標定[8,9]的單反相機對目標進行多角度成像,通過識別布置在結(jié)構(gòu)上的編碼點,可靠地估計相機相對于參考幀的姿態(tài)信息;然后使用深度學習中的目標檢測技術(shù),對圖像中的應變片進行識別和坐標提取,并結(jié)合特征匹配和相鄰幀之間的極線約束對相鄰圖像中的應變片進行匹配;最后利用三角測量原理,實現(xiàn)應變片的空間定位。

        1 測量原理

        本文實現(xiàn)大幅面測量區(qū)域內(nèi)應變片的三維定位遵循單相機多視覺立體三維重構(gòu)的一般步驟,主要涉及相機姿態(tài)估計、目標點(應變片)識別與匹配、以及三維坐標重構(gòu)[10,11]。

        在測量操作上,采用定焦相機(記為C)按照如圖1所示的方式對目標結(jié)構(gòu)進行多視角成像,其中1C,2C,…,Ci,…,Cn為不同視角下的相機位置。為了能夠進行相機姿態(tài)估計和應變片坐標重構(gòu),在成像過程中需要控制相機使相鄰幀Ci和 1Ci+的視場需具有足夠的重合區(qū)。在獲得至少兩幀圖像后,即可相對于參考坐標系進行相機姿態(tài)估計和應變片三維坐標重構(gòu),最后根據(jù)在視場中放置的比例尺,可以確定結(jié)構(gòu)的物理尺寸。以下對該過程中的主要方法進行詳細介紹。

        圖1 單相機多視覺測量示意圖Fig.1 Schematic diagram of multiple view measurement with a single camera

        1.1 基于PnP算法的相機全局姿態(tài)估計

        在應變片三維定位問題中,由于應變片的尺寸通常(最小3mm左右)遠小于目標結(jié)構(gòu)的尺寸,且定位精度要求高,因此需要對相機姿態(tài)進行可靠估計。為此,本文假設測量相機的焦距固定,在測量前使用張氏標定法對相機內(nèi)參進行預標定[12],然后在測量中以布置在目標結(jié)構(gòu)上的編碼點為控制點,確定相機的姿態(tài)。由于編碼點具有唯一性、識別魯棒性好且定位精度高,可以比自然場景特征提供更加可靠的控制點信息,因此可以得到更精確的相機姿態(tài)估計。圖2為本文中使用的15位環(huán)形編碼點[13,14]。

        圖2 編碼點示例Fig.2 Examples of coding points

        在檢測到相鄰圖像中的共同編碼點后,可采用多點透視算法(Perspective-n-Point,PnP)相對參考坐標系確定相機姿態(tài),包括旋轉(zhuǎn)矩陣與平移向量t∈3。假設以第一幀相機(C1)坐標系為參考系,則相機姿態(tài)的確定方法如下。在給定n對三維點和二維圖像點對應關系的前提下,可以利用PnP算法確定當前幀相對于參考坐標系的旋轉(zhuǎn)矩陣R與平移向量t。為此,重構(gòu)第一二幀中觀察到的編碼點的初始三維坐標是進行PnP姿態(tài)估計的關鍵。由于相機內(nèi)參已知,可以通過估計前兩幀之間的本質(zhì)矩陣得到第二幀相對于參考系的姿態(tài),然后進行三維重構(gòu)得到初始三維坐標。假設在第一二幀中得到的編碼點坐標對為,其中pj1和pj2采用齊次坐標形式,下標j表示編碼點的序號。根據(jù)標定相機的極線約束原理[15],可以得到

        其中,K為已標定的相機內(nèi)參矩陣;E為本質(zhì)矩陣,表示當前幀相對于參考坐標系的姿態(tài)變換關系,即表示平移向量對應的反對稱矩陣)。根據(jù)式(1)可知,一對編碼點可為求解本質(zhì)矩陣E提供一個方程。盡管是E是一個3×3的矩陣,但其秩為2(即行列式det(E)=0),因此需要八對編碼點即可確定本質(zhì)矩陣E。對本質(zhì)矩陣進行奇異值分解后,可以得到第二幀相對于參考坐標系的旋轉(zhuǎn)矩陣R和平移向量t。然后,可使用三角測量方法對每一對編碼點對應的三維坐標定初始的三維坐標,但由于PnP算法依賴于Pj進行進行重構(gòu)。盡管上述過程可以確后續(xù)相機姿態(tài)的估計,因此提高Pj的重構(gòu)精度有利于提高應變片定位精度。為此,本文進一步采用光束平差法(Bundle A djustment,BA)[16]對Pj進行優(yōu)化。光束法平差的本質(zhì)是求解關于相機姿態(tài) (R和t)與三維點Pj的最小二乘優(yōu)化問題,使得總體重投影誤差最小[17,18]。需要注意的是,在應變片三維定位中,為了保證透視投影模型下小尺寸應變的可識別性,相鄰兩幀相機的姿態(tài)變化不宜過大,因此而來的一個問題是相機的基線變化比物距小得多。如果在BA優(yōu)化中直接以Pj的坐標為參數(shù),往往會存在數(shù)值穩(wěn)定性問題。為此這里采用逆深度參數(shù)化的方式表示空間點,然后建立BA優(yōu)化模型。由于參考坐標系為第一幀相機坐標系,因此上述重構(gòu)的三維點Pj的Z坐標即為其深度,于是其逆深度可以表示為wj=1/Zj。從而,Pj可以被逆深度參數(shù)化為P j=pj1/wj。根據(jù)初步估計的旋轉(zhuǎn)矩陣R和平移向量t,Pj可被重投影到第二幀圖像得到重投影圖像點坐標,然后與觀察到的對應點做差得到重投影誤差。將所有觀察到的編碼點的重投影誤差進行求和,可得到BA優(yōu)化模型

        其中,N為編碼點對數(shù),〈〉為歸一化算子。通過求解上述模型,即可得到最優(yōu)逆深度,然后根據(jù)逆深度參數(shù)化得到高精度的初始三維點Pj。在初始三維坐標確定之后,可使用PnP算法依次確定后續(xù)圖像幀相對于參考坐標系的相機姿態(tài)。由于在測量中應變片圖像序列往往比較長,單純使用PnP算法會存在一定的誤差累計。為了消除累計誤差,在新的姿態(tài)估計完成之后,可以對其及上一幀應用式(2)中的BA優(yōu)化,可以同時提高每一幀中編碼點三維坐標重構(gòu)精度和相機姿態(tài)的估計精度。

        1.2 基于YOLO模型的應變片圖像識別

        布置在結(jié)構(gòu)表面的應變片尺寸小、數(shù)量多,而且外觀相似度比較高,因此很難采用人工識別或者傳統(tǒng)圖像處理的方式完成應變片識別。為了解決這個問題,本文采用深度學習的方式從圖像序列中識別應變片的坐標。目前,深度學習的目標檢測方法大體上分為2類,即兩階段目標檢測方法和一階段目標檢測方法。兩階段的目標檢測方法常見的有Faster R-CNN[19],這一類檢測方法往往先處理圖像生成候選區(qū)域,然后再對候選區(qū)域進行分類和回歸;其優(yōu)點是檢測精度高,缺點是檢測速度比較慢。一階段目標檢測的代表性方法有YOLO[20]和SSD[21]等,這類方法不需要生成候選區(qū)域,直接通過圖像回歸出物體的類別和坐標,不生成二階段目標檢測方法所需的候選框,檢測速度快。在考慮應變片的特征后,本文使用YOLO(You Only Look Once)進行應變片識別[22,23]。YOLO模型使用一個單獨的 CNN 模型,實現(xiàn)端到端的目標位置檢測以及分類;與Faster R-CNN相比,YOLO速度快,而且準確率也很高[24,25]。YOLO算法直接把輸入的原始圖片分割成互不重合的小方塊,然后通過卷積運算遍歷每一個小方塊,產(chǎn)生特征圖,再得到與特征圖中對應的每個元素,從而達到目標點位置推理的目的。在應變片檢測任務中的具體細節(jié)如下。

        首先建立應變片圖像數(shù)據(jù)集。對粘貼在結(jié)構(gòu)表面的應變片進行多角度拍攝,通過數(shù)據(jù)增強的手段擴展樣本數(shù)量,使得樣本數(shù)量大于等于訓練YOLO模型的經(jīng)驗值1500。然后人工標注每張圖像中的應變片的位置。標注完成后,按8:2的比例隨機將數(shù)據(jù)集分成訓練集和測試集,隨后開展模型訓練。采用Pytorch框架,構(gòu)建了YOLO v 5x模型,并對其進行訓練。模型輸入端主要包含自適應圖片縮放、Mosaic數(shù)據(jù)增強和自適應計算錨定框。其中,Mosaic數(shù)據(jù)增強通過對圖像隨機的縮放、裁剪、排布,將同一組的圖像拼接起來,拼接后的圖像用于后續(xù)的模型訓練。訓練時,圖像按照輸入大小縮放為1280×1280像素后分組依次輸入Backbone主干網(wǎng)絡。Backbone網(wǎng)絡模型提取的特征圖的長度和寬度相對較大,然而最終分類定位的輸出維數(shù)相對較小,因此需要對特征維數(shù)進行壓縮。為此在主干網(wǎng)絡和檢測頭Head之間添加一個Neck層。Neck結(jié)構(gòu)可更好地利用主干輸出的圖像特征,將其進一步融合后傳輸?shù)綑z測頭進行分類和定位。經(jīng)過Neck網(wǎng)絡層壓縮和融合后傳遞給Head 輸出層,最后輸出應變片的類別和圖像坐標。為評估訓練的YOLO模型的性能,可采用mAP (Mean A verage P recision) 作為模型精度的綜合評價指標。在訓練完成后,評估模型的mAP@0.5的數(shù)值,當該指標大于0.95時,認為模型訓練達標。對成功訓練的YOLO進行部署后,進行應變片檢測。

        1.3 應變片的立體匹配和重構(gòu)

        通過第1.1和1.2節(jié),我們可以得到相鄰幀之間相機姿態(tài)信息和每幀圖像中的應變片坐標。接下來就可以通過立體匹配的方法對相鄰幀可見的應變片進行匹配,然后采用三角測量計算空間位置。相機姿態(tài)估計得到的旋轉(zhuǎn)矩陣和平移向量可為應變片的匹配提供極線約束,這樣可以減小搜索范圍,提高匹配效率和降低誤匹配率。應變片匹配中的極線約束如圖3所示。由于應變尺寸很小,且彼此之間相似度較高,因此為了在極線約束區(qū)域內(nèi)得到穩(wěn)定的匹配結(jié)果,需要再引入兩個約束條件。首先,將YOLO模型檢測到的應變片視為特征點,它們在相機進行移動和旋轉(zhuǎn)時,會因視角變化產(chǎn)生尺度和方向上的變?yōu)椤榱私鉀Q這一問題,本文利用尺度不變特征描述(feature descriptor)[26]提取每個應變片的特征向量,然后在相鄰兩幀圖像中按照距離最近原則進行特征向量搜索,得到匹配分數(shù)最高的一對描述子,將它們對應的應變片視為最佳匹配。需要注意的是,此時得到的最佳匹配并不唯一,需要進一步篩選??紤]到拍攝圖像時相機的移動范圍較小,相鄰圖像中的目標發(fā)生的是仿射運動,所以相鄰圖像中的應變片和編碼點的移動趨勢具有高度的一致性。因此,可以依據(jù)編碼點的匹配關系,確定相鄰幀間的仿射變換關系,對上述匹配得到的應變片進行進一步篩選,提高應變片的匹配準確度。最后,結(jié)合相機之間的空間位姿關系,即可確定檢測出的應變片在世界坐標系中的三維坐標。

        圖3 極線搜索示意圖Fig.3 Epipolar constraint relationship

        2 實驗驗證

        實驗采用佳能EOS 5D Mark IV單反相機,分辨率為4464×2976像素。為了驗證本文方法的重構(gòu)精度和應變片三維定位的可行性,實驗部分包括兩個方面的內(nèi)容。首先,采用精度為1μm兩根高精度標尺驗證定位精度;然后,對一個粘貼有86個應變計和25個編碼點的圓柱形結(jié)構(gòu)(直徑300 mm)進行測量。

        2.1 定位精度驗證

        精度驗證中使用了如圖4所示的兩根標尺,標尺上兩個定位圓之間的長度分別為949.880 m m和949.606 mm。

        圖4 精度驗證用的標尺Fig.4 Scale bars for accuracy validation

        測試中,對圖4中包含兩個標尺的場景進行5次成像,并對標尺長度進行重構(gòu)。需要注意的是,為了保證精度測量的合理性,在估計相機姿態(tài)時僅使用不在標尺上的編碼點。在重構(gòu)標尺時,以較長的標尺作為長度參考,然后重構(gòu)較短標尺上兩個定位圓的坐標。得到定位圓坐標后,將兩個定位圓之間的距離作為標尺長度的測量值,然后與標尺的實際長度(即949.606 mm)進行比較,得到重構(gòu)誤差,結(jié)果如表1所示。根據(jù)驗證結(jié)果可知,5次測量得到的最大絕對誤差值為0.120 mm,平均值為0.098mm(四舍五入后為0.100 mm)。根據(jù)圖4可以看出,測量的水平視場大小約為1 m,說明對于1 m大小的物體,本方法的定位精度可以達到0.100 mm/m。

        表1 精度驗證結(jié)果Table 1 Accuracy verification results

        2.2 圓柱結(jié)構(gòu)應變片測量

        在精度驗證之后,使用本文方法對布置在直徑為300mm圓柱上的應變片(86個)進行定位測量。在采集圖像時,相機環(huán)繞目標結(jié)構(gòu)移動,并確保相鄰圖像有重疊部分,共拍攝32張圖片,如圖5所示。由于目標結(jié)構(gòu)特征尺寸僅有300 mm,為了不使目標結(jié)構(gòu)在圖像中的占比過小,本次測量中使用一根較短的標尺(長度為551.423mm)恢復結(jié)構(gòu)的物理尺度。測量中首先使用訓練的YOLO模型識別單反相機拍攝的圖像中的應變片。由于采用了重疊成像的方式,每幀圖像能夠清晰的記錄部分應變片的信息,將訓練后模型應用到這種重疊圖像序列,可以保證能夠識別到圓柱結(jié)構(gòu)上的所有應變片,識別效果如圖6所示。然后,在確定各個相機的位姿關系后,以第一幀圖像對應的相機坐標系為參考,根據(jù)第1節(jié)中的方法對應變片進行匹配和三維重構(gòu)。需要注意的是,并非所有在第一幀中的應變片都能夠在第二幀中找到對應的應變片,由于拍攝視角的遮擋關系,會有一部分應變片在第二幀中無法找到對應的應變片。因此,在完成對第一幀應變片空間定位后,繼續(xù)對第二幀中未配對的應變片與第三幀中的應變片進行匹配,然后依次再進行重構(gòu)。需要說明的是,在此種情況下,應變片的空間坐標是基于前一幀的相機坐標系進行確定的,需要根據(jù)坐標轉(zhuǎn)換將其映射到全局參考坐標系。通過上述處理過程,最終完成對圓柱殼表面所有應變片的三維定位,如圖7所示。為了說明重構(gòu)的可靠性,根據(jù)應變片的三維定位結(jié)果對圓柱進行了擬合,得到圓柱直徑為300.052mm,其相對與真實直徑的誤差僅為0.052 mm。由于測量視場約為0.55 m,可換算得到1 m視場下的定位精度約為0.100mm/m,這與 第2.1節(jié)中的結(jié)果相吻合。

        圖5 拍攝的序列圖像Fig.5 Sequential images

        圖6 應變片識別示例Fig.6 Examples of strain gauge recognition

        圖7 應變片三維重構(gòu)結(jié)果Fig.7 Three-dimensional reconstruction of strain gauges

        3 結(jié)論

        本文介紹了一種基于單相機的多視角三維測量方法,實現(xiàn)了圓筒構(gòu)件上應變片三維坐標的定位。該方法利用編碼點對相機姿態(tài)進行高精度估計,然后采用YOLO模型對應變片進行識別,得到應變片的圖像坐標。最后基于相鄰相機的位姿關系,依次完成所有應變片的立體匹配和三維空間定位。實驗表明該方法操作簡單,可以實現(xiàn)大幅面結(jié)構(gòu)上小應變片的識別定位;對于1 m以內(nèi)大小的結(jié)構(gòu),本方法的定位精度可以達到0.100 mm/m。本文方法不僅適用于應變片,在后續(xù)的研究中,將嘗試通過訓練其它被測小目標物體的深度學習模型,從而重構(gòu)出這些物體的三維坐標,具潛在的實際應用價值。

        猜你喜歡
        標尺姿態(tài)重構(gòu)
        中國人格的標尺
        都市(2022年12期)2022-03-04 09:12:08
        長城敘事的重構(gòu)
        攝影世界(2022年1期)2022-01-21 10:50:14
        如何立起廉潔自律硬標尺?
        攀爬的姿態(tài)
        學生天地(2020年3期)2020-08-25 09:04:16
        學好黨章,立好“四個標尺”
        公民與法治(2020年3期)2020-05-30 12:29:42
        北方大陸 重構(gòu)未來
        全新一代宋的新姿態(tài)
        汽車觀察(2018年9期)2018-10-23 05:46:40
        跑與走的姿態(tài)
        中國自行車(2018年8期)2018-09-26 06:53:44
        北京的重構(gòu)與再造
        商周刊(2017年6期)2017-08-22 03:42:36
        論中止行為及其對中止犯的重構(gòu)
        99国产超薄丝袜足j在线播放| 亚洲av无码专区国产不卡顿| 国产精品女人呻吟在线观看 | 荡女精品导航| 第九色区Aⅴ天堂| 亚洲精品一区二区网站| 亚洲第一狼人天堂网亚洲av| 成人性做爰aaa片免费看| 欧美中文字幕在线看| 99国语激情对白在线观看| 午夜福利理论片在线观看播放| 一性一交一口添一摸视频| 国产精品青草视频免费播放 | 亚洲精品久久7777777| 丰满人妻妇伦又伦精品国产| 亚洲AV无码成人精品区日韩密殿| 精品高清一区二区三区人妖| 艳妇臀荡乳欲伦69调教视频| 国产熟妇搡bbbb搡bbbb搡| 女人被躁到高潮嗷嗷叫| 第一九区另类中文字幕| 亚洲中字慕日产2020| 亚洲人成电影在线无码| 黑人一区二区三区啪啪网站| 中文乱码字幕精品高清国产 | 九九综合va免费看| av无码免费永久在线观看| 久久久亚洲精品午夜福利| 精品人妻少妇丰满久久久免| 日本最新免费二区三区| 日日摸夜夜添夜夜添无码免费视频 | 婷婷色综合成人成人网小说| 91精品蜜桃熟女一区二区| 国产精品永久久久久久久久久| 国模无码人体一区二区| 中文字幕一区,二区,三区| 日韩av毛片在线观看| 日本乱偷人妻中文字幕在线| 思思久久96热在精品不卡| 国产自拍一区在线视频| 青青青爽在线视频观看|