亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)PointNet++的大規(guī)模豬體點(diǎn)云部位分割*

        2023-08-31 08:39:34張素敏溫志坤朱紀(jì)民林潤(rùn)恒
        關(guān)鍵詞:八叉樹(shù)豬體立方體

        胡 昊 尹 令,2 張素敏,2 溫志坤 朱紀(jì)民 林潤(rùn)恒

        (1.華南農(nóng)業(yè)大學(xué)數(shù)學(xué)與信息學(xué)院 廣州 510642)

        (2.國(guó)家生豬種業(yè)工程技術(shù)研究中心 廣州 510642)

        1 引言

        點(diǎn)云分割作為三維點(diǎn)云處理任務(wù)中的關(guān)鍵技術(shù),在三維計(jì)算機(jī)視覺(jué)場(chǎng)景下得到了非常廣泛的應(yīng)用。在通過(guò)激光雷達(dá)獲取的城市場(chǎng)景點(diǎn)云中,將馬路、建筑、路燈、花壇、行道樹(shù)等場(chǎng)景中的元素進(jìn)行區(qū)分,實(shí)現(xiàn)了對(duì)大規(guī)模場(chǎng)景中的各種物體進(jìn)行精細(xì)化處理[1~2]。在醫(yī)療數(shù)據(jù)處理領(lǐng)域,使用基于深度學(xué)習(xí)的點(diǎn)云模型分割三維頸椎骨的各組成部分[3],在分割的基礎(chǔ)上再進(jìn)行生物力學(xué)分析,提高了醫(yī)療輔助診斷的自動(dòng)化水平。在建筑建模領(lǐng)域,采用多視圖CNN 能夠?qū)⒔ㄖ仡?lèi)型進(jìn)行自動(dòng)化分類(lèi),并取得了良好的效果[4]。在無(wú)人機(jī)精準(zhǔn)飛行領(lǐng)域,基于深度學(xué)習(xí)的點(diǎn)云網(wǎng)絡(luò)對(duì)激光雷達(dá)掃描到的物體進(jìn)行了精準(zhǔn)分割,且具有良好的實(shí)時(shí)性[5]。在智慧農(nóng)業(yè)領(lǐng)域,采用深度相機(jī)對(duì)植物點(diǎn)云進(jìn)行采集,再將采集到的數(shù)據(jù)送入神經(jīng)網(wǎng)絡(luò)將植物的葉和莖進(jìn)行分割,有助于選擇育種以及性狀分析[6]。一種基于二維圖像以及深度信息的點(diǎn)云二次分割方法被提出用于在復(fù)雜背景中提取出水果的輪廓[7]。

        基于三維點(diǎn)云的牲畜尺參數(shù)自動(dòng)測(cè)量是目前智能養(yǎng)殖業(yè)的研究熱點(diǎn)。但在現(xiàn)實(shí)場(chǎng)景中,通過(guò)深度設(shè)備獲取的牲畜點(diǎn)云存在數(shù)據(jù)散亂、密度大的特點(diǎn),因此數(shù)據(jù)處理的效果不佳。采用深度學(xué)習(xí)的方法先對(duì)豬體點(diǎn)云各部分進(jìn)行分割,在分割的基礎(chǔ)上再進(jìn)行體尺測(cè)量點(diǎn)定位,將有助于提升測(cè)量的準(zhǔn)確率。

        基于深度學(xué)習(xí)的點(diǎn)云分割方法是計(jì)算機(jī)三維視覺(jué)的研究熱點(diǎn)之一,按照其基本思想可分為以下三類(lèi)[26~28]。第一類(lèi)是將三維點(diǎn)云數(shù)據(jù)轉(zhuǎn)化為二維圖像的處理方法[8~11],其主要通過(guò)在不同角度將原始點(diǎn)云投影到二維平面,從而得到多個(gè)二維圖像,再通過(guò)神經(jīng)網(wǎng)絡(luò)對(duì)多視圖進(jìn)行聚合,最后輸出結(jié)果。第二類(lèi)是基于體素網(wǎng)格的方法[12~14],該類(lèi)方法將原始點(diǎn)云轉(zhuǎn)化為了體素小立方體,再通過(guò)3D 卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行分割。前兩種方法均需要消耗大量時(shí)間和資源進(jìn)行數(shù)據(jù)預(yù)處理,而第三類(lèi)方法是直接對(duì)原始點(diǎn)云進(jìn)行處理。PointNet[15]首次采取了端到端的處理模式,主要解決了點(diǎn)云通過(guò)深度網(wǎng)絡(luò)進(jìn)行編碼過(guò)程中,保證其原有的置換不變性,能夠直接將原始點(diǎn)云作為深度網(wǎng)絡(luò)的輸入進(jìn)行分割。然而,PointNet 不具備在度量空間點(diǎn)中捕捉布局信息的能力,極大地限制了對(duì)細(xì)節(jié)的識(shí)別能力以及對(duì)大規(guī)模復(fù)雜場(chǎng)景的普適性。為改進(jìn)PointNet 的不足,PointNet++網(wǎng)絡(luò)[16]增加了逐層抽象結(jié)構(gòu),通過(guò)計(jì)算度量空間中的距離,增加上下文比例來(lái)提取目標(biāo)點(diǎn)云的局部空間特征,取得了更好的效果。馬利等[17]通過(guò)在PointNet 中引入跳躍連接,提取不同層次的特征,更好地捕捉了三維手部姿態(tài)。姚鉞等[18]在PointNet++的基礎(chǔ)上加入了自頂向下的網(wǎng)絡(luò)分支,將原網(wǎng)絡(luò)的中間特征融入最終預(yù)測(cè)網(wǎng)絡(luò),獲得了更好的分類(lèi)效果。為了增強(qiáng)獲取局部特征的能力,吳軍等[19]將自注意力機(jī)制引入了PointNet++,提高了場(chǎng)景語(yǔ)義分割的精度。

        活體牲畜獲取的點(diǎn)云數(shù)量龐大,且局部會(huì)存在空洞或者缺失,不同姿態(tài)使得牲畜點(diǎn)云各部分分割特征不明顯,因此為對(duì)豬體點(diǎn)云進(jìn)行部分精確的分割,本文在PointNet++的基礎(chǔ)上采用了Octree 結(jié)構(gòu)改進(jìn)了采樣層和分組層,使其能夠更好地在大規(guī)模點(diǎn)云數(shù)據(jù)中捕捉到豬體由于不用姿態(tài)所引起的非剛性變化,充分提取不同層次下的局部信息,獲得了更好的部分分割效果。

        2 方法

        2.1 豬體點(diǎn)云獲取與預(yù)處理

        在試驗(yàn)場(chǎng)地采集通道的上、左、右三個(gè)方向分別設(shè)置Kinect相機(jī),當(dāng)目標(biāo)豬體進(jìn)入數(shù)據(jù)采集區(qū)域時(shí),三個(gè)方向的相機(jī)會(huì)同時(shí)采集點(diǎn)云,再經(jīng)過(guò)配準(zhǔn),去除背景以及去噪等預(yù)處理后,即可獲得完整的豬體三維點(diǎn)云數(shù)據(jù)[20~21]。所獲得的豬體點(diǎn)云因個(gè)體不同,在進(jìn)入采集區(qū)域的姿態(tài)不同,因此數(shù)據(jù)之間存在較大差異。

        2.2 PointNet++基本原理

        PointNet++采用了逐層抽象結(jié)構(gòu),如圖1 所示。相比于PointNet 結(jié)構(gòu),PointNet++具備了在不同尺度下提取空間信息的能力,代替了PointNet 直接提取整體點(diǎn)云特征的做法,能夠在不同尺度局部區(qū)域使用PointNet 對(duì)點(diǎn)云進(jìn)行特征提取,再進(jìn)行特征拼接。PointNet++分割網(wǎng)絡(luò)結(jié)構(gòu)包括分層點(diǎn)集特征學(xué)習(xí)和集合分割點(diǎn)特征傳播兩個(gè)部分。分層點(diǎn)集特征學(xué)習(xí)分為兩個(gè)集合抽象(Set Abstraction)模塊,每個(gè)集合抽象模塊又包含采樣層(Sampling Layer)、分組層(Grouping Layer)、PointNet層[22]。其中,采樣層使用最遠(yuǎn)點(diǎn)采樣(Farthest Point Sampling,F(xiàn)PS)選取點(diǎn)云數(shù)據(jù)的部分特征點(diǎn)。分組層的作用是按照球查詢(xún)(Ball Query)方法選取采樣中心點(diǎn)的鄰域點(diǎn),將選出的各個(gè)子點(diǎn)云送入PointNet層,運(yùn)用局部區(qū)域的信息編碼成特征向量。

        圖1 PointNet++網(wǎng)絡(luò)結(jié)構(gòu)

        2.3 基于改進(jìn)PointNet++豬體點(diǎn)云分割網(wǎng)絡(luò)

        2.3.1 基于八叉樹(shù)的點(diǎn)云劃分與采樣

        PointNet++通過(guò)最遠(yuǎn)點(diǎn)采樣的方法提取局部特征點(diǎn)進(jìn)行編碼,在ShapeNetCore[23]數(shù)據(jù)集上取得了很好的部分分割效果。然而,雖然與隨機(jī)采樣相比,在給定相同數(shù)量的采樣點(diǎn)情況下,最遠(yuǎn)點(diǎn)采樣方法能更好地提取ShapeNetCore 數(shù)據(jù)集中的特征點(diǎn),但是對(duì)于在真實(shí)場(chǎng)景下通過(guò)Kinect相機(jī)所采集到的豬體點(diǎn)云數(shù)據(jù),最遠(yuǎn)點(diǎn)采樣無(wú)法精確捕捉不同姿態(tài)下豬體點(diǎn)云的非剛性形變,因?yàn)樽钸h(yuǎn)點(diǎn)采樣更關(guān)注的是點(diǎn)與點(diǎn)之間的距離,而八叉樹(shù)下采樣法是基于空間結(jié)構(gòu)的均勻采樣,能夠很好地保留豬體點(diǎn)云空間結(jié)構(gòu)信息,其本身層次化的樹(shù)結(jié)構(gòu)不僅能劃分出體素相鄰點(diǎn),且更適合后續(xù)PointNet 層進(jìn)行逐層的局部特征提取。

        采用八叉樹(shù)進(jìn)行豬體點(diǎn)云分組及采樣算法步驟如下:

        步驟1)采用最小立方體對(duì)豬體點(diǎn)云包圍。

        步驟2)設(shè)置最大八叉樹(shù)深度即最多可細(xì)分的次數(shù)N,將初始點(diǎn)云包圍盒的立方體劃分為8個(gè)均勻大小的子立方體。

        步驟3)判斷沒(méi)有子節(jié)點(diǎn)的立方體內(nèi)是否包含點(diǎn)云。若包含點(diǎn)云且沒(méi)有達(dá)到最大遞歸深度,繼續(xù)對(duì)該立方體進(jìn)行細(xì)分,劃分到8 個(gè)子立方體。若沒(méi)有或達(dá)到最大遞歸深度則停止細(xì)分。

        步驟4)若子立方體所分配到的單位元元素?cái)?shù)量為0或?yàn)?,則該子立方體停止劃分。

        步驟5)重復(fù)步驟3)和步驟4)進(jìn)行遞歸劃分直到達(dá)到最大遞歸深度,使用不同層數(shù)八叉樹(shù)劃分豬體點(diǎn)云過(guò)程如圖2所示。

        圖2 不同層數(shù)八叉樹(shù)結(jié)構(gòu)劃分豬體點(diǎn)云

        步驟6)假設(shè)任意立方體內(nèi)包含n個(gè)點(diǎn),那么此立方體內(nèi)第i個(gè)點(diǎn)的坐標(biāo)則為(xi,yi,zi),計(jì)算中點(diǎn)pmid坐標(biāo)(xmid,ymid,zmid)。

        步驟7)計(jì)算體素內(nèi)所有點(diǎn)到中點(diǎn)pmid的距離并進(jìn)行排序,將距離中點(diǎn)pmid最近點(diǎn)作為特征點(diǎn)pfeature進(jìn)行采樣,選取第2 到k+1 個(gè)距離較小值點(diǎn)作為特征點(diǎn)pfeature的鄰近點(diǎn):

        式(1)中Sort為排序函數(shù),d為距離函數(shù)。如圖3 所示,紅色點(diǎn)為采樣特征點(diǎn),與紅色點(diǎn)在同一立方體內(nèi)的黑色點(diǎn)為其鄰域點(diǎn)。

        圖3 采用八叉樹(shù)進(jìn)行豬體點(diǎn)云采樣及分組

        2.3.2 改進(jìn)PointNet++的分割網(wǎng)絡(luò)算法

        采用八叉樹(shù)改進(jìn)PointNet++采樣和分組方式的豬體點(diǎn)云部位分割網(wǎng)絡(luò)具體結(jié)構(gòu)如圖4 所示,算法步驟如下:

        圖4 改進(jìn)后的PointNet++具體網(wǎng)絡(luò)結(jié)構(gòu)

        步驟1)輸入為經(jīng)過(guò)預(yù)處理后的單個(gè)完整豬體點(diǎn)云數(shù)據(jù)[ ]N×npoint×6 ,其中N為批處理輸入豬體點(diǎn)云數(shù)據(jù)的數(shù)量,npoint為單個(gè)豬體點(diǎn)云的點(diǎn)云點(diǎn)數(shù)。

        步驟2) 將豬體點(diǎn)云進(jìn)行八叉樹(shù)采樣及分組。其中,采用5 層八叉樹(shù)結(jié)構(gòu)進(jìn)行采樣及分組,采樣中心點(diǎn)的個(gè)數(shù)為n1,中心點(diǎn)鄰域內(nèi)的點(diǎn)的最大數(shù)量(nsample)為64。

        步驟3)對(duì)同一分組內(nèi)的局部點(diǎn)云進(jìn)行卷積(Convolution,Conv),其中一維卷積公式如下:

        式(2)中w1,w2…wk為濾波器,x1,x2…xk為信號(hào)序列,K為濾波器長(zhǎng)度。為簡(jiǎn)單起見(jiàn),這里假設(shè)卷積的輸出yt的下標(biāo)t從K開(kāi)始。二維卷積的公式如下:

        式(3)中X∈RM×N,濾波器W∈RU×V,一般U?M,V?N,這里假設(shè)卷積的輸出Yij的下標(biāo)(i,j)從(U,V)開(kāi)始。

        步驟4)采用批量歸一化(Batch normalizaion,Bn)的方法提高網(wǎng)絡(luò)的學(xué)習(xí)效率。假設(shè)有N個(gè)樣本,對(duì)于每一維的特征x,先計(jì)算其均值和方差:

        然后,將特征x(n)減去均值,再除以標(biāo)準(zhǔn)差,得到新的特征值x(n):

        步驟5)采用Relu 函數(shù)對(duì)神經(jīng)網(wǎng)絡(luò)的線(xiàn)性層進(jìn)行激活,再通過(guò)最大池化(Max Pooling)對(duì)卷積層提取到的局部特征的進(jìn)行特征選擇,降低特征維度,得到局部特征向量[N×1024×256] 。具體地,對(duì)于一個(gè)局部區(qū)域Rdm,n,選擇該區(qū)域所有神經(jīng)元的最大值表示該區(qū)域:

        式(7)中xi為局部區(qū)域內(nèi)每個(gè)神經(jīng)元的值。

        步驟6)重復(fù)步驟2)~5),這里采用4層八叉樹(shù)結(jié)構(gòu)進(jìn)行采樣及分組,采樣中心點(diǎn)的個(gè)數(shù)為n2,中心點(diǎn)鄰域內(nèi)的點(diǎn)的數(shù)量為128,得到特征向量[N×256×512] 。

        步驟7)采用PointNet 對(duì)整體點(diǎn)云進(jìn)行全局特征向量編碼。

        步驟8)經(jīng)過(guò)分層點(diǎn)集特征學(xué)習(xí)后,對(duì)輸入的特征點(diǎn)進(jìn)行二次抽樣,利用IDW(Inverse Distance Weighted)插值算法,將采樣點(diǎn)的特征傳遞回原始點(diǎn)集,得到[N×4096×256] 的數(shù)據(jù)。其中,IDW 插值的公式如下:

        式(8)中,f為插值的特征值,d(x,xi)為x,xi的距離,p為d(x,xi)的指數(shù),k為鄰域點(diǎn)的個(gè)數(shù)(默認(rèn)情況使用p=2,k=3),wi為x,xi距離平方的倒數(shù),j為點(diǎn)云的索引編號(hào),C為任意常數(shù)。

        步驟9)再對(duì)原始點(diǎn)集特征向量進(jìn)行卷積,批量標(biāo)準(zhǔn)化和激活函數(shù)處理,并使用反向傳播(Back propagation,Bp)算法對(duì)卷積網(wǎng)絡(luò)中參數(shù)進(jìn)行調(diào)整,當(dāng)l+1 為卷積層時(shí),假設(shè)特征映射輸入為Z(l+1)∈RM'×N'×P,其中第p( )1 ≤p≤P個(gè)特征映射的輸入為

        式(9)中W(l+1,p)和b(l+1,p)為第l+1 層的卷積核以及偏置,共有P×D個(gè)卷積核和P個(gè)偏置。第l層的第d個(gè)特征映射的誤差項(xiàng)為

        式(10)中?~為寬卷積,rot 180()· 表示旋轉(zhuǎn)180°。

        步驟10)使用Softmax回歸對(duì)豬體點(diǎn)云每個(gè)點(diǎn)進(jìn)行分類(lèi)預(yù)測(cè),其中類(lèi)別標(biāo)簽y∈{ }1,2…,C,C=8分別對(duì)應(yīng)著豬體的八個(gè)部位(左前腿、右前腿、左后腿、右后腿、耳朵、頭部、尾巴、身體)。給定一個(gè)點(diǎn)x,采用Softmax回歸預(yù)測(cè)的屬于c的條件概率為

        式(11)中wc是第c類(lèi)的權(quán)重向量,則Softmax決策函數(shù)可以表示為

        3 實(shí)驗(yàn)結(jié)果與分析

        本文訓(xùn)練模型系統(tǒng)環(huán)境為Intel i5-11400 CPU,RTX2060 GPU,6GB 顯存,深度學(xué)習(xí)框架Pytorch1.4,Cuda10.0。設(shè)置模型初始學(xué)習(xí)率(Learning Rate)為0.001,衰減率(Learning Rate Decay)為0.5,每20輪迭代輪數(shù)衰減一次,模型訓(xùn)練每次輸入點(diǎn)云數(shù)量批尺寸(Batch Size)為4。圖5對(duì)比了采用八叉樹(shù)改進(jìn)后的PointNet++網(wǎng)絡(luò)與PointNet++基礎(chǔ)網(wǎng)絡(luò)訓(xùn)練過(guò)程的mIoU 與OA 變化。由圖5 所示,改進(jìn)后的PointNet++獲得了更好的學(xué)習(xí)能力,在經(jīng)過(guò)40 輪左右的訓(xùn)練后,幾乎已經(jīng)收斂,在100 輪的訓(xùn)練中最佳的mIoU 為88.27%,OA 為96.97%。而原PointNet++網(wǎng)絡(luò)在60 輪訓(xùn)練后才逐漸收斂,在100輪的訓(xùn)練中最佳mIoU 為85.12%,OA 為94.45%。實(shí)驗(yàn)結(jié)果證明,改進(jìn)后的PointNet++網(wǎng)絡(luò)在豬體點(diǎn)云數(shù)據(jù)集上具有更強(qiáng)的學(xué)習(xí)能力。

        圖5 訓(xùn)練過(guò)程性能指標(biāo)變化

        采集的活體豬點(diǎn)云其姿態(tài)呈現(xiàn)多樣性,從不同視角觀(guān)察可以分為不同姿態(tài),俯視圖的豬體點(diǎn)云姿態(tài)可大致分為直線(xiàn)型、左扭頭型、右扭頭型,側(cè)視圖的豬體點(diǎn)云姿態(tài)可大致分為平視型、微低頭型、重低頭型,共9 種姿態(tài)。為了進(jìn)一步驗(yàn)證本文采用八叉樹(shù)結(jié)構(gòu)對(duì)PointNet++網(wǎng)絡(luò)改進(jìn)的有效性,以9 種姿態(tài)的豬體點(diǎn)云為測(cè)試樣本,在PointNet++基礎(chǔ)上采用平面擬合的方法計(jì)算法向量(+Normal),在第一個(gè)逐層抽象模塊使用Octree 的采樣與分組方式(+Octree1),在第二個(gè)逐層抽象模塊使用Octree 的采樣與分組方式(+Octree2)進(jìn)行不同模塊組合下的消融實(shí)驗(yàn),如表1 所示。表2 為在不同模塊組合下的分割結(jié)果。由表2 可知,相比于基礎(chǔ)模型PointNet++的分割結(jié)果,采用平面擬合的方法計(jì)算法向量信息(+Normal)后,除去Post8 外其他類(lèi)別的mIoU 均有提升,法向量作為點(diǎn)云各點(diǎn)的屬性包含了重要的空間信息。在第一個(gè)逐層抽象模塊改用八叉樹(shù)結(jié)構(gòu)進(jìn)行采樣與分組(+Octree1)之后,對(duì)所有類(lèi)別的分割精確度均有提高,尤其對(duì)于Post6,Post9 等扭頭且低頭的不規(guī)則姿態(tài)豬體點(diǎn)云的分割效果提升更為明顯。第二個(gè)逐層抽象模塊改用八叉樹(shù)結(jié)構(gòu)進(jìn)行采樣與分組(+Octree2)的方式,從各個(gè)姿態(tài)的分割結(jié)果上來(lái)看,相比于PointNet++基礎(chǔ)結(jié)構(gòu)雖有提高,但是提升效果不如前者(+Octree1),原因是第一次采樣在原始豬體點(diǎn)云上進(jìn)行的,基于八叉樹(shù)的采樣方式比最遠(yuǎn)點(diǎn)采樣能保留更多豬體點(diǎn)云的空間結(jié)構(gòu)信息,而第二次采樣是在第一次采樣的基礎(chǔ)上再進(jìn)行采樣,是第一次采樣更細(xì)節(jié)化,因此第一次采樣更關(guān)鍵。兩個(gè)逐層抽象模塊均使用Octree 的采樣與分組方式并使用法向量(Octree-PointNet++)的模型,在除了Post4 的其他姿態(tài)的豬體點(diǎn)云分割結(jié)果上均取得了最佳,總體的平均mIoU 和OA 相較于原PointNet++模型分別提升了3.04%、4.54%。

        表1 用于消融實(shí)驗(yàn)的不同模塊說(shuō)明

        表2 不同姿態(tài)的豬體點(diǎn)云數(shù)據(jù)的消融實(shí)驗(yàn)結(jié)果(單位:%)

        注:粗體表示最優(yōu)結(jié)果,Post1為直線(xiàn)平視型、Post2為直線(xiàn)微低頭型、Post3為直線(xiàn)重低頭型、Post4為左扭頭平視型、Post5為左扭頭微低頭型、Post6為左扭頭重低頭型、Post7為右扭頭平視型、Post8為右扭頭微低頭型、Post9為右扭頭重低頭型。

        圖6 所示為部分姿態(tài)豬體點(diǎn)云的可視化結(jié)果,圖中每列表示一類(lèi)姿態(tài),每行表示對(duì)應(yīng)結(jié)果。從第1、2 列相對(duì)簡(jiǎn)單的姿態(tài)來(lái)看,原始的PointNet++模型會(huì)把部分頭部的點(diǎn)云分成是耳朵,還會(huì)把部分身體的點(diǎn)云分成是尾巴。+Normal 分割效果雖有提升,但是對(duì)于頭部和耳朵的分割仍然不理想。+Octree1 和+Octree2 對(duì)于局部細(xì)節(jié)的捕捉能力明顯更強(qiáng),基本可以將耳朵與頭部分割開(kāi)來(lái)。第3、4 列為較復(fù)雜的扭頭且重低頭的姿態(tài),PointNet++網(wǎng)絡(luò)對(duì)于此類(lèi)姿態(tài)的分割結(jié)果較為糟糕,由于豬在低頭時(shí)腿部離頭部很近,還會(huì)出現(xiàn)左右腳交叉的現(xiàn)象,因此會(huì)把部分頭部點(diǎn)云看成是腿部,左腿分為了右腿。+Normal 的分割結(jié)果雖有所改善,但仍然不理想,會(huì)把頭部分為了后腿。+Octree1 和+Octee2 分割的效果要明顯由于前二者,但是對(duì)于一些細(xì)節(jié)的分割仍然存在不足??梢钥闯鯫ctree-PointNet++無(wú)論是對(duì)于復(fù)雜姿態(tài)還是相對(duì)標(biāo)準(zhǔn)的姿態(tài),其分割效果都理想,除去分割邊界不如人工數(shù)據(jù)處理得平滑之外,基本與手工標(biāo)記無(wú)異。

        圖6 部分姿態(tài)豬體點(diǎn)云部分分割可視化效果對(duì)比

        不同的點(diǎn)云分割算法在我們采集的數(shù)據(jù)集上的分割效果如表3 所示。PointNet++根據(jù)其點(diǎn)云采樣及分組方式的不同分為單一范圍分組(ssg,single-scale grouping),即通過(guò)深度網(wǎng)絡(luò)提取在相同半徑下的點(diǎn)云局部空間特征,以及多尺度范圍分組(msg,Multi-scale grouping),即在不同分組半徑下提取點(diǎn)云局部信息,再編碼成特征向量。從結(jié)果上看,msg版本的平均分割精確率要略?xún)?yōu)于ssg。相比于PointNet 直接對(duì)原始點(diǎn)云整體提取特征的方法,PointNet++的層次化特征提取模式具備了更好的分割效果。3D Point in 2D Space[24]是將三維點(diǎn)云降維為二維數(shù)據(jù),再通過(guò)U-Net 網(wǎng)絡(luò)進(jìn)行分割,DG-CNN[25]則是先對(duì)原始輸入點(diǎn)云構(gòu)建圖結(jié)構(gòu),增強(qiáng)了點(diǎn)之間的關(guān)聯(lián)性,再送入Edge-Conv 進(jìn)行處理。然而,在實(shí)際的豬體點(diǎn)云分割實(shí)驗(yàn)中,兩者的分割效果均不如PointNet++網(wǎng)絡(luò)算法。原因可能是其對(duì)不同姿態(tài)豬體點(diǎn)云變化不敏感,缺乏對(duì)非剛性形變目標(biāo)物體的特征學(xué)習(xí)能力。

        表3 各算法在我們數(shù)據(jù)集上的性能對(duì)比

        4 結(jié)語(yǔ)

        針對(duì)現(xiàn)有的PointNet++網(wǎng)絡(luò)不能很好地提取不同姿態(tài)豬體點(diǎn)云數(shù)據(jù)的局部特征問(wèn)題,采用八叉樹(shù)結(jié)構(gòu)改進(jìn)了其采樣及分組方式,實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的網(wǎng)絡(luò)更加適合于大規(guī)模點(diǎn)云數(shù)據(jù)中提取豬體不同姿態(tài)的非剛性變化特征,能夠更加精確地對(duì)不同姿態(tài)的豬體點(diǎn)云數(shù)據(jù)進(jìn)行部位分割,尤其是對(duì)于復(fù)雜姿態(tài)的豬體點(diǎn)云數(shù)據(jù),分割精確度的提升更為明顯,且可視化效果與人工標(biāo)記幾乎無(wú)異。

        猜你喜歡
        八叉樹(shù)豬體立方體
        疊出一個(gè)立方體
        三維十字鏈表八叉樹(shù)的高效檢索實(shí)現(xiàn)
        夏季養(yǎng)豬要做好防暑降溫
        基于單視角點(diǎn)云鏡像的豬只體尺測(cè)量方法
        學(xué)會(huì)8招夏季養(yǎng)豬增膘等4則
        圖形前線(xiàn)
        立方體星交會(huì)對(duì)接和空間飛行演示
        太空探索(2016年9期)2016-07-12 09:59:53
        折紙
        夏季養(yǎng)豬增膘九招
        散亂點(diǎn)云線(xiàn)性八叉樹(shù)結(jié)構(gòu)在GPU中的實(shí)現(xiàn)
        www夜插内射视频网站| 午夜亚洲av永久无码精品| 中日韩精品视频在线观看| 日韩二三区| 色婷婷狠狠97成为人免费| 热热久久超碰精品中文字幕| 亚洲天堂亚洲天堂亚洲色图| 2021亚洲国产精品无码| 99久久伊人精品综合观看| 最新四色米奇影视777在线看| 国产女同一区二区在线| 国产自产在线视频一区| 亚洲女同av在线观看| 无码人妻丰满熟妇区bbbbxxxx| 国产麻豆md传媒视频| 亚洲毛片在线播放| 国产目拍亚洲精品二区| 久久精品亚洲熟女av蜜謦| 大学生粉嫩无套流白浆| 人人妻人人澡人人爽曰本| 亚洲欧美在线观看一区二区| 亚洲国产都市一区二区| 蜜桃18禁成人午夜免费网站| а√天堂资源官网在线资源| 国产啪精品视频网站| 国产精品免费久久久免费| 日本视频精品一区二区| 蜜桃免费一区二区三区| 久久精品国产精品青草| 久久ri精品高清一区二区三区| 国产91精品丝袜美腿在线| 国产自拍成人免费视频| 潮喷失禁大喷水aⅴ无码| 亚洲gv白嫩小受在线观看| 人妻精品久久中文字幕| 一区二区免费中文字幕| 无码人妻久久久一区二区三区| 久久久精品国产sm调教网站| 亚洲高清无码第一| 麻豆av毛片在线观看| 少妇无套裸按摩呻吟无呜 |