亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于語義信息的三維點云全景分割方法研究

        2023-10-28 07:29:54任不凡黃小燕吳思東袁建英
        關(guān)鍵詞:語義方法

        任不凡, 黃小燕, 吳思東, 蔣 濤, 袁建英

        (成都信息工程大學(xué)自動化學(xué)院,四川 成都 610225)

        0 引言

        在智能機器人[1]、自動駕駛[2]等領(lǐng)域,利用三維激光點云數(shù)據(jù)進(jìn)行目標(biāo)檢測、語義分割等工作發(fā)展迅速[3],許多應(yīng)用場景都需要三維激光點云處理,并進(jìn)行環(huán)境感知和準(zhǔn)確解析。 目標(biāo)檢測需要識別周圍環(huán)境中相關(guān)的目標(biāo)物體(如汽車、行人),并對檢測到的物體實時快速反應(yīng);語義分割即對三維點云中的每個點賦予其實際意義的標(biāo)簽,是環(huán)境解析中一項非常重要的任務(wù)。 但目前利用三維激光點云數(shù)據(jù)對場景內(nèi)的環(huán)境解析還不夠精細(xì),如語義分割不能對同一類型不同的個體進(jìn)行區(qū)分,而這些解析對于整個智能系統(tǒng)是否能做出穩(wěn)健和安全決策至關(guān)重要。 如何利用點云準(zhǔn)確對場景進(jìn)行全方位解析,獲取精細(xì)化的信息,受到越來越多學(xué)者的關(guān)注。

        目前,針對三維點云的大多研究仍集中在對分割的單個類別的推理或單個對象的識別,無法滿足應(yīng)用場景中對整體環(huán)境進(jìn)行解析的實際需求。 全景分割是圖像領(lǐng)域[4]引入的問題,它將場景分為不可數(shù)目標(biāo)(stuff)和可數(shù)目標(biāo)(things)兩種類別,并生成全局的、統(tǒng)一的分割場景。 其中,對如天空、道路、草地等目標(biāo)分為背景stuff 類別,進(jìn)行語義分割,分配語義標(biāo)簽;對如汽車、自行車、行人等目標(biāo)分為前景things 類別,進(jìn)行實例分割并分配實例標(biāo)簽和ID,以區(qū)分出他們相同類別中的不同個體。 全景分割任務(wù)以及全新評價指標(biāo)的提出,使該項任務(wù)得到了廣泛的應(yīng)用與關(guān)注。 因此,利用三維點云數(shù)據(jù)信息,進(jìn)行更加精細(xì)的全景分割方法研究成為一個熱門的場景解析問題。

        隨著深度學(xué)習(xí)技術(shù)的發(fā)展,涌現(xiàn)出許多用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法來解決全景分割問題。 現(xiàn)有的全景分割方法主要分為將點云投影至二維圖像的方法、三維目標(biāo)檢測與語義分割相結(jié)合的方法和一站式端到端的全景分割深度學(xué)習(xí)網(wǎng)絡(luò)算法等。 Zhou 等[5]提出的Panoptic-PolarNet 網(wǎng)絡(luò)通過將點云投影至二維圖像,利用鳥瞰圖的方法以PolarNet 為骨干網(wǎng)絡(luò)設(shè)計再通過投票機制來融合生成的語義信息和實例信息,得到最終的全景分割。 Gasperini 等[6]提出的Panoster 網(wǎng)絡(luò)通過添加一個改進(jìn)學(xué)習(xí)聚類方法的實例分支解析對象來得到實例信息,為語義分割網(wǎng)絡(luò)帶來全景能力。 Hong 等[7]提出的DS-Net 網(wǎng)絡(luò)采用專門為三維點云設(shè)計的柱面卷積,通過可學(xué)習(xí)的聚類模塊動態(tài)地處理非均勻的點云的特征,來融合語義和實例兩個分支模塊。 此外,將語義分割與三維目標(biāo)檢測相結(jié)合進(jìn)行全景分割方法也是解決方案的一個途徑。 如語義分割網(wǎng)絡(luò)KPConv[8]與三維目標(biāo)檢測網(wǎng)絡(luò)PointPillars[9]或者PV-RCNN[10]相結(jié)合,語義分割網(wǎng)絡(luò)RangeNet[11]與三維目標(biāo)檢測網(wǎng)絡(luò)PointPillars 相結(jié)合,在三維點云全景分割中被證明是一種十分有效的解決方案。

        以上方法大多在實現(xiàn)前景類分割時存在解析精度不夠、解析運行所耗費的系統(tǒng)資源較高和運算時間較長等問題。 且端到端的分割網(wǎng)絡(luò),若網(wǎng)絡(luò)結(jié)構(gòu)某一部分不能準(zhǔn)確分割,不僅會導(dǎo)致整個網(wǎng)絡(luò)的性能不良,而且會影響全景分割整體精度的平衡。 為提升全景分割的性能,提高推理速度,本文提出一種基于語義信息的全景分割方法,以更快速精準(zhǔn)地進(jìn)行場景解析與感知。該方法利用語義分割網(wǎng)絡(luò)獲取整個場景的語義信息,再對things 類別語義信息進(jìn)行整合,結(jié)合語義、空間及法向量信息,利用輕量快速的聚類算法對實例進(jìn)行分割,最后結(jié)合stuff 類別語義信息獲取整個場景的全景分割結(jié)果。

        本文的主要貢獻(xiàn):

        (1)設(shè)計了一種基于語義信息的全景分割方法。利用語義分割網(wǎng)絡(luò)得到語義信息,結(jié)合語義信息和空間信息對前景things 類別進(jìn)行實例分割,從而實現(xiàn)全景分割。 該方法將全景分割進(jìn)行解耦,減輕了網(wǎng)絡(luò)模型壓力,獲得了很好的分割效果。

        (2)設(shè)計了一種結(jié)合語義信息和空間信息的聚類分割方法。 對相鄰目標(biāo)提出以法向量夾角的判斷方法,準(zhǔn)確分割出不同目標(biāo),進(jìn)一步提升全景分割的效果。

        (3)在大規(guī)模交通場景數(shù)據(jù)集Semantic KITTI 上進(jìn)行驗證,與已有的全景分割網(wǎng)絡(luò)Panoptic RangeNet、Panoster、Panoptic-PolarNet、DS-Net 對比,實驗結(jié)果表明本文的全景分割方法性能達(dá)到了優(yōu)異的水平:PQ 為56.5%、RQ 為67.9%、SQ 為82.3%、mIoU 為68.2%。而且,對前景things 類別的實例聚類分割部分只額外增加24 ms的處理時間。

        1 方法

        1.1 整體網(wǎng)絡(luò)模型框架

        全景分割網(wǎng)絡(luò)框架由3 個部分組成:利用點云語義分割模型對點云進(jìn)行語義分割獲取點云語義信息;根據(jù)語義信息劃分前景類別和背景類別,對前景類別利用聚類算法進(jìn)行實例分割;將背景類的語義信息與前景類的實例分割結(jié)果結(jié)合,實現(xiàn)整個應(yīng)用場景的全景分割解析。 完整的全景分割網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示。

        圖1 全景分割整體網(wǎng)絡(luò)結(jié)構(gòu)框架

        1.2 語義解析

        直接利用現(xiàn)有的語義分割網(wǎng)絡(luò)對點云進(jìn)行處理獲取語義信息,換句話說,任意語義分割網(wǎng)絡(luò)都能夠適用于本文的全景框架。 在此,選擇目前最先進(jìn)的語義分割網(wǎng)絡(luò)Cylinder3D[12]獲取每個點的語義信息。 并根據(jù)全景分割的定義,將語義信息按照前景things 類別和背景stuff 類別將點云劃分。

        1.3 前景類對象實例解析

        針對前景類對象,全景分割需進(jìn)一步對每個目標(biāo)進(jìn)行準(zhǔn)確分割。 因此,將語義分割模型結(jié)果與點云空間信息進(jìn)行結(jié)合,利用聚類算法對同類別目標(biāo)點進(jìn)行聚合,從而實現(xiàn)單個個體的分割。 直接利用語義信息可將不同類別信息進(jìn)行初始劃分,隨后利用空間距離對點云聚類實現(xiàn)目標(biāo)個體的分割。 但如果存在多個個體距離很近的情況,基于空間距離的聚類方法可能會失效,如圖2(a)所示,當(dāng)兩個行人靠近時,基于空間距離的聚類方法不能準(zhǔn)確分割單個個體。 由于同一物體表面點法向量變化緩慢,相鄰個體通常存在明顯間隔,邊界區(qū)域法向量存在明顯變化,因此本文提出一種基于法線夾角的分割策略。 該策略利用法線夾角檢測相鄰目標(biāo)邊緣并保存,將邊緣點剔除加大相鄰目標(biāo)間隔,從而分開相鄰目標(biāo)。

        圖2 多個行人距離近時分割效果

        基于法線夾角的邊緣點檢測流程(圖3)如下:

        圖3 基于法線夾角的邊緣點檢測流程

        步驟1 采用體素下采樣以減少后續(xù)檢測流程的處理時間。

        步驟2 因為點云中單個點沒有辦法計算法向量,所以只能通過擬合平面估計局部鄰域內(nèi)的點云法向量,使用k近鄰算法搜索距離目標(biāo)點s最近的k個近鄰點p,距離小于閾值即為近鄰點,其搜索近鄰點距離的核心公式:

        式中,d為近鄰點pi與目標(biāo)點s之間的距離;st為目標(biāo)點s的第t個屬性;pit為第i個近鄰點的第t個屬性;m為屬性總數(shù),取值范圍為[1,3]。

        步驟3 利用目標(biāo)點s連接近鄰點pi,pi-1構(gòu)建向量組成平面,求出最近的k個近鄰點估計出的平均法向量n:

        式中,n為平均法向量;和為目標(biāo)點與近鄰點構(gòu)建的向量。

        步驟4 在這個局部鄰域內(nèi),對需要判定的點,計算點法向量與平均法向量之間的法向量夾角α,判斷α與夾角閾值T的大小關(guān)系,若α

        式中,ni為點法向量,n為平均法向量,它們之間的夾角為α。

        步驟5 判斷是否所有點均被檢測。 若未檢測完,繼續(xù)跳回步驟2 執(zhí)行;若檢測完畢,則完成邊緣點的判斷,結(jié)束流程。

        在獲取邊緣點之后,將邊緣點從原數(shù)據(jù)中分離出來,并對提取后剩余的原始數(shù)據(jù)利用聚類算法進(jìn)行點云聚類。 隨后,還需要將已分離出集合C里的邊緣點還原,因此需將這些點根據(jù)K近鄰來判斷所靠近近鄰點多數(shù)的標(biāo)簽作為該點的標(biāo)簽,從而完成實例分割。圖2(b)為利用法線夾角分割策略后的聚類結(jié)果,可以看出相鄰行人被完整地分割成兩個目標(biāo)。

        聚類算法方面,選擇利用Scan-line Run(SLR)聚類算法[13]對前景類對象進(jìn)行分割,獲得實例分割結(jié)果。 Scan-line Run(SLR)聚類針對實際應(yīng)用,以快速和低復(fù)雜性的方式來解決三維點云分割問題。 該算法在提取地面后,通過分析三維點云的結(jié)構(gòu)特點,利用點云的結(jié)構(gòu)對剩余的非地面點進(jìn)行聚類。 在激光雷達(dá)360°掃描的情況下,所掃描到的每一層被稱為按層組織的一組點云。 每個層中的點也以橢圓的方式組織,所有橢圓層的起點被認(rèn)為共享相同的方向,并利用智能索引來執(zhí)行有效的分割。 激光點云數(shù)據(jù)的多線結(jié)構(gòu)導(dǎo)致的分層,很類似于二維圖像多行堆疊結(jié)構(gòu),激光發(fā)射器垂直方向排列,射線形式發(fā)出,使射線方向類似圖像的列排列,不同之處在于每層元素分布不均勻以及激光點云數(shù)據(jù)獨特的圓環(huán)結(jié)構(gòu)。 本方法將點視為像素,以二進(jìn)制圖像的形態(tài)學(xué)操作為基礎(chǔ),并采用二值圖像的兩次連通分量標(biāo)記技術(shù)[14]來完成實時點云聚類方案。 SLR 算法具體流程(圖4)如下:

        圖4 SLR 聚類算法流程[13]

        步驟1 第一層點初始化。 按順序遍歷點,點間距離小于一定值便判定為同一類,若存在距離或空元素突變便對接下來的點重新賦予初始類別,接收新標(biāo)簽(三角形中數(shù)值)。

        步驟2 新標(biāo)簽的分配和兩個標(biāo)簽的傳播。 8 點最近的非地面相鄰點是2,但它們的距離大于預(yù)先設(shè)置的距離閾值。 在這種情況下,為第8 點賦予新的簇類標(biāo)簽。 接下來,最近的10 的非地面鄰居是3,其距離小于閾值,點10 繼承點3 的簇類標(biāo)簽1。 同理,點12 和13 都接近它們各自的相鄰點5 和6,獲得與相鄰點一樣的簇類標(biāo)簽。

        步驟3 中間點處理。 其中點17 和19 有相鄰點10 和12,它們屬于不同的簇并且都滿足于繼承標(biāo)簽的條件。 本方案設(shè)定,此類情況下,按兩個標(biāo)簽中的更小標(biāo)簽(即標(biāo)簽1)繼承。

        步驟4 簇間的合并。 當(dāng)存在步驟3 中屬于不同的簇且都滿足繼承標(biāo)簽的條件情況時,若兩簇連通,則將兩簇合并,賦予較小標(biāo)簽。

        如圖4 所示,白色點代表地面點(此時已完成地面點剔除,相當(dāng)于空),而彩色點為留下來的非地面點。 非地面點以不同顏色區(qū)分簇類,藍(lán)色指還未進(jìn)行類劃分的非地面點,三角形代表對當(dāng)簇的標(biāo)簽劃分。至此,完成分割任務(wù)。

        此外,表1 將SLR 算法與歐幾里得聚類法和深度聚類算法進(jìn)行比較,以驗證SLR 聚類算法的性能。 歐幾里德聚類算法中,將距離閾值(Dth)設(shè)置為中等閾值0.5 m。 因為大的距離閾值會將近距離的對象組合在一起,導(dǎo)致過分割;而小的距離閾值將只能檢測空間距離間隔較大的目標(biāo),對于空間距離間隔較小的多個目標(biāo)極易造成目標(biāo)欠分割的現(xiàn)象,導(dǎo)致欠分割。 對于深度聚類算法,角度閾值θ的選擇為10°。 對于SLR聚類,兩個距離閾值取值分別為0.5和1.0。 在3 種點云聚類方法中,SLR 聚類的分割效果最好。 同時在耗時方面,表1 評估了使用不同聚類方法在平均每一幀上的實例分割處理速度,處理速度最快的是歐幾里得聚類算法,僅18.7 ms,而深度聚類算法和SLR 聚類處理也不慢,分別為19.2 ms和29.4 ms。

        表1 點云聚類方法對比

        1.4 語義信息整合模塊

        本文的全景分割是在語義分割結(jié)果的基礎(chǔ)上進(jìn)一步處理的結(jié)果,若語義分割結(jié)果出錯,會導(dǎo)致聚類方法不可能獲得準(zhǔn)確的聚類效果。 因此,為減少因語義分割結(jié)果錯誤導(dǎo)致的目標(biāo)實例分割出錯的問題,本文對Cylinder3D 算法在Semantic KITTI 數(shù)據(jù)集[15]上的各類前景目標(biāo)分類錯誤概率進(jìn)行了統(tǒng)計,如表2 所示。 可以看到:騎摩托車的人[motorcyclist]錯分到其他類別的概率達(dá)到99.61%。 其中,進(jìn)一步對騎摩托車的人、騎自行車的人、摩托車、自行車的具體誤分的類別進(jìn)行了統(tǒng)計,如表3 所示。 可以看出,騎摩托車的人[motorcyclist]誤分到騎自行車的人[bicyclist]的比率占58.01%,騎自行車的人[bicyclist]誤分到騎摩托車的人[motorcyclist]的比率占0.17%,而摩托車[motorcycle]和自行車[bicycle]相互間的誤分率也很高。 其原因正是因為在行駛過程中,由于激光雷達(dá)有著近密遠(yuǎn)疏的特性,在整個大場景下采集到的騎摩托車的人和騎自行車的人的點云數(shù)據(jù)太過稀疏,特征細(xì)節(jié)不夠豐富。 相比于相機,由于激光雷達(dá)采集到的點云數(shù)據(jù)稀疏、不具有顏色和紋理信息,并且騎自行車的人與騎摩托車的人在行為姿態(tài)特征上又太過相似,因此騎摩托車的人極其容易誤分為騎自行車的人。

        表2 Semantic KITTI 數(shù)據(jù)集類別錯分概率單位:%

        表3 Semantic KITTI 數(shù)據(jù)集主要類別的誤分率單位:%

        有些類別間的差異很小,擁有相似的點云幾何特征,但對于自動駕駛來說他們卻是擁有相似決策邏輯的目標(biāo)對象。 如圖5 所示,在激光雷達(dá)掃描到的點云數(shù)據(jù)中自行車與摩托車擁有幾乎相同的幾何特征。

        圖5 類別差異圖

        若是刻意去判斷這些相似類別間的差異,將會在算力和性能上付出更多的成本代價。 盡管目標(biāo)對象有差異,但是在實際應(yīng)用場景中[16],都會在激光雷達(dá)中掃描到具體的點云信息。 因為無論前方是一個自行車還是摩托車,自動駕駛?cè)蝿?wù)會做出同樣的決策結(jié)果。以實際情況中的這些問題上來說,對這兩者的區(qū)分通過更加均衡的標(biāo)簽分布反而可以獲得更加良好的分割表現(xiàn)。 若在這個階段錯分,則會導(dǎo)致實例分割精度低下。 同樣地,騎自行車的人和騎摩托車的人兩個類別之間的相似特征差異很小,也會影響分割質(zhì)量。

        而對于自動駕駛汽車來說,騎自行車的人和騎摩托車的人、自行車和摩托車類別間的區(qū)分對后續(xù)自動駕駛汽車決策影響不大,但由于其語義分割誤分率較大,使全景分割無法準(zhǔn)確識別各個實例個體。 因此,將數(shù)據(jù)集中的類別進(jìn)行重劃分操作,對標(biāo)簽類別微調(diào)整合,得到如表4 所示的劃分結(jié)果。

        表4 類別重劃分

        2 實驗結(jié)果與分析

        2.1 實驗環(huán)境與測試集

        本文實驗的硬件平臺為搭載了Inter(R)Core(TM)i9-10850K CPU,GeForce RTX 3090 GPU 硬件配置的服務(wù)器,操作系統(tǒng)為Ubuntu 18.04 LTS,軟件架構(gòu)具體的環(huán)境參數(shù)為Python 3.8,CUDA 11.1.0,Cudnn 8.0.4,PyTorch 1.8.0。

        為體現(xiàn)本文方法的有效性,采用的是自動駕駛領(lǐng)域現(xiàn)有的大規(guī)模公開點云分割數(shù)據(jù)集Semantic KITTI。數(shù)據(jù)集Semantic KITTI 主要由郊區(qū)街道組成,交通密度相對較低,將激光雷達(dá)點云逐點分為了28 個類別,忽略點數(shù)極少的小類別后保留19 類用作點云分割。且用標(biāo)簽對其中每個點進(jìn)行注釋,并對360°全場景進(jìn)行數(shù)據(jù)采集和標(biāo)注,顯示了大量具有挑戰(zhàn)性的交通情況和環(huán)境類型。

        2.2 評價指標(biāo)

        本文以平均交并比(mIoU)、全景分割質(zhì)量(PQ)、分割質(zhì)量(SQ)和識別質(zhì)量(RQ)作為實驗的主要評價指標(biāo),能更加綜合地對全景分割進(jìn)行性能評估。 IoU在數(shù)學(xué)中用于計算兩個集合的交集在并集上的占比,在計算機視覺中用于評估分割精度,而mIoU 是所有類別i的平均值,具體定義:

        其中C表示類別數(shù),TPi、FPi和FNi分別表示對i類的預(yù)測中,預(yù)測值和真值一致的點集,真值不是i類卻被分割為i類的點集,真值為i類卻被預(yù)測為其他類的點集。

        全景分割的評估指標(biāo)是全景質(zhì)量、分割質(zhì)量和識別質(zhì)量,PQ 可以解釋為分割質(zhì)量(SQ)和識別質(zhì)量(RQ)的乘積,具體定義如下:

        2.3 對比實驗及分析

        將本文的全景分割方案與其他方案如語義與目標(biāo)檢測結(jié)合的方案、端到端的全景分割方案等進(jìn)行比較,可以看出本文提出的方法在綜合各類全景質(zhì)量(PQ)[17]、分割質(zhì)量(SQ)和識別質(zhì)量(RQ)以及平均交并比(mIoU)評測指標(biāo)下均有優(yōu)異表現(xiàn)。 可以看到,將語義分割與三維目標(biāo)檢測相結(jié)合進(jìn)行全景分割方法也是解決方案的一個分支,但三維目標(biāo)檢測需要一個龐大且復(fù)雜的網(wǎng)絡(luò),并且有冗余的計算標(biāo)簽的成本。如表5 所示,本文的全景分割方案性能優(yōu)于語義分割與三維目標(biāo)檢測結(jié)合的解決方案,與KPConv + PVRCNN 等相比,同樣分割精度明顯提升。 與基于點云投影至二維圖像的方法(如基于鳥瞰圖的Panoptic-PolarNet)相比,本文方法在mIoU 指標(biāo)上有8.6% 的提升。 與一站式端到端的全景分割網(wǎng)絡(luò)模型Panoster 和DS-Net 相比,本文方法在mIoU 指標(biāo)上分別有8.2%、6.5%的提升,在各小類別上的對比在表5 中有詳細(xì)說明,大部分類別指標(biāo)均有不同程度的提升。

        表5 全景分割方法對比

        圖6 展示了本文所提出的方法在SemanticKITTI數(shù)據(jù)集上的分割結(jié)果,從左至右依次為原始點云、語義分割、實例分割的結(jié)果。 可以看到,本文方法的語義分割部分將每一類目標(biāo)分割開,對于重要交通參與者(行人、汽車、大型車輛等)即前景類對象,能夠獲得準(zhǔn)確清晰目標(biāo)邊緣信息,并且對回歸得到準(zhǔn)確語義信息賦予不同的顯示顏色對應(yīng)不同的實例ID 標(biāo)簽。 圖7展示了經(jīng)過法向夾角邊緣檢測優(yōu)化前后三維點云聚類的分割細(xì)節(jié)對比,圖中靠得很近的行人能夠準(zhǔn)確地分割開來,并能夠?qū)崿F(xiàn)在道路交通場景下的逐點語義解析工作,對于可行駛區(qū)域也能獲得可靠信息以供自動駕駛后續(xù)的規(guī)劃使用,網(wǎng)絡(luò)的綜合性能良好。 在實際場景里,真實道路場景解析的需求及環(huán)境相對簡單,類別的劃分不必如此精細(xì)。 而類別劃分需求的精簡,相似類的合并,可減少網(wǎng)絡(luò)類別的識別,增大類間的差異,減輕整個分割框架的負(fù)擔(dān),提高網(wǎng)絡(luò)對類別識別的綜合性能,減少計算和內(nèi)存壓力。 因此,本文也對經(jīng)過標(biāo)簽類別重劃分后的性能指標(biāo)做了對比評估,如表6所示。 最后,本文在表7 還對比了與其他全景分割框架的耗時統(tǒng)計。 本文的框架利用聚類方法,對硬件要求低,能夠在耗費少量資源的條件下僅調(diào)用CPU 即可快速準(zhǔn)確地對語義信息進(jìn)行處理。 如表7 所示,其他端到端的全景分割的方法,如KPConv+PointPillars,處理每一幀點云的耗時高達(dá)500 ms,而本文方法在點云場景中能保持較快的推理速度,特別是在對前景類的實例分割速度僅耗時29.4 ms,卻也可以達(dá)到較高精度,證明了本文方法計算的高效性。

        表6 類別重劃分后全景分割方法對比

        表7 全景分割耗時對比

        圖6 數(shù)據(jù)集Semantic KITTI 的分割效果圖

        圖7 點云聚類分割優(yōu)化細(xì)節(jié)

        3 結(jié)束語

        本研究有助于實現(xiàn)在人工智能領(lǐng)域中對復(fù)雜場景進(jìn)行快速準(zhǔn)確的理解。 具體來說,提出了一個基于語義信息的三維激光點云全景分割方法。 該方法在第一階段利用現(xiàn)有的語義分割網(wǎng)絡(luò)方法得到語義信息。 在第二階段使用輕量且快速的點云聚類算法將前面得到的前景類語義分割信息進(jìn)行后續(xù)處理,并增強實例分割的推理速度。 此外,這一方法在對類別重劃分后大大減輕了種類分布不均造成的不利影響,且在實際道路場景中也能夠高效準(zhǔn)確地進(jìn)行場景解析。 這種方法也適用于其他激光雷達(dá)點云分割任務(wù)。

        為了評估所提出的方法,本文選擇了帶有逐點語義和實例信息注釋的SemanticKITTI 數(shù)據(jù)集,基于不同的分割網(wǎng)絡(luò)模型進(jìn)行了算法實驗。 同時,也對比了幾種點云聚類算法在全景分割中的性能表現(xiàn)。 實驗結(jié)果表明,本文提出的方法可以實現(xiàn)準(zhǔn)確性和效率的有效平衡,其中PQ 為56.5%、RQ 為67.9%、SQ 為82.3%、mIoU 為68.2%。 在全景分割質(zhì)量精度上,相較三維目標(biāo)檢測與語義分割相結(jié)合的方法,如KPConv+PointPillars,提高了12.1%,相較全景分割網(wǎng)絡(luò)模型(如DSNet)提高了0.7%。 總而言之,本文研究是以激光雷達(dá)三維點云全景分割為目的對人工智能領(lǐng)域和自動駕駛場景感知與理解的積極探索。 未來將專注于對復(fù)雜動態(tài)環(huán)境進(jìn)行快速準(zhǔn)確的解析。

        致謝:感謝成都信息工程大學(xué)科研基金(KYTZ202109, KYTZ202142)對本文的資助

        猜你喜歡
        語義方法
        語言與語義
        學(xué)習(xí)方法
        可能是方法不對
        “上”與“下”語義的不對稱性及其認(rèn)知闡釋
        用對方法才能瘦
        Coco薇(2016年2期)2016-03-22 02:42:52
        四大方法 教你不再“坐以待病”!
        Coco薇(2015年1期)2015-08-13 02:47:34
        賺錢方法
        捕魚
        認(rèn)知范疇模糊與語義模糊
        “深+N季”組配的認(rèn)知語義分析
        91久久精品国产综合另类专区| 亚洲色欲色欲大片WWW无码| 少妇被爽到自拍高潮在线观看| 蜜桃网站免费在线观看视频| 午夜时刻免费入口| 国产极品美女高潮抽搐免费网站| 99久久国产亚洲综合精品| 9l国产自产一区二区三区| 亚洲a无码综合a国产av中文| av在线亚洲欧洲日产一区二区| 亚洲欧美日韩国产一区二区精品| 精品久久久久久国产| 亚洲精品自拍视频在线观看| 日本韩国一区二区高清| 免费又黄又爽又色的视频| 亚洲av无码专区国产乱码不卡| 国产精品成人无码久久久久久| 一级老熟女免费黄色片| 婷婷久久香蕉五月综合加勒比| 午夜无码大尺度福利视频| 国产后入内射在线观看| 日本av一级片免费看| 米奇777四色精品人人爽| 狼友AV在线| 日本中文字幕官网亚洲| 日本顶级metart裸体全部| 国产精品久久久久电影网| 国产粉嫩高清| 开心激情视频亚洲老熟女| 中字幕人妻一区二区三区| 少妇对白露脸打电话系列| 亚洲欧美日韩精品香蕉| 久久精品女同亚洲女同| 芒果乱码国色天香| 亚洲欧洲中文日韩久久av乱码| 大陆啪啪福利视频| 亚洲av三级黄色在线观看| 欧美黑人性暴力猛交喷水| 国产精品一区二区韩国AV| 亚洲视频在线免费观看一区二区| 国产日产亚洲系列最新|