亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)聚類(lèi)算法的目標(biāo)點(diǎn)云分割

        2024-05-19 14:36:42張媛施衛(wèi)
        電腦知識(shí)與技術(shù) 2024年7期

        張媛 施衛(wèi)

        摘要:激光雷達(dá)作為自動(dòng)駕駛不可或缺的傳感器,非地面點(diǎn)云聚類(lèi)作為環(huán)境感知障礙物的重要環(huán)節(jié),對(duì)自動(dòng)駕駛汽車(chē)的安全至關(guān)重要。針對(duì)現(xiàn)有聚類(lèi)方法出現(xiàn)的聚類(lèi)不足、過(guò)度聚類(lèi)和實(shí)時(shí)性差的問(wèn)題,本文提出了一種從粗到細(xì)的聚類(lèi)策略來(lái)平衡聚類(lèi)的精度和速度。首先提出基于角度和距離判斷的聚類(lèi)方法對(duì)點(diǎn)云進(jìn)行粗處理,然后采用基于斷點(diǎn)檢測(cè)的聚類(lèi)方法對(duì)點(diǎn)云進(jìn)行細(xì)化,實(shí)現(xiàn)了目標(biāo)點(diǎn)云的精確分割。最后在公開(kāi)的KITTI數(shù)據(jù)集上對(duì)本文提出的方法進(jìn)行了評(píng)估,實(shí)驗(yàn)結(jié)果表明,其分割準(zhǔn)確率達(dá)到82.2%,且分割時(shí)間較其他傳統(tǒng)算法明顯縮短,該算法具有良好的魯棒性。

        關(guān)鍵詞:激光雷達(dá);點(diǎn)云分割;聚類(lèi)算法

        中圖分類(lèi)號(hào):TP18? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1009-3044(2024)07-0008-04

        開(kāi)放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID)

        0 引言

        隨著人工智能的發(fā)展,自動(dòng)駕駛逐漸成為熱門(mén)話題。自動(dòng)駕駛系統(tǒng)主要由感知、決策和控制三個(gè)模塊組成,是一個(gè)綜合性的智能控制系統(tǒng)[1]。其中,環(huán)境感知模塊是自動(dòng)駕駛汽車(chē)的核心。它通過(guò)各種傳感器獲取汽車(chē)周?chē)沫h(huán)境信息,為后續(xù)的信息處理提供數(shù)據(jù)基礎(chǔ)。

        激光雷達(dá)作為自動(dòng)駕駛非常重要的傳感器之一,它具有不受光干擾、信息豐富等優(yōu)點(diǎn),其生成的點(diǎn)云數(shù)據(jù)具體處理流程如圖1所示。1) 點(diǎn)云濾波,去除干擾點(diǎn)云。2) 點(diǎn)云分割[2]:將濾波后的點(diǎn)云劃分為地面點(diǎn)和非地面點(diǎn),再將非地面點(diǎn)云聚類(lèi)為不同的簇。3) 檢測(cè)與識(shí)別[3]:地面點(diǎn)邊界提取,非地面點(diǎn)行人、車(chē)輛、建筑物等目標(biāo)的可行駛區(qū)域檢測(cè)與識(shí)別。4) 目標(biāo)跟蹤[4]:通過(guò)前后幀的相關(guān)性,利用卡爾曼濾波或粒子濾波對(duì)同一目標(biāo)進(jìn)行跟蹤。

        分割作為處理原始點(diǎn)云數(shù)據(jù)的開(kāi)始,聚類(lèi)作為分割的一部分,其準(zhǔn)確性和時(shí)效性直接影響到整個(gè)自動(dòng)駕駛。但在實(shí)際調(diào)查中,筆者發(fā)現(xiàn)由于點(diǎn)云數(shù)據(jù)量龐大且復(fù)雜,密度分布不均勻,實(shí)際駕駛場(chǎng)景復(fù)雜多變,現(xiàn)有的很多方法容易出現(xiàn)聚類(lèi)過(guò)度和聚類(lèi)不足的問(wèn)題。

        近年來(lái),基于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的有監(jiān)督平面分割方法深受研究者青睞,Bichen Wu等人[5]利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)LiDAR點(diǎn)云中的物體進(jìn)行語(yǔ)義分割,可以獲得實(shí)時(shí)性的結(jié)果。Qingyong Hu等人[6]引入了一種高效且輕量級(jí)的神經(jīng)架構(gòu),該架構(gòu)使用隨機(jī)點(diǎn)采樣代替更復(fù)雜的點(diǎn)選擇方法來(lái)推斷大規(guī)模點(diǎn)云的逐點(diǎn)語(yǔ)義。GndNet[7]是一種新穎的端到端點(diǎn)云處理方法,它使用PointNet和Pillar特征編碼網(wǎng)絡(luò)來(lái)學(xué)習(xí)點(diǎn)特征,實(shí)現(xiàn)了對(duì)點(diǎn)云的實(shí)時(shí)語(yǔ)義分割。雖然深度學(xué)習(xí)方法可以實(shí)現(xiàn)較高的分割精度,且大部分都可以實(shí)現(xiàn)實(shí)時(shí)性,但基于深度學(xué)習(xí)的點(diǎn)云分割仍然存在很多問(wèn)題,例如數(shù)據(jù)集的規(guī)模小,需要大量清晰的坐標(biāo)、強(qiáng)度和點(diǎn)云顏色的訓(xùn)練數(shù)據(jù),導(dǎo)致無(wú)法在非結(jié)構(gòu)化的點(diǎn)云模型組成的場(chǎng)景中進(jìn)行分割。此外,深度學(xué)習(xí)的計(jì)算成本很高,需要專(zhuān)用的GPU設(shè)備實(shí)現(xiàn)。相比之下,傳統(tǒng)的無(wú)監(jiān)督方法在許多情況下仍然以其易于操作和高可靠性而受到青睞[8]。一般來(lái)說(shuō),無(wú)監(jiān)督平面分割方法可以分為三大類(lèi):區(qū)域生長(zhǎng)法、基于模型擬合的方法和基于聚類(lèi)的方法。

        基于聚類(lèi)的方法是不同方法的混合體,這些方法有一個(gè)共同的目標(biāo):將具有相似幾何光譜特征或空間分布的點(diǎn)分組到相同的同質(zhì)神經(jīng)模式中。與區(qū)域增長(zhǎng)和模型擬合不同,這些模式通常不是預(yù)定義的,因此基于聚類(lèi)的算法可以用于不規(guī)則目標(biāo)分割,而且基于聚類(lèi)的方法比監(jiān)督方法計(jì)算量少。

        1 點(diǎn)云預(yù)處理

        1.1 點(diǎn)云濾波

        3D點(diǎn)云數(shù)據(jù)具有稀疏性、無(wú)序性、無(wú)結(jié)構(gòu)性和數(shù)據(jù)量大等特點(diǎn)。在分離障礙物點(diǎn)云之前,首先需要對(duì)激光雷達(dá)獲得的點(diǎn)云進(jìn)行濾波,去除無(wú)效目標(biāo)點(diǎn)云,降低點(diǎn)云數(shù)據(jù)的密度,以減少計(jì)算量和內(nèi)存占用[9]。下采樣濾波可用于去除點(diǎn)云數(shù)據(jù)中的冗余信息,提高點(diǎn)云數(shù)據(jù)的處理速度和效率。傳統(tǒng)的體素濾波是通過(guò)輸入的點(diǎn)云數(shù)據(jù)創(chuàng)建一個(gè)三維體素柵格,然后將每個(gè)體素內(nèi)所有的點(diǎn)都用該體素內(nèi)的代表點(diǎn)(重心)來(lái)近似,這樣可以大大減少數(shù)據(jù)量。體素濾波器旨在實(shí)現(xiàn)向下采樣,同時(shí)不破壞點(diǎn)云本身的幾何結(jié)構(gòu),還可以去除一定程度的噪音點(diǎn)和離群點(diǎn),但會(huì)移動(dòng)點(diǎn)的位置。

        本文采用均勻采樣濾波器[10]對(duì)原始點(diǎn)云進(jìn)行下采樣。通過(guò)構(gòu)建指定半徑為0.01m的球體對(duì)點(diǎn)云進(jìn)行下采樣濾波,將每一個(gè)球內(nèi)距離球體中心最近的點(diǎn)作為下采樣后的點(diǎn)輸出。與體素濾波相比,通過(guò)均勻采樣濾波器下采樣后,點(diǎn)云基本分布均勻,且沒(méi)有移動(dòng)點(diǎn)的位置。如圖2所示,左圖為原始點(diǎn)云數(shù)據(jù),右圖為濾波后的點(diǎn)云數(shù)據(jù)。

        1.2 去除地面點(diǎn)云

        對(duì)于濾除后的點(diǎn)云采用平面模型估計(jì):[Ax+By+Cz+D=0],即表示為[nTx=-d],其中[n=a,b,cT],[x=x,y,zT],通過(guò)初始點(diǎn)集的協(xié)方差矩陣[c∈R3×3]來(lái)求解[n],從而確定一個(gè)平面。筆者采用種子點(diǎn)集[S∈R3]作為初始點(diǎn)集,其協(xié)方差矩陣為:

        [C=i=1:ssi-ssi-sT]

        式中:[s]為所有點(diǎn)的均值,協(xié)方差矩陣[C]描述了種子點(diǎn)集的散布情況,其三個(gè)奇異向量可以通過(guò)奇異值分解(Singular Value Decomposition) 求得,這三個(gè)奇異向量描述了點(diǎn)集在三個(gè)主要方向的散布情況。由于是平面模型,垂直于平面的法向量n表示具有最小方差的方向,可以通過(guò)計(jì)算具有最小奇異值的奇異向量來(lái)求得,并將n代入平面方程后可求出D,進(jìn)而得到平面模型[11]。

        得到平面模型以后,接著計(jì)算點(diǎn)云中每一個(gè)點(diǎn)到該平面的正交投影的距離,并且將這個(gè)距離與設(shè)定的閾值[Th]比較,當(dāng)高度差小于此閾值,認(rèn)為該點(diǎn)屬于地面,當(dāng)高度差大于此閾值,則為非地面點(diǎn)。經(jīng)過(guò)分類(lèi)以后的所有地面點(diǎn)被當(dāng)作下一次迭代的種子點(diǎn)集,迭代優(yōu)化,最終得到去除地面點(diǎn)的目標(biāo)點(diǎn)云數(shù)據(jù)。

        2 改進(jìn)聚類(lèi)算法

        本文提出了一種由粗到精的聚類(lèi)策略,以達(dá)到準(zhǔn)確和實(shí)時(shí)的聚類(lèi)結(jié)果。具體實(shí)施方法是輸入非地面點(diǎn)云,首先根據(jù)鄰域點(diǎn)的角度和距離準(zhǔn)則進(jìn)行粗聚類(lèi),然后再通過(guò)自適應(yīng)斷點(diǎn)檢測(cè)進(jìn)行聚類(lèi)細(xì)化,最終輸出精細(xì)聚類(lèi)結(jié)果。在這一部分中,主要是對(duì)去除地面點(diǎn)后剩下的點(diǎn)云進(jìn)行處理,將非地面點(diǎn)數(shù)學(xué)描述為:[Png=Pk=xk,yk,zk,k=1,2,…,n]。這樣可以充分發(fā)揮距離圖像鄰域關(guān)系清晰、獲取方便、計(jì)算速度快的優(yōu)點(diǎn)。

        2.1 基于角度和距離判斷的粗聚類(lèi)

        首先,使用角度判斷非地面點(diǎn)云是否為我們所需要的點(diǎn)云,如圖3所示,圖像相鄰的兩個(gè)點(diǎn)P1、P2與激光雷達(dá)發(fā)射原點(diǎn)之間形成夾角,假設(shè)兩束光束中較長(zhǎng)的光束所在直線為y軸,相鄰光束之間的夾角為α,α是激光雷達(dá)在水平或垂直方向上的角分辨率,這主要是由激光的型號(hào)決定的。

        其中:OP1與OP2的長(zhǎng)度表示相鄰點(diǎn)的深度值,分別為d1、d2。H為點(diǎn)P1在OP2線上的投影,角度[β]為P1P2與OP2的夾角,用于判斷P1和P2是否屬于同一聚類(lèi)對(duì)象, [β]的大小可以用公式計(jì)算:

        [β=arctanP1HP2H=arctand1sinad2-d1cosα]

        通過(guò)大量計(jì)算圖像上任意行或列中P1和P2相鄰點(diǎn)對(duì)應(yīng)的[β],發(fā)現(xiàn)相鄰點(diǎn)屬于不同聚類(lèi)的[β]值一般較小,相鄰點(diǎn)屬于同一聚類(lèi)的[β]值較大。對(duì)此方法[12]進(jìn)行優(yōu)化,加入距離判斷條件,即考慮相鄰點(diǎn)之間的距離差,距離差[Δd=d1-d2]。結(jié)合上述兩個(gè)判斷條件,預(yù)先定義角度閾值參數(shù)[θ]和距離閾值參數(shù)[dth],因此,當(dāng)[β>θ]且[?d

        加入深度距離判斷之后,在處理點(diǎn)云多平面場(chǎng)景聚類(lèi)時(shí),有效解決了部分平面過(guò)度分割的問(wèn)題。然而,在目標(biāo)邊緣或多個(gè)目標(biāo)相接近時(shí),仍然容易產(chǎn)生分割過(guò)度或者分割不足的情況。因此,在粗聚類(lèi)的基礎(chǔ)上還要對(duì)聚類(lèi)目標(biāo)進(jìn)行細(xì)化。

        2.2 基于自適應(yīng)斷點(diǎn)檢測(cè)的聚類(lèi)優(yōu)化

        針對(duì)粗聚類(lèi)會(huì)產(chǎn)生一個(gè)聚類(lèi)被分割成多個(gè)目標(biāo)的過(guò)分割問(wèn)題和兩個(gè)聚類(lèi)錯(cuò)誤聚在一起的欠分割問(wèn)題,需要在聚類(lèi)過(guò)程中進(jìn)一步融合滿足連通性要求的小聚類(lèi)。在此過(guò)程中,主要使用基于鄰域策略的自適應(yīng)斷點(diǎn)檢測(cè)來(lái)改進(jìn)聚類(lèi)。

        KNN[13]算法因其簡(jiǎn)單易操作受到廣泛的運(yùn)用,其工作原理可以簡(jiǎn)單概括為:在一個(gè)已知類(lèi)別的數(shù)據(jù)集中,對(duì)于未知類(lèi)別的任意一個(gè)數(shù)據(jù)點(diǎn),根據(jù)最近的[k]數(shù)據(jù)類(lèi)別進(jìn)行投票,從而實(shí)現(xiàn)對(duì)未知數(shù)據(jù)的分類(lèi),通常取[k]為奇數(shù)值,以防止判別的模糊性。如圖4所示,問(wèn)號(hào)中心點(diǎn)的類(lèi)別可以根據(jù)[k]最近鄰點(diǎn)來(lái)確定。計(jì)算得到的距離值[dx,y]采用歐幾里得距離,公式如下:

        [dx,y=x,-y12+x2-y22+…+xn-yn2]

        [=i=1nxi-yi2]

        在KNN算法運(yùn)行的過(guò)程中,需要計(jì)算所有鄰域點(diǎn)的距離,并預(yù)設(shè)合適的[k]值,才能獲得滿意的結(jié)果,耗時(shí)長(zhǎng)且不方便。為了獲得快速的計(jì)算效率,本文沒(méi)有使用KNN算法,而是使用了更輕量級(jí)的RBNN算法[14]。它通過(guò)預(yù)定義的半徑[r]對(duì)未知數(shù)據(jù)點(diǎn)進(jìn)行分類(lèi),該算法的優(yōu)點(diǎn)是不需要對(duì)每個(gè)節(jié)點(diǎn)執(zhí)行最近領(lǐng)域搜索,不涉及圖像切割和重新排列圖形結(jié)構(gòu)。

        在實(shí)際操作過(guò)程中發(fā)現(xiàn),預(yù)設(shè)的[r]值難以獲得滿意的結(jié)果,而且部分兩點(diǎn)夾角比較小的點(diǎn)云難以準(zhǔn)確聚類(lèi)??梢詫?duì)[r]值進(jìn)行相應(yīng)改進(jìn),增加斷點(diǎn)檢測(cè)功能,在聚類(lèi)過(guò)程中可以避免聚類(lèi)不連續(xù)點(diǎn)出現(xiàn)。設(shè)置斷點(diǎn)標(biāo)志[kbn],如果點(diǎn)[Pn]是斷點(diǎn),那么標(biāo)志[kbn]和[kbn-1]都應(yīng)該設(shè)置為T(mén)RUE,可表述為:if[ pn-pn-1>Dmax]

        then[Kbn]:=TURE,and[kbn-1]:=TURE

        式中:[pn-Pn-1]為相鄰點(diǎn)[pn]和[pn-1]之間的歐幾里得距離,[Dmax]為距離閾值,這在RBNN算法中是一個(gè)常數(shù),但很難滿足點(diǎn)云密度隨距離變化的特點(diǎn)。所以,筆者采用自適應(yīng)閾值檢測(cè)方法,如圖5所示,[pn-2]、[pn-1]和[pn]為相鄰點(diǎn),以點(diǎn)[pn-1]定義一條虛線,該虛線相對(duì)于掃描方向[τn-1]產(chǎn)生的夾角[η],可以推斷最差可接受范圍點(diǎn)[Pn]。在此約束條件下,設(shè)定第[n]個(gè)點(diǎn)的距離[rhn]與[rn-1]有關(guān),用公式表示:

        [rhnrn-1=sinηsinn-Δτ]

        [Phn-Pn-1=rn-1·sinΔτsinn-Δτ]

        式中:[Phn-Pn-1]為斷點(diǎn)檢測(cè)閾值,[Phn]為第n個(gè)假設(shè)斷點(diǎn),并增加[3×σ]的冗余范圍,以處理檢測(cè)過(guò)程中可能出現(xiàn)的噪聲情況。因此,最終的自適應(yīng)閾值表示為:

        [Dmax=Phn-Pn-1+3σ]

        最終的自適應(yīng)斷點(diǎn)檢測(cè)器表示一個(gè)以點(diǎn)[Pn-1]為中心,半徑為[Dmax]的閾值圓,如果下一個(gè)[Pn]在閾值圓內(nèi),則將[Pn]點(diǎn)添加到[Pn-1]集群中,得到最終的精細(xì)化結(jié)果。

        3 實(shí)驗(yàn)結(jié)果與分析

        為了驗(yàn)證本文提出的算法實(shí)際效果,在Linux平臺(tái)Ubuntu18.04上基于PCL1.9.1實(shí)現(xiàn)。實(shí)驗(yàn)所使用的數(shù)據(jù)來(lái)源是公開(kāi)的KITTI數(shù)據(jù)集[15],其數(shù)據(jù)采集是搭載一個(gè)Velodyne HDL-64E激光掃描儀,它以每秒10幀的速度旋轉(zhuǎn),每個(gè)周期捕獲大約100k個(gè)點(diǎn)。

        如圖6(a) 所示為原始點(diǎn)云鳥(niǎo)瞰圖,點(diǎn)云龐雜且混亂,因激光掃描目標(biāo)過(guò)多或激光雷達(dá)抖動(dòng)造成的無(wú)效目標(biāo)點(diǎn)云。經(jīng)過(guò)本文采用的點(diǎn)云預(yù)處理方法,在沒(méi)有改變?cè)键c(diǎn)云特性的基礎(chǔ)上,濾除了遠(yuǎn)處大量的離群點(diǎn)噪音點(diǎn),且去除了不必要的地面點(diǎn)云,如圖6(b) 所示,只針對(duì)目標(biāo)點(diǎn)云進(jìn)行聚類(lèi)算法的研究。

        圖7為分別采用傳統(tǒng)的聚類(lèi)分割算法和本文提出的聚類(lèi)方法的結(jié)果,其對(duì)目標(biāo)點(diǎn)云的分割效果明顯不同。其中:(a) 為區(qū)域生長(zhǎng)分割。(b) 為歐式聚類(lèi)分割。(c) 為DBSCAN聚類(lèi)分割。(d) 為本文方法的分割。其中區(qū)域生長(zhǎng)分割和DBSCAN聚類(lèi)分割存在分割不足的情況,而歐式聚類(lèi)分割則存在過(guò)度分割的問(wèn)題,本文提出的從粗到細(xì)的聚類(lèi)方法分割效果更好,一定程度上解決了傳統(tǒng)聚類(lèi)方法造成的分割不足或過(guò)度的問(wèn)題。同時(shí),對(duì)于點(diǎn)云目標(biāo)分割的準(zhǔn)確率和每種算法所消耗的時(shí)間如表1所示,本文提出的方法不僅分割準(zhǔn)確率更高,且耗時(shí)較短。

        4 結(jié)束語(yǔ)

        本文提出了一種基于改進(jìn)聚類(lèi)算法的目標(biāo)點(diǎn)云分割方法。該方法針對(duì)非地面點(diǎn)云進(jìn)行處理,在距離圖像上利用快速鄰域搜索的特點(diǎn),可以達(dá)到較高的粗聚類(lèi)效率。自適應(yīng)斷點(diǎn)檢測(cè)可以解決粗糙聚類(lèi)中聚類(lèi)過(guò)度和聚類(lèi)不足的問(wèn)題。將本文所提方法與幾種常用的點(diǎn)云聚類(lèi)分割方法進(jìn)行了比較,結(jié)果表明,所提方法聚類(lèi)效果更好,耗時(shí)較短。

        參考文獻(xiàn):

        [1] 王涔宇,張平.汽車(chē)自動(dòng)駕駛關(guān)鍵技術(shù)分析[J].汽車(chē)實(shí)用技術(shù),2021,46(23):20-22,29.

        [2] WANG W Q,YOU X,YANG J,et al.LiDAR-based real-time panoptic segmentation via spatiotemporal sequential data fusion[J].Remote Sensing,2022,14(8):1775.

        [3] 伍錫如,薛其威.基于激光雷達(dá)的無(wú)人駕駛系統(tǒng)三維車(chē)輛檢測(cè)[J].光學(xué) 精密工程,2022,30(4):489-497.

        [4] 顧立鵬,孫韶媛,劉訓(xùn)華,等.基于激光點(diǎn)云坐標(biāo)系的3D多目標(biāo)跟蹤算法研究[J].激光與紅外,2021,51(10):1307-1313.

        [5] WU B C,WAN A,YUE X Y,et al.SqueezeSeg:convolutional neural nets with recurrent CRF for real-time road-object segmentation from 3D LiDAR point cloud[C]//2018 IEEE International Conference on Robotics and Automation (ICRA).ACM,2018:1887-1893.

        [6] HU Q Y,YANG B,XIE L H,et al.RandLA-net:efficient semantic segmentation of large-scale point clouds[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 13-19,2020.Seattle,WA,USA.IEEE,2020:11108-11117.

        [7] PAIGWAR A,ERKENT ?,SIERRA-GONZALEZ D,et al.GndNet:fast ground plane estimation and point cloud segmentation for autonomous vehicles[C]//2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS).ACM,2020:2150-2156.

        [8] CHEN H,LIANG M,LIU W Q,et al.An approach to boundary detection for 3D point clouds based on DBSCAN clustering[J].Pattern Recognition,2022,124:108431.

        [9] 趙涵,劉永生,趙德鵬,等.基于混合濾波的點(diǎn)云去噪算法研究[J].應(yīng)用激光,2023,43(9):147-155.

        [10] 肖正濤,高健,吳東慶,等.一種基于體素網(wǎng)格的三維點(diǎn)云均勻降采樣方法[J].機(jī)械設(shè)計(jì)與制造,2023(8):180-184.

        [11] 丁鴿,燕立爽,彭健,等.基于RANSAC算法的隧道點(diǎn)云橫斷面提取[J].測(cè)繪通報(bào),2021(9):120-123.

        [12] BOGOSLAVSKYI I,STACHNISS C.Fast range image-based segmentation of sparse 3D laser scans for online operation[C]//2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS).IEEE,2016:163-169.

        [13] 楊曉文,王愛(ài)兵,韓燮,等.基于KNN-PointNet的點(diǎn)云語(yǔ)義分割[J].激光與光電子學(xué)進(jìn)展,2021,58(24):272-279.

        [14] KLASING K,WOLLHERR D,BUSS M.A clustering method for efficient segmentation of 3D laser data[C]//2008 IEEE International Conference on Robotics and Automation.May 19-23,2008.Pasadena,CA,USA.IEEE,2008:4043-4048.

        [15] CORDTS M, OMRAN M, RAMOS S, et al. The cityscapes dataset[C]//CVPR Workshop on the Future of Datasets in Vision. sn, 2015, 2.

        【通聯(lián)編輯:唐一東】

        亚洲αv在线精品糸列| 少妇粉嫩小泬喷水视频www| 亚洲日本中文字幕天天更新| 久久夜色撩人精品国产小说| 亚洲精品92内射| 四虎在线播放免费永久视频| 亚洲一区二区女优av| 久久精品国产亚洲av成人网| 一区二区激情偷拍老牛视频av| 久久中文字幕人妻淑女| 精品亚洲a∨无码一区二区三区| 疯狂撞击丝袜人妻| 中国xxx农村性视频| 2021av在线| 欧美人与动牲交片免费播放| 亚洲性日韩一区二区三区| 亚洲欧洲成人精品香蕉网| 亚洲一卡2卡3卡4卡5卡精品| 亚洲天堂99| 婷婷五月亚洲综合图区| 极品少妇一区二区三区四区视频| 性欧美丰满熟妇xxxx性久久久| 国产二级一片内射视频播放| 人人做人人妻人人精| 午夜亚洲国产理论片亚洲2020| 日韩色久悠悠婷婷综合| 日韩一本之道一区中文字幕| 日本男人精品一区二区| 免费无码不卡视频在线观看| 中文字幕有码无码av| 999久久久免费精品国产牛牛| 日韩亚洲午夜精品一区二区三区| 干日本少妇一区二区三区| 国产成本人片无码免费2020| 欧美黑人疯狂性受xxxxx喷水 | 欧美gv在线观看| 成人xx免费无码| 国产女主播在线免费看| 人成在线免费视频网站| 久久狠狠色噜噜狠狠狠狠97| 久久人妻公开中文字幕|