亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于FSAC多傳感器賽道錐桶建圖算法研究

        2025-06-27 00:00:00李逸龍李剛鄧偉徐龍
        汽車技術(shù) 2025年5期

        主題詞:方程式賽車激光雷達工業(yè)相機組合慣導(dǎo)系統(tǒng)RGB錐桶地圖中圖分類號:U469.696 文獻標(biāo)志碼:A DOI:10.19620/j.cnki.1000-3703.20240403

        Research on Cone Barrel Mapping Algorithm Based on FSAC MultiSensor Track

        LiYilong1,LiGang1,DengWeiwen2,XuLong1 (1.Liaoning Universityof Technology,Jinzhou121ooo;2.Beijing Universityof AeronauticsandAstronautics, Beijing 102206)

        【Abstract】Forthe problem of mapping failure in the high-speed tracking and figure-eight scenariosof the Formula StudentAutonomous China (FSAC)duetothelimitedrecognitionand lowaccuracyofsingle-sensorcone detection,this paper proposesacone mapping algorithmbasedon theloosecoupling of LiDAR,industrial cameras,andacombined inertial navigation system.Byprojecting LiDARdataontothecamera cordinatesystem,the similaritybetweenthetargetdetection boundingboxes from thecamera’sdep learning framework (YOLOv5)andthe LiDARcone bounding boxes is matched.The fused point cloud,containing RGBcolor information,isthen transformed from the LiDAR cordinatesystem to themap coordinatesystem.Tereal-timevehicleposecalculatedbythecombined inertialnavigationsystemisusedtoupdatethefused cone pointcloud map.Real-vehicle comparative test results show thatthe algorithm achieves anaverage recallrateof 98.6% andanaverageprecisionof99.1%,enabling thedistinction betweentheinnerandoutertracksof theconemap,thereby enhancing the vehicle's perception,anticipation capabilities and path planning efficiency.

        KeyWords:Formula RacingCar,LiDAR,Industrial Cameras,Combined InertialNavigation Systems,RGB Cone Barrel Maps

        【引用格式】李逸龍,李剛,鄧偉文,等.基于FSAC多傳感器賽道錐桶建圖算法研究[J].汽車技術(shù),2025(5):29-38. LIYL,LI G,DENG W W,et al. Research on Cone Barel Mapping Algorithm Based on FSAC Multi-Sensor Track[J]. Automobile Technology,2025(5): 29-38.

        1前言

        目前,自動駕駛技術(shù)已成為全球汽車產(chǎn)業(yè)轉(zhuǎn)型升級的核心驅(qū)動力和戰(zhàn)略制高點,中國大學(xué)生無人駕駛方程式大賽(Formula Student AutonomousChina,F(xiàn)SAC)依托高校,推動自動駕駛技術(shù)的創(chuàng)新實踐。環(huán)境感知作為無人駕駛系統(tǒng)的核心模塊,是實現(xiàn)決策規(guī)劃和控制執(zhí)行的重要前提。相機和激光雷達構(gòu)成了環(huán)境感知系統(tǒng)的主要傳感器陣列,基于多傳感器融合的技術(shù)發(fā)展趨勢,對于提升賽車環(huán)境感知精度和建圖質(zhì)量具有重要的實踐意義。

        FSAC賽車的同步定位與地圖構(gòu)建(SimultaneousLocalizationandMapping,SLAM)方案主要基于激光SLAM、激光慣導(dǎo)SLAM、視覺SLAM等。馮云亮等采用最近點迭代算法(IterativeClosestPoint,ICP)和相關(guān)掃描匹配(CorrelationScanMatching,CSM)前端配準(zhǔn),提出了濾波器優(yōu)化和圖優(yōu)化的后端算法,但該算法無法應(yīng)對復(fù)雜的實際工作環(huán)境,且算法的魯棒性較差。張要強等提出了一種基于激光雷達和組合慣導(dǎo)系統(tǒng)的錐桶地圖構(gòu)建方法,將當(dāng)前幀錐桶坐標(biāo)轉(zhuǎn)化到地圖坐標(biāo)系,完成錐桶地圖的構(gòu)建與更新,但該算法建圖精度較低,無法準(zhǔn)確識別非錐桶物體,難以規(guī)劃賽車的全局路徑。

        本文以FSAC賽車為載體,針對高速循跡、八字環(huán)繞工況的環(huán)境感知與建圖進行算法開發(fā),使用3D激光雷達、工業(yè)相機和組合慣導(dǎo)系統(tǒng),采集錐桶和車體的空間位置信息,構(gòu)建完整、準(zhǔn)確、含有顏色(RGB)信息的賽道錐桶點云地圖,并通過實車試驗證明該方案的有效性。

        2傳感器的時空標(biāo)定

        2.1傳感器坐標(biāo)系位置分布

        將工業(yè)相機固定在主環(huán)下方,通過相機內(nèi)參標(biāo)定與去畸變處理,提高輸入端圖像質(zhì)量;將慣性導(dǎo)航安裝于座椅后方,與車輛質(zhì)心重合;激光雷達安裝于賽車前翼的雷達支架上,由2個定位銷和3個M3螺栓固定。構(gòu)建相機 oc-XYZ 坐標(biāo)系、激光雷達 oL -XYZ坐標(biāo)系和組合慣導(dǎo) Ov -XYZ坐標(biāo)系,如圖1所示。

        圖1傳感器坐標(biāo)系構(gòu)建

        2.2相機與激光雷達參數(shù)標(biāo)定

        為了建立全局RGB錐桶地圖,更精確地識別內(nèi)、外錐桶賽道,需增加相機傳感器,對激光雷達進行時空標(biāo)定。首先,通過相機內(nèi)參矩陣獲得相機坐標(biāo)系到像素坐標(biāo)系的轉(zhuǎn)換矩陣;然后,將雷達坐標(biāo)系投影至像素坐標(biāo)系,為點云賦予RGB顏色信息;再將雷達坐標(biāo)系下RGB點云轉(zhuǎn)換至地圖坐標(biāo)系,最終完成全局RGB錐桶地圖的構(gòu)建。根據(jù)成像原理,相機 O-xyz 坐標(biāo)系與像素O-xy 坐標(biāo)系間轉(zhuǎn)換過程如圖2所示。

        圖2相機坐標(biāo)系與像素坐標(biāo)系轉(zhuǎn)化

        當(dāng)相機坐標(biāo)系中點 P(X,Y,Z) 經(jīng)過光心 o ,投影到成像平面為 P(X,Y) ,假設(shè)焦距為f,根據(jù)相似三角形原理可知: 物理成像平面轉(zhuǎn)換至像素坐標(biāo)系需要經(jīng)過縮放、平移,以像素坐標(biāo)系左上角為坐標(biāo)原點,向右為 u 軸,向下為 v 軸,得到點 轉(zhuǎn)換矩陣形式為 。其中,K 為相機內(nèi)參矩陣。

        因透鏡誤差產(chǎn)生的徑向和切向畸變,需要進行畸變校正。設(shè) P(X,Y) 為歸一化平面上的點,其極坐標(biāo)為(r,θ) ,則徑向、切向畸變分別為:

        式中: 和 k3 為徑向畸變系數(shù), xr,yr 為去除徑向畸變系數(shù)后坐標(biāo)值, p1?p2 為切向畸變系數(shù), xt,yt 為去除切向畸變后坐標(biāo)值。

        因此,畸變校正后的坐標(biāo)為: ,相機內(nèi)參坐標(biāo)為

        激光雷達與相機間的旋轉(zhuǎn)矩陣為 R ,平移矩陣為 ,則外參矩陣為: 激光雷達坐標(biāo)系與像素坐標(biāo)系的坐標(biāo)變換為: 根據(jù)實際試驗數(shù)據(jù),將內(nèi)、外參矩陣合并為 Q 矩陣:

        鑒于此時的外參矩陣包含相機內(nèi)參矩陣數(shù)據(jù),為了得到最終的外參矩陣,還需將Q矩陣左乘相機內(nèi)參矩陣的逆矩陣 K-1 。

        2.3激光雷達與組合慣導(dǎo)外參標(biāo)定

        以車輛起始時刻的慣導(dǎo)位姿為地圖坐標(biāo)系原點,將RGB激光點云從雷達坐標(biāo)系投影到車輛坐標(biāo)系,再利用組合慣導(dǎo)系統(tǒng)得到車輛在地圖坐標(biāo)系的位姿,從而使點云投影到地圖坐標(biāo)系。為了獲得上述坐標(biāo)系的轉(zhuǎn)換關(guān)系,需對激光雷達與組合慣導(dǎo)系統(tǒng)的外參進行標(biāo)定。

        將慣導(dǎo)坐標(biāo)系的原點設(shè)置在距后軸前方 0.3m 處,沿車體中軸線向前為 X 軸正方向,垂直車體中軸線向右為Y軸正方向,垂直車體中軸線向下為Z軸正方向。對于旋轉(zhuǎn)方面,假設(shè) α,β,γ 分別為雷達坐標(biāo)系相對于慣導(dǎo)坐標(biāo)系的滾轉(zhuǎn)角(Roll)、俯仰角(Pitch)和偏航角(Yaw),以 方式安裝,雷達系相對慣導(dǎo)系的旋轉(zhuǎn)矩陣為:

        使用激光測距儀測得雷達相對于慣導(dǎo)的位移向量為 測得激光雷達相對組合慣導(dǎo)的外參矩陣為

        使用開源的激光雷達慣性導(dǎo)航里程計平滑和建圖(Lidar Inertial Odometry via Smoothing and Mapping,LIO-SAM)算法記錄一段軌跡,車輛的雷達里程計數(shù)據(jù) PL 和組合慣導(dǎo)里程計數(shù)據(jù) Pv 分別為: 理論上,各時刻位姿 TLV?pLi= pvi ,由于存在誤差,可建立非線性優(yōu)化問題的目標(biāo)函數(shù):(204號 (4)式中: pVipLi 分別為 Pv 和 PL 的第 i 個位姿, Np 為里程計集合的數(shù)據(jù)量。

        將粗略測定的外參矩陣 TLv 作為初值進行迭代,并通過Ceres優(yōu)化庫求解,當(dāng)結(jié)果小于閾值,即可得到雷達相對組合慣導(dǎo)的坐標(biāo)變換矩陣 。

        2.4傳感器時間戳對準(zhǔn)

        由于各傳感器的時鐘源與發(fā)布頻率不同,若直接使用傳感器時間戳,極易影響最后狀態(tài)估計。由于激光雷達的頻率( 10Hz 低于相機與慣性導(dǎo)航,故將時間統(tǒng)一轉(zhuǎn)化到雷達的時間戳。

        硬件方面,采用時間同步器同步;軟件方面,計算相機與慣性導(dǎo)航前、后幀數(shù)據(jù)的縮放比例,采用線性插幀方式得出與雷達同步的時間點,插值效果如圖3所示。

        圖3時間同步結(jié)果

        3前端融合RGB特征點云提取

        3.1前端特征點提取算法框架

        結(jié)合組合慣導(dǎo),提取前端特征的原始圖像及點云信息,流程如圖4所示。

        3.2點云去畸變

        在激光雷達跟隨車輛運動的過程中,激光雷達掃描的頻率為 10Hz ,即0.01s獲取一幀數(shù)據(jù),車輛運動引起的激光幀的運動誤差,如圖5所示[9]。

        圖4前端特征點提取流程
        圖5點云畸變原理

        通過計算各點的采集時間,將所有點統(tǒng)一至同一時刻坐標(biāo)系中,進行畸變消除,點云投影如圖6所示。tk?tk+1 分別為一幀點云的開始和結(jié)束時刻, (tk+1-tk) 為一幀點云的掃描時間, 為這一幀掃描生成的點云,水平箭頭表示將所有點都投影至 tk+1 時刻,不同的點的時間戳不同[0]。

        圖6點云投影

        對慣性測量單元(InertialMeasurementUnit,IMU)預(yù)積分,考慮到陀螺儀、加速度計的零偏與噪聲誤差,通過隨機高斯游走進行誤差補償,其概率密度函數(shù)為:

        式中 ?:μ,σ 分別為 x 的均值和方差。

        基于IMU預(yù)積分得到賽車世界坐標(biāo)系下對應(yīng)的里程計位姿,將 tk 時刻相對于 tk+1 時刻雷達的坐標(biāo)變換矩陣記為 。對于各點,計算相對 tk+1 時刻的補償變換矩陣,即Tk+1)=t-+1 =t-k+1Tk+1。點云去畸變效果如圖7所示。

        圖7點云去畸變效果

        3.3基于密度的錐桶點云聚類

        考慮到賽場環(huán)境中各錐桶的原始點云密度分布不均,故基于點云密度采用聚類方法[12],具體流程如圖8所示。

        圖8基于密度聚類流程

        首先,判斷原始點云是否被標(biāo)記,自動跳過已標(biāo)記的激光點云,未標(biāo)記點云被賦予真值后,隨機選取點 P 使用增量式K-D 樹(IncrementalK-Dimensional Tree,IKD-Tree)算法[13],在插入節(jié)點時同步進行降采樣處理。然后,計算點 P 與其他點的曼哈頓距離[14],若結(jié)果低于距離閾值 (0.67m) ),則該點的索引加人列表Neighbors。如果Neighbors的索引小于閾值,將其作為噪點簇刪除;當(dāng)無法找到更多的Neighbors索引列表,聚類過程結(jié)束;否則,將選取除 P 點外Neighbors列表中的點,重復(fù)上述過程,直到Neighbors列表不再增加為止?;邳c云密度聚類的效果如圖9所示。

        圖9點云密度聚類效果

        3.4 YOLOv5目標(biāo)檢測

        YOLOv5采用特征金字塔網(wǎng)絡(luò)[5](FeaturePyramidNetwork,F(xiàn)PN),可利用多個卷積和池化層提取錐桶的顏色信息,同時,其小自標(biāo)檢測效果較好,故使用該算法預(yù)測錐桶類別。各狀態(tài)下目標(biāo)物的類別概率與置信度的乘積,為該狀態(tài)下的分類概率。所有狀態(tài)下的分類概率之和,即為最終的分類概率。

        通過降低算法對圖像背景像素的關(guān)注度,提高錐桶的檢測精度,并采用Wasserstein距離衡量矩形包圍框間相似度,從而實現(xiàn)較遠距離的小目標(biāo)檢測,檢測效果如圖10所示。其中,黃色矩形框為小目標(biāo)檢測結(jié)果,錐桶的識別數(shù)量顯著提升。

        圖10YOLOv5目標(biāo)檢測效果

        3.5圖像-點云融合匹配

        將去除畸變后的點云進行密度聚類,得到帶有標(biāo)簽信息的錐桶點云簇,并通過計算錐桶點云的包圍框與YOLOv5目標(biāo)檢測的預(yù)測框進行相似度匹配,對置信度閾值超過0.9的點云簇進行RGB中心點提取。圖像-點云匹配流程如圖11所示,匹配效果如圖12所示。

        圖11圖像-點云融合匹配流程
        圖12圖像-點云融合效果

        4融合RGB錐桶地圖構(gòu)建算法設(shè)計

        4.1 算法框架

        本文算法框架流程如圖13所示。在前端特征點中提取RGB點云,經(jīng)過雷達到慣導(dǎo)的外參矩陣,將其投影至車輛坐標(biāo)系。通過組合慣導(dǎo)系統(tǒng),得到當(dāng)前車輛坐標(biāo)系相對地圖坐標(biāo)系的位姿變換矩陣,將融合RGB錐桶投影到地圖坐標(biāo)系。最后,采用局部地圖優(yōu)化算法更新錐桶地圖,得到所有錐桶在地圖坐標(biāo)系的位置。通過機器人操作系統(tǒng)[17](RobotOperatingSystem,ROS)發(fā)布錐桶地圖數(shù)據(jù)至路徑規(guī)劃算法。

        4.2錐桶的局部優(yōu)化定位

        為了降低建圖算法的計算復(fù)雜度,保證其實時性,需選取合適的局部地圖定位方案,優(yōu)化輸入的融合RGB點云。

        圖13算法框架流程

        選取雷達前方 10m ,左、右各 3m ,高度范圍為-0.2~1m 位置作為感興趣區(qū)域,保證融合RGB點云數(shù)據(jù)的精準(zhǔn)度;再將輸入的融合RGB點云劃分為若干個0.05m×0.05m×0.05m 體素化方塊[18],如圖14所示。將每個立方體內(nèi)的RGB點云作為立方體的中心,從而實現(xiàn)降采樣,提升計算速度的同時,便于后續(xù)地圖點處理過程中算法的簡化。

        圖14體素化濾波

        基于扇區(qū)分段的隨機樣本一致性(RandomSampleConsensus,RANSAC)算法的地面點分割方法[19],利用組合慣導(dǎo)IMU預(yù)積分去畸變后,采用歐氏聚類方法將RGB色彩空間中的錐桶點云數(shù)據(jù)進行聚類分組,形成獨立的點云團簇。隨后,通過提取各點云團簇的中心點,從而獲取RGB錐桶在雷達坐標(biāo)系的具體位置信息,流程如圖15所示。

        圖15錐桶局部定位流程

        假設(shè) Φt 時刻檢測到錐桶I,其中心在雷達坐標(biāo)系的坐標(biāo) PLI 為:

        式中: (xLi,yLi,zLi) 為第 i 個點云在激光雷達坐標(biāo)系下的坐標(biāo) ,N 為一個錐桶點云簇中點云數(shù)量, ri 為第 i 個點云距離激光雷達中心的距離, ωi 為第 i 個點云所在激光線束的垂直角度, εi 為第 i 個點云所在激光線束的水平旋轉(zhuǎn)角度。

        4.3錐桶地圖RGB中心點提取

        在路徑規(guī)劃算法中,基于歸一化平面,對聚類后RGB錐桶點云簇進行中心點提取,基于3D質(zhì)心點提取的RGB地圖錐桶點算法流程如圖16所示。

        圖16RGB地圖錐桶點質(zhì)心點提取流程

        判斷當(dāng)前局部地圖的尺寸是否處于閥值區(qū)間( 2~ 30個點),若不在區(qū)間范圍內(nèi),需要進行體素下采樣處理;反之,將會遍歷局部地圖點云簇中的RGB點。通過對點的紅色和藍色通道賦值,分別進行正態(tài)分布計算。當(dāng)該正態(tài)分布不再發(fā)生明顯變化,利用點云庫(PointCloudLibrary,PCL)的compute3DCentroid函數(shù)提取質(zhì)心點,否則,將重新遍歷局部地圖中的RGB點云簇。

        4.4車輛定位

        由于組合慣導(dǎo)中全球?qū)Ш叫l(wèi)星系統(tǒng)(GlobalNavigationSatelliteSystem,GNSS)實時動態(tài)定位(Real-TimeKinematic,RTK輸出的原始坐標(biāo)為1984年世界大地測量系統(tǒng)(WorldGeodeticSystem1984,WGS-84)坐標(biāo)系下的經(jīng)緯高坐標(biāo),需要將該坐標(biāo)轉(zhuǎn)換為直角坐標(biāo)系。

        以組合慣導(dǎo)的第一幀位姿 P0 為導(dǎo)航坐標(biāo)系(地圖坐標(biāo)系)原點,相應(yīng)的WGS-84系坐標(biāo)為 ,經(jīng)過解算相應(yīng)的地球中心地球固定坐標(biāo)系(Earth-Centered,Earth-Fixed,ECEF)坐標(biāo)為 。 χt 時刻慣導(dǎo)位姿 Pt 對應(yīng)的WGS-84系坐標(biāo)為 (X1,Y1,Z1) ,經(jīng)過解算ECEF系坐標(biāo)為 (xt,yt,zt) ,則 Pt 在地圖坐標(biāo)系中的坐標(biāo) (xM,yM,zM) 為:

        式中: REM 為ECEF坐標(biāo)系相對地圖坐標(biāo)系的旋轉(zhuǎn)矩陣, 為 Φt 時刻車輛坐標(biāo)系相對地圖坐標(biāo)系的平移向量。

        此時,慣性導(dǎo)航系統(tǒng)(InertialNavigation System,INS)測得 Pt 相對 P0 的滾轉(zhuǎn)角、俯仰角和偏航角分別為φ,θ,μ ,則慣導(dǎo)坐標(biāo)系相對地圖坐標(biāo)系的旋轉(zhuǎn)矩陣為:[bd bce-adbcd+ae]R=ad ace+bd acd-be[-c gc d2, χt 時刻慣導(dǎo)坐標(biāo)系相對a=sinφ, b =cos φc=sin0, d =cosθe= sinμ, f=cosμ (204號一 g=cosβ

        地圖坐標(biāo)系的變換矩陣為

        4.5融合RGB錐桶全局定位

        以初始時刻無人駕駛賽車的發(fā)車點為世界坐標(biāo)系 Ou–XMYMZM 的原點,對錐桶進行全局定位,如圖17所示。

        定義 t1 時刻的相機坐標(biāo)系為 ?v-XvYvZv ,雷達坐標(biāo)系為 OL-XLYLZL ,錐桶在相機坐標(biāo)的齊次坐標(biāo)為 PcL= (xcL,ycL,zcL,1) ,激光雷達坐標(biāo)系中的齊次坐標(biāo)為 ,則地圖坐標(biāo)系的坐標(biāo)為:

        式中: TcL 為相機到雷達的外參矩陣, TLv 為雷達到組合慣導(dǎo)的外參矩陣, 為慣導(dǎo)相對地圖系的變換矩陣。

        圖17雷達、相機、慣導(dǎo)和地圖坐標(biāo)系位姿關(guān)系

        5試驗驗證與結(jié)果分析

        5.1試驗平臺

        本文使用遼寧工業(yè)大學(xué)萬得無人駕駛方程式賽車試驗平臺。FSAC賽車激光雷達選用速騰聚創(chuàng)Helios32機械式激光雷達,采集賽車周圍環(huán)境的三維點云信息;使用大恒水星MER2-231-41U3相機,支持軟件觸發(fā)和外部觸發(fā);組合慣導(dǎo)系統(tǒng)選用導(dǎo)遠INS570D(支持RTK),提供構(gòu)建錐桶地圖所需的車體實時、精準(zhǔn)的位姿信息;計算單元選用研華ARK-3534B工控機,接收融合RGB點云信息和定位信息。計算單元搭載IntelCore-i9LGA1700處理器,負(fù)責(zé)處理、分析傳感器接收的信息,并執(zhí)行無人駕駛算法;選用機器人操作系統(tǒng)作為軟件通信平臺。激光雷達、相機、組合慣導(dǎo)系統(tǒng)和計算單元的安裝位置如圖18所示。

        圖18傳感器安裝位置

        5.2 雷達與相機外參標(biāo)定

        在Autoware自動標(biāo)注程序文件中,將點云坐標(biāo)系投影到像素坐標(biāo)系,得到 Q 矩陣。修改激光雷達與相機對應(yīng)的變換矩陣,使用ROS中RViz進行圖形化顯示,配準(zhǔn)后的效果如圖19所示。

        圖19激光雷達與相機外參標(biāo)定效果

        5.3實車驗證與分析

        圖20為高速循跡項目賽道,內(nèi)、外道使用不同顏色的錐桶。設(shè)定FSAC方程式賽車第一圈以 15km/h 速度行駛,采用Viz可視化界面顯示測試結(jié)果。

        圖20高速循跡項目賽道

        5.3.1 算法驗證

        傳統(tǒng)激光雷達 + 組合慣導(dǎo)2的建圖效果,如圖21所示。錐桶周圍類似雜物均會被識別到錐桶地圖中,相鄰賽道的雜物會被聚類算法歸成一類,降低建圖的精度,對路徑規(guī)劃造成一定干擾。由于基于激光雷達點云的強度信息無法準(zhǔn)確區(qū)分錐桶類別,導(dǎo)致激光雷達難以識別內(nèi)、外道錐桶。

        用全局路徑規(guī)劃算法設(shè)計最佳的賽道路線,車輛能夠跳過雷達的實時監(jiān)測,根據(jù)計算的路線執(zhí)行直道加速和彎道減速動作,從而顯著提升比賽效率。

        對于八字賽道(見圖22c),需要完成左、右各兩圈行駛。其中,左側(cè)的第一圈中車輛緩慢行駛,當(dāng)車輛再次經(jīng)過第一圈入彎口處時,通過組合慣導(dǎo)定位數(shù)據(jù)和地圖點匹配判斷左側(cè)第一圈回環(huán)完成狀態(tài)?;丨h(huán)后將自動關(guān)閉建圖程序,只接收定位數(shù)據(jù),直到再次經(jīng)過入彎口時恢復(fù)右圈的建圖程序,左、右兩側(cè)的判斷機制相同。

        圖21激光點云錐桶地圖

        本文方案在循跡賽道和八字賽道錐桶地圖的檢測結(jié)果如圖22所示。圖 22a 中,白色線為組合慣導(dǎo)的軌跡,激光雷達當(dāng)前幀掃描到的錐桶中心與錐桶地圖融合更新,且效果良好。對于循跡賽道(見圖22b),由于終點附近賽道為直線,本文方案能夠提前檢測到回環(huán),并清晰區(qū)分全局的內(nèi)、外賽道。通過預(yù)留充分時間。

        圖22賽道錐桶地圖更新效果

        5.3.2 結(jié)果分析

        在高速循跡賽道項目中,共119個實體錐桶。借助目標(biāo)檢測評價方法2進行性能評價,包括精準(zhǔn)度(Precision) P 、召回率 [Recall)R ,相關(guān)公式為:

        式中: TP 為實際檢測數(shù)量, FP 為誤檢數(shù)量, FN 為漏檢數(shù)量。

        對比傳統(tǒng)雷達 + 慣導(dǎo)建圖算法與本文算法,多次定試驗結(jié)果如表1、表2所示。5次試驗中,基于雷達 + 慣導(dǎo)建圖算法的平均召回率為 73.2% ,平均精準(zhǔn)度為 73.54% 本文方案的平均召回率達到 98.6% ,平均精準(zhǔn)度達到99.1%0 由試驗結(jié)果可知:當(dāng)環(huán)境中存在與錐桶相似障礙物時,激光雷達錐桶識別算法判斷精度較低,雷達 + 慣導(dǎo)建圖算法會誤檢為錐桶。本文方法中,因相機識別錯誤,導(dǎo)致相機與激光雷達無法匹配融合,從而存在個別誤檢情況,且該問題一般發(fā)生在多彎道與直道交接重疊處。由于個別錐桶間重疊、激光遮擋以及高速運動中誤檢的錐桶無法及時被下一幀正確修復(fù),而發(fā)生漏檢現(xiàn)象。

        表1雷達 + 慣導(dǎo)建圖算法錐桶檢測結(jié)果
        表2本文算法錐桶檢測結(jié)果

        由于車輛定位基于組合慣導(dǎo)中RTK位姿,檢測精度達到厘米級。因此,依據(jù)定位結(jié)果構(gòu)建的錐桶地圖在誤差允許范圍內(nèi),車輛能夠順利完成回環(huán),表明錐桶的定位精度可靠,可為無人駕駛賽車提供可靠的錐桶位置信息,實時獲取準(zhǔn)確的錐桶賽道地圖。

        6結(jié)束語

        本文提出了一種基于相機、激光雷達和組合慣導(dǎo)耦合系統(tǒng)的錐桶地圖構(gòu)建算法,供路徑規(guī)劃程序擬合最優(yōu)路徑,為無人駕駛賽車提供準(zhǔn)確的環(huán)境信息和穩(wěn)定的提速效果。實車試驗結(jié)果表明:相較于傳統(tǒng)的雷達 + 慣導(dǎo)建圖算法,本文方案的錐桶召回率與精確度均有提升,為FSAC無人方程式賽車的決策規(guī)劃提供了科學(xué)依據(jù)。

        目前,YOLOv5算法在車輛高速通過彎道等復(fù)雜場景中,易受錐桶相互遮擋、車速過快等因素影響,進而影響錐桶地圖的構(gòu)建精度。后續(xù)研究將重點優(yōu)化算法融合策略,并通過擴充極限工況下的錐桶數(shù)據(jù)集,提升算法的魯棒性。

        參考文獻

        [1]楊貴永,張越垚,朱云堯,等.全球自動駕駛汽車應(yīng)用現(xiàn)狀 與趨勢[J].汽車維護與修理,2024(1):62-65. YANGGY,ZHANGYY,ZHUYY,etal.The Current StatusandTrendsof Global AutonomousVehicle Applications[J]. AutomobileMaintenanceandRepair, 2024(1): 62-65.

        [2]胡紀(jì)濱.中國大學(xué)生無人駕駛方程式大賽規(guī)則[S].北京: 中國汽車工程學(xué)會,2020. HUJB. Rules of the Chinese University Students Autonomous Driving Formula Competition[S].Beijing: China Society of Automotive Engineers,2020.

        [3]馮云亮.基于激光SLAM電動無人駕駛賽車定位與建圖 研究[D].錦州:遼寧工業(yè)大學(xué),2020. FENGY L. Research on the Localization and Mapping of Electric Autonomous Racing Cars Based on Laser SLAM[D]. Jinzhou:LiaoningUniversityof Technology,2020.

        [4]張要強,李剛,薛玉斌.針對FSAC賽場環(huán)境的全局錐桶建 圖算法研究[J].重慶理工大學(xué)學(xué)報(自然科學(xué)),2024, 38(1): 346-354. ZHANG YQ,LIG,XUE YB.Research on Global Conical BarrelMappingAlgorithmforFSACRacecourse Environment[J].JournalofChongqingUniversityof Technology(Natural Science),2024,38(1): 346-354.

        [5]岑益挺,賴際舟,呂品,等.一種面向即插即用車載GNSS/ INS/ODO系統(tǒng)的時空在線標(biāo)定方法[J].導(dǎo)航定位與授時, 2022,9(3): 79-86. CEN Y T,LAI J Z,LV P,et al.A Spatiotemporal Online Calibration Method for Plug-and-Play Vehicle GNSS/INS/ ODO Systems[J]. Navigation Positioning and Timing,2022, 9(3): 79-86.

        [6]畢嘉楨,沈拓,張軒雄.基于機器視覺的軌道交通自動測 距研究[J].電子科技,2022,35(9):37-43. BI J Z, SHEN T, ZHANG X X. Research on Automatic Distance Measurement of Rail Transit Based on Machine Vision[J].Electronic Science and Technology,2O22,35(9): 37-43.

        [7]王凌軒.面向自動駕駛的激光雷達SLAM算法研究[D].杭 州:浙江大學(xué),2022. WANGL X.Research on Lidar SLAM Algorithm for Autonomous Driving[D]. Hangzhou: Zhejiang University, 203

        [8]徐傳勝,白欣.切比雪夫的最小二乘法插值理論研究[J] 首都師范大學(xué)學(xué)報(自然科學(xué)版),2011,32(5):7-10. XU C S,BAI X. Research on Chebyshev Least Squares Interpolation Theory[J]. Journal of Capital Normal University (Natural Science Edition),2011,32(5): 7-10.

        [9]陳強,陳海波,張瀝化.基于NDT配準(zhǔn)與輪式里程計的激 光雷達運動畸變補償算法[J].高技術(shù)通訊,2024,34(1): 83-91. CHEN Q, CHEN H B, ZHANG L H. Laser Radar Motion DistortionCompensation Algorithm BasedonNDT Registration and Wheel Encoder[J]. High Technology Communications,2024,34(1): 83-91.

        [10]蔡明珠,劉肖燕,唐志偉.基于多傳感器融合SLAM的 ROS 服務(wù)機器人研究[J].實驗室研究與探索,2024, 43(2): 65-70. CAIMZ,LIUXY,TANGZW.ResearchonROSService Robots Based on Multi-Sensor Fusion SLAM[J]. Laboratory Research and Exploration,2024,43(2): 65-70.

        [11]王順洪,張昱,沈江楠,等.面向三維多目標(biāo)追蹤的運動 補償優(yōu)化方法[J].電子學(xué)報,2024,52(2):528-539. WANG SH, ZHANG Y,SHEN J N,et al.Motion Compensation Optimization Method for 3D Multi-Target Tracking[J]. Electronics Journal,2024,52(2): 528-539.

        [12]陶澤宇,蘇建強,董朝軼,等.基于改進密度聚類的三維 激光雷達點云濾波算法研究[J].應(yīng)用激光,2023,43(7): 87-93. TAOZY,SUJQ,DONG ZY,et al.Research on3D LiDAR Point Cloud Filtering Algorithm Based on Improved Density Clustering[J]. Applied Laser,2023, 43(7): 87-93.

        [13]廖勇毅,丁怡心.Kd-tree建樹算法改進[J].現(xiàn)代計算機, 2019(12): 50-52. LIAO Y Y,DING Y X. Improvement of the kd-tree Construction Algorithm[J]. Modern Computer,2019(12): 50-52.

        [14]何曉健,劉浩,劉紅光,等.基于聚類分析和曼哈頓距離 實現(xiàn)平庫煙葉堆碼及均勻投料技術(shù)研究[J].安徽農(nóng)業(yè)科 學(xué),2023,51(18): 181-186. HE XJ, LIU H, LIU HG,et al. Research on Pileup and Uniform Feeding Technology of Tobacco LeavesBased on ClusterAnalysis andManhattan Distance[J]. Anhui Agricultural Science,2023,51(18): 181-186.

        [15]胡倩,皮建勇,胡偉超,等.基于改進YOLOv5的密集行 人檢測算法研究[J/OL].計算機工程,(2024-04-30) [2024-06-21]. https://doi.org/10.19678/j.issn.1000-3428. 0068753. HUQ,PI JY,HU W C,et al.Research on Dense Pedestrian Detection Algorithm Based on Improved YOLOv5[J/OL]. Computer Engineering, (2024-04-30) [2024-06-21]. https://doi.org/10.19678/j.issn.1000-3428. 0068753.

        [16]鄒看看,張軍,王棟.基于ROS的室內(nèi)移動機器人多目標(biāo) 點導(dǎo)航研究與實現(xiàn)[J].電子制作,2024,32(7):47-50. ZOUK K,ZHANG J,WANG D.Researchand Implementation of Multi-Target Point Navigation for Indoor Mobile Robots Based on ROS[J]. Electronic Production, 2024,32(7):47-50.

        [17]甘禮宜,莫黃濤,黃科薪.基于ROS的智能小車設(shè)計研 究[J].電子質(zhì)量,2024(3):23-26. GANLY,MO H T,HUANGKX. Research on Intelligent Car Design Based on ROS[J]. Electronic Quality, 2024(3): 23-26.

        [18]鄒昭源.基于點云體素化的多傳感器融合SLAM算法研 究[D].杭州:浙江大學(xué),2022. ZOUZ Y. Research on Multi-Sensor Fusion SLAM AlgorithmBasedonPointCloudVoxelization[D]. Hangzhou: Zhejiang University,2022.

        [19]王春陽,丘文乾,劉雪蓮,等.基于平面擬合的地面點云 精確分割方法[J].吉林大學(xué)學(xué)報(工學(xué)版),2023,53(3): 933-940. WANGCY,QIUWQ,LIUXL,et al.Accurate Ground Point Cloud Segmentation Method Based on Plane Fitting[J]. Journalof JilinUniversity (EngineeringEdition), 2023,53(3):933-940.

        [20]鄭川川.融合IMU/激光雷達的無人車三維建圖與導(dǎo)航 研究[D].南京:南京信息工程大學(xué),2023. ZHENG C C. Research on 3D Mapping and Navigation of AutonomousVehicles Fusing IMU/Lidar[D]. Nanjing: Nanjing University of Information Science and Technology, 2023.

        [21]高翔,張濤,劉毅.視覺SLAM十四講:從理論到實踐[M]. 北京:電子工業(yè)出版社,2017. GAO X, ZHANG T,LIU Y.Visual SLAM in Fourteen Lectures:From Theory to Practice[M].Beijing:Electronic Industry Press, 2017. (青仟編輯種)

        修改稿收到日期為2024年6月21日。

        国内精品视频一区二区三区| 精品人妻午夜中文字幕av四季| 不卡一区二区三区国产| 顶级高清嫩模一区二区| 天堂视频在线观看一二区| 欧美老熟妇乱xxxxx| 一本久道综合在线无码人妻| 精品人妻人人做人人爽| 欧美丰满熟妇bbbbbb百度| 亚洲国产成人aⅴ毛片大全| 中文亚洲第一av一区二区| 日本不卡一区二区三区久久精品 | 免费大片黄国产在线观看| 337人体做爰大胆视频| 亚洲一区二区三区久久不卡| 水蜜桃视频在线观看免费18| 国产一区精品二区三区四区| 人妻少妇看a偷人无码| 亚洲国产精品一区二区www| 欧美freesex黑人又粗又大| 国产精品久久码一区二区| 一本大道加勒比东京热 | 亚洲国产果冻传媒av在线观看 | 国内精品久久久久久久亚洲| 日韩亚洲午夜精品一区二区三区| 亚洲天堂av一区二区三区不卡| 亚洲人成欧美中文字幕| 三级在线看中文字幕完整版| 国内精品国产三级国产av另类| 精品不卡视频在线网址| 人妻 偷拍 无码 中文字幕| 国产欧美日韩视频一区二区三区| 丰满人妻无套中出中文字幕| 午夜国产在线精彩自拍视频| 无套熟女av呻吟在线观看| 五十路熟妇高熟无码视频| 亚洲黄片久久| 国产精品成人一区二区不卡| 久久99热狠狠色精品一区| 亚洲色图在线观看视频| 熟妇与小伙子露脸对白|