亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于激光雷達與相機融合的城市交叉路口車輛識別技術

        2024-11-19 00:00:00李勝琴孫鑫張民安
        江蘇大學學報(自然科學版) 2024年6期

        摘要:針對單一傳感器環(huán)境感知系統(tǒng)不可避免存在難以克服的缺陷,將激光雷達與相機進行融合,綜合2種傳感器的優(yōu)勢,形成互補,提高無人車的環(huán)境感知能力.研究了激光雷達與相機的融合技術,將傳感器融合技術應用于城市道路交叉路口的目標識別.基于Flood Fill算法的搜索理論與譜聚類算法的切圖理論結合,同時考慮點云之間的歐氏距離和空間分布特征,進行激光雷達目標檢測方法研究.提出了基于激光雷達與相機融合的目標識別方法,對傳統(tǒng)的PnP求解原理進行分析.提出了基于平面法線對齊的方式求解位姿轉換關系,并引入遺傳算法對求解結果進行優(yōu)化,利用自動駕駛仿真軟件,對激光雷達與相機的融合結果進行仿真驗證.結果表明:提出的激光雷達與相機融合方法,可以對城市道路交叉路口中的車輛目標進行準確識別,使無人車在城市道路交叉路口具備感知無人車周圍360°范圍內目標的能力,保障無人車的安全以及提高無人車的環(huán)境理解能力.

        關鍵詞: "無人車; 環(huán)境感知; 傳感器融合; 交叉路口; 目標檢測

        中圖分類號: U463文獻標志碼: "A文章編號: ""1671-7775(2024)06-0621-08

        Vehicle recognition technology at urban intersection

        based on fusion of LiDAR and camera

        LI Shengqin, SUN Xin, ZHANG Min′an

        (College of Mechanical and Electrical Engineering, Northeast Forestry University, Harbin, Heilongjiang 150040, China)

        Abstract: To solve the inevitable shortcomings of single sensor environmental perception system, the LiDAR and camera were fused to combine the advantages of the two sensors and form complementarity for improving the environmental perception capability of unmanned vehicles. The fusion technology of LiDAR and camera was investigated and applied for the target recognition at urban intersections. Combining the search theory of Flood Fill algorithm with the tangent theory of spectral clustering algorithm, and considering the Euclidean distance and spatial distribution characteristics between point clouds, the laser radar target detection method was investigated. The target recognition method based on the fusion of LiDAR radar and camera was proposed, and the traditional PnP solving principle was analyzed. The pose transformation relationship was solved based on the plane normal alignment, and the genetic algorithm was introduced to optimize the solution results. The fusion results of LiDAR and camera were simulated and verified by the autonomous driving simulation software. The results show that by the proposed fusion method of LiDAR and camera, the vehicle targets at urban intersections can be accurately recognized, and the unmanned vehicles can perceive targets within 360° range. This can ensure the safety of unmanned vehicles and improve the environmental understanding ability.

        Key words: "unmanned vehicle; environmental perception; sensor fusion; intersection; object detection

        無人車自動駕駛系統(tǒng)技術主要分為感知定位、決策規(guī)劃、控制執(zhí)行3大模塊[1].環(huán)境感知模塊處于自動駕駛系統(tǒng)架構的上游,通過車上安裝的視覺傳感器或者雷達獲取周圍環(huán)境信息,算法模塊通過對傳感器輸入的原始數(shù)據(jù)進行處理后,將準確的環(huán)境信息輸給下游模塊.因此,如何快速準確理解并感知環(huán)境信息,是保障無人車準確進行決策規(guī)劃與控制執(zhí)行的前提[2].

        按感知環(huán)境用傳感器的布置方案可將無人車大致分為2類: ① 以激光雷達為主要傳感器、單獨相機等為輔助傳感器的方案;② 以相機為主要傳感器、毫米波雷達等為輔助傳感器的方案[3].李研芳等[4]、楊鑫等[5]采用決策級融合方法,將四線激光雷達檢測結果與基于圖像的檢測結果進行融合,彌補了單一傳感器的局限,解決了單獨毫米波雷達傳感器存在的虛假目標問題和單獨相機存在的漏檢問題.鄭少武等[6]采用深度學習方法,分別對點云數(shù)據(jù)與圖像數(shù)據(jù)進行目標檢測,并采用匈牙利算法進行跟蹤匹配,輸出最終的融合結果,但該方法沒有考慮投影后置信度的問題,無法消除外參誤差對融合結果帶來的影響.陳昆[7]設計了一種基于雙目視覺和激光雷達前融合的道路環(huán)境感知方法,基于卷積神經網絡方法,對雙目視差圖和激光雷達視差圖進行融合,提高了算法的可移植性.梁晨晨等[8]提出一種基于角度對齊的毫米波雷達與相機的決策級目標檢測方法,通過聯(lián)合標定和近似插值,將攝像頭識別到的目標與毫米波雷達探測到的目標進行融合,實現(xiàn)道路環(huán)境的融合感知.

        筆者基于Flood Fill與譜聚類算法相結合的激光雷達目標檢測方法,提出激光雷達與相機融合的城市交叉口車輛識別檢測方案,基于平面法線對齊方法對激光雷達點云與相機圖像進行時間與空間對齊,并引入遺傳算法對求解結果進行優(yōu)化.設置城市典型交叉路口環(huán)境,采用該檢測法對激光雷達與相機融合的車輛識別效果進行分析,對所提出的決策級融合方案的正確性與有效性進行驗證.

        1基于激光雷達的點云聚類目標檢測

        傳統(tǒng)的歐氏聚類算法本質上是將距離較近的點聚為一類,只要點與點之間的距離小于設定的半徑閾值,即認為屬于一類,這種聚類方法會將2個距離近的目標識別為同一個物體[9].在城市交叉路口場景中,待檢測目標之間的距離通常會很小,傳統(tǒng)的聚類方法無法滿足無人車對交通場景的檢測需求,而聚類分割問題則可將聚類問題轉化為求解2個子圖之間相互連接的邊權值最小問題,從而使得每個子圖內部數(shù)據(jù)點的相似度最大,子圖之間的相似度最小,即將點云的聚類分割問題轉換為子圖的最優(yōu)劃分問題.本研究提出一種基于Flood Fill與譜聚類算法結合的激光雷達點云聚類方法,結合搜索算法理論與圖像分割領域中的譜聚類理論,首先對預處理后的點云進行過分割,再利用譜聚類算法對過分割的結果進行重新聚類,即可完成對交叉路口場景車輛或行人目標的檢測[10].

        結合Flood Fill算法與譜聚類算法的點云聚類方法,首先利用Flood Fill算法將激光雷達點云做1次簡單的聚類,得到聚類后點云,并對點云進行過分割;然后利用譜聚類算法將過分割的點云重新聚合,構造高度特征,并結合高度特征和歐氏距離來計算連通組件之間的權重;最后根據(jù)權重矩陣來重新聚合連通組件,達到聚類點云的目的.

        激光雷達掃描到的目標點云中兩頂點之間連線的邊權重值ωij表示兩頂點之間的相似程度,組成的矩陣定義為相似度矩陣W,W=ωijn×n,n為Flood Fill算法輸出的連通組件個數(shù),對應譜聚類算法輸入數(shù)據(jù)集中子集的數(shù)量.激光雷達掃描到的目標點云中,無法體現(xiàn)點云的空間分布特征,需要借鑒譜聚類中量綱一化分割的相似度矩陣構建方式,將代表圖像顏色空間特征的向量Fi,改進為代表點云空間分布特征fi,得到相似度矩陣W中的ωij為

        ωij=exp-vi-vj2minσs+fi-fj2minσf,

        vi-vj≤1,

        0,vi-vjgt;1,(1)

        式中:vi-vjmin為連通組件i與j之間最小歐氏距離,vi-vj2min=min[(xi-xj)2+(yi-yj)2+(zi-zj)2],(xi,yi,zi)與(xj,yj,zj)分別為連通組件i與j的位置坐標;fi-fjmin為連通組件i與j之間的特征距離;σs、σf分別為位置敏感系數(shù)與空間特征敏感系數(shù),取值都為1.5.

        對于一個無向權重圖G(V,E)中任意一點vi,定義該節(jié)點與其他節(jié)點的連接或邊的數(shù)量和為度di,計算式為

        di=∑nj=1ωij.(2)

        通過定義數(shù)據(jù)集中每個點的度,得到一個n×n階的度矩陣,表示為D,該矩陣為對角陣,對角線上的值為每個點的度,定義為

        D=d1

        d2

        dn.(3)

        定義權值矩陣為拉普拉斯矩陣L=D-W,對L進行特征值分解,將分解后得到的特征值按照遞增順序排序為{λ1,λ2,…,λn}.定義線性插值規(guī)則為

        λj=λ1+(j+1)(λn-λ1)Nc+1,0≤jlt;n,(4)

        式中: Nc為量綱一分割參數(shù),取Nc=5.

        將輸入連通組件劃分為2部分:當λigt;λj時,該連通組件屬于A子集部分;當λi≤λj時,該連通組件屬于B子集部分.此時,可將輸入數(shù)據(jù)通過量綱一化分割算法劃分為2部分,但是由于量綱一分割參數(shù)Nc的可定義性,需要對分割結果進行優(yōu)化處理,才能得到最優(yōu)的分割.

        應用譜聚類理論中正則切割的目標函數(shù),按式(5)計算A、B子集部分的NCut(A,B)值,評價每一種分割方式的效果.

        NCut(A,B)=cut(A,B)assoc(A,V)+cut(A,B)assoc(B,V),(5)

        式中:cut(A,B)為A、B子集之間的邊權值之和;assoc(A,V)為A子集中所有點與圖中所有點的邊權值之和;assoc(B,V)為B子集中所有點與圖中所有點的邊權值之和.

        則NCut(A,B)的最小值所對應的分割方式即為最優(yōu),對激光雷達掃描的點云進行聚類的偽代碼如下:

        Input:

        X=cluster_points, result of Flood Fill algorithm

        Function NCut Segment(X):

        Function Segment(X ):

        //1. precompute skeleton

        Function precompute all skeleton and bbox():

        Build average height map()

        //calculate skeleton feature

        for i=0; ilt;num_clusters: ++ i do

        Sample by grid (cluster_points, amp; skeleton_features[i])

        end

        //2. grach cut

        Function

        Normalized Cut (NCuts_stop_threshold, amp;seqment_clusters, amp; segment_labels):

        //calculate skeleton weights matrix

        Compute skeleton weights→ωij

        Function Get MinNCuts(ωij):

        //(1) eigen decompostion

        Laplacian decomposition→ωij

        //(2) search for best split

        for j=0; jlt;num_cuts:++j do

        calculate cost→NCut(A,B)

        end

        find minimun cost→NCut(A,B)

        //3. split data according to best split

        Get segment point cloud←minimun NCut cost

        return obstacles_points

        利用SVL Simulator自動駕駛仿真軟件,模擬城市道路中的交叉路口場景,對基于Flood Fill算法結合譜聚類算法的激光雷達點云聚類方法進行仿真,晴天場景激光雷達檢測結果如圖1所示.

        從圖1可以看出: 經過激光雷達點云類聚,50 m以內左側相鄰的4輛車,被分割為4個目標,由于激光雷達傳感器的屬性限制,存在目標之間互相遮擋問題;由于黃色校車位于激光雷達50 m以外的遠處,激光雷達產生了識別錯誤,校車車身后半部沒有被檢測到.

        2基于圖像的目標檢測

        基于YOLOv2,重新設計網絡的預測參數(shù)和損失函數(shù),使用VOC2007數(shù)據(jù)集中城市交叉口及汽車的圖片對神經網絡進行訓練[11].首先輸入圖像,并根據(jù)選用的卷積網絡調整圖像的大小,得到卷積特征圖;然后利用檢測網絡進行回歸和分類處理,得到目標邊框,進行目標識別.設置交叉路口仿真場景,利用短焦相機識別,基于圖像的車輛目標識別結果如圖2所示,基于圖像方法,無法對距離無人車50 m以外目標進行識別,圖2中的貨車,單短焦相機識別不到.

        3激光雷達與相機信息融合檢測方法

        目標融合主要包含激光雷達和相機檢測數(shù)據(jù)的空間對齊以及時間對齊.空間對齊主要是解決相機坐標系與激光雷達坐標系之間的位姿轉換關系,時間對齊則是解決由于激光雷達與相機傳感器頻率不同造成的時間戳不同步問題[12].經過空間和時間同步之后,即可獲得信息完整的目標信息,為無人車自動駕駛系統(tǒng)下游模塊提供可靠、豐富的環(huán)境信息.

        3.1激光雷達與相機的空間對齊

        空間對齊方式是將激光雷達坐標系通過一系列轉換與相機坐標系進行重合,實現(xiàn)點云信息和圖像信息的一致.由于傳感器在無人車上的安裝位置不同,激光雷達坐標系與相機坐標系之間存在旋轉和平移轉換[13].激光雷達坐標系為OLXLYLZL,相機坐標系為OCXCYCZC.假設世界坐標系中某一點P,其在激光雷達坐標系和相機坐標系中的坐標分別為(xl,yl,zl)、(xC,yC,zC),則2個傳感器之間的轉換關系為

        PC=RLCPl+TLC,(6)

        式中:PC=[xCyCzC];Pl=[xlylzl];RLC、TLC分別為激光雷達與相機的旋轉矩陣和平移矩陣.

        當旋轉和平移矩陣已知時,通過相機的投影模型和內參數(shù),可以將激光雷達的點云投影在圖像中.本研究采用標定板法線擬合方式來求解,并引入遺傳算法對參數(shù)進行優(yōu)化.

        3.1.1問題模型構建

        首先估計旋轉向量,假設標定板在激光雷達點云與相機圖像中的法線向量分別為Nl與NC,則有NC=RLCNl,對等式兩端同時取轉置再乘上Nl,則有

        RLC=(NlNTl)-1(NlNTC)T.(7)

        在激光雷達點云庫中利用自帶函數(shù)可以提取出目標標定板的點云平面以及其法線向量Nl.相機中標定板的法線求解庫中同樣可以檢測標定板在圖像中的像素點,該像素點對應在標定板坐標系中的實際位置,根據(jù)制作標定板的參數(shù)可以直接獲得,則標定板與相機之間就構成了一個PnP求解問題,將相機的內參數(shù)、畸變參數(shù)和對應的匹配點,利用PnP函數(shù)對輸出的旋轉向量做羅德里格斯變換,即可得到旋轉矩陣,再由旋轉矩陣計算得到法線向量NC.將Nl、NC代入式(7),即可解出激光雷達到相機的旋轉關系.平移矩陣計算式為

        TLC=RLCTl-Tc,(8)

        式中:Tl、Tc分別為標定板中心點在激光雷達坐標系與相機坐標系中的坐標.

        3.1.2參數(shù)優(yōu)化

        采用遺傳算法來優(yōu)化位姿參數(shù)RS(α,β,θ)與TLC(x,y,z),α、β、θ分別為旋轉變換中的側翻角、俯仰角以及橫擺角.在標定過程中,通過不斷變換標定板與傳感器之間的距離和標定板的角度,求解多組結果,作為遺傳算法優(yōu)化的樣本種群[14].

        評價旋轉參數(shù)時,設計適應度函數(shù)來計算法線對齊的誤差及法線與平面的位置誤差,計算式為

        RS(α,β,θ)=argmin(ed+er),(9)

        式中:argmin為函數(shù)符號;ed為法線與平面的位置誤差,ed=∑Ni=1[(pc,i-pl,i)ncl,i]N2,ncl,i為雷達中標定板的法線經過位姿變換在相機坐標系中的位置,pc,i和pl,i分別為相機坐標系中標定板的中心點坐標和任意一個角點坐標,在理想狀態(tài)下,ed為0;er為法線的對齊誤差,er=∑Ni=1(ncl,i-nc,i)2N,nc,i為相機坐標系中標定板的法線位置.

        評價平移參數(shù)時,主要考慮標定板中心點的重投影誤差et、重投影方差σt和中心點投影到圖像中的最大像素投影誤差et_I,構建的適應度函數(shù)為

        RST(α,β,θ,TLC)=

        argmin(ed+er+et+σt+et_I),(10)

        式中:et_I=maxpc_I,i-pl_I,i,pc_I,i、pl_I,i分別為中心點、任一點在圖像中的像素位置;et=∑Ni=1(pc,i-pl,i)2N;σt=∑Ni=1[(pc,i-pl,i)2-et]2N.

        綜上,通過設計適應度函數(shù),解決了遺傳算法優(yōu)化中個體評估問題,適應度函數(shù)值低的個體將被送入交叉、變異流程中進行更新迭代,直到獲得最優(yōu)估計值或者達到最大迭代次數(shù),遺傳算法終止.在標定過程中,采集20組數(shù)據(jù),其中包含標定板在激光雷達與相機中的尺寸信息、平面法線、中心點坐標、標定板的角點坐標.通過式(10)計算出20組位姿轉換結果,利用遺傳算法進行優(yōu)化,得到20組優(yōu)化后的數(shù)據(jù),并對優(yōu)化結果進行隨機抽樣,利用高斯分布函數(shù)提取波峰處的參數(shù)值作為最終外參標定.

        3.2激光雷達與相機的時間對齊

        在真實道路場景中,激光雷達和相機是互相獨立的傳感器,二者坐標系互相獨立,且采樣頻率不同.雖然進行空間對齊將二者的坐標系聯(lián)合起來,但是無人車在行駛時,周圍環(huán)境一直處于變化中,采樣頻率不同導致無人車接收的點云信息和圖像信息不一致,會影響信息融合的精度.因此需要對激光雷達和相機采集的信息進行時間同步,保證激光雷達和相機在同一時刻完成信息采集,即1幀點云信息對應1幀圖像信息,從而提高信息融合的精度.

        選用激光雷達的工作頻率為20.0 Hz,相機工作頻率為28.7 Hz.鑒于相機的掃描頻率高于激光雷達,因此,采用基于時間戳的同步方式.以激光雷達的掃描時刻為基準,對相機采集的圖像信息進行緩存,系統(tǒng)在接收點云信息和圖像信息時會附加系統(tǒng)當前時刻的時間戳.當點云信息獲取后,從緩存中找到與該時刻點云信息的時間戳最相近的圖像信息,然后將點云信息和圖像信息同時送入處理函數(shù)進行信息融合,完成2種傳感器信息的時間同步.2種傳感器信息時間同步如圖3所示.

        3.3點云與圖像信息融合

        點云和圖像信息完成時間、空間匹配后,接下來對2種信息進行融合.采用目標級融合策略,將激光雷達點云聚類得到的障礙物投影到圖像上,障礙物點云的三維包絡框變成二維包絡框,然后與圖像中車輛目標分類器得到的像素二維框進行對比,并基于激光雷達的物理特性設計新的融合指標[15].

        將激光雷達點云投影到圖像上的效果如圖4所示,標定板點云數(shù)據(jù)中估計的平面中心點,通過外參的轉換,與圖像中標定板中心點基本吻合,并且環(huán)境中其他目標如行人、立柱的點云輪廓與圖像中行人和立柱也能比較完整進行匹配.

        對采樣的20組數(shù)據(jù)進行重投影,分析其重投影誤差,如圖5所示,其中:lb為標定板到雷達的距離;es為尺寸誤差;ec為中心點重投影像素誤差.中心點重投影像素誤差小于15 mm,這對于低速無人車而言,能夠滿足數(shù)據(jù)融合的要求.

        4仿真結果與分析

        在SVL Simulator自動駕駛仿真軟件中,分別構建晴天、霧天、夜晚以及雨天場景,將2種傳感器融合,檢測結果與單傳感器檢測結果進行對比.

        4.1晴天場景

        晴天單相機檢測結果如圖6a所示,在相機視野內的車輛可被檢測到,對相機視野外的目標無法進行檢測,如視野外紅框所示.單激光雷達檢測結果如圖6b所示,對近處的車輛激光雷達檢測效果良好,但遠處目標無法檢測,而相機可以檢測到.將2種傳感器融合,檢測結果如圖6c所示,與單一傳感器相比,融合后的檢測結果在檢測范圍上有明顯增大,使無人車具備感知周圍360°范圍內的目標,且增加了有效檢測距離,至50 m以外的遠處.

        4.2霧天場景

        霧天單相機檢測結果如圖7a所示,由于濃霧的影響,極大降低了圖像中目標的色彩強度變化,增大了特征提取的難度,導致相機視野中的目標出現(xiàn)漏檢,右側相機圖像顯示窗口中,框內的2輛車由于濃霧的影響,導致無法被相機檢測到.單激光雷達檢測結果如圖7b所示,濃霧對其檢測影響不大.將2種傳感器融合,檢測結果如圖7c所示,由于濃霧影響了相機對遠處目標的識別,導致無人車的檢測范圍并沒有增加,但融合激光雷達之后,能夠克服由于濃霧對相機檢測造成的影響,無人車左側及右前方的4輛車均被檢測到,實現(xiàn)了無人車周圍360°范圍內的目標感知.

        4.3夜晚場景

        夜晚單相機檢測結果如圖8a所示,無人車右前方的一輛車在高精度地圖中的車道位置與仿真器中車輛真實的車道位置不對應,這是由于夜晚相機對目標距離估計不準所造成的.而在圖8b中,激光雷達在夜間的檢測結果相對相機的檢測結果更加準確,且不受光線影響.將2種傳感器融合,檢測結果如圖8c所示,融合檢測可以彌補相機受光線影響的缺陷.

        4.4雨天場景

        雨天單相機檢測結果如圖9a所示,由于雨水影響,造成相機對車輛目標位置的估計出現(xiàn)偏差,無人車左前方黑色轎車被識別為客車,正前方無車卻識別顯示有車.單激光雷達的檢測結果如圖9b所示,目標位置檢測相對相機更加準確,但檢測不到遠處的白色轎車.將2種傳感器融合,檢測結果如圖9c所示,采用融合激光雷達檢測,可減小雨水天氣對無人車感知功能的影響,在雨天下依然能對遠處車輛目標進行識別,無人車左前方相鄰的4輛車、前后方車輛的位置及數(shù)量均能夠被準確識別,實現(xiàn)了無人車周圍360°范圍內的目標感知.

        綜合4種天氣條件下對單相機檢測結果、激光雷達檢測結果和融合檢測結果進行可視化,并統(tǒng)計車輛目標的檢測結果,如表1所示.

        從表1可以看出:在不同天氣條件下,單傳感器檢測與傳感器融合檢測均存在不同程度的目標漏檢情況,單相機檢測情況下,漏檢數(shù)量最多,融合檢測漏檢數(shù)量最少.相機檢測目標的漏檢是由于天氣、光照以及視角造成,而激光雷達能夠克服相機的缺陷,但是存在目標之間的遮擋,也會造成目標的漏檢.圖7c中,晴天場景中實際有6輛車,但由于無人車左前方貨車的遮擋,導致貨車后方的1輛轎車無法被檢測到.圖9c的夜晚場景中,無人車右前方的1輛轎車,由于距離過遠,且光線不足,導致激光雷達與相機都無法檢測到.通過傳感器的融合,感知系統(tǒng)可以綜合相機與激光雷達的優(yōu)勢,實現(xiàn)優(yōu)勢互補,使得遠處的車輛目標能被無人車識別,并且借助激光雷達360°的視野優(yōu)勢,實現(xiàn)對交叉路口的全方位感知.

        5結論

        1) 基于Flood Fill與譜聚類算法結合方法,提出基于激光雷達點云的目標檢測方法,將譜聚類算法應用于點云的聚類分割中,考慮連通組件之間的特征距離,改進相似度矩陣.結果表明,激光雷達對近處目標有良好的檢測效果,對于距離無人車50 m以內的相鄰車道中的車輛目標,能夠準確識別其位置.

        2) 基于平面法線對齊方法,對激光雷達點云信息與相機圖像信息進行融合,引入遺傳算法對求解結果進行優(yōu)化,對結果進行高斯分布處理,獲得最優(yōu)解.結果表明,重投影像素誤差小于15 mm.

        3) 構建城市交叉口仿真環(huán)境,針對晴天、雨天、夜晚及霧天場景,分別對單相機檢測、激光雷達檢測及融合檢測方法進行仿真分析.結果表明,進行傳感器融合之后,綜合激光雷達與相機的優(yōu)勢,無人車能夠對自車周圍360°范圍內的目標進行識別.

        參考文獻(References)

        [1]賈文博.基于雷達與視覺融合的車輛檢測方法研究[D].大連:大連理工大學,2021.

        [2]徐文軒,李偉.無人駕駛汽車環(huán)境感知與定位技術[J].汽車科技,2021(6):53-60,52.

        XU W X, LI W.Environmental perception and location technology of driverless vehicles[J]. Automobile Science amp; Technology,2021(6):53-60,52. (in Chinese)

        [3]曾帥康.基于ROS的低速無人車環(huán)境感知與控制方法研究[D]. 北京:北京交通大學,2021.

        [4]李研芳,黃影平. 基于激光雷達和相機融合的目標檢測[J]. 電子測量技術,2021, 44(5):112-117.

        LI Y F, HUANG Y P. Target detection based on the fusion of lidar and camera[J]. Electronic Measurement Technology,2021, 44(5):112-117.(in Chinese)

        [5]楊鑫,劉威,林輝. 面向高級輔助駕駛雷達和視覺傳感器信息融合算法的研究[J]. 汽車實用技術, 2018(1):37-40.

        YANG X, LIU W, LIN H. Research of radar and vision sensors data fusion algorithm applied in advanced driverassistance systems[J]. Automobile Applied Technology, 2018(1):37-40.(in Chinese)

        [6]鄭少武,李巍華,胡堅耀. 基于激光點云與圖像信息融合的交通環(huán)境車輛檢測[J]. 儀器儀表學報, 2019, 40(12):143-151.

        ZHENG S W, LI W H, HU J Y. Vehicle detection in the traffic environment based on the fusion of laserpoint cloud and image information[J]. Chinese Journal of Scientific Instrument, 2019, 40(12):143-151.(in Chinese)

        [7]陳昆. 基于雙目視覺和激光雷達融合的道路環(huán)境感知技術[D]. 杭州:浙江大學, 2020.

        [8]梁晨晨,田金鵬,宋春林. 基于雷達和攝像頭傳感器融合的輔助駕駛目標檢測算法[J].信息技術與信息化, 2021(12):5-9.

        LIANG C C, TIAN J P, SONG C L. Aided driving target detection algorithm based on radar and camera sensor fusion[J]. Information Technology amp; Informatization, 2021(12):5-9.(in Chinese)

        [9]圣園園. 鏈篦機臺車側板裂縫檢測方法研究[D]. 包頭:內蒙古科技大學, 2021.

        [10]楊迪,蔡怡然,王鵬,等. 基于改進譜聚類算法的交通區(qū)域劃分方法[J]. 計算機工程與設計, 2021,42(9):2478-2484.

        YANG D, CAI Y R, WANG P, et al. Traffic regional division method based on improved spectral clustering algorithm[J]. Computer Engineering and Design, 2021, 42(9):2478-2484.(in Chinese)

        [11]REDMON J, FARHADI A. YOLO9000: better, faster, stronger[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,USA:IEEE,2017:7263-7271.

        [12]MOUSAVIAN A, ANGUELOV D, FLYNN J, et al. 3D bounding box estimation using deep learning and geometry[C]∥Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,USA:IEEE,2017:7074-7082.

        [13]潘浩然. 基于改進損失函數(shù)的YOLOv3的人臉檢測[D]. 南昌:南昌大學, 2020.

        [14]宮銘錢. 基于激光雷達和相機信息融合的車輛識別與跟蹤研究[D]. 重慶:西南大學, 2021.

        [15]MOHAMMADI A, ASADI H, MOHAMED S, et al. OpenGA, a C++ genetic algorithm library[C]∥2017 IEEE International Conference on Systems, Man, and Cybernetics (SMC). Piscataway,USA:IEEE,2017:2051-2056.

        (責任編輯賈國方)

        引文格式: "李勝琴,孫鑫,張民安. 基于激光雷達與相機融合的城市交叉路口車輛識別技術[J].江蘇大學學報(自然科學版),2024,45(6):621-628.

        收稿日期: ""2022-08-18

        基金項目: "中央高?;究蒲袠I(yè)務費專項資金資助項目(2572021BG01)

        作者簡介: ""李勝琴(1976—),女,黑龍江哈爾濱人,教授,博士生導師(lishengqin@nefu.edu.cn),主要從事車輛系統(tǒng)動力學建模及車輛操縱穩(wěn)定性研究.

        孫鑫(1998—),女,山東臨沂人,碩士研究生(470739947@qq.com),主要從事車輛避撞控制研究.

        日日碰日日摸日日澡视频播放 | 日韩精品无码久久久久久| 色www亚洲| 日本一区二区在线看看| 中文字幕乱码在线人妻| 丰满少妇高潮惨叫久久久一| 午夜精品一区二区三区在线观看| 爆乳无码AV国内| 日本一级片一区二区三区| 2019最新中文字幕在线观看| 国产在线精品一区二区| 日本高清一区二区不卡视频| 久久精品视频日本免费| 风韵少妇性饥渴推油按摩视频| 亚洲精品久久国产高清情趣图文| 欧美成人高清手机在线视频| 国产一区二区资源在线观看| 加勒比hezyo黑人专区| 无码一区二区三区老色鬼| 国产盗摄XXXX视频XXXX| 加勒比久久综合久久伊人爱| 亚洲av无码精品国产成人| 精品88久久久久88久久久| 美女露屁股无内裤视频| 日本一区二区视频在线| 日本一卡2卡3卡4卡无卡免费网站 亚洲av无码一区二区三区不卡 | 日日噜噜夜夜狠狠久久av| 国产精品亚洲av高清二区| 国产亚洲精品精品精品| 亚洲精品免费专区| 国产av区亚洲av毛片| 视频在线观看一区二区三区| 性色av一区二区三区| 国产一区二区三区4区| 精品国产中文久久久免费| 日本最新免费二区三区| 欧洲色综合| 国产精品不卡免费版在线观看| 国产麻花豆剧传媒精品mv在线| 国产欧美日韩一区二区三区在线 | 无码国产一区二区色欲|