亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        自動駕駛汽車目標(biāo)檢測方法綜述

        2022-08-02 02:43:22李愛娟鞏春鵬黃欣曹家平劉剛
        關(guān)鍵詞:融合檢測信息

        李愛娟,鞏春鵬,黃欣,曹家平,劉剛

        1.山東交通學(xué)院 汽車工程學(xué)院,山東 濟(jì)南 250357;2.山東交通學(xué)院 信息科學(xué)與電氣工程學(xué)院,山東 濟(jì)南 250357;3.山東交通學(xué)院 教務(wù)處,山東 濟(jì)南 250357

        0 引言

        汽車自動駕駛技術(shù)主要包括環(huán)境感知、定位導(dǎo)航、軌跡規(guī)劃和執(zhí)行控制4個(gè)方面[1],其中環(huán)境感知為自動駕駛汽車的決策和控制提供外界環(huán)境信息,是自動駕駛的前提和保障,目標(biāo)檢測是環(huán)境感知的重要內(nèi)容[2-3]。綜合分析國內(nèi)外部分研究文獻(xiàn),以目標(biāo)檢測采用的傳感器數(shù)量和種類對目標(biāo)檢測方法進(jìn)行分類,綜述各檢測方法的特點(diǎn)及研究現(xiàn)狀,并對目標(biāo)檢測方法未來發(fā)展方向進(jìn)行展望。自動駕駛汽車目標(biāo)檢測方法分類如圖1所示。

        圖1 自動駕駛汽車目標(biāo)檢測方法分類

        1 基于單傳感器的目標(biāo)檢測方法

        自動駕駛汽車目標(biāo)檢測的傳感器主要有相機(jī)、超聲波雷達(dá)、毫米波雷達(dá)、激光雷達(dá)等[4],目標(biāo)檢測常用傳感器的特性如表1所示。

        表1 目標(biāo)檢測常用傳感器的特性

        1.1 基于視覺的目標(biāo)檢測方法

        相機(jī)是自動駕駛汽車獲取周圍環(huán)境信息的主要來源之一。早期的目標(biāo)檢測多采用視覺獲取信息,基于視覺的目標(biāo)檢測方法是先選擇候選區(qū)域,再對候選區(qū)域提取特征并判斷目標(biāo)類型,包括基于傳統(tǒng)視覺的目標(biāo)檢測方法和基于深度學(xué)習(xí)的目標(biāo)檢測方法。

        1.1.1 基于傳統(tǒng)視覺的目標(biāo)檢測方法

        基于傳統(tǒng)視覺的目標(biāo)檢測方法采用手工提取特征[5],主要檢測方法有VJ檢測器[6]、方向梯度直方圖(histogram of oriented gradient,HOG)檢測器[7]、可變形部件模型(deformable part-based model,DPM)[8]等。

        VJ檢測器采用滑動窗口遍歷整個(gè)圖像,判斷目標(biāo)是否存在。文獻(xiàn)[6]通過VJ檢測器實(shí)現(xiàn)對人臉的實(shí)時(shí)檢測,采用檢測級聯(lián)增加對有效目標(biāo)的計(jì)算,提高了檢測速度。但該方法檢測的目標(biāo)種類及大小均不固定,滑動窗口不能適應(yīng)物體大小的改變。

        文獻(xiàn)[7]改進(jìn)VJ檢測器的缺點(diǎn),采用HOG檢測器,沿用VJ檢測器滑動窗口的思想,引入多尺度圖像金字塔適應(yīng)檢測目標(biāo)的變化。文獻(xiàn)[9]采用HOG檢測器與支持向量機(jī)分類器相結(jié)合的方法識別前方車輛,并可刪除提取區(qū)域中的非車輛目標(biāo)。

        文獻(xiàn)[8]改進(jìn)HOG檢測器,采用DPM,將整體檢測目標(biāo)分解為局部檢測目標(biāo),分別檢測目標(biāo)的各個(gè)部件,再整合檢測結(jié)果。傳統(tǒng)的DPM主要檢測目標(biāo)圖像的梯度特征,容易過濾一些信息。文獻(xiàn)[10]提出基于車輛顏色的DPM檢測方法,目標(biāo)檢測準(zhǔn)確率大于90%,相比傳統(tǒng)目標(biāo)檢測方法的檢測效率和準(zhǔn)確率均較高。

        VJ檢測器對自動駕駛汽車目標(biāo)檢測方法的進(jìn)步做出了較大貢獻(xiàn),為后來的目標(biāo)檢測方法提供了思想支持;HOG檢測器克服了VJ檢測器不能適應(yīng)物體大小改變的缺點(diǎn);DPM將整體目標(biāo)化為局部目標(biāo)進(jìn)行檢測,一定程度上提升了檢測效率。但上述方法均基于手工選取特征區(qū)域,存在計(jì)算量大、實(shí)時(shí)性差等問題,不能滿足自動駕駛汽車高可靠性的要求[11]。

        1.1.2 基于深度學(xué)習(xí)的目標(biāo)檢測方法

        基于深度學(xué)習(xí)與基于傳統(tǒng)視覺的目標(biāo)檢測方法主要區(qū)別為特征區(qū)域的提取方式不同,前者采用神經(jīng)網(wǎng)絡(luò)解決檢測目標(biāo)的分類和回歸問題,按檢測原理不同分為單階段和兩階段目標(biāo)檢測方法。

        1.1.2.1 單階段目標(biāo)檢測方法

        單階段目標(biāo)檢測方法是直接應(yīng)用單個(gè)檢測網(wǎng)絡(luò),代表算法有“你只需看一次”(you only look once, YOLO)[12]系列算法、單點(diǎn)多框檢測器(single shot multibox detector,SSD)[13]、RetinaNet[14]等。

        文獻(xiàn)[12]提出了1種統(tǒng)一的、實(shí)時(shí)的檢測框架YOLO,將目標(biāo)檢測轉(zhuǎn)化為回歸類問題,可實(shí)現(xiàn)檢測目標(biāo)與背景環(huán)境的區(qū)分與關(guān)聯(lián),降低誤檢率。但對小目標(biāo)和集群目標(biāo)的檢測較低。目前YOLO系列算法已經(jīng)發(fā)展到v5版本,在保證高檢測速度的同時(shí),提升了檢測準(zhǔn)確率[15]。

        針對YOLO v1版本存在的問題,文獻(xiàn)[13]采用SSD方法引入多尺度檢測,在神經(jīng)網(wǎng)絡(luò)的不同層檢測多個(gè)不同尺度的目標(biāo),提升了小目標(biāo)的檢測準(zhǔn)確率。文獻(xiàn)[16]將SSD應(yīng)用于小型交通標(biāo)志的檢測,具有較高準(zhǔn)確率。為解決單階段目標(biāo)檢測方法無法兼顧速度與準(zhǔn)確率的問題,文獻(xiàn)[14,17]提出了新的單階段檢測框架RetinaNet,該算法引入焦點(diǎn)損失函數(shù),使檢測框架的關(guān)注焦點(diǎn)放在難分類的檢測目標(biāo)上,極大地提升了單階段檢測方法的檢測效果。

        YOLO v1作為第1個(gè)單階段目標(biāo)檢測方法,解決了檢測速度慢的問題,滿足實(shí)時(shí)檢測要求,但對不同尺度目標(biāo)尤其是小目標(biāo)的檢測效果較差;SSD引入多尺度檢測,有效提升了小目標(biāo)的檢測性能,這一思想也被應(yīng)用到Y(jié)OLO v3算法中。單階段目標(biāo)檢測方法的主要缺點(diǎn)是檢測準(zhǔn)確率低,而引入焦點(diǎn)損失函數(shù)的RetinaNet算法,在保持高檢測速度的同時(shí),達(dá)到了兩階段算法的檢測準(zhǔn)確率。

        1.1.2.2 兩階段目標(biāo)檢測方法

        兩階段目標(biāo)檢測方法將目標(biāo)檢測問題分2步解決,先產(chǎn)生候選區(qū)域,再對候選區(qū)域分類,主要包括區(qū)域卷積網(wǎng)絡(luò)(region proposals with CNN,R-CNN)[18]、空間金字塔池化網(wǎng)絡(luò)(spatial pyramid pooling networks,SPPNet)[19]和特征金字塔網(wǎng)絡(luò)(feature pyramid network,F(xiàn)PN)[20]等系列算法。兩階段目標(biāo)檢測方法比單階段目標(biāo)檢測方法更準(zhǔn)確,但檢測速度較慢。

        文獻(xiàn)[18]首次提出在自動駕駛汽車目標(biāo)檢測領(lǐng)域應(yīng)用R-CNN,成為兩階段算法的研究基礎(chǔ)。R-CNN在神經(jīng)網(wǎng)絡(luò)中輸入1個(gè)固定大小的圖像進(jìn)行訓(xùn)練并提取目標(biāo)特征,比傳統(tǒng)目標(biāo)檢測方法的檢測準(zhǔn)確率高,但會產(chǎn)生大量重復(fù)計(jì)算,降低目標(biāo)檢測速度。文獻(xiàn)[21-22]分別在R-CNN算法的基礎(chǔ)上提出了Fast R-CNN、Faster R-CNN兩階段目標(biāo)檢測方法,但仍存在重復(fù)計(jì)算,達(dá)不到單階段目標(biāo)檢測方法的實(shí)時(shí)性。

        針對R-CNN存在需輸入固定大小圖像導(dǎo)致檢測速度慢的問題,文獻(xiàn)[19]引入空間金字塔模型,消除固定尺寸約束,提出了SPPNet,該算法不需要將目標(biāo)縮放,減少了多余計(jì)算,提高了檢測速度,但仍無法適應(yīng)自動駕駛環(huán)境的實(shí)時(shí)檢測目標(biāo)。

        上述目標(biāo)檢測方法只在神經(jīng)網(wǎng)絡(luò)的頂層進(jìn)行檢測,不利于檢測目標(biāo)的分類,文獻(xiàn)[20]提出了FPN算法,充分利用神經(jīng)網(wǎng)絡(luò)檢測多尺度目標(biāo)。文獻(xiàn)[23]將FPN算法用于小目標(biāo)檢測,該算法簡單易實(shí)現(xiàn),對小目標(biāo)的檢測效果明顯。

        SPPNet、FPN等算法的核心思想,不但應(yīng)用在兩階段目標(biāo)檢測算法中提升檢測準(zhǔn)確率,也被引入單階段檢測算法,如在YOLO v3算法中引入FPN結(jié)構(gòu),將不同特征層融合后的結(jié)果用作目標(biāo)檢測,在小目標(biāo)檢測中起到關(guān)鍵作用;在YOLO v4算法中加入SPP模塊,實(shí)現(xiàn)了局部特征和全局特征的融合。兩階段目標(biāo)檢測方法雖然檢測準(zhǔn)確率高,但會產(chǎn)生一些冗余計(jì)算導(dǎo)致檢測速度慢,F(xiàn)aster R-CNN是R-CNN系列算法中檢測速度最快、最接近實(shí)時(shí)檢測要求的兩階段目標(biāo)檢測算法。

        綜上所述,基于視覺的目標(biāo)檢測方法的發(fā)展框架如圖2所示?;趥鹘y(tǒng)視覺的目標(biāo)檢測方法實(shí)時(shí)性差、檢測準(zhǔn)確率低,不能適應(yīng)復(fù)雜的自動駕駛運(yùn)行環(huán)境;基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測算法的檢測速度與準(zhǔn)確率一直未達(dá)到最優(yōu)平衡點(diǎn)[24]。

        圖2 基于視覺的目標(biāo)檢測方法的發(fā)展框架

        1.2 基于雷達(dá)的目標(biāo)檢測方法

        自動駕駛汽車運(yùn)行環(huán)境復(fù)雜多變,基于視覺的目標(biāo)檢測方法易受環(huán)境光照影響出現(xiàn)誤檢和漏檢情況。雷達(dá)檢測范圍擴(kuò)大,分辨率不斷提高,已成為最主要的目標(biāo)檢測傳感器?;诶走_(dá)的目標(biāo)檢測方法多采用點(diǎn)云特征,首先在三維點(diǎn)云數(shù)據(jù)中提取感興趣區(qū)域(regions of interest,ROI),再提取檢測目標(biāo)的特征,對檢測目標(biāo)進(jìn)行分類[25]。

        傳統(tǒng)基于點(diǎn)云特征的檢測方法與基于視覺的檢測方法相似,均采用手工方式提取特征?;诶走_(dá)的目標(biāo)檢測方法受基于深度學(xué)習(xí)目標(biāo)檢測方法的啟發(fā),將神經(jīng)網(wǎng)絡(luò)運(yùn)用到雷達(dá)提取點(diǎn)云特征。文獻(xiàn)[26]將圖像檢測方法引入基于點(diǎn)云特征的目標(biāo)檢測,提出1種實(shí)時(shí)三維點(diǎn)云檢測網(wǎng)絡(luò)Complex-YOLO,能夠?qū)崟r(shí)檢測多種類型的目標(biāo);文獻(xiàn)[27]提出采用二維全卷積網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN),將三維信息投影到二維點(diǎn)圖中預(yù)測目標(biāo)的置信度和邊界框。上述2種檢測方法均采用三維信息投影到二維點(diǎn)圖的方法,容易缺失部分信息。文獻(xiàn)[28]直接在點(diǎn)云信息上進(jìn)行目標(biāo)檢測,提出PointNet算法,該算法結(jié)構(gòu)簡單,引入最大值池化將每個(gè)點(diǎn)獨(dú)立分類檢測,再通過FCN將各點(diǎn)云特征整合獲得全局特征。文獻(xiàn)[29]將PointNet運(yùn)用到行人檢測,結(jié)合點(diǎn)云的多尺度局部特征和全局特征在激光雷達(dá)上實(shí)現(xiàn)行人檢測,試驗(yàn)表明檢測效果良好。PointNet在局部處理上存在缺陷,在此基礎(chǔ)上文獻(xiàn)[30]提出了PointNet++算法。

        基于雷達(dá)與基于視覺的目標(biāo)檢測方法有類似之處,也分為單階段和雙階段檢測方法。毫米波雷達(dá)的分辨率較低,激光雷達(dá)的成本較高,基于深度學(xué)習(xí)的視覺檢測方法提升了檢測效率和準(zhǔn)確率,但易受天氣影響且不能獲取目標(biāo)的距離、速度等信息,無法提供準(zhǔn)確可靠的環(huán)境信息[31]。由于自身特性的局限性和天氣等影響因素,基于視覺和雷達(dá)的單一傳感器目標(biāo)檢測方法不能適應(yīng)復(fù)雜的自動駕駛環(huán)境[32]。

        2 基于多傳感器融合的目標(biāo)檢測方法

        相機(jī)檢測到的目標(biāo)特征信息比雷達(dá)更豐富,但無法獲取目標(biāo)的距離、速度及三維信息[33]。將雷達(dá)與相機(jī)進(jìn)行數(shù)據(jù)融合,既能獲取圖像信息,又能獲取檢測目標(biāo)的深度信息[34],目前目標(biāo)檢測最常用的傳感器融合方式是相機(jī)與毫米波雷達(dá)融合[35]。文獻(xiàn)[36]研究了基于相機(jī)和毫米波雷達(dá)融合的目標(biāo)檢測方法,相機(jī)識別目標(biāo)特征的能力和毫米波雷達(dá)在惡劣環(huán)境中的抗干擾能力相結(jié)合,提升了目標(biāo)檢測準(zhǔn)確率。文獻(xiàn)[37]基于密度的聚類算法(density-based spatial clustering of applications with noise,DBSCAN)對激光雷達(dá)采集的點(diǎn)云數(shù)據(jù)進(jìn)行聚類,利用Faster R-CNN算法識別圖像信息,提出了基于激光雷達(dá)和視覺信息融合的框架,能快速準(zhǔn)確地識別目標(biāo)信息。

        多傳感器融合的目標(biāo)檢測方法是國內(nèi)外高校及汽車行業(yè)的研究熱點(diǎn)[38]。多倫多大學(xué)和Uber公司提出了1種通過神經(jīng)網(wǎng)絡(luò)連續(xù)融合圖像和激光雷達(dá)點(diǎn)云信息的檢測方法,通過融合2種傳感器的數(shù)據(jù)信息準(zhǔn)確獲取目標(biāo)的三維空間信息[39];百度與清華大學(xué)研發(fā)團(tuán)隊(duì)提出了多視圖3維網(wǎng)絡(luò)(multi-view 3D networks, MV3D)[40],融合框架采用點(diǎn)云的主視圖和俯視圖,同時(shí)處理相機(jī)的光學(xué)三原色圖像和激光雷達(dá)點(diǎn)云2種信息,縮短了信息處理時(shí)間,保證了目標(biāo)檢測的實(shí)時(shí)性[41]。

        信息融合是一門交叉學(xué)科,涵蓋概率統(tǒng)計(jì)、估計(jì)理論及神經(jīng)網(wǎng)絡(luò)等[42]。信息融合的方法主要包括基于隨機(jī)模型的加權(quán)平均融合法[43]、卡爾曼濾波(Kalman filtering,KF)融合法[44]、貝葉斯估計(jì)融合法[45]、D-S證據(jù)推理融合法[46]等傳統(tǒng)融合算法和正在蓬勃發(fā)展的神經(jīng)網(wǎng)絡(luò)法、模糊邏輯法、遺傳算法等人工智能融合法。

        2.1 基于隨機(jī)模型的目標(biāo)檢測融合方法

        2.1.1 加權(quán)平均融合法

        加權(quán)平均融合法是按不同權(quán)重處理多個(gè)傳感器的數(shù)據(jù)。文獻(xiàn)[47]加權(quán)分配2個(gè)超聲波雷達(dá)的觀測值,研究表明:當(dāng)觀測值權(quán)重取值合適時(shí)可獲取最優(yōu)估計(jì)值,結(jié)論推廣到多個(gè)超聲波雷達(dá)及激光雷達(dá)數(shù)據(jù)融合同樣具有較高的可行性。但加權(quán)平均融合法不易確定各傳感器數(shù)據(jù)的權(quán)重,影響采集信息的準(zhǔn)確率。文獻(xiàn)[48]提出了1種自適應(yīng)加權(quán)平均融合法,采用不同方法處理高頻、低頻數(shù)據(jù),較傳統(tǒng)加權(quán)平均融合方法的準(zhǔn)確率更高,但不易處理傳感器自身誤差及環(huán)境干擾。文獻(xiàn)[49]通過設(shè)置權(quán)重淘汰檢測結(jié)果差的傳感器數(shù)據(jù),減少多傳感器的測量誤差和不確定性,在實(shí)際應(yīng)用中提高了融合系統(tǒng)的準(zhǔn)確率。

        2.1.2 KF融合法

        KF是1種常見的數(shù)據(jù)處理方法,實(shí)時(shí)性好,廣泛應(yīng)用于計(jì)算機(jī)視覺、圖像檢測及自動駕駛環(huán)境感知等領(lǐng)域。KF融合法基于KF進(jìn)行拓展,目前主要有不變擴(kuò)展KF算法[50]、加權(quán)測量融合KF算法[51]、無跡KF與神經(jīng)網(wǎng)絡(luò)結(jié)合算法[52]等。文獻(xiàn)[53]研究目標(biāo)關(guān)聯(lián)后的不同融合方法,提出了基于KF的多傳感器信息融合算法。由于復(fù)雜的運(yùn)行環(huán)境及目標(biāo)的不確定性,文獻(xiàn)[54]基于KF提出了1種實(shí)時(shí)多目標(biāo)追蹤(multiple object trackin,MOT)框架。文獻(xiàn)[55]改進(jìn)迭代擴(kuò)展KF,提出了多傳感器融合狀態(tài)估計(jì)算法,考慮獲取信息的不確定性,先將各傳感器獲取的信息單獨(dú)處理再進(jìn)行并聯(lián),提高目標(biāo)檢測的可靠性。

        2.1.3 貝葉斯估計(jì)融合法

        貝葉斯估計(jì)理論[56]通過先驗(yàn)信息與檢測目標(biāo)信息相結(jié)合預(yù)測事件發(fā)生的概率。文獻(xiàn)[57]通過試驗(yàn)得到貝葉斯估計(jì)融合法,可有效融合多個(gè)傳感器獲取的數(shù)據(jù),但該方法需要大量先驗(yàn)信息,在實(shí)際應(yīng)用中先驗(yàn)信息并不容易獲取。文獻(xiàn)[58]提出了1種利用置信距離理論與貝葉斯估計(jì)相結(jié)合的多傳感器信息融合法,充分利用2種理論的特性,提高了檢測系統(tǒng)性能,但該方法只適用于同類型傳感器檢測同一目標(biāo)的情況。貝葉斯估計(jì)融合法對不確定的信息處理較困難,文獻(xiàn)[59]提出將KF與貝葉斯估計(jì)理論相結(jié)合的多傳感器信息融合法,該方法能有效解決各傳感器獲取信息的不確定性和不一致性,提高了檢測準(zhǔn)確率。

        2.1.4 D-S證據(jù)推理融合法

        相較于貝葉斯估計(jì)理論,D-S證據(jù)推理在處理不確定信息方面有一定優(yōu)勢,是貝葉斯估計(jì)融合法的改進(jìn)。文獻(xiàn)[60]通過試驗(yàn)驗(yàn)證了D-S證據(jù)推理應(yīng)用在多傳感器融合的自動駕駛汽車目標(biāo)檢測方面的可行性和有效性。由于自動駕駛環(huán)境的復(fù)雜性和單一傳感器的檢測缺陷,對遠(yuǎn)距離目標(biāo)及小目標(biāo)的檢測存在準(zhǔn)確率低、可靠性差等問題[61]。文獻(xiàn)[62]采用D-S證據(jù)推理對可見光和紅外熱圖像進(jìn)行決策級融合,提出了基于決策級融合的遠(yuǎn)距離目標(biāo)檢測方法。D-S證據(jù)推理融合法雖然在解決不確定信息問題上有良好的效果,但無法較好地處理證據(jù)沖突情況。文獻(xiàn)[63]提出了1種結(jié)合加權(quán)法改進(jìn)的D-S證據(jù)推理融合法,通過均值加權(quán)思想將D-S證據(jù)推理中的矛盾證據(jù)弱化,通過仿真驗(yàn)證了改進(jìn)后的算法能有效彌補(bǔ)D-S證據(jù)推理融合法的缺陷。

        2.2 基于人工智能的目標(biāo)檢測融合方法

        基于人工智能的目標(biāo)檢測融合方法主要包括神經(jīng)網(wǎng)絡(luò)融合法、模糊邏輯融合法、遺傳算法等,目前多傳感器融合常用的方法是神經(jīng)網(wǎng)絡(luò)融合法。通過給神經(jīng)網(wǎng)絡(luò)輸入大量信息,經(jīng)過訓(xùn)練產(chǎn)生固定邏輯獲得最佳的融合權(quán)值[64]。為解決雷達(dá)與紅外傳感器的融合問題,文獻(xiàn)[65]在協(xié)方差未知的環(huán)境下,采用神經(jīng)網(wǎng)絡(luò)融合2種傳感器獲取的信息,通過仿真分析驗(yàn)證算法的可行性。文獻(xiàn)[66]提出1種多傳感器融合神經(jīng)網(wǎng)絡(luò),將毫米波雷達(dá)的先驗(yàn)信息添加到卷積神經(jīng)網(wǎng)絡(luò)中得到新的注意力機(jī)制模塊,再將該模塊與SSD目標(biāo)檢測網(wǎng)絡(luò)相結(jié)合,這種基于深度學(xué)習(xí)的融合算法提高了目標(biāo)檢測的穩(wěn)定性和可靠性。文獻(xiàn)[67]發(fā)現(xiàn)利用神經(jīng)網(wǎng)絡(luò)可有效解決多傳感器融合的固有問題,但要達(dá)到最佳融合結(jié)果,需收集全部可能發(fā)生的事件數(shù)據(jù)。

        綜上所述,面對復(fù)雜的自動駕駛環(huán)境,融合方法的應(yīng)用使自動駕駛汽車充分利用各傳感器獲取更多、更豐富的環(huán)境信息,提高了目標(biāo)檢測的準(zhǔn)確率和可靠性,減少了獲取信息的時(shí)間和費(fèi)用[49]。加權(quán)平均融合法和KF融合法直接處理原始數(shù)據(jù),屬于低層次的數(shù)據(jù)級融合方法,原始數(shù)據(jù)丟失少,需集中處理大量信息,影響目標(biāo)檢測的實(shí)時(shí)性;貝葉斯估計(jì)融合法、D-S證據(jù)推理融合法相比前2種方法,計(jì)算量小,屬于高層次的融合方法,但先驗(yàn)信息不易獲得、適用范圍較?。簧窠?jīng)網(wǎng)絡(luò)融合法以神經(jīng)元的形式輸入,無需大量的先驗(yàn)信息,有較強(qiáng)的自適應(yīng)性。

        基于隨機(jī)模型的目標(biāo)檢測融合方法是多傳感器融合方法的發(fā)展基礎(chǔ),基于人工智能的目標(biāo)檢測融合方法是多傳感器融合方法的發(fā)展趨勢,但傳感器融合方法均存在計(jì)算量大、規(guī)則難建立等缺點(diǎn)。只有充分利用各傳感器的特點(diǎn),綜合多種融合方法,才能為自動駕駛汽車提供安全保障。

        2.3 目標(biāo)檢測方法存在的問題和解決方法

        自動駕駛的目的是降低交通事故的發(fā)生概率,保證行車安全?;趩蝹鞲衅鞯哪繕?biāo)檢測方法無法滿足復(fù)雜的自動駕駛行車環(huán)境,基于多傳感器融合的目標(biāo)檢測方法需要結(jié)合多種學(xué)科、多個(gè)領(lǐng)域的技術(shù)?,F(xiàn)有的目標(biāo)檢測方法只能實(shí)現(xiàn)在特定環(huán)境下的自動駕駛,目標(biāo)較小或天氣環(huán)境惡劣時(shí)對自動駕駛系統(tǒng)的穩(wěn)定性提出了較大挑戰(zhàn)。為滿足自動駕駛高可靠性的要求,可通過增加目標(biāo)檢測傳感器的數(shù)量增加獲取的目標(biāo)信息量,或通過增強(qiáng)自動駕駛目標(biāo)檢測方法的魯棒性,提高系統(tǒng)穩(wěn)定性。針對自動駕駛目標(biāo)檢測方法的問題與難點(diǎn),文獻(xiàn)[68]提出將YOLO與Faster R-CNN結(jié)合,利用YOLO將整張圖像輸入神經(jīng)網(wǎng)絡(luò)的特點(diǎn),解決兩階段Fast-RCNN算法背景檢測錯(cuò)誤率高的問題,增強(qiáng)目標(biāo)檢測的效果;文獻(xiàn)[69]將視覺、毫米波雷達(dá)和激光雷達(dá)3種傳感器融合,實(shí)時(shí)獲取環(huán)境的點(diǎn)云信息、方位角、速度和距離等深度信息,極大地提高了目標(biāo)檢測的準(zhǔn)確率和實(shí)時(shí)性;文獻(xiàn)[70]通過融合深度相機(jī)和激光雷達(dá)傳感器提高了小目標(biāo)檢測的準(zhǔn)確率;文獻(xiàn)[71]將毫米波雷達(dá)與相機(jī)融合用于惡劣天氣環(huán)境下的目標(biāo)檢測;文獻(xiàn)[72]研究了自動駕駛汽車在坑洼路段及濕地運(yùn)行時(shí)的目標(biāo)檢測,采用YOLO作為檢測算法并在數(shù)據(jù)集上增加對坑洼、濕地等環(huán)境運(yùn)行時(shí)的訓(xùn)練,使自動駕駛汽車更安全可靠。

        3 展望

        自動駕駛汽車目標(biāo)檢測方法研究與應(yīng)用已取得較大進(jìn)步,但與實(shí)現(xiàn)真正的自動駕駛?cè)源嬖诓罹?。目?biāo)檢測方法未來研究與發(fā)展的重點(diǎn)和趨勢如下:1)基于視覺的目標(biāo)檢測方法多依賴高性能計(jì)算機(jī)及強(qiáng)大的顯卡算力,而汽車上的內(nèi)存和計(jì)算資源有限,無法滿足要求,因此基于視覺目標(biāo)檢測方法的發(fā)展趨勢是發(fā)展計(jì)算量小、識別速度快、便于在移動設(shè)備上安裝的輕量級車載應(yīng)用;2)目前基于多傳感器融合的目標(biāo)檢測方法較多對2種傳感器的融合技術(shù)進(jìn)行研究,未來發(fā)展趨勢是應(yīng)用3種及以上傳感器進(jìn)行數(shù)據(jù)融合,采用的傳感器種類越多,獲取目標(biāo)信息越豐富,更能反映目標(biāo)的特性,檢測結(jié)果更準(zhǔn)確可靠;3)對遠(yuǎn)距離目標(biāo)、小目標(biāo)和集群等特殊目標(biāo)檢測的研究較少,獲取目標(biāo)特征較少的小目標(biāo)檢測是最具挑戰(zhàn)的目標(biāo)檢測任務(wù)之一,所以采用提高采集和輸入圖像信息分辨率和融合多種傳感器獲取多尺度特征的目標(biāo)檢測方法是未來發(fā)展趨勢;4)目前研究的汽車自動駕駛技術(shù)多在路況良好的城市道路進(jìn)行,對路況差及某種傳感器在復(fù)雜環(huán)境下被遮擋或失效等問題的研究較少[73],未來發(fā)展趨勢是在復(fù)雜環(huán)境中應(yīng)用多傳感器融合技術(shù)。

        猜你喜歡
        融合檢測信息
        村企黨建聯(lián)建融合共贏
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        融合菜
        從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
        《融合》
        訂閱信息
        中華手工(2017年2期)2017-06-06 23:00:31
        小波變換在PCB缺陷檢測中的應(yīng)用
        展會信息
        中外會展(2014年4期)2014-11-27 07:46:46
        国产一区二区三区4区| 免费人成视频x8x8入口| 人妻少妇被猛烈进入中文字幕| 无码国产精品一区二区免费网曝 | 国产va免费精品观看| 日本少妇按摩高潮玩弄| 成人全部免费的a毛片在线看| 一本色道无码不卡在线观看| 亚洲人成电影在线观看天堂色 | 国产69精品麻豆久久| 成人做爰69片免费看网站野花| 狠狠色狠狠色综合日日不卡| av手机在线天堂网| 国产成人精品久久二区二区91| 蜜臀亚洲av无码精品国产午夜.| 日日躁夜夜躁狠狠躁超碰97| 综合久久久久6亚洲综合| 亚洲成a人一区二区三区久久| 色欲网天天无码av| 少妇厨房愉情理伦片bd在线观看 | 人妻在卧室被老板疯狂进入国产 | 99re6在线视频精品免费| 国产精品18久久久久久麻辣| 中文字幕乱码亚洲无线精品一区| 亚洲av色香蕉一区二区三区av| 欧美性生交活xxxxxdddd| 亚洲aⅴ无码成人网站国产app| 99色网站| 中文av字幕一区二区三区| 亚洲精品久久区二区三区蜜桃臀 | 日韩亚洲欧美中文高清在线| 中文字幕乱码亚洲美女精品一区| 91超精品碰国产在线观看| 亚洲处破女av日韩精品| 成人国产在线观看高清不卡| 国产精品久久婷婷六月丁香| 东京热久久综合久久88| 国产女人成人精品视频| 成年男人午夜视频在线看| 尹人香蕉久久99天天拍| 精品国精品无码自拍自在线|