亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)的輕量化車位檢測算法*

        2023-11-29 02:31:08李琳輝袁世偉連靜顧湯鵬
        汽車技術(shù) 2023年11期
        關(guān)鍵詞:車位協(xié)作注意力

        李琳輝 袁世偉 連靜 顧湯鵬

        (1.大連理工大學(xué),汽車工程學(xué)院,大連 116024;2.大連理工大學(xué),工業(yè)裝備結(jié)構(gòu)分析國家重點實驗室,大連 116024)

        主題詞:車位檢測 協(xié)作注意力 圖神經(jīng)網(wǎng)絡(luò) 輕量化

        1 前言

        自動泊車作為自動駕駛的基礎(chǔ)應(yīng)用之一,近年來得到了越來越多學(xué)者的關(guān)注[1-2]。自動泊車的實現(xiàn)離不開感知系統(tǒng)的配合,其中,基于車載環(huán)視(Around View Monitor,AVM)系統(tǒng)[3]的停車位檢測系統(tǒng)能夠利用安裝在車身周圍的攝像頭,通過圖像處理算法檢測并識別目標(biāo)車位的標(biāo)記線,從而提取空停車位,在自動泊車任務(wù)中起到了重要作用。

        基于視覺的停車位檢測算法主要可以分為傳統(tǒng)的車位檢測算法和基于深度學(xué)習(xí)的車位檢測算法。傳統(tǒng)的車位檢測算法可以分為基于線的停車位檢測算法[4-5]和基于標(biāo)記點的停車位檢測算法[6-7],但對環(huán)境變化敏感、魯棒性差,不適用于復(fù)雜的現(xiàn)實環(huán)境。

        為提高復(fù)雜環(huán)境下車位識別的準(zhǔn)確性,研究人員提出了多種基于深度學(xué)習(xí)的車位檢測算法。Huang等[8]在基于深度卷積神經(jīng)網(wǎng)絡(luò)的停車位檢測算法(Deep convolutional neural networks based Parking-Slot detection approach,DeepPS)[9]的基礎(chǔ)上進(jìn)行優(yōu)化,使用新的卷積神經(jīng)網(wǎng)絡(luò)提取車位標(biāo)記點的方向、坐標(biāo)和形狀,并利用設(shè)計好的幾何規(guī)則過濾和匹配成對標(biāo)記點;Wu 等[10]為解決車位檢測中先驗知識不足的問題,提出了以圓形描述符來回歸停車位頂點坐標(biāo)的方法,并開發(fā)了一個兩階段的模型用于檢測停車位;Chen等[11]在圖神經(jīng)網(wǎng)絡(luò)的使用過程中放棄復(fù)雜且不便的后處理環(huán)節(jié),以端到端的方式直接對車位進(jìn)行推理,在公共數(shù)據(jù)集PS2.0[9]上得到了優(yōu)異的結(jié)果,然而,由于該算法模型較大,推理速度慢,導(dǎo)致其實時性較差。

        基于以上分析,本文綜合考慮車位檢測實時性和有效性的任務(wù)需求,提出一種基于協(xié)作注意力與圖神經(jīng)網(wǎng)絡(luò)的輕量化車位檢測算法:使用改進(jìn)的輕量化神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),減少模型訓(xùn)練過程的開銷,加快模型推理速度;使用協(xié)作注意力機(jī)制和圖神經(jīng)網(wǎng)絡(luò)配合的方法,整合多頭注意力的冗余信息,并加強(qiáng)車位標(biāo)記點間的內(nèi)在聯(lián)系;采用端到端的訓(xùn)練方式,不需人工設(shè)定規(guī)則的復(fù)雜后處理過程。最后,將該算法在公共數(shù)據(jù)集PS2.0上進(jìn)行訓(xùn)練,并與當(dāng)前的主流算法進(jìn)行對比。

        2 基于協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)的車位檢測算法結(jié)構(gòu)

        通常,車位可以由4 個標(biāo)記點表示,參考采用定向標(biāo)記點回歸的車位檢測(Parking-Slot detection using Directional Marking-Point Regression,DMPR-PS)[8]方法,本文將車位識別的問題表述為對車位入口線上標(biāo)記點的檢測問題。首先將給定的車位環(huán)視圖像輸入改進(jìn)的MobileNetV3 模型,提取特征圖后,利用深度可分離卷積得到車位標(biāo)記點的位置信息和特征編碼信息,并輸出標(biāo)記點的回歸損失。其次,利用雙線性插值的方法將標(biāo)記點位置信息與特征信息相結(jié)合,輸出標(biāo)記點特征。然后,將得到的標(biāo)記點特征與經(jīng)多層感知機(jī)變換后的位置信息相結(jié)合,構(gòu)成圖神經(jīng)網(wǎng)絡(luò)中的節(jié)點信息,即融合的標(biāo)記點特征V。本文將圖像中的所有車位標(biāo)記點連接,形成全連通的圖,標(biāo)記點間的連接關(guān)系作為圖邊E。根據(jù)圖節(jié)點V和圖邊E的關(guān)系構(gòu)建圖神經(jīng)網(wǎng)絡(luò)G=(V,E),將其與協(xié)作注意力機(jī)制相結(jié)合,推斷標(biāo)記點間的內(nèi)在聯(lián)系。經(jīng)過協(xié)作注意力與圖神經(jīng)網(wǎng)絡(luò)的處理變換,由車位推理層對輸出的標(biāo)記點特征進(jìn)行判別,判定其能否形成車位,并輸出誤差損失,更新算法的參數(shù)。

        本文算法的總體結(jié)構(gòu)如圖1所示。

        圖1 基于協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)的車位檢測算法總體結(jié)構(gòu)

        2.1 特征提取網(wǎng)絡(luò)

        為了減少訓(xùn)練以及實際算法部署的開銷,輕量化神經(jīng)網(wǎng)絡(luò)的構(gòu)建尤為重要。本文將協(xié)作注意力與圖神經(jīng)網(wǎng)絡(luò)相結(jié)合探究車位標(biāo)記點的內(nèi)在關(guān)聯(lián),增加了算法計算復(fù)雜度,故使用輕量化的神經(jīng)網(wǎng)絡(luò)來獲取圖像特征,以提高算法的推理速度。

        本文改進(jìn)了MobileNetV3 網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),其結(jié)構(gòu)如圖2 所示,其中hswish 表示h-swish 激活函數(shù)。該網(wǎng)絡(luò)保留MobileNetV1 的深度可分離卷積、MobileNetV2 的倒殘差結(jié)構(gòu)以及擠壓和激勵(Squeezeand-Excitation,SE)注意力通道模塊,并利用神經(jīng)結(jié)構(gòu)搜索方法來搜索網(wǎng)絡(luò)的配置和參數(shù)。MobileNetV3[12]的核心模塊為Bneck 模塊,也是構(gòu)成該網(wǎng)絡(luò)的基本模塊。為提高模型的表達(dá)能力,本文將Bneck 模塊中的SE 注意力通道模塊替換為平鋪擠壓和激勵(Tiled Squeezeand-Excite,TSE)注意力通道模塊[13]。

        圖2 改進(jìn)的MobileNetV3網(wǎng)絡(luò)結(jié)構(gòu)

        TSE注意力通道模塊用平均池化(Average Pooling,AvgPool)層替代了SE 注意力通道模塊的全局平均池化(Global Average Pooling,GAP)層,將輸入的張量劃分成多個大小相等的非重疊塊。此外,TSE 注意力通道模塊采用一維卷積層而非SE 注意力通道模塊的全連接(Fully Connected,F(xiàn)C)層,以縮小非重疊塊的通道,再通過批歸一化(Batch Normalization,BatchNorm)和激活函數(shù)線性整流函數(shù)(Rectified Linear Unit,ReLU)進(jìn)行處理,然后使用一維卷積層將非重疊塊的通道放大。最后,TSE 注意力通道模塊通過最近鄰插值(Nearest Neighbor Interpolation,NNI)的方式將通過激活函數(shù)S 型函數(shù)(Sigmoid Function)的所有非重疊塊拼接在一起,并將其輸出尺寸調(diào)整為輸入張量的尺寸。SE 注意力通道模塊與本文使用的TSE 注意力通道模塊的具體結(jié)構(gòu)如圖3所示。

        圖3 SE注意力通道模塊與本文使用的TSE注意力通道模塊結(jié)構(gòu)對比

        TSE 注意力相比于SE 注意力機(jī)制,在擠壓過程中使用較小的內(nèi)核進(jìn)行共享,從而減小了操作所需要的內(nèi)存,并在保持精度的同時為終端平臺上的深度學(xué)習(xí)部署提供了優(yōu)化解決方案。

        2.2 標(biāo)記點信息編碼

        將特征提取網(wǎng)絡(luò)得到的特征圖分別傳遞至標(biāo)記點檢測器和標(biāo)記點編碼器,以提取標(biāo)記點位置信息和特征編碼信息。

        標(biāo)記點檢測器由深度可分離卷積層構(gòu)成,輸出特征圖,用于提取車位標(biāo)記點的橫、縱坐標(biāo)x、y以及置信度c的信息;檢測器同時計算出標(biāo)記點回歸損失用于網(wǎng)絡(luò)的迭代計算,從而提高模型的表達(dá)能力。標(biāo)記點編碼器同樣由深度可分離卷積層構(gòu)成,輸出特征圖后,通過雙線性插值的方式對檢測到的數(shù)量為N的車位標(biāo)記點位置進(jìn)行逐點卷積,得到車位標(biāo)記點的特征F。為增強(qiáng)特征的表達(dá)能力,本文參考變換神經(jīng)網(wǎng)絡(luò)(Transformer)[14]位置編碼方式,利用多層感知機(jī)模型將車位標(biāo)記點坐標(biāo)信息(x,y)升維,通過相加的方式與特征F逐位結(jié)合:

        式中,Mlp為多層感知機(jī)模型;Fi為F中的第i個初始標(biāo)記點特征;Vi為獲得的第i個標(biāo)記點的融合特征;xi、yi分別為第i個標(biāo)記點的橫、縱坐標(biāo)。

        將輸出的融合特征Vi作為協(xié)作注意力與圖神經(jīng)網(wǎng)絡(luò)的輸入,并聯(lián)合標(biāo)記點信息和位置信息進(jìn)行車位推理。

        為提高網(wǎng)絡(luò)的推理速度、減少算法訓(xùn)練以及部署的開銷,本文使用深度可分離卷積層[12]替代標(biāo)準(zhǔn)的二維卷積層,用于提取標(biāo)記點位置信息和特征編碼信息。深度可分離卷積[12]主要由2個部分組成,即深度卷積和逐點卷積。深度可分離卷積相比普通卷積縮減了計算總量,假設(shè)輸入特征圖大小為DF×DF×M、輸出特征圖大小為DF×DF×O,卷積核尺寸為DA×DA,其中,DF為特征圖的寬度和高度,M為輸入通道數(shù)量,O為輸出通道數(shù)量。

        對于標(biāo)準(zhǔn)的二維卷積,其計算量為:

        對于深度可分離卷積,其計算量為:

        深度可分離卷積和標(biāo)準(zhǔn)卷積計算量的比值為:

        由此可見,在同等條件下,相比于標(biāo)準(zhǔn)卷積,深度可分離卷積能夠大幅降低計算量,可以有效減少模型的參數(shù)數(shù)量,加快實時推理的速度。

        2.3 協(xié)作注意力與圖神經(jīng)網(wǎng)絡(luò)

        根據(jù)前文中得到的融合特征V,本文構(gòu)建全連接圖神經(jīng)網(wǎng)絡(luò)G=(V,E)。該圖神經(jīng)網(wǎng)絡(luò)中的節(jié)點V表示數(shù)量為N的車位特征標(biāo)記點,圖邊E表示為每個標(biāo)記點間的連接關(guān)系。

        為了提高模型的表達(dá)能力,本文用協(xié)作注意力[15]來整合不同頭部之間的信息。協(xié)作注意力相比于標(biāo)準(zhǔn)的多頭注意力[14],更關(guān)注所有注意力頭捕捉的通用信息,并將這些信息作為共享權(quán)重,從而加強(qiáng)了多個頭部間的作用與理解,并修剪了冗余的參數(shù),實現(xiàn)了輕量化注意力的功能。

        標(biāo)準(zhǔn)的多頭注意力機(jī)制通過直接拼接的方式整合不同注意力:

        式中,Q、K、V分別為查詢向量、鍵向量和值向量;X、Y分別為2個不同的輸入矩陣;WQ、WK、WV分別為Q、K、V的權(quán)重矩陣;H(i)為第i個頭的注意力表示;Attention為自注意力機(jī)制;softmax為歸一化指數(shù)函數(shù),作為激活函數(shù);Nh為注意力頭的數(shù)量;dk為每個注意力頭中鍵向量的列空間維度;MultiHead為多頭注意力機(jī)制;concat為拼接函數(shù),將多個注意力頭部的計算結(jié)果在最后一個維度上進(jìn)行拼接;WO為輸出的權(quán)重參數(shù)矩陣。

        定義Dk=Nhdk為鍵向量的列空間總維度。引入傳統(tǒng)的注意力機(jī)制可以提高檢測的準(zhǔn)確性和模型的表達(dá)能力,然而這些注意力頭部之間捕捉的信息存在冗余,頭部與頭部間的通用信息較多。

        式中,、分別為查詢向量、鍵向量的共享權(quán)重矩陣;為第i個注意力頭的值相量的權(quán)重矩陣;CollabHead為協(xié)作注意力機(jī)制。

        其中,、被所有注意力頭部共同學(xué)習(xí),用于捕捉所有注意力頭間的通用信息,而mi則幫助捕捉各頭部的單獨信息,這種注意力的整合算法作用是:增加頭部注意力的自適應(yīng)表達(dá)性,頭部注意力可以根據(jù)注意力模式的復(fù)雜程度相應(yīng)增加或減少維度;使得參數(shù)的計算更加高效,所有注意力頭共享學(xué)習(xí)和,所以每輪訓(xùn)練只需計算1次。

        根據(jù)上述分析,可以推理出標(biāo)準(zhǔn)的多頭注意力機(jī)制在計算注意力評分時,其混合矩陣M的每列對應(yīng)不同的頭部,因此本文設(shè)計了對應(yīng)的混合矩陣用以捕捉所有頭部的通用信息,并對其進(jìn)行壓縮。圖4 所示為標(biāo)準(zhǔn)多頭注意力與本文使用的協(xié)作多頭注意力的對比示意。

        圖4 標(biāo)準(zhǔn)注意力機(jī)制與本文采用的協(xié)作注意力機(jī)制

        本文構(gòu)建的圖神經(jīng)網(wǎng)絡(luò)由3 層組成,首先,協(xié)作注意力將所有節(jié)點組成的邊的特征信息聚合,然后迭代更新模型,第(l+1)層的第i個節(jié)點的圖節(jié)點特征可以表示為:

        式中,[ ||Collab]表示由協(xié)作注意力對所有頭部特征點信息進(jìn)行聚合;為圖節(jié)點i根據(jù)圖網(wǎng)絡(luò)中的一階鄰居節(jié)點Ei所聚合的特征信息。

        根據(jù)協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)得到的節(jié)點特征,利用車位推理層判斷車位標(biāo)記點對是否形成完整車位。車位推理層將不同的車位標(biāo)記點進(jìn)行連接,并計算其形成入口線的概率,如圖5 所示,車位推理層由一維卷積(Conv1d)層、隨機(jī)失活(Dropout)層和Sigmoid 激活層組成,其中Dropout層僅在訓(xùn)練時使用。

        圖5 車位推理層結(jié)構(gòu)

        最后,協(xié)作注意力圖神經(jīng)網(wǎng)絡(luò)輸出N×N×5的矩陣,其中N×N表示形成的車位標(biāo)記點對數(shù),5包括x1、x2、y1、y2、p,其中(x1,y1)和(x2,y2)為車位標(biāo)記點位置坐標(biāo),p為車位標(biāo)記點形成入口線的概率。

        2.4 損失函數(shù)

        參考注意力圖神經(jīng)網(wǎng)絡(luò)車位檢測(attentional Graph neural network for Parking-slot detection,Gcn-Parking)算法[11],為端到端地訓(xùn)練整個神經(jīng)網(wǎng)絡(luò),本文損失函數(shù)的計算方法為:

        式中,lspoint為標(biāo)記點回歸損失;lsline為入口線分類損失;α1、α2分別為lspoint、lsline的系數(shù)。

        考慮到標(biāo)記點檢測的準(zhǔn)確性直接影響車位的劃分,本文利用圖神經(jīng)網(wǎng)絡(luò)來探究標(biāo)記點的內(nèi)在聯(lián)系,取α1=100、α2=1,此時檢測效果最優(yōu)。

        標(biāo)記點回歸損失lspoint是車位標(biāo)記點預(yù)測與真值間的平方差之和,標(biāo)記點檢測器的輸出層被劃分為S×S大小單元的網(wǎng)格,故其計算過程為:

        式中,lsc為置信度的回歸損失;lsxy為標(biāo)記點坐標(biāo)的回歸損失;ci為標(biāo)記點預(yù)測的置信度;(xi,yi)為標(biāo)記點投影的坐標(biāo);、(,)分別為標(biāo)記點預(yù)測的置信度和標(biāo)記點投影的坐標(biāo)對應(yīng)的真值;1i為對標(biāo)記點投影坐標(biāo)的判斷值,當(dāng)投影坐標(biāo)為真值時,取值為1,否則為0。

        入口線分類損失lsline的計算公式為:

        式中,lij為第i個和第j個標(biāo)記點形成車位入口線的預(yù)測概率;為lij對應(yīng)的真值。

        3 試驗結(jié)果與分析

        3.1 數(shù)據(jù)集與試驗環(huán)境

        本文在PS2.0[9]的公共環(huán)視圖像數(shù)據(jù)集上評估所提出的停車位檢測算法。PS2.0 數(shù)據(jù)集由9 827 幀訓(xùn)練圖像和2 338幀測試圖像組成,分別包含9 476個停車位和2 168個停車位。根據(jù)DMPR-PS[8]方法,選擇7 780幀圖像構(gòu)成訓(xùn)練集、2 290幀圖像作為測試圖像。PS2.0數(shù)據(jù)集中的圖像采集自不同環(huán)境條件下的典型室內(nèi)外場景,分辨率為600像素×600像素,對應(yīng)10 m×10 m的現(xiàn)實地面區(qū)域。

        本文在Ubuntu18.04 操作系統(tǒng)、GeForce RTX 3060顯卡,Pytorch 10.0 框架環(huán)境下進(jìn)行試驗。訓(xùn)練批量大小為16,訓(xùn)練次數(shù)為200輪。本文訓(xùn)練時選用的學(xué)習(xí)率為0.003、權(quán)重衰減率為0.01、優(yōu)化器為Adam_Onecycle,圖6所示為PS2.0數(shù)據(jù)集下檢驗后的可視化圖片。

        圖6 PS2.0數(shù)據(jù)集下檢驗后的可視化圖片

        3.2 試驗指標(biāo)設(shè)置

        本文對算法進(jìn)行了綜合評估,包括推理效率和檢測有效性。推理效率指標(biāo)包括每幅圖片推理時間和模型大小,檢測有效性指標(biāo)包括精確率、召回率和微觀F1(Micro-F1),其中Micro-F1 為本文引入的參數(shù),同時兼顧了分類模型的精確率和召回率,最大值為1,最小為0。

        精確率P為正確預(yù)測的正樣本數(shù)量與預(yù)測為正樣本的全部樣本數(shù)量的比值,召回率R為正確預(yù)測的正樣本數(shù)量與所有正樣本數(shù)量的比值:

        式中,TP為預(yù)測為正的正樣本數(shù)量;FP為預(yù)測為正的負(fù)樣本數(shù)量;FN為預(yù)測為負(fù)的正樣本數(shù)量。

        對于本文的二分類問題,Micro-F1的計算方法為:

        3.3 試驗結(jié)果

        使用PS2.0 中的測試集對本文的車位檢測算法進(jìn)行測試,并與當(dāng)前車位檢測的主流算法進(jìn)行比較,結(jié)果如表1所示。

        表1 PS2.0數(shù)據(jù)集下的有效性對比結(jié)果 %

        從表1中可以看出,本文提出的車位檢測算法在召回率和Micro-F1 指標(biāo)上優(yōu)于當(dāng)前的主流算法,這表明利用協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)可以在復(fù)雜環(huán)境下學(xué)習(xí)并提取圖像中車位的更多特征。其中:前3種算法為利用圖像特征檢測車位的傳統(tǒng)算法,其準(zhǔn)確度和召回率均低于基于深度學(xué)習(xí)的算法;DeepPS、DMPR-PS、基于深度學(xué)習(xí)的空車位檢測方法(Vacant Parking Slot detection method based on deep learning,VPS-Net)、車位檢測方法(Parking Slot Detection,PSDet)為二階段檢測算法;用于實時停車位檢測的選擇修剪全卷積網(wǎng)絡(luò)(Select and Prune the Fully Convolutional Networks for real-time parking slot detection,SPFCN)、文獻(xiàn)[18]算法、Gcn-Parking 和本文算法為端到端的單階段檢測算法。本文算法既保留了單階段神經(jīng)網(wǎng)絡(luò)的優(yōu)點,又省去了復(fù)雜的后處理操作,同時提升了檢測的有效性。相比于傳統(tǒng)算法中精度最高的基于學(xué)習(xí)的車位檢測算法(Parking-Slot Detection based on Learning,PSD_L),本文準(zhǔn)確率提高了1.31 百分點,召回率提高了12.54 百分點;相比于單階段算法中精度最高的Gcn-Parking,本文精確率提高了0.19 百分點,召回率提高了0.08 百分點;相比于二階段算法中精度最高的VPS-Net,本文精確率提高了0.12百分點,召回率提高了0.19百分點。

        考慮到一些算法未提供模型大小與推理速度,選取部分算法進(jìn)行比較,如表2 所示,相比于目前優(yōu)秀的車位檢測算法VPS-Net 和Gcn-Parking,本文算法的模型大小分別為前者的34.2%、后者的16.63%,每幀圖像的運行時間與前者相比縮短了9.95 ms,與后者相比縮短了15.2 ms??梢姳疚乃惴ㄏ啾扔谄渌囄粰z測算法模型具有參數(shù)數(shù)量少、運行時間短、推理速度快的優(yōu)點,在實際部署時具有一定的優(yōu)勢。

        表2 PS2.0數(shù)據(jù)集下的推理效率對比結(jié)果

        3.4 消融試驗

        為驗證修改后網(wǎng)絡(luò)的優(yōu)越性,本文進(jìn)行了對比試驗,在本文算法的總體架構(gòu)下,將特征提取網(wǎng)絡(luò)替換為主流的特征提取網(wǎng)絡(luò)和一些輕量化的特征提取網(wǎng)絡(luò)模型,用于進(jìn)行比較。本文試驗以模型復(fù)雜度、精確率、召回率和Micro-F1 作為評價指標(biāo),其測試結(jié)果如表3 所示。

        表3 不同特征提取網(wǎng)絡(luò)的性能指標(biāo)比較

        由表3可知,本文修改后的骨干網(wǎng)絡(luò)不僅達(dá)到了較高的精確率和召回率,同時模型參數(shù)數(shù)量少、運行速度快,優(yōu)于其他方案。

        為了研究本算法的各改進(jìn)部分在整體算法中發(fā)揮的作用,利用消融試驗對整體算法進(jìn)行研究。以MobileNetV3 特征提取網(wǎng)絡(luò)和圖神經(jīng)網(wǎng)絡(luò)為基礎(chǔ),逐步加入深度可分離卷積、協(xié)作注意力機(jī)制,以及TSE 注意力機(jī)制,對方案優(yōu)化改進(jìn),并在PS2.0 數(shù)據(jù)集上進(jìn)行檢測試驗,結(jié)果如表4所示。

        表4 消融試驗結(jié)果

        當(dāng)損失函數(shù)選取不同的系數(shù)時,得到的檢測結(jié)果如表5所示。

        表5 不同損失系數(shù)的結(jié)果

        由表4和表5可知,本算法經(jīng)過消融試驗后,通過對算法的不斷優(yōu)化,在實時性方面,每幀圖像處理時間為10.1 ms,并將模型大小縮減至77.4 MB,在有效性方面,達(dá)到了99.75%的精確率、99.50%的召回率和99.62%的Micro-F1指標(biāo),有效地平衡了算法的實時性和準(zhǔn)確性。

        4 結(jié)束語

        本文提出了一種基于協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)的輕量化車位檢測算法,利用協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)加深了車位標(biāo)記點間的內(nèi)在聯(lián)系,保證了車位識別的精確率和召回率,同時,針對計算繁瑣、模型參數(shù)數(shù)量多的卷積神經(jīng)網(wǎng)絡(luò)算法和圖神經(jīng)網(wǎng)絡(luò)算法在實車部署上的困難,使用輕量化的網(wǎng)絡(luò)結(jié)構(gòu),并對協(xié)作注意力和圖神經(jīng)網(wǎng)絡(luò)算法加以改進(jìn),最后,在PS2.0 車位數(shù)據(jù)集上進(jìn)行了對比試驗和消融試驗,驗證了算法的可行性。結(jié)果表明,本文算法優(yōu)于當(dāng)前的大部分主流車位檢測算法,滿足更快、更準(zhǔn)確的檢測需要,符合時間緊迫的自動泊車任務(wù)要求。

        猜你喜歡
        車位協(xié)作注意力
        讓注意力“飛”回來
        為了車位我選擇了環(huán)保出行
        汽車畫刊(2020年5期)2020-10-20 05:37:35
        我自己找到一個
        團(tuán)結(jié)協(xié)作成功易
        一個車位,只停一輛?
        協(xié)作
        讀者(2017年14期)2017-06-27 12:27:06
        “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
        傳媒評論(2017年3期)2017-06-13 09:18:10
        A Beautiful Way Of Looking At Things
        協(xié)作
        讀寫算(下)(2016年9期)2016-02-27 08:46:31
        可與您并肩協(xié)作的UR3
        国产美女三级视频网站| 欧美国产一区二区三区激情无套| 亚洲综合无码一区二区三区 | 日韩欧美亚洲国产一区二区三区| 宅男天堂亚洲一区二区三区| 中文字幕av伊人av无码av| 午夜无码国产理论在线| 小12箩利洗澡无码视频网站| 国产成人激情视频在线观看| 加勒比东京热中文字幕| 亚洲av无码一区二区乱孑伦as| 国产亚洲欧美成人久久片| 久久一二三四区中文字幕| 久久精品人搡人妻人少妇| 免费观看又色又爽又湿的视频| 免费jjzz在线播放国产| 国产精品亚洲一区二区三区妖精| 亚洲综合av大全色婷婷| 久久久久波多野结衣高潮| 中文字幕经典一区| 日本小视频一区二区三区| 2021国产精品视频网站| 特级婬片国产高清视频| 日韩精品一区二区三区四区| 亚洲国产一区二区av| 人成午夜免费视频无码| 中国极品少妇videossexhd| 大肥婆老熟女一区二区精品| 一本色道久久88—综合亚洲精品| 国产成人亚洲精品青草天美| 成人xx免费无码| 日韩人妻大奶子生活片| 92午夜少妇极品福利无码电影| 3d动漫精品啪啪一区二区下载| 国产一区二区丁香婷婷| 亚洲精品一区二区三区52p| 免费人妻无码不卡中文字幕18禁| 国产精品99久久久精品免费观看| 日本老熟女一区二区三区| 欧美成人国产精品高潮| 亚洲熟女少妇一区二区|