葉 飛,劉子龍
(上海理工大學(xué) 光電信息與計算機工程學(xué)院,上海 200082)
近幾年隨著深度神經(jīng)網(wǎng)絡(luò)不斷發(fā)展,深度神經(jīng)網(wǎng)絡(luò)在車道線檢測中得到了廣泛的應(yīng)用[1,2].然而,當(dāng)車道線破損,弱光條件以及車輛造成的遮擋,都會讓檢測任務(wù)具有挑戰(zhàn)性.尤其是當(dāng)光線條件差的時候,車道線將變得十分模糊,這會使得難以提取出車道線的特征信息,無法精確的識別車道線.另外,可用于訓(xùn)練車道線標簽通常是稀疏的(例如,大背景下非常細且長的車道線),因此影響了網(wǎng)絡(luò)學(xué)習(xí)道路的場景結(jié)構(gòu)的能力.目前,弱光條件下檢測的方法有兩種:1),多任務(wù)學(xué)習(xí);2)上下文語義信息.比如VPGNet[3]在多任務(wù)學(xué)習(xí)中加入了道路標記檢測和消失點預(yù)測,可以在車道線檢測中更好地表現(xiàn).但是,這種方法需要額外的人工標注信息,這無疑是增加更大的工作量.另一種上下文語義信息方法,比如SCNN[4],它取代了層與層之間的連接,使像素在行與列之間傳遞信息.這種方法能夠幫助檢測網(wǎng)絡(luò)更好的在弱光條件下理解交通場景,但是這種方式大大的增加推理計算.
在深度學(xué)習(xí)鄰域,數(shù)據(jù)選擇是否恰當(dāng)以及模型大小是否合適最終會決定檢測的效果.由于數(shù)據(jù)集大部分只是光線良好的條件下,這使得檢測網(wǎng)絡(luò)在諸如夜晚和陰影弱光條件下表現(xiàn)不佳.又因為考慮到計算資源有限的車載設(shè)備,常常選用較小的模型進行部署,當(dāng)需要訓(xùn)練一個小模型時,上述的挑戰(zhàn)變得尤其嚴重.為了解決以上兩個問題,數(shù)據(jù)增強和知識蒸餾(Knowledge distillation,KD)[5]成為了一種不錯的解決方式.通過將含有不足弱光數(shù)據(jù)的數(shù)據(jù)集進行數(shù)據(jù)增強,增加弱光數(shù)據(jù)集,然后再使用知識蒸餾的方法訓(xùn)練車道線檢測模型.目前,已經(jīng)提出許多數(shù)據(jù)增強和知識蒸餾的方法.例如,通過生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,簡稱GAN[6])擴充數(shù)據(jù)集;通過柔和類別分數(shù)傳遞知識[5],特征圖匹配的方法[7,8]或者通過空間注意力匹配的方法[9].
本文的主要工作如下
1)提出一種基于改進循環(huán)一致性的生成對抗網(wǎng)絡(luò)的方法,利用該網(wǎng)絡(luò)對數(shù)據(jù)集進行數(shù)據(jù)增強,增加數(shù)據(jù)集弱光條件的數(shù)據(jù).
2)提出一種關(guān)注區(qū)域內(nèi)特點的知識蒸餾方法將老師網(wǎng)絡(luò)的訓(xùn)練得到場景結(jié)構(gòu)知識傳遞給學(xué)生網(wǎng)絡(luò),來增強學(xué)生網(wǎng)絡(luò)模型的結(jié)構(gòu)認知能力.
3)最后進行不同優(yōu)化算法的對比實驗,通過實驗驗證得出基于本文方法得到檢測模型對于不同場景下魯棒性強,精度更高.
大多數(shù)傳統(tǒng)的車道線檢測方法都是基于手工特征.主要分為兩類:基于模型和基于特征.基于模型的方法[4]主要是通過匹配車道線的特征點和車道線的幾何模型來提取車道線.基于特征的方法[10]主要是通過車道線邊緣的梯度、方向和灰度信息特征來檢測車道線.采用這種方法有許多缺點,例如,需要復(fù)雜的特征選擇過程,并且僅在簡單的公路場景中工作良好.
目前,由于卷積神經(jīng)網(wǎng)絡(luò)(Convolution neural network,簡稱CNN)[11,12]可以提取不同深度層次的特征,它也被廣泛應(yīng)用于不同的車道線檢測任務(wù).例如,王等人[13]利用深度神經(jīng)網(wǎng)絡(luò)將輸入圖像映射到語義分割圖.由于大型模型通常需要巨大的內(nèi)存存儲,并且推理速度較慢,因此許多輕量級模型,例如ERFNet[14],被用來滿足快速推理和小存儲的要求,Van Gansbeke等人[15]提出了一種端到端的車道檢測器,它由兩部分組成:一個深度網(wǎng)絡(luò),為每個車道預(yù)測一個類似分割的權(quán)重圖,以及一個可微分的最小二乘擬合模塊,用于返回擬合參數(shù).然而,由于模型尺寸受限,這些網(wǎng)絡(luò)沒有足夠的能力提取足夠的上下文信息.已經(jīng)提出了幾種方法來緩解稀疏性問題,例如,SCNN[3]通過深層要素圖層之間的信息傳遞解決了這個問題.張等人[16]提出了一種同時執(zhí)行車道區(qū)域分割和車道邊界檢測框架.還有一些學(xué)者,引入知識蒸餾的方法,目的是將老師網(wǎng)路提取出的特征知識轉(zhuǎn)移給小型的學(xué)生模型,提取特征知識有不同的形式,例如,軟化邏輯輸出[17],中間特征映射[18,19]或相鄰層之間的成對相似性映射[20].另一種工作[21,22]使用自我知識蒸餾來加強網(wǎng)絡(luò)本身的表征學(xué)習(xí),而不需要大型教師模型的監(jiān)督,侯等人[22]通過自我知識蒸餾來加強上下文知識的學(xué)習(xí),即使用深層注意圖來指導(dǎo)較淺層的學(xué)習(xí).最新的研究方法是將知識蒸餾從一個樣本擴展到幾個樣本[23,24].例如,帕克等人[23]在蒸餾過程中傳遞一批數(shù)據(jù)樣本之間的相互關(guān)系.Tung等人[24]將不同樣本特征的相似性得分作為蒸餾目標.上述方法沒有考慮一個樣本中不同區(qū)域之間的結(jié)構(gòu)關(guān)系.
另一個方面上述方法中并沒有考慮原始數(shù)據(jù)集弱光數(shù)據(jù)的比例,例如CULane數(shù)據(jù)集中白天與晚上的數(shù)據(jù)比例大概是17:1,通過訓(xùn)練得到的檢測器在弱光情況下檢測能力將十分受限.一些研究人員采用生成對抗網(wǎng)絡(luò)GAN來對圖像數(shù)據(jù)集進行數(shù)據(jù)增強以提高檢測器檢測工作,小龍等人[25]認為物體遮擋或變形占很小的比例,因此對抗空間丟失網(wǎng)絡(luò)(Adversarial Spatial Dropout Network,簡稱ASDN)和對抗空間變形網(wǎng)絡(luò)(Adversarial Spatial Transformer Network,簡稱ASTN)被設(shè)計用于分別學(xué)習(xí)如何遮擋和旋轉(zhuǎn)物體.劉等人[26]開發(fā)了一個模型,該模型聯(lián)合優(yōu)化了GAN和探測器,并對發(fā)生器進行了檢測損失訓(xùn)練,能夠產(chǎn)生探測器難以探測到的物體,提高了探測器的魯棒性.以上方法只使用GAN的解決物體遮擋和小物體檢測問題,并沒有解決弱光問題.本文的方法將改進后的生成對抗網(wǎng)絡(luò)GAN應(yīng)用到數(shù)據(jù)增強中,并且引入一種考慮不同區(qū)域之間結(jié)構(gòu)關(guān)系的知識蒸餾方法,以此提高弱光條件下檢測器檢測的精度和速度.
車道線檢測主要任務(wù)是語義分割任務(wù).具體過程是,輸入圖片X∈h×w×3,并且已知圖片中車道線以及其他物體的標簽信息l∈{0,…,n-1},其中,h是圖片高度,w是寬度,n代表物體類別種類,然后通過一種映射X→O,得到語義分割圖O,目前主流的方法通過CNN等網(wǎng)絡(luò)來得到這種映射.
本文的方法首先利用改進后的循環(huán)一致性生成對抗網(wǎng)絡(luò)對CULane數(shù)據(jù)集做數(shù)據(jù)擴充,增加數(shù)據(jù)集中弱光條件的數(shù)據(jù),然后提出一種關(guān)注區(qū)域特征的蒸餾方法對模型進行訓(xùn)練,最終得到高效的車道線檢測模型.
通過改進循環(huán)一致性生成對抗網(wǎng)絡(luò)(Improved-CycleGAN)進行數(shù)據(jù)增強.本文使用的改進后的循環(huán)一致性生成對抗網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示,它由兩個生成器(GA和GB)和兩個鑒別器(DA和DB)組成.生成器GA將圖像從合適的光照條件轉(zhuǎn)換到弱光照條件,而生成器GB以相反的方式轉(zhuǎn)換圖像.鑒別器將單個標量(真或假)反饋給生成器.然后經(jīng)過訓(xùn)練后的網(wǎng)絡(luò)將良好光照條件轉(zhuǎn)換到弱光條件風(fēng)格,通過該方法得到圖片不需要重新進行標注,可直接使用原始圖片的標注信息.
圖1 改進循環(huán)一致性生成對抗網(wǎng)絡(luò)
循環(huán)一致性生成對抗網(wǎng)絡(luò)生成器結(jié)構(gòu)的設(shè)計思想來源于U-net網(wǎng)絡(luò),整體結(jié)構(gòu)通過經(jīng)過編碼(下采樣),然后解碼(上采樣),包含了兩個步長為2的卷積、幾個普通卷積模塊和步長為1的卷積.但是它不是一個完全對稱的結(jié)構(gòu),對應(yīng)層尺寸不一致這會導(dǎo)致輸出與數(shù)據(jù)集內(nèi)真實的圖像分辨率不匹配,非比例的變換導(dǎo)致圖像很容易失真.為了使得輸入輸出的分辨率匹配,本文引入Overlap-tile的策略,其主要步驟在圖片輸入到網(wǎng)絡(luò)前對圖像進行邊緣填充,使得最終的輸出尺寸與原圖一致.生成器主要網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示.
圖2 生成器結(jié)構(gòu)
本文將白天光照條件的數(shù)據(jù)定義為域X,弱光條件的數(shù)據(jù)定義為Y,通過改進循環(huán)一致性對抗網(wǎng)絡(luò)(Improved-CycleGAN)將域X的數(shù)據(jù)變換為域Y的數(shù)據(jù),也可以將域Y變換為域X.在訓(xùn)練過程中,生成器根據(jù)鑒別器的反饋生成更加逼真的圖像,達到欺騙鑒別器的目的.因此,本文加入對抗損失來描述這一過程,將從域X到域Y的對抗損失定義為:
LossGAN(GA,DB,X,Y)=Ey~Pdata(y)[logDB(y)]+
Ex~Pdata(x)[log(1-DB(GA(x)))]
(1)
其中,圖像GA(x)通過最小化GA從域Y生成,最大化DB來區(qū)別生成的圖像GA(x)和真實的樣本Y,即minGAmaxDBLGAN(GA,DB,X,Y).同理,易知從域Y到域X的對抗損失函數(shù)與公式(1)相似將其定義為:minGBmaxDALGAN(GB,DA,Y,X).
通過GA從域X轉(zhuǎn)換到GA(x),再通過GB將GA(x)轉(zhuǎn)換到GB(GA(x))和GB從域Y轉(zhuǎn)換到GB(y),再通過GA將GB(y)轉(zhuǎn)換到GA(GB(y)),進行周期一致性適配,從而生成更加逼真的圖像.將周期一致性損失來描述這一過程:
Losscyc(GA,GB)=EX~Pdata(x)[‖GB(GA(x)-x)‖]+
Ey~Pdata(y)[‖GA(GB(y))-y‖]
(2)
最終,損失函數(shù)為:
Losstotal=LossGAN(GA,DB,X,Y)+
LossGAN(GB,DA,Y,X)+λLosscyc(GA,GB)
(3)
其中,λ用來控制兩個目標之間的相對重要性.
知識蒸餾是一種通過從大模型中提取知識來提高小模型性能的常用方法.知識蒸餾有兩個網(wǎng)絡(luò),一個叫教師網(wǎng)絡(luò),一個叫學(xué)生網(wǎng)絡(luò).其目的是將數(shù)據(jù)中深層的特征知識從大且復(fù)雜的教師模式轉(zhuǎn)移到小且緊湊的學(xué)生模式.一般的知識蒸方法,是將教師網(wǎng)絡(luò)輸出的概率分數(shù)與學(xué)生網(wǎng)絡(luò)輸出進行軟化,再利用交叉熵損失函數(shù)進行訓(xùn)練,讓學(xué)生網(wǎng)絡(luò)泛化學(xué)習(xí)教師網(wǎng)絡(luò),最終目的使學(xué)生網(wǎng)絡(luò)有教師網(wǎng)絡(luò)的檢測能力.
但是直接用軟化目標分數(shù)誘導(dǎo)學(xué)生網(wǎng)絡(luò)訓(xùn)練,一是不利于檢測模型對場景的理解,尤其是街景這類變化較多的場景,二是會造成學(xué)生網(wǎng)絡(luò)模型過擬合.為了加強區(qū)域間結(jié)構(gòu)特征的理解能力,不僅將教師網(wǎng)絡(luò)最后的輸出的軟化分數(shù)作為學(xué)習(xí)的知識,而且將每張圖片中不同區(qū)域的結(jié)構(gòu)特征視為一種新的知識,然后通過軟化分數(shù)作為監(jiān)督學(xué)習(xí)來引導(dǎo)學(xué)生網(wǎng)絡(luò)對教師網(wǎng)絡(luò)區(qū)域特征的學(xué)習(xí),并將其命名為Region-KD.具體來說,本文認為每個輸入樣本有n個道路標記(包含背景),把每個類別都當(dāng)作一個區(qū)域.在給定相同的輸入,構(gòu)建學(xué)生網(wǎng)絡(luò)的區(qū)域親和圖G1和教師網(wǎng)絡(luò)區(qū)域親和圖G2.其中將親和圖定義為:G(μ,C)其中μ可視作節(jié)點集合,代表區(qū)域間特征的分布統(tǒng)計.C視作各個區(qū)域節(jié)點間的連線集合,表示兩個區(qū)域特征分布的相似性.總體的網(wǎng)絡(luò)框架如圖3所示.
本文將整個流程分成3個部分:1)提取代表圖中每個節(jié)點的區(qū)域范圍;2)采用矩運算量化計算每個區(qū)域的分布統(tǒng)計;3)構(gòu)建區(qū)域親和圖,將教師網(wǎng)絡(luò)的結(jié)構(gòu)知識提取到學(xué)生網(wǎng)絡(luò).
第1步,從給定的圖像中提取區(qū)域來表示每個類別的空間范圍,這里將標簽圖像二值化處理,輸出一個集合L∈h×w×n的特征圖,其中n是類的個數(shù).每一張圖都是以“0”和“1”二進制構(gòu)成,車道線用“1”表示,背景用“0”表示.使用形態(tài)學(xué)操作進行標簽平滑,輸出一個包含集合M∈h×w×n的區(qū)域范圍.
第2步,假設(shè)從網(wǎng)絡(luò)中得到的特征圖表示為F∈hf×wf×c,其中hf,wf,c分別代表長,寬,通道數(shù).將第一步中得到包含集合M的區(qū)域作為模板來提取特征圖F中相同區(qū)域的特征.然后計算每個區(qū)域特征的親和度.本文將親和度定義為兩個特征分布之間的相似性.受文獻[27],文獻[28]啟發(fā),本文使用矩運算來計算兩個特征分布之間的相似度,分別計算特征分布的平均值矩向量μ1,方差矩向量μ2,以及偏斜度矩向量μ3.計算公式如下:
(4)
其中,k表示類別數(shù)量.
第3步,由于教師模型和學(xué)生模型提取特征圖是不同維度的,在執(zhí)行矩向量匹配的時候首先要進行維度一致性操作.最終,通過余弦損失函數(shù)來計算類別k1和類別k2矩向量之間的相似度:
(5)
其中r∈{1,2,3}.通過公式得到的相似性分數(shù)作為學(xué)生模型要學(xué)習(xí)的高級知識,矩向量和相似性分數(shù)構(gòu)成親和力圖G(μ,C),如圖所示.區(qū)域間親和蒸餾損失函數(shù)如公式所示:
(6)
最后,整個網(wǎng)絡(luò)的總的損失函數(shù)由兩部分組成,語義分割損失函數(shù),區(qū)域間親和蒸餾損失函數(shù),交叉熵損失函數(shù).損失函數(shù)如下:
Loss=Lossseg(O,L)+αLossm(CS,CT)+
βLosssoft(QS,QT)
(7)
其中α,β用來平衡蒸餾損失對語義分割任務(wù)Lossseg(O,L)損失的影響.Losssoft作為目標軟化分數(shù)損失函數(shù)監(jiān)督學(xué)生網(wǎng)絡(luò)學(xué)習(xí)區(qū)域特征知識的行為,具體公式如下:
(8)
從以上公式可以發(fā)現(xiàn)所引入的親和提取只與類和數(shù)量相關(guān),而與特征的具體維度無關(guān).并且,區(qū)域知識來自于前景與背景的區(qū)域特征信息,包含更加豐富的道路信息.
CULane數(shù)據(jù)集廣泛應(yīng)用于車道線,其中包含許多不同的具有挑戰(zhàn)性的駕駛場景,如擁擠、陰影、夜晚、炫光等.對于光照條件的風(fēng)格轉(zhuǎn)化,本文從數(shù)據(jù)集中選擇了3000張光線條件良好的圖片和3000張低光照條件下的圖片.這些圖片按照3:1的比例進行分割,分別作為改進循環(huán)一致性生成對抗網(wǎng)絡(luò)的訓(xùn)練集合測試集.在完成了訓(xùn)練之后,本文在數(shù)據(jù)集中選擇了13000張合適光照條件下的圖片,通過該訓(xùn)練好的網(wǎng)絡(luò)將這些圖像轉(zhuǎn)換成低光照條件下的圖片.如圖4所示,顯示了其中一部分轉(zhuǎn)換結(jié)果的例子.
圖4 改進循環(huán)生成對抗網(wǎng)絡(luò)生成的部分圖片
為了判斷車道線是否被正確的檢測到,本文將每個車道線視作一條30像素寬的線,并計算標簽與預(yù)測之間的交并比(IoU).實驗中,將閾值設(shè)置為0.5,大于閾值的預(yù)測被視作真陽性(TP).然后,本文用F1分數(shù)來作為評價標準,F1的定義為:
通過分析CULane數(shù)據(jù)集,發(fā)現(xiàn)在輸入圖像上部分約1/3區(qū)域是天空,并沒有道路標記,因此本文在接下去的訓(xùn)練與測試中將原始圖像的上部分區(qū)域裁剪節(jié)省GPU內(nèi)存,最終將原始圖片分辨率調(diào)整為800×208.在訓(xùn)練中使用SGD的方法來訓(xùn)練本文的模型,學(xué)習(xí)率設(shè)置為0.01,批次大小設(shè)置為4,α設(shè)置為0.1.在實驗中,使用ERFNet來作為學(xué)生模型,ResNet-101來作為教師模型.將本文的方法最終命名為Improved-CycleGAN+Region-KD.
4.4.1 不同生成數(shù)量圖片對模型精度的影響
本節(jié)中為了探究生成圖片對于模型的性能影響程度,設(shè)計兩個實驗:
1)生成圖片與真實圖片的對比;
2)不同數(shù)量的圖片對車道線檢測能力對比實驗.
實驗1.使用原始CULane訓(xùn)練集的13000弱光條件下圖片作為訓(xùn)練集,以及使用改進循環(huán)生成對抗網(wǎng)絡(luò)生成的13000張弱光條件下的圖片作為訓(xùn)練集.測試集使用CULane測試集,結(jié)果如圖5所示,這表明使用生成的圖片進行訓(xùn)練可以更快的收斂和擬合.因為真實弱光環(huán)境錄制的視頻有許多干擾與噪聲,而通過生成的圖片是風(fēng)格遷移,并沒有這些干擾,所以生成的圖片更容易被模型理解.
圖5 生成圖片與原始圖片實驗對比
實驗2.假設(shè)在弱光條件下生成的圖像與真實圖像數(shù)量的比例為N,本文取N=0.5,1,2,4作為對比,實驗結(jié)果如表1所示,可以看出當(dāng)生成更多的弱光條件下的圖片時,N大于1之后,F1分數(shù)不再上升,甚至在某些場景表現(xiàn)不佳,在本次實驗中,N=1是最佳比例,能使檢測模型達到性能最佳.
表1 不同比例生成圖像在不同場景的F1分數(shù)
4.4.2 數(shù)據(jù)增強前后模型性能對比
為了驗證改進循環(huán)生成對抗網(wǎng)絡(luò)擴充數(shù)據(jù)集方法的有效性,本節(jié)中設(shè)置了3組對照實驗,其中其他條件不變,都采用ERFNet模型,并且通過以下3種數(shù)據(jù)集進行訓(xùn)練得到車道線模型:
1)原始的CULane數(shù)據(jù)集;
2)原始數(shù)據(jù)集并添加由循環(huán)生成對抗網(wǎng)絡(luò)生成的13000弱光數(shù)據(jù)集;
3)原始數(shù)據(jù)集并添加由改進循環(huán)生成對抗網(wǎng)絡(luò)生成的13000弱光數(shù)據(jù)集.
并且將訓(xùn)練后的模型命名為ERFNet,CycleGAN+ERFNet,Improved-CycleGAN+ERFNet.
對比實驗的結(jié)果如表2所示.與沒有數(shù)據(jù)增強的ERFNet網(wǎng)絡(luò)相比,可以發(fā)現(xiàn)通過使用改進循環(huán)生成對抗網(wǎng)絡(luò)進行數(shù)據(jù)增強方法在弱光條件下表現(xiàn)更好,如夜晚和陰影的場景中,其F1分數(shù)分別增加了2.2%和4.9%.這表明光照風(fēng)格的轉(zhuǎn)換來進行數(shù)據(jù)擴充有助于在弱光情況下的車道線檢測性能.同時,本文可以看到該方法處理后,整體模型的綜合性能也從73.1%提升至73.8%,提高了模型的泛化能力.
表2 數(shù)據(jù)增強前后各模型F1分數(shù)
4.4.3 不同算法檢測性能對比
為了進一步驗證區(qū)域親和知識蒸餾方法的有效性,本文在通過改進循環(huán)生成對抗網(wǎng)絡(luò)進行數(shù)據(jù)增強的基礎(chǔ)上,分別選取了傳統(tǒng)的SCNN方法,以及目前比較常用的蒸餾方法對比實驗,實驗結(jié)果分別由表3和圖6所示.
圖6 不同車道線算法可視化對比
表3 不同算法性能對比
由表2可以看出本文的方法相較于自我蒸餾的ERFNet-SAD和有著同樣教師-學(xué)生蒸餾模型的ERFNet-KD都有一定程度提升,F1分數(shù)分別提升了0.4%和0.7%.另外,本文的方法由于參數(shù)量比ResNet-101少了近21倍,在推理速度上快了近16倍,但F1分數(shù)只是僅僅低了0.6%.
圖6是車道線算法可視化對比,在圖中選取了本文算法,ERFNet,以及ERFNet-KD這3個網(wǎng)絡(luò)模型的輸出同真實標簽對比.對比第1行、第2行分別對應(yīng)日常情況和擁堵,3種算法在都有不錯的表現(xiàn),精本文利用軟化分數(shù)蒸餾和區(qū)域親和知識蒸餾的方式,使得其可以得到更多的特征信息,具有更準確的預(yù)測能力.對比第3行,第4行分別對應(yīng)生成弱光條件和原始弱光條件,另外兩種算法檢測性能不佳,出現(xiàn)預(yù)測不準確,或是誤檢的情況.
在弱光條件下,車道線檢測是一項具有挑戰(zhàn)的任務(wù).本文通過改進循環(huán)一致性生成對抗網(wǎng)絡(luò)對數(shù)據(jù)進行增強,并且為了提高模型對場景的檢測能力,提出一種軟化分數(shù)蒸餾和區(qū)域親和的知識蒸餾方法,讓輕量級模型ERFNet可以捕捉不同場景的特征分布相似性.通過在CULane數(shù)據(jù)集上的實驗表明,本文的方法在弱光條件,模型檢測精度,以及模型檢測的速度上都有良好的表現(xiàn).但是,由于本文并沒有考慮道路車道指示標記在車道線檢測中重要程度.未來將研究車道指示標志與車道線的聯(lián)系,提高模型對于車道線檢測的理解能力,更好來完成車道線檢測任務(wù).