亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        面向鐵路道岔情景下的列車軌道區(qū)域檢測方法

        2024-02-18 13:46:48陳裔鋆
        關(guān)鍵詞:鐵路特征區(qū)域

        陳裔鋆,陳 羽,滕 飛

        1.西南交通大學(xué)計(jì)算機(jī)與人工智能學(xué)院,四川 成都 611756

        2.西南交通大學(xué)唐山研究院,河北 唐山 063000

        中國的軌道交通運(yùn)輸目前正面臨人員和物資大規(guī)模流動(dòng)的壓力,而障礙物侵入軌道線路給鐵路安全帶來了重大隱患。國際鐵路聯(lián)盟聲稱90% 的鐵路事故是由第三方障礙物侵入鐵路車道造成的。鐵路安全事故帶來了社會經(jīng)濟(jì)損失和人員傷亡。因此,需要高度重視并采取有效措施加以解決[1]。為了保證列車的安全行駛,提高列車的主動(dòng)障礙物檢測能力成為解決問題的有效手段,而列車主動(dòng)障礙物檢測的基本要求之一是鐵路軌道區(qū)域的檢測。

        近年來,許多學(xué)者致力于鐵路軌道區(qū)域檢測并提出了各種方法,如軌道區(qū)域分割、軌道道岔檢測等。目前,軌道交通感知技術(shù)一般分為兩部分:一是將城市道路感知方法直接運(yùn)用到軌道交通領(lǐng)域;二是充分利用軌道交通的特點(diǎn),在原有交通技術(shù)上改進(jìn)?,F(xiàn)有軌道交通感知技術(shù)大多直接取自城市交通技術(shù)。

        汽車車道線檢測技術(shù)已經(jīng)非常成熟,并已廣泛應(yīng)用于自動(dòng)駕駛領(lǐng)域。文獻(xiàn)[2] 通過神經(jīng)網(wǎng)絡(luò)直接從圖像中分割出車道線像素;文獻(xiàn)[3] 巧妙地結(jié)合傳統(tǒng)圖像特征和神經(jīng)網(wǎng)絡(luò)提取車道線;文獻(xiàn)[4] 將車道線抽象為圖進(jìn)行檢測。然而,軌道交通有其自身的特點(diǎn),若不考慮鐵路的具體情況,僅僅遷移車道線檢測技術(shù)是遠(yuǎn)遠(yuǎn)不夠的。因此,一些研究者將車道線檢測技術(shù)與軌道交通系統(tǒng)的特點(diǎn)相結(jié)合,研究了軌道區(qū)域檢測技術(shù)。

        在軌道區(qū)域檢測方面,一些研究者使用傳統(tǒng)分割方法得到軌道區(qū)域,利用鐵路的幾何特征來檢測鐵路和鐵路車道。其中,基于反向透視變換的軌道區(qū)域檢測方法是先將車載攝像機(jī)捕獲的圖像轉(zhuǎn)換為鳥瞰圖[5],然后利用不同的軌道特征提取出軌道線。文獻(xiàn)[6] 提出了一種通過滾動(dòng)窗口檢測軌道邊緣的道岔檢測算法,然后基于定向梯度和模板匹配進(jìn)行軌道檢測。文獻(xiàn)[7] 在估計(jì)軌道位置的基礎(chǔ)上,在圖像中沿軌道邊緣確定一個(gè)通暢的空間,擬合軌道邊緣曲線。文獻(xiàn)[8] 根據(jù)軌道匹配的邊緣特征對軌道曲線進(jìn)行擬合,并使用拋物線段對軌道曲線進(jìn)行擬合,將其延伸到較遠(yuǎn)的區(qū)域。文獻(xiàn)[9] 首先計(jì)算定向梯度特征的直方圖,構(gòu)建完整的圖像,然后使用區(qū)域生長算法提取鐵軌,最后通過識別道岔的開口方向找到列車將通過的路徑。文獻(xiàn)[10] 提出了一種新穎而通用的系統(tǒng)來檢測軌道的位置。

        一些研究者使用神經(jīng)網(wǎng)絡(luò)對軌道區(qū)域進(jìn)行分割[11-14],然而在大量的軌道像素中依然很難區(qū)分出特定的運(yùn)行軌道。于是一些研究人員將注意力轉(zhuǎn)向道岔檢測,以提高列車安全性[15]。這也帶來了新的問題,簡單的道岔或開合方向檢測只能近似地確定可能對列車有危險(xiǎn)的區(qū)域,而不能準(zhǔn)確地確定對列車的危險(xiǎn)程度。

        綜上所述,目前的軌道檢測方法多用于簡單設(shè)置下的軌道檢測,如單軌或平行軌。然而,在列車運(yùn)行過程中環(huán)境復(fù)雜,經(jīng)常會遇到鐵路道岔。現(xiàn)有技術(shù)和算法大多無法檢測多個(gè)道岔設(shè)置下的軌道,但對于運(yùn)行的列車來說,該場景屬于高風(fēng)險(xiǎn)場景[16]。在復(fù)雜的環(huán)境下,軌道檢測是極其困難的。首先,隨著列車行駛,坡度通常會發(fā)生變化,使得攝像機(jī)與鐵路區(qū)域之間的變換矩陣難以實(shí)時(shí)獲取。其次,軌道交叉和不同軌道之間的像素難以區(qū)分。最后,由于左右車道之間的匹配難以定義,所以很難區(qū)分鐵路車道。

        本文以鐵路區(qū)域和鋼軌作為研究對象,提出了一種面向鐵路道岔情景下的列車軌道區(qū)域檢測方法,為列車前方運(yùn)行區(qū)域檢測提供了新的思路。

        1 列車軌道區(qū)域檢測方法原理

        本文提出了一種基于信息融合的方法對鐵路區(qū)域和鋼軌進(jìn)行分割,使用分割結(jié)果進(jìn)行軌道匹配,并利用其分割結(jié)果,設(shè)計(jì)了一種基于反向透視變換的鐵路區(qū)域重建方法,充分挖掘鐵路鋼軌的幾何特征,在搜索到道岔區(qū)域時(shí)進(jìn)行道岔方向的判別。由于向左和向右的道岔在整體上的紋理特征上相似度較高,而道岔圖像的分類是根據(jù)道岔的開合狀態(tài)來進(jìn)行判別的,因此需要區(qū)分道岔開合狀態(tài)細(xì)小的特征差異,使用基于深度學(xué)習(xí)的分類模型判別道岔方向,之后保存鋼軌的關(guān)鍵點(diǎn),重建出列車的實(shí)際運(yùn)行區(qū)域。總體框架如圖1 所示,下面對關(guān)鍵步驟進(jìn)行說明。

        圖1 本文方法的總體框架Figure 1 Overall framework of the proposed method

        1.1 基于信息融合的鐵路軌道區(qū)域分割模型

        我們提出了一種基于信息融合的鐵路區(qū)域分割模型來解決鐵路區(qū)域和鋼軌分割問題,如圖2 所示。模型使用空洞空間池化金字塔(atrous spatial pyramid pooling,ASPP)同時(shí)處理圖像中不同尺度的特征。然后將這些特征與其他尺度的特征融合起來,以提高模型的準(zhǔn)確性和穩(wěn)定性。另外,模型使用文獻(xiàn)[17] 提到的集合預(yù)測機(jī)制,可以將現(xiàn)有的像素分類模型轉(zhuǎn)換為掩碼分類,從而有效提高推理速度。Transformer 解碼器生成N對類別預(yù)測和掩碼嵌入向量,其中掩碼嵌入向量與像素嵌入進(jìn)行點(diǎn)積運(yùn)算得到二進(jìn)制掩碼預(yù)測。最后通過矩陣乘法將N個(gè)二進(jìn)制掩碼預(yù)測與其類別預(yù)測相結(jié)合來得到最終預(yù)測。

        圖2 基于信息融合的鐵路區(qū)域分割模型Figure 2 Railway area segmentation model based on information fusion

        1.1.1 主干網(wǎng)絡(luò)設(shè)計(jì)

        以大小為H×W的圖像作為輸入,使用添加了注意力機(jī)制的深度可分離卷積結(jié)構(gòu)對鐵路圖像進(jìn)行特征提取,主干網(wǎng)絡(luò)生成一個(gè)低分辨率圖像特征圖,表示為

        式中:Cf為通道數(shù);S為特征圖的步幅。

        采用改進(jìn)的Xception_ECA 網(wǎng)絡(luò)作為主干網(wǎng)絡(luò),如圖3 所示,其中Sep_ECA 是添加了注意力機(jī)制的深度可分離卷積特征提取結(jié)構(gòu)。Xception_ECA 可以更好提取圖像的細(xì)節(jié)特征,例如軌道的細(xì)節(jié)、曲線、直線等,并能有效區(qū)分背景和前景,提高鐵路圖像的分割精度。在主干網(wǎng)絡(luò)中引入注意力機(jī)制進(jìn)行特征優(yōu)化,提升模型的性能表現(xiàn)。

        圖3 主干網(wǎng)絡(luò)Figure 3 Backbone network

        Xception 中的最大池化操作都被結(jié)合注意力機(jī)制的深度可分離的卷積與跨步替換,這使得能夠使用Sep_ECA 模塊提取特征映射,并且在每次Sep_ECA 操作后添加額外的批量歸一化和ReLU 激活。

        Sep_ECA 結(jié)構(gòu)通過整合深度可分離卷積和ECA 模型[18]得到,如圖4 所示。Sep_ECA結(jié)構(gòu)可以有效減少模型參數(shù)量,同時(shí)保證對鐵路鋼軌特征的高效提取。

        圖4 Sep_ECA 結(jié)構(gòu)Figure 4 Structure of Sep_ECA

        經(jīng)過單層Sep_ECA 結(jié)構(gòu)的輸出可表示為

        式中:ySep_ECA為Sep_ECA 結(jié)構(gòu);f(x) 為輸入特征圖x經(jīng)過Sep_ECA 結(jié)構(gòu)的輸出;σ為激活函數(shù),使用LeakyRelu 函數(shù)進(jìn)行映射。

        1.1.2 空洞空間池化金字塔

        ASPP 結(jié)構(gòu)主要針對鐵路圖像中目標(biāo)區(qū)域(如鐵路線和鋼軌等)的全局和局部特征進(jìn)行優(yōu)化。使用ASPP 同時(shí)處理圖像中不同尺度的特征并融合起來,幫助模型更好地理解整個(gè)鐵路圖像中的內(nèi)容和關(guān)系。通過學(xué)習(xí)鐵路圖像中不同區(qū)域之間的聯(lián)系,可以更準(zhǔn)確地檢測鐵路區(qū)域和鋼軌,減少其他區(qū)域的干擾。ASPP 結(jié)構(gòu)可以分為以下3 個(gè)步驟:

        步驟1通過在ASPP 結(jié)構(gòu)中引入多尺度的空洞卷積來擴(kuò)大感受野,從而捕捉更廣闊的上下文信息;

        步驟2對輸入特征進(jìn)行全局平均池化操作,得到每個(gè)通道上的特征值;

        步驟3將多尺度空洞卷積和特征值進(jìn)行拼接,通過一個(gè)卷積層進(jìn)行融合,得到最終的ASPP 特征表示。

        1.1.3 像素解碼模塊

        特征圖的低分辨率會導(dǎo)致下采樣過程中的信息丟失,因此可通過解碼器的上采樣模塊來恢復(fù)特征圖的大小。上采樣模塊能夠?qū)⑻卣鲌D的分辨率逐步提高,并將其與編碼器中提取的低分辨率特征圖進(jìn)行融合,構(gòu)成多尺度的信息金字塔。編碼器中包含鐵路圖像紋理細(xì)節(jié),而編碼器的深層特征包含鐵路圖像結(jié)構(gòu)信息,通過特征融合模塊來共享和組合結(jié)構(gòu)紋理信息。解碼器對拼接后的鐵路圖像特征進(jìn)行上采樣,得到的像素嵌入為

        式中:Cε為像素嵌入維數(shù)。

        1.1.4 Transformer 解碼器模塊

        解碼器模塊使用標(biāo)準(zhǔn)的Transformer 結(jié)構(gòu)[19],其中自注意力機(jī)制的輸入是CNN 輸出的特征映射,即查詢矩陣Q、鍵矩陣K和值矩陣V。每個(gè)自注意力機(jī)制的計(jì)算公式為

        多頭自注意力機(jī)制并行使用多個(gè)自注意力,學(xué)習(xí)不同類型數(shù)據(jù)之間的相互依賴關(guān)系,公式為

        Transformer 解碼器模型使用集合預(yù)測機(jī)制[17],從圖像特征f和N個(gè)可學(xué)習(xí)位置嵌入計(jì)算輸出,生成N對類別預(yù)測和掩碼嵌入向量。即N個(gè)CQ維度的嵌入,表示為Q∈,編碼用于預(yù)測的每個(gè)可學(xué)習(xí)位置的全局信息,解碼器并行生成所有預(yù)測。

        在每個(gè)可學(xué)習(xí)位置嵌入上應(yīng)用線性分類器,然后進(jìn)行softmax 激活,得到每個(gè)位置上的類別概率預(yù)測,可表示為

        若嵌入不對應(yīng)于任何區(qū)域,分類器將其預(yù)測為一個(gè)額外的“無對象”類別(?)。對于掩碼預(yù)測,具有2 個(gè)隱藏層的多層感知器將嵌入Q轉(zhuǎn)換成維數(shù)為Cε的N個(gè)掩碼嵌入向量。然后,將掩碼嵌入向量與像素嵌入εpixel進(jìn)行點(diǎn)積運(yùn)算得到二進(jìn)制掩碼預(yù)測,進(jìn)而得到每個(gè)二進(jìn)制掩碼預(yù)測mi∈[0,1]H×W,之后通過sigmoid 激活,公式為

        1.1.5 損失函數(shù)設(shè)計(jì)

        1)針對鐵路軌道數(shù)據(jù)的樣本不均衡問題,設(shè)計(jì)了掩碼的FocalLoss 損失函數(shù),即

        2)鐵路區(qū)域和鋼軌之間具有強(qiáng)相關(guān)性,所以采用DiceLoss 作為類別損失函數(shù),即

        式中:yi與yj分別為像素i的標(biāo)簽值與預(yù)測值;N為像素點(diǎn)總數(shù)。

        整體損失函數(shù)為

        式中:λfocal,λdice分別為掩碼損失和類別損失的權(quán)重。

        1.2 基于反向透視變換的鐵路區(qū)域重建方法

        1.2.1 軌道搜索區(qū)域判定

        上一節(jié)鐵路軌道像素的掩碼分割結(jié)果只存在3 種像素值,即0、1、2,分別代表鋼軌、鐵路區(qū)域、背景。當(dāng)兩條鋼軌之間的像素值為1 時(shí),表明兩條鋼軌之間的區(qū)域?yàn)殍F路區(qū)域,此時(shí)就能匹配一對正確的鋼軌。

        如圖5 所示,從鐵路圖像上分析,列車當(dāng)前運(yùn)行的鐵路區(qū)域處于圖像底部的30%~70%,由于分割結(jié)果的最底部往往有缺陷,因此通常忽略掉圖像底部的數(shù)個(gè)像素點(diǎn),即從距離圖像左邊緣30% 且距離圖像底部邊緣數(shù)個(gè)像素點(diǎn)的位置開始從左至右進(jìn)行列車運(yùn)行軌道搜索區(qū)域的判定,由于鐵路區(qū)域和鋼軌是強(qiáng)相關(guān),通過上述方法,可以確定列車運(yùn)行軌道的搜索區(qū)域。

        圖5 列車運(yùn)行軌道的區(qū)域Figure 5 Area where the train operates

        1.2.2 鋼軌的骨架提取

        在確定鋼軌底部的初始位置后,要對鋼軌進(jìn)行骨架提取以便于后續(xù)的道岔搜索。其中使用的骨架提取(Skeletonization)算法主要基于文獻(xiàn)[20] 提出的算法,最終得到一個(gè)單像素寬度的線條,稱為骨架。

        1.2.3 列車運(yùn)行鐵路區(qū)域重建

        在確定列車運(yùn)行當(dāng)前軌道的初始位置和完成骨架提取后,使用滑動(dòng)窗口的搜索方式對鋼軌進(jìn)行保存,具體算法如下:

        1.2.4 基于反向透視變換的道岔截取

        如圖6 所示,將近距離和遠(yuǎn)距離的鐵路道岔分別抽象成長方型ABCD和A1B1C1D1。過A點(diǎn)和A1點(diǎn),過B點(diǎn)和B1點(diǎn),過C點(diǎn)和C1點(diǎn),過D點(diǎn)和D1點(diǎn)分別作射線,找到消失點(diǎn)O。由相似關(guān)系,可推出遠(yuǎn)距離道岔的兩邊長度分別為

        圖6 鐵路道岔透視關(guān)系Figure 6 Perspective relationship of railway switches

        式中:L表示線段長度。

        1.2.5 基于分組卷積的鐵路道岔分類模型

        1.貫徹落實(shí)十八大精神,加強(qiáng)思想政治理論教育。沒有政治這個(gè)靈魂,就不可能成為一個(gè)清醒的、合格的、奮發(fā)有為的領(lǐng)導(dǎo)干部。提高領(lǐng)導(dǎo)干部的思想政治素質(zhì),是建設(shè)高素質(zhì)干部隊(duì)伍的前提和基礎(chǔ)。十八大給我們在新時(shí)期的發(fā)展指明了方向,我們必須充分發(fā)揮黨校的“主陣地”作用,用馬克思主義、毛澤東思想、鄧小平理論、“三個(gè)代表”重要思想和科學(xué)發(fā)展觀教育干部,引導(dǎo)他們在工作中認(rèn)真踐行科學(xué)發(fā)展觀,提高他們貫徹執(zhí)行黨的基本路線、基本理論、基本綱領(lǐng)的能力,提高他們的思想品質(zhì)和道德素質(zhì)。

        為了解決道岔分類問題,提出了基于分組卷積的鐵路道岔分類模型,整體結(jié)構(gòu)如圖7 所示。為了區(qū)分道岔開合狀態(tài)細(xì)小的特征差異,使用ResNeXt50 網(wǎng)絡(luò)[21]作為分類識別的主網(wǎng)絡(luò),并在其中加入注意力模塊。此外,還采用了多尺度的注意力,有效提取道岔圖像的開合狀態(tài)信息,降低過擬合現(xiàn)象并提高尺度不變性。

        圖7 基于分組卷積的道岔分類模型Figure 7 Railway switches classification model based on group convolution

        基于分組卷積的鐵路道岔分類模型包括以下幾部分:

        1)改進(jìn)的ResNeXt 殘差塊結(jié)構(gòu)

        ResNeXt 殘差結(jié)構(gòu)塊可以幫助網(wǎng)絡(luò)學(xué)習(xí)道岔圖像中更加抽象和復(fù)雜的特征。在ResNeXt中,分支合并形式可表示為

        式中:Ti為相同的拓?fù)浣Y(jié)構(gòu)。將輸入特征分為C個(gè)分支數(shù)目,本文C取32。

        鐵路道岔的差異并不明顯,含有非常多的相似信息,如鋼軌、枕軌和各種零部件,這些信息會干擾模型的特征提取,為此引入卷積模塊的注意力機(jī)制模塊(convolutional block attention module,CBAM)[22]進(jìn)行特征優(yōu)化來提高模型的識別精度。在CBAM 中包含通道注意力模塊和空間注意力模塊。

        由于道岔圖像中的不同通道可能包含不同信息,引入CBAM 通道注意力機(jī)制后可以使模型更加關(guān)注對分類任務(wù)有幫助的通道。此外,可以計(jì)算道岔圖像在空間上的重要性權(quán)重,對特定的區(qū)域進(jìn)行加權(quán)。這可以幫助模型更加關(guān)注道岔本身的特征,解決道岔圖像中存在的環(huán)境混淆、低對比度等問題。

        在原始Block 和殘差結(jié)構(gòu)連接前依次通過通道注意力模塊和空間注意力模塊。經(jīng)過卷積注意力后的輸入表示為

        2)多尺度注意力模塊

        為了有效地提取道岔圖像中的鋼軌開合特征,采用了空洞卷積層作為構(gòu)建多尺度注意力的卷積結(jié)構(gòu),如圖8 所示。同時(shí),不同尺度的卷積核可以適應(yīng)不同大小和形狀的道岔圖像,從而提高網(wǎng)絡(luò)的魯棒性和泛化能力。我們利用不同擴(kuò)張率的空洞卷積層來捕獲不同比例的道岔像素特征:首先將多個(gè)空洞卷積層并行使用;然后對其輸出進(jìn)行加權(quán)求和,形成一個(gè)綜合的特征圖;之后使用和上一小節(jié)相同的注意力機(jī)制來強(qiáng)化特征信息;最后,通過一個(gè)1×1 卷積層調(diào)整通道數(shù),將其與多尺度注意力級聯(lián)特征的通道數(shù)保持相同,以便兩部分的特征圖相加。

        圖8 多尺度注意力模塊Figure 8 Multiscale attention module

        在多尺度注意力模塊中以不同的速率進(jìn)行卷積后產(chǎn)生的輸出X1,X2,X3可以表示為

        式中:i∈{1,2,3};GIN為輸入的特征圖;?表示卷積;Rate 表示不同膨脹率的空洞卷積核。

        輸出GOUT表示為

        式中:GOUT為輸出特征圖;{ }表示級聯(lián)算法;Mc為通道注意力圖;Ms為空間注意力圖。

        3)損失函數(shù)設(shè)計(jì)

        實(shí)際采集的鐵路道岔數(shù)據(jù),向左行駛和向右行駛兩類之間的差異并不總是特別明顯。此外,道岔的圖像都有軌枕等復(fù)雜背景,具有很高的相似性,僅從局部圖像很難判斷屬于向左或向右行駛。因此,提高分類精度的關(guān)鍵是要定義道岔在向左和向右行駛時(shí)兩類之間的差異性。損失函數(shù)設(shè)計(jì)基于度量學(xué)習(xí)差異性,其公式為

        式中:max(·) 為類別特征之間的距離;f(A) 為目標(biāo)樣本的長度;f(P) 為提取的圖像的長度;f(N) 為與A不一樣的類別的長度;P為提取的圖像特征;A為目標(biāo)樣本的特征;N代表與A不一樣的類別特征;C為邊界參數(shù),是一個(gè)超參數(shù);Lossr是錨點(diǎn)樣本與負(fù)樣本之間距離之差加上邊界參數(shù)C(如果差值小于0,則損失為0),通過這種方式可以使相似的樣本之間距離盡可能小于C,不相似的樣本之間距離盡可能大于C。

        2 實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)設(shè)置

        我們將多個(gè)車載攝像頭安裝在列車的司機(jī)室內(nèi)部或外部,所采集的鐵路圖像數(shù)據(jù)包括多個(gè)機(jī)務(wù)段不同運(yùn)行時(shí)段信息和豐富的環(huán)境信息。隨后對數(shù)據(jù)進(jìn)行篩選、對視頻進(jìn)行抽幀和人工標(biāo)注等處理,確保數(shù)據(jù)的可用性和有效性。

        通過處理,我們建立了鐵路軌道分割數(shù)據(jù)集“Railway-Railtack dataset”。標(biāo)定了12 642 幅鐵路軌道圖像。實(shí)驗(yàn)將10 114 幅圖像作為訓(xùn)練集,將2 528 幅作為測試集。同時(shí)建立了鐵路道岔數(shù)據(jù)集“Railway-Switch dataset”。標(biāo)定了6 464 幅道岔分類圖像,其中向左行駛有3 564幅,向右行駛有2 900 幅。實(shí)驗(yàn)將5 170 幅圖像作為訓(xùn)練集,將1 294 幅作為測試集。

        2.2 鐵路區(qū)域分割實(shí)驗(yàn)分析

        2.2.1 客觀指標(biāo)分析

        為了驗(yàn)證本文提出的鐵路軌道區(qū)域與鋼軌分割模型的有效性,將其和當(dāng)前主流的分割模型(FCN[23],SegNet[24],MaskRCNN[25],DeepLabV3+[26])在Railway-Railtack 數(shù)據(jù)集上進(jìn)行對比試驗(yàn)。結(jié)果如表1 所示,可以看出:本文提出的方法在Railway-Railtack 數(shù)據(jù)集上像素準(zhǔn)確率(pixel accuracy,PA) 可達(dá)95.28%、平均交并比(mean intersection over union,MIoU)可達(dá)93.76%,優(yōu)于其他分割模型。

        表1 不同模型在Railway-Railtack 數(shù)據(jù)集上的客觀指標(biāo)對比Table 1 Comparison of objective indicators of different models on Railway-Railtack dataset %

        2.2.2 鐵路區(qū)域分割結(jié)果

        部分實(shí)驗(yàn)結(jié)果如圖9 所示,其中每個(gè)案例從上到下依次為原始圖像、真實(shí)標(biāo)簽、分割結(jié)果。結(jié)果表明,本文模型在陰影、反射、隧道環(huán)境和軌道切換場景等具有挑戰(zhàn)性的場景下都能很好地發(fā)揮作用。

        圖9 鐵路區(qū)域分割實(shí)驗(yàn)結(jié)果Figure 9 Experimental results of railroad area segmentation

        圖10 直觀地顯示了不同方法的比較結(jié)果,所有測試圖像均來自Railway-Railtack。其中每個(gè)案例從上到下依次為原始圖像、真實(shí)標(biāo)簽、FCN 結(jié)果、DeeplabV3+結(jié)果、本文模型的結(jié)

        圖10 Railway-Railtack 數(shù)據(jù)集上的比較結(jié)果Figure 10 Comparison results on Railway-Railtack dataset

        果。從實(shí)驗(yàn)結(jié)果可以看出FCN 模型對鋼軌的檢測效果不好,存在鋼軌之間的連通性被誤判的現(xiàn)象,并且在視野近端的分割有缺失,在遠(yuǎn)端的效果也不佳;DeepLabV3+模型在道岔細(xì)節(jié)的處理效果不佳,也存在連通性被誤判的現(xiàn)象;與之相比,本文模型的分割結(jié)果整體清晰,對于復(fù)雜的道岔鋼軌環(huán)境和視野遠(yuǎn)端的區(qū)域也有良好的分割效果。

        2.3 鐵路區(qū)域重建實(shí)驗(yàn)分析

        2.3.1 鐵路區(qū)域重建方法客觀指標(biāo)分析

        為了驗(yàn)證本文提出的鐵路區(qū)域重建方法的有效性,將其與QI[9]、ZWEMER[10]和YANG[27]方法進(jìn)行比較。為保證公平性,在實(shí)驗(yàn)中所有算法的鐵路區(qū)域和鋼軌分割部分都采用了本文中提出的鐵路區(qū)域分割模型的分割結(jié)果。

        對比結(jié)果如表2 所示,本文方法的PA 達(dá)到了98.67%,MIoU 達(dá)到了98.12%,獲得了最好的性能。

        表2 不同方法的性能量化客觀指標(biāo)對比Table 2 Comparison of objective indicators for performance quantification of different methods %

        2.3.2 鐵路區(qū)域重建結(jié)果

        可視化實(shí)驗(yàn)的部分結(jié)果如圖11 所示,每個(gè)案例從上到下依次為原始圖像、分割結(jié)果、重建結(jié)果??梢姳疚奶岢龅蔫F路區(qū)域重建方法在陰影、反射、隧道環(huán)境和軌道切換等場景下都能正確地對列車前方運(yùn)行區(qū)域進(jìn)行重建。但此方法受限于分割模型的識別精度,鐵路分割后遠(yuǎn)端的部分鋼軌信息丟失,故當(dāng)前保留的軌道區(qū)域沒有到達(dá)鐵路圖像視角的最遠(yuǎn)端。

        圖11 鐵路區(qū)域重建結(jié)果Figure 11 Results of railroad area reconstruction

        2.4 道岔分類模型客觀指標(biāo)分析

        為了驗(yàn)證本文提出的鐵路道岔圖像分類模型的有效性,將其與當(dāng)前主流的分類模型VGGNet-16[28]、BN-Inception[29]、ResNet50[30]和ResNeXt50[21]在Railway-Switch 的測試集上進(jìn)行對比實(shí)驗(yàn)、消融實(shí)驗(yàn),以客觀評價(jià)模型的優(yōu)劣。對比結(jié)果如表3 所示。

        表3 不同方法的性能量化客觀指標(biāo)對比Table 3 Comparison of objective indicators for performance quantification of different methods %

        從表3 中可以看出,本文方法可以達(dá)到最好的精度,與基準(zhǔn)的ResNeXt50 相比,精度也提高了1.47%??梢?,本文提出的鐵路道岔圖像分類模型在采光較差、極易與背景環(huán)境混淆的道岔圖像中取得了良好的效果。

        3 結(jié)語

        本文針對鐵路異物檢測中的軌道區(qū)域檢測進(jìn)行研究,提出了一種面向鐵路道岔情景下的列車軌道區(qū)域檢測方法。首先,針對鐵路左右鋼軌之間難以匹配的問題,提出了一種基于編解碼和信息融合的鐵路區(qū)域分割模型,能夠?qū)崿F(xiàn)對鐵路軌道區(qū)域和鋼軌的分割,為列車前方運(yùn)行區(qū)域檢測提供了新的思路。接著,針對現(xiàn)有方法難以在軌道存有道岔情況下檢測列車的實(shí)際運(yùn)行區(qū)域的問題,提出了一種基于反向透視變換的鐵路區(qū)域重建方法,能夠準(zhǔn)確保留列車前方的運(yùn)行區(qū)域。實(shí)驗(yàn)結(jié)果表明,本文提出的方法在復(fù)雜環(huán)境下可達(dá)到較高的精度,PA 指標(biāo)可達(dá)98.67%,MIoU 指標(biāo)可達(dá)98.12%,具有在列車上應(yīng)用的潛力。

        然而,該研究提出的方法在較遠(yuǎn)區(qū)域?qū)壍绤^(qū)域的檢測不完整,并且鐵路軌道區(qū)域分割算法的速度還需要進(jìn)一步提高。

        猜你喜歡
        鐵路特征區(qū)域
        沿著中老鐵路一路向南
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        鐵路通信線路維護(hù)體制改革探索與實(shí)踐
        抓住特征巧觀察
        關(guān)于四色猜想
        分區(qū)域
        無人機(jī)在鐵路工程建設(shè)中的應(yīng)用與思考
        GSM-R在鐵路通信中的應(yīng)用
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        電測與儀表(2015年5期)2015-04-09 11:30:52
        久久久久亚洲AV成人网毛片 | 亚洲春色在线视频| 美丽人妻被按摩中出中文字幕| 亚洲va欧美va人人爽夜夜嗨| 隔壁的日本人妻bd高清中字| 波多野结衣中文字幕一区二区三区| 亚洲欧美日韩人成在线播放| 日韩人妻无码精品久久伊人| chinese国产乱在线观看| 午夜无码亚| 日本一区二区精品色超碰| 蜜臀av毛片一区二区三区| 亚洲av日韩精品久久久久久久 | 97久久精品人人妻人人| av免费网站在线免费观看| 黄射视频在线观看免费| 国产精品 人妻互换| √最新版天堂资源在线| 久久国产精品懂色av| 未满十八18禁止免费无码网站| 成人妇女免费播放久久久| 一区二区三区国产在线网站视频| av中文字幕性女高清在线| 成人中文乱幕日产无线码| 国产suv精品一区二区69| 国产99精品精品久久免费| 97超碰国产成人在线| 丰满人妻被两个按摩师| 亚洲中文字幕无码mv| 无码精品一区二区三区免费16| 蜜桃视频在线免费视频| 国产精品99久久久久久猫咪 | 国产一级r片内射免费视频| 中文字幕一区久久精品| 超清精品丝袜国产自在线拍| 亚洲动漫成人一区二区| 日韩有码在线免费视频| 精品精品国产自在97香蕉| 福利片福利一区二区三区| 亚洲精品中文字幕乱码人妻| 人人澡人人妻人人爽人人蜜桃麻豆|