亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        軌道交通戶外站臺(tái)門與列車間隙背景燈帶圖像分割算法研究

        2024-04-12 02:13:22鄭仲星劉偉銘
        關(guān)鍵詞:檢測(cè)

        鄭仲星,劉偉銘

        (華南理工大學(xué)土木與交通學(xué)院,廣州 510641)

        引言

        軌道交通因其具有快速、運(yùn)載量大等優(yōu)點(diǎn),已經(jīng)成為我國交通的重要組成部分,而其中的高速鐵路也開始向著公交化發(fā)展。為保障乘客安全與運(yùn)營線路的正常運(yùn)行,在車站軌行區(qū)與站臺(tái)候車區(qū)間設(shè)置站臺(tái)門進(jìn)行分隔,因而形成列車與站臺(tái)門間的風(fēng)險(xiǎn)區(qū)間。為保證列車發(fā)車前的乘客安全,站務(wù)員會(huì)在發(fā)車前對(duì)風(fēng)險(xiǎn)區(qū)間進(jìn)行異物入侵的檢查。列車關(guān)門到發(fā)車時(shí)間設(shè)計(jì)在15~20 s之間,而站務(wù)員需要在短時(shí)間內(nèi)檢查130~460 m的站臺(tái)。在班次密集的情況下,運(yùn)營人員勞動(dòng)強(qiáng)度大,容易發(fā)生疏忽,從而造成生命與財(cái)產(chǎn)損失。同時(shí),為提升運(yùn)營效率,降低運(yùn)營成本,軌道交通也逐步向智能化、無人化發(fā)展,預(yù)計(jì)到2023年將有40條全自動(dòng)運(yùn)行線路[1]。根據(jù)國家工程實(shí)驗(yàn)室發(fā)布國家標(biāo)準(zhǔn)(GB/T 32590.1—2016)[2]和《城市軌道交通全自動(dòng)運(yùn)行系統(tǒng)運(yùn)營指南》白皮書[1],對(duì)于自動(dòng)化程度GOA3等級(jí)及以上(無人駕駛列車運(yùn)行及無人干預(yù)列車運(yùn)行)的列車,對(duì)于乘客乘降檢測(cè)的保障發(fā)車安全性與防止乘客在乘降兩項(xiàng)功能都對(duì)系統(tǒng)提出自動(dòng)檢測(cè)的要求。因此,發(fā)車前對(duì)站臺(tái)門和列車間隙的自動(dòng)化異物入侵檢測(cè)是軌道交通自動(dòng)駕駛運(yùn)行的重要一環(huán)。

        自動(dòng)異物入侵檢測(cè)能夠縮短在站停留時(shí)間,提升軌道交通運(yùn)營效率,保障人民生命與財(cái)產(chǎn)安全。目前,已有的對(duì)風(fēng)險(xiǎn)間隙進(jìn)行異物檢測(cè)方法有紅外光幕檢測(cè)、紅外激光對(duì)射檢測(cè)[3]、紅外激光掃描檢測(cè)[4]、基于側(cè)裝式機(jī)器視覺檢測(cè)[5-7]以及基于頂裝式機(jī)器視覺檢測(cè)[8-9]等方法。其中,基于側(cè)裝式的機(jī)器視覺檢測(cè)方案由于具有檢測(cè)范圍廣、設(shè)備簡單、維護(hù)周期長、檢測(cè)性能好、造價(jià)低廉等優(yōu)點(diǎn)而受到青睞。

        基于側(cè)裝式的機(jī)器視覺檢測(cè)方案在廣州、深圳、南寧等地都有被使用,其最初原型來自于列車司機(jī)對(duì)位于地鐵站臺(tái)尾端設(shè)置的背景燈帶進(jìn)行肉眼檢查的方案。側(cè)裝式的機(jī)器視覺檢測(cè)方案通過構(gòu)造人工光學(xué)背景(即背景燈帶)和設(shè)計(jì)圖像算法,自動(dòng)在圖像中分割燈帶,通過檢測(cè)燈帶在圖像中的變化判斷檢測(cè)區(qū)間的異物存在,達(dá)到取代人工觀察方案。對(duì)于地下站臺(tái),燈帶處于黑暗背景,圖像的分割算法通過自適應(yīng)閾值方法可以提取得到,但是當(dāng)安裝站臺(tái)位于戶外,燈帶分割背景復(fù)雜,簡單的閾值方法難以適應(yīng),分割效果差。為解決側(cè)裝式的機(jī)器視覺檢測(cè)方案在戶外站臺(tái)的應(yīng)用問題,雷煥宇等[10]提出一種基于K均值算法的適用于戶外光照的背景燈帶分割方法。由于K均值算法屬于迭代算法,對(duì)每張檢測(cè)圖片進(jìn)行迭代運(yùn)算耗時(shí)長,在實(shí)際運(yùn)用中,對(duì)系統(tǒng)的運(yùn)算性能也提出較高要求。

        現(xiàn)階段學(xué)界主流的基于神經(jīng)網(wǎng)絡(luò)的無監(jiān)督圖像分割方法大多數(shù)基于像素特征聚類[11]的方法。與傳統(tǒng)聚類方法不同的是,這些方法往往都是在特征空間而非顏色空間上進(jìn)行聚類。比如,文獻(xiàn)[12]和文獻(xiàn)[13]都基于互信息原理的聚類方法,文獻(xiàn)[14]通過使用自回歸模型的方法,在最大化互信息的條件下進(jìn)行訓(xùn)練。上述方法雖然能夠一定程度上實(shí)現(xiàn)無監(jiān)督的圖像分割,但是它們都基于結(jié)構(gòu)復(fù)雜、運(yùn)算量大的深度神經(jīng)網(wǎng)絡(luò),難以在運(yùn)算性能弱的設(shè)備上進(jìn)行實(shí)際的部署。

        為解決上述問題,提出一種軌道交通戶外站臺(tái)門與列車間隙異物檢測(cè)背景燈帶圖像無監(jiān)督分割檢測(cè)算法。算法基于卷積神經(jīng)網(wǎng)絡(luò),相比主流的深度神經(jīng)網(wǎng)絡(luò),算法中使用的網(wǎng)絡(luò)大幅縮減規(guī)模,其參數(shù)量小,對(duì)于運(yùn)算資源要求低,更關(guān)注底層特征的表示。提出的算法對(duì)網(wǎng)絡(luò)訓(xùn)練只需要單個(gè)樣本,并設(shè)計(jì)3個(gè)損失函數(shù),實(shí)現(xiàn)網(wǎng)絡(luò)參數(shù)的無監(jiān)督學(xué)習(xí),其分別是基于特征相似及空間距離的損失函數(shù)、基于深度支持向量描述的損失函數(shù)以及基于幾何和光度增強(qiáng)的損失函數(shù)。在實(shí)際實(shí)驗(yàn)中取得比其他算法更優(yōu)秀的分割性能,并且運(yùn)算耗時(shí)相比K均值算法少。

        1 無監(jiān)督的戶外燈帶圖像分割算法研究

        1.1 異物檢測(cè)系統(tǒng)框架

        軌道交通站臺(tái)門與列車門的凈距根據(jù)不同類型有不同的設(shè)計(jì)標(biāo)準(zhǔn):《地鐵設(shè)計(jì)規(guī)范》[15]規(guī)定,地鐵直線站臺(tái)門的滑動(dòng)門門體至列車輪廓線之間的凈距應(yīng)控制在100~130 mm范圍內(nèi),城際側(cè)線站在0.2 m;而城際鐵路與高鐵站,《城際鐵路設(shè)計(jì)規(guī)范》[16]中則未明確提出正線站臺(tái)門的安裝位置標(biāo)準(zhǔn)。實(shí)際上,位于戶外的站臺(tái),站臺(tái)邊緣到站臺(tái)門的凈距在0.2~2 m之間,一般站臺(tái)門安裝位置為距站臺(tái)邊緣1.2 m處。

        雖然高鐵城際站臺(tái)擁擠程度相對(duì)較低,但戶外站臺(tái)寬間隙的存在容易導(dǎo)致異物遺留地面事件。為方便運(yùn)營人員快速清除,解決發(fā)車前對(duì)間隙的異物檢測(cè)問題,于站臺(tái)一端安裝平行地表的背景燈帶,并通過安裝在另一端的攝像頭進(jìn)行拍攝,并設(shè)計(jì)算法對(duì)燈帶圖像判斷是否被遮掩來判斷異物是否遺留地面。本文提出的算法在數(shù)據(jù)采集時(shí),為更好地排除來自其他光線及背景的干擾,使用能發(fā)出特定波長的紅外光燈帶作為目標(biāo)燈帶,而攝像頭使用只拍攝相應(yīng)波段紅外光的型號(hào)。拍攝的實(shí)際圖像如圖1所示,可見來自戶外自然光的紅外光仍然會(huì)被攝像機(jī)所捕捉,導(dǎo)致分割背景相對(duì)復(fù)雜,為后續(xù)分割任務(wù)帶來難度。

        圖1 拍攝背景燈帶示例Fig.1 An example of background light strip

        1.2 算法流程

        算法首先對(duì)圖像進(jìn)行預(yù)處理,調(diào)整圖像大小,然后使用基于卷積的神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征的提取。因?yàn)闊魩У膱D像分割任務(wù)相比目標(biāo)檢測(cè)、圖像識(shí)別等其他任務(wù),更依賴于圖像的細(xì)節(jié)信息,如光影細(xì)節(jié)和顏色細(xì)節(jié)等,所以通過設(shè)計(jì)合適的損失函數(shù),訓(xùn)練特征提取網(wǎng)絡(luò)提取圖像偏向底層細(xì)節(jié)的信息。在特征提取得到特征圖后,后續(xù)分類器對(duì)每個(gè)像素進(jìn)行類別預(yù)測(cè),分類器同樣為基于卷積操作的神經(jīng)網(wǎng)絡(luò)。在實(shí)際進(jìn)行應(yīng)用時(shí),流程到此結(jié)束就可以得到輸出的分割圖像;而在訓(xùn)練時(shí),還會(huì)進(jìn)行類別中心的計(jì)算,以進(jìn)行后續(xù)的損失函數(shù)計(jì)算,并使用反向傳播算法對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行更新。算法的處理流程如圖2所示。

        圖2 算法處理流程Fig.2 The process flow of the proposed algorithm

        1.3 網(wǎng)絡(luò)設(shè)計(jì)

        針對(duì)燈帶的圖像分割任務(wù),算法中使用的特征提取網(wǎng)絡(luò)采用基于圖像卷積的神經(jīng)網(wǎng)絡(luò)。為更好地處理圖像中的細(xì)節(jié)信息,特征提取網(wǎng)絡(luò)使用的卷積核不宜過大。同時(shí),特征提取的過程中,特征圖在處理過程中維持尺寸不變。通道數(shù)上,除開始階段從圖片原有通道數(shù)到P后,后續(xù)處理保持不變。具有相同設(shè)計(jì)的模塊會(huì)重復(fù)N次進(jìn)行串聯(lián)處理(圖3中虛線框)。采用結(jié)構(gòu)設(shè)計(jì)相對(duì)簡單的卷積神經(jīng)網(wǎng)絡(luò)出于以下兩點(diǎn)。

        圖3 算法中使用的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意Fig.3 The architecture of the convolutional neural network in the algorithm

        (1)針對(duì)圖像分割任務(wù),特別是燈帶的分割,其對(duì)圖像感知程度要求低,更關(guān)注細(xì)節(jié)信息。

        (2)由于分割算法設(shè)計(jì)是為更好地完成后續(xù)站臺(tái)門與列車間間隙的異物檢測(cè),對(duì)實(shí)時(shí)性要求較高,因此,參數(shù)量和復(fù)雜度過高的網(wǎng)絡(luò)不利于實(shí)際應(yīng)用。

        在算法中,需要進(jìn)行參數(shù)學(xué)習(xí)的是特征提取網(wǎng)絡(luò)和分類器網(wǎng)絡(luò)。其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,其中紅色虛線框內(nèi)為特征提取器網(wǎng)絡(luò),黃色虛線框內(nèi)為分類器網(wǎng)絡(luò),圖中‘Conv’表示卷積核為3×3的圖像卷積(convolution)操作(Conv(輸入通道數(shù),輸出通道數(shù))),‘ReLU’為線性整流激活(rectified linear unit)函數(shù),‘bn’為批歸一化(batch normalization)。

        在得到特征圖后,會(huì)輸入到分類器網(wǎng)絡(luò)中。分類器網(wǎng)絡(luò)會(huì)對(duì)每個(gè)像素進(jìn)行類別分類。分類器輸出的類別數(shù)會(huì)被作為超參數(shù)進(jìn)行設(shè)置,因而輸出類別數(shù)會(huì)提前固定,但隨著訓(xùn)練的進(jìn)行,實(shí)際的網(wǎng)絡(luò)輸出類別會(huì)逐漸變少。這意味著網(wǎng)絡(luò)會(huì)將相似的像素通過學(xué)習(xí)進(jìn)行聚類,然后判別后進(jìn)行輸出。在圖3中分類器網(wǎng)絡(luò)中的參數(shù)k表示預(yù)設(shè)的分類類別數(shù)。

        1.4 損失函數(shù)設(shè)計(jì)

        本文算法實(shí)現(xiàn)對(duì)神經(jīng)網(wǎng)絡(luò)單個(gè)訓(xùn)練樣本的無監(jiān)督學(xué)習(xí),減輕對(duì)數(shù)據(jù)量和數(shù)據(jù)標(biāo)記的依賴。訓(xùn)練過程中從3個(gè)方面考慮設(shè)計(jì)損失函數(shù),分別是考慮特征相似度和空間連續(xù)約束的Lsim、以深度聚類為啟發(fā),基于深度支持向量描述的Ldsvdd以及基于幾何與光度增強(qiáng)的損失函數(shù)LGP??倱p失函數(shù)如式(1)所示,式中λ和γ為損失函數(shù)調(diào)節(jié)權(quán)重。

        Ltotal=Lsim+λLdsvdd+γLGP

        (1)

        為便于表示,定義從特征提取網(wǎng)絡(luò)Eθ輸出的特征圖為

        FC×H×W={fi,j|i∈[0,H],

        j∈[0,W],C,H,W∈},

        其中,分類器輸出分類

        Rk×H×W={ri,j,m|i∈[0,H],j∈[0,W],m∈[0,k],k∈+},意為每個(gè)像素位置上對(duì)每個(gè)類別都有置信度輸出;最終分割輸出為

        S1×H×W={ci,j|i∈[0,H],j∈[0,W]},

        即在像素位置(i,j)通過選取置信度最大的類別,輸出分割結(jié)果為類別ci,j∈[1,k]。

        1.4.1 基于特征相似及空間連續(xù)的損失函數(shù)

        KIM等[17]提出一種基于單純的特征相似及空間連續(xù)的損失函數(shù),可對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行無監(jiān)督圖像分割任務(wù)的訓(xùn)練。其方法中指出損失函數(shù)Lsim設(shè)計(jì)出發(fā)點(diǎn)應(yīng)該有兩方面:(1)同類別像素的特征相似度應(yīng)該要高;(2)同類別像素的空間分布應(yīng)該連續(xù)。

        因此,參考該方法,本文的Lsim由兩部分組成,即

        Lsim=αLfeature(S,R)+βLspatial(R)

        (2)

        式中,α,β為調(diào)節(jié)權(quán)重;考慮特征相似度的損失函數(shù)Lfeature(S,R)為輸出類別與類別置信度的交叉熵,目標(biāo)是促進(jìn)網(wǎng)絡(luò)對(duì)具有相似特征像素的分類學(xué)習(xí),定義為

        (3)

        其中

        (4)

        考慮空間連續(xù)的損失函數(shù)為相鄰像素的分類置信度向量L1范數(shù)之和,目的是促進(jìn)相鄰像素的分類結(jié)果具有空間上的連續(xù)性,定義如下

        (5)

        1.4.2 基于深度支持向量數(shù)據(jù)描述的損失函數(shù)

        Ldsvdd的設(shè)計(jì)受到深度支持向量數(shù)據(jù)描述(deep support vector data description,DSVDD)的啟發(fā)。DSVDD是支持向量數(shù)據(jù)描述基于深度神經(jīng)網(wǎng)絡(luò)特征提取能力上的擴(kuò)展算法。最初由LUKAS等[18]提出用于單類別的分類任務(wù),后YI等[19]提出Patch SVDD用于進(jìn)行像素級(jí)的異常檢測(cè),并指出可以通過在訓(xùn)練時(shí)維護(hù)一組中心,然后在進(jìn)行推斷時(shí)根據(jù)數(shù)據(jù)樣本在特征空間到中心距離衡量異常程度。因此,算法通過利用DSVDD的維護(hù)中心進(jìn)行學(xué)習(xí)的特性,達(dá)到深度聚類的效果,并應(yīng)用于燈帶的圖像分割任務(wù)中,以增強(qiáng)網(wǎng)絡(luò)對(duì)于同類型像素的分類學(xué)習(xí)能力。

        設(shè)訓(xùn)練過程中維護(hù)一組類別中心為Zk×P={zm|m∈[1,k]},類別中心為同類別的特征向量的均值,即

        (6)

        Ldsvdd則為預(yù)測(cè)輸出相同類別的像素特征向量到對(duì)應(yīng)中心zm的均方誤差(mean square error,MSE),即

        (7)

        其中,n為每個(gè)類別像素?cái)?shù)量。

        1.4.3 基于幾何及光度增強(qiáng)的損失函數(shù)

        上述的兩個(gè)損失函數(shù)都是為增強(qiáng)像素間的關(guān)聯(lián)而設(shè)計(jì)的,在實(shí)際訓(xùn)練過程中,隨著迭代次數(shù)的上升,分類器偏向把所有像素都分類為同一類別,導(dǎo)致訓(xùn)練崩潰,無法得到有效的分割輸出結(jié)果。為抑制這一趨勢(shì),提出一種基于幾何及光度增強(qiáng)的損失函數(shù)LGP。這一損失函數(shù)設(shè)計(jì)啟發(fā)自CHO等[20]提出的無監(jiān)督語義分割任務(wù)設(shè)計(jì)算法。設(shè)計(jì)的出發(fā)思路是網(wǎng)絡(luò)對(duì)于不同的數(shù)據(jù)增強(qiáng)變換,不論是幾何還是光度上的,都應(yīng)該能夠通過排除變換的干擾,得到相同的分割數(shù)據(jù)結(jié)果。其能夠有效讓網(wǎng)絡(luò)在無監(jiān)督的條件下,對(duì)圖像整體進(jìn)行感知并進(jìn)行語義分割。

        CHO等[20]的算法在進(jìn)行訓(xùn)練前,需要對(duì)像素類別進(jìn)行初始化,使用的方法是K均值聚類。與其不同的是:本文對(duì)原方法中K均值的聚類方式得到中心的方式進(jìn)行改進(jìn),類別中心直接使用在基于深度支持向量數(shù)據(jù)描述的損失函數(shù)中計(jì)算得到的類別中心。這一替換能夠使得網(wǎng)絡(luò)動(dòng)態(tài)地學(xué)習(xí)特征空間中的類別中心,同時(shí)減少需要的預(yù)處理。

        具體而言,首先定義兩大類數(shù)據(jù)增強(qiáng)方法:幾何變換增強(qiáng)G(·)和光度變換增強(qiáng)P(·),然后對(duì)輸入圖像I進(jìn)行兩個(gè)分支處理(對(duì)于每次迭代都會(huì)隨機(jī)選擇兩個(gè)分支的增強(qiáng)的變換參數(shù),下文分別使用·(1)和·(2)進(jìn)行分支的標(biāo)注)V(1)=G(Eθ(P(1)(I)))和V(2)=Eθ(G(P(2)(I))),其中,Eθ為特征提取網(wǎng)絡(luò),VP×h×w={vi,j|i∈[0,h],j∈[0,w]},h,w為進(jìn)行幾何變化后特征圖的二維尺寸。幾何變換增強(qiáng)在本文中采用隨機(jī)中心固定大小裁減,而光度變換增強(qiáng)則為隨機(jī)對(duì)圖像進(jìn)行不同參數(shù)下的gamma變換。已知在1.4.2節(jié)中在計(jì)算Ldsvdd過程中類別中心為Zk×P={zm|m∈[1,k]},基于幾何及光度增強(qiáng)的損失函數(shù)LGP由兩部分組成,如式(8)所示,分別是同一變換根據(jù)類別中心與特征向量的計(jì)算交叉熵?fù)p失Linner和不同變換方式之間進(jìn)行計(jì)算的交叉熵?fù)p失Lcross。

        LGP=Lcross+Linner

        (8)

        其中,Linner和Lcross定義如下

        (9)

        (10)

        使用交叉熵?fù)p失進(jìn)行計(jì)算中心z與特征向量vi,j的距離損失,其中分割結(jié)果的類別S用于選取對(duì)應(yīng)的類別中心zci,j,此處Lcluster為

        (11)

        式中,d(·,·)為距離度量函數(shù),在此選取余弦距離。

        2 實(shí)驗(yàn)

        2.1 實(shí)驗(yàn)環(huán)境及訓(xùn)練參數(shù)設(shè)置

        本文實(shí)驗(yàn)平臺(tái)中央處理器(CPU)為Intel(R)Core i5-7500@3.40 GHz,圖像處理單元(GPU)為Nvidia GeForce 1080,深度學(xué)習(xí)框架為Pytorch 1.6.1。

        網(wǎng)絡(luò)參數(shù)上,P=5,k=5,N=2;損失函數(shù)的權(quán)重參數(shù)建議設(shè)置為α=0.5,β=0.1,λ=0.2,γ=0.2;訓(xùn)練時(shí),選擇帶動(dòng)量的隨機(jī)梯度下降法作為優(yōu)化算法,動(dòng)量參數(shù)為0.4,學(xué)習(xí)率設(shè)置為0.000 01,迭代次數(shù)為1 700次。

        2.2 數(shù)據(jù)采集

        為驗(yàn)證本文算法的有效性,數(shù)據(jù)采集位于廣東某城軌戶外站臺(tái),在日間晴朗條件下,使用紅外攝像頭拍攝燈帶圖像(采集時(shí)間為上午9:00到下午5:00,每隔2 h進(jìn)行2 min視頻采集)。城軌站臺(tái)用于異物檢測(cè)的背景燈帶水平于地面進(jìn)行安裝,安裝位置示意如圖4所示,距離地表6 cm,背景燈帶長110 cm,與攝像機(jī)距離約為184 m。使用的紅外光采集視頻攝像頭分辨率為1 280×720,拍攝幀率為30幀/s,采集圖像為RGB格式3通道圖,拍攝焦距調(diào)節(jié)后,燈帶在圖像中成像面積約為300像素點(diǎn)。圖像在輸入網(wǎng)絡(luò)前會(huì)進(jìn)行尺寸縮小至480×320大小。

        圖4 背景燈帶及攝像頭安裝示意Fig.4 The installation position of the background light strips and cameras

        2.3 評(píng)價(jià)指標(biāo)

        本文算法屬于圖像分割任務(wù),使用語義分割任務(wù)中常用的評(píng)價(jià)指標(biāo)平均交并比(mean intersection over union,mIoU)、準(zhǔn)確率(Accuracy)、召回率(Recall),F1分?jǐn)?shù)以及在CPU和GPU上幀均耗時(shí)tCPU和tGPU,定義如下

        (12)

        (13)

        (14)

        (15)

        式中,TP,TN,FP,FN分別為正確分類為燈帶的燈帶像素?cái)?shù)、正確分類為其他類別的其他類別像素?cái)?shù)、錯(cuò)誤分類為其他類別的燈帶像素?cái)?shù)和錯(cuò)誤分類為燈帶的其他類別像素?cái)?shù)。

        2.4 實(shí)驗(yàn)結(jié)果及算法對(duì)比

        本文算法在戶外日光較大時(shí)表現(xiàn)良好,分割示例結(jié)果如圖5所示,其中分割結(jié)果通過不同顏色進(jìn)行標(biāo)記類別。本文算法分割效果在不同的復(fù)雜背景下,分割結(jié)果準(zhǔn)確;對(duì)于不同視角的拍攝圖像,分割性能表現(xiàn)一致,具有一定魯棒性;在不同光照條件下,保持良好的分割效果。本文對(duì)比常用的無監(jiān)督方法的分割方法,實(shí)驗(yàn)數(shù)據(jù)結(jié)果如表1所示,同時(shí),為更直觀地展示結(jié)果,圖5中對(duì)比兩張圖像的不同算法的分割結(jié)果展示。

        表1 不同算法實(shí)驗(yàn)結(jié)果對(duì)比Tab.1 Experiment results of different algorithms

        圖5 本文算法在不同環(huán)境下輸出示例Fig.5 Visualization results of the proposed algorithm

        從實(shí)驗(yàn)數(shù)據(jù)上可以看出,對(duì)比文獻(xiàn)[10](K均值算法)和文獻(xiàn)[21](最大類間方差法),本文算法在mIoU和F1分?jǐn)?shù)上取得更高分?jǐn)?shù),意味著在戶外條件下的燈帶分割效果更好。同時(shí),相比需要迭代的文獻(xiàn)[10]算法,本文在不使用CPU加速耗時(shí)上能夠減少65.5%,在具有GPU加速條件下,耗時(shí)減少97.1%。

        從幀均耗時(shí)的角度來看,相比文獻(xiàn)[10],本文算法更為實(shí)用且滿足實(shí)際運(yùn)行需求。在分割效果上,如圖6所示,對(duì)于其他方法,容易把背景中對(duì)日光反射度較大的物體錯(cuò)誤分割。文獻(xiàn)[21]中的方法為大津算法,是基于類間方差最大化的原理。從圖6最后一行的直方圖曲線中可見,待檢測(cè)圖像的直方圖大多為雙峰形,而該方法計(jì)算的分割閾值落在雙峰之間的范圍內(nèi),根據(jù)該閾值的分割結(jié)果為將暗色的站臺(tái)與較亮的戶外背景進(jìn)行分割,但是沒有對(duì)燈帶進(jìn)行有效分割。因此,基于類間方差最大化的自適應(yīng)閾值方法雖然幀均耗時(shí)低,但是分割效果差,難以在實(shí)際應(yīng)用中使用。

        圖6 不同方法燈帶分割結(jié)果對(duì)比Fig.6 The comparison of light strip segmentation results of various algorithms

        作為實(shí)驗(yàn)對(duì)比的基準(zhǔn)線,通過測(cè)試集上選取F1分?jǐn)?shù)最高的閾值,對(duì)圖像進(jìn)行二值化后結(jié)果進(jìn)行對(duì)比(表1)。此結(jié)果意味著是在已知測(cè)試集的條件下,各類基于全圖的簡單閾值方法的最佳效果。在其他算法測(cè)試中,無法提前得知測(cè)試集的樣本,而這種簡單閾值法雖然對(duì)于目標(biāo)燈帶圖像總體像素值比背景高的情況,具有良好分割效果,但其出現(xiàn)的問題有:(1)對(duì)于背景較亮,和燈帶亮度相似的情況,閾值方法會(huì)錯(cuò)誤分割背景,同時(shí)設(shè)置太高閾值會(huì)導(dǎo)致召回下降;(2)由于基于燈帶遮擋的異物檢測(cè)方法是長時(shí)間在戶外運(yùn)行,成像效果也會(huì)隨著光線變換而變化,同時(shí),在長期運(yùn)行條件下,燈帶燈珠會(huì)因?yàn)槔匣?在圖像中的成像也會(huì)變化。因此,簡單的閾值化方法對(duì)于以上問題適應(yīng)性不好,需要不斷進(jìn)行人工調(diào)節(jié)閾值參數(shù),不具有自適應(yīng)性。本文算法在僅有1個(gè)訓(xùn)練樣本的條件下,對(duì)于其他光照條件與拍攝角度的燈帶圖像都具有良好的分割效果,且能夠很好地克服來自于背景的干擾。

        3 結(jié)論

        針對(duì)軌道交通異物檢測(cè)關(guān)鍵流程中一環(huán)的背景燈帶圖像分割任務(wù),提出一種基于無監(jiān)督的適應(yīng)戶外站臺(tái)的圖像分割算法。通過設(shè)計(jì)考慮特征相似度和空間連續(xù)約束、基于深度支持向量描述以及基于幾何與光度增強(qiáng)的三種損失函數(shù),實(shí)現(xiàn)在單樣本訓(xùn)練下的卷積網(wǎng)絡(luò)參數(shù)學(xué)習(xí)。實(shí)驗(yàn)結(jié)果表明,本文算法在處理與訓(xùn)練樣本不同的視角、光照條件的圖像依然保持良好的性能,具有魯棒性。對(duì)比實(shí)驗(yàn)表明,在性能優(yōu)于K均值算法的前提下,算法在CPU和GPU上的運(yùn)算耗時(shí)可減低65.5%和97.1%。結(jié)果表明,本文提出算法可有效應(yīng)對(duì)戶外站臺(tái)的背景燈帶分割任務(wù),為后續(xù)異物檢測(cè)提供堅(jiān)實(shí)的基礎(chǔ)。

        猜你喜歡
        檢測(cè)
        QC 檢測(cè)
        “不等式”檢測(cè)題
        “一元一次不等式”檢測(cè)題
        “一元一次不等式組”檢測(cè)題
        “幾何圖形”檢測(cè)題
        “角”檢測(cè)題
        “有理數(shù)的乘除法”檢測(cè)題
        “有理數(shù)”檢測(cè)題
        “角”檢測(cè)題
        “幾何圖形”檢測(cè)題
        日日噜噜噜夜夜狠狠久久蜜桃 | 精品激情成人影院在线播放| 国产日产欧洲系列| 最近中文av字幕在线中文 | 五月天综合在线| 在线观看视频日本一区二区三区 | 国产日产精品_国产精品毛片| 亚洲av无码av男人的天堂| 国产精品久久无码不卡黑寡妇| 国产人妖一区二区av| 中文字幕一区二区人妻秘书| 久久无码av中文出轨人妻| 国产精选免在线观看| av免费一区在线播放| 亚洲中文字幕久久精品品| 欧美性猛交xxxx乱大交3| 天天躁日日操狠狠操欧美老妇| 美女人妻中文字幕av| 图片小说视频一区二区| 中文亚洲成a人片在线观看| 在线av野外国语对白| 一级内射免费观看视频| 日本熟妇色xxxxx日本妇| 久久97精品久久久久久久不卡 | 亚洲аv天堂无码| 亚洲国产精品成人一区| 夜夜爽夜夜叫夜夜高潮| 午夜成人理论无码电影在线播放| 日韩精品欧美激情亚洲综合| 国产一区二区亚洲一区| 国产亚洲精品a片久久久| 国产日产高清欧美一区| 国产亚洲av手机在线观看| 国产精品日韩经典中文字幕| 亚洲av无码一区二区三区人妖| 亚洲欧美日韩中文字幕网址| 日本免费三片在线视频| 亚洲精品天天影视综合网| 亚洲国产成人精品女人久久久| 精品一区二区三区长筒靴| 亚洲免费观看视频|