亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        立交橋識別的CNN卷積神經(jīng)網(wǎng)絡(luò)法

        2018-03-31 01:43:25何海威錢海忠謝麗敏段佩祥
        測繪學(xué)報 2018年3期
        關(guān)鍵詞:立交橋卷積神經(jīng)網(wǎng)絡(luò)

        何海威,錢海忠,謝麗敏,段佩祥

        信息工程大學(xué)地理空間信息學(xué)院,河南 鄭州 450000

        OSM(open street map)作為大型的公開地圖數(shù)據(jù)庫,是地理信息情報(特別是境外地理信息數(shù)據(jù))收集的重要數(shù)據(jù)源。在對該來源數(shù)據(jù)進行處理和建立多尺度模型時需要對其進行一定程度的制圖綜合。在大比例尺交通要素制圖綜合中,立交橋的分類是典型化的重要依據(jù),并且能夠為導(dǎo)航和位置服務(wù)、擁堵分析等提供重要信息。然而由于立交橋結(jié)構(gòu)復(fù)雜,變化多樣,往往屬于同一類型的立交橋其輔路的形態(tài)也不完全相同,且和人行道相互交錯,對分類模型的構(gòu)建造成不小挑戰(zhàn)。如何讓計算機能夠?qū)?fù)雜多變的交叉路口進行準確地分類一直是研究的難點。

        當(dāng)前針對立交橋的識別方法主要有:文獻[1]提出一種利用道路節(jié)點密度對立交橋進行非結(jié)構(gòu)化的定位方法,然而該方法僅限于定位,無法對立交橋所屬類型進行判斷;文獻[2]提出一種基于結(jié)構(gòu)模式識別的立交橋判別方法,該方法利用有向?qū)傩躁P(guān)系圖來描述道路交叉口結(jié)構(gòu),建立典型結(jié)構(gòu)模板庫,然后通過關(guān)系圖匹配識別典型交叉口;文獻[3]提出了一種改進的結(jié)構(gòu)模式識別方法,該方法利用道路拓撲特征分類對立交橋進行描述,建立典型量化表達式模板庫,通過對比量化表達式識別立交橋類型;文獻[4]對以往的結(jié)構(gòu)描述方式進行了豐富,采用長度、面積、緊湊度、平行度、對稱度和語義屬性6個參數(shù)組成立交橋的特征空間,利用支持向量機(support vector machine,SVM)結(jié)合樣本進行訓(xùn)練,并將訓(xùn)練好的模型用于主路和輔路的識別,不過該方法并未對立交橋進行分類,而只是識別了主路和輔路。

        以上的方法均屬于基于人工設(shè)計特征的識別方法,將矢量的立交橋點、線結(jié)構(gòu)通過空間計算,映射到一個特征描述空間中,然后進行識別和分類。這類方法十分依賴于特征項的設(shè)計(例如長度、對稱度、彎曲度等),這種淺層特征只對典型化的立交橋數(shù)據(jù)能夠比較有效地識別,如圖1(a)所示。然而,現(xiàn)實中所處理的立交橋數(shù)據(jù)往往并不是以理想狀態(tài)呈現(xiàn)的,存在大量干擾,因此很難用淺層次的模型進行類型描述,從而在傳統(tǒng)手段下無法進行有效的分類判斷。在來自O(shè)SM開放城市數(shù)據(jù)中,立交橋本身屬性信息不全,且往往伴隨著各種輔路、交叉路、人行道等(如圖1(b)所示),嚴重影響基于人工特征描述模型的判斷。

        人對于立交橋的認知是基于視覺的模糊判斷過程,能自動過濾掉無關(guān)信息,從整體和局部中提取深層次模糊性特征,從而辨別出大量干擾下的立交橋類型。模擬人類的視覺感知過程是機器視覺(computer vision,CV)領(lǐng)域研究的熱點問題之一。在機器視覺領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)已經(jīng)逐漸取代以往的模式識別方法,并成功應(yīng)用于手寫字識別、人臉識別和遙感影像分類等領(lǐng)域,取得了令人矚目的成就[5-8]。受到這些成功案例的啟發(fā),本文將卷積神經(jīng)網(wǎng)絡(luò)引入到立交橋的識別中,以解決在大比例尺復(fù)雜情況下立交橋的識別問題。

        基本思路為:首先,利用矢量特征進行定位,通過自動抓取圖像以及人工標注得到訓(xùn)練樣本;然后,利用樣本對卷積神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,學(xué)習(xí)立交橋的深層次模糊性特征,從而得到立交橋分類的CNN模型;最后通過CNN模型對新抓取的立交橋?qū)ο筮M行分類,并將分類的結(jié)果反饋到相應(yīng)的矢量數(shù)據(jù)中去。

        圖1 模型與現(xiàn)實數(shù)據(jù)對比Fig.1 Comparison between model and real data

        1 卷積神經(jīng)網(wǎng)絡(luò)的概念及應(yīng)用策略

        1.1 卷積神經(jīng)網(wǎng)絡(luò)在圖像分類領(lǐng)域的應(yīng)用

        傳統(tǒng)的圖像物體檢測和分類的關(guān)鍵在于特征表達,而特征設(shè)計需要具有較高專業(yè)素養(yǎng)的專家手工完成,這種方式投入精力大、時間成本高,雖然應(yīng)用廣泛,但并不是一個可拓展的途徑[9]。

        基于神經(jīng)網(wǎng)絡(luò)的圖像識別不需要人工進行特征設(shè)計,直接由計算機通過讀取柵格圖像進行訓(xùn)練,收斂得到各層神經(jīng)元對應(yīng)的參數(shù)值,這些參數(shù)即反映了區(qū)分圖像類型的深層次特征。然而構(gòu)建深度神經(jīng)網(wǎng)絡(luò)模型的難點在于其訓(xùn)練過程,深度越深模型的參數(shù)規(guī)模越大越不容易收斂。近年來深度神經(jīng)網(wǎng)絡(luò)在機器視覺領(lǐng)域得以有效的應(yīng)用,歸功于卷積神經(jīng)網(wǎng)絡(luò)的提出[10-12]。CNN繼承了傳統(tǒng)誤差反向傳播(back-propagation,BP)神經(jīng)網(wǎng)絡(luò)的優(yōu)點,采取權(quán)值共享的方式,加入了卷積層和池化層,減少了權(quán)重參數(shù)的個數(shù),不僅很好地控制了整個網(wǎng)絡(luò)的規(guī)模,而且對圖像在位移、縮放和扭曲等形變的識別上具備很強的魯棒性[13-15]。

        眾多學(xué)者針對圖像分類提出了大量的卷積神經(jīng)網(wǎng)絡(luò)模型,例如文獻[16]針對手寫數(shù)字識別提出的LeNet模型,被廣泛應(yīng)用于銀行手寫數(shù)字的識別系統(tǒng);文獻[17]將CNN進行了深度的拓展提出了AlexNet模型(如圖2所示)。該模型在“大規(guī)模視覺識別挑戰(zhàn)賽”(ImageNet Large Scale Visual Recognition Challenge,ILSVR)中獲得了第一,并將錯誤率降低了十個百分點,從此奠定了卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺中的地位。

        圖2 AlexNet卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)圖Fig.2 Structure of AlexNet

        1.2 基于CNN的柵矢結(jié)合立交橋識別策略

        一直以來立交橋識別問題都是圍繞矢量數(shù)據(jù),通過建立各種幾何、拓撲、圖論等精確模型來尋求解決方案。在大比例尺數(shù)據(jù)中,立交橋局部結(jié)構(gòu)復(fù)雜多變且存在輔路和人行道干擾,視覺上只能找到模糊的區(qū)別,很難用規(guī)整的語言去形容,更別談設(shè)計模板來提取特征了。要想解決對視覺感受依賴較強的綜合問題,引入機器視覺的方法無疑是一個值得研究的思路。

        因此本文提出基于CNN的柵矢結(jié)合立交橋識別方法,在立交橋的識別中,分別發(fā)揮矢量計算和柵格圖像識別的優(yōu)勢。傳統(tǒng)矢量數(shù)據(jù)計算的優(yōu)勢在于,模型精確可控、執(zhí)行簡單、處理速度快,善于處理結(jié)構(gòu)化、可線性描述的問題[18-20]?;跂鸥駡D像的機器視覺算法的優(yōu)勢在于,通過大量樣本數(shù)據(jù)的訓(xùn)練,能夠提取不同類別的深層次特征進行分類學(xué)習(xí)。由于CNN中深層次特征由神經(jīng)網(wǎng)絡(luò)各個神經(jīng)元參數(shù)在樣本數(shù)據(jù)訓(xùn)練下得到,在大量神經(jīng)元結(jié)構(gòu)相互影響下,使其具有類似人類判斷過程中的模糊性和抗干擾性。簡而言之,在立交橋結(jié)構(gòu)識別過程中,將對視覺依賴性較強的分類環(huán)節(jié)交給基于卷積神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)模型,學(xué)習(xí)深層次的模糊性分類特征,結(jié)合矢量結(jié)構(gòu)特征的快速定位,實現(xiàn)圖上立交橋的識別和分類。

        具體流程如圖3所示。首先,通過矢量計算,定位到待分類的交叉路口得到采樣圖像;其次,經(jīng)人工分類的樣本作為訓(xùn)練集和測試集,對卷積神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,得到分類模型;然后,在處理實際數(shù)據(jù)中,利用矢量計算初步定位的粗篩作用,得到待識別數(shù)據(jù);最后,待識別數(shù)據(jù)通過訓(xùn)練好的CNN分類模型進行分類,得到分類結(jié)果,并最終將分類結(jié)果反饋到OSM矢量數(shù)據(jù)中。

        圖3 采用卷積神經(jīng)網(wǎng)絡(luò)的立交橋識別流程圖Fig.3 The interchange classification process by using CNN

        2 立交橋初步定位以及樣本獲取

        人的視覺感受范圍是模糊的,而CNN處理的是固定輸入維數(shù)的數(shù)據(jù),即固定大小的圖像。其能夠感受的范圍是與訓(xùn)練時所采用的樣本數(shù)據(jù)大小相一致。因此利用計算機視覺進行模型訓(xùn)練之前,需要給定一個計算機的視覺范圍,即告訴計算機“往哪看”。在基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識別的過程中,由于預(yù)先不知道人臉在圖像中的位置,采取的是以一定的步長將整個圖像劃分成眾多的矩形圖塊,然后逐行從圖塊中識別出人臉。對于空間跨度大的地圖數(shù)據(jù)而言,通過這樣全局掃描式的方法識別一幅地圖中的元素顯然會嚴重影響識別的效率。

        因此本文提出利用矢量計算對視覺區(qū)域進行初步定位,同時設(shè)計合理的視覺感受范圍和感受尺度,從而提高樣本獲取的效率和質(zhì)量,提升識別判斷過程的效率。

        2.1 視覺區(qū)域定位

        本文認為道路交叉路口都是潛在的立交橋目標。因此,在進行訓(xùn)練樣本收集,以及最后立交橋識別前,利用矢量數(shù)據(jù)的空間計算,得到道路交叉結(jié)點密集的位置,達到對立交橋進行初步篩選和定位的目的。具體步驟如下:

        步驟1:獲取所有道路的交叉結(jié)點數(shù)據(jù)。

        步驟2:對交叉點進行緩沖區(qū)聚類,初步識別存在一定規(guī)模(交叉點數(shù)大于某一閾值)的交叉結(jié)點群。

        步驟3:計算點群中心點,作為采樣?xùn)鸥駞^(qū)域矩形的中心位置,如圖4所示。

        圖4 自動確定采樣中心點示例Fig.4 Automate locate sample center point

        2.2 采樣參數(shù)的確定

        CNN的學(xué)習(xí)過程與人視覺神經(jīng)對物體的感知過程的原理是類似的。因此,想要通過樣本訓(xùn)練獲得正確的分類模型,就必須使采集的樣本符合人對立交橋的一般性認知規(guī)律,即采樣的柵格樣本在視覺上具有很好的可辨認性。為了得到完整、清晰的立交橋樣本,除了確定采樣矩形的位置,還需要確定采樣范圍、樣本尺寸和符號大小這3個參數(shù)。

        2.2.1 采樣數(shù)據(jù)范圍的確定

        采樣范圍可以理解為計算機的視覺感受范圍,即圖4中虛線矩形框的大小。采樣范圍關(guān)系到樣本數(shù)據(jù)的質(zhì)量,若采樣區(qū)域過大,則易過多地將非立交橋元素包含到樣本圖像中,對模型的訓(xùn)練精度產(chǎn)生干擾,如圖5(a)所示。若采樣區(qū)域過小,則容易造成“盲人摸象”,導(dǎo)致以偏概全,以至于成為影響模型訓(xùn)練精度的噪聲數(shù)據(jù)。如圖5(d)、(e)所示,由于該采樣區(qū)域過小,立交橋的形態(tài)不完整,無法滿足在視覺上進行分類的判斷條件。

        圖5 不同采樣范圍樣本示例Fig.5 Samples of different scopes

        現(xiàn)實中的立交橋,其跨度在一定范圍內(nèi)變化。本文對立交橋匯入點間的距離進行了統(tǒng)計,得出除部分特大型立交橋外,立交橋結(jié)構(gòu)的跨度一般在300 m到600 m之間。為了保證樣本中立交橋結(jié)構(gòu)的完整性,本文取立交橋跨度規(guī)模區(qū)間的上限值作為采樣區(qū)域的范圍值,即將采樣區(qū)域?qū)?yīng)的實地范圍設(shè)定為600×600 m2。

        2.2.2 樣本圖像尺寸的確定

        在采樣范圍確定的情況下,樣本圖像尺寸影響樣本內(nèi)容表達以及樣本數(shù)據(jù)量。若樣本尺寸太小,則“馬賽克”現(xiàn)象嚴重,無法清晰表達采樣范圍內(nèi)立交橋的形態(tài)特征;樣本尺寸太大,則對應(yīng)的神經(jīng)網(wǎng)絡(luò)模型也就越大,占用的計算資源也就越多,影響學(xué)習(xí)效率。本文綜合比對了多種圖像尺寸下的立交橋形態(tài),參考常見圖像分類中的采樣策略,將立交橋樣本采樣尺寸設(shè)定為250×250像素,jpg格式圖片。如圖6所示,為各種采樣尺寸下圖形顯示效果對比。

        2.2.3 采樣符號大小的確定

        計算機在自動采樣過程中,需要預(yù)先設(shè)定好線狀矢量道路的符號大小,即符號寬度,以得到可辨認的立交橋形態(tài),如圖7所示。

        圖6 不同采樣尺寸樣本示例Fig.6 Samples of different sizes

        圖7 不同道路像素寬度的樣本示例Fig.7 Samples of different road widths

        不同分辨率和符號寬度下得到的樣本,其顯示的道路像素寬度也不同。若道路像素寬度太大,則會出現(xiàn)道路符號重疊,影響立交橋形態(tài)的表達;若像素寬度太小,則道路網(wǎng)形態(tài)過于精細,不利于卷積過程對特征的提取。因此本文選擇圖7(c)對應(yīng)的符號寬度參數(shù)3像素,即3個像素點寬度,作為本文立交橋采樣的標準。各采樣樣本相關(guān)參數(shù)如表1所示。

        表1 樣本采樣參數(shù)設(shè)置

        根據(jù)以上采樣范圍、樣本尺寸和符號大小這3個參數(shù),可以確定采樣?xùn)鸥駡D形的一般形態(tài)。以上3個參數(shù)一經(jīng)設(shè)定,則無需再進行修改,通用于整個立交橋數(shù)據(jù)的采樣以及識別過程。

        2.3 樣本數(shù)據(jù)篩選和增量操作

        2.3.1 訓(xùn)練樣本數(shù)據(jù)篩選

        本文選取了北京、上海、廣州3個城市的OSM交通數(shù)據(jù)作為訓(xùn)練樣本的采樣源,如圖8所示。為進一步減少數(shù)據(jù)量,對圖像進行二值化處理。在自動生成了大量樣本圖像后,需要對樣本數(shù)據(jù)進行人工篩選和標記。標記的樣本數(shù)據(jù)分為訓(xùn)練集和測試集,用于訓(xùn)練立交橋識別和分類的卷積神經(jīng)網(wǎng)絡(luò)。

        CNN的深度學(xué)習(xí)過程類似于人類視覺感受和學(xué)習(xí)過程,通過訓(xùn)練能夠?qū)颖镜姆诸愄卣鬟M行模糊感知。樣本在篩選時,只需要保證選用的樣本數(shù)據(jù)能夠反映其類型,滿足人對立交橋的一般認知即可。

        2.3.2 樣本數(shù)據(jù)增量

        對于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練而言,樣本數(shù)量越多,訓(xùn)練得到的模型越精確。因此擴大樣本的規(guī)模是提高訓(xùn)練精度的一個重要方面。除了通過加大采集量得到更多樣本這一手段外,還可以利用樣本自身特點產(chǎn)生新的樣本,也就是根據(jù)研究對象的特點設(shè)計各種數(shù)據(jù)增強方法(data augmentation)。

        由于立交橋具有方向不變性,立交橋方位的變化不影響立交橋的分類。因此,本文利用這一特性對立交橋樣本數(shù)據(jù)進行旋轉(zhuǎn)和鏡像操作,以擴大樣本規(guī)模。如圖9所示,通過該處理過程樣本數(shù)量增加了7倍,有效地擴大了樣本規(guī)模,提升了樣本覆蓋度。

        圖8 基于OSM數(shù)據(jù)的樣本數(shù)據(jù)部分采樣和二值化示意圖Fig.8 Sampling form the OSM data and binaryzation process

        圖9 樣本數(shù)據(jù)增強操作示意圖Fig.9 Data augmentation process

        3 采用AlexNet對立交橋樣本進行分類模型訓(xùn)練

        模型的好壞并不絕對,往往要結(jié)合具體問題以及樣本數(shù)據(jù)的特點進行選擇。當(dāng)前對于樣本數(shù)據(jù)應(yīng)該選用哪種深度神經(jīng)網(wǎng)絡(luò)模型沒有一套明確的評價標準。考慮到立交橋的結(jié)構(gòu)相較于手寫數(shù)字更為復(fù)雜,本文選擇用于大規(guī)模圖像分類的AlexNet網(wǎng)絡(luò)模型作為訓(xùn)練模型,并在Caffe(convolutional architecture for fast feature embedding)提供的框架下進行訓(xùn)練。Caffe發(fā)布于2014年,是一個清晰、高效的開源深度學(xué)習(xí)框架,核心語言是C++,它支持命令行、Python和Matlab接口,支持GPU運行。

        3.1 卷積神經(jīng)網(wǎng)絡(luò)的計算過程

        3.1.1 卷積計算

        (1)

        3.1.2 池化計算

        (2)

        3.1.3 損失值計算

        經(jīng)過一系列的卷積、池化以及映射操作后,到達CNN的損失層(loss layer)。損失層是CNN的終點,接受兩個輸入數(shù)據(jù),一個為CNN的預(yù)測值;另一個為該樣本的真實標簽。在損失層中經(jīng)過運算,輸出卷積神經(jīng)網(wǎng)絡(luò)的損失值(loss)。loss是評價模型收斂效果的重要指標,用來衡量模型分類估計值與真實值之間誤差值,越趨近于0則表示模型對于當(dāng)前測試數(shù)據(jù)的分類效果越好。

        AlexNet采用Softmax計算損失值。Softmax廣泛應(yīng)用于各種機器學(xué)習(xí)算法中,其作用是把所有輸出項的值都壓縮到0到1區(qū)間內(nèi)。假設(shè)有K個分類標簽,Softmax計算如下

        (3)

        式中,ai表示CNN對于第i個分類標簽的預(yù)測值,Softmax的結(jié)果相當(dāng)于輸入圖像被分到每個標簽的概率分布。假設(shè)圖像正確分類為第x個標簽,則loss的計算如下

        loss=-log(Softmax(ax))

        (4)

        訓(xùn)練的過程可簡要概括為:在訓(xùn)練迭代過程中對各樣本進行卷積、池化以及映射等操作得到模型對樣本分類的預(yù)測值;計算得到損失值loss,通過誤差反向傳播算法計算參數(shù)修正梯度值;對以上4個參數(shù)的值不斷地進行迭代修正,以趨近全局最優(yōu)解參數(shù)。具體涉及公式本文不再贅述,詳情請參考文獻[9—11]。

        3.2 訓(xùn)練立交橋分類卷積神經(jīng)網(wǎng)絡(luò)

        為了訓(xùn)練用于立交橋分類的卷積神經(jīng)網(wǎng)絡(luò)模型,本文選取了常見3類典型的交叉路口作為試驗對象,分別為:十字型路口、喇叭型交叉路口和苜蓿型交叉路口,樣本示例如圖10所示。該3類樣本出現(xiàn)的頻率較高,容易在短時間內(nèi)收集大量樣本用于試驗測試。用于訓(xùn)練的數(shù)據(jù)樣本總量為8721個,按2∶1的比例分為訓(xùn)練集和測試集。

        圖10 4類交叉路口樣本示例Fig.10 Samples of 4 different interchanges

        Caffe提供了在其框架下定義的AlexNet模型文件,以及修改控制訓(xùn)練過程的參數(shù)文件。通過修改參數(shù)文件,可以對訓(xùn)練的基礎(chǔ)學(xué)習(xí)率(base learning-rate)、權(quán)重衰減系數(shù)(weight decay)、最大迭代次數(shù)(max iteration)等參數(shù)進行調(diào)整?;A(chǔ)學(xué)習(xí)率如果太大,容易跨過極值點,如果設(shè)置太小,又容易陷入局部最優(yōu);權(quán)重衰減系數(shù)用來防止訓(xùn)練過擬合,一般設(shè)置為經(jīng)驗值0.000 5;最大迭代次數(shù)由樣本數(shù)據(jù)量和模型的復(fù)雜程度決定。

        根據(jù)本文樣本數(shù)據(jù)的特點,對以上參數(shù)進行了調(diào)試,最終將學(xué)習(xí)率設(shè)置為0.001,權(quán)重衰減系數(shù)設(shè)置為0.000 5,迭代次數(shù)設(shè)置為1000。模型在訓(xùn)練中的收斂過程和最終得到的loss和準確值accuracy,如圖11所示。accuracy是指模型在分類正確時給出的概率值,越趨近于1表示分類的可信度越高。在本文參數(shù)設(shè)置下,模型對于測試集的最終分類loss值為0.220 7,accuracy值為0.919 4,并且從圖11可以看出,在訓(xùn)練過程中整個AlexNet模型得到了較好的收斂。

        圖11 模型訓(xùn)練過程中l(wèi)oss和accuracy變化曲線Fig.11 Curves of loss and accuracy

        值得注意的是,模型訓(xùn)練accuracy值為測試集樣本的分類正確率,該指標反映出模型的訓(xùn)練效果,并不能完全代表其在實際應(yīng)用中的分類效果。為進一步驗證本文模型的有效性,根據(jù)1.2節(jié)提出的分類流程,本文在試驗與分析中收集了另一城市的交通數(shù)據(jù)對該模型進行分類測試。

        4 試驗與分析

        試驗數(shù)據(jù)為OSM提供的大比例尺重慶市交通要素數(shù)據(jù)。通過交叉路口初步定位,本文獲得了1846個待識別的交叉路口,如圖12所示。

        如圖13所示,待分類立交橋在卷積神經(jīng)網(wǎng)絡(luò)計算下依次得到各個層級的特征圖,并最終由激活函數(shù)計算得到分類的概率值。從圖13中可以看到,當(dāng)圖像輸入到CNN中時,特定的像素結(jié)構(gòu)與特定的卷積核相乘得到較高的響應(yīng)值(圖中Conv*為各卷積層計算后得到的特征圖,紅色代表較高響應(yīng),藍色代表較低響應(yīng))。待識別圖像和訓(xùn)練圖像中的某一類特征對應(yīng)上后才會被保留,反之會被忽略,以避免干擾項的影響。CNN中的卷積核不需要預(yù)先的人工設(shè)計,而是通過大量樣本的訓(xùn)練不斷調(diào)整卷積核參數(shù)。其參數(shù)不斷調(diào)整直至穩(wěn)定的過程也就是CNN的收斂過程。該過程使其具備從不同形態(tài)和干擾中區(qū)分各類型立交橋的能力。

        分類的局部效果如圖14所示,黃色點表示分類為苜蓿型(Clover)立交橋,紅色點表示分類為喇叭型(Trumpet)立交橋,藍色點表示分類為十字型(Cross)路口。采用CNN分類輸出的結(jié)果是待識別對象被歸為各類型的分類概率值(p)。p越接近1則表示該位置路口被分為該類型的可信度越高。本文將分類結(jié)果采納的最低置信度設(shè)置為0.7,滿足p>0.7的分類結(jié)果則認為模型將其分類為對應(yīng)類型路口。從分類的局部放大效果圖可以看出,分類結(jié)果與其真實類型吻合度較高。

        試驗中部分典型復(fù)雜交叉路口的分類效果如圖15所示,圖中展示了模型給出的各項分類對應(yīng)概率值。由分類的結(jié)果可以看出,待識別立交橋均以較高的概率劃分到了正確的分類中。

        將本文方法與基于人工特征的立交橋分類方法進行對比。采用傳統(tǒng)的人工特征描述方法得到的結(jié)果如表2所示,編號1—6分別對應(yīng)圖15中的6個立交橋測試區(qū)域。表2中各項指標參照文獻[3]的道路拓撲類型描述方法進行計算,量化表達式的5個參數(shù)分別代表:判斷區(qū)域內(nèi)懸掛道路數(shù)、橋接道路數(shù)、輪廓道路數(shù)、網(wǎng)眼內(nèi)部道路數(shù)和孤立路段數(shù)。從計算的結(jié)果來看,量化表達式在各種干擾下與理論值偏差較大,無法匹配到正確的立交橋類型,在OSM數(shù)據(jù)中基本無法應(yīng)用。

        表2采用人工特征方法描述的分類結(jié)果

        Tab.2Classificationresultsbyusingartificialcharacterization method

        編號量化表達式理論量化表達式匹配情況1(22,2,10,45.0)Clover(4,0,4,4,0)不匹配2(17,1,8,23,0)Clover(4,0,4,4,0)不匹配3(10,1,4,16,0)Clover(4,0,4,4,0)不匹配4(9,0,8,12,0)Trumpet(3,0,2,0,0)不匹配5(12,2,6,7,0)Trumpet(3,0,2,0,0)不匹配6(8,0,11,4,0)Trumpet(3,0,2,0,0)不匹配

        進一步對試驗結(jié)果進行統(tǒng)計分析,如表3所示。表中查全率(recall)由模型正確分類數(shù)除以人工判別數(shù)量得出,能夠反映該模型對于特定類型的識別效果;查準率(precision)由模型正確分類數(shù)除以模型分類總數(shù)量得出,能夠反映該模型對于非特定類型路口的區(qū)分效果。F1測度值是查全率和查準率的調(diào)和均值,即在認為兩者具有同等重要作用的前提下,將二者結(jié)合為一個指標。

        圖12 試驗數(shù)據(jù)及待分類定位點Fig.12 Experimental data and potential interchange points

        圖13 采用CNN進行深層次特征提取并得到預(yù)測結(jié)果Fig.13 Deep features and prediction result given by CNN

        圖14 利用立交橋卷積神經(jīng)網(wǎng)絡(luò)分類模型對OSM數(shù)據(jù)進行識別Fig.14 Result of interchange classification of OSM data

        (5)

        (6)

        (7)

        從分類試驗效果圖以及相關(guān)統(tǒng)計可以得出:

        (1) 該模型的分類效果比較好,能夠有效地對一些復(fù)雜的路口和立交橋結(jié)構(gòu)進行正確定位和分類。如圖15所示,從復(fù)雜路口的分類效果展示中可以看出,對于存在大量干擾的復(fù)雜喇叭型和苜蓿型交叉路口,該模型能夠準確判斷出對應(yīng)的立交橋類型,并給出了較高的分類概率值。

        表3 試驗相關(guān)數(shù)據(jù)統(tǒng)計

        圖15 部分復(fù)雜路口的分類效果Fig.15 Result of complex interchange classification

        (2) 查全率值較高,說明卷積神經(jīng)網(wǎng)絡(luò)對于立交橋樣本進行了很好的學(xué)習(xí),能夠從復(fù)雜形態(tài)結(jié)構(gòu)中抽取出高層次的模糊特征,從而對存在形變和干擾的立交橋能夠準確分類。

        (3) 從試驗的整個流程可以看出,基于卷積神經(jīng)網(wǎng)絡(luò)的立交橋識別的另一優(yōu)勢在于,不需要很強的專家知識的指導(dǎo),人為對于模型的干預(yù)較少,減輕了研究模型的成本,縮短了模型研究的周期。

        但仍存在部分錯誤分類的情況,對查準率造成了不利影響,如圖16所示。從錯誤分類的路口示例可以看出,該部分路口不屬于以上任何一種類型,由于模型需要對所有路口輸出一個分類結(jié)果,因此容易錯誤地將待分類對象歸類到本文的3種類型中。因此對于提高模型的查準率,可以通過進一步豐富已有的樣本庫、建立其他類型立交橋樣本庫以及擴充“非典型交叉路口”樣本庫的方式進行改善,從而進一步提高模型實際應(yīng)用能力。

        圖16 錯分類交叉路口示例Fig.16 Samples of the errors in interchange classification

        5 結(jié) 論

        本文將當(dāng)前機器視覺領(lǐng)域的研究熱點模型卷積神經(jīng)網(wǎng)絡(luò)引入到道路交叉路口的分類中,通過矢量數(shù)據(jù)與柵格圖像相結(jié)合的方式,將對視覺依賴性較強的分類環(huán)節(jié)交給CNN模型,學(xué)習(xí)深層次的模糊性分類特征,結(jié)合矢量結(jié)構(gòu)特征的快速定位,實現(xiàn)了對于OSM數(shù)據(jù)的立交橋識別和分類。本文的分類策略具備了一定的模糊感知能力,能夠?qū)Υ嬖诟蓴_的喇叭型和苜蓿型立交橋進行準確的識別,并且由于分類模塊依賴的是CNN模型的訓(xùn)練,不涉及復(fù)雜的人工特征設(shè)計,降低了模型研究的成本投入。

        對于分類效果的進一步提升,需要繼續(xù)豐富樣本庫類型、擴大樣本庫規(guī)模以及提升樣本庫質(zhì)量;同時結(jié)合CV領(lǐng)域的最新研究成果,尋找適應(yīng)性更強的圖像分類模型。在后續(xù)研究中,可探索CNN在制圖綜合中的更多應(yīng)用,以解決傳統(tǒng)特征描述手段難以解決的制圖綜合問題。

        [1] MACKANESS W A,MACKECHNIE G A.Automating the Detection and Simplification of Junctions in Road Networks[J].GeoInformatica,1999,3(2):185-200.

        [2] 徐柱,蒙艷姿,李志林,等.基于有向?qū)傩躁P(guān)系圖的典型道路交叉口結(jié)構(gòu)識別方法[J].測繪學(xué)報,2011,40(1):125-131.

        XU Zhu,MENG Yanzi,LI Zhilin,et al.Recognition of Structures of Typical Road Junctions Based on Directed Attributed Relational Graph[J].Acta Geodaetica et Cartographica Sinica,2011,40(1):125-131.

        [3] 王驍,錢海忠,丁雅莉,等.采用拓撲關(guān)系與道路分類的立交橋整體識別方法[J].測繪科學(xué)技術(shù)學(xué)報,2013,30(3):324-328.

        WANG Xiao,QIAN Haizhong,DING Yali,et al.The Integral Identification Method of Cloverleaf Junction Based on Topology and Road Classification[J].Journal of Geomatics Science and Technology,2013,30(3):324-328.

        [4] 馬超,孫群,陳換新,等.利用路段分類識別復(fù)雜道路交叉口[J].武漢大學(xué)學(xué)報(信息科學(xué)版),2016,41(9):1232-1237.

        MA Chao,SUN Qun,CHEN Huanxin,et al.Recognition of Road Junctions Based on Road Classification Method[J].Geomatics and Information Science of Wuhan University,2016,41(9):1232-1237.

        [5] DONAHUE J,JIA Yangqing,VINYALS O,et al.DeCAF:A Deep Convolutional Activation Feature for Generic Visual Recognition[J].Computer Science,2013,50(1):815-830.

        [6] JIA Yangqing,SHELHAMER E,DONAHUE J,et al.Caffe:Convolutional Architecture for Fast Feature Embedding[C]∥Proceedings of the 22nd ACM International Conference on Multimedia.Orlando,F(xiàn)lorida:ACM,2014:675-678.

        [7] 何小飛,鄒崢嶸,陶超,等.聯(lián)合顯著性和多層卷積神經(jīng)網(wǎng)絡(luò)的高分影像場景分類[J].測繪學(xué)報,2016,45(9):1073-1080.DOI:10.11947/j.AGCS.2016.20150612.

        HE Xiaofei,ZOU Zengrong,TAO Chao,et al.Combined Saliency with Multi-convolutional Neural Network for High Resolution Remote Sensing Scene Classification[J].Acta Geodaetica et Cartographica Sinica,2016,45(9):1073-1080.DOI:10.11947/j.AGCS.2016.20150612.

        [8] ZHU Qiqi,ZHONG Yanfei,ZHAO Bei,et al.Bag-of-visual-Words Scene Classifier With Local and Global Features for High Spatial Resolution Remote Sensing Imagery[J].IEEE Geoscience and Remote Sensing Letters,2016,13(6):747-751.

        [9] 劉棟,李素,曹志冬.深度學(xué)習(xí)及其在圖像物體分類與檢測中的應(yīng)用綜述[J].計算機科學(xué),2016,43(12):13-23.

        LIU Dong,LI Su,CAO Zhidong.State-of-the-art on Deep Learning and Its Application in Image Object Classification and Detection[J].Computer Science,2016,43(12):13-23.

        [10] LECUN Y,BOSER B,DENKER J S,et al.Backpropagation Applied to Handwritten Zip Code Recognition[J].Neural Computation,1989,1(4):541-551.

        [11] HINTON G E,SALAKHUTDINOV R R.Reducing the Dimensionality of Data with Neural Networks[J].Science,2006,313(5786):504-507.

        [12] LECUN Y,BENGIO Y,HINTON G.Deep Learning[J].Nature,2015,521(7553):436-444.

        [13] DENG Li,YU Dong.Deep Learning:Methods and Applications[J].Foundations and Trends in Signal Processing,2014,7(3-4):197-387.

        [14] 謝劍斌,興軍亮,張立寧,等.視覺機器學(xué)習(xí)20講[M].北京:清華大學(xué)出版社,2015.

        XIE Jianbin,XING Junliang,ZHANG Lining,et al.20 Lectures On Visual Machine Learning[M].Beijing:Tsinghua University Press,2015.

        [15] 周志華.機器學(xué)習(xí)[M].北京:清華大學(xué)出版社,2016.

        ZHOU Zhihua.Machine Learning[M].Beijing:Tsinghua University Press,2016.

        [16] LECUN Y,BOTTOU L,BENGIO Y,et al.Gradient-based Learning Applied to Document Recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

        [17] KRIZHEVSKY A,SUTSKEVER I,HINTON G E.Image Net Classification with Deep Convolutional Neural Networks[C]∥Proceedings of the 25th International Conference on Neural Information Processing Systems.Lake Tahoe,Nevada:ACM,2012:1097-1105.

        [18] HEINZLE F,ANDERS K H,SESTER M.Pattern Recognition in Road Networks on the Example of Circular Road Detection[C]∥RAUBAL M,MILLER H J,F(xiàn)RANK A U,et al.Geographic Information Science.Berlin,Heidelberg:Springer,2006:153-167.

        [19] MACKANESS W A,RUAS A,SARJAKOSKI L T.Generalisation of Geographic Information:Cartographic Modelling and Applications[M].Amsterdam:Elsevier Science Ltd,2007:196-197.

        [20] YANG Bisheng,LUAN Xuechen,LI Qingquan.An Adaptive Method for Identifying the Spatial Patterns in Road Networks[J].Computers,Environment and Urban Systems,2010,34(1):40-48.

        猜你喜歡
        立交橋卷積神經(jīng)網(wǎng)絡(luò)
        立交橋下不宜鍛煉
        中老年保健(2022年5期)2022-11-25 14:16:14
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        宜畢高速陳貝屯互通立交橋
        赤水源(2018年6期)2018-12-06 08:38:12
        基于傅里葉域卷積表示的目標跟蹤算法
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
        中国精品久久精品三级| 国产精品高清网站| 色天使综合婷婷国产日韩av| 欧美性猛交xxxx黑人| 亚洲国产精品综合福利专区| 特级国产一区二区三区| 美女mm131爽爽爽| 国产精品福利自产拍久久 | 中文字幕av素人专区| 亚洲va韩国va欧美va| 乱子伦视频在线看| 亚洲AV成人无码天堂| av在线高清观看亚洲| 久久久久av无码免费网| 91av小视频| 青青草视频国产在线观看| 最好看的亚洲中文字幕| 欧美人与动牲交a精品| 国产精品成人嫩妇| 中文亚洲第一av一区二区| 亚洲精品无码不卡| 看曰本女人大战黑人视频| 2021精品综合久久久久| 亚洲中文字幕第15页| 国产精品a免费一区久久电影| 国产欧美VA欧美VA香蕉在| 视频一区二区三区中文字幕狠狠 | 公与淑婷厨房猛烈进出| 欧美巨大性爽| 日本一区二区亚洲三区| 国产av天堂亚洲av刚刚碰| 伊人久久大香线蕉亚洲五月天| 亚洲性啪啪无码AV天堂| 国产成人一区二区三区| 国产av久久久久精东av| 1717国产精品久久| 亚洲国产精品国自产拍av在线| 中文字幕国产精品一二三四五区| 亚洲av无码精品色午夜| 精品的一区二区三区| 日本超级老熟女影音播放|