亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于語(yǔ)義分割的室外場(chǎng)景識(shí)別技術(shù)研究

        2022-03-15 10:34:22張怡萌余順年
        計(jì)算機(jī)仿真 2022年2期
        關(guān)鍵詞:實(shí)例標(biāo)簽語(yǔ)義

        張怡萌,陳 寧,余順年

        (集美大學(xué)機(jī)械與能源工程學(xué)院,福建 廈門 361021)

        1 引言

        隨著科技的發(fā)展,人工智能在計(jì)算機(jī)領(lǐng)域逐漸成為了研究的熱門話題,其在各個(gè)領(lǐng)域的應(yīng)用引起了人們的關(guān)注。近年來(lái),深度學(xué)習(xí)領(lǐng)域的創(chuàng)新發(fā)展,給計(jì)算機(jī)視覺帶來(lái)了新的突破性的研究。尤其是近年來(lái)對(duì)于計(jì)算機(jī)的發(fā)展有了更高的需求,需要計(jì)算機(jī)更加智能化和擬人化,能夠具備更強(qiáng)的邏輯處理能力進(jìn)行預(yù)判和分析。目前,計(jì)算機(jī)視覺技術(shù)多用于目標(biāo)檢測(cè)、識(shí)別以及跟蹤等方面。場(chǎng)景識(shí)別技術(shù)是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要的研究課題,而深度學(xué)習(xí)是近階段人工智能方向的研究熱點(diǎn)。

        場(chǎng)景識(shí)別技術(shù)經(jīng)歷了長(zhǎng)時(shí)間的發(fā)展,而傳統(tǒng)的場(chǎng)景識(shí)別技術(shù)在目前的應(yīng)用中存在很大的局限性。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,基于卷積神經(jīng)網(wǎng)絡(luò)的深度遷移學(xué)習(xí)技術(shù)應(yīng)用在場(chǎng)景識(shí)別中的研究已經(jīng)得到了廣泛的關(guān)注。

        隨著移動(dòng)機(jī)器人技術(shù)的發(fā)展,以及人們對(duì)于各種傳感器應(yīng)用的不斷理解,場(chǎng)景識(shí)別技術(shù)也逐漸由簡(jiǎn)單的室內(nèi)環(huán)境識(shí)別擴(kuò)展到場(chǎng)景更為復(fù)雜的室外環(huán)境識(shí)別。在室外移動(dòng)機(jī)器人和無(wú)人駕駛技術(shù)領(lǐng)域,利用環(huán)境感知、道路識(shí)別和場(chǎng)景理解成為了機(jī)器人領(lǐng)域的研究熱點(diǎn)。斯坦福大學(xué)的Mohan[1]結(jié)合了深度反卷積神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng),形成了一種用于場(chǎng)景分析的新網(wǎng)絡(luò)結(jié)構(gòu)。該研究使用多分塊訓(xùn)練,首先對(duì)場(chǎng)景信息有效地學(xué)習(xí),然后通過反卷積網(wǎng)絡(luò)對(duì)道路區(qū)域進(jìn)行像素級(jí)分割。rust等人[2]提出了一種卷積神經(jīng)網(wǎng)絡(luò),用于學(xué)習(xí)在像素級(jí)別區(qū)分不同的圖像塊和注釋卷積塊網(wǎng)絡(luò)。文章合并了圖像塊的空間信息,并將其作為網(wǎng)絡(luò)的輸入。同時(shí)將網(wǎng)格與模型結(jié)合,用于查找特定類型的像素位置。該方法將圖像塊進(jìn)行分類,并在KITTI 數(shù)據(jù)集進(jìn)行檢測(cè),得到了良好的效果。這種方法的主要優(yōu)點(diǎn)是可以提高各種場(chǎng)景下檢測(cè)結(jié)果的魯棒性,并提高檢測(cè)模型的適用性。

        本文針對(duì)傳統(tǒng)的室外場(chǎng)景識(shí)別技術(shù)魯棒性弱和識(shí)別精度低等問題,提出了一種基于語(yǔ)義分割的改進(jìn)的deeplabV3+算法的室外場(chǎng)景識(shí)別技術(shù)。該方法在深度學(xué)習(xí)的基礎(chǔ)上,嘗試?yán)酶倪M(jìn)后的K-近鄰算法對(duì)大量的特征點(diǎn)進(jìn)行檢索關(guān)鍵特征后提取與交叉匹配比對(duì),之后把提取到的信息,用語(yǔ)義分割的結(jié)果表達(dá)出來(lái)。本文在VOC2012和cityscapes兩個(gè)不同的數(shù)據(jù)集下使用改進(jìn)后的算法進(jìn)行檢測(cè),并用自定義建立的數(shù)據(jù)庫(kù)進(jìn)行室外場(chǎng)景的實(shí)驗(yàn)結(jié)果驗(yàn)證,對(duì)場(chǎng)景中的全部特征進(jìn)行識(shí)別,之后輸入未標(biāo)簽的新數(shù)據(jù)進(jìn)行匹配,從而實(shí)現(xiàn)室外場(chǎng)景的語(yǔ)義重建。

        2 語(yǔ)義分割結(jié)構(gòu)模型

        2.1 卷積神經(jīng)網(wǎng)絡(luò)

        深度學(xué)習(xí)(deep learning)的概念由加拿大的 G.E.Hinton 博士[3]在2006年提出,是一種基于深度置信網(wǎng)絡(luò)非監(jiān)督貪心逐層訓(xùn)練算法,將低層特征結(jié)合起來(lái)創(chuàng)建更抽象的高層特征。隨著深度學(xué)習(xí)研究?jī)?nèi)容不斷創(chuàng)新發(fā)展,目前已經(jīng)應(yīng)用在機(jī)器視覺、數(shù)據(jù)處理、視頻分析、智能駕駛和語(yǔ)言翻譯等眾多領(lǐng)域。2016年和人類世界圍棋冠軍進(jìn)行比賽DeepMind公司開發(fā)的AlphaGO[4],是深度學(xué)習(xí)的應(yīng)用潛力得到進(jìn)一步的挖掘。到目前,深度學(xué)習(xí)在數(shù)據(jù)、算法和模型上取得了驚人的進(jìn)展,也成功促使了人工智能技術(shù)大規(guī)模的發(fā)展和應(yīng)用。

        卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)是基于深度學(xué)習(xí)理論的一種人工神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)可省去圖像預(yù)處理與特征抽取等步驟,將數(shù)據(jù)作為輸入[5]。源于仿生學(xué)的啟發(fā),在二十世紀(jì)六十年代初,Hubel 和 Wiesel 以貓為對(duì)象實(shí)施了視覺實(shí)驗(yàn),研究提出了視覺皮層功能分層模型[6]。CNN的基本結(jié)構(gòu)為:輸入層、卷積層(convolutional layer)、池化層(pooling layer)、全連接層及輸出層。在卷積神經(jīng)網(wǎng)絡(luò)中,卷積層和池化層通常有多個(gè),并且采用交替設(shè)置。

        2.2 模型選擇與模型簡(jiǎn)介

        本文比對(duì)了各模型在PASCAL VOC2012測(cè)試集的MIOU,如表1所示,DeeplabV3+的準(zhǔn)確率MIOU值要高于其它幾種神經(jīng)網(wǎng)絡(luò)。

        表1 各個(gè)語(yǔ)義分割框架在PASCAL VOC2012數(shù)據(jù)集上

        因此,本文基于deeplabV3+框架進(jìn)行實(shí)驗(yàn),使用一種改進(jìn)后的K-近鄰算法對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行優(yōu)化,同原始的神經(jīng)網(wǎng)絡(luò)實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)照。

        2.2.1 deeplabV3+網(wǎng)絡(luò)結(jié)構(gòu)

        2015年,谷歌發(fā)布了DeepLab模型。經(jīng)過不斷的改進(jìn)以及優(yōu)化卷及神經(jīng)網(wǎng)絡(luò),將模型升級(jí)為DeepLab-V2[7]和DeepLab-V3[8],新的模型具有更強(qiáng)大的建模技術(shù)以及特征提取功能。隨后,谷歌在DeepLab-V3的基礎(chǔ)添加了一個(gè)簡(jiǎn)單高效的解碼器模塊[9]用于優(yōu)化分割后的特征目標(biāo),主要用于特征目標(biāo)的邊界優(yōu)化,并將更新后的模型命名為DeepLab-V3+[10],同時(shí)對(duì)多孔金字塔池化(ASPP)[11-13]和解碼器模塊使用可分離的卷積神經(jīng)網(wǎng)絡(luò),從而為語(yǔ)義分割提供了一個(gè)計(jì)算速度更快、分割能力更強(qiáng)的網(wǎng)絡(luò)結(jié)構(gòu)。

        Deeplabv3+采用編碼器-解碼器的方式,編碼器部分使用Xception網(wǎng)絡(luò)[14]作為基礎(chǔ)網(wǎng)絡(luò)進(jìn)行特征提取。Xception網(wǎng)絡(luò)是一種深度可分離的卷積網(wǎng)絡(luò)。為了解決物體魯棒分割問題,該算法引入了 ASPP 模塊。將圖像輸入進(jìn)該算法中時(shí),首先經(jīng)過卷積網(wǎng)絡(luò)得到一個(gè)初始的特征圖,然后將特征圖輸入到一個(gè)1*1的卷積層中,以降低特征圖的層次。其目的是減少特征圖的通道(這里由256通道減少為48通道)。解碼器部分將低層次功能特征與高層次功能特征結(jié)合到一起,將編碼器中處理后的特征圖再次輸入進(jìn)一個(gè)1*1的卷積中,得到一個(gè)更低層次的特征圖,再次減少特征圖通道數(shù),然后使用4x插值采樣實(shí)現(xiàn)雙線性特征圖合并。最后經(jīng)過3*3卷積操作后采用4倍的雙線性插值,以恢復(fù)原始圖像的分辨率并獲得與原始圖像相同的尺寸的分割后的圖片。

        2.2.2 K-近鄰算法

        K-近鄰(K-Nearest Neighbor,K-NN)[15]是求解分類問題的一種常用算法,是數(shù)據(jù)挖掘算法的一種。簡(jiǎn)單表示為:輸入一個(gè)新的未添加標(biāo)簽的數(shù)據(jù),然后在原始訓(xùn)練集標(biāo)簽數(shù)據(jù)與該輸入數(shù)據(jù)最相似的K個(gè)標(biāo)簽,并且根據(jù)找到的這K個(gè)標(biāo)簽,來(lái)確定新數(shù)據(jù)集的分類。

        K-近鄰方法是一種原理相對(duì)簡(jiǎn)單且易于實(shí)現(xiàn)的分類識(shí)別算法。并且具有在K個(gè)近鄰樣本數(shù)和訓(xùn)練樣本總數(shù)N都趨近無(wú)窮大時(shí)并且k/N→0時(shí),能夠保證K-近鄰規(guī)則是最優(yōu)的分類準(zhǔn)則等良好特性。但是,也存在著明顯的不足,K-近鄰算法在解決實(shí)際模式分類的問題時(shí),K-近鄰算法在分類過多時(shí),識(shí)別精度會(huì)有所下降,但可以通過增加樣本的數(shù)量,提高識(shí)別精度。因此,本文選擇采用K-近鄰方法來(lái)輔助深度學(xué)習(xí)系統(tǒng)進(jìn)行室外場(chǎng)景識(shí)別實(shí)驗(yàn)。

        按照該算法的基本思路,以本次實(shí)驗(yàn)的分類問題為例,在給出新的實(shí)例之后,根據(jù)與該實(shí)例相似度的訓(xùn)練樣本,選擇出該訓(xùn)練樣本與預(yù)測(cè)樣本的距離d的K個(gè)取值,并依據(jù)K的取值來(lái)確定新的實(shí)例:在運(yùn)算過程中,系統(tǒng)會(huì)輸出連續(xù)的坐標(biāo)(X1,y1),(X2,y2),…,(Xn,yn),其中,Xi是該實(shí)例的特征向量表示,yi則是實(shí)例Xi對(duì)應(yīng)的類別。對(duì)于給定的實(shí)例,使用K-近鄰算法對(duì)樣本的預(yù)測(cè)估計(jì)可以表示為

        (1)

        其中,Lk(x)表示與實(shí)例X最相似的K個(gè)實(shí)例。

        為了提高算法的精度,本文對(duì)K-近鄰算法的相似度計(jì)算方法進(jìn)行了改進(jìn)工作,即,對(duì)每個(gè)實(shí)例進(jìn)行權(quán)重計(jì)算,具體體現(xiàn)為對(duì)于相似度的計(jì)算,考慮到測(cè)量的接收信號(hào)強(qiáng)度,提高接近度高的訓(xùn)練樣本的估計(jì)權(quán)值,考慮到多種算法的復(fù)雜程度以及準(zhǔn)確率。本文選擇使用歐式距離來(lái)代替原算法進(jìn)行相似度的計(jì)算

        (2)

        為了提高訓(xùn)練樣本的估計(jì)權(quán)值,本文的權(quán)值選擇使用訓(xùn)練實(shí)例間的歐氏距離的倒數(shù),其中,第i個(gè)近鄰的權(quán)值設(shè)置為

        (3)

        歐式距離的冪次越高,與預(yù)測(cè)樣本差別較大的樣本在訓(xùn)練時(shí)發(fā)揮的作用就越小,對(duì)預(yù)測(cè)樣本的估計(jì)可以表示為

        (3)

        在確定實(shí)例的K-近鄰后,計(jì)算每個(gè)實(shí)例的決策權(quán)重,根據(jù)決策權(quán)重的大小,判斷其在預(yù)測(cè)的類別歸屬時(shí)發(fā)揮作用的大小[16]。

        2.2.3 本文選取的模型

        為了提高deeplabV3+的識(shí)別精度,本文的主要目的是在原有的開源deeplabV3+算法中加入K-近鄰算法進(jìn)行改進(jìn),如圖1使所示:在實(shí)驗(yàn)前,要對(duì)自己的數(shù)據(jù)集進(jìn)行標(biāo)簽工作,由于數(shù)據(jù)集樣本數(shù)量比較大,因此標(biāo)簽工作非常復(fù)雜繁瑣,為解決此問題,本文在對(duì)數(shù)據(jù)進(jìn)行處理時(shí),針對(duì)于數(shù)據(jù)集的處理工作,引入非監(jiān)督學(xué)習(xí)的概念,使用K-近鄰算法對(duì)公開數(shù)據(jù)集進(jìn)行特征提取分類,然后把分類結(jié)果應(yīng)用于deeplabV3+測(cè)試算法中,進(jìn)行對(duì)自定義數(shù)據(jù)集的識(shí)別測(cè)試工作。改進(jìn)后的模型算法,如圖2所示。

        圖1 算法流程

        圖2 改進(jìn)后的deeplabV3+模型框架

        3 基于語(yǔ)義分割的室外場(chǎng)景識(shí)別

        3.1 改進(jìn)的deepLabV3+進(jìn)行語(yǔ)義分割實(shí)驗(yàn)

        訓(xùn)練數(shù)據(jù)集采用開源的VOC2012數(shù)據(jù)集、cityscapes數(shù)據(jù)集以及自定義采集的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。對(duì)于自己采集的數(shù)據(jù)集,由于樣本數(shù)量較少,因此利用數(shù)據(jù)增強(qiáng)方式對(duì)數(shù)據(jù)進(jìn)行擴(kuò)充。擴(kuò)充后的數(shù)據(jù)集樣本數(shù)量增加,大量的樣本使得訓(xùn)練能夠更加準(zhǔn)確多樣性,有效防止訓(xùn)練過程中由于樣本不足導(dǎo)致的過擬合現(xiàn)象,模型的魯棒性也能得到提升。

        如圖3所示,本次實(shí)驗(yàn)所拍攝的圖片為校園及周邊環(huán)境,共采集圖片800張,圖像采集時(shí)設(shè)計(jì)包括晝夜、雨天等不同環(huán)境下的室外場(chǎng)景。樣本集隨機(jī)選取 600 張圖像生成訓(xùn)練集,其余 200 張圖像則作為測(cè)試集。

        圖3 部分?jǐn)?shù)據(jù)集示例

        為了使測(cè)試結(jié)果更具有說(shuō)服力,考慮對(duì)采集到的數(shù)據(jù)集進(jìn)行數(shù)據(jù)擴(kuò)增。本次實(shí)驗(yàn)分別從COCO數(shù)據(jù)集和KITTI數(shù)據(jù)集中各分選出1500張適合本次實(shí)驗(yàn)的室外環(huán)境的圖片,加入進(jìn)自定義的數(shù)據(jù)集中進(jìn)行擴(kuò)充。擴(kuò)充后的數(shù)據(jù)集樣本容量為3800張圖片,其中2850張為訓(xùn)練集,其余950張圖片作為測(cè)試集使用。

        目前的deeplabV3+實(shí)驗(yàn)方法需要采用人工標(biāo)注和輔助標(biāo)注結(jié)合的方式對(duì)集裝箱數(shù)據(jù)集進(jìn)行標(biāo)注,人工標(biāo)注主要使用labeIme樣本目標(biāo)標(biāo)注軟件,利用該軟件進(jìn)行自定義標(biāo)注時(shí),需要按照目標(biāo)的形狀進(jìn)行輪廓描繪,可生成所需要的json文件,然后通過編程語(yǔ)言把json文件轉(zhuǎn)換為后面訓(xùn)練所需要的png格式的語(yǔ)義圖片,labelme操作界面如圖4所示,圖片生成結(jié)果如圖5所示。

        圖4 labelme標(biāo)注效果

        圖5 標(biāo)簽轉(zhuǎn)換后生成的圖片

        考慮訓(xùn)練集中的屬性分布,以及考慮到某些屬性不能使用語(yǔ)義分割將屬性分割并可視化。

        本文改進(jìn)的算法需要先對(duì)原有數(shù)據(jù)集進(jìn)行訓(xùn)練,VOC數(shù)據(jù)集測(cè)試結(jié)果如圖6所示,僅對(duì)物體進(jìn)行無(wú)背景的分割,且VOC數(shù)據(jù)集與本次實(shí)驗(yàn)環(huán)境重合度不高,通過對(duì)比自定義數(shù)據(jù)集與VOC數(shù)據(jù)集樣本中的特征,提取出比對(duì)結(jié)果中相似度最高的樣本的分類標(biāo)簽,最終選取了6個(gè)屬性。具體屬性值見表2。

        圖6 VOC數(shù)據(jù)集測(cè)試結(jié)果

        表2 自制數(shù)據(jù)集與VOC數(shù)據(jù)集相似分類標(biāo)簽

        使用Cityscapes數(shù)據(jù)集進(jìn)行測(cè)試的結(jié)果如圖7所示,Cityscapes數(shù)據(jù)集樣本由多個(gè)國(guó)家的不同街道環(huán)境組成,數(shù)據(jù)集樣本容量大,且與本次實(shí)驗(yàn)的環(huán)境類別重合度較高,通過對(duì)比自定義數(shù)據(jù)集樣本中的特征與Cityscapes數(shù)據(jù)集對(duì)應(yīng),提取出比對(duì)結(jié)果中相似度最高的樣本的分類標(biāo)簽,最終選取了12個(gè)屬性。具體屬性值見表3。

        圖7 Cityscapes數(shù)據(jù)集測(cè)試結(jié)果

        表3 自制數(shù)據(jù)集與Cityscapes數(shù)據(jù)集相似分類標(biāo)簽

        由于VOC數(shù)據(jù)集的樣本分類標(biāo)簽屬性相對(duì)較少,而且沒有分離背景,因此不太適用于本次實(shí)驗(yàn)的室外場(chǎng)景環(huán)境檢測(cè)中,而cityscapes數(shù)據(jù)集樣本是城市景觀,大多為街道環(huán)境,而且分類標(biāo)簽與本次實(shí)驗(yàn)的實(shí)驗(yàn)場(chǎng)景環(huán)境相似性更高,分類標(biāo)簽屬性也更多更適合于本次實(shí)驗(yàn)環(huán)境。

        3.2 模型訓(xùn)練及訓(xùn)練結(jié)果

        本次實(shí)驗(yàn)在ubuntu16.04桌面版系統(tǒng)下進(jìn)行,在深度學(xué)習(xí)框TensorFlow下進(jìn)行deeplabV3+和FCN的語(yǔ)義分割算法,計(jì)算機(jī)處理器為Inter(R)Core(TM)i7-7700K CPU@4.20GHz,內(nèi)存8GB,適配器為NVIDIA GeForce GTX 1080GPU。CUDA9.0版本并行計(jì)算框架配合CUDNN9.0版本是深度神經(jīng)網(wǎng)絡(luò)加速庫(kù),使用python版本為3.6.8。

        本文選擇使用Xception65網(wǎng)絡(luò)模型來(lái)初始化網(wǎng)絡(luò)參數(shù),并基于deeplabV3+的python版本進(jìn)行模型的訓(xùn)練和測(cè)試,通過對(duì)應(yīng)網(wǎng)絡(luò)的配置文件修改訓(xùn)練策略參數(shù),其主要的訓(xùn)練策略如表4所示。

        表4 主要訓(xùn)練策略

        本次實(shí)驗(yàn)從GitHub上下載了deeplabV3+的源碼。首先對(duì)于數(shù)據(jù)集的處理,TensorFlow使用TFrecord格式來(lái)進(jìn)行數(shù)據(jù)存儲(chǔ),T并且提供了豐富的函數(shù)方法對(duì)數(shù)據(jù)進(jìn)行預(yù)處理工作。其對(duì)于模型進(jìn)行初始化參數(shù)的設(shè)置,由于計(jì)算資源的限制,本實(shí)驗(yàn)首先使用deeplabV3+網(wǎng)絡(luò)模型訓(xùn)練了VOC數(shù)據(jù)集以及cityscapes數(shù)據(jù)集,對(duì)數(shù)據(jù)集對(duì)應(yīng)特征進(jìn)行比較之后,使用改進(jìn)后的K-鄰近算法提取出樣本最相似的分類標(biāo)簽,本次實(shí)驗(yàn)中,基礎(chǔ)的學(xué)習(xí)率設(shè)置為0.0001,學(xué)習(xí)率下降策略選擇使用poly,batch_size設(shè)置為12,權(quán)重衰減設(shè)置為0.0004,output_stride設(shè)置為4,對(duì)應(yīng)的空洞金字塔的3個(gè)空洞卷積參數(shù)分別設(shè)置為8,12,16。

        使用改進(jìn)后的算法對(duì)自定義的訓(xùn)練集和測(cè)試集進(jìn)行訓(xùn)練,獲得模型的參數(shù)。實(shí)驗(yàn)過程中,生成的損失率隨著時(shí)間的增加在不斷降低,當(dāng)降低到一定的范圍時(shí),損失率得到相對(duì)穩(wěn)定的區(qū)間,取區(qū)間的最低點(diǎn),得到的參數(shù)為損失率最小值。圖8所示為訓(xùn)練過程的網(wǎng)絡(luò)總損失值的變化曲線。圖9所示為整個(gè)訓(xùn)練過程的學(xué)習(xí)率變化曲線。

        圖8 網(wǎng)絡(luò)總損失值的變化曲線

        圖9 學(xué)習(xí)率變化曲線

        圖中可以看出,在迭代次數(shù)大約40000次時(shí),損失函數(shù)值開始趨近于穩(wěn)定,其中,隨著學(xué)習(xí)步數(shù)的不斷增加,學(xué)習(xí)率逐漸趨近于0,而總損失值逐漸趨近于0.4。

        展示模型識(shí)別效果圖,輸入為一張圖片,輸出為一張語(yǔ)義分割圖,分割效果如圖10所示。

        圖10 改進(jìn)后的算法語(yǔ)義分割效果圖

        3.3 評(píng)價(jià)指標(biāo)

        Precision即準(zhǔn)確率,是在識(shí)別所有的實(shí)例時(shí),系統(tǒng)識(shí)別出來(lái)的所有的實(shí)例A所占的比例,其公式為

        (5)

        Recall即召回率,是在識(shí)別出來(lái)的所有的實(shí)例A中,識(shí)別出來(lái)正確的A所占的比例,其公式為

        (6)

        以實(shí)例B為例,簡(jiǎn)單說(shuō)明TP、FP、FN的釋義。TP表示數(shù)據(jù)集中的實(shí)例B被正確識(shí)別為實(shí)例B;FP表示數(shù)據(jù)集中的實(shí)例B被識(shí)別成了實(shí)例C或者其它非B實(shí)例;FN表示數(shù)據(jù)集中的其它非B實(shí)例被識(shí)別為實(shí)例B。

        AP即平均精度(Average-Precision),簡(jiǎn)單來(lái)說(shuō),AP就是Precision-Recall曲線(P-R曲線)的面積,通常情況下,分類的準(zhǔn)確率越高,AP值越高。

        改進(jìn)后的語(yǔ)義分割結(jié)果與原本的deeplabV3+網(wǎng)絡(luò)相比,識(shí)別結(jié)果分析如表5、圖11所示:

        表5 實(shí)驗(yàn)結(jié)果

        圖11 改進(jìn)前后結(jié)果對(duì)比示意圖

        3.4 結(jié)果分析

        本次實(shí)驗(yàn)是在測(cè)試公開數(shù)據(jù)集結(jié)果的基礎(chǔ)上測(cè)試自定義數(shù)據(jù)集,與現(xiàn)有的測(cè)試數(shù)據(jù)集的方法不同,省去了對(duì)數(shù)據(jù)集進(jìn)行標(biāo)簽的工作,減少了大量的前期準(zhǔn)備工作,節(jié)省了實(shí)驗(yàn)的時(shí)間,輸入新的未添加標(biāo)簽的數(shù)據(jù)后,將該數(shù)據(jù)中能夠提取出來(lái)的每個(gè)特征與實(shí)驗(yàn)中訓(xùn)練過的樣本中的生成的特征信息進(jìn)行對(duì)應(yīng)比較。

        試驗(yàn)結(jié)果表明,改進(jìn)后的語(yǔ)義識(shí)別方法比現(xiàn)有的直接使用deeplabV3+算法進(jìn)行語(yǔ)義識(shí)別相比,縮短了訓(xùn)練時(shí)間,提升了訓(xùn)練精度。原本的方法在采集數(shù)據(jù)集之后花費(fèi)了大量的時(shí)間在標(biāo)簽工作上,改進(jìn)后的訓(xùn)練算法則避免了這一繁瑣的過程,通過K-近鄰算法計(jì)算過相似性之后在進(jìn)行結(jié)果輸出的方式,比原本的直接輸出方式的準(zhǔn)確率有提高,而且工作效率也有所提高,使室外場(chǎng)景的語(yǔ)義識(shí)別效果得到提升。

        4 結(jié)束語(yǔ)

        本文運(yùn)用了深度學(xué)習(xí)的原理,提出了一種基于語(yǔ)義分割的室外場(chǎng)景識(shí)別方法,該方法主要通過進(jìn)行實(shí)驗(yàn)來(lái)確認(rèn)環(huán)境的語(yǔ)義識(shí)別結(jié)果,同時(shí)對(duì)改進(jìn)后的deeplabV3+算法與原本的算法進(jìn)行對(duì)比試驗(yàn),得到相對(duì)較好的結(jié)果。本次實(shí)驗(yàn)發(fā)現(xiàn)改進(jìn)后的算法在可行性上提供了有力的支撐,由于原本的算法在對(duì)自定義數(shù)據(jù)集進(jìn)行訓(xùn)練之前要經(jīng)過繁瑣的標(biāo)簽過程,而改進(jìn)后的算法在原本深度學(xué)習(xí)的基礎(chǔ)上引入了一種改進(jìn)后K-近鄰算法的概念,去掉了前期標(biāo)注的過程,引入分類標(biāo)簽,利用原有數(shù)據(jù)集與自定義數(shù)據(jù)集樣本的相似特征進(jìn)行實(shí)驗(yàn),減少了算法的前期準(zhǔn)備時(shí)間,提高了識(shí)別的準(zhǔn)確率以及算法工作的效率。

        最終的實(shí)驗(yàn)結(jié)果證實(shí)了本文的實(shí)驗(yàn)方案是可行的,同時(shí)有效的提升了工作效率,為后續(xù)進(jìn)行室外場(chǎng)景的語(yǔ)義分割提供了可行性。

        本文的實(shí)驗(yàn)方案雖然能提升室外場(chǎng)景語(yǔ)義分割的速度和效率,但是識(shí)別精度以及準(zhǔn)確性仍有一定的誤差,這對(duì)于實(shí)時(shí)檢測(cè)還是能造成一定的影響,下一步的研究工作可以考慮在保證準(zhǔn)確率的同時(shí)能夠提高訓(xùn)練速度以及減小實(shí)時(shí)識(shí)別的誤差影響。

        猜你喜歡
        實(shí)例標(biāo)簽語(yǔ)義
        語(yǔ)言與語(yǔ)義
        無(wú)懼標(biāo)簽 Alfa Romeo Giulia 200HP
        車迷(2018年11期)2018-08-30 03:20:32
        不害怕撕掉標(biāo)簽的人,都活出了真正的漂亮
        海峽姐妹(2018年3期)2018-05-09 08:21:02
        “上”與“下”語(yǔ)義的不對(duì)稱性及其認(rèn)知闡釋
        標(biāo)簽化傷害了誰(shuí)
        基于多進(jìn)制查詢樹的多標(biāo)簽識(shí)別方法
        認(rèn)知范疇模糊與語(yǔ)義模糊
        完形填空Ⅱ
        完形填空Ⅰ
        語(yǔ)義分析與漢俄副名組合
        伊人久久大香线蕉av色婷婷色| 日韩精品极品视频在线免费| 国产二区中文字幕在线观看 | 国产视频一区2区三区| 日韩精品人妻中文字幕有码| 精品亚洲成a人在线观看青青| 亚洲AV无码久久精品国产老人| 日韩精品视频中文字幕播放| 久久亚洲av成人无码国产最大| 国产精品久久国产三级国不卡顿| 无码精品色午夜| 69久久精品亚洲一区二区| 制服丝袜一区二区三区| 精品一区二区三区免费播放 | 麻豆一区二区三区蜜桃免费| 日韩精品成人一区二区三区| 在线观看视频日本一区二区三区 | 国产精品女同一区二区久| 日本一二三区免费在线| 麻豆╳╳╳乱女另类| 中文字幕亚洲无线码在一区| 一区二区三区国产偷拍| 亚洲av午夜一区二区三| 成人免费一区二区三区| 乱人伦人妻中文字幕无码| 麻豆国产精品久久天堂| 亚洲av无码一区东京热久久| 亚洲中文字幕无码久久| 色婷婷久久免费网站| 色婷婷久久综合中文蜜桃| 香港三日本三级少妇三级视频| 国产激情对白一区二区三区四| 亚洲午夜精品国产一区二区三区| 国产午夜精品久久精品| 亚州国产av一区二区三区伊在| 综合久久给合久久狠狠狠97色| 色人阁第四色视频合集网| 开心五月天第四色婷婷| 国产做a爱片久久毛片a片| 粉嫩高中生无码视频在线观看| 久久亚洲乱码中文字幕熟女|