亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        融合多尺度特征的前景分割方法在高壓開關(guān)柜異物遮擋檢測中的應(yīng)用

        2021-08-06 05:24:18姜鴻飛晏忠泰楊科彭德中
        現(xiàn)代計(jì)算機(jī) 2021年16期
        關(guān)鍵詞:特征檢測模型

        姜鴻飛,晏忠泰,楊科,彭德中

        (1. 四川大學(xué)計(jì)算機(jī)學(xué)院,成都 610065;2. 中國煙草總公司四川省公司專賣監(jiān)督管理處,成都 610094;3. 中國煙草總公司四川省公司法規(guī)處,成都 610094)

        0 引言

        變電站是電力系統(tǒng)中電力輸送和轉(zhuǎn)換的樞紐,在整個(gè)電力系統(tǒng)中有著非常重要的作用,變電站中的高壓開關(guān)柜控制和保護(hù)著電力的傳輸與配送,需要對(duì)其運(yùn)行狀態(tài)進(jìn)行實(shí)時(shí)的檢查。由于開關(guān)柜元器件設(shè)備種類繁多且狀態(tài)復(fù)雜,傳統(tǒng)中對(duì)開關(guān)柜的檢查依靠人力巡視來實(shí)現(xiàn),其中一項(xiàng)重要的任務(wù)是檢查開關(guān)柜是否有被異物覆蓋;與此同時(shí),近年來隨著智能化的推廣,越來越多的變電站采用無人化的智能巡檢實(shí)現(xiàn)對(duì)變電站設(shè)備尤其是高壓開關(guān)柜的檢查,基于監(jiān)控圖像利用計(jì)算機(jī)視覺的方法進(jìn)行狀態(tài)識(shí)別是最常用的實(shí)現(xiàn)方法之一,而在進(jìn)行狀態(tài)識(shí)別之前,也有必要首先進(jìn)行一次異物的遮擋檢測確保算法可以得到完整的設(shè)備圖像。

        恒定環(huán)境狀態(tài)下的開關(guān)柜異物遮擋檢測本不是一件非常困難的事情,然而當(dāng)環(huán)境光變化較大、攝像頭分辨率低且畸變嚴(yán)重等情況下,情況將變得比較復(fù)雜,一些傳統(tǒng)的異常檢測方法在這樣的環(huán)境下容錯(cuò)率將變得很低。為了解決這個(gè)問題,本文嘗試將視頻中運(yùn)動(dòng)目標(biāo)檢測的基于深度神經(jīng)網(wǎng)絡(luò)的前景分割方法應(yīng)用于靜態(tài)視頻幀的異物遮擋檢測,并通過實(shí)驗(yàn)驗(yàn)證其可行性。

        1 相關(guān)工作

        1.1 異物檢測

        異物檢測是一項(xiàng)常見的圖像處理與計(jì)算機(jī)視覺的任務(wù),廣泛應(yīng)用于鐵路侵限異物檢測、電力系統(tǒng)輸電線異物檢測、溶液異物檢測等場景。

        基于傳統(tǒng)計(jì)算機(jī)視覺算法的異物檢測方法大量應(yīng)用于這些場景,例如,在變電站智能巡檢機(jī)器人異物檢測任務(wù)中,趙小魚等人[1]針對(duì)巡檢機(jī)器人拍攝的圖像存在視角變化的問題,首先從圖像中提取SIFT特征并在模板圖片中進(jìn)行配準(zhǔn),然后再對(duì)圖像進(jìn)行二值化處理,利用“不變矩”算法進(jìn)行相似度評(píng)價(jià),從而對(duì)圖像中是否存在異物進(jìn)行判斷;在輸電線異物檢測任務(wù)中,Huang等人[2]將任務(wù)分為兩步,首先采用基于LSD的級(jí)聯(lián)拓?fù)錇V波提取出輸電線的輪廓,并通過線段聚類來找出輸電線區(qū)域,然后利用顯著性計(jì)算來提取輸電線區(qū)域上的異物;針對(duì)無人機(jī)拍攝圖像,Cao等人[3]利用OTSU閾值分割方法對(duì)圖像進(jìn)行二值化將待測輸電線從天空等背景中提取出來,然后運(yùn)用形態(tài)學(xué)閉合運(yùn)算結(jié)合形態(tài)學(xué)特征約束方法將異物從前景中分割出來實(shí)現(xiàn)異物的檢測。這些傳統(tǒng)異物檢測算法的設(shè)計(jì)通常依賴于特定的應(yīng)用場景,并且對(duì)于復(fù)雜場景檢測效果欠佳。

        近幾年,許多研究嘗試將深度學(xué)習(xí)目標(biāo)檢測方法應(yīng)用于異物檢測,例如,Wang等人[4]將SSD、DPM和R-CNN三種目標(biāo)檢測模型應(yīng)用于輸電線異物檢測,通過實(shí)驗(yàn)對(duì)比驗(yàn)證了深度學(xué)習(xí)目標(biāo)檢測方法在異物檢測任務(wù)中的可行性;Li等人[5]在YOLOv3網(wǎng)絡(luò)的基礎(chǔ)上,結(jié)合深度可分卷積和特征金字塔提出了用于檢測飛機(jī)機(jī)身、發(fā)動(dòng)機(jī)葉片等結(jié)構(gòu)裂紋的檢測網(wǎng)絡(luò)YOLOv3-lite,在幾乎不損失精度的情況下大幅提高了檢測速度。然而,目標(biāo)檢測算法通常適用于檢測預(yù)先指定的異物類型,并不適用于檢測模型未見過的隨機(jī)異物。

        1.2 前景分割

        監(jiān)控視頻中的運(yùn)動(dòng)目標(biāo)分割近年來是計(jì)算機(jī)視覺領(lǐng)域一項(xiàng)研究熱點(diǎn),在交通車輛跟蹤、行人動(dòng)作識(shí)別、異常行為檢測等場景有著廣泛的應(yīng)用,一種主流的方法是前景分割。傳統(tǒng)方法多采用背景建模,例如Stauffer和Grimson[6]最早使用高斯混合模型(GMM)對(duì)視頻幀中的背景像素進(jìn)行概率建模,此后基于高斯混合模型的背景減除法憑借其優(yōu)秀的自適應(yīng)能力和分割性能得到廣泛的關(guān)注,至今仍然是主流的前景分割方法之一,該方法需要通過連續(xù)的視頻幀來更新背景模型,也因此在靜態(tài)視頻幀的分割任務(wù)中效果欠佳。

        近年來深度學(xué)習(xí)在計(jì)算機(jī)視覺各領(lǐng)域任務(wù)大放異彩,也包括運(yùn)動(dòng)目標(biāo)分割任務(wù)。Braham和VanDroogenbroeck[7]首次將卷積神經(jīng)網(wǎng)絡(luò)(CNN)應(yīng)用于前景分割,提出了ConvNet模型,該模型提取每個(gè)像素周圍的圖像塊(Imagepatches)結(jié)合對(duì)應(yīng)的背景模型圖像塊輸入網(wǎng)絡(luò)對(duì)該像素進(jìn)行分類,判斷該像素是否屬于前景,但受限于圖像塊的大小,模型對(duì)于大目標(biāo)分割效果不佳。針對(duì)這個(gè)問題,Wang等人[8]提出了一個(gè)多尺度輸入的級(jí)聯(lián)分割網(wǎng)絡(luò)模型,通過輸入三個(gè)尺度的輸入提高大尺寸目標(biāo)的分割準(zhǔn)確率,并利用網(wǎng)絡(luò)級(jí)聯(lián)取代條件隨機(jī)場(CRF)來提高像素間的關(guān)聯(lián)關(guān)系,大幅度提高了分割精度,但這種基于圖像塊的像素分類模型主要適用于前景物體在顏色、尺寸以及形狀等相似的情況,對(duì)于差異較大的物體分割效果較差。于是,Lim和Keles[9]在多尺度輸入結(jié)構(gòu)的基礎(chǔ)上,提出了一種基于encoder-decoder結(jié)構(gòu)的分割網(wǎng)絡(luò)FgSegNet,通過decoder網(wǎng)絡(luò)生成前景概率圖,有效地提高了在前景物體差異較大時(shí)的分割能力;隨后,Lim和Keles[10]在FeSegNet模型基礎(chǔ)上引入了特征池化模塊(FPM)取代多尺度輸入,提出FgSegNet-S模型,在不損失分割精度的基礎(chǔ)上有效降低了計(jì)算復(fù)雜度。

        1.3 本文方法

        變電站高壓開關(guān)柜的異物遮擋檢測難點(diǎn)主要有四點(diǎn):

        (1)復(fù)雜的背景環(huán)境,包括擁有許多顏色、形狀各不相同元器件的開關(guān)柜面板,隨時(shí)都有可能發(fā)生狀態(tài)改變的元器件,以及不穩(wěn)定的環(huán)境光,會(huì)對(duì)異物檢測產(chǎn)生干擾;

        (2)異物的種類是隨機(jī)的,在顏色、形狀、尺寸等特征上差別較大,部分異物與背景的開關(guān)柜面板中的元器件特征相似,難以通過一種有效的特征進(jìn)行描述;

        (3)攝像頭可能會(huì)產(chǎn)生焦距、對(duì)焦位置、旋轉(zhuǎn)位置的變化;

        (4)缺乏有效的訓(xùn)練數(shù)據(jù)集。

        以上,傳統(tǒng)的計(jì)算機(jī)視覺算法難以有效適應(yīng)復(fù)雜背景,基于深度學(xué)習(xí)的目標(biāo)檢測算法難以檢測隨機(jī)異物,現(xiàn)有方法無法滿足該場景下的異物遮擋檢測;考慮異物檢測的目標(biāo),即從相對(duì)固定但存在部分光線和干擾物變化的背景中將前景的遮擋異物檢測出來,與運(yùn)動(dòng)目標(biāo)分割任務(wù)的目標(biāo)相似,于是考慮將運(yùn)動(dòng)目標(biāo)分割任務(wù)中的基于深度神經(jīng)網(wǎng)絡(luò)的前景分割方法應(yīng)用于異物檢測。

        本文嘗試以FgSetNet-S[10]為基礎(chǔ)模型,針對(duì)異物形狀和尺寸多樣的問題,引入多尺度特征融合,針對(duì)缺乏有效數(shù)據(jù)集的問題,人工合成開關(guān)柜異物分割數(shù)據(jù)集,并通過實(shí)驗(yàn)驗(yàn)證模型的可行性。實(shí)驗(yàn)表明,本文所述模型相比其他模型在異物分割數(shù)據(jù)集上擁有更好的分割效果。

        2 模型結(jié)構(gòu)

        模型由特征提取器、多尺度特征卷積模塊和反卷積解碼器三個(gè)部分組成,如圖1所示。

        圖1 模型總體結(jié)構(gòu)圖

        2.1 特征提取

        特征提取器用于提取輸入圖像的特征,并用于后續(xù)的高層次語義操作。卷積神經(jīng)網(wǎng)絡(luò)在圖像特征提取方面的能力大大強(qiáng)于傳統(tǒng)基于手工設(shè)計(jì)的圖像特征提取器,例如在場景語義分割網(wǎng)絡(luò)SegNet[11]中,模型采用了修改的VGG16[12]網(wǎng)絡(luò)作為特征提取器,該網(wǎng)絡(luò)移除了VGG16網(wǎng)絡(luò)中的全連接層,保留了所有的卷積層和池化層,并設(shè)計(jì)了與之結(jié)構(gòu)對(duì)稱的decoder網(wǎng)絡(luò)。鑒于異物分割任務(wù)的特殊性,為了防止基于單一背景的數(shù)據(jù)訓(xùn)練產(chǎn)生模型過擬合,本文所述模型采用的特征提取器在移除VGG16網(wǎng)絡(luò)全連接層后,繼續(xù)移除第4、5卷積塊,僅保留前3層卷積塊。3層卷積塊分別輸出3個(gè)尺度的特征圖,這些特征圖將被用于后續(xù)的多尺度特征融合。

        2.2 多尺度特征卷積

        輸入圖像經(jīng)過特征提取網(wǎng)絡(luò)多次卷積運(yùn)算提取特征之后,在網(wǎng)絡(luò)的輸出層轉(zhuǎn)化為高維度特征圖,高維度特征圖包含豐富的圖像語義信息,但會(huì)由于經(jīng)過了多次池化采樣操作而在一定程度上丟失一些細(xì)節(jié)信息,不利于模型對(duì)小尺寸的目標(biāo)進(jìn)行分割。FgSegNet-S[10]通過特征池化模塊(FPM),運(yùn)用膨脹卷積,在最后一層特征圖進(jìn)行運(yùn)算得到5個(gè)感受野不同的特征圖,并合并為最終的多尺度特征圖,但膨脹卷積僅擴(kuò)大了感受野,并未針對(duì)小目標(biāo)的分割有實(shí)質(zhì)提升。于是,本文提出多尺度特征卷積模塊,在特征池化模塊(FPM)的核心結(jié)構(gòu)基礎(chǔ)上,融合低層特征,以期同時(shí)針對(duì)大尺寸目標(biāo)和小尺寸目標(biāo)進(jìn)行效果提升。

        多尺度特征卷積模塊如圖2所示,特征提取模塊輸出了三個(gè)尺度的特征層,定義為F1、F2、F3,三者尺寸相對(duì)于輸入圖像分別為1/2、1/4和1/8。F1通過一個(gè)步長為2的3×3卷積操作,尺寸減半,輸出尺度為1/4的特征圖f1;F2通過步長為1的3×3卷積操作,尺寸保持不變,輸出尺度為1/4的特征圖f2;對(duì)于F3,特征圖分別通過一個(gè)3×3普通卷積、一個(gè)膨脹率為8的3×3膨脹卷積和一個(gè)膨脹率為16的3×3膨脹卷積操作得到三個(gè)擁有不同感受野的1/8尺度的特征層,后分別經(jīng)過三個(gè)步長為2的3×3反卷積操作,尺寸提升一倍,輸出尺度為1/4的特征圖f3、f4和f5。輸出的5個(gè)特征圖的通道數(shù)均為64,最后將這5個(gè)特征圖進(jìn)行拼接合并,得到一個(gè)尺度為1/4、通道數(shù)為320的合并特征圖Fout。Fout后續(xù)進(jìn)行批歸一化(BatchNormalization)操作來對(duì)來自不同分支輸出數(shù)據(jù)組成的訓(xùn)練批數(shù)據(jù)進(jìn)行分布?xì)w一化,提高模型的收斂速度,然后通過線性整流函數(shù)(ReLU)提高模塊的非線性,最后進(jìn)行dropout操作隨機(jī)凍結(jié)訓(xùn)練時(shí)的模型參數(shù)防止模型過擬合。

        圖2 多尺度特征卷積

        2.3 反卷積解碼

        反卷積解碼模塊用于將多尺度特征圖進(jìn)行多次上采樣實(shí)現(xiàn)特征信息的解碼,生成尺寸同輸入圖像的描述前景和背景目標(biāo)性的概率圖,概率圖經(jīng)過閾值過濾得到像素級(jí)別的二分類結(jié)果,得到最終的前景mask。

        模塊的結(jié)構(gòu)如圖3所示,網(wǎng)絡(luò)包含4個(gè)反卷積塊,其中t_block 1、t_block 2、t_block 3擁有相似的結(jié)構(gòu)。以t_block 1為例,來自多尺度特征卷積模塊的尺度為1/4、通道數(shù)為320的特征圖首先通過步長為1的1x1反卷積操作降維到64通道,目的是降低計(jì)算復(fù)雜度提高計(jì)算效率;隨后特征圖通過步長為1的3×3反卷積操作,保持尺寸和通道數(shù)不變;最后特征圖通過步長為1的1×1反卷積進(jìn)行維度擴(kuò)大,通道數(shù)提升到512。t_block 2的結(jié)構(gòu)大致與t_block 1相似,不同的是特征圖在經(jīng)過1×1反卷積降維后,通過步長為2的3×3反卷積操作,尺寸擴(kuò)大一倍,輸出尺度為1/2的特征圖。t_block 4擁有兩個(gè)反卷積層,特征圖首先通過步長為2的3×3反卷積操作,尺寸進(jìn)一步擴(kuò)大,隨后經(jīng)過1×1反卷積操作降維到1,輸出尺度為1、通道數(shù)為1的特征圖,最后特征圖的每一個(gè)像素通過sigmoid函數(shù)計(jì)算得到像素二分類概率,得到最終的分割概率圖,概率圖的每一個(gè)像素值代表輸入圖像中對(duì)應(yīng)像素屬于前景的概率。

        圖3 反卷積解碼模塊

        3 異物分割數(shù)據(jù)集的構(gòu)建

        異物檢測不同于運(yùn)動(dòng)目標(biāo)分割,現(xiàn)有的針對(duì)運(yùn)動(dòng)目標(biāo)分割的研究大多是在CDNet2014[13]和SBI2015[14]等開源數(shù)據(jù)集上進(jìn)行模型構(gòu)建,模型大多在同一段視頻中抽幀進(jìn)行訓(xùn)練和測試。開關(guān)柜異物檢測的一個(gè)難點(diǎn)是,分割任務(wù)是在離散的視頻幀上進(jìn)行的,并且異物的種類和形狀是多樣且隨機(jī)的,難以構(gòu)建足夠多的有效的真實(shí)數(shù)據(jù)集用于模型的訓(xùn)練和測試。針對(duì)這個(gè)問題,本文嘗試?yán)瞄_關(guān)柜背景圖片和異物圖片,設(shè)計(jì)數(shù)據(jù)集合成算法人工合成開關(guān)柜異物檢測數(shù)據(jù)集。

        3.1 合成素材

        數(shù)據(jù)集的合成素材包括作為背景的開關(guān)柜離散幀和作為前景的隨機(jī)異物。開關(guān)柜背景圖分8次采集,其中前五次于同一天按照固定時(shí)長的不同時(shí)間段采集,每隔3分鐘采集一次;后每隔一周在同一開始時(shí)間各采集一次,共采集3次。高壓室中共有33個(gè)監(jiān)控?cái)z像頭,除其中一個(gè)攝像頭監(jiān)測1個(gè)開關(guān)柜,其余32個(gè)攝像頭各監(jiān)控兩個(gè)相鄰的開關(guān)柜,共采集到33×8幅視頻幀,包含開關(guān)柜65×33個(gè),作為合成素材,另外單獨(dú)采集一批質(zhì)量較好的視頻幀,經(jīng)過人工校正和標(biāo)注開關(guān)柜位置后作為模板圖片用于圖像校正。異物前景圖像采集于MSCOCO[15]數(shù)據(jù)集,COCO數(shù)據(jù)集是微軟構(gòu)建的用于圖像目標(biāo)檢測、分割和關(guān)鍵點(diǎn)檢測等任務(wù)的大型數(shù)據(jù)集,共包含91個(gè)類別30余萬張圖像,本文從COCO 2017訓(xùn)練集中選取包含book、kite、cat和bird 4個(gè)類別的圖像,利用分割數(shù)據(jù)標(biāo)簽裁切出4個(gè)類別的目標(biāo)圖像共計(jì)9837張,這些目標(biāo)圖像將被作為異物圖像用于數(shù)據(jù)集的合成。

        3.2 合成流程

        數(shù)據(jù)圖像合成的流程如算法1描述。異物圖像集F由異物圖像及其蒙版構(gòu)成的二元組組成,蒙版m根據(jù)f的分割標(biāo)簽生成,用以過濾f中的背景。開關(guān)柜圖像集Bn為n個(gè)由對(duì)應(yīng)開關(guān)柜圖片組成的集合,這些圖片由開關(guān)柜所在的視頻幀根據(jù)對(duì)應(yīng)標(biāo)注截取而得。GTn為經(jīng)過人工矯正的開關(guān)柜模板圖像,與Bn對(duì)應(yīng)。預(yù)處理集P包含隨機(jī)亮度、隨機(jī)對(duì)比度、隨機(jī)高斯噪聲、隨機(jī)模糊等預(yù)處理操作。

        算法1:合成數(shù)據(jù)集輸入:異物圖像集F開關(guān)柜數(shù)量n開關(guān)柜圖像集Bn開關(guān)柜模板圖像GTn圖像預(yù)處理函數(shù)集P要生成的每個(gè)開關(guān)柜的樣本數(shù)s過程:1 生成的數(shù)據(jù)集G=?2 for i=1,2,3,…,n do3 for j=1,2,3,…,sdo4 從F中隨機(jī)選取(f,m)5 從Bi中隨機(jī)選取b6 選取GTi為gt7 以gt為模板對(duì)b進(jìn)行單應(yīng)性變換校正8 隨機(jī)縮放比例λ=rand(100,500)/ f的高度9 對(duì)f和m按比例λ縮放

        4 實(shí)驗(yàn)

        4.1 實(shí)驗(yàn)數(shù)據(jù)

        本文實(shí)驗(yàn)所用數(shù)據(jù)集由上一章節(jié)提到的合成算法合成。數(shù)據(jù)集共包含130000張圖片,由65種帶有合成異物的不同開關(guān)柜圖片組成,每一種開關(guān)柜各包含2000張圖片。數(shù)據(jù)集按照4 ∶1的比例從各開關(guān)柜子數(shù)據(jù)集種劃分組成訓(xùn)練集和測試集,分別共包含104000張圖片和26000張圖片。數(shù)據(jù)集部分樣本如圖4所示。

        圖4 部分?jǐn)?shù)據(jù)樣本

        4.2 實(shí)驗(yàn)參數(shù)設(shè)置

        本文模型使用PyTorch深度學(xué)習(xí)框架進(jìn)行搭建。模型中的dropout參數(shù)設(shè)置為0.5,訓(xùn)練batch_size設(shè)置為8,圖像輸入尺寸為224×448,對(duì)模型輸出的概率圖施加閾值為0.5的閾值過濾來對(duì)像素進(jìn)行二分類,模型采用Adam優(yōu)化器來最小化損失,學(xué)習(xí)率設(shè)置為0.0001,最大訓(xùn)練輪次設(shè)置為100,訓(xùn)練過程中保存F1值最大的模型。模型采用加權(quán)交叉熵?fù)p失函數(shù),對(duì)假陰性施加更高的懲罰以解決類別不平衡的問題,對(duì)于第i幅輸入圖片,模型的損失函數(shù)為:

        (1)

        4.3 對(duì)比試驗(yàn)

        本文將所提模型與CascadeCNN[8]、FgSegNet-M[9]和FgSegNet-S[10]三種主要模型在合成的數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對(duì)比,通過F-measure、PWC和MCC三種指標(biāo)進(jìn)行對(duì)比。

        F-measure由precision和recall兩個(gè)指標(biāo)通過調(diào)和平均計(jì)算而來,通過對(duì)兩個(gè)指標(biāo)的綜合衡量緩解單一準(zhǔn)確率或召回率無法準(zhǔn)確評(píng)價(jià)模型性能的問題,取值范圍為[0,1]。在給定混淆矩陣的TP、TN、FP、FN值的前提下,F(xiàn)-measure、precision和recall可分別通過以下公式計(jì)算而來:

        (2)

        (3)

        (4)

        PWC即Percentage of Wrong Classification,表示分類錯(cuò)誤樣本占總數(shù)的百分比,取值范圍為[0,100],定義如下:

        (5)

        F-measure指標(biāo)對(duì)類別不平衡非常敏感,例如當(dāng)一幅圖片中全部為背景時(shí),如果分類結(jié)果完全正確F-measure的值反而為0。為了解決這個(gè)問題,引入對(duì)不平衡樣本不敏感的MCC指標(biāo)進(jìn)行評(píng)價(jià):

        (6)

        MCC的取值范圍為[-1,1],值為1時(shí)表示分類結(jié)果與標(biāo)簽值完全一致,為-1時(shí)表示分類結(jié)果完全相反。

        4.4 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)結(jié)果如表1所示。

        表1 各方法的實(shí)驗(yàn)結(jié)果對(duì)比

        實(shí)驗(yàn)結(jié)果顯示,本文方法在F-measure、PWC和MCC三種指標(biāo)上均優(yōu)于對(duì)比的三種方法。FgSegNet兩種模型方法結(jié)果相近,表明通過特征融合獲得多尺度特征的方式與通過多尺度輸入平行運(yùn)算的方式在分割結(jié)果上效果相近,而特征融合相比平行運(yùn)算有效降低了計(jì)算復(fù)雜度,提高了訓(xùn)練和預(yù)測速度,說明通過特征融合的方式獲得多尺度特征的方式在開關(guān)柜異物遮擋數(shù)據(jù)集上是可行的。FgSegNet兩種模型的效果均優(yōu)于CascadeCNN,兩者最大的一個(gè)區(qū)別是CascadeCNN核心思想是基于圖像塊的像素分類,F(xiàn)gSegNet系列是基于encoder-decoder結(jié)構(gòu)的編碼重建像素分類,相比前者,后者通過高層特征重建更容易獲得更大的感受野和更強(qiáng)的像素間的相關(guān)性。本文方法基于FgSegNet-S模型,針對(duì)開關(guān)柜異物遮擋任務(wù)進(jìn)行改進(jìn),效果優(yōu)于上述三種方法。開關(guān)柜異物遮擋檢測任務(wù)的不同之處在于:其一,輸入圖像是離散的抓取視頻幀,且異物的狀態(tài)和形狀不定;其二,模型是在由65個(gè)不同開關(guān)柜視頻幀組成的數(shù)據(jù)集上進(jìn)行訓(xùn)練和測試,并非單一背景。因此,對(duì)比模型并不完全適用于開關(guān)柜異物遮擋檢測任務(wù),不同開關(guān)柜背景大致相同,但會(huì)在元器件狀態(tài)、文字等細(xì)微部分存在差別,本文方法通過融合低維特征提高了模型對(duì)細(xì)微背景差別的分割精度,降低了假陽性分類,提高了分割的精確率。

        5 結(jié)語

        本文針對(duì)變電站高壓開關(guān)柜異物遮擋檢測的任務(wù),通過人工合成的方式構(gòu)建了一個(gè)開關(guān)柜異物遮擋數(shù)據(jù)集用于模型的訓(xùn)練、測試和評(píng)價(jià),將運(yùn)動(dòng)目標(biāo)分割任務(wù)的前景分割方法應(yīng)用于異物遮擋檢測,并針對(duì)視頻幀離散、背景不固定等問題進(jìn)行模型結(jié)構(gòu)的調(diào)整和改進(jìn),融合多尺度特征信息提高對(duì)背景細(xì)微差別的分割精度,并通過實(shí)驗(yàn)驗(yàn)證了該思路是可行的。本研究的一個(gè)不足之處是人工合成的數(shù)據(jù)集圖片由于背景模板的選取不夠豐富和前景異物相較于背景顏色差異過于明顯等原因相較于真實(shí)情況存在較大的分布差異,導(dǎo)致在合成數(shù)據(jù)集上訓(xùn)練的模型難以直接應(yīng)用于實(shí)際場景,若要解決這個(gè)問題,可以考慮的方法有:采集更多的開關(guān)柜背景圖片;通過光照歸一化和風(fēng)格遷移調(diào)整前景異物同背景光照和顏色一致;采集一定量的人工標(biāo)注的真實(shí)遮擋圖像融入合成數(shù)據(jù)集提高數(shù)據(jù)集的真實(shí)性等。

        猜你喜歡
        特征檢測模型
        一半模型
        “不等式”檢測題
        “一元一次不等式”檢測題
        “一元一次不等式組”檢測題
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        3D打印中的模型分割與打包
        色系免费一区二区三区| 国产精品99精品无码视亚| 久久99精品国产99久久6尤物| 麻豆久久五月国产综合 | 人人妻人人玩人人澡人人爽| 国产成人精品cao在线| 青青青爽在线视频免费播放 | 另类老妇奶性生bbwbbw| 男女一级毛片免费视频看| 亚洲精品一区二区三区蜜臀| 肥老熟女性强欲五十路| 亚洲av成人无码精品电影在线| 国产女人18一级毛片视频| 国产精品成人黄色大片| 中文字幕人妻饥渴浪妇| 亚洲成a v人片在线观看| 亚洲国产99精品国自产拍| 国产一区二区三区免费在线播放| 2021亚洲国产精品无码| 精品久久久噜噜噜久久久 | 蜜臀av一区二区三区精品| 水野优香中文字幕av网站| 久久综合九色综合欧美狠狠| 99在线视频精品费观看视| 一道本加勒比在线观看| 手机看黄av免费网址| 国产肉体ⅹxxx137大胆| AV中文码一区二区三区| 91国产精品自拍在线观看| 欧美性色黄大片手机版| 久久人人爽爽爽人久久久 | 国产精品午夜高潮呻吟久久av| 狠狠色欧美亚洲狠狠色www| 亚洲av无码不卡| 亚洲AV秘 无套一区二区三区| 国产一区二区精品人妖系列在线| 粗大猛烈进出白浆视频| 精品国产18禁久久久久久久| 国产少妇露脸精品自拍网站| 国产一区二区精品久久岳| 亚洲va欧美va国产综合|