亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        深度學(xué)習(xí)在輸電通道危物辨識(shí)技術(shù)中的應(yīng)用

        2019-10-10 06:55:48楊可林許永盛李鵬
        廣東電力 2019年9期
        關(guān)鍵詞:卷積深度樣本

        楊可林, 許永盛, 李鵬

        (國(guó)網(wǎng)山東省電力公司菏澤供電公司,山東 菏澤 274000)

        高壓輸電線路是輸送電能的重要設(shè)備,其正常運(yùn)行是評(píng)價(jià)電網(wǎng)安全的重要基礎(chǔ)指標(biāo)。我國(guó)復(fù)雜的地形地貌導(dǎo)致了輸電線路運(yùn)行環(huán)境的惡劣,極易發(fā)生各種故障影響系統(tǒng)的安全穩(wěn)定運(yùn)行[1]。為了保證復(fù)雜狀況和環(huán)境下巡檢工作的效率和可靠性,電網(wǎng)公司對(duì)巡檢系統(tǒng)進(jìn)行改造,通過使用監(jiān)控設(shè)備代替人工現(xiàn)場(chǎng)巡檢的方式,大大提高了運(yùn)行檢修工作的效率。電網(wǎng)大力發(fā)展智能監(jiān)控的同時(shí),也面對(duì)著新的難題。以山東省菏澤市為例,據(jù)統(tǒng)計(jì)菏澤市35 kV以上電壓等級(jí)輸電線路124條,總長(zhǎng)度2 215 km,共計(jì)8 401座桿塔,監(jiān)控設(shè)備的安裝使用大大減少了傳統(tǒng)巡檢方式的人力和工作時(shí)間的投入,但同時(shí)監(jiān)控設(shè)備產(chǎn)生的視頻或圖像數(shù)據(jù)的總量也極其龐大。菏澤電網(wǎng)現(xiàn)階段已知安裝監(jiān)控設(shè)備約1 200臺(tái),以每天工作12 h、每0.5 h拍攝1張圖像計(jì)算,一天整個(gè)監(jiān)控系統(tǒng)能夠獲得約28 800張圖像,一個(gè)月接近860 000張。而根據(jù)統(tǒng)計(jì),菏澤電網(wǎng)平均每年發(fā)生故障跳閘70~80次,平均每月發(fā)生故障不超過10次。在海量的監(jiān)控?cái)?shù)據(jù)中可挖掘的有效故障原因數(shù)據(jù)寥寥無幾,而且受硬件設(shè)備和拍攝條件的影響,肉眼無法快速準(zhǔn)確辨識(shí)拍攝圖像,增加了人工識(shí)別工作的難度。由于有效圖像數(shù)據(jù)比例較小且有效性無法保證,大大增加了后期人工識(shí)別圖像的工作量和時(shí)間,降低了故障排除的效率。

        目前相關(guān)研究多采用監(jiān)控視頻作為主要的識(shí)別樣本,利用運(yùn)動(dòng)目標(biāo)檢測(cè)技術(shù)實(shí)現(xiàn)對(duì)輸電線路附近異物的識(shí)別。例如:通過分析拍攝視頻圖像,采用幀差法在關(guān)鍵幀中標(biāo)注出異物,再利用特征點(diǎn)跟蹤異物,從而實(shí)現(xiàn)輸電線路異物識(shí)別[2];在改進(jìn)的最大類間方差分割算法分割背景的基礎(chǔ)上,根據(jù)輸電線路特征有目的性地進(jìn)一步濾除背景,采用梯度法尋找輸電線路,選取Hough變換累加器極大值個(gè)數(shù)和檢測(cè)到的輸電線路數(shù)量作為依據(jù),識(shí)別輸電線路異物[3];分析巡檢過程拍攝到的圖片,根據(jù)人眼感知特性在事先檢測(cè)到的輸電線路有明顯差異的興趣區(qū)域內(nèi)計(jì)算出視覺顯著圖,然后利用顏色、形狀或空間分布等特性對(duì)異物區(qū)域?qū)崿F(xiàn)統(tǒng)一定位[4]。

        上述方法雖然對(duì)于異物識(shí)別的準(zhǔn)確性極高,但主要采用視頻數(shù)據(jù),數(shù)據(jù)量比起圖像數(shù)據(jù)更加龐大,相應(yīng)地對(duì)系統(tǒng)傳輸通道和儲(chǔ)存設(shè)備的要求也更高,單位時(shí)間內(nèi)服務(wù)器設(shè)備處理數(shù)據(jù)量巨大。但電網(wǎng)監(jiān)控系統(tǒng)處于發(fā)展初期,相關(guān)硬件設(shè)備尚不完善,這些方法的推廣受到了限制。并且上述方法只能做到識(shí)別異物的出現(xiàn),不能真正判斷異物的種類,想要得到更加精確的異物信息,依然需要人工識(shí)別的參與。

        為了解決電網(wǎng)智能監(jiān)控存在的問題,結(jié)合當(dāng)下發(fā)展迅速的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù),針對(duì)輸電線路周邊常發(fā)生的工程機(jī)械外力入侵檢測(cè)問題,提出了基于深度學(xué)習(xí)的輸電通道危物辨別技術(shù),對(duì)監(jiān)控圖像中可能引發(fā)線路故障的工程機(jī)械進(jìn)行自動(dòng)識(shí)別,并在圖像中使用邊界框標(biāo)注其位置和種類[5-6]。使用深度學(xué)習(xí)對(duì)圖像進(jìn)行故障目標(biāo)的判別,可提高故障判斷效率和可靠性,同時(shí)為故障定位和預(yù)警提供有效數(shù)據(jù)。

        1 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)

        深度學(xué)習(xí)是機(jī)器學(xué)習(xí)最新的研究領(lǐng)域,其在圖像識(shí)別、語(yǔ)音識(shí)別、人臉識(shí)別和目標(biāo)檢測(cè)等方面均有重要應(yīng)用。深度學(xué)習(xí)來源于人工神經(jīng)網(wǎng)絡(luò),通過模擬人腦神經(jīng)結(jié)構(gòu),形成一種多層神經(jīng)網(wǎng)絡(luò),從圖像、語(yǔ)音和文字等數(shù)據(jù)中提取低層特征,組合形成更加抽象的高層特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示[7]。目前涌現(xiàn)出了許多深度學(xué)習(xí)模型框架,如深度置信網(wǎng)絡(luò)[8]、自編碼器[9]、卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[10]和循環(huán)神經(jīng)網(wǎng)絡(luò)[11]及演變的多種模型等。其中,CNN采用了卷積層和下采樣層間局部連接、同層間權(quán)值共享以及池化處理的思想,其網(wǎng)絡(luò)結(jié)構(gòu)具有復(fù)雜度低、訓(xùn)練難度低、計(jì)算速度快、容錯(cuò)能力和魯棒性強(qiáng)等特點(diǎn),使其成為當(dāng)下使用最為廣泛的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

        現(xiàn)階段深度學(xué)習(xí)已經(jīng)在其他領(lǐng)域得到了應(yīng)用,例如:使用多層網(wǎng)絡(luò)結(jié)構(gòu)搭建的深度CNN能夠檢測(cè)到復(fù)雜環(huán)境中的行人,識(shí)別率高達(dá)99.7%[12];使用CNN識(shí)別多種手勢(shì),精度較高且復(fù)雜度較小,具有很好的魯棒性,對(duì)各個(gè)手勢(shì)的識(shí)別率為90.75%~100%,誤識(shí)率也小于10%[13]。因?yàn)镃NN在各領(lǐng)域的出色表現(xiàn),本文也選擇采用CNN作為主要研究方向,研究CNN在輸電通道智能監(jiān)控中的應(yīng)用。

        1.1 CNN

        CNN屬于前饋深度網(wǎng)絡(luò),由加拿大多倫多大學(xué)LeCun教授提出,最早作為分類器使用[14]。CNN作為一種分層結(jié)構(gòu)網(wǎng)絡(luò),根據(jù)各層功能和作用,可分為輸入層、卷積層、下采樣層(也稱為池化層)、全連接層和輸出層。CNN基本結(jié)構(gòu)如圖1所示。

        CNN識(shí)別圖像的基本原理為:圖像從輸入層進(jìn)入CNN,通過多層卷積層和下采樣層交替作用,提取輸入圖像低層特征并轉(zhuǎn)變?yōu)楦邔犹卣?,再由全連接層和輸出層對(duì)提取的高層特征進(jìn)行分類,最終輸出一個(gè)一維向量,代表輸入圖像的類別。下面針對(duì)CNN各層進(jìn)行詳細(xì)介紹。

        輸入層負(fù)責(zé)接收讀取輸入信號(hào),例如圖像、語(yǔ)音及文字等。卷積層由多個(gè)特征面組成,每個(gè)特征面由多個(gè)神經(jīng)元組成,主要功能是通過卷積核進(jìn)行卷積計(jì)算提取特征。卷積層數(shù)學(xué)模型描述為

        Xi=f(Xi-1?Wi+bi).

        (1)

        式中:Xi為第i層的特征圖;Wi為第i層卷積層的權(quán)值向量;bi為第i層卷積層偏移向量;f(*)為激勵(lì)函數(shù),通常采用tanh函數(shù)或是sigmoid函數(shù)。

        卷積層應(yīng)用了局部連接和權(quán)值共享的概念,使用小于圖片尺寸的卷積核(一般采用3×3或5×5的卷積核)對(duì)整個(gè)圖進(jìn)行滑動(dòng)卷積計(jì)算處理,提取出卷積核所要突出的特征(例如線條、邊緣等),起到了濾波的作用。每層卷積層會(huì)使用多個(gè)不同的卷積核以提取出多個(gè)特征,并形成特征圖向下輸入到下采樣層中進(jìn)行池化,對(duì)特征進(jìn)行進(jìn)一步篩選。

        圖1 CNN基本結(jié)構(gòu)Fig.1 Basic structure of CNN

        下采樣層設(shè)置在卷積層之后,同樣由多個(gè)特征面組成,會(huì)將卷積層傳輸過來的特征圖按照一定規(guī)則(一般分為均值池化和最大值池化),在保證特征圖空間性不變的前提下,減低特征維度。下采樣層數(shù)學(xué)模型描述為

        Xj=p(Xj-1).

        (2)

        式中p(*)為所選擇的的池化規(guī)則。

        全連接層與局部連接的卷積層和下采樣層不同,全連接層的神經(jīng)元會(huì)與上一層全部神經(jīng)元相連,將經(jīng)過多層卷積層和下采樣層所提取的特征進(jìn)行最終分類。全連接層數(shù)學(xué)模型為

        Xi=f(WiXi-1+bi).

        (3)

        輸出層采用Softmax邏輯回歸的方法對(duì)全連接層輸出特征進(jìn)行分類。

        1.2 模型選取

        作為計(jì)算機(jī)視覺領(lǐng)域中的重要課題,目標(biāo)檢測(cè)的主要功能是定位圖像中的目標(biāo),識(shí)別目標(biāo)類型并在圖像中畫出邊界框作為標(biāo)識(shí)。該功能十分適合運(yùn)用在如今監(jiān)控設(shè)備不斷完善的電網(wǎng)巡檢系統(tǒng)中,用于檢測(cè)輸電線路周邊可能影響到電網(wǎng)系統(tǒng)穩(wěn)定運(yùn)行的危險(xiǎn)物體,做出及時(shí)正確的預(yù)警與判斷。

        目前基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法根據(jù)工作原理可分為2類:

        a)兩步檢測(cè)算法,首先在未識(shí)別圖像中產(chǎn)生候選區(qū)域,然后對(duì)候選區(qū)域分類,其典型代表是基于候選區(qū)域的R-CNN系算法,如R-CNN[15]、Fast R-CNN[16]、Faster R-CNN[17]等;

        b)一步檢測(cè)算法,直接在未識(shí)別圖像中產(chǎn)生類別概率和位置坐標(biāo)值,典型的算法如YOLO(you only look once)[18]和SSD(single shot multibox detector)[19]。

        目標(biāo)檢測(cè)模型的主要性能指標(biāo)是檢測(cè)準(zhǔn)確度和速度,其中準(zhǔn)確度包括定位準(zhǔn)確度和分類準(zhǔn)確度。本文分別采用Faster R-CNN和Mobilenet_SSD[20]網(wǎng)絡(luò)模型,使用同一組訓(xùn)練樣本訓(xùn)練模型參數(shù),并使用另外一組與訓(xùn)練樣本互斥的測(cè)試樣本作為驗(yàn)證比較。

        2 實(shí)例驗(yàn)證

        2.1 框架選取

        深度學(xué)習(xí)框架主要包括TensorFlow、Caffe、Keras和CNTK等,本文選擇最主流的TensorFlow和Caffe框架進(jìn)行比較,分析各自的優(yōu)缺點(diǎn),決定所采用的框架。

        TensorFlow是由Google在DistBelief的基礎(chǔ)上進(jìn)行改進(jìn)的第二代人工智能學(xué)習(xí)系統(tǒng),具有較好的靈活性、可移植性和可延展性;支持Python、C/C++、Java以及Go多種語(yǔ)言編寫,程序編譯兼容性更高;支持在圖形處理器(graphics processing unit,GPU)上運(yùn)行,能極大提高CNN模型的訓(xùn)練速度和運(yùn)行速度,節(jié)省時(shí)間成本;支持分布式計(jì)算,可以在單個(gè)CPU/GPU或GPU組成的分布式平臺(tái)上自動(dòng)運(yùn)行。

        Caffe由賈揚(yáng)清提出創(chuàng)建,具有開放性和社區(qū)性,而且框架運(yùn)行速度快,模塊化程度高,也是第一個(gè)工業(yè)級(jí)深度學(xué)習(xí)框架。但是Caffe由于架構(gòu)設(shè)計(jì)問題造成框架不夠靈活,且擴(kuò)展性不好。

        考慮到實(shí)際應(yīng)用運(yùn)行中的硬件和軟件環(huán)境因素,為提高CNN模型的泛用性,選擇兼容性和可移植性更好的TensorFlow作為本文CNN框架。

        2.2 樣本選取

        經(jīng)過調(diào)研比較,本文選取威脅輸電通道概率最大的大型工程機(jī)械作為主要識(shí)別對(duì)象。

        因?qū)嶋H現(xiàn)場(chǎng)圖片數(shù)量較少,無法單獨(dú)作為CNN訓(xùn)練樣本,而且目前尚無危險(xiǎn)物體相關(guān)圖像數(shù)據(jù)集,本文選擇從互聯(lián)網(wǎng)上獲取和人工拍攝圖片的方法,經(jīng)過人工篩選和查重之后,挑選出合適的1 330張圖片作為訓(xùn)練樣本。

        經(jīng)過初步的測(cè)試發(fā)現(xiàn),1 330張圖片作為樣本訓(xùn)練出的CNN模型精度依舊較低,為了提高樣本數(shù)量,并減小樣本獲取和篩選的工作量,在保證樣本有效性的前提下,采用數(shù)據(jù)增廣,對(duì)原有的1 330張圖片樣本進(jìn)行旋轉(zhuǎn)不同角度和對(duì)比度變換處理,將訓(xùn)練樣本擴(kuò)充到了13 300張,以提升CNN模型的訓(xùn)練精度。數(shù)據(jù)增廣效果如圖2所示。

        圖2 數(shù)據(jù)增廣效果Fig.2 Data augmentation effect

        2.3 樣本標(biāo)注

        樣本選取之后,因?yàn)镕aster R-CNN和Mobilenet_SSD網(wǎng)絡(luò)模型是有監(jiān)督學(xué)習(xí),需要對(duì)樣本進(jìn)行標(biāo)注,以便網(wǎng)絡(luò)模型訓(xùn)練過程中能夠定位到需檢測(cè)的目標(biāo)位置。

        使用labelImg軟件,打開樣本圖片,人工判斷需要標(biāo)注的目標(biāo)位置與種類,并手動(dòng)畫出矩形標(biāo)注框,將目標(biāo)整體包圍,保存形成關(guān)于目標(biāo)在圖片中的位置文件,即與圖片名相同的xml文件。完成13 300張圖片手動(dòng)標(biāo)注以后,即可對(duì)CNN進(jìn)行訓(xùn)練,標(biāo)注效果如圖3所示。

        圖3 標(biāo)注效果Fig.3 Label effect

        2.4 模型訓(xùn)練

        CNN的訓(xùn)練過程即是對(duì)網(wǎng)絡(luò)模型內(nèi)部參數(shù)的求解過程。其中,F(xiàn)aster R-CNN提供了交替訓(xùn)練和近似聯(lián)合訓(xùn)練2種訓(xùn)練方式,本文選擇使用近似聯(lián)合訓(xùn)練,在保證準(zhǔn)確率的同時(shí),訓(xùn)練速度更快。

        根據(jù)樣本集調(diào)整預(yù)訓(xùn)練的學(xué)習(xí)參數(shù):①樣本數(shù)據(jù)分塊設(shè)置為133;②模型初始化,采用標(biāo)準(zhǔn)偏差0.01的零均值高斯分布來初始化權(quán)重;③設(shè)定每一層卷積層學(xué)習(xí)率一致,初始學(xué)習(xí)率0.001,系數(shù)動(dòng)量0.9,權(quán)值衰減系數(shù)0.000 5。

        2.5 圖像檢測(cè)結(jié)果及分析

        本文的實(shí)驗(yàn)環(huán)境為Intel(R) Core(TM) i7-5500U CPU @ 2.40 GHz,8 GB RAM以及Windows7(64位)操作系統(tǒng),圖像檢測(cè)與分類基于OpenCV和Tensorflow進(jìn)行。

        實(shí)例驗(yàn)證的指標(biāo)包括準(zhǔn)確率和召回率,準(zhǔn)確率為正確檢測(cè)的目標(biāo)數(shù)量與標(biāo)記目標(biāo)總數(shù)量之比,召回率為正確檢測(cè)的目標(biāo)數(shù)量與實(shí)際目標(biāo)總數(shù)量之比。

        圖片選取了非訓(xùn)練樣本的378張測(cè)試樣本,其中危險(xiǎn)物體選定為大型挖掘機(jī),共計(jì)420臺(tái)挖掘機(jī),將其放入訓(xùn)練模型中進(jìn)行目標(biāo)檢測(cè)。圖像檢測(cè)部分結(jié)果如圖4所示,其中左列為Faster R-CNN網(wǎng)絡(luò)模型結(jié)果,右列為Mobilenet_SSD網(wǎng)絡(luò)模型結(jié)果。

        圖4 圖像檢測(cè)結(jié)果Fig.4 Image detection results

        Faster R-CNN與Mobilenet_SSD網(wǎng)絡(luò)模型圖像檢測(cè)數(shù)據(jù)見表1。

        表1 檢測(cè)數(shù)據(jù)Tab.1 Detection results

        Faster R-CNN網(wǎng)絡(luò)模型檢測(cè)運(yùn)行時(shí)間遠(yuǎn)大于Mobilenet_SSD網(wǎng)絡(luò)模型檢測(cè)時(shí)間,但其準(zhǔn)確率高于Mobilenet_SSD網(wǎng)絡(luò)模型。這主要是因?yàn)镕aster R-CNN網(wǎng)絡(luò)模型比Mobilenet_SSD網(wǎng)絡(luò)模型規(guī)模大,擁有更多的卷積層和下采樣層,需要更長(zhǎng)的運(yùn)算時(shí)間;與此同時(shí),F(xiàn)aster R-CNN網(wǎng)絡(luò)模型需要生成候選框,在多個(gè)候選框中進(jìn)行回歸與分類,這會(huì)消耗更多的計(jì)算時(shí)間;也因如此,F(xiàn)aster R-CNN網(wǎng)絡(luò)模型對(duì)于圖像中目標(biāo)的特征提取更加詳細(xì)準(zhǔn)確,在識(shí)別多目標(biāo)圖像時(shí)精確性更高。

        在比較召回率時(shí),F(xiàn)aster R-CNN網(wǎng)絡(luò)模型卻小于Mobilenet_SSD網(wǎng)絡(luò)模型。通過仔細(xì)分析圖像標(biāo)注結(jié)果發(fā)現(xiàn),在Faster R-CNN網(wǎng)絡(luò)模型的結(jié)果中出現(xiàn)了大量?jī)H標(biāo)注了挖掘機(jī)局部區(qū)域的現(xiàn)象。根據(jù)分析,F(xiàn)aster R-CNN網(wǎng)絡(luò)模型在對(duì)目標(biāo)局部特征識(shí)別后,將其作為目標(biāo)本身,減小了召回率;另外,當(dāng)多個(gè)挖掘機(jī)重疊時(shí),因?yàn)槠涮卣靼l(fā)生重疊,網(wǎng)絡(luò)模型會(huì)將其作為同一個(gè)目標(biāo)標(biāo)記,這也是召回率降低的一個(gè)重要原因。

        實(shí)例驗(yàn)證的初步結(jié)論是:Faster R-CNN網(wǎng)絡(luò)模型更適用于對(duì)目標(biāo)檢測(cè)精度要求較高的場(chǎng)合,而Mobilenet_SSD網(wǎng)絡(luò)模型更適用于對(duì)目標(biāo)檢測(cè)效率要求較高的場(chǎng)合。

        2.6 現(xiàn)場(chǎng)圖像檢測(cè)結(jié)果及分析

        現(xiàn)場(chǎng)圖像選取了從電網(wǎng)監(jiān)控系統(tǒng)中挑選出包含危險(xiǎn)物體的圖像,其中危險(xiǎn)目標(biāo)選定為大型挖掘機(jī),將其放入訓(xùn)練模型中進(jìn)行目標(biāo)檢測(cè)?,F(xiàn)場(chǎng)部分圖像檢測(cè)結(jié)果如圖5所示,其中左列為Faster R-CNN網(wǎng)絡(luò)模型結(jié)果,右列為Mobilenet_SSD網(wǎng)絡(luò)模型結(jié)果。

        圖5 現(xiàn)場(chǎng)圖像檢測(cè)結(jié)果Fig.5 Detection results of on-site image

        經(jīng)過實(shí)際圖像驗(yàn)證,在不考慮檢測(cè)運(yùn)行時(shí)間的情況下,F(xiàn)aster R-CNN網(wǎng)絡(luò)模型的準(zhǔn)確率遠(yuǎn)大于Mobilenet_SSD網(wǎng)絡(luò)模型,且邊界框位置和大小更加精確。

        與圖4結(jié)果相比,現(xiàn)場(chǎng)圖像檢測(cè)效果明顯降低,主要原因在于現(xiàn)場(chǎng)圖像中危險(xiǎn)物體圖像的占比太小,不到整個(gè)圖像大小的1%,目標(biāo)特征并不明顯,提取和識(shí)別的難度較大,相應(yīng)的目標(biāo)分類準(zhǔn)確率和邊界框回歸的準(zhǔn)確性明顯降低。

        3 結(jié)束語(yǔ)

        經(jīng)過圖像檢測(cè)實(shí)驗(yàn),初步驗(yàn)證了基于深度學(xué)習(xí)的輸電通道危物辨識(shí)技術(shù)具有較高的識(shí)別效率和準(zhǔn)確率,具備實(shí)際應(yīng)用的基礎(chǔ)。相比于早期電網(wǎng)使用的異物辨識(shí)技術(shù),基于深度學(xué)習(xí)的輸電通道危物辨識(shí)技術(shù)能夠準(zhǔn)確判斷出危及輸電通道安全運(yùn)行的危險(xiǎn)物體,并標(biāo)記出物體位置,為電網(wǎng)運(yùn)檢和維護(hù)提供更加詳細(xì)準(zhǔn)確的信息,提高巡線效率,減少工作時(shí)間和人工的投入,也可避免人工識(shí)別中因疲勞可能造成的錯(cuò)誤判斷。

        結(jié)合現(xiàn)場(chǎng)圖像的檢測(cè)結(jié)果,在實(shí)際應(yīng)用中還需要考慮圖像的拍攝條件等因素對(duì)識(shí)別正確率的影響,主要問題是識(shí)別目標(biāo)在圖像中所占比例較小,目標(biāo)特征不夠明顯。在今后的工作中,需要著重解決較小目標(biāo)的識(shí)別問題,研究方向主要有以下幾點(diǎn):①增加小目標(biāo)樣本在訓(xùn)練樣本中的比例,提高小目標(biāo)樣本對(duì)訓(xùn)練模型參數(shù)的調(diào)節(jié)作用;②加強(qiáng)小目標(biāo)特征表達(dá),從圖像預(yù)處理入手,減小大量背景圖像對(duì)小目標(biāo)的干擾;③調(diào)整訓(xùn)練模型的邊界框長(zhǎng)寬比和像素尺寸,提高模型對(duì)特定小目標(biāo)的識(shí)別效率和精度[21-24]。

        猜你喜歡
        卷積深度樣本
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
        深度理解一元一次方程
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        深度觀察
        深度觀察
        深度觀察
        推動(dòng)醫(yī)改的“直銷樣本”
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
        中文字幕日本女优在线观看| 免费国产在线视频自拍白浆| www夜插内射视频网站| 国产精品v片在线观看不卡| 五月婷婷俺也去开心| 91久久国产自产拍夜夜嗨| 少妇激情一区二区三区久久大香香 | 久久精品国产亚洲综合色| 国产av一区二区三区香蕉| 人妻少妇猛烈井进入中文字幕| 粉嫩av国产一区二区三区| 国产suv精品一区二区6| 高清无码精品一区二区三区| 精品国产乱来一区二区三区| 最近更新中文字幕一区二区| 少妇爆乳无码专区| 丰满人妻av无码一区二区三区| 国产在线拍偷自拍偷精品| 91亚洲精品久久久中文字幕| 亚洲一区二区三区,日本| 人妻夜夜爽天天爽三区麻豆av网站| 日日躁夜夜躁狠狠躁超碰97| 无码91 亚洲| 精品一区二区三区国产av| 日韩av无码中文字幕| 中国国语毛片免费观看视频| 毛片av在线播放亚洲av网站| 日本高清无卡一区二区三区| 国产亚洲自拍日本亚洲| 影音先锋女人aa鲁色资源| 在线播放国产女同闺蜜| 国产乱老熟视频乱老熟女1| 国产精品狼人久久影院软件介绍| 特级精品毛片免费观看| 大地资源中文在线观看官网第二页 | 区一区一日本高清视频在线观看| 男性av天堂一区二区| 欧美xxxx做受欧美| 免费现黄频在线观看国产| 日韩狼人精品在线观看| 国产免费人成视频网站在线18|