亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        一種面向遙感目標(biāo)檢測(cè)的改進(jìn)YOLOv4算法

        2021-02-28 06:49:30沈陽(yáng)理工大學(xué)黃海新唐學(xué)多
        電子世界 2021年22期
        關(guān)鍵詞:飛機(jī)分類(lèi)實(shí)驗(yàn)

        沈陽(yáng)理工大學(xué) 黃海新 唐學(xué)多

        隨著遙感影像獲取技術(shù)的不斷發(fā)展,遙感飛機(jī)的機(jī)型及位置檢測(cè)成為檢測(cè)重點(diǎn)。然而,由于其復(fù)雜的背景,不同的空間分辨率,姿態(tài)和光照變化復(fù)雜,導(dǎo)致檢測(cè)精度不高。此外,本研究中遙感飛機(jī)的類(lèi)內(nèi)和類(lèi)間方差都較大,給機(jī)型的識(shí)別增加了難度。為了提高算法對(duì)遙感影像目標(biāo)的檢測(cè)精度,本文提出一種基于YOLv4和Triple Loss的目標(biāo)檢測(cè)算法,首先運(yùn)用Sobel算子和Mosaic對(duì)數(shù)據(jù)集擴(kuò)充和增強(qiáng);其次,用Triple Loss代替原有的分類(lèi)損失函數(shù)來(lái)提高分類(lèi)精度,最后通過(guò)實(shí)驗(yàn)驗(yàn)證本算法的有效性和準(zhǔn)確性。結(jié)果表明本算法在MTARSI數(shù)據(jù)集上檢測(cè)率mAP達(dá)到90.07%,與其他先進(jìn)的機(jī)型識(shí)別算法對(duì)比,本文算法有效提升了遙感飛機(jī)的檢測(cè)準(zhǔn)確率。

        隨著遙感技術(shù)的不斷發(fā)展,遙感影像已經(jīng)成為一種重要的數(shù)據(jù)來(lái)源。飛機(jī)不僅是軍事領(lǐng)域的戰(zhàn)略目標(biāo),也是民用領(lǐng)域的重要運(yùn)輸工具,因此,飛機(jī)的機(jī)型識(shí)別和檢測(cè)在及時(shí)分析戰(zhàn)場(chǎng)態(tài)勢(shì)和制定軍事決策方面起著重要作用。但是由于遙感影像高分辨率的獲取,單張圖片中包含的信息也越來(lái)越多,依靠現(xiàn)有的自動(dòng)解釋的分類(lèi)方法已經(jīng)難以適應(yīng)實(shí)際需要。而且,盡管飛機(jī)的功能和用途有著明顯區(qū)別,但是卻具有極其相似的外觀,遙感影像具有的背景復(fù)雜,小目標(biāo)、多尺度等特點(diǎn)也增加了檢測(cè)難度,因此,快速、準(zhǔn)確的識(shí)別飛機(jī)類(lèi)型仍然具有很大的挑戰(zhàn)。YOLOv4的出現(xiàn)使目標(biāo)檢測(cè)任務(wù)出現(xiàn)了一個(gè)飛躍,實(shí)現(xiàn)了速度和精度的完美提升,為了保證檢測(cè)精度和實(shí)時(shí)性,本文采用YOLOv4作為檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)。如圖1所示。

        圖1 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)

        1 基本原理

        1.1 YOLOv4算法檢測(cè)流程

        為實(shí)現(xiàn)對(duì)遙感飛機(jī)目標(biāo)的實(shí)時(shí)高效檢測(cè),本文基于YOLOv4建立檢測(cè)網(wǎng)絡(luò)框架。YOLO系列算法是基于CNN的端到端的原理實(shí)現(xiàn)目標(biāo)檢測(cè),其檢測(cè)過(guò)程分為特征提取,定位目標(biāo)和損失計(jì)算三個(gè)部分。其中,特征提取網(wǎng)絡(luò)為CSPDarket53,定位目標(biāo)包括對(duì)目標(biāo)的分類(lèi)和位置回歸,損失計(jì)算則包括分類(lèi)損失、邊界框回歸損失和置信度損失。如圖2所示,與只有一個(gè)檢測(cè)層的YOLOv1和YOLOv2不同,YOLOv4與YOLOv3相同,使用三個(gè)不同尺度的特圖,實(shí)現(xiàn)了多尺度目標(biāo)檢測(cè),且使用了比YOLOv3中Darknet53效果更好的CspDarknet53作為特征提取網(wǎng)絡(luò)。

        圖2 遙感飛機(jī)圖像擴(kuò)增流程圖

        1.2 數(shù)據(jù)增強(qiáng)及擴(kuò)增

        在深度學(xué)習(xí)中,為了獲取一個(gè)好的訓(xùn)練模型和提高模型的泛化能力,高質(zhì)量的樣本是必不可少的。但是實(shí)際中,樣本數(shù)量和質(zhì)量往往都不夠好,數(shù)據(jù)增強(qiáng)及擴(kuò)增成為了改善或者解決這一問(wèn)題的關(guān)鍵方法。本算法使用Mosaic進(jìn)行數(shù)據(jù)增強(qiáng),基于Sobel算子的圖像分割技術(shù)進(jìn)行數(shù)據(jù)擴(kuò)增。

        MTARSI數(shù)據(jù)集中的B-2轟炸機(jī)和KC-10加油機(jī)是非常罕見(jiàn)的,很難被衛(wèi)星遙感捕獲,這將阻礙MTARSI數(shù)據(jù)集的采集和構(gòu)建。針對(duì)這一問(wèn)題,一種基于Sobel算子的分割算法被提出用來(lái)解決此問(wèn)題,該方法的流程圖如圖3所示,首先運(yùn)用Sobel算子將圖片中的圖像從背景中分離出來(lái),然后從不包含任何飛機(jī)的相關(guān)遙感圖像(如飛機(jī)跑道、草坪等)中隨機(jī)選擇不同的背景圖像。最后將分割出的飛機(jī)圖像進(jìn)行鏡像和旋轉(zhuǎn)操作,再和選定的背景結(jié)合,實(shí)現(xiàn)對(duì)罕見(jiàn)數(shù)據(jù)的擴(kuò)增。提取的圖像和背景圖像具有相同的空間分辨率,且由相同的遙感傳感器獲取,避免了數(shù)據(jù)的失真。

        圖3 三元組分類(lèi)損失函數(shù)原理

        1.3 Triple Loss

        由于本論文樣本數(shù)據(jù)集具有明顯的類(lèi)內(nèi)多樣性,為了減少對(duì)損失的影響,在訓(xùn)練中需要盡可能的學(xué)習(xí)訓(xùn)練hard樣本,所以,選取三元組損失函數(shù)作為分類(lèi)損失函數(shù),其基本思想就即通過(guò)學(xué)習(xí)來(lái)最大化anchor與負(fù)樣本的距離,最小化anchor與正樣本之間的距離。

        2 實(shí)驗(yàn)與分析

        本章首先介紹實(shí)驗(yàn)所用數(shù)據(jù)集,再介紹實(shí)驗(yàn)環(huán)境設(shè)置,并在YOLOv4 網(wǎng)絡(luò)中進(jìn)行訓(xùn)練測(cè)試最后將實(shí)驗(yàn)效果與其他主流算法做對(duì)比,得出檢測(cè)效果更好的結(jié)論。

        2.1 數(shù)據(jù)集

        本實(shí)驗(yàn)數(shù)據(jù)集為來(lái)自谷歌地球衛(wèi)星圖像的多類(lèi)型飛機(jī)遙感圖像(MTARSI),包含20種類(lèi)型、覆蓋36個(gè)機(jī)場(chǎng)的飛機(jī)圖片,數(shù)據(jù)擴(kuò)增至9385張圖片。所有圖片均采用labelImg進(jìn)行標(biāo)注,隨機(jī)選取2000張作為測(cè)試集,7385張為訓(xùn)練集圖片。

        2.2 實(shí)驗(yàn)設(shè)置

        實(shí)驗(yàn)采用YOLOv4算法的CSPDarknet53網(wǎng)絡(luò)作為實(shí)驗(yàn)特征提取網(wǎng)絡(luò),采用隨機(jī)梯度下降法優(yōu)化損失函數(shù),采用交叉迷你批標(biāo)準(zhǔn)化(CmBN)有效避免模型在迭代過(guò)程中陷入最小值的問(wèn)題,來(lái)加快訓(xùn)練的收斂性,激活函數(shù)結(jié)合使用修正線性單元(Leakey ReLU)和Mish。超參數(shù)設(shè)置如下:批數(shù)和小批數(shù)為64、16,動(dòng)量衰減和重量衰減分別設(shè)為0.9、0.005,采用多項(xiàng)式衰減策略調(diào)整學(xué)習(xí)率,初始學(xué)習(xí)率為0.001。實(shí)驗(yàn)環(huán)境:使用Darknet+CUDA10.2的深度學(xué)習(xí)框架,顯存為16G的GTX1660顯卡,每次在GPU上并行訓(xùn)練4圖像。

        2.3 實(shí)驗(yàn)結(jié)果及對(duì)比

        實(shí)驗(yàn)對(duì)輸入圖像采用多尺度訓(xùn)練,并在五種神經(jīng)網(wǎng)絡(luò)(DenseNet、GoogelNet、VGG、ResNet以及EfficientNet)上進(jìn)行性能比較,本算法以90.07%的分類(lèi)準(zhǔn)確率取勝。且與傳統(tǒng)基于特征的方法相比,基于神經(jīng)網(wǎng)絡(luò)的方法能夠提取出更深層次的特征,具有更好的泛化能力和圖像表征能力,因此具有更高的檢測(cè)精度,檢測(cè)性能也遠(yuǎn)遠(yuǎn)好于傳統(tǒng)分類(lèi)方法。該算法的在測(cè)試集上的檢測(cè)結(jié)果如圖4所示,可以看出,無(wú)論是在分類(lèi)還是位置定位,本算法都有較好的檢測(cè)效果。

        圖4 測(cè)試集驗(yàn)證結(jié)果

        2.4 實(shí)驗(yàn)分析

        本訓(xùn)練實(shí)驗(yàn)中,當(dāng)?shù)螖?shù)約為40000次時(shí)損失收斂至0.31,在測(cè)試集上驗(yàn)證結(jié)果,得到了較好的檢測(cè)效果,由此可見(jiàn),本文基于YOLOv4與Triple-Loss的算法能夠增強(qiáng)遙感目標(biāo)的檢測(cè)能力。

        針對(duì)遙感飛機(jī)影像中存在的分類(lèi)及檢測(cè)精度不高的問(wèn)題,提出了基于YOLOv4和Triple Loss的檢測(cè)算法。該算法首先選取YOLOv4作為檢測(cè)的主干模型,其次使用Mosaic和Sobel算子方法進(jìn)行數(shù)據(jù)擴(kuò)增及增強(qiáng),并引入Triple Loss分類(lèi)損失函數(shù)思想,最后在MTARSI數(shù)據(jù)集上驗(yàn)證算法的有效性。實(shí)驗(yàn)結(jié)果表明,該算法在復(fù)雜的遙感影像目標(biāo)檢測(cè)中檢測(cè)效果較好,且實(shí)現(xiàn)了在不損失速度的情況下提高了檢測(cè)精度。

        猜你喜歡
        飛機(jī)分類(lèi)實(shí)驗(yàn)
        記一次有趣的實(shí)驗(yàn)
        飛機(jī)失蹤
        分類(lèi)算一算
        做個(gè)怪怪長(zhǎng)實(shí)驗(yàn)
        “拼座飛機(jī)”迎風(fēng)飛揚(yáng)
        分類(lèi)討論求坐標(biāo)
        數(shù)據(jù)分析中的分類(lèi)討論
        教你一招:數(shù)的分類(lèi)
        乘坐飛機(jī)
        神奇飛機(jī)變變變
        精品一区中文字幕在线观看| 99久久精品国产自在首页| 在线播放中文字幕一区二区三区| 日本岛国一区二区三区四区| 日韩人妻少妇一区二区三区| 色一情一乱一伦一区二区三区日本| 亚洲红怡院| 中文字幕亚洲乱码熟女在线| 日本免费一区二区在线视频播放| 夜夜揉揉日日人人青青| 日本丶国产丶欧美色综合| 国产精品人成在线观看| 亚洲综合中文字幕日韩| 亚洲精品v欧洲精品v日韩精品| 午夜无码大尺度福利视频| 中文字幕人成乱码中文乱码| 亚洲高清一区二区三区在线播放| 内地老熟女老少配视频| 国产美女精品aⅴ在线| 精品亚亚洲成av人片在线观看| 日韩av一区二区网址| 国产精品夜间视频香蕉| 欧美日韩中文字幕久久伊人| 伊人久久大香线蕉av色婷婷| 婷婷伊人久久大香线蕉av| 精品亚洲欧美无人区乱码| 无码人妻中文中字幕一区二区| 国产一区二区三区男人吃奶| 日韩av激情在线观看| 精品人妻伦九区久久AAA片69| 97无码免费人妻超级碰碰夜夜| 一本大道东京热无码中字 | 国产成人高清视频在线观看免费 | 久久久99精品成人片| 国产美女露脸口爆吞精| 国产中文久久精品| 国产精品国产三级国产专区不| 99精品国产一区二区三区| 国产福利片无码区在线观看| 亚洲av推荐网站在线观看| 国产专区一线二线三线码|