亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的碎圖斑識別研究

        2020-12-09 05:24:35黃國航薛翻琴梁煥青
        企業(yè)科技與發(fā)展 2020年10期
        關(guān)鍵詞:分類深度模型

        黃國航 薛翻琴 梁煥青

        【摘 要】基于現(xiàn)實的業(yè)務(wù)需求并結(jié)合深度學(xué)習(xí)的方法,文章構(gòu)建一個基于卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建的自動化識別細碎圖斑模型,該模型能自動地從細碎圖斑數(shù)據(jù)庫中學(xué)習(xí)圖斑特性。通過數(shù)據(jù)集上的實驗驗證,表明提出的深度神經(jīng)網(wǎng)絡(luò)可以有效地提取場景特征,并使訓(xùn)練出的場景模型具有較強的泛化性能和較高的分類準確率。

        【關(guān)鍵詞】GIS;深度學(xué)習(xí);ResNet-50;MobileNet v2

        【中圖分類號】F391.41 【文獻標識碼】A 【文章編號】1674-0688(2020)10-0044-03

        0 引言

        近年來,學(xué)者們提出的一系列以卷積神經(jīng)網(wǎng)絡(luò)(CNNs)為基礎(chǔ)的算法,在計算機視覺領(lǐng)域取得了豐碩的成果,深度學(xué)習(xí)在影像數(shù)據(jù)處理領(lǐng)域得到了快速的應(yīng)用,是通用性計算機技術(shù)的自然延伸。與傳統(tǒng)的特征提取的方式不同,基于深度學(xué)習(xí)的計算機視覺技術(shù)采用卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的方法和生物神經(jīng)網(wǎng)絡(luò)思想,通過權(quán)值共享技術(shù)控制模型參數(shù),實現(xiàn)自動提取淺層中的固有圖像紋理特征,深層對特征進行融合,并通過不同的神經(jīng)元輸出特定任務(wù)的結(jié)果,因此判別性更強。

        卷積神經(jīng)網(wǎng)絡(luò)的雛形于1998年由Yann Lecun[1]提出,在2012年的Imagenet圖像識別大賽中,Krizhevsky等人[2]在Alexnet中引入全新的卷積深層結(jié)構(gòu)和隨機失活方法,取得了巨大的成功,AlexNet中包含幾個比較新的技術(shù)點,在CNNs中成功應(yīng)用了ReLU函數(shù)(線性整流函數(shù))、Dropout(隨機失活)和LRN(局部響應(yīng)歸一化層)等技巧,將深度學(xué)習(xí)的方法引入計算機當(dāng)中。

        進行自然資源類項目處理時,數(shù)據(jù)融合過程中會產(chǎn)生大量的細碎圖斑,細碎圖斑的產(chǎn)生主要有以下原因:{1}外業(yè)采集的時候本身就是面積小的細碎圖斑;{2}采集精度產(chǎn)生細碎圖斑;{3}在數(shù)據(jù)處理過程中存在不可避免的人為誤差。因為細碎圖斑的形狀非常怪異,所以制圖的時候非常難以處理,需要作為細碎圖斑識別處理。

        基于神經(jīng)網(wǎng)絡(luò)的分類研究領(lǐng)域已有前人的大量研究成果。趙丹新等人[3]提出了基于ResNet神經(jīng)網(wǎng)絡(luò)的遙感圖像目標檢測方法,利用多尺度感受野對模型進行優(yōu)化,實驗結(jié)果表明基于卷積神經(jīng)網(wǎng)絡(luò)的地物分類模型可以達到很好的效果。譚越等人[4]基于ResNet和BiLSTM,建立了一個僵尸網(wǎng)絡(luò)檢測方法模型,發(fā)現(xiàn)基于以上算法建立的模型能夠?qū)┦W(wǎng)絡(luò)進行準確的識別。以上研究表明,基于卷積神經(jīng)網(wǎng)絡(luò)的圖像分類模型能夠很好地優(yōu)化模型性能。徐豐等人[5]基于深度卷積網(wǎng)絡(luò),研究了深度學(xué)習(xí)技術(shù)在SAR目標識別與地物分類中的應(yīng)用。由此可見,深度學(xué)習(xí)算法在分類任務(wù)中可以取得很好的效果。

        目前,少有學(xué)者基于深度學(xué)習(xí)技術(shù)應(yīng)用于實際的內(nèi)業(yè)工作細碎圖斑分類識別領(lǐng)域,將以往的細碎圖斑識別往往采取“一刀切”的方式,將面積作為評判的標準,對細碎圖斑識別領(lǐng)域進行了研究。本文的主要貢獻如下:創(chuàng)新性地將人工智能引入細碎圖斑識別領(lǐng)域,提出了一個卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練框架,利用卷積神經(jīng)網(wǎng)絡(luò)自動提取細碎圖斑的圖像特征,最后利用交叉熵函數(shù)進行判別類屬。

        1 技術(shù)路線

        本文采用卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建細碎圖斑識別模型,并選取兩種網(wǎng)絡(luò)作為圖斑特征提取網(wǎng)絡(luò)進行訓(xùn)練和對比測試。

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種前饋型的神經(jīng)網(wǎng)絡(luò),一般用卷積神經(jīng)網(wǎng)絡(luò)提取圖像特征,基礎(chǔ)的卷積神經(jīng)網(wǎng)絡(luò)由卷積(Convolution)、激活(Activation)和池化(Pooling)3種結(jié)構(gòu)組成,卷積輸出的結(jié)果是每幅圖像的特征空間,在大型圖像處理方面有出色的表現(xiàn),目前已經(jīng)被大范圍使用到圖像分類、定位等領(lǐng)域中。相比其他神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),卷積神經(jīng)網(wǎng)絡(luò)需要的參數(shù)相對較少,使其能夠被廣泛地應(yīng)用。

        1.2 ResNet

        Kaiming He等人[6]引入了一種全新的網(wǎng)絡(luò)結(jié)構(gòu)——殘差網(wǎng)絡(luò)結(jié)構(gòu)(Residual Network,如圖1所示),即在輸入與輸出之間引入一個前向反饋的恒等映射,輸入可以通過恒等映射進入下層。用x表示向量H(x)經(jīng)過兩層疊加后所需的映射,傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)是學(xué)習(xí)輸入x到輸出的映射H(x),而殘差網(wǎng)絡(luò)學(xué)習(xí)到的是F(x)=H(x)-x,這樣可以避免學(xué)習(xí)從x到H(x)的直接映射關(guān)系,而是學(xué)習(xí)兩者之間的差異,恒等映射至少不會降低神經(jīng)網(wǎng)絡(luò)的性能。

        1.3 MobileNet

        MobileNet是由谷歌AI團隊的Andrew G在2017年利用深度可分離卷積(Depthwise Separable Convolution)代替了傳統(tǒng)卷積方式構(gòu)建流線型的輕量級深度神經(jīng)網(wǎng)絡(luò),在實際應(yīng)用中卷積神經(jīng)網(wǎng)絡(luò)受限于硬件的運算能力與儲存的顯示,輕量化的MobileNet大量應(yīng)用于移動端的神經(jīng)網(wǎng)絡(luò)部署。

        MobileNet網(wǎng)絡(luò)中的深度可分離卷積的標準化卷積分解為深度卷積(Depthwis Convolution)和逐點卷積(Pointwise Convolution),MobileNet網(wǎng)絡(luò)可以充分利用移動設(shè)備和嵌入式應(yīng)用的有限資源,最大限度地提高模型的準確性,以滿足有限資源下的各種應(yīng)用案例。深度卷積和逐點卷積如圖2、圖3所示。

        2 模型設(shè)計與數(shù)據(jù)

        本文的設(shè)計目標是搭建卷積神經(jīng)網(wǎng)絡(luò)框架,通過卷積從細碎圖斑自動提取空間維度特征,自動學(xué)習(xí)一個分類器。模型采用的卷積為MobileNet v2[7]和ResNet-50[6],處理步驟如下:{1}矢量圖斑柵格化,矢量數(shù)據(jù)并不能直接輸入神經(jīng)網(wǎng)絡(luò)進行數(shù)據(jù)處理,必須對輸入的單個圖斑矢量數(shù)據(jù)柵格化,并將柵格化后的矢量圖斑重塑至分辨率為512×512;{2}之后分別利用MobileNet v2和ResNet-50作為圖片特征提取框架。

        目前,沒有對外公開的細碎圖斑數(shù)據(jù)集,數(shù)據(jù)量小是本文面臨的難題之一。模型訓(xùn)練使用的是南寧市天地圖融合數(shù)據(jù),采用人工判讀的方式在arcmap 10.7中使用內(nèi)置的腳本生成訓(xùn)練集和測試集。

        本次的數(shù)據(jù)集總量為400例,數(shù)據(jù)集按照7∶3的比例隨機生成訓(xùn)練集和測試集,細碎圖斑與正常圖斑的比例為5∶5。實驗環(huán)境為Ubuntu18.04操作系統(tǒng),CPU為Intel i7-9700F,CPU主頻為4.5 GHz,GPU為NVIDIA GTX 1050ti,基于CUDA 10.2、cuDNN 7.6.5。實驗使用PyTorch深度學(xué)習(xí)框架,訓(xùn)練過程中,使用Adam優(yōu)化算法和叉熵損失函數(shù),每批樣本量為4個,迭代次數(shù)為200次,訓(xùn)練輪次為5輪,取最優(yōu)結(jié)果。

        3 模型訓(xùn)練與測試

        3.1 參數(shù)初始化

        模型定義的損失函數(shù)為分類訓(xùn)練中常用的交叉熵函數(shù):

        其中,p代表真實值,q為預(yù)測值。

        網(wǎng)絡(luò)參數(shù)的初始化方法:選擇PyTorch中TorchVision庫中的預(yù)訓(xùn)練模型用于本模型的初始化,若使用隨機的參數(shù)初始化,由于梯度彌散導(dǎo)致淺層參數(shù)不易學(xué)習(xí),因此將導(dǎo)致收斂速度慢,檢測效果也不理想。

        3.2 模型表現(xiàn)

        3種模型的準確率隨著迭代的變化曲線如圖4所示,MobileNet v2和ResNet-50的訓(xùn)練初始誤差很大,但是隨著訓(xùn)練的進行,其誤差下降迅速,ResNet-50神經(jīng)網(wǎng)絡(luò)在第40次迭代時誤差下降到0.001以下,而MobileNet v2神經(jīng)網(wǎng)絡(luò)需要訓(xùn)練的時間更長。

        為評估這3種不同的模型,先對2種網(wǎng)絡(luò)使用相同的數(shù)據(jù)進行訓(xùn)練,具體數(shù)據(jù)結(jié)果見表1、表2。在訓(xùn)練200輪后,從平均分類準確率來看,ResNet-50網(wǎng)絡(luò)下的平均準確率、細碎圖斑檢出率和正常圖斑檢出率分別為98.47%、86.95%和93.33%,MobileNet v2網(wǎng)絡(luò)下的平均準確率、細碎圖斑檢出率和正常圖斑檢出率分別為87.30%、84.50%和92.32%??梢钥闯?,經(jīng)過200輪迭代后,兩種神經(jīng)網(wǎng)絡(luò)都很好地從訓(xùn)練集中學(xué)到了細碎圖斑的特征。

        對比圖5、圖6可以發(fā)現(xiàn),2種神經(jīng)網(wǎng)絡(luò)取得相同模型性能所需的訓(xùn)練次數(shù)不同。MobileNet v2網(wǎng)絡(luò)和ResNet -50網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)架構(gòu)的分類精度都隨著訓(xùn)練次數(shù)的增加,網(wǎng)絡(luò)的平均準確率逐步提升,表明網(wǎng)絡(luò)一直在學(xué)習(xí)數(shù)據(jù)。ResNet -50網(wǎng)絡(luò)收斂的速度更快,在40次迭代后模型就能擁有很好的性能,但是在后續(xù)的訓(xùn)練時,可能會伴隨著過擬合,造成檢出率的波動;而MobileNet v2網(wǎng)絡(luò)需要很多的訓(xùn)練才能達到ResNet -50網(wǎng)絡(luò)類似的模型性能,但是在130輪迭代后模型的性能更加穩(wěn)定,不易過擬合。

        運行速度上,MobileNet v2網(wǎng)絡(luò)速度為400幀/s,ResNet-50網(wǎng)絡(luò)速度為100幀/s。

        研究發(fā)現(xiàn),由卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建下的MobileNet v2網(wǎng)絡(luò)和ResNet-50網(wǎng)絡(luò)都能快速地識別細碎圖斑,對不同大小、形態(tài)各異的大部分細碎圖斑都能夠有效檢出,說明卷積神經(jīng)網(wǎng)絡(luò)能夠從小樣本訓(xùn)練中提取出有效的細碎圖斑特征。

        4 總結(jié)

        本文使用人工神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,比較測試了MobileNet v2網(wǎng)絡(luò)和ResNet-50網(wǎng)絡(luò),使用南寧的數(shù)據(jù)作為數(shù)據(jù)集。實驗結(jié)果表明,在識別精度上,ResNet-50網(wǎng)絡(luò)和MobileNet v2網(wǎng)絡(luò)的準確率均分別為89.47%、87.30%,ResNet-50網(wǎng)絡(luò)的準確率比MobileNet v2網(wǎng)絡(luò)準確率高,可見ResNet-50神經(jīng)網(wǎng)絡(luò)提取圖片特征的性能比MobileNet v2神經(jīng)網(wǎng)絡(luò)高;在識別速度上,MobileNet v2網(wǎng)絡(luò)的速度比ResNet-50網(wǎng)絡(luò)速度快,識別大量細碎圖斑時,MobileNet v2網(wǎng)絡(luò)有明顯的優(yōu)勢。

        使用卷積神經(jīng)網(wǎng)絡(luò)的模型達到了預(yù)期的分類識別效果,表明使用人工智能進行細碎圖斑識別是可行的,但是由于本文采用的數(shù)據(jù)集是基于作者人工判讀確定,并不是專家判定,而且數(shù)據(jù)集小,使得訓(xùn)練集的圖斑的特征并不能完全覆蓋,使得模型的泛化性能不足,若需要進一步提升模型的性能,則需要進一步提升訓(xùn)練集的容量。

        參 考 文 獻

        [1]Lecun Y,Bottou L.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1998,86(11):2278-2324.

        [2]KRIZHEVSKY A. One weird trick for parallelizing co-nvolutional neural networks[J]. arXiv,2014(5):1404-1497.

        [3]趙丹新,孫勝利.基于ResNet的遙感圖像飛機目標檢測新方法[J].電子設(shè)計工程,2018,26(22):170-174.

        [4]譚越,鄒福泰.基于ResNet和BiLSTM的僵尸網(wǎng)絡(luò)檢測方法[J].通信技術(shù),2019,52(12):2975-2981.

        [5]徐豐,王海鵬,金亞秋.深度學(xué)習(xí)在SAR目標識別與地物分類中的應(yīng)用[J].雷達學(xué)報,2017,6(2):136-148.

        [6]HE K,ZHANG X,REN S,et al.Deep Residual Learning for Image Recognition;proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR)[C].June,2016:27-30.

        [7]Sandler M,Howard A,Zhu M,et al.MobileNetV2:Inverted Residuals and Linear Bottlenecks[C].com-puter vision and pattern recognition,2018:4510-4528.

        猜你喜歡
        分類深度模型
        一半模型
        分類算一算
        深度理解一元一次方程
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        分類討論求坐標
        深度觀察
        深度觀察
        深度觀察
        數(shù)據(jù)分析中的分類討論
        美腿丝袜在线观看视频| 91久久精品国产91久久| 久久精品性无码一区二区爱爱| 亚洲区福利视频免费看| 亚洲国产综合在线亚洲区亚洲av| 女人色熟女乱| 人人妻人人玩人人澡人人爽| 日本国产一区二区三区在线观看| 国产中文字幕亚洲国产| 少妇真实被内射视频三四区| 亚洲处破女av日韩精品| 婷婷色综合成人成人网小说 | 美女露出粉嫩小奶头在视频18禁| 亚洲综合精品伊人久久| 人妻AV无码一区二区三区奥田咲 | 美女人妻中文字幕av| 日本在线观看一区二区三| 亚洲av无码成人专区片在线观看| 国产一级毛片卡| 日本高清在线一区二区三区| 亚洲av日韩av激情亚洲| 中国凸偷窥xxxx自由视频| 人妻中出精品久久久一区二| 丝袜美腿在线播放一区二区| 欧美成人秋霞久久aa片| 欧美丰满熟妇乱xxxxx图片| 91情侣在线精品国产免费| 国产三区二区一区久久| 亚洲va国产va天堂va久久| 亚洲V日韩V精品v无码专区小说| 日本最新在线一区二区| 国产亚洲超级97免费视频| 亚洲熟女乱色综合亚洲图片| 999精品免费视频观看| 婷婷久久亚洲中文字幕| 国产v片在线播放免费无码| 亚洲影院天堂中文av色| 日韩精品不卡一区二区三区| 校园春色综合久久精品中文字幕| 久久久久久好爽爽久久| 精品国产一区二区三区亚洲人|