亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于SqueezeNet和FractalNet混合模型的圖像分類研究

        2019-12-06 08:48:53王子牛王許高建瓴陳婭先吳建華
        軟件 2019年10期
        關(guān)鍵詞:圖像分類卷積神經(jīng)網(wǎng)絡(luò)

        王子牛 王許 高建瓴 陳婭先 吳建華

        摘? 要: 針對傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(如Lenet5)在圖像的多分類任務(wù)中識別率不高、較新的卷積神經(jīng)網(wǎng)絡(luò)(如VGG16)在圖像的多分類任務(wù)中待優(yōu)化的參數(shù)達到千萬級別的問題。采用將SqueezeNet神經(jīng)網(wǎng)絡(luò)與FractalNet神經(jīng)網(wǎng)絡(luò)相結(jié)合的方法。本文使用SqueezeNet神經(jīng)網(wǎng)絡(luò)中的Fire Module來減少模型的參數(shù)、FractalNet神經(jīng)網(wǎng)絡(luò)的基本架構(gòu)來保證神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確度。結(jié)果顯示:在其它超參數(shù)基本相同的前提下,迭代40代時,DenseNet模型的測試集準(zhǔn)確度為79.92%,而混合模型的測試集準(zhǔn)確度為84.56% ,其待優(yōu)化的參數(shù)降至二百萬個左右,故混合模型對數(shù)據(jù)的擬合能力更強,模型參數(shù)保持較低水平。

        關(guān)鍵詞: SqueezeNet;FractalNet;DenseNet;圖像分類;混合模型;卷積神經(jīng)網(wǎng)絡(luò)

        中圖分類號: TP183? ? 文獻標(biāo)識碼: A? ? DOI:10.3969/j.issn.1003-6970.2019.10.011

        本文著錄格式:王子牛,王許,高建瓴,等. 基于SqueezeNet和FractalNet混合模型的圖像分類研究[J]. 軟件,2019,40(10):4649

        Image Classification Based on SqueezeNet and FractalNet Hybrid Model

        WANG Zi-niu1, WANG Xu2, GAO Jian-ling2, CHENG Ya-xian2, WU Jian-hua

        (1. Guizhou University, Guizhou 550000; 2. Guizhou University, School of Big Data and Information Engineering, Guizhou 550000)

        【Abstract】: For the traditional convolutional neural network (such as Lenet5), the recognition rate is not high in the multi-classification task of the image, and the newer convolutional neural network (such as VGG16) has to be optimized in the multi-classification task of the image. A method of combining the SqueezeNet neural network with the FractalNet neural network is employed. This paper uses the Fire Module in the SqueezeNet neural network to reduce the parameters of the model and the basic architecture of the FractalNet neural network to ensure the accuracy of the neural network model. The results show that under the premise that other superparameters are basically the same, the accuracy of the test set of the DenseNet model is 79.92% when the iteration is 40 generations, and the accuracy of the test set of the hybrid model is 84.56%, and the parameters to be optimized are reduced to two hundred. About 10,000 or so, the hybrid model has a stronger ability to fit the data, and the model parameters remain at a lower level.

        【Key words】: SqueezeNet; FractalNet; DenseNet; Image classification; Hybrid model; Convolutional neural network

        0? 引言

        隨著科學(xué)技術(shù)的發(fā)展,計算機視覺日益成熟,然而在過去,卷積神經(jīng)網(wǎng)絡(luò)對圖像的分類任務(wù)中一直追求準(zhǔn)確率而不在意神經(jīng)網(wǎng)絡(luò)模型的待優(yōu)化參數(shù)數(shù)目,雖然每年出來的卷積神經(jīng)網(wǎng)絡(luò)模型對圖像分類的準(zhǔn)確率逐年提高,但隨之而來的是待優(yōu)化參數(shù)的數(shù)目也逐年升高。2016年,F(xiàn)orrest N. Iandola, Song Han等人提出了SqueezeNet論文,該論文提到:同樣的精度,較小的CNN架構(gòu)提供至少三優(yōu)點[8-9]。(1)較小的CNN在分布式訓(xùn)練過程中需要跨服務(wù)器進行更少的通信[3-6]。(2)較小的CNN需要更少的帶寬。(3)較小的CNN提供了在FPG內(nèi)存有限的硬件上部署的可行性[1]。2017年,Gustav Larsson, Michael Maire等人提出了FractalNet論文,認(rèn)為殘差不是建立深度網(wǎng)絡(luò)唯一的基礎(chǔ)和方法。深度卷積網(wǎng)絡(luò)中真正的關(guān)鍵所在訓(xùn)練過程中網(wǎng)絡(luò)關(guān)于信息的傳遞能力。采用了一種類似student-teacher的學(xué)習(xí)機制,結(jié)合drop- path也能夠使得深度卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練得非常好[2]。為了使卷積神經(jīng)網(wǎng)絡(luò)具有較高的識別率又使其待優(yōu)化的參數(shù)減少,本文提出了將SqueezeNet神經(jīng)網(wǎng)絡(luò)中的Fire Module與FractalNet神經(jīng)網(wǎng)絡(luò)的基本架構(gòu)相結(jié)合起來對圖像進行多分類處理。

        1? SqueezeNet、FractalNet基本原理

        1.1? SqueezeNet基本原理

        為了保證卷積神經(jīng)網(wǎng)絡(luò)模型參數(shù)少、準(zhǔn)確性較好的研究目標(biāo)。在設(shè)計卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)時一般采用三個主要策略:策略一,使用1×1卷積核替換3×3卷積核;策略二,將輸入到3×3卷積核的通道數(shù)目減少;策略三,在網(wǎng)絡(luò)后期進行降采樣[1]。

        Fire模塊如圖一所示,F(xiàn)ire模塊中包括:squeeze層(其僅具有1×1卷積核)、e×pand層(其具有1×1和3×3的卷積核)。在Fire模塊中有三個可調(diào)整參數(shù)(超級參數(shù)):s1×1、e1×1、e3×3,其中s1×1表示squeeze層(所有1×1)中的卷積核數(shù)目,e1×1表示expand層中1×1卷積核數(shù)目,e3×3表示expand層中的3×3卷積核數(shù)目。當(dāng)使用Fire模塊時,將s1×1大小設(shè)置為小于(e1×1+e3×3)的整數(shù),因此squeeze層有助于將輸入通道的數(shù)目減少[1]。

        1.2? FractalNet基本原理

        Fractal,分形,來自于幾何學(xué),所謂分形就是從多個層次、多個角度、多個組成成分來共同解決一個問題。FractalNet就是一個這樣的結(jié)構(gòu),它通過多個不同深度的網(wǎng)絡(luò)組合,來共同構(gòu)建網(wǎng)絡(luò)模型。淺層提供更迅速的回答、深層提供更準(zhǔn)確的回答。FractalNet的結(jié)構(gòu)可以看成由多個以下模塊組成[2],其結(jié)構(gòu)如圖2所示。

        可以看到每一個Fractal的模塊,實際上就是由多個淺層和深層的聯(lián)合而成,層的深度成2的指數(shù)型增長。不同深度的輸出進行聯(lián)合時采用的不是ResNet中使用的加法,而是一個求均值的操作,這樣做的目的實際是由于每個聯(lián)合層的輸入的個數(shù)可能不同,求均值的話可能起到一個類似于歸一化的效果[2]。

        2? SqueezeNet和FractalNet混合模型

        利用SqueezeNet網(wǎng)絡(luò)中的fire模塊為基本單元,以FractalNet中的結(jié)構(gòu)為基本框架,構(gòu)建SqueezeNet和FractalNet混合模型?;締卧猣ire模塊中,通過squeeze層將輸入的圖片特征進行進行壓縮,通常將s1×1設(shè)置為特征通道數(shù)目的1/4或1/2,不進行下采樣,圖片特征經(jīng)過squeeze層后實現(xiàn)了壓縮并將其送入到expand層,expand層中有兩類卷積核分別為e1×1、e3×3,其卷積核數(shù)目設(shè)置為原圖片特征通道的一半,不進行下采樣,由于圖片特征不是直接輸入到3×3的卷積核和1×1的卷積核中去而是經(jīng)過1×1的卷積核進行特征的壓縮,故模型中的fire模塊可以減少整個神經(jīng)網(wǎng)絡(luò)的待優(yōu)化參數(shù)?;旌夏P偷幕究蚣芘cFractalNet模型相似,采用分形結(jié)構(gòu) ,將fire基本單元進行橫向堆疊、縱向擴展,逐級提取圖片中的特征信息,橫向深的分支可以提取復(fù)雜的圖片特征信息,橫向淺的分支可以提取簡單的圖片特征信息,分工合作,F(xiàn)ractalNet神經(jīng)網(wǎng)絡(luò)中的基本框架可以保證整個神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確度。混合模型中使用了Batch Normalization技術(shù)來防止因卷積神經(jīng)網(wǎng)絡(luò)導(dǎo)數(shù)過深而導(dǎo)致的梯度消失與梯度爆炸問題,使用混合模型更容易訓(xùn)練,考慮到計算機算力的限制,并未大量使用Batch Normalization技術(shù),而是橫向每經(jīng)過幾次3×3的卷積后設(shè)置一個Batch Normalization,做折中的處理?;旌夏P褪褂贸鼗瘜觼磉M行降采樣,步長strides=2,原圖片長寬為32×32,經(jīng)過兩次降采樣處理,特征層的長寬變?yōu)榱?×8。混合模型為了避免采用全連接層而產(chǎn)生大量的待訓(xùn)練的模型參數(shù)而采用Global Average Pooling(全局池化層)技術(shù),保證待訓(xùn)練參數(shù)盡可能少,圖片特征經(jīng)全局池化層后輸入到softmax分類器進行分類,根據(jù)特征信息計算出圖片屬于哪一類。由于圖片分類屬于分類問題故損失函數(shù)loss使用交叉熵進行計算[10-11]。采用梯度下降法進行混合模型的網(wǎng)絡(luò)參數(shù)優(yōu)化?;旌夏P偷木W(wǎng)絡(luò)結(jié)構(gòu)如圖5所示。

        Conv 1×1 s=1

        Conv 1×1 s=1 Conv 3×3 s=1

        3? 實驗結(jié)果與分析

        3.1? 基本硬件配置和實驗環(huán)境

        硬件配置:實驗采用一臺處理器為Intel(R)Core(TM)i5-4590 CPU @ 3.30GHz 3.30 GHz,安裝內(nèi)存(RAM)為8.00 GB的電腦。

        本論文代碼實現(xiàn)采用的操作系統(tǒng)為Windows 7,采用python 3.6.5作為編程語言。本論文中網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計采用Google開源的Tensorflow 1.8.0深度學(xué)習(xí)框架和keras 2.2.3深度學(xué)習(xí)框架進行混合模型網(wǎng)絡(luò)設(shè)計并進行實驗。

        3.2? 分類圖像數(shù)據(jù)集

        本實驗采用的cifar-10數(shù)據(jù)集是做實驗比較常用的分類數(shù)據(jù)集,該數(shù)據(jù)集共有60000張彩色圖像,這些圖像的像素為32*32*3,分為10個類,每個類6000張圖。其中50000張用于訓(xùn)練集,5000張用于驗證集,5000張用于測試集。數(shù)據(jù)集的十個類別分別是:airplane、automobile、bird、cat、deer、dog、frog、horse、ship、truck。

        3.3? 實驗結(jié)果

        本實驗采用mini-batch策略進行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,每次送入32張圖片進行訓(xùn)練,將所有的訓(xùn)練集全部訓(xùn)練一遍完需要1562個mini-batch,神經(jīng)網(wǎng)絡(luò)分類器采用10分類的softmax函數(shù),整個混合模型的損失函數(shù)為loss='categorical_crossentropy',本實驗具體的超參數(shù)如表1所示。

        本實驗采用的對照組神經(jīng)網(wǎng)絡(luò)為DenseNet網(wǎng)絡(luò),因為DenseNet相比于ResNet對圖像的分類有著更好的效果,是近年來分類效果較好的神經(jīng)網(wǎng)絡(luò)之一,具有代表性。兩組卷積模型運行的結(jié)果如表2所示。

        DenseNet模型的訓(xùn)練過程效果圖如圖6所示,其損失函數(shù)變化如圖7所示。

        由實驗結(jié)果得,在DenseNet與混合網(wǎng)絡(luò)模型的在深度基本相當(dāng)?shù)臈l件下,DenseNet網(wǎng)絡(luò)訓(xùn)練迭代40代達到的準(zhǔn)確率與混合模型訓(xùn)練迭代16代所達

        混合模型的訓(xùn)練過程效果圖如圖8所示,其損失函數(shù)如圖9所示

        到的準(zhǔn)確率基本相同,準(zhǔn)確率為80%左右?;旌夏P陀?xùn)練迭代40代其準(zhǔn)確率達到84.56%,高于DenseNet模型。由圖6得,混合模型在開始的前16代中,訓(xùn)練集的預(yù)測準(zhǔn)確率從0提升至80%左右,主要原因是在這個過程中損失函數(shù)的梯度值比較大,迭代時快速的向最優(yōu)點靠近,而代數(shù)從16至40代的過程中,整個訓(xùn)練集的預(yù)測準(zhǔn)確率從80%提高至88%,主要原因是在這個過程中越靠近最優(yōu)點的時候,損失函數(shù)的圖像越平坦,其梯度值就越小,迭代時以非常緩慢的速度向最優(yōu)點靠近。由表2中的實驗結(jié)果,兩者在迭代次數(shù)相同的條件下,混合模型的準(zhǔn)確率要高于DenseNet模型,故混合模型相對于DenseNet網(wǎng)絡(luò)具有更強模型表達能力,其中主要的原因是混合網(wǎng)絡(luò)的結(jié)構(gòu)更加的復(fù)雜化,這樣帶來的好處就是模型的學(xué)習(xí)能力增強了,簡單的特征提取與推理由深度較淺的網(wǎng)絡(luò)完成,復(fù)雜的特征提取與推理由深度較深的網(wǎng)絡(luò)完成,分工合作,共同完成任務(wù)。雖然混合模型網(wǎng)絡(luò)的結(jié)構(gòu)比較復(fù)雜,但其待優(yōu)化參數(shù)與DenseNet網(wǎng)絡(luò)的待優(yōu)化參數(shù)基本相當(dāng)甚至還低些,混合模型網(wǎng)絡(luò)的參數(shù)為2百萬左右比傳統(tǒng)的VGG-16的千萬級別的參數(shù)要低很多。由實驗結(jié)果表明,混合模型的測試集損失函數(shù)值為0.6012,DenseNet模型的測試集損失函數(shù)值為0.6742,故混合模型對實驗數(shù)據(jù)的擬合能力更好。

        4? 總結(jié)

        本論文提出的基于SqueezeNet和FractalNet混合模型對圖像分類的神經(jīng)網(wǎng)絡(luò)。本實驗利用SqueezeNet神經(jīng)網(wǎng)絡(luò)中的Fire Module來減少模型的參數(shù),利用FractalNet神經(jīng)網(wǎng)絡(luò)的基本框架來保證神經(jīng)網(wǎng)絡(luò)模型的準(zhǔn)確度。實驗證明混合模型神經(jīng)網(wǎng)絡(luò)相對于DenseNet神經(jīng)網(wǎng)絡(luò)來說具有更強的模型表達能力和更低的方差。本次實驗嘗試引入Inception-V4的思想將N*N的卷積核拆分成1*N和N*1的卷積核[7],以此來進一步降低整個神經(jīng)網(wǎng)絡(luò)的參數(shù),但實驗效果不理想,故不將3*3的卷積拆分成3*1和1*3的卷積。

        本文提出的基于SqueezeNet和FractalNet混合模型網(wǎng)絡(luò)也同樣存在缺點和可以改進的地方:(1)為了防止過擬合,本文采用的是L2正則化,可以嘗試另一種正則化方法,既使用dropout正則化進行優(yōu)化。

        參考文獻

        [1]Forrest N. Iandola1, Song Han2, Matthew W. Moskewicz1, Khalid Ashraf1, William J. Dally2, Kurt Keutzer1 SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PAR AMETERS AND <0.5MB MODEL SIZE Under review as a conference paper at ICLR 2017.

        [2]Gustav Larsson, Michael Maire, Gregory Shakhnarovich Frac talNet: Ultra-Deep Neural Networks without Residuals arXiv: 1605. 07648v1 [cs.CV] 24 May 2016.

        [3]李彥冬, 郝宗波, 雷航 卷積神經(jīng)網(wǎng)絡(luò)研究綜述 Journal of Computer Applications[J]. 計算機應(yīng)用, 2016, 36(9): 2508- 2515, 2565.

        [4]Gu J., Wang Z, Kuen J, Ma L, Shahroudy A, Shuai B, et al. (2015). Recent advances in convolutional neural networks. CoRR abs/1512.07108.

        [5]Goodfellow, I, Bengio, Y, Courville, A, Bengio, Y. Deep learning (Vol. 1). Cambridge: MIT press, 2016: p326-366.

        [6]王聰興, 劉寶亮. 一種基于圖像處理的表面故障裂紋檢測系統(tǒng)[J]. 軟件, 2018, 39(5): 144-150.

        [7]Inception-v4, inception-Res Net and the impact of residual connections on learning. SZEGEDY C, IOFFE S, VANH OUCKEV. https://arxiv.org/pdf/1602.07261.pdf.2016.

        [8]李昊泉, 史夢凡, 陳舒楠, 等. 卷積神經(jīng)網(wǎng)絡(luò)在案件分類上的應(yīng)用[J]. 軟件 2019(04): 222-225.

        [9]杜冠軍, 佟國香. 一種新的混合演化多目標(biāo)優(yōu)化算法[J]. 軟件, 2019(2): 6-10.

        [10]張明軍, 俞文靜, 袁志, 等. 視頻中目標(biāo)檢測算法研究[J]. 軟件, 2016, 37(4): 40-45.

        [11]張玉環(huán), 錢江. 基于兩種LSTM結(jié)構(gòu)的文本情感分析[J]. 軟件, 2018, 39(1): 116-120.

        猜你喜歡
        圖像分類卷積神經(jīng)網(wǎng)絡(luò)
        基于數(shù)據(jù)挖掘的圖像分類算法
        基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
        基于云計算的圖像分類算法
        基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
        基于錨點建圖的半監(jiān)督分類在遙感圖像中的應(yīng)用
        深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
        一種基于引導(dǎo)濾波和MNF的高光譜遙感圖像分類方法
        基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
        軟件工程(2016年8期)2016-10-25 15:47:34
        基于最大似然法的南京市土地利用類型分類研究
        商(2016年22期)2016-07-08 14:32:30
        基于卷積神經(jīng)網(wǎng)絡(luò)的樹葉識別的算法的研究
        久久日本视频在线观看| 欧美日韩一卡2卡三卡4卡 乱码欧美孕交| 无码中文字幕人妻在线一区二区三区| AV教师一区高清| 国产丝袜高跟美腿一区在线| 国产视频一区2区三区| 精品激情成人影院在线播放| 国产色xx群视频射精| 131美女爱做视频| 亚洲欧美日韩精品高清| 亚洲av一区二区网址| 亚洲国产综合在线亚洲区亚洲av| 丰满少妇人妻久久久久久| 久久久久久久岛国免费观看| 亚洲人成人一区二区三区| 国产精品高清亚洲精品| 大屁股流白浆一区二区三区| 精品福利一区二区三区免费视频| 亚洲免费网站观看视频| 国产无套视频在线观看香蕉| 亚洲精品一区二区三区av| 一区二区高清免费日本| 天天做天天摸天天爽天天爱| 最近最新中文字幕| 国产亚洲sss在线观看| 日本不卡一区二区三区在线| 少妇被黑人嗷嗷大叫视频| 人妻精品久久无码区| 最近中文字幕在线mv视频在线 | 无码三级在线看中文字幕完整版| 精品综合久久久久久99| 亚洲综合新区一区二区| 日本av在线一区二区| 久久久国产乱子伦精品作者| 韩国19禁主播深夜福利视频| 秀人网嫩模李梓熙大尺度 | 国内嫩模自拍诱惑免费视频 | 久久精品国产亚洲av成人文字| 国产二区交换配乱婬| 香蕉久久久久久久av网站| 极品粉嫩小仙女高潮喷水视频|