亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學(xué)習(xí)算法的圖像集識別

        2017-09-26 08:32:34張玉冰于威威
        現(xiàn)代計算機 2017年21期
        關(guān)鍵詞:池化層權(quán)值卷積

        張玉冰,于威威

        (上海海事大學(xué)信息工程學(xué)院,上海201306)

        基于深度學(xué)習(xí)算法的圖像集識別

        張玉冰,于威威

        (上海海事大學(xué)信息工程學(xué)院,上海201306)

        深度學(xué)習(xí)技術(shù)是機器學(xué)習(xí)技術(shù)的新發(fā)展。它結(jié)合機器學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)的特點,通過構(gòu)建多隱層的網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)對人腦網(wǎng)絡(luò)的模仿。結(jié)合生物仿生學(xué)的研究,模擬人腦進行模式識別,包括文字,圖像及聲音等的特征提取及分類。深度學(xué)習(xí)網(wǎng)絡(luò)由于包含多層中間隱層,所以對輸入數(shù)據(jù)能逐級提取從底層到高層的特征,從而能很好地建立從底層信號到高層語義的映射關(guān)系。在圖像識別領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)表現(xiàn)優(yōu)異。但傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度過慢。自動編碼機可以實現(xiàn)圖像的壓縮和解釋。為提高速度,結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和自動編碼機提出一種針對圖像新的識別方式。將圖像先經(jīng)過自動編碼機進行初步特征提取,再結(jié)合卷積神經(jīng)網(wǎng)絡(luò)對圖像集進行識別。與已有的識別算法相比較,提高識別速度,保證識別率。

        深度學(xué)習(xí);卷積神經(jīng)網(wǎng)絡(luò);圖像識別;自動編碼機;特征提??;圖像預(yù)處理

        0 引言

        深度學(xué)習(xí)技術(shù)是機器學(xué)習(xí)技術(shù)的新發(fā)展。它結(jié)合機器學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)的特點,通過構(gòu)建多隱層的網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)對人腦網(wǎng)絡(luò)的模仿。結(jié)合生物仿生學(xué)的研究,模擬人腦進行模式識別。包括文字,圖像及聲音等的特征提取及分類。深度學(xué)習(xí)是無監(jiān)督學(xué)習(xí)的一種[1]。

        深度學(xué)習(xí)起源于神經(jīng)網(wǎng)絡(luò),它是神經(jīng)網(wǎng)絡(luò)的深度延伸。神經(jīng)網(wǎng)絡(luò)中也包含深度學(xué)習(xí)的結(jié)構(gòu),如含多隱層的多層感知器。深度學(xué)習(xí)的原理是通過對原識別目標的低層特征進行提取和組合,最終生成目標內(nèi)含的深層次的特征或?qū)傩浴Mㄟ^這種方式,可以探究數(shù)據(jù)或圖像中深層次的特征[2]。

        深度學(xué)習(xí)的根本目的就是通過大量的數(shù)據(jù)樣本來進行學(xué)習(xí),借助多隱層的深度網(wǎng)絡(luò)結(jié)構(gòu),來提取到更有用的特征,從而最終實現(xiàn)對目標的分類,并且提高分類成功率。深度學(xué)習(xí)與傳統(tǒng)的淺層神經(jīng)網(wǎng)絡(luò)的不同,主要包含以下幾個方面:(1)深度學(xué)習(xí)強調(diào)深度這個概念,其網(wǎng)絡(luò)的中間隱層一般有3層以上,多的甚至達到10層以上的中間隱層;(2)深度學(xué)習(xí)強調(diào)了對特征的學(xué)習(xí),它將目標中的低層特征進行提取,然后經(jīng)過低層特征的不同組合,形成目標內(nèi)在不易發(fā)現(xiàn)的深層次特征,模擬人腦的學(xué)習(xí)方式,最終提高分類的準確性。相比于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò),通過大量數(shù)據(jù)進行學(xué)習(xí),并對其深層的特征進行構(gòu)造和分類,深度學(xué)習(xí)網(wǎng)絡(luò)更能揭示數(shù)據(jù)的內(nèi)在信息[3]。

        當前深度學(xué)習(xí)已經(jīng)有很多模型和算法,包括最基礎(chǔ)的深度網(wǎng)絡(luò)結(jié)構(gòu)自動編碼器(AutoEncoder),以及對自動編碼機進行改動和提升的稀疏自動編碼器(Sparse AutoEncoder),降噪自動編碼器(Denoising Au?toEncoders)等,還包括深信度網(wǎng)絡(luò)(Deep Belief Net?work),以及卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Net?works)等。在這其中,卷積神經(jīng)網(wǎng)絡(luò)由于其特殊的構(gòu)造方式,為模式識別領(lǐng)域(包括文字識別,圖像識別,語音識別等)帶來了福音。它的優(yōu)點包括在網(wǎng)絡(luò)結(jié)構(gòu)當中使用權(quán)值共享機制,對于同一個神經(jīng)元的權(quán)值,在不同的區(qū)域進行權(quán)值共享。通過這種方式可以有效地減少網(wǎng)絡(luò)當中權(quán)值的數(shù)量,簡化網(wǎng)絡(luò)結(jié)構(gòu)。另外對于卷積神經(jīng)網(wǎng)絡(luò)來說可以將圖像進行簡單的處理之后直接輸入網(wǎng)絡(luò)進行學(xué)習(xí),這樣就不需要像傳統(tǒng)的算法那樣有復(fù)雜的預(yù)處理(包括特征提取或數(shù)據(jù)重組)。卷積網(wǎng)絡(luò)是一個多層感知器[4],專門為識別二維形狀而特殊設(shè)計。這種網(wǎng)絡(luò)結(jié)構(gòu)對平移、傾斜、比例縮放或者其他形式的圖像變形具有高度不變性。但傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)對于尺寸稍大的輸入圖像,將會花費相當久的訓(xùn)練時間。

        因此,本文結(jié)合自動編碼機對圖像特征的良好表示,提出了基于AE改進的卷積神經(jīng)網(wǎng)絡(luò)方法。通過AE的一步簡單特征提取,大大減少了圖像的維度,顯著縮短了CNN的訓(xùn)練過程,簡化了網(wǎng)絡(luò)結(jié)構(gòu),提高了識別效率[5]。

        1 基于自動編碼機的改進卷積神經(jīng)網(wǎng)絡(luò)

        1.1 自動編碼器(AutoEncoderr,AE)

        AE屬于無監(jiān)督學(xué)習(xí),不需要對訓(xùn)練樣本進行標記。AE由三層網(wǎng)絡(luò)組成,其中輸入層神經(jīng)元數(shù)量與輸出層神經(jīng)元數(shù)量相等,中間層神經(jīng)元數(shù)量少于輸入層和輸出層。在網(wǎng)絡(luò)訓(xùn)練期間,每個訓(xùn)練樣本在經(jīng)過網(wǎng)絡(luò)后,會在輸出層產(chǎn)生一個新的信號。AE學(xué)習(xí)的目的就是使輸出信號與輸入信號盡量相似。

        AE訓(xùn)練結(jié)束之后,共包括兩部分,輸入層和中間層,我們可以用這兩層來對信號進行壓縮;其次是中間層和輸出層,我們可以用這兩層將壓縮的信號進行還原。

        自動編碼機原理如下:假設(shè)我們輸入一個n維的信號x(x∈[0,1]),經(jīng)由輸入層到達中間層,信號變?yōu)閥,可以用如下公式(1)表示:

        以上式子中的s是非線性函數(shù),如sigmoid.W是輸入層到中間層的權(quán)值,b為中間層的偏置(bias),壓縮后的信號y可通過解碼層進行解碼,之后輸出到與輸入相同數(shù)量的n個神經(jīng)元所構(gòu)成的輸出層。假設(shè)重構(gòu)之后的信號為z,則公式(2)如下:

        同上,s為非線性函數(shù),例如sigmoid函數(shù)。W'代表中間層到輸出層的鏈接權(quán)值。b'代表中間層的偏置(bias)。公式結(jié)果z被認為是通過網(wǎng)絡(luò)解析后對x的一個預(yù)測。一般認為,權(quán)重矩陣W'被設(shè)定為W的轉(zhuǎn)置:W'=WT.自動編碼機結(jié)構(gòu)如圖1所示。

        圖1 自動編碼機網(wǎng)絡(luò)結(jié)構(gòu)

        1.2 卷積神經(jīng)網(wǎng)絡(luò)(CNN)

        卷積神經(jīng)網(wǎng)絡(luò)(CNN)是深度學(xué)習(xí)中的一種,類似于人工神經(jīng)網(wǎng)絡(luò)。其已成為當前語音分析和圖像識別領(lǐng)域的研究熱點。它在網(wǎng)絡(luò)結(jié)構(gòu)當中使用權(quán)值共享機制,對于同一個神經(jīng)元的權(quán)值,在不同的區(qū)域進行權(quán)值共享。減少了權(quán)值的數(shù)量。且它可以將圖像進行簡單的處理之后直接輸入網(wǎng)絡(luò)進行學(xué)習(xí),這樣就不需要像傳統(tǒng)的算法那樣有復(fù)雜的預(yù)處理(包括特征提取或數(shù)據(jù)重組)[6]。CNN主要用來識別位移、縮放及其他形式扭曲不變性的二維圖形。再者由于同一特征映射面上的神經(jīng)元權(quán)值相同,所以網(wǎng)絡(luò)可以并行學(xué)習(xí),這也是卷積網(wǎng)絡(luò)相對于神經(jīng)元彼此相連網(wǎng)絡(luò)的一大優(yōu)勢。

        卷積神經(jīng)網(wǎng)絡(luò)的組成為第一層的輸入層,可直接將圖像作為輸入,也可以是提取后的特征。之后的層為卷積層和池化層[7]交替出現(xiàn),來對輸入進行特征的提取,最后是一到兩層全連接層,將特征連接為長向量輸入到分類器中進行分類,如Softmax[8]。卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

        1.3 基于自動編碼機的改進卷積神經(jīng)網(wǎng)絡(luò)

        由于自動編碼機可以很好地壓縮圖像的特征,所以我們可作如下改進。以手寫數(shù)字數(shù)據(jù)集mnist為例,初始圖像大小為28×28。步驟為:

        (1)構(gòu)建一個28-18-28的自動編碼機。

        (2)將圖像輸入自動編碼機進行訓(xùn)練,學(xué)習(xí)權(quán)值W。

        (3)將訓(xùn)練好的自動編碼機的中間層連接到卷積神經(jīng)網(wǎng)絡(luò)的輸入層。

        (4)對卷積神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,由于維度變低,所以訓(xùn)練時間大大縮短。

        (5)訓(xùn)練完成,即可進行圖像分類識別。

        圖2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        改進算法結(jié)構(gòu)如圖3所示。

        圖3 基于自動編碼機的改進CNN算法[9]

        2 實驗結(jié)果與分析

        2.1 數(shù)據(jù)預(yù)處理

        本節(jié)主要介紹算法數(shù)據(jù)預(yù)處理過程,為產(chǎn)生更有效的實驗結(jié)果,采用兩個數(shù)據(jù)集進行對比實驗分析。

        Mnist數(shù)據(jù)集,mnist手寫數(shù)字集是LeNet-5算法的經(jīng)典數(shù)據(jù)集[10]。

        部分ImageNet數(shù)據(jù)集,ImageNet數(shù)據(jù)集是ILS?VRC比賽用數(shù)據(jù)集,屬于自然數(shù)據(jù)集。由于原Ima?geNet數(shù)據(jù)集過大,所以為更快顯示實驗對比結(jié)果,從中截取了部分圖像,共5類,每類200張圖像,尺寸統(tǒng)一為64×64。

        2.2 算法實現(xiàn)與比較

        實驗環(huán)境:Intel酷睿i7 CPU,內(nèi)存4G,Win10 64位,編程環(huán)境為MATLAB R2015a

        實驗數(shù)據(jù):mnist手寫數(shù)字集、imagenet數(shù)據(jù)集

        比較算法:卷積神經(jīng)網(wǎng)絡(luò)算法、基于自動編碼機的改進卷積神經(jīng)網(wǎng)絡(luò)算法

        (1)mnist數(shù)據(jù)集

        對于mnist數(shù)據(jù)集,構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為,輸入層大小為28×28的,卷積層1提取6組特征圖[11],卷積核大小為5×5,池化層1比例為1:2,卷積層2提取12組特征圖,卷積核大小為5×5,池化層2比例為1:2,頂層使用sigmoid做分類器[12]。

        構(gòu)建改進算法結(jié)構(gòu)為,自動編碼機結(jié)構(gòu)為28-18-28,CNN輸入層為18×18,卷積層1為提取6組特征圖,卷積核大小為3×3,池化層1比例為1:2,卷積層2為提取12組特征圖,卷積核大小為3×3,池化層2比例為1:2,頂層使用sigmoid做分類器。

        進行一次迭代,算法實驗結(jié)果如下:

        表1 mnist數(shù)據(jù)集實驗結(jié)果

        由上表可知,在mnist數(shù)據(jù)集基礎(chǔ)上,改進算法所花時間要稍長于原算法,準確率方面相差不大。原因是對于小尺寸的圖像集,進行自動編碼機訓(xùn)練所花的時間要長于因為特征提取而縮短的訓(xùn)練時間。

        (2)ImageNet圖像集

        對于ImageNet圖像集,構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為,輸入層大小為64×64的,卷積層1提取6組特征圖,卷積核大小為5×5,池化層1比例為1:2,卷積層2提取12組特征圖,卷積核大小為3×3,池化層2比例為1:2,卷積層3提取24組特征圖,卷積核大小為5×5,池化層3比例為1:2,頂層使用sigmoid做分類器。

        構(gòu)建改進算法結(jié)構(gòu)為,自動編碼機結(jié)構(gòu)為64-32-64,CNN輸入層為32×32,卷積層1為提取6組特征圖,卷積核大小為5×5,池化層1比例為1:2,卷積層2為提取12組特征圖,卷積核大小為5×5,池化層2比例為1:2,頂層使用sigmoid做分類器。

        進行30次迭代,算法實驗結(jié)果如下:

        表2 ImageNet數(shù)據(jù)集實驗結(jié)果

        由上表可知,在ImageNet數(shù)據(jù)集基礎(chǔ)上,改進后的CNN算法所花的時間大大縮短,而準確度方面與改進前相當。

        (3)綜合比較

        不同數(shù)據(jù)集算法時間對比如圖4所示。

        對于mnist圖像集,由于提取特征之后的尺寸相比較原圖像集并沒有差距很大,所以因為改進算法需要訓(xùn)練自動編碼機的原因,所花費的時間要稍長于原CNN算法。

        圖4 不同數(shù)據(jù)集算法時間對比

        對于ImageNet圖像集,原始的CNN算法,由于圖像的尺寸變大,為提高識別率,不得不增加卷積網(wǎng)絡(luò)層數(shù)。但對于改進CNN來說,因為自動編碼機將原圖特征進行了很好地提取,同時縮小了尺寸,使用兩層的卷積網(wǎng)絡(luò)已經(jīng)足夠,所以算法用時大大縮短。

        3 結(jié)語

        本文為解決傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練時間慢的問題,提出了使用自動編碼機進行初步特征提取并降低圖像維度,之后再通過卷積神經(jīng)網(wǎng)絡(luò)進行提取分類。進而加快卷積網(wǎng)絡(luò)的訓(xùn)練速度。通過實驗,可以看出在圖像集分辨率較高的時候,改進算法可以很好地降低算法的時間,而當圖像尺寸較小時,由于需對自動編碼機進行訓(xùn)練,所以花費時間會較多。

        [1]孫志軍,薛磊,許陽明,王正.深度學(xué)習(xí)研究綜述[J].計算機應(yīng)用研究,2012,08:2806-2809.

        [2]HINTON G E,OSINDERO S,TEH Y W.A Fast Learning Algorithm for Deep Belief Nets[J].Neural Computation,2006:1527-1554.

        [3]郭麗麗,丁世飛,深度學(xué)習(xí)研究進展[J].計算機科學(xué),2015年05期:28-33.

        [4]Y LeCun,L Bottou,Y Bengio,P Haffner.Gradient-based Learning Applied to Document Recognition[C].Proceedings of the IEEE 86, 1998.

        [5]Sukittanon S,Surendran AC,Platt J C.Convolutional Networks for Speech Detection[C].Proceedings of the Eighth International Conference on Spoken Language Processing.Jeju Island:ISCA,2004:1077-1080.

        [6]Steve Lawrence,C Lee Giles,Ah Chung Tsoi,Andrew D Back.Face Recognition:A Convolutional Neural Network Approach[J].IEEE Trans.on Neural Networks(S1045-9227),1997,8(1):98-113.

        [7]Scherer D,Müller A,Behnke S.Evaluation of Pooling Operations in Convolutional Architectures for Object Recognition[M].DiamantarasK,Duch W,Iliadis L S.Proceedings of the 20th International Conference on Artificial-Neural-Networks.BerlinHeidelberg:Springer-Verlag,2010:92-101.

        [8]Tivive,Fok Hing Chi,Bouzerdoum,Abdesselam.An Eye Feature Detector Based on Convolutional Neural Network[C].Proc.8th Int. Symp.Signal Process.Applic.Sydney,New South Wales,Australia.USA:IEEE,2005.

        [9]Sermanet P,LeCun Y.Traffic Sign Recognition with Multiscale Convolutional Networks[C].Proceedings of the 2011 International Joint Conference on Neural Networks.San Jose:IEEE,2011.

        [10]趙志宏,楊紹普,馬增強.基于卷積神經(jīng)網(wǎng)絡(luò)LeNet-5的車牌字符識別研究[J].系統(tǒng)仿真學(xué)報,2010,03:638-641.

        [11]Chen Y,Han C,Wang C.A CNN-based Face Detector with a Simple Feature Map and a Coarse-to-fine Classifier[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(3):1-12.

        [12]高學(xué),王有旺.基于CNN和隨機彈性形變的相似手寫漢字識別[J].華南理工大學(xué)學(xué)報(自然科學(xué)版),2014,01:73-76.

        Image Recognition Based on Depth Learning Algorithm

        ZHANG Yu-bing,YU Wei-wei

        (School of Information Engineering,Shanghai Maritime University,Shanghai 201306)

        Deep learning is a new development of machine learning technology.It combines the characteristics of neural network in machine learning. By constructing the network structure of multi hidden layer,it can imitate the human brain network.Combined with the research of bionics, it simulates the pattern recognition of human brain include characters,image and voice.Deep learning network consists of multi-layer hid?den layer,so it extracts feature from the bottom to the top of the input data,establishes a good signal from the bottom to the high-level se?mantic mapping relation.In the field of image recognition,convolutional neural network performs well.But the traditional convolution neu?ral network is too slow for training.Automatic coding machine can compress and interpret images.Proposes a new recognition method based on convolutional neural network and automatic coding machine for improving time performance.Firstly,the image is extracted by au?tomatic coding machine,and then the image set is identified by convolution neural network.Compared with the existing recognition algo?rithm,the recognition speed is improved,and the recognition rate is improved.

        1007-1423(2017)21-0026-05

        10.3969/j.issn.1007-1423.2017.21.005

        張玉冰(1993-03),男,山東煙臺人,碩士研究生,研究方向為信息處理與模式識別;于威威(1978-04),女,山東淄博人,副教授,碩士生導(dǎo)師,研究方向為模式識別、計算機圖像處理、數(shù)據(jù)挖掘;

        2017-04-28

        2017-07-25

        Deep Learning;Convolutional Neural Network;Image Recognition;Automatic Coding Machine;Feature Extraction;Image Preprocessing

        猜你喜歡
        池化層權(quán)值卷積
        一種融合時間權(quán)值和用戶行為序列的電影推薦模型
        基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
        卷積神經(jīng)網(wǎng)絡(luò)模型研究分析*
        CONTENTS
        基于卷積神經(jīng)網(wǎng)絡(luò)的紙幣分類與點鈔
        基于深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的人體行為識別研究
        科技傳播(2020年6期)2020-05-25 11:07:46
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        基于全卷積神經(jīng)網(wǎng)絡(luò)的SAR圖像目標分類*
        基于傅里葉域卷積表示的目標跟蹤算法
        基于權(quán)值動量的RBM加速學(xué)習(xí)算法研究
        美女福利一区二区三区在线观看| 日日澡夜夜澡人人高潮| 国产精品免费久久久久影院| 高清国产亚洲va精品| 精品人妻av中文字幕乱| 成人丝袜激情一区二区| 国产成人午夜精华液| 日韩在线视精品在亚洲| 亚洲一二三四五中文字幕| 亚洲国产精品综合久久网络| 人妻av中文字幕无码专区| 国产亚洲午夜精品| 午夜视频手机在线免费观看| 18禁免费无码无遮挡不卡网站| 精品人妻少妇一区二区三区不卡 | 无码熟妇人妻av在线影片最多 | 亞洲綜合一區二區三區無碼| 一区二区三区国产视频在线观看 | 免费a级毛片无码a∨中文字幕下载| 免费无码av片在线观看| 无码视频一区二区三区在线播放| 亚洲天堂av黄色在线观看| 久久婷婷五月综合色欧美| 亚洲丁香五月激情综合| 中文字幕日本熟妇少妇| 国产亚洲精品90在线视频| 无码人妻精品一区二区| 天堂中文资源在线地址| 蜜桃视频网站在线免费观看| 久久无码高潮喷水抽搐| 国产成人精品日本亚洲11| 色yeye在线观看| 伊人久久亚洲精品中文字幕| 日本最新免费二区三区| a级毛片免费观看视频| 一区二区三区国产视频在线观看| 中文字幕亚洲综合久久天堂av| 久久中文字幕无码专区| 久久er这里都是精品23| 亚洲精品在线免费视频| 久久久久波多野结衣高潮|