亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于卷積神經(jīng)網(wǎng)絡(luò)的圖像驗(yàn)證碼識別①

        2018-11-14 11:36:44顧乃杰張孝慈林傳文
        關(guān)鍵詞:詞組分組準(zhǔn)確率

        秦 波,顧乃杰,張孝慈,林傳文

        (中國科學(xué)技術(shù)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 網(wǎng)絡(luò)計(jì)算與高效算法實(shí)驗(yàn)室,合肥 230027)

        (安徽省計(jì)算與通信軟件重點(diǎn)實(shí)驗(yàn)室,合肥 230027)

        (中國科學(xué)技術(shù)大學(xué) 先進(jìn)技術(shù)研究院,合肥 230027)

        1 引言

        驗(yàn)證碼(Completely Automated Public Turing test to tell Computers and Humans Apart,CAPTCHA)是一種用于區(qū)分人類行為與機(jī)器行為的算法.作為互聯(lián)網(wǎng)行業(yè)通用的基礎(chǔ)安全策略,驗(yàn)證碼擔(dān)負(fù)著保護(hù)網(wǎng)絡(luò)賬號安全體系的第一道防御,用以驗(yàn)證和防范機(jī)器程序的惡意行為,如何提升驗(yàn)證碼的安全性并防止自動破解程序,已經(jīng)成為一個至關(guān)重要的問題.

        作為深度神經(jīng)網(wǎng)絡(luò)的一種,卷積神經(jīng)網(wǎng)絡(luò)(Convolutionional Neural Networks,CNN)在圖像識別領(lǐng)域內(nèi)表現(xiàn)出優(yōu)異的性能[1],且大大優(yōu)于傳統(tǒng)的機(jī)器學(xué)習(xí)方法.較傳統(tǒng)方法而言,CNN的主要優(yōu)勢在于卷積層提取的圖像特征具有很強(qiáng)的表達(dá)能力,避免了傳統(tǒng)識別技術(shù)存在的數(shù)據(jù)預(yù)處理、人工設(shè)計(jì)特征等問題.在具備足夠的標(biāo)注樣本的情況下,只需要定義一個合適的網(wǎng)絡(luò)模型,就能夠取得遠(yuǎn)高于傳統(tǒng)方法所取得的識別效果.

        本文設(shè)計(jì)了一種基于卷積神經(jīng)網(wǎng)絡(luò)的圖像驗(yàn)證碼識別方法,對傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練中存在的模型復(fù)雜、輸出層參數(shù)冗余等問題進(jìn)行了改進(jìn).本文通過卷積層級聯(lián)、殘差學(xué)習(xí)、全局池化和分組卷積等技術(shù)手段,在保證網(wǎng)絡(luò)識別精度的前提下,壓縮了模型規(guī)模.

        2 相關(guān)工作

        鑒于驗(yàn)證碼在互聯(lián)網(wǎng)的廣泛應(yīng)用,國內(nèi)外學(xué)者對驗(yàn)證碼的設(shè)計(jì)和識別進(jìn)行了廣泛的研究.Zhang和Wang[2]利用傳統(tǒng)圖像處理方法并結(jié)合KNN算法進(jìn)行驗(yàn)證碼識別研究.李興國等人[3]提出一種滴水算法分割驗(yàn)證碼.Lu等人[4]分別提出了不同的字符分割算法并結(jié)合SVM分類算法及BP神經(jīng)網(wǎng)絡(luò)進(jìn)行字符識別.Yan等人[5]分析并研究了現(xiàn)有微軟驗(yàn)證碼的缺陷,并設(shè)計(jì)了虛擬問答及基于情感方法對驗(yàn)證碼進(jìn)行識別.Mori和Malik[6]利用形狀上下文方法對驗(yàn)證碼進(jìn)行了識別研究.

        深度神經(jīng)網(wǎng)絡(luò)在科學(xué)研究中被廣泛使用,Yann LeCun等人[7]提出了基于CNN的文字識別系統(tǒng)LeNet-5.Hinton等人[8]提出的深度置信網(wǎng)絡(luò)(Deep Belief Network,DBN)可以更快地訓(xùn)練深度網(wǎng)絡(luò).在圖像應(yīng)用中,CNN采用隨機(jī)梯度下降(Stochastic Gradient Decent,SGD)和GPU (Graphics Processing Unit)加快了深度網(wǎng)絡(luò)的訓(xùn)練速率.IDSIA實(shí)驗(yàn)室[9]針對手寫中文漢字識別提出一種多列CNN模型,通過訓(xùn)練多個CNN網(wǎng)絡(luò)并對結(jié)果進(jìn)行簡單的平均集成實(shí)現(xiàn)并行訓(xùn)練.Zhong等人[10]提出一種HCCR-GoogLeNet模型,利用GoogLeNet的網(wǎng)絡(luò)結(jié)構(gòu)并引入手寫漢字的多尺度多方向特征,完成脫機(jī)手寫中文漢字識別.范望等人[11]構(gòu)造出卷積神經(jīng)網(wǎng)絡(luò)用于漢字驗(yàn)證碼識別.針對不分割的驗(yàn)證碼識別,Google研究人員[12]采用概率模型和卷積神經(jīng)網(wǎng)絡(luò)開發(fā)了一種無需字符分割的街道門牌識別系統(tǒng),對門牌準(zhǔn)確率高達(dá)90%.Yann LeCun等人[13]采用空間位移神經(jīng)網(wǎng)絡(luò)(SDNN)和隱馬爾科夫模型(HMM)對帶有粘連的手寫字符進(jìn)行識別.Shi等人[14]利用CNN和R N N結(jié)合思想,提出一種卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(CRNN)完成驗(yàn)證碼的整體識別.

        3 網(wǎng)絡(luò)模型設(shè)計(jì)

        本文提出的卷積神經(jīng)網(wǎng)絡(luò)模型主要由以下模塊組成: 級聯(lián)卷積層、殘差層以及分類池化層,如圖1所示,下面對這些結(jié)構(gòu)進(jìn)行具體介紹.

        圖1 本文網(wǎng)絡(luò)結(jié)構(gòu)

        3.1 級聯(lián)卷積層

        圖2 級聯(lián)卷積層

        (1) 參數(shù)量

        假設(shè)圖2中所有數(shù)據(jù)有C個通道,下面將比較3個 3 ×3卷積核和1個卷積核的參數(shù)量.

        由公式(1)和(2)可知,兩者的參數(shù)量倍數(shù)為:

        (2) 感受野

        感受野(Receptive Field)計(jì)算方法如下:

        3.2 殘差層

        隨著網(wǎng)絡(luò)深度的增加,網(wǎng)絡(luò)出現(xiàn)無法收斂、性能退化等問題[16].主要原因在于經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)參數(shù)梯度值等于所有前層參數(shù)梯度的乘積,當(dāng)淺層的參數(shù)梯度值過小就容易產(chǎn)生梯度消失的問題,從而影響到網(wǎng)絡(luò)的表現(xiàn)性能.研究顯示,殘差結(jié)構(gòu)[17]不僅能夠解決網(wǎng)絡(luò)深度深而性能退化的問題,而且也解決了梯度消失的問題.

        下面將對殘差層進(jìn)行分析.為了不失一般性,從第l層到第L層的前向過程可表示為:

        可以看出,網(wǎng)絡(luò)參數(shù)學(xué)習(xí)過程實(shí)際上等價(jià)于對前面層的參數(shù)梯度的求和過程,即從是線性疊加的過程,因而允許網(wǎng)絡(luò)深度增加,而不會出現(xiàn)梯度消失的問題.

        圖3 殘差模塊

        圖4 卷積分組

        假如輸入特征圖個數(shù)為N,該層的卷積核(kernel)個數(shù)為M,計(jì)算下一層特征圖是利用M個kernel和N個輸入特征圖.引入group后,計(jì)算下一層特征圖則利用M/group個kernel和N/group個輸入特征圖.

        3.3 分類池化層

        傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)中,卷積層和池化層等用于特征提取,隨后利用一到多個全連接層將學(xué)習(xí)到的特征空間隱式地映射到樣本標(biāo)記空間,最后在輸出層由softmax激活函數(shù)完成目標(biāo)分類任務(wù).全連接層的弊端在于參數(shù)過多,容易出現(xiàn)過擬合等情況.本文使用分類池化層來替代全連接層[18](圖5).這里分類池化層實(shí)際上是全局平均池化層(圖6),其沒有需要優(yōu)化的參數(shù),從而可以避免出現(xiàn)過擬合情況.同時(shí)其對空間信息求和,因而對空間變換更加健壯.

        圖5 分類池化層

        圖6 全局平均池化層

        圖6顯示是全局平均池化層,輸出特征圖的計(jì)算方法如下:

        3.4 網(wǎng)絡(luò)結(jié)構(gòu)

        本文結(jié)構(gòu)的具體網(wǎng)絡(luò)參數(shù)見表1.其中Conv1_x和Pool1是級聯(lián)卷積層,Conv2_x至Conv5_x是殘差層,Pool2是分類池化層.

        4 實(shí)驗(yàn)與分析

        4.1 平臺介紹

        本文在深度學(xué)習(xí)框架Caffe的基礎(chǔ)上,實(shí)現(xiàn)了基于卷積神經(jīng)網(wǎng)絡(luò)的圖像驗(yàn)證碼識別方法.

        實(shí)驗(yàn)平臺使用Intel XeonE5-2620 v2 2.1 GHZ CPU,126 GB 內(nèi)存,以及 NVIDIA Tesla K40m GPU.其中Tesla K40m GPU單精度峰值4.29 Tflops,顯存為12 GB GDDR5,顯存帶寬為288 Gbytes/sec.

        4.2 數(shù)據(jù)集介紹

        本文實(shí)驗(yàn)數(shù)據(jù)以鐵路購票網(wǎng)站驗(yàn)證碼和正方教務(wù)系統(tǒng)驗(yàn)證碼為例.

        (1) 購票網(wǎng)站驗(yàn)證碼

        購票網(wǎng)站驗(yàn)證碼共收集109 900張,包含圖形302類,訓(xùn)練圖片數(shù)112 599張; 包含中文詞組302類,訓(xùn)練圖片數(shù)39 931張.對于驗(yàn)證碼識別之前,首先需要對驗(yàn)證碼進(jìn)行預(yù)處理操作,分割成單獨(dú)子圖和中文漢字或詞組.具體購票網(wǎng)站驗(yàn)證碼如圖7所示.

        表1 網(wǎng)絡(luò)參數(shù)

        圖7 購票網(wǎng)站驗(yàn)證碼

        (2) 正方教務(wù)系統(tǒng)驗(yàn)證碼

        正方教務(wù)系統(tǒng)驗(yàn)證碼由字母和數(shù)字構(gòu)成,共包含33類,訓(xùn)練驗(yàn)證碼數(shù)5950張.對于驗(yàn)證碼識別之前,需要對驗(yàn)證碼進(jìn)行預(yù)處理,包含去噪以及分割等步驟.該驗(yàn)證碼如圖8所示.

        圖8 正方教務(wù)系統(tǒng)驗(yàn)證碼

        4.3 鐵路購票驗(yàn)證碼實(shí)驗(yàn)

        鐵路購票網(wǎng)站驗(yàn)證碼包含圖形驗(yàn)證碼和中文驗(yàn)證碼.

        (1) 圖形驗(yàn)證碼

        對于圖形分割部分,由于驗(yàn)證碼中八張子圖尺寸與位置均固定,故考慮直接設(shè)置分割點(diǎn)實(shí)現(xiàn)分割.同時(shí),對于圖片數(shù)較少的類別,采取數(shù)據(jù)增強(qiáng)方式來擴(kuò)充訓(xùn)練數(shù)據(jù)集,主要包括圖像縮放、旋轉(zhuǎn)和顏色變換等.

        對于圖形識別部分,圖形驗(yàn)證碼共302類,訓(xùn)練集圖片82 599張,測試集圖片30 000張.實(shí)驗(yàn)參數(shù)如下:訓(xùn)練mini-batch大小設(shè)置為32,訓(xùn)練最大迭代為250 000次.訓(xùn)練過程中前100 000次迭代的學(xué)習(xí)率為0.01,后面每隔40 000次學(xué)習(xí)率衰減1/10,梯度更新方法為Momentum,值設(shè)置為0.9.本文測試傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)模型,包含AlexNet[1],GoogLeNet[19]以及ResNet50[17],并與本文方法進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表2.

        表2 模型在圖形驗(yàn)證碼上的準(zhǔn)確率和模型大小

        (2) 中文驗(yàn)證碼

        對于字符分割部分,本文利用垂直投影算法分割出單個詞組,而并非是中文字符.該方法好處是盡可能避免切分單字帶來的誤差.下面是中文詞組分割的算法.

        算法1 基于中文詞組分割算法

        1) 從驗(yàn)證碼中截取出中文漢字部分ChiWords;

        2) 對ChiWords進(jìn)行灰度化、二值化處理,得到BChiWords;

        3) 從BChiWords中依次統(tǒng)計(jì)出每列黑色像素點(diǎn)個數(shù)BNP;

        4) 設(shè)置閾值T1,T2.如果BNP小于閾值T1,則說明此位置有可能是分割點(diǎn),記連續(xù)分割點(diǎn)的起止位置s和t.如果時(shí),保存s和t.

        5) 根據(jù)結(jié)果切分中文詞組,并獲取下一張驗(yàn)證碼,返回第1)步.

        6) 直至終止條件滿足,結(jié)束.

        對于字符識別部分,中文驗(yàn)證碼包含中文詞組302類,訓(xùn)練集圖片數(shù)27 982張,測試集圖片11 949張.基于字符分割識別實(shí)驗(yàn),本文利用開源Tesseract軟件實(shí)驗(yàn)和基于AlexNet模型的中文識別實(shí)驗(yàn),實(shí)驗(yàn)記為SplitAlexNet; 基于詞組分割識別實(shí)驗(yàn),主要考慮AlexNet,GoogLeNet,ResNet50和本文方法.實(shí)驗(yàn)結(jié)果見表3.

        表3 模型在中文驗(yàn)證碼上的準(zhǔn)確率和模型大小

        (3) 整體驗(yàn)證碼

        實(shí)驗(yàn)數(shù)據(jù)為購票網(wǎng)站驗(yàn)證碼,測試驗(yàn)證碼988張,與上述實(shí)驗(yàn)使用的數(shù)據(jù)集不同.

        整體驗(yàn)證碼識別過程: 首先對驗(yàn)證碼預(yù)處理,然后對中文詞組和子圖識別.中文詞組識別結(jié)果與詞組標(biāo)注結(jié)果進(jìn)行比對,如果詞組識別無誤,將符合詞組的子圖識別結(jié)果下標(biāo)與標(biāo)簽文件進(jìn)行比較(圖9).實(shí)驗(yàn)結(jié)果見表4.

        圖9 整體識別過程

        表4 模型在整體驗(yàn)證碼上的準(zhǔn)確率和模型大小

        從表2可知,本文方法參數(shù)量最少,大小為24.96 MB.且在測試集的top1準(zhǔn)確率最高,比AlexNet,GoogLeNet,ResNet50分別高1.24%,0.44%,0.06%.

        表3的結(jié)果顯示,基于字符分割識別的方法,詞組識別準(zhǔn)確率較低,其中較好的模型是SplitAlexNet,其top1準(zhǔn)確率達(dá)到75.20%; 基于中文詞組識別的方法,本文方法準(zhǔn)確率達(dá)到99.14%,高于傳統(tǒng)的AlexNet,GoogLeNet,ResNet50神經(jīng)網(wǎng)絡(luò)模型準(zhǔn)確率.與此同時(shí)本文方法參數(shù)量最少,分別比傳統(tǒng)神經(jīng)網(wǎng)絡(luò)參數(shù)量降低9.40倍,23.25倍,1.26倍和3.32倍.

        從表4可知,本文提出的整體驗(yàn)證碼識別準(zhǔn)確率要比其它網(wǎng)絡(luò)模型高,且模型更小.

        4.4 正方教務(wù)系統(tǒng)驗(yàn)證碼實(shí)驗(yàn)

        該驗(yàn)證碼訓(xùn)練集圖片4630張,測試集圖片1320張.本文測試傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)模型,包含AlexNet,GoogLeNet,ResNet50,并與本文方法進(jìn)行對比.

        實(shí)驗(yàn)參數(shù)如下: 訓(xùn)練mini-batch大小設(shè)置為32,訓(xùn)練最大迭代30 000次.訓(xùn)練過程中前8 000次學(xué)習(xí)率為0.001,后面每隔6 000次學(xué)習(xí)率衰減1/10,梯度更新方法為Momentum,值設(shè)置為0.9.

        通過表5和表6可知,準(zhǔn)確率方面,本文方法的準(zhǔn)確率不低于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型; 模型大小方面,本文方法參數(shù)量比AlexNet,GoogLeNet和ResNet50要少.

        表5 模型在字符上的準(zhǔn)確率及模型大小

        表6 模型在正方驗(yàn)證碼上的準(zhǔn)確率及模型大小

        4.5 實(shí)驗(yàn)分析

        本文重點(diǎn)考慮在不影響模型準(zhǔn)確率的前提下,進(jìn)一步減少模型的參數(shù)量,即模型規(guī)模.通過上述實(shí)驗(yàn)可以看到,本文網(wǎng)絡(luò)結(jié)構(gòu)是基準(zhǔn)模型中參數(shù)量最少的,同時(shí)驗(yàn)證碼的識別效果比其它網(wǎng)絡(luò)要好.接下來將具體分析原因.

        一是模型參數(shù)量縮減方面.本文利用級聯(lián)卷積層減少了網(wǎng)絡(luò)參數(shù),增加了網(wǎng)絡(luò)的非線性.同時(shí)在殘差層調(diào)整卷積分組個數(shù),利用全連接層替換.這幾個方面的改進(jìn)能夠很明顯地看出網(wǎng)絡(luò)規(guī)模變小.

        本文調(diào)整卷積分組的個數(shù),一方面使得卷積層計(jì)算加快,模型參數(shù)量減少,同時(shí)也影響識別的準(zhǔn)確率,下面將實(shí)驗(yàn)說明卷積分組對網(wǎng)絡(luò)結(jié)構(gòu)準(zhǔn)確率的影響.

        (1) 卷積分組實(shí)驗(yàn)

        卷積分組不僅能夠降低網(wǎng)絡(luò)的規(guī)模,同時(shí)卷積分組個數(shù)也影響著網(wǎng)絡(luò)的識別率.本文將對分組個數(shù)進(jìn)行實(shí)驗(yàn),考慮在不同的分組下,本文方法的準(zhǔn)確率變化情況.

        為了說明卷積分組對實(shí)驗(yàn)準(zhǔn)確率的影響,將在圖形驗(yàn)證碼和中文驗(yàn)證碼上進(jìn)行實(shí)驗(yàn)分析.通過表7和表8容易看出,對于不同數(shù)據(jù)集最優(yōu)的group選擇也不同.

        表7 卷積分組對圖形驗(yàn)證碼準(zhǔn)確率影響

        表8 卷積分組對中文驗(yàn)證碼準(zhǔn)確率影響

        (2) 特征圖可視化

        通過特征圖可視化能夠更好地理解網(wǎng)絡(luò)的特征學(xué)習(xí)過程,下圖是利用本文方法識別的最后層可視化結(jié)果.

        圖10顯示的是本文方法在最后層特征圖的激活程度.可以看出無論是中文詞組還是圖形驗(yàn)證碼,相同類別的圖片在最后層的激活程度相似,而不同類別之間的激活程度卻迥然不同.

        圖10 最后層特征圖可視化結(jié)果

        5 總結(jié)

        本文利用卷積層級聯(lián)、殘差學(xué)習(xí)、全局池化、卷積分組等方法,提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的驗(yàn)證碼識別方法.實(shí)驗(yàn)表明該方法較傳統(tǒng)網(wǎng)絡(luò)模型具有參數(shù)量少的特點(diǎn),而且有著更高的識別準(zhǔn)確率.此外,本文還討論了卷積分組對準(zhǔn)確率的影響,并通過實(shí)驗(yàn)選出性能最優(yōu)的卷積分組.接下來的工作將繼續(xù)優(yōu)化網(wǎng)絡(luò)模型結(jié)構(gòu),同時(shí)也將根據(jù)本文的實(shí)驗(yàn)結(jié)果分析如何提升驗(yàn)證碼的安全性.

        猜你喜歡
        詞組分組準(zhǔn)確率
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        分組搭配
        怎么分組
        高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
        分組
        副詞和副詞詞組
        曰本女人与公拘交酡免费视频| 日本高清一级二级三级| 精品国产乱码久久久久久郑州公司| 成年无码av片完整版| 日韩成人无码v清免费| 亚洲av国产精品色a变脸| 麻豆精品国产av在线网址| 亚洲人成无码网站在线观看| 亚洲免费观看网站| 精品亚洲乱码一区二区三区| 久久久亚洲熟妇熟女av| 国产色无码精品视频国产 | 国产精品亚洲专区在线播放| 在线视频播放观看免费| 尤物在线观看一区蜜桃| 人妻丰满熟妇av无码片| 国产WW久久久久久久久久| 国产激情在线观看视频网址| 日韩综合无码一区二区| 国产美女露脸口爆吞精| 国产未成女年一区二区| 中文字幕日韩高清乱码| 影视av久久久噜噜噜噜噜三级| 亚洲国产精品无码久久电影| 久久久婷婷综合亚洲av| 亚洲av日韩一区二区| 蜜臀av 国内精品久久久| 亚洲专区路线一路线二天美| 免费女女同黄毛片av网站| 天天躁日日躁狠狠躁欧美老妇小说| 欧美性大战久久久久久久| 国产男女乱婬真视频免费| 一区二区三区日本伦理| 亚洲av无码一区二区三区不卡| 午夜亚洲国产理论片亚洲2020| 日韩黄色大片免费网站| 奶头又大又白喷奶水av| 九九热在线视频观看这里只有精品| 美女扒开内裤露黑毛无遮挡| 蜜桃18禁成人午夜免费网站| 中文字幕日本特黄aa毛片|