亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)PCA_CNN的銀行卡號(hào)識(shí)別模型

        2023-05-11 08:58:56郭小燕張綠云馬楚奇
        軟件導(dǎo)刊 2023年4期
        關(guān)鍵詞:卡號(hào)銀行卡灰度

        郭小燕,陳 鵬,,張 明,張綠云,馬楚奇

        (1.甘肅農(nóng)業(yè)大學(xué) 信息科學(xué)技術(shù)學(xué)院,甘肅 蘭州 730070;2.河池學(xué)院 大數(shù)據(jù)與計(jì)算機(jī)學(xué)院,廣西 宜州 546300;3.蘭州城市學(xué)院 信息工程學(xué)院,甘肅 蘭州 730070)

        0 引言

        支付寶、微信等第三方快捷支付方式的快速發(fā)展對(duì)傳統(tǒng)銀行卡支付業(yè)務(wù)帶來(lái)極大挑戰(zhàn),銀行卡號(hào)數(shù)字自動(dòng)識(shí)別技術(shù)可提高銀行卡支付效率及便捷性,使其更好地參與市場(chǎng)競(jìng)爭(zhēng)[1]。由于圖像的背景、光照、對(duì)比度等因素會(huì)對(duì)圖像的識(shí)別效率和準(zhǔn)確率造成干擾,且Sigmoid 激活函數(shù)在神經(jīng)網(wǎng)絡(luò)的梯度反向傳遞時(shí)易產(chǎn)生梯度爆炸或梯度消失問(wèn)題。鑒于此,本文提出基于改進(jìn)PCA_CNN 的銀行卡號(hào)識(shí)別模型,旨在提高抗干擾能力,緩解梯度消失問(wèn)題。

        卷積神經(jīng)網(wǎng)絡(luò)憑借其優(yōu)越的性能備受廣大學(xué)者關(guān)注,并成為當(dāng)下研究熱點(diǎn),其已在圖像識(shí)別領(lǐng)域取得系列研究成果。李尚林等[2]提出基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的銀行卡數(shù)字識(shí)別框架,能顯著提高銀行卡數(shù)字識(shí)別準(zhǔn)確率。黃睿等[3]利用Tensorflow 框架搭建CNN 網(wǎng)絡(luò)實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別,其準(zhǔn)確率高于傳統(tǒng)Softmax 模型。Druki 等[4]提出七層卷積神經(jīng)網(wǎng)絡(luò)模型以提高復(fù)雜背景下的圖像識(shí)別效率。Gao 等[5]提出DCNN 深度學(xué)習(xí)模型以增強(qiáng)圖像目標(biāo)識(shí)別的自動(dòng)特征提取能力。

        以上研究均得較好效果,但由于卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)量極大,卷積核需依靠大量學(xué)習(xí)確定,將造成時(shí)間和算力浪費(fèi)。本文使用改進(jìn)PCA_CNN 的銀行卡識(shí)別模型,利用PCA算法選取CNN卷積核,與傳統(tǒng)CNN網(wǎng)絡(luò)通過(guò)反復(fù)迭代獲取卷積核相比,PCA_CNN 極大縮短了學(xué)習(xí)訓(xùn)練時(shí)間,解決了傳統(tǒng)CNN 在特定時(shí)間內(nèi)識(shí)別準(zhǔn)確率不高和收斂速度不足的問(wèn)題,從而提升網(wǎng)絡(luò)整體性能。為進(jìn)一步提高識(shí)別效果,本文對(duì)傳統(tǒng)的Sigmoid 函數(shù)進(jìn)行改進(jìn),防止網(wǎng)絡(luò)隨卷積層數(shù)增加而出現(xiàn)過(guò)擬合,從而導(dǎo)致權(quán)重?zé)o法更新。采用自然光下手機(jī)拍攝的2 000 張銀行卡照片對(duì)PCA_CNN 網(wǎng)絡(luò)模型進(jìn)行測(cè)試,證明改進(jìn)PCA_CNN 的模型能對(duì)銀行卡號(hào)進(jìn)行有效自動(dòng)識(shí)別,為銀行卡便捷支付提供技術(shù)保障。

        1 圖像預(yù)處理

        在實(shí)際支付過(guò)程中,由于銀行卡可能存在破損、折痕、污點(diǎn)、字跡不清晰等情況,且拍攝時(shí)可能出現(xiàn)光線較暗、曝光過(guò)度、手機(jī)抖動(dòng)等問(wèn)題,因此銀行卡圖像常常含有噪聲,會(huì)對(duì)圖像識(shí)別造成干擾,故將數(shù)據(jù)送入識(shí)別程序之前,應(yīng)進(jìn)行預(yù)處理以保證識(shí)別質(zhì)量。

        1.1 圖像灰度化

        對(duì)圖像進(jìn)行灰度化操作可降低干擾因素,使銀行卡數(shù)字輪廓更清晰,減少網(wǎng)絡(luò)計(jì)算量,提高運(yùn)算效率[6]。圖像灰度化處理可采用最大值法[7]、平均值法[8]、加權(quán)平均法[9]。由于加權(quán)平均法可最大程度降低干擾,對(duì)圖像進(jìn)行灰度化處理的同時(shí)能夠?qū)崿F(xiàn)圖像增強(qiáng),且能夠清晰有效地提取銀行卡數(shù)字輪廓,故本文采用該方法進(jìn)行圖像灰度化處理。以上3種方法圖像識(shí)別對(duì)比效果如圖1所示。

        Fig.1 Graying effect of image圖1 圖像灰度化效果

        1.2 銀行卡卡號(hào)提取

        銀行卡圖像中,除卡號(hào)區(qū)域外,還有其他圖案、銀行l(wèi)ogo,銀聯(lián)標(biāo)識(shí)等區(qū)域,因此在銀行卡圖像中有效提取卡號(hào)區(qū)域是后期對(duì)卡號(hào)識(shí)別的關(guān)鍵步驟。針對(duì)卡號(hào)區(qū)域提取,設(shè)計(jì)的區(qū)域鎖定法可對(duì)卡號(hào)區(qū)域精準(zhǔn)提取分割,主要步驟如下:

        (1)提取銀行卡輪廓。采用王文豪等[10]改進(jìn)的Canny算法提取銀行卡輪廓,結(jié)果如圖2所示。

        Fig.2 Image contour extraction圖2 圖像輪廓提取

        (2)區(qū)域填充。在輪廓提取基礎(chǔ)上,使用日本學(xué)者大津展之在1979 年提出的最大類(lèi)間方差法(OTSU)[11]進(jìn)行二值化處理,用形態(tài)學(xué)閉操作消除輪廓中的黑色部分,并填充閉合區(qū)域,將銀行卡數(shù)字區(qū)域連接作為待選卡號(hào)區(qū)域,結(jié)果如圖3所示。

        (3)卡號(hào)提取。利用水平和垂直投影獲取銀行卡四周邊界,采用區(qū)域鎖定法獲取數(shù)據(jù)區(qū)域,從而獲取銀行卡號(hào),流程如圖4所示。

        Fig.3 Using OTSU to select the bank card number area圖3 使用OTSU選取銀行卡號(hào)區(qū)域

        Fig.4 Flow of bank card number area locking圖4 銀行卡號(hào)區(qū)域鎖定流程

        依據(jù)銀行卡鎖定區(qū)域與已提取邊緣輪廓的銀行卡圖像進(jìn)行重疊對(duì)比,裁剪出數(shù)字組區(qū)域圖像,如圖5所示。

        Fig.5 Partial bank card digital area cutting characters圖5 部分銀行卡數(shù)字區(qū)域切割字符

        2 特征提取

        在CNN 訓(xùn)練過(guò)程中,初始權(quán)重隨機(jī)生成,因此在迭代次數(shù)有限時(shí)不能迅速找到誤差收斂方向,從而影響收斂速度與精度[12]。Chan 等[13]提出利用PCA 選取CNN 卷積核的網(wǎng)絡(luò)PCANet,可大幅度提高訓(xùn)練速度。本文基于PCANet 設(shè)計(jì)用于銀行卡識(shí)別的PCA_CNN 模型,以獲得更優(yōu)識(shí)別結(jié)果,如圖6所示。

        Fig.6 Flow of improved PCA_CNN algorithm圖6 改進(jìn)的PCA_CNN算法流程

        2.1 兩階段卷積

        (1)卷積核確定。假定輸入尺寸為m×n,對(duì)于其進(jìn)行t=k×k塊采樣得到s=(n-k+1) × (m-k+1)個(gè)圖像塊,將每個(gè)圖像塊連接成一個(gè)t*s矩陣,利用PCA 獲得前l(fā)1個(gè)特征向量,作為后續(xù)卷積運(yùn)算的卷積核,如圖7所示。

        Fig.7 Selection of convolution kernel圖7 卷積核選取

        (2)兩階段卷積。在PCA_CNN 模型中,共經(jīng)歷兩階段卷積,卷積核個(gè)數(shù)分別為l1 和l2,因此,單個(gè)輸入圖像經(jīng)過(guò)兩次卷積后,變成l1 ×l2個(gè)特征圖。

        第一階段:通過(guò)塊采樣及PCA 選取的特征矩陣作為第一階段卷積核,如圖8所示。

        Fig.8 The first stage convolution圖8 第一階段卷積

        第二階段:對(duì)第一階段卷積獲得的l1個(gè)特征圖進(jìn)行塊采樣,通過(guò)PCA 獲得l2 個(gè)特征矩陣,作為第二階段卷積核進(jìn)行卷積運(yùn)算,每個(gè)輸入圖像均得到l1 ×l2 個(gè)特征圖,如圖9所示。

        Fig.9 The second stage convolution圖9 第二階段卷積

        2.2 二值化與哈希編碼

        將卷積所得特征圖的每一個(gè)像素進(jìn)行二值化處理,然后將l1 ×l2 個(gè)特征圖分成l1 個(gè)組,組內(nèi)的l2 個(gè)圖像堆疊起來(lái),每l2 個(gè)(0,1)像素組成一個(gè)0-2l2-1的十進(jìn)制哈希編碼。

        2.3 直方圖

        使每張哈希編碼后的特征圖分成B 個(gè)塊并統(tǒng)計(jì)其直方圖,然后將第i副輸入圖像中第j副特征圖對(duì)應(yīng)的直方圖組成標(biāo)記為Bhis(t)(1 ≤j≤l1)的向量,輸入圖像fi對(duì)應(yīng)的圖像特征如式(1)所示。

        其中,Bhist()表示將第i副輸入圖像中第l1 副特征圖所對(duì)應(yīng)直方圖組成的向量,其標(biāo)記為Bhis(t)(1 ≤j≤l1)。

        3 分析識(shí)別

        分析識(shí)別階段主要對(duì)已提取特征的圖像進(jìn)行數(shù)字識(shí)別,如圖10所示。

        Fig.10 Improved convolutional neural network model圖10 改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)模型

        (1)輸入層。為保障最終分類(lèi)識(shí)別準(zhǔn)確率及收斂時(shí)間,將預(yù)處理后的銀行卡號(hào)數(shù)字圖像作為輸入,并設(shè)置輸入層圖像大小為28*28。

        (2)卷積層C1。對(duì)銀行卡號(hào)輸入矩陣進(jìn)行卷積運(yùn)算。利用卷積操作提取原始圖像特征,使用PCA 產(chǎn)生的16 個(gè)卷積核對(duì)每幅輸入圖像進(jìn)行卷積運(yùn)算生成16 個(gè)大小為28*28 的特征圖。為增強(qiáng)模型表達(dá)力及緩解神經(jīng)網(wǎng)絡(luò)中梯度反向傳遞時(shí)存在的梯度爆炸和梯度消失問(wèn)題[14],將Sigmoid 激活函數(shù)進(jìn)行改進(jìn)。如式(2)所示,采用分段單調(diào)遞增可緩解深度學(xué)習(xí)中的梯度消失問(wèn)題。

        Fig.11 Improvement of activation function圖11 激活函數(shù)改進(jìn)

        (3)池化層S1。對(duì)圖像進(jìn)行降維處理并保留其有效信息,保證CNN 在旋轉(zhuǎn)、平移、伸縮時(shí)的穩(wěn)健性。本文使用平均池化獲得16個(gè)大小為14*14的特征圖。

        (4)卷積層C2。采用第二階段卷積產(chǎn)生的32 個(gè)卷積核對(duì)網(wǎng)絡(luò)上層輸出圖像進(jìn)行特征提取,獲得32 個(gè)大小為14*14的特征圖,同時(shí)采用式(2)中的激活函數(shù)。

        (5)池化層S2。獲得32個(gè)大小為7×7的特征圖。

        (6)輸出層。采用全連接方式與S2 層特征圖連接。在S2 層32 個(gè)大小為7×7 的特征圖中,共包含192 個(gè)神經(jīng)元。由于該研究需對(duì)共10 類(lèi)銀行卡數(shù)字進(jìn)行分類(lèi)識(shí)別,故將輸出層神經(jīng)元數(shù)設(shè)定為10,最終得出1 920 個(gè)連接參數(shù)。

        使用PCA 將卷積層C1、C2 的卷積核參數(shù)初始化,初始化后的卷積特征可視化效果如圖12所示。

        Fig.12 Example of convolution feature visualization圖12 卷積特征可視化圖示例

        4 實(shí)驗(yàn)及結(jié)果分析

        4.1 數(shù)據(jù)來(lái)源

        銀行卡訓(xùn)練數(shù)據(jù)為手機(jī)拍攝的2 000 張銀行卡圖像,原始圖像大小為64*64,通道數(shù)為3。為防止訓(xùn)練數(shù)據(jù)受不同光照強(qiáng)度、傾斜角度、遮擋程度等噪聲干擾,應(yīng)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理,訓(xùn)練數(shù)據(jù)類(lèi)別及數(shù)量如表1 所示。隨機(jī)采取70%的數(shù)據(jù)進(jìn)行訓(xùn)練,30%的數(shù)據(jù)進(jìn)行測(cè)試。

        Table 1 Training data categories and quantities表1 訓(xùn)練數(shù)據(jù)類(lèi)別及數(shù)量

        4.2 實(shí)驗(yàn)結(jié)果及分析

        將改進(jìn)的PCA_CNN 模型、PCA_CNN 模型及CNN 模型在識(shí)別準(zhǔn)確率和Loss 值方面進(jìn)行20 次對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表2 所示。可以看出,改進(jìn)的PCA_CNN 模型在識(shí)別準(zhǔn)確率和Loss 值方面都優(yōu)于PCA_CNN 模型和CNN 模型,改進(jìn)的PCA_CNN 模型在平均準(zhǔn)確率方面比PCA_CNN 模型高2.12%,比CNN 模型高2.97%,Loss 值比PCA_CNN 模型低1.01%,比CNN 模型低6.73%。如圖13 所示,在迭代起始階段,改進(jìn)的PCA_CNN 算法準(zhǔn)確率明顯高于PCA_CNN 模型和CNN 模型,當(dāng)?shù)螖?shù)達(dá)到125 次后,3種算法準(zhǔn)確率均開(kāi)始收斂,并且改進(jìn)的PCA_CNN 模型準(zhǔn)確率明顯高于其他兩種模型,表明改進(jìn)的PCA_CNN 模型在迭代次數(shù)較少的情況下優(yōu)勢(shì)明顯,準(zhǔn)確率與性能均有一定優(yōu)勢(shì)。綜合來(lái)看,改進(jìn)的PCA_CNN 模型明顯優(yōu)于PCA_CNN 模型和CNN 模型。

        Table 2 Comparison of improved PCA_CNN with PCA_CNN and CNN 表2 改進(jìn)的PCA_CNN與PCA_CNN、CNN比較

        Fig.13 Accuracy comparison of improved PCA_CNN with PCA_CNN and CNN 圖13 改進(jìn)的PCA_CNN、PCA_CNN、CNN準(zhǔn)確率比較

        4.3 進(jìn)一步實(shí)驗(yàn)

        為驗(yàn)證模型有效性,將改進(jìn)的PCA_CNN 模型與傳統(tǒng)機(jī)器學(xué)習(xí)進(jìn)行比較,實(shí)驗(yàn)結(jié)果如圖14所示。

        Fig.14 Comparison of accuracy of the improved PCA_CNN with other methods圖14 改進(jìn)后的PCA_CNN與其他方法準(zhǔn)確率比較

        使用Canny算子、大津法等進(jìn)行銀行卡圖像預(yù)處理,對(duì)數(shù)字圖像區(qū)域進(jìn)行分割與提取,使得模型對(duì)背景、光照、折損、污點(diǎn)等情況具有較強(qiáng)的抗干擾性。再將預(yù)處理結(jié)果分別應(yīng)用于改進(jìn)的PCA_CNN 模型、傳統(tǒng)BP 神經(jīng)網(wǎng)絡(luò)[15],SVM 模型[16]、Bayes 決策理論[17]、暹羅網(wǎng)絡(luò)模型[18]進(jìn)行識(shí)別對(duì)比,結(jié)果如表3 所示??梢钥闯?,待測(cè)試模型除SVM算法外,準(zhǔn)確率均在96%以上,其中BP 為96%、SVM 為90.65%、Bayes 為96%、暹羅網(wǎng)絡(luò)為97.91%、改進(jìn)的PCA_CNN 為98.53%。從結(jié)果來(lái)看,PCA_CNN 較傳統(tǒng)神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)算法具有一定優(yōu)勢(shì)。

        Table 3 Comparison of recognition performance of different methods表3 不同方法識(shí)別性能比較

        5 結(jié)語(yǔ)

        使用手機(jī)等非專(zhuān)業(yè)設(shè)備在自然光下拍攝銀行卡可能存在背景不一、光照強(qiáng)弱不一等問(wèn)題,并且銀行卡本身可能存在破舊、污點(diǎn)、折損、字跡不清等問(wèn)題。因此,在銀行卡卡號(hào)識(shí)別問(wèn)題上,本文首先對(duì)圖像進(jìn)行圖像灰度化處理、形態(tài)學(xué)處理、數(shù)字區(qū)域分割提取等預(yù)處理操作,使其具有較強(qiáng)抗干擾性,對(duì)背景、光照具有一定容錯(cuò)能力;然后將PCA 算法用于選取CNN 神經(jīng)網(wǎng)絡(luò)卷積核,同時(shí)在卷積層使用新的激活函數(shù),建立改進(jìn)的PCA_CNN 模型,利用改進(jìn)的模型進(jìn)行銀行卡識(shí)別;最后與CNN、BP 神經(jīng)網(wǎng)絡(luò)、SVM 模型,Bayes 算法,暹羅網(wǎng)絡(luò)模型進(jìn)行對(duì)比。結(jié)果表明,改進(jìn)的PCA_CNN 模型在準(zhǔn)確率方面具有顯著優(yōu)勢(shì),可用于銀行卡識(shí)別。將該模型應(yīng)用于車(chē)牌號(hào)識(shí)別、人臉識(shí)別等,則是未來(lái)研究重點(diǎn)探索的方向。

        猜你喜歡
        卡號(hào)銀行卡灰度
        河南省長(zhǎng)葛市彩紅蜂衣蜂帽加工廠
        蜜蜂雜志(2022年5期)2022-07-20 09:54:06
        采用改進(jìn)導(dǎo)重法的拓?fù)浣Y(jié)構(gòu)灰度單元過(guò)濾技術(shù)
        復(fù)雜背景下銀行卡號(hào)識(shí)別方法研究
        基于灰度拉伸的圖像水位識(shí)別方法研究
        河南省長(zhǎng)葛市彩紅蜂衣蜂帽加工廠
        蜜蜂雜志(2021年11期)2021-02-18 07:21:32
        銀行卡被同學(xué)擅自透支,欠款誰(shuí)償還?
        公民與法治(2020年3期)2020-05-30 12:29:58
        誰(shuí)劃走了銀行卡里的款
        基于最大加權(quán)投影求解的彩色圖像灰度化對(duì)比度保留算法
        基于灰度線性建模的亞像素圖像抖動(dòng)量計(jì)算
        好老板
        久久国产精品男人的天堂av| 欧美 国产 综合 欧美 视频| 久久久久国产精品熟女影院| 亚洲av不卡电影在线网址最新| 免费看黄色电影| 国产午夜福利不卡在线观看视频 | 国产一区二区三区激情视频| 亚洲av精二区三区日韩| 色综合久久中文娱乐网| 国产午夜福利小视频合集| 最新国产女主播福利在线观看| 久久久免费精品国产色夜| 欧美老妇牲交videos| 国产卡一卡二卡三| 日韩精品欧美激情亚洲综合| 人妻av中文字幕精品久久| 亚洲精品国产电影| 少妇高潮惨叫正在播放对白| 亚洲人成人一区二区三区| 国产91久久精品成人看网站| 国产极品粉嫩福利姬萌白酱 | 日韩精品国产一区在线| 隔壁人妻欲求不满中文字幕| 亚洲一区二区国产一区| 国产成人无码18禁午夜福利p| 久久久噜噜噜久久中文字幕色伊伊| 国产日韩亚洲中文字幕| 穿着白丝啪啪的av网站| 国产一区二区内射最近更新 | 五码人妻少妇久久五码| 国产精品一区二区av不卡| 香港三级精品三级在线专区| 亚洲男人的天堂精品一区二区| 亚洲一区亚洲二区中文字幕| 无套内内射视频网站| 少妇人妻偷人精品一区二区| 国产精品制服一区二区| 国产精品一区二区av不卡 | 国产一级做a爱视频在线| 亚洲天堂av中文字幕在线观看| 国产97在线 | 亚洲|