亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于先驗(yàn)知識的香煙防偽數(shù)字串識別

        2019-12-12 07:06:46
        關(guān)鍵詞:防偽矩形像素

        彭 召 丁 曉 劉 哲 陳 衡 劉 凱

        1(西安交大通大學(xué)軟件學(xué)院 陜西 西安 710048)2(陜西師范大學(xué)計(jì)算機(jī)科學(xué)學(xué)院 陜西 西安 710062)

        0 引 言

        數(shù)字串識別是字符識別領(lǐng)域一個(gè)重要的分支,已經(jīng)廣泛應(yīng)用于票據(jù)表單系統(tǒng)[1]、儀表識別系統(tǒng)[2]、運(yùn)動(dòng)員號碼牌識別系統(tǒng)[3],銀行卡號識別系統(tǒng)[4]。本文研究的是煙草防偽數(shù)字串識別。本文的識別方法對于煙草公司調(diào)研市場煙草偽品率具有重要意義。

        目前,對于字符串識別一般有整體識別和分割識別兩種思路[5-6]。整體識別法適合于有具體含義的詞匯或有一定關(guān)聯(lián)的詞匯間的識別。例如停車牌“Stop”、火警標(biāo)識“119”等。本文中的防偽數(shù)字是由沒有關(guān)聯(lián)的數(shù)字組成,每個(gè)數(shù)字間不能組成具有某種意義的詞匯,因此整體識別不適合本文中防偽數(shù)字的識別。目前主流的分割識別方法有結(jié)構(gòu)特征法和結(jié)合識別法[6-7]兩種。結(jié)構(gòu)特征法基于對投影、輪廓等特征的分析,通過分析結(jié)構(gòu)的特征進(jìn)行分割。結(jié)構(gòu)特征法對于分割點(diǎn)的依賴嚴(yán)重,由于本文中部分防偽碼數(shù)字圖片具有背景復(fù)雜的特點(diǎn),這對于依靠投影和輪廓提取分割點(diǎn)具有極大的干擾。故這種方法不適合本文防偽數(shù)字串識別。結(jié)合識別法,根據(jù)識別的結(jié)果,輔助分析分割結(jié)果,對每種結(jié)果做置信度排名,選取置信度高分割的作為分割結(jié)果。但這種方法對于數(shù)字關(guān)聯(lián)性不強(qiáng)沒有聯(lián)系的防偽碼數(shù)字串識別效果不佳。

        鑒于本文中防偽數(shù)字串的子串沒有具體含義,因此本文采用分割識別的識別方法。由于分割識別方法中兩種傳統(tǒng)方法對于本文中防偽數(shù)字識別均不合適,故本文針對香煙防偽數(shù)字串實(shí)際情況提出一種全新的分割識別方法。

        目前很多數(shù)字串識別方法將數(shù)字規(guī)定在一個(gè)方格再做分割識別。這種方法雖然一定程度上提高了分割質(zhì)量,但是增加了人的手工參與,比較繁瑣,并且脫離了實(shí)際社會(huì)需求。本文提供的分割方法,不需要人工干預(yù),輸入圖片在一定范圍探測得到最終結(jié)果。當(dāng)只用深度學(xué)習(xí)算法識別時(shí),對于背景復(fù)雜圖片,識別往往不理想。本文采用了深度學(xué)習(xí)算法并充分結(jié)合了先驗(yàn)知識,有利于排除很多識別錯(cuò)誤的情況。本文先使用定位算法定位數(shù)字大概位置,然后在一定范圍內(nèi)進(jìn)行探測,這種方法比單純整張圖片識別更能排除背景干擾。實(shí)驗(yàn)表明,本文在香煙防偽碼數(shù)據(jù)集上取得了良好的效果,能很好地應(yīng)用于香煙數(shù)字的識別。

        1 算法設(shè)計(jì)

        本文先將圖片送入Faster RCNN網(wǎng)絡(luò)[8]定位,估計(jì)出數(shù)字串所在區(qū)域的最小外接矩形。然后將矩形進(jìn)行2×16的均等分割,將分割得到的圖片送入分類網(wǎng)絡(luò)分類,得到32幅圖片的分類結(jié)果。然后根據(jù)32個(gè)數(shù)字對應(yīng)位置組合應(yīng)該滿足的先驗(yàn)條件判斷在此處位置進(jìn)行分割得到數(shù)字是否正確。如果滿足先驗(yàn)條件,則把這32幅圖片識別結(jié)果作為最終結(jié)果。如果不滿足則在一定范圍內(nèi)調(diào)整外接矩形的左上角坐標(biāo)和分割得到的小矩形的長寬,得到新的外接矩形。然后重復(fù)分割和識別的過程,直到找到滿足先驗(yàn)條件要求的外接矩形和識別結(jié)果,并把識別結(jié)果作為最終結(jié)果。具體流程圖如圖1所示。

        圖1 系統(tǒng)流程圖

        1.1 數(shù)字串所在區(qū)域定位

        目標(biāo)檢測算法旨在識別出圖片中物體所屬的類別,并把某個(gè)類別所在的區(qū)域用最小外接矩形表示出來。經(jīng)過多年發(fā)展,深度學(xué)習(xí)為基礎(chǔ)的目標(biāo)檢測算法經(jīng)歷了RCNN[9]、SPP-net[10]、Fast RCNN[11]、Faster RCNN等算法。Faster RCNN算法從前幾種算法發(fā)展而來,具有單張圖片測試時(shí)間短、模型訓(xùn)練時(shí)間短、計(jì)算量小、定位精度高等優(yōu)點(diǎn)。因此本文選取Faster RCNN算法作為本文的目標(biāo)檢測定位算法。具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示(基礎(chǔ)網(wǎng)絡(luò)以VGG16網(wǎng)絡(luò)[12]為例)。

        圖2 Faster RCNN網(wǎng)絡(luò)結(jié)構(gòu)圖

        Faster RCNN算法主要由四個(gè)模塊組成:

        1) 基礎(chǔ)網(wǎng)絡(luò):本部分網(wǎng)絡(luò)目的是提取特征,為后續(xù)的RPN網(wǎng)絡(luò)和ROI pooling層做準(zhǔn)備。這部分網(wǎng)絡(luò)一般為VGG16網(wǎng)絡(luò)或者ZF網(wǎng)絡(luò),可以根據(jù)自己實(shí)際需求更換基礎(chǔ)網(wǎng)絡(luò)。本文使用VGG16網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò)?;A(chǔ)網(wǎng)絡(luò)得到的特征圖將被送入RPN網(wǎng)絡(luò)和ROI pooling層共享。

        2) RPN網(wǎng)絡(luò):基礎(chǔ)網(wǎng)絡(luò)輸出的特征圖被送入RPN層并在特征圖上建立多個(gè)窗口,每個(gè)窗口生成若干個(gè)候選框anchor。Anchor有1∶1、1∶2、2∶1三種不同的比例。特征圖中每個(gè)像素點(diǎn)對應(yīng)一個(gè)anchor中心。將窗口對應(yīng)的低維向量送到不同的網(wǎng)絡(luò)分別做分類和回歸。本文中邊框回歸判斷的是候選框是否屬于香煙防偽數(shù)字串區(qū)域,輸出是一個(gè)概率值。本文將閾值設(shè)置為0.7,將概率大于0.7的候選框留下認(rèn)為是防偽數(shù)字串所在區(qū)域,小于0.7的舍棄。RPN網(wǎng)絡(luò)邊框回歸計(jì)算公式如下:

        (1)

        式中:xa、ya、wa、ha表示anchor框的中心點(diǎn)坐標(biāo)和框的寬、高;(x,y)表示預(yù)測框中心點(diǎn)坐標(biāo);w和h為預(yù)測框的寬和高;(x*,y*)表示真實(shí)區(qū)域框的坐標(biāo);t表示回歸框做變換的預(yù)測值;t*表示框做變換的真實(shí)值。

        RPN網(wǎng)絡(luò)整體損失函數(shù)為:

        (2)

        式中:pi是第i個(gè)候選框是防偽數(shù)字串的概率。式(2)前半部分表示分類,后半部分表示回歸。

        3) ROI pooling層:本層將RPN層的輸出和特征提取的特征圖同時(shí)輸入,并在RPN候選框和特征圖上做一個(gè)映射,將尺寸統(tǒng)一以方便后續(xù)全連接網(wǎng)絡(luò)。

        4) 回歸與分類:ROI pooling層的特征圖送入全連接層完成回歸和分類。其中,分類的損失函數(shù)為:

        (3)

        回歸損失函數(shù)為:

        (4)

        式中:R表示Smooth L1函數(shù)。

        1.2 數(shù)字串分割

        本文防偽數(shù)字串由0~9之間的數(shù)字組成,共兩行,每行16個(gè)數(shù)字。數(shù)字間距相同,長寬比為2.70。如圖3所示。在上節(jié)中,我們通過目標(biāo)檢測算法Faster RCNN算法已經(jīng)估計(jì)出了防偽數(shù)字串所在區(qū)域的最小外接矩形,即:根據(jù)最小外接矩形的四個(gè)頂點(diǎn),將矩形所在區(qū)域劃分成2×16的32個(gè)矩形區(qū)域,每個(gè)矩形區(qū)域長寬相同。

        圖3 圖片示例

        1.3 單個(gè)數(shù)字識別

        圖像分類技術(shù)經(jīng)過多年發(fā)展,由開始的傳統(tǒng)圖像分類到支持向量機(jī),再到卷積神經(jīng)網(wǎng)絡(luò),已經(jīng)日趨成熟。目前卷積神經(jīng)網(wǎng)絡(luò)、殘差網(wǎng)絡(luò)等網(wǎng)絡(luò)在圖像分類上效果較好,因此,本文對比了現(xiàn)在的諸多網(wǎng)絡(luò),最終選取更適合本文樣本的分類網(wǎng)絡(luò)。

        考慮到本文圖片數(shù)量較少并為了得到良好的分類器,本文在分類網(wǎng)絡(luò)中加入了空間變換網(wǎng)絡(luò)[13],對圖片進(jìn)行一個(gè)空間變換,有效地提高了分類的精度。一般情況,卷積神經(jīng)網(wǎng)絡(luò)雖然可以有很好的分類效果,但是當(dāng)圖片具有空間多樣性的時(shí)候,分類效果往往不太理想??臻g變換網(wǎng)絡(luò)不需要額外的標(biāo)注,可以插入到任意卷積的后面,且可以根據(jù)分類任務(wù)對圖片進(jìn)行空間變換。當(dāng)圖片模糊,有傾斜角度或者其他空間不變性問題時(shí)候,可以有效提高分類效果。

        1.4 調(diào)整矩形參數(shù)

        本文中的32個(gè)數(shù)字滿足下面的先驗(yàn)條件。第一行中第1位表示年份,本文中圖片是同一年的,第2、3位表示月份,第4、5位表示日期,第6到14位是隨機(jī)數(shù)字。第15、16兩位是1到50間的編號。第二排第1到4位表示香煙編號。5到16位表示隨機(jī)數(shù)字。因此先驗(yàn)條件規(guī)則為:第一行中第1個(gè)數(shù)字是7,第2~3位數(shù)字組成的兩位數(shù)在1~12之間。第4~5位數(shù)字組成的兩位數(shù)在1~30之間。第15~16位組成的數(shù)字在1~50之間;第二行前四位數(shù)字,是某種煙固定的數(shù)字標(biāo)識,固定為某四位數(shù),例如本文中即1100或者1101。

        本文以當(dāng)前矩形框?yàn)榛鶞?zhǔn),將當(dāng)前矩形框左上角坐標(biāo)和矩形框分割后得到的小矩形框的寬度在一定范圍內(nèi)調(diào)整,小矩形框的長度可以通過寬度和高寬比計(jì)算得到。將得到的矩形框均分為2×16份,送入分類網(wǎng)絡(luò)識別這32幅圖片,探測滿足以上規(guī)則的矩形。將探測得到的滿足以上規(guī)則的矩形框作為最終識別結(jié)果。當(dāng)以上規(guī)則均滿足后把探測得到的結(jié)果作為最終定位結(jié)果。由于在一定范圍探測矩形框的左上角坐標(biāo)和分割的小矩形的長寬,范圍太小可能不包含滿足要求的矩形,范圍太大計(jì)算量也隨之增大。為了選取出合適的范圍,本文對樣本的groundtruth和Faster RCNN算法實(shí)際檢測出來的框的長寬和左上角坐標(biāo)位置進(jìn)行了統(tǒng)計(jì),最終選出了合適的范圍。當(dāng)在一定范圍調(diào)整矩形長寬和矩形框左上角坐標(biāo)時(shí)候,可以逐個(gè)像素調(diào)整,也可以每隔幾個(gè)像素調(diào)整。逐個(gè)像素調(diào)整效果更好,但是計(jì)算量太大。每跳躍幾個(gè)像素調(diào)整計(jì)算量小,效果較差。本文對于跳躍幾個(gè)像素檢測更合適在時(shí)間和準(zhǔn)確率上進(jìn)行權(quán)衡,最終選擇了適合本文的跳躍像素個(gè)數(shù)。

        由于Faster RCNN算法畫出來的框大體和groundtruth框位置和形狀相差不大,只有少部分圖片效果不佳,相差較大。因此每次探測時(shí)候以算法定位到的框開始,將坐標(biāo)先變大幾個(gè)像素,如果不滿足要求,再調(diào)小相同的像素。對于長寬也是類似的處理。這種調(diào)整方法可以一定程度降低探測的時(shí)間。

        2 實(shí)驗(yàn)結(jié)果分析

        2.1 定位和圖像分類數(shù)據(jù)集與實(shí)驗(yàn)設(shè)定

        本文第一階段Faster RCNN網(wǎng)絡(luò)的基礎(chǔ)網(wǎng)絡(luò)使用VGG16,第三階段的分類網(wǎng)絡(luò)也使用VGG16網(wǎng)絡(luò),這兩處VGG16網(wǎng)絡(luò)的初始權(quán)重均來自ImageNet。本文所涉及的所有實(shí)驗(yàn)均使用gpu,且型號為GTX 1080。本文實(shí)驗(yàn)代碼均基于keras框架。實(shí)驗(yàn)環(huán)境Python 2.7.13,keras 2.0.9,tensorflow1.4.10,Ubantu 14.04。本文圖片由煙草公司從市場批量采集香煙樣本拍攝而成。圖片大小均為1 280×960。圖片水平分辨率和豎直分辨率均為96 dpi。原始圖片均未加噪聲。

        在第一階段Faster RCNN定位中,為了獲得良好的模型,本文使用320幅圖片,并對圖片進(jìn)行了四種增強(qiáng)方式:椒鹽噪聲、高斯噪聲、變暗、變亮。得到320×4=1 280幅圖片,再對這1 280幅圖片做放大縮小操作,分別讓圖片長寬同時(shí)變?yōu)橐郧?.8、0.9、1.1、1.2倍。因此共有1 280×5=6 400幅圖片參與訓(xùn)練驗(yàn)證。最終得到模型。本文中將6 400幅圖片按照train:test=7∶3的比例進(jìn)行訓(xùn)練與驗(yàn)證。

        對于第三階段單幅數(shù)字圖片分類,為了獲得良好的分類模型,本文從數(shù)據(jù)集中挑選出約162幅原始圖片通過手動(dòng)截屏方式標(biāo)注,從圖片中截取每幅圖上的數(shù)字。每幅圖片上截取32個(gè)單個(gè)數(shù)字圖片,共截取出162×32=5 184幅單個(gè)數(shù)字圖片,除去截圖過程中發(fā)現(xiàn)的明顯不符合要求的數(shù)字圖片,剩余5 063幅。由于每個(gè)數(shù)字在圖片中出現(xiàn)的頻率不同,因此截取到的數(shù)字?jǐn)?shù)量存在很大的差異。例如截取數(shù)量最多的是數(shù)字0,有1 158幅。最少的是數(shù)字9,只有225幅。由于數(shù)據(jù)之間存在分布不均勻的情況,如果某類數(shù)字訓(xùn)練樣本過多,可能導(dǎo)致最后學(xué)習(xí)到此類數(shù)字特征過多,而其他類別數(shù)字特征過少。因此訓(xùn)練數(shù)據(jù)最好數(shù)量差別不要太大。因此本文對最少數(shù)字9進(jìn)行了挑選,將205幅作為最后的數(shù)據(jù)。按照跟205幅差別不太多的原則,從每類別數(shù)字中挑選一定數(shù)量的數(shù)字作為樣本。然后按照大概8∶2的比例隨機(jī)分配訓(xùn)練集和驗(yàn)證集。最終訓(xùn)練數(shù)據(jù)1 696幅,驗(yàn)證數(shù)據(jù)424幅??偣矓?shù)據(jù)集 2 120幅。本文使用VGG16作為分類網(wǎng)絡(luò),訓(xùn)練時(shí)候?qū)W習(xí)率設(shè)定為0.000 1。另選22幅原始圖片作為測試集,人工截取每個(gè)數(shù)字所在區(qū)域,由此得到22×32=704幅圖片作為測試集。

        2.2 定位與圖像分類效果

        本文另選取22幅原始圖片進(jìn)行第一階段定位的測試,定位得到的效果圖和groundtruth的對比圖如圖4所示。定位精度越高,則定位得到的矩形框的左上角坐標(biāo)和矩形長寬與groundtruth差別越小,因此可以在更小的范圍內(nèi)調(diào)整這些參數(shù),減少了計(jì)算量。定位精度大小用目標(biāo)檢測領(lǐng)域通用評價(jià)指標(biāo)IOU表示,IOU表示定位框與groundtruth框的交集和并集的比值。本文測量22幅圖片IOU,得到其平均IOU為0.872。

        圖4 定位效果

        在第三階段分類中,經(jīng)過實(shí)驗(yàn)挑選網(wǎng)絡(luò),最終使用VGG16作為分類網(wǎng)絡(luò),具體挑選網(wǎng)絡(luò)實(shí)驗(yàn)在下節(jié)中敘述。本文采用VGG16作為分類網(wǎng)絡(luò),學(xué)習(xí)率為0.000 1,沒有數(shù)據(jù)增強(qiáng)時(shí)候訓(xùn)練得到模型。此模型驗(yàn)證集上的圖片最佳識別率為0.918 2時(shí),測試集為0.842 3。

        2.3 圖像分類的參數(shù)的影響

        2.3.1分類網(wǎng)絡(luò)

        現(xiàn)存分類網(wǎng)絡(luò)很多,同一分類網(wǎng)絡(luò)可能在某一數(shù)據(jù)集效果理想而在另外數(shù)據(jù)集上效果較差。因此為了找出適合本文的分類網(wǎng)絡(luò),本文在Resnet50[14]、VGG16、VGG19[15]、InceptionV3[16]等分類網(wǎng)絡(luò)上進(jìn)行了實(shí)驗(yàn)。最終選擇出VGG16作為本文第三階段的分類網(wǎng)絡(luò)。這四種網(wǎng)絡(luò)所使用的初始權(quán)重均來自ImageNet項(xiàng)目,且均把圖片數(shù)據(jù)尺寸統(tǒng)一到224×224然后送到多個(gè)網(wǎng)絡(luò)進(jìn)行分類。分類結(jié)果如表1所示。

        表1 分類網(wǎng)絡(luò)效果對比

        實(shí)驗(yàn)結(jié)果表明,不同的分類網(wǎng)絡(luò)對本文單個(gè)數(shù)字圖片的分類效果不同。其中:InceptionV3網(wǎng)絡(luò)在驗(yàn)證集和測試集上的表現(xiàn)最差,VGG16網(wǎng)絡(luò)在驗(yàn)證集和測試集上表現(xiàn)最好。這說明VGG16網(wǎng)絡(luò)是對本文數(shù)據(jù)集最合適的分類識別網(wǎng)絡(luò)。因此本文選擇VGG16網(wǎng)絡(luò)作為最終分類識別網(wǎng)絡(luò)。

        2.3.2數(shù)據(jù)增強(qiáng)

        對于第二階段圖像分類,由于本文數(shù)據(jù)較少,因此考慮數(shù)據(jù)增強(qiáng)來提高精度。在VGG16網(wǎng)絡(luò)上進(jìn)行實(shí)驗(yàn),結(jié)果表明數(shù)據(jù)增強(qiáng)能提高一定的精度。首先本文由于圖片尺寸最終都統(tǒng)一到224×224,因此放大縮小數(shù)據(jù)增強(qiáng)對本文沒有作用,實(shí)驗(yàn)結(jié)果也驗(yàn)證了這一猜想。本文對圖片同時(shí)做了隨機(jī)上下翻轉(zhuǎn),發(fā)現(xiàn)驗(yàn)證集數(shù)據(jù)精度反而下降了0.16,因?yàn)?和9上下翻轉(zhuǎn)后將無法識別,因此本文沒有采用上下翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)方式。由于本文中數(shù)字多為水平,傾斜角度較少,因此暫不考慮使用旋轉(zhuǎn)的數(shù)據(jù)增強(qiáng)方式。本文僅采用了隨機(jī)水平翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)方式。實(shí)驗(yàn)結(jié)果表明水平翻轉(zhuǎn)數(shù)據(jù)增強(qiáng)對實(shí)驗(yàn)結(jié)果有一定提高。實(shí)驗(yàn)結(jié)果如表2所示。

        表2 數(shù)據(jù)增強(qiáng)與空間變換對比

        實(shí)驗(yàn)結(jié)果表明通過水平翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)后,VGG16的在驗(yàn)證集和測試集上的分類效果均有0.01左右的提高。這說明隨機(jī)水平翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)方式能提升圖片分類效果,因此本文采用隨機(jī)水平翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng)方式。

        2.3.3空間變換網(wǎng)絡(luò)(STN)

        在第二階段圖像分類中,本文在VGG16最后一個(gè)池化層后加入了空間變換網(wǎng)絡(luò)。由于最后一個(gè)池化層輸出的feature map大小為7×7,通過空間變換網(wǎng)絡(luò)后,輸出的feature map大小也設(shè)定為7×7,然后送到VGG16接下來的層繼續(xù)學(xué)習(xí)。實(shí)驗(yàn)結(jié)果表明,加入空間變換網(wǎng)絡(luò)分類效果有較好提高。實(shí)驗(yàn)結(jié)果如表2所示。

        實(shí)驗(yàn)結(jié)果表明,在VGG16網(wǎng)絡(luò)后加入STN后,驗(yàn)證集和測試集上的結(jié)果均有大概0.03的提高,說明本文的圖像數(shù)據(jù)在有模糊、變形等其他空間問題時(shí)加入空間變換網(wǎng)絡(luò)對實(shí)驗(yàn)結(jié)果有一定提升。因此本文加入空間變換網(wǎng)絡(luò)來提升分類效果。本文將2.3.2節(jié)中的數(shù)據(jù)增強(qiáng)和2.3.3節(jié)的空間變換網(wǎng)絡(luò)綜合起來,使得驗(yàn)證集和測試集上的效果提升了0.5左右。

        2.3.4學(xué)習(xí)率的影響

        在第二階段圖像分類中,為了取得更好的效果,本文對網(wǎng)絡(luò)學(xué)習(xí)率進(jìn)行了調(diào)節(jié),以上實(shí)驗(yàn)中學(xué)習(xí)率均為0.000 1,每次擴(kuò)大或者縮小10倍以確定最好的學(xué)習(xí)率。本文基于VGG16,做水平隨機(jī)翻轉(zhuǎn)并加入空間變換網(wǎng)絡(luò),調(diào)整學(xué)習(xí)率,在驗(yàn)證集上的精度如下所示。實(shí)驗(yàn)結(jié)果如表3所示。

        表3 學(xué)習(xí)率對分類效果的影響

        學(xué)習(xí)率過大容易使得損失值爆炸,使得梯度值在最小值附近來回震蕩,無法達(dá)到最低點(diǎn);學(xué)習(xí)率過小收斂過程非常緩慢并且容易過擬合。因此本文挑選合適的學(xué)習(xí)率對本文圖像分類效果具有重大意義。實(shí)驗(yàn)表明,學(xué)習(xí)率為0.000 01時(shí),測試集的精度最高達(dá)到0.890 6。因此,本文采用0.000 01作為本文學(xué)習(xí)率。

        基于上述實(shí)驗(yàn)結(jié)果,本文分類網(wǎng)絡(luò)采用VGG16網(wǎng)絡(luò),同時(shí)對數(shù)據(jù)做了水平翻轉(zhuǎn)的數(shù)據(jù)增強(qiáng),并加入了空間變換網(wǎng)絡(luò),將學(xué)習(xí)率調(diào)整到0.000 01,最終驗(yàn)證集上最佳精度達(dá)到0.978 0,此時(shí)測試集精度為0.890 6。此結(jié)果只是22幅圖片按照groundtruth分割得到的識別率,并不代表最終實(shí)驗(yàn)識別率。用groundtruth分割的示意圖如圖5所示。

        (b) 分割示意圖5 groundtruth分割示意圖

        2.4 探測方法與最終結(jié)果

        本文先使用22幅待測試圖片,通過目標(biāo)檢測算法Faster RCNN算法定位,把定位得到的框直接分割然后送入VGG16網(wǎng)絡(luò)識別,此時(shí)的識別率為0.15。說明不使用先驗(yàn)知識,直接定位分割的效果較差。本文對22幅圖片進(jìn)行統(tǒng)計(jì),發(fā)現(xiàn)數(shù)字串所在區(qū)域圖片框的數(shù)字串左上角坐標(biāo)(x1,y1)與groundtruth圖片框左上角坐標(biāo)(x1gt,y1gt)之間有一定偏差,通過統(tǒng)計(jì)發(fā)現(xiàn)|x1-x1gt|<20、|y1-y1gt|<20。每個(gè)小矩形寬度偏差|width-widthgt|<2。在一定范圍內(nèi)對圖片進(jìn)行探測,本文設(shè)置探測的x1、y1均相隔多個(gè)像素探測一次,width相隔1個(gè)像素探測一次。通過實(shí)驗(yàn),為了在探測識別時(shí)間和識別率結(jié)果上達(dá)到一個(gè)妥協(xié),本文發(fā)現(xiàn)左上角坐標(biāo)4個(gè)像素為一個(gè)探測單位,寬度1個(gè)像素更適合本文。固定外接矩形框左上角坐標(biāo)x、y,逐像素改變外接矩形分割得到的小矩形的寬度,結(jié)果如表4所示。表中:坐標(biāo)移動(dòng)像素?cái)?shù)代表探測時(shí)候外接矩形框左上角坐標(biāo)x、y移動(dòng)的像素?cái)?shù)單位,比如3代表調(diào)整外接矩形框時(shí),調(diào)整矩形框左上角坐標(biāo)x、y時(shí)每隔3個(gè)像素調(diào)整一次。先驗(yàn)知識探測對結(jié)果的影響如表5所示(此時(shí)的先驗(yàn)知識使用的調(diào)整像素幅度為4)。

        表4 像素調(diào)整對比表

        表5 先驗(yàn)知識探測對結(jié)果的影響

        實(shí)驗(yàn)結(jié)果表明,調(diào)整步幅增大,探測時(shí)間減少,精度總體有下降的趨勢。為了在時(shí)間和精度上做一個(gè)權(quán)衡,本文最終選擇每4個(gè)像素調(diào)整一次,此時(shí)22幅測試圖片的最佳識別率為0.80,在速度和精度上都可以很好滿足香煙防偽驗(yàn)證的需求。在不使用先驗(yàn)知識探測時(shí)候初始識別率僅為0.15,通過加入先驗(yàn)知識在一定范圍內(nèi)探測識別,識別效果有較大提升。

        本文將此算法用于香煙企業(yè)偽品鑒定,將識別出來的結(jié)果送入香煙企業(yè)防偽碼數(shù)據(jù)庫比對判斷香煙真?zhèn)?。將識別出來有問題的香煙通過人工識別最終確定,大大減少了人工工作量,具有良好的實(shí)用價(jià)值。

        3 結(jié) 語

        本文結(jié)合香煙防偽數(shù)字串的實(shí)際情況,充分利用了防偽數(shù)字串的先驗(yàn)知識,提出了一種新的數(shù)字串識別方法。首先定位出數(shù)字串大概位置;然后分割識別,通過先驗(yàn)知識判斷是否滿足條件,如果不滿足則繼續(xù)調(diào)整矩形長寬和左上角坐標(biāo);最終找到滿足要求的外接矩形,并把此時(shí)識別結(jié)果作為本文鑒定方法的最終結(jié)果。實(shí)驗(yàn)表明,本文提出的方法對于香煙防偽數(shù)字串具有良好的識別效果,很好地滿足了防偽數(shù)字串識別的要求,具有良好的實(shí)用價(jià)值。本文算法為商品條碼數(shù)字識別、儀表數(shù)字串識別等類似識別問題提供了良好的新思路。

        猜你喜歡
        防偽矩形像素
        趙運(yùn)哲作品
        藝術(shù)家(2023年8期)2023-11-02 02:05:28
        像素前線之“幻影”2000
        INTEGRITYTM ECO100再生縫紉線引入防偽技術(shù)
        你知道古代圣旨和紙鈔是怎樣防偽的嗎
        兩矩形上的全偏差
        “像素”仙人掌
        化歸矩形證直角
        從矩形內(nèi)一點(diǎn)說起
        民國時(shí)期紙鈔上的防偽暗記
        高像素不是全部
        CHIP新電腦(2016年3期)2016-03-10 14:22:03
        久久综合这里只有精品| 三级4级全黄60分钟| 初高中生精品福利视频| 国产亚洲精品综合99久久 | 成人片在线看无码不卡| 日韩日本国产一区二区| 亚洲国产精品成人天堂| 毛多水多www偷窥小便| 久久AV中文综合一区二区| av手机天堂在线观看| 久久精品中文少妇内射| 真人新婚之夜破苞第一次视频| 久久精品免费免费直播| 国产一区不卡视频在线| 日韩精品人妻中文字幕有码在线| 特级毛片爽www免费版| 国产精品入口牛牛影视| 富婆叫鸭一区二区三区| 日本精品女优一区二区三区| 国产精品久久久久久婷婷| 亚洲色成人网一二三区| 蜜桃视频一区二区三区| 丰满少妇高潮惨叫久久久| 无码人妻丰满熟妇片毛片 | 中文字幕视频二区三区| 精品人无码一区二区三区| 国产熟妇人妻精品一区二区动漫| 亚洲欧美日韩中文字幕网址| 一区二区三区在线日本视频 | 人人摸人人操| 中文字幕无码日韩欧毛| 青青草视频视频在线观看| 国自产拍偷拍精品啪啪一区二区 | 亚洲精品中文字幕码专区| 国产精品国产三级国产av剧情| 精品国精品无码自拍自在线| 国产亚洲美女精品久久久2020| 午夜免费观看日韩一级片| 人妻熟女一区二区三区app下载| 亚洲性综合网| 91中文在线九色视频|