亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)的CNN噴碼式不規(guī)則字符識(shí)別與提取方法

        2022-05-31 09:02:04王太學(xué)苗相彬李柏林郭彩玲
        唐山學(xué)院學(xué)報(bào) 2022年3期
        關(guān)鍵詞:區(qū)域模型

        王太學(xué),苗相彬,李柏林,郭彩玲

        (1.西南交通大學(xué) 唐山研究生院,河北 唐山 063000; 2.西南交通大學(xué) 機(jī)械工程學(xué)院,成都 610031; 3.唐山學(xué)院 a.機(jī)電工程學(xué)院,b.河北省智能裝備數(shù)字化設(shè)計(jì)及過(guò)程仿真重點(diǎn)實(shí)驗(yàn)室, 河北 唐山 063000)

        0 引言

        在信息化快速發(fā)展的時(shí)代,字符識(shí)別是一種重要的錄入與轉(zhuǎn)化信息的方法,在車(chē)牌識(shí)別[1]、郵政編碼識(shí)別[2]、食品噴碼識(shí)別[3]等領(lǐng)域有著非常廣泛的應(yīng)用。利用字符識(shí)別系統(tǒng)代替?zhèn)鹘y(tǒng)的人工錄入,可以節(jié)約大量人力物力,提高工作效率。

        目前字符識(shí)別的方法有很多,Vaishnav等[4]結(jié)合OCR利用模板匹配法完成了對(duì)車(chē)牌的識(shí)別;Zhang等[5]利用CNN(卷積神經(jīng)網(wǎng)絡(luò))中傳統(tǒng)的LeNet-5結(jié)構(gòu)實(shí)現(xiàn)了對(duì)驗(yàn)證碼的識(shí)別;Alghazo等[6]提出了一種基于結(jié)構(gòu)特征的多語(yǔ)言字符識(shí)別系統(tǒng),通過(guò)提取數(shù)字的局部特征,對(duì)多種語(yǔ)言的字符完成了高精度識(shí)別。

        字符識(shí)別是在字符分割的前提下進(jìn)行識(shí)別的,字符分割的方法有很多種。Khamdamov等[7]提出了一種基于輪廓分析的字符分割方法,通過(guò)識(shí)別特定字符的局部特征實(shí)現(xiàn)了車(chē)牌字符的分割;Wang等[8]提出了一種基于字符定位和投影分析相結(jié)合的字符分割方法,先通過(guò)AdaBoost算法訓(xùn)練級(jí)聯(lián)分類(lèi)器來(lái)定位,然后基于關(guān)鍵字符信息預(yù)測(cè)其他字符,最后通過(guò)垂直投影完成對(duì)字符的分割;Peng等[9]提出了一種基于連通域算法和滴水算法相結(jié)合的字符分割方法,通過(guò)BP神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)分類(lèi),對(duì)無(wú)粘連字符利用連通域算法進(jìn)行分割,對(duì)粘連字符利用滴水算法進(jìn)行分割,但是分割準(zhǔn)確率不是很高。

        上述研究表明一些字符識(shí)別方法在車(chē)牌等字符識(shí)別方面取得了較好的效果,但是對(duì)噴碼字符中出現(xiàn)的兩個(gè)及兩個(gè)以上字符粘連情況的識(shí)別,準(zhǔn)確率則不高。

        鑒于乳制品紙包裝上生產(chǎn)批號(hào)在噴碼過(guò)程中常由于各種原因部分噴碼字符出現(xiàn)粘連或缺失的現(xiàn)象,影響字符的自動(dòng)化識(shí)別,本文提出了一種基于字寬與投影法相結(jié)合的字符分割方法,先利用投影法將雙行字符分割為單行字符,再基于字寬完成對(duì)粘連字符的分割。在基于字寬進(jìn)行分割的過(guò)程中,有少量字符存在分割損壞的現(xiàn)象,但這并不影響后期CNN的訓(xùn)練過(guò)程,相反,這些被分割損壞的字符增加了訓(xùn)練的泛化性,有利于提高對(duì)不規(guī)則字符的識(shí)別準(zhǔn)確率。

        1 相關(guān)工作

        1.1 字符識(shí)別步驟

        基于改進(jìn)的CNN的不規(guī)則字符識(shí)別步驟如圖1所示。首先,利用yolov3算法對(duì)生產(chǎn)日期區(qū)域進(jìn)行提??;其次,對(duì)圖像進(jìn)行預(yù)處理;再次,通過(guò)一種基于字寬的分割算法結(jié)合投影法,利用相鄰字符間的像素差異實(shí)現(xiàn)對(duì)粘連字符的分割;最后,對(duì)分割后的單個(gè)字符利用改進(jìn)的CNN進(jìn)行多標(biāo)簽分類(lèi)訓(xùn)練得到模型,得出并顯示識(shí)別結(jié)果。

        圖1 字符識(shí)別步驟

        1.2 圖像獲取

        乳制品紙包裝上生產(chǎn)批號(hào)的噴碼圖像(如圖2所示)通過(guò)工業(yè)相機(jī)采集,工業(yè)相機(jī)包括硬件系統(tǒng)和軟件系統(tǒng)。硬件系統(tǒng)由工業(yè)相機(jī)、光源、相機(jī)鏡頭、傳送裝置和觸發(fā)裝置組成;軟件系統(tǒng)為圖像采集系統(tǒng),由圖像格式模塊、采集控制模塊、連續(xù)存儲(chǔ)模塊組成。

        圖2 工業(yè)相機(jī)獲取的圖像

        1.3 感興趣區(qū)域的獲取

        感興趣區(qū)域(目標(biāo)區(qū)域)提取的方法有很多,如基于深度學(xué)習(xí)的目標(biāo)區(qū)域提取[10]、基于結(jié)構(gòu)紋理特征的目標(biāo)區(qū)域提取[11]、基于SIFT特征的目標(biāo)區(qū)域提取[12]。本文鑒于圖像中字符位置坐標(biāo)的不確定性,選擇基于keras深度學(xué)習(xí)框架下的yolov3算法[13]進(jìn)行目標(biāo)區(qū)域的提取。通過(guò)labelImg圖像標(biāo)注軟件對(duì)1 000張樣本圖進(jìn)行目標(biāo)區(qū)域標(biāo)定,圖像中標(biāo)定的目標(biāo)區(qū)域?yàn)樯a(chǎn)日期區(qū)域。把這1 000張標(biāo)定的圖像作為模型的訓(xùn)練集,選定不包含訓(xùn)練集的120張圖像作為測(cè)試集。經(jīng)過(guò)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練后得出目標(biāo)區(qū)域預(yù)測(cè)模型,通過(guò)測(cè)試集測(cè)試后得出模型,符合目標(biāo)區(qū)域預(yù)測(cè)要求。對(duì)其中一張測(cè)試圖像進(jìn)行目標(biāo)區(qū)域預(yù)測(cè)并提取后得到的圖像如圖3所示。

        圖3 感興趣區(qū)域的提取結(jié)果

        1.4 圖像預(yù)處理

        1.4.1 去噪

        圖像中的噪聲點(diǎn)對(duì)圖像處理造成困擾,需進(jìn)行去噪處理。因?yàn)閳D像中不均勻的黑點(diǎn)為椒鹽噪聲[14],所以選取中值濾波[15]進(jìn)行去噪處理。中值濾波的原理是將一個(gè)5×5的矩陣中的25個(gè)像素點(diǎn)進(jìn)行排序,并將矩陣的中心點(diǎn)賦值為這25個(gè)像素的中值。中值濾波函數(shù)去噪原理如下:

        設(shè)f(x,y)為中值濾波前的像素值,g(x,y)為中值濾波后的像素值,則有如下關(guān)系:

        g(x,y)=medA[f(x,y)]。

        (1)

        式中,med表示用中值代替所有像素值f(x,y),A為5×5的二維區(qū)域。

        通過(guò)5×5的二維窗口進(jìn)行非線性平滑去噪,對(duì)窗口數(shù)值重新排序,用中間值代替原窗口的中間值。中值濾波后的效果如圖4所示。

        圖4 中值濾波圖

        1.4.2 二值化

        選取最大類(lèi)間方差法進(jìn)行自適應(yīng)閾值二值化[16],該方法是一種基于全局的二值化算法,能夠根據(jù)圖像灰度特征將圖像分為前景和背景,從而獲取最佳閾值。最大類(lèi)間方差法的原理如下:

        設(shè)背景和前景的分割閾值為T(mén);將前景像素點(diǎn)數(shù)占整幅圖像像素點(diǎn)數(shù)的比重記為ω1,平均灰度為μ1;將背景像素點(diǎn)數(shù)占整幅圖像像素點(diǎn)數(shù)的比重記為ω2,平均灰度為μ2。圖像的平均灰度為μ,類(lèi)間方差為g。假設(shè)圖像大小為M×N,將圖像中像素灰度值小于閾值的像素個(gè)數(shù)記作N1,將像素灰度值大于閾值的像素個(gè)數(shù)記作N2,那么有:

        (2)

        (3)

        N1+N2=M×N,

        (4)

        ω1+ω2=1,

        (5)

        μ=ω1μ1+ω2μ2。

        (6)

        將式(5)代入式(6)得:

        g=ω1ω2(μ1-μ2)2。

        (7)

        對(duì)全圖進(jìn)行遍歷,即能得到最大類(lèi)間方差法的閾值T。

        利用上述算法對(duì)圖4進(jìn)行遍歷得到最佳閾值T為94。令圖4像素N有如下關(guān)系:

        (8)

        根據(jù)式(8)就可以得到二值化后的圖像,如圖5所示。對(duì)于不同亮度的圖像區(qū)域,算法能夠根據(jù)每一區(qū)域的灰度值自適應(yīng)計(jì)算出最佳分割閾值,并取其平均閾值進(jìn)行迭代,最大化保留相應(yīng)區(qū)域內(nèi)的所有信息。

        圖5 二值圖

        1.5 字符分割

        1.5.1 行分割

        在獲得二值圖后,需要進(jìn)行字符分割,分割后的圖像用作后面卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的樣本。因兩行字符之間有明顯的像素差,故基于水平投影直方圖將兩行字符分割成單行字符。

        1.5.2 列分割

        通過(guò)行分割得到兩張單行字符的圖像后,要進(jìn)行單個(gè)字符的分割,但由于有的二值圖中出現(xiàn)兩個(gè)字符粘連的情況,僅利用投影法無(wú)法將其分割成單個(gè)字符,因此本文提出了一種基于字寬分割的算法,并與投影法結(jié)合進(jìn)行字符分割,如圖6所示。

        圖6 粘連字符分割示意圖

        本文分割算法如下:

        設(shè)出現(xiàn)字符像素的起始點(diǎn)為x1,字符像素的終止點(diǎn)為x2。對(duì)要分割的字符寬度進(jìn)行如下定義:

        經(jīng)過(guò)行分割后得到的單行字符圖像寬度為b1,要進(jìn)行列分割的單行字符圖像寬度為b2,其中b1≠b2,分割后單個(gè)字符的寬度為b3。

        (9)

        因此起始分割位置為x1-k1,終止分割位置為x2+k1,要分割的單行字符圖像寬度為:

        b2=x2-x1+2k1;

        (10)

        分割后單個(gè)字符的寬度為:

        (11)

        基于以上算法,從起始分割位置x1-k1以寬度b3進(jìn)行12等份分割,可得到單個(gè)字符分割的圖像。

        1.6 改進(jìn)的CNN LeNet-5模型

        CNN[17]是一種前饋型神經(jīng)網(wǎng)絡(luò),在圖像處理方面表現(xiàn)較好,被廣泛應(yīng)用于圖像分類(lèi)、定位等領(lǐng)域。LeNet-5模型[18]是Yann Lecun教授于1998年提出的,是一種應(yīng)用于手寫(xiě)字符識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)。傳統(tǒng)的LeNet-5模型在手寫(xiě)字符識(shí)別中表現(xiàn)出色,但由于點(diǎn)陣字符的不連通性,導(dǎo)致其對(duì)噴碼字符識(shí)別適用性較差。因此,本文提出的改進(jìn)的CNN LeNet-5模型增加了各個(gè)層中特征圖的數(shù)量及大小等參數(shù),并對(duì)卷積層、池化層、全連接層和輸出層作了改進(jìn),選取三層卷積層與三層池化層、兩層全連接層和一層輸出層構(gòu)成神經(jīng)網(wǎng)絡(luò)。改進(jìn)后的CNN LeNet-5模型網(wǎng)絡(luò)結(jié)構(gòu)圖如圖7所示,模型結(jié)構(gòu)如表1所示。

        表1 改進(jìn)后的CNN LeNet-5模型結(jié)構(gòu)

        圖7 改進(jìn)后的CNN LeNet-5模型網(wǎng)絡(luò)結(jié)構(gòu)圖

        輸入層是32×32×3(高×寬×通道)的點(diǎn)陣字符圖像,包含字符0-9,C和L共12類(lèi)。

        卷積層共三層,分別為C1層、C2層、C3層。C1層共有32個(gè)特征卷積核,每個(gè)卷積核的大小為3×3,因此能夠得到32個(gè)特征圖,每個(gè)特征圖的大小為30×30,有896個(gè)神經(jīng)元共享卷積核權(quán)值參數(shù)。C2層共有64個(gè)特征卷積核,卷積核的大小也是3×3,每個(gè)特征用于加權(quán)和計(jì)算的卷積核為13×13。C3層共有128個(gè)特征圖,也是用3×3的卷積核進(jìn)行運(yùn)算,卷積核的種類(lèi)有128種,可訓(xùn)練的參數(shù)為73 856個(gè),卷積后形成的圖形大小為4×4。

        池化層共三層,分別為S1層、S2層、S3層。S1層卷積核的大小為2×2,步長(zhǎng)為2,輸出矩陣的大小為15×15×32;S2層采樣卷積核大小為2×2,步長(zhǎng)為2,輸出矩陣的大小為6×6×64;S3層卷積核大小為2×2,步長(zhǎng)為2,輸出矩陣的大小為2×2×128。

        F1層為全連接層,神經(jīng)元個(gè)數(shù)為262 656。F2層也為全連接層,其輸出尺寸為1×1×512維向量。

        Output層為輸出層,共12個(gè)節(jié)點(diǎn),每一個(gè)節(jié)點(diǎn)代表一個(gè)標(biāo)簽種類(lèi),標(biāo)簽分別為字符0-9,C和L。

        為了使模型提取的特征更加精細(xì),改進(jìn)的CNN LeNet-5模型的網(wǎng)絡(luò)結(jié)構(gòu)包含輸入層共11層,與傳統(tǒng)的LeNet-5模型的區(qū)別是在第三層卷積層后面增加了池化層,池化層的類(lèi)型為最大池化,即選取圖像區(qū)域的最大值作為該區(qū)域池化后的值,進(jìn)一步減小了特征空間信息的大小,提高了模型的運(yùn)算效率;并且增加了Dropout層,舍棄了一半神經(jīng)元,使每次迭代可隨機(jī)更新網(wǎng)絡(luò)參數(shù),以增加網(wǎng)絡(luò)的泛化能力,防止訓(xùn)練時(shí)產(chǎn)生過(guò)擬合。在每一層卷積層之后采用的激活函數(shù)為ELU函數(shù),ELU激活函數(shù)的形式如下:

        (12)

        相對(duì)于ReLu函數(shù),ELU函數(shù)的優(yōu)點(diǎn)是不會(huì)出現(xiàn)Dead ReLu問(wèn)題,輸出平均值接近于0,并且可以通過(guò)減少偏置的影響使正常梯度更接近單位自然梯度,從而使均值向0加速學(xué)習(xí);ELU在較小的輸出下會(huì)飽和到負(fù)值,因而可以減少前向傳播的變異和信息。輸出層的激活函數(shù)采用的是softmax函數(shù),softmax函數(shù)定義如下:

        (13)

        式中,f(aj)為第j個(gè)輸出值;n為輸出值,即label值的個(gè)數(shù),本文n為13。

        softmax層的損失函數(shù)使用的是對(duì)數(shù)函數(shù),定義如下:

        Li=-logf(am)。

        (14)

        式中,m為樣本的標(biāo)簽,即對(duì)應(yīng)輸出的具體label。

        根據(jù)softmax函數(shù)可以進(jìn)一步得到損失函數(shù)的具體表達(dá)式,如下:

        (15)

        通過(guò)損失函數(shù),可以計(jì)算出輸出標(biāo)簽的損失值,進(jìn)而預(yù)測(cè)出每一個(gè)標(biāo)簽的概率,從而得到模型對(duì)待測(cè)字符的預(yù)測(cè)準(zhǔn)確率。

        2 實(shí)驗(yàn)與結(jié)果分析

        2.1 實(shí)驗(yàn)設(shè)計(jì)

        為了評(píng)估改進(jìn)的CNN LeNet-5模型性能,利用本文分割算法得到的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。本文的代碼使用python語(yǔ)言編寫(xiě),基于keras學(xué)習(xí)框架進(jìn)行訓(xùn)練。硬件環(huán)境為2.20 GHz Core i7 5200 GPU,操作系統(tǒng)為Win10 64位,運(yùn)行內(nèi)存為32 GB。樣本訓(xùn)練時(shí)采用固定學(xué)習(xí)率,學(xué)習(xí)率為0.001。在相同的實(shí)驗(yàn)環(huán)境下,分別對(duì)傳統(tǒng)的LeNet-5網(wǎng)絡(luò)、改進(jìn)的LeNet-5網(wǎng)絡(luò)、文獻(xiàn)[19]和文獻(xiàn)[20]中的神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并用相同的樣本集進(jìn)行模板匹配法的測(cè)試,通過(guò)比較它們的識(shí)別準(zhǔn)確率來(lái)評(píng)估本文模型的性能。其中,文獻(xiàn)[19]利用卷積神經(jīng)網(wǎng)絡(luò)fast R-CNN和非最大值抑制卷積神經(jīng)網(wǎng)絡(luò)(NMS)對(duì)管腳字符進(jìn)行識(shí)別,字符識(shí)別準(zhǔn)確率達(dá)到97%以上;文獻(xiàn)[20]利用yolov3微網(wǎng)絡(luò)對(duì)車(chē)牌進(jìn)行檢測(cè),利用K-means算法進(jìn)行聚類(lèi),通過(guò)改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行實(shí)驗(yàn),得到車(chē)牌字符的識(shí)別準(zhǔn)確率為99.53%。

        2.2 數(shù)據(jù)集

        數(shù)據(jù)集包含了訓(xùn)練集和測(cè)試集。利用本文分割算法,得到了單張字符圖像11 000張,共計(jì)12個(gè)類(lèi)別,從每個(gè)類(lèi)別中選取200張共2 400張作為測(cè)試集,剩余的8 600張為訓(xùn)練集。部分分割的單個(gè)字符圖像如圖8所示。從圖中可以看出,在分割后的字符中,部分字符是半字符或殘缺字符,將一部分半或殘缺字符與正常同類(lèi)別字符列為同一樣本集進(jìn)行訓(xùn)練,能夠增加訓(xùn)練模型的泛化能力,提高模型的魯棒性。

        圖8 字符部分訓(xùn)練樣本

        2.3 實(shí)驗(yàn)結(jié)果

        2.3.1 粘連字符和半或殘缺字符的識(shí)別

        圖9是對(duì)點(diǎn)陣字符的識(shí)別結(jié)果,從圖中可以看出,后半部分字符經(jīng)過(guò)預(yù)處理后會(huì)存在部分字符粘連和缺失或全部缺失的情況,利用本文分割算法,對(duì)后半部分字符分割后進(jìn)行分標(biāo)簽訓(xùn)練,增加模型魯棒性,提高了該類(lèi)字符的識(shí)別率。

        圖9 字符識(shí)別結(jié)果

        2.3.2 測(cè)試識(shí)別準(zhǔn)確率

        本文以學(xué)習(xí)率為0.001設(shè)置不同的迭代次數(shù)來(lái)檢測(cè)模型的收斂效果,不同迭代次數(shù)的損失值和識(shí)別準(zhǔn)確率如圖10所示。從圖中可以得出,當(dāng)?shù)螖?shù)達(dá)到4 000次時(shí),模型已基本收斂。

        圖10 損失值和識(shí)別準(zhǔn)確率

        為驗(yàn)證本文算法的性能,將本文的模型與兩種魯棒性較好的字符識(shí)別模型(文獻(xiàn)[19]和文獻(xiàn)[20]中)和傳統(tǒng)的LeNet-5模型、模板匹配法進(jìn)行了實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)數(shù)據(jù)分別為粘連字符圖像、半或殘缺字符圖像和正常字符圖像。其中,文獻(xiàn)[19]中模型訓(xùn)練的學(xué)習(xí)率為0.001,文獻(xiàn)[20]中模型訓(xùn)練的學(xué)習(xí)率為0.000 1。結(jié)果如表2所示。

        表2 不同算法的字符識(shí)別準(zhǔn)確率 %

        從表2的實(shí)驗(yàn)結(jié)果可以看出,模板匹配法和傳統(tǒng)的LeNet-5模型對(duì)粘連字符和半或殘缺字符識(shí)別能力較差,文獻(xiàn)[19]和文獻(xiàn)[20]相較于前兩種方法雖有所提高,但識(shí)別準(zhǔn)確率仍相對(duì)偏低。模板匹配法只能對(duì)規(guī)則字符進(jìn)行準(zhǔn)確識(shí)別,而對(duì)于不規(guī)則字符的識(shí)別適應(yīng)性較差;文獻(xiàn)[19]中的算法由于采集的訓(xùn)練集數(shù)據(jù)過(guò)少,且基于人工數(shù)據(jù)進(jìn)行訓(xùn)練集的合成,缺少對(duì)真實(shí)環(huán)境中數(shù)據(jù)存在境況的考量,加之算法的復(fù)雜性,使識(shí)別的準(zhǔn)確率和效率降低;文獻(xiàn)[20]中的算法模型只能用于特定格式的訓(xùn)練,缺乏對(duì)數(shù)據(jù)集測(cè)試的通用性,導(dǎo)致對(duì)粘連字符的識(shí)別準(zhǔn)確率較低;傳統(tǒng)的LeNet-5模型對(duì)于手寫(xiě)字符的識(shí)別準(zhǔn)確率較高,而對(duì)于噴碼字符的識(shí)別魯棒性較差。

        為探討文獻(xiàn)[19]和文獻(xiàn)[20]與本文算法的識(shí)別準(zhǔn)確率之間的差異,在獲得整體識(shí)別準(zhǔn)確率的基礎(chǔ)上測(cè)試實(shí)驗(yàn)數(shù)據(jù)每個(gè)字符的識(shí)別準(zhǔn)確率,測(cè)試結(jié)果如圖11所示。從圖中可以看出,文獻(xiàn)[19]和文獻(xiàn)[20]中的算法對(duì)字符2,5,7,9的識(shí)別準(zhǔn)確率較低,導(dǎo)致整體的識(shí)別準(zhǔn)確率較低。原因是在上述數(shù)據(jù)集中所涉及的字符多為粘連字符和半或殘缺字符,文獻(xiàn)[19]和[20]中的算法對(duì)其適應(yīng)性較差,導(dǎo)致識(shí)別準(zhǔn)確率較低。而本文算法相較于這兩種算法適應(yīng)性較好,識(shí)別準(zhǔn)確率相對(duì)較高。

        圖11 不同算法數(shù)據(jù)集各類(lèi)樣本測(cè)試精度

        3 字符識(shí)別系統(tǒng)

        字符識(shí)別系統(tǒng)[21]是通過(guò)機(jī)器視覺(jué)系統(tǒng)采集圖像,通過(guò)算法來(lái)對(duì)生產(chǎn)日期進(jìn)行識(shí)別的一個(gè)端對(duì)端的在線集成系統(tǒng)。通過(guò)工業(yè)相機(jī)將實(shí)物信息變成圖像信息,經(jīng)過(guò)字符分割、字符識(shí)別再將圖像上的生產(chǎn)日期信息轉(zhuǎn)換為字符信息,這大大減少了人工識(shí)別所帶來(lái)的成本以及降低了檢測(cè)誤差,提高了識(shí)別的準(zhǔn)確率。

        3.1 系統(tǒng)設(shè)計(jì)

        本文設(shè)計(jì)的字符識(shí)別系統(tǒng)以pycharm為開(kāi)發(fā)平臺(tái),利用python語(yǔ)言進(jìn)行設(shè)計(jì),能夠應(yīng)用圖像處理技術(shù)實(shí)現(xiàn)對(duì)噴碼字符的自動(dòng)識(shí)別。識(shí)別過(guò)程中需要數(shù)字圖像處理、python程序設(shè)計(jì)等相關(guān)知識(shí)相結(jié)合,做出識(shí)別系統(tǒng),實(shí)現(xiàn)對(duì)生產(chǎn)日期圖像的預(yù)處理及自動(dòng)分割和識(shí)別。識(shí)別系統(tǒng)的原理是采用python編程開(kāi)發(fā),封裝成獨(dú)立可執(zhí)行程序,并能夠?qū)崿F(xiàn)手動(dòng)圖像輸入識(shí)別。

        為了使系統(tǒng)中的識(shí)別結(jié)果能夠清晰地呈現(xiàn)出來(lái),采用python中的pyqt5和Qt designer[22]工具制作圖像用戶界面,通過(guò)GUI界面將整個(gè)設(shè)計(jì)呈現(xiàn)為四個(gè)模塊,主要包括圖像讀取模塊、目標(biāo)區(qū)域獲取模塊、字符分割模塊和字符識(shí)別模塊。

        3.2 在線識(shí)別

        圖像讀取模塊主要是對(duì)工業(yè)相機(jī)拍攝的原始圖像進(jìn)行讀入,點(diǎn)擊讀取圖像可以打開(kāi)對(duì)應(yīng)文件夾,選擇要識(shí)別的生產(chǎn)日期圖像,然后圖像會(huì)顯示在相應(yīng)位置。該模塊如果用在工業(yè)生產(chǎn)線上,可以直接把工業(yè)相機(jī)拍攝的圖像傳入到下一模塊。

        目標(biāo)區(qū)域獲取模塊直接將yolov3訓(xùn)練的模型嵌入目標(biāo)區(qū)域按鈕下的函數(shù)中,該按鈕下的函數(shù)能夠直接將生產(chǎn)日期區(qū)域進(jìn)行裁剪并重新生成適合界面的圖像尺寸。點(diǎn)擊目標(biāo)區(qū)域提取按鈕,會(huì)將圖像中生產(chǎn)日期的部分截取出來(lái)。

        字符分割模塊用Qt designer設(shè)計(jì)好單個(gè)字符顯示的位置,通過(guò)相應(yīng)的函數(shù)將目標(biāo)區(qū)域模塊中裁剪得到的目標(biāo)區(qū)域進(jìn)行去噪二值化,并利用投影法和字寬相結(jié)合的方法完成字符的分割。點(diǎn)擊字符分割按鈕,字符分割結(jié)果將會(huì)顯示在界面相應(yīng)的位置。

        字符識(shí)別模塊是利用卷積神經(jīng)網(wǎng)絡(luò)將預(yù)先分割好的單個(gè)字符進(jìn)行訓(xùn)練,得到一個(gè)訓(xùn)練模型。將該訓(xùn)練模型直接用于字符分割模塊分割后的單個(gè)字符識(shí)別,識(shí)別結(jié)果是將字符分割模塊分割后的圖像轉(zhuǎn)換為相應(yīng)的標(biāo)簽輸出到界面上。

        通過(guò)字符識(shí)別系統(tǒng),將圖像信息轉(zhuǎn)換成字符信息,能夠有效快速地完成生產(chǎn)日期的檢測(cè),有利于工業(yè)生產(chǎn)效率的提高。

        4 結(jié)論

        本文針對(duì)圖像中存在的字符粘連問(wèn)題,提出了一種基于字寬分割算法,并與投影法相結(jié)合,通過(guò)比較相鄰字符間的像素與所設(shè)閾值的大小關(guān)系,進(jìn)而選定相應(yīng)算法進(jìn)行分割,對(duì)存在粘連字符的圖像有較好的分割效果。模型訓(xùn)練時(shí),丟棄部分神經(jīng)元,并增加不規(guī)則字符的樣本比例,從而增加了模型的泛化性,提高了粘連字符和半或殘缺字符的識(shí)別準(zhǔn)確率。基于上述方法設(shè)計(jì)的字符識(shí)別系統(tǒng),可以對(duì)生產(chǎn)日期進(jìn)行在線實(shí)時(shí)檢測(cè),加快了工業(yè)流水線的運(yùn)轉(zhuǎn)效率。

        本文雖然關(guān)注了流水線上不規(guī)則字符的識(shí)別率問(wèn)題,但是未考慮生產(chǎn)線上字符識(shí)別的速度問(wèn)題,而流水線上字符的高速識(shí)別,能夠提高企業(yè)的生產(chǎn)效益。今后的研究重點(diǎn)是在保證識(shí)別準(zhǔn)確率的前提下提高識(shí)別速度,使字符識(shí)別系統(tǒng)同時(shí)滿足高準(zhǔn)確率和高速度的要求。

        猜你喜歡
        區(qū)域模型
        一半模型
        永久基本農(nóng)田集中區(qū)域“禁廢”
        分割區(qū)域
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        3D打印中的模型分割與打包
        關(guān)于四色猜想
        分區(qū)域
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
        国产白浆一区二区三区佳柔| 亚洲日日噜噜噜夜夜爽爽| 色婷婷狠狠97成为人免费| 久久精品国产亚洲av热明星| 一区二区三区成人av| 亚洲女厕偷拍一区二区| 无码国产一区二区色欲| 熟女乱乱熟女乱乱亚洲| 国产午夜精品视频在线观看| 亚洲精品国产第一综合色吧| 五月天国产成人av免费观看| 手机看片福利一区二区三区| 久久夜色撩人精品国产小说| 岛国大片在线免费观看| 国产福利一区二区三区视频在线看 | 无码专区无码专区视频网址| av网站免费在线不卡| 一级r片内射视频播放免费| 亚洲av无码国产精品草莓在线| 男人添女人下部高潮全视频| 首页动漫亚洲欧美日韩| 日韩美无码一区二区三区| 日本一区二区三区清视频| 精品一二三四区中文字幕| 国产精品无码久久久久| 国产精品99久久久精品免费观看| 亚洲av国产大片在线观看| 伊人久久大香线蕉av色婷婷色| 无码无套少妇毛多18pxxxx| 国产97在线 | 中文| 伊人22综合| 日本一区二区三区啪啪| 一个人午夜观看在线中文字幕| 成人自慰女黄网站免费大全| 久久久无码人妻精品无码| 极品美女扒开粉嫩小泬| 欧美日韩国产在线成人网| 白嫩少妇在线喷水18禁| 日韩女优av一区二区| 内地老熟女老少配视频| 久久久久无码精品亚洲日韩|