錢俞好,周 軍,田 勝,李少輝
(河海大學(xué) 機(jī)電工程學(xué)院,江蘇 常州 213022)
視覺(jué)檢測(cè)是機(jī)器視覺(jué)中的一個(gè)重要領(lǐng)域,涉及到計(jì)算機(jī)、圖像處理、模式識(shí)別等多個(gè)領(lǐng)域。近幾年隨著印刷產(chǎn)業(yè)的快速發(fā)展,機(jī)器視覺(jué)檢測(cè)技術(shù)逐漸在印刷檢測(cè)中得到廣泛應(yīng)用,檢測(cè)識(shí)別結(jié)果的準(zhǔn)確性以及識(shí)別效率已成為關(guān)鍵性的衡量標(biāo)準(zhǔn)[1]。
國(guó)外開始對(duì)字符識(shí)別的技術(shù)的研究相對(duì)較早,在理論和產(chǎn)品上都比較成熟。俄羅斯的ABBYY Finereader以及美國(guó)的Nuance Omnipage Professional都是當(dāng)今世界上比較出色的OCR識(shí)別檢測(cè)系統(tǒng)軟件,支持多國(guó)語(yǔ)言,且識(shí)別率都能達(dá)到99%以上。我國(guó)于上世紀(jì)70年代末開始對(duì)OCR技術(shù)方面的研究,經(jīng)過(guò)近30年的努力已取得了重大進(jìn)展。現(xiàn)已出現(xiàn)一些性能比較出眾的產(chǎn)品成果,如清華TH-OCR97綜合集成漢字識(shí)別系統(tǒng),對(duì)中等質(zhì)量的樣本識(shí)別對(duì)象,識(shí)別率能夠達(dá)到98%或者更高。字符識(shí)別常用的算法有模板匹配、KNN、SVM、神經(jīng)網(wǎng)絡(luò)等。
本研究將基于模板匹配算法,提出一種改進(jìn)的模板匹配算法。
模板匹配是模式識(shí)別中的一個(gè)基本方法,屬于一種統(tǒng)計(jì)思想的識(shí)別算法[2]。該方法原理簡(jiǎn)單、識(shí)別過(guò)程直觀、計(jì)算方便,因此得到較為普遍的應(yīng)用。字符模板匹配目前采用簡(jiǎn)單的二值圖像模板,0表示黑(背景),1表示白(目標(biāo))[3]。原匹配圖像S、模板T、覆蓋的目標(biāo)區(qū)域Sij,如圖1所示。
圖1 原匹配圖S及模板T
模板T(m,n)和所覆蓋目標(biāo)區(qū)域Sij(i,j)之間的相似性D(i,j)的數(shù)學(xué)表達(dá)式為:
(1)
(2)
本研究計(jì)算目標(biāo)圖像與所有的模板庫(kù)中的相關(guān)系數(shù),選取系數(shù)中最大的對(duì)應(yīng)的模板圖像即為識(shí)別內(nèi)容。
按經(jīng)過(guò)多次實(shí)驗(yàn)發(fā)現(xiàn),在一般條件下,選取自然光源的陰面采集圖像所呈現(xiàn)的效果最為理想,采集瓶蓋原始圖像如圖2所示。
圖2 采集瓶蓋原始圖像
閾值分割法是運(yùn)用最為廣泛的圖像分割技術(shù)。常用的閾值分割算法有以下幾種:迭代法、最大類間誤差法、最大熵法等[4],該實(shí)驗(yàn)著重研究基于最大類間誤差的閾值分割法。
根據(jù)圖像的灰度特性,將圖像分為背景和目標(biāo)兩個(gè)部分,運(yùn)用最大類間誤差閾值算法的步驟:
(1)計(jì)算圖像中每個(gè)灰度值的概率Pi;
(2)通過(guò)計(jì)算目標(biāo)和背景的分布概率ω1、ω0以及各自的平均灰度值μ1、μ0來(lái)計(jì)算方差σ02、σ12;
σ02、σ03的計(jì)算公式如下:
(3)
式中:K—背景像素集合的最大容量。
(4)
式中:L—目標(biāo)像素集合的最大容量。
(3)計(jì)算每個(gè)灰度值的類間差;
(5)
式中:μT=(μ0+μ1)/2,k=0,1。
(4)則所有類間差中最大的所對(duì)應(yīng)的灰度值即為閾值。
本研究利用Matlab中提供的閾值分割法的函數(shù)im2bw()進(jìn)行分割,效果如圖3所示。
圖3 閾值分割圖
圖像增強(qiáng)技術(shù)是進(jìn)行正確檢測(cè)識(shí)別字符的必要保證[5]。目標(biāo)字符主要位于圖像中的圓形區(qū)域內(nèi),在圖像處理中常用Hough變換的圓檢測(cè)的方法[6]。
圓檢測(cè)區(qū)域效果如圖4所示。
圖4 圓檢測(cè)目標(biāo)圖像
由圖4可以看出:通過(guò)圓檢測(cè)出來(lái)的圖像包含了字符和部分的噪聲點(diǎn)。常用的去噪濾波方法有高斯濾波法、均值濾波發(fā)、中值濾波發(fā)、雙邊濾波法等[7]。在Matlab軟件環(huán)境中分別用這幾種濾波方法對(duì)圖像進(jìn)行處理,效果如圖5所示。
圖5 幾種濾波方法效果圖
從以上4種濾波方式可以看出:相對(duì)于其他3種方法,中值濾波在該實(shí)驗(yàn)中有更好的圖像增強(qiáng)效果。
常用的字符分割方法有CFS分割、投影分割、基于最小外接矩形框分割等[8],本文中采用的基于最小外接矩形及連通區(qū)域相結(jié)合的分割法。
(1)通過(guò)最小外接法選定出包含全部字符的最小矩陣區(qū)域;
最小外界矩形框如圖6所示。
圖6 最小外界矩形框
(2)遍歷圖中的最小矩形區(qū)域,去除像素值之和為0的行,得到所有的有效字符區(qū)域條;有效字符條區(qū)域如圖7所示。
圖7 有效字符條區(qū)域
(3)通過(guò)Matlab中提供的bwlabel()函數(shù)遍歷圖7中的每一個(gè)有效字符區(qū)域,確定出每一個(gè)連通字符區(qū)域,即為每一個(gè)需要待分割的字符。
由于該實(shí)驗(yàn)中的字符之間的區(qū)分度較好,沒(méi)有粘連現(xiàn)象,字符之間的分割結(jié)果較滿意。
分割結(jié)果圖如圖8所示。
圖8 字符分割圖
積分圖像是一種快速計(jì)算圖像目標(biāo)矩形區(qū)域內(nèi)像素之和的數(shù)據(jù)處理方法,在圖像濾波二值化圖像處理較為常見(jiàn)[9]。
積分圖像的數(shù)學(xué)公式為:
(6)
式中:I—原始圖像;II—積分圖象。
某一圖像區(qū)域的積分圖像示意圖如圖9所示。
圖9 積分圖像用法示意圖
則區(qū)域Ⅳ的像素值之和為:
IⅣ=I(i,j)+I(i-1,j-1)-I(i,j-1)-I(i-1,j)
(7)
要計(jì)算任意區(qū)域的像素和,通過(guò)3次加減法對(duì)一次內(nèi)存讀取4個(gè)區(qū)域的像素和進(jìn)行運(yùn)算,從而避免了傳統(tǒng)方法中逐點(diǎn)累加的繁瑣求和過(guò)程。一幅大小為N×M的二值圖中去統(tǒng)計(jì)K個(gè)區(qū)域內(nèi)的像素和,時(shí)間復(fù)雜度為K×(N×M-1),內(nèi)存讀取開銷為K×N×M。在二值圖的基礎(chǔ)上利用積分圖像的思想進(jìn)行后續(xù)計(jì)算,時(shí)間復(fù)雜度和內(nèi)存讀取開銷僅為3×K和4×K,理論上大大縮短了圖像處理的時(shí)間[10]。
模板匹配中一般以原圖像與模板之間的相關(guān)系數(shù)來(lái)衡量,相關(guān)系數(shù)表示原圖像向量與模板圖像向量之間的夾角。設(shè)Amn和Bmn為積分圖像和模板圖像在標(biāo)準(zhǔn)處理后的二值矩陣,μ0、μ1和σ02、σ12分別為積分圖像和模板圖像在標(biāo)準(zhǔn)處理后的均值和方差,則相關(guān)系數(shù)r(A,B)可用下式來(lái)表示:
(8)
對(duì)上式進(jìn)行近似處理:
(9)
比較上述兩式,改進(jìn)后的式(9)在實(shí)現(xiàn)過(guò)程中只需遍歷一次目標(biāo)圖像和模板圖像,計(jì)算得出均差、方差,計(jì)算開銷明顯減小。
原分割后字符圖像經(jīng)過(guò)歸一化后的大小均為24×42,模板庫(kù)由0~9這10個(gè)數(shù)字的模板組成,每一個(gè)數(shù)字搜集了50個(gè)模板,大小均為24×42。對(duì)0~9這10個(gè)數(shù)字分別在傳統(tǒng)模板匹配算法與改進(jìn)的圖像積分模板匹配算法下進(jìn)行60組識(shí)別實(shí)驗(yàn),傳統(tǒng)模板匹配算法的識(shí)別結(jié)果如表1所示。
表1 傳統(tǒng)模板匹配識(shí)別結(jié)果
改進(jìn)之后的模板匹配算法的識(shí)別結(jié)果如表2所示。
表2 改進(jìn)模板匹配識(shí)別結(jié)果
兩種方式的比較結(jié)果,如表3所示。
表3 兩種方式的比較結(jié)果
從表1和表2的結(jié)果可以看出:總體上在兩種匹配方式下除了個(gè)別字符,如“0”和“7”的識(shí)別率與平均識(shí)別率相差較大,大部分的字符識(shí)別率能在90%以上;從表3可以得出:改進(jìn)模板匹配算法的識(shí)別率略低于傳統(tǒng)模匹算法,但是在識(shí)別速度比傳統(tǒng)方法提高了20%多。從張宏濤、龍翀,湯茂斌,謝渝平等人做的字符識(shí)別的結(jié)果來(lái)看,在滿足當(dāng)今普遍研究結(jié)果的識(shí)別率在83%到94%的范圍條件下,本文提出的改進(jìn)模板匹配算法能夠在滿足識(shí)別率在平均范圍內(nèi)的前提下,提高了識(shí)別檢測(cè)的速度。
筆者利用本文提出的基于圖像積分的改進(jìn)模板匹配算法,從結(jié)果來(lái)看能夠正確地識(shí)別檢測(cè)出瓶蓋印刷碼中的所有字符,驗(yàn)證該算法用來(lái)檢測(cè)瓶蓋印刷碼字符的可行性。
本研究介紹了一種基于圖像積分的改進(jìn)模板匹配的算法,并與傳統(tǒng)模板匹配算法進(jìn)行了比較,結(jié)果表明:改進(jìn)之后的匹配算法在識(shí)別速率上能夠提高20%以上,為以后的研究提供了重要參考依據(jù)。
但該算法存在著個(gè)別字符識(shí)別結(jié)果不理想的情況,在下一階段,需要從識(shí)別算法上加以完善,在保證識(shí)別速度的同時(shí),提高識(shí)別的準(zhǔn)確率,減小實(shí)驗(yàn)誤差。
參考文獻(xiàn)(References):
[1] 張宏濤,龍 翀,朱小燕,等.印刷體漢字識(shí)別后處理方法的研究[J].中文信息學(xué)報(bào),2009,23(6):67-71.
[2] 劉云峰,楊小岡,齊乃新,等.基于模板匹配的前視自動(dòng)目標(biāo)識(shí)別模型[J].兵工自動(dòng)化,2016,35(7):4-6.
[3] 李新良.模式識(shí)別理論的研究與應(yīng)用[J].北京電子科技學(xué)院學(xué)報(bào),2011,19(4):75-79.
[4] 劉 佳,傅衛(wèi)平,王 雯,李 娜.基于改進(jìn)SIFT算法的圖像匹配[J].儀器儀表學(xué)報(bào),2013,34(5):47-51.
[5] 湯茂斌,謝渝平,李就好.基于神經(jīng)網(wǎng)絡(luò)算法的字符識(shí)別研究[J].微電子學(xué)與計(jì)算機(jī),2009,26(8):91-93.
[6] 張勇紅.基于霍夫變換的銘牌OCR圖像旋轉(zhuǎn)矯正方法[J].電測(cè)與儀表,2015,52(8):125-128.
[7] 戴憲策,劉昌錦.模板匹配的一種快速算法[J].信息科學(xué)與控制工程,2016,36(1):23-25.
[8] TAVAKOL A, SOLTANIAN M. Fast feature-based template matching, based on efficient keypoint extraction[J].AdvancedMaterialsResearchr,2012,17(21):798-802.
[9] WANG Y W, LIANG H,LI J,et al. An improved difference template matching algorithm[J].AdvancedMaterialsResearch,2012,22(13):117-121.
[10] JING J, DAUWELS J, RAKTHANMANON T, et al. Rapid annotation of interictal epileptiform discharges via template matching under dynamic time warping[J].Elsevier,2016,33(4):114-119.