王玉杰,徐榮青,王斌斌,關(guān) 麗,潘欣艷,崔媛媛
(南京郵電大學 光電學院,江蘇 南京 210046)
在所有的生物識別技術(shù)中,指紋識別技術(shù)是應用最早的技術(shù)。指紋具有唯一性、穩(wěn)定性、應用實驗簡單和不可復制的特點,同時指紋采集簡單,采集設備種類多,價格低廉,已經(jīng)成為生物識別技術(shù)的重要手段。目前,指紋識別技術(shù)被廣泛應用于機場、銀行和各種網(wǎng)絡系統(tǒng)等需要驗證個人身份的地方[1]。
自動指紋識別系統(tǒng)由指紋采集、指紋預處理、特征提取、指紋分類、特征匹配和指紋庫六大模塊構(gòu)成。指紋圖像分為前景和背景兩部分,前景是具有清晰紋線的部分,也是感興趣區(qū)域;背景是無紋線或者紋線模糊的指紋圖像部分,是要去除的區(qū)域。分割是指紋圖像預處理中的重要組成部分[2-3]。有效的指紋圖像分割不僅能提高特征提取的精確度和可靠度,而且還能大大減少后續(xù)處理所需的時間和空間。用于指紋分割的算法有很多種,如傳統(tǒng)方差法、方向圖法和OSTU算法。但是實驗表明,單獨使用這些算法對圖像進行分割,效果都不理想。本文在分析以上幾種方法后,提出了一種結(jié)合最大類間方差法和傳統(tǒng)方差法的新的指紋分割方法。實驗結(jié)果表明,本文算法不僅適用于質(zhì)量高的圖像而且適用于質(zhì)量低的圖像,特別適用于含噪聲較嚴重的圖像。
傳統(tǒng)方差法是一種較簡單的分割方法。指紋圖像由前景區(qū)域和背景區(qū)域組成,前景區(qū)域由指紋的脊線和谷線組成,是本文所關(guān)心的區(qū)域,背景區(qū)域主要包含一些噪聲和無用的信息。由于前景區(qū)中脊線和谷線交替出現(xiàn),局部灰度方差較大,背景區(qū)域除了噪聲外像素值大小比較一致,灰度變化不大,方差較小,因此可以根據(jù)指紋圖像的這一特點,根據(jù)經(jīng)驗選取某一合適閾值,若某一指紋塊的灰度方差大于所選取的閾值則此塊屬于前景區(qū),否則屬于背景區(qū)。
算法具體步驟如下:
(1)將選取的指紋圖像分成w×w的互不重疊的小塊,一般情況下取w的值為16即一個指紋周期的大小。利用式(1)計算每一小塊的均值:
其中,k=1,…,M,l=1,…,N,M、N 由圖像大小和 w 決定,g(m,n)為子塊第m行n列圖像元素的灰度值。
(2)利用式(2)計算每一小塊的方差:
(3)若每一子塊的方差大于預定義的閾值V,則這一子塊為前景塊,否則為背景塊。實驗表明,方差法算法簡單,運算速度較快,對于質(zhì)量較好、高對比度的指紋圖像的分割效果較好,但對于低對比度圖像和含有噪聲的圖像分割效果不理想。
最大類間方差算法由OTSU在1979年提出,該算法運算速度快,適合對圖像進行實時處理。因為方差是灰度分布均勻性的一種量度,方差值越大,說明指紋圖像的兩部分差別越大,當部分前景錯分為背景或部分背景錯分為前景,都會導致兩部分差別變小,因此使類間方差最大的分割意味著錯分概率最小。該算法基本思路為:求出指紋圖像的最大類間方差,當前景和背景的分離性達到最好時,此方差即為圖像分割的最佳全局閾值th。具體步驟如下:
(1)設Ni為圖像灰度值為 i的像素數(shù),L為圖像的灰度等級,則圖像總的像素為N=ΣNi,各級灰度出現(xiàn)的
i概率為p(i)=Ni/N;
(2)以灰度門限th將圖像分成 B1和B2兩部分區(qū)域,其中B1區(qū)中像素的灰度值在 1~th之間,B2區(qū)中像素的灰度值在th+1~L之間,則B1類的概率為P1=P(i),均值為u1=iP(i)/P1,B2類的概率為 p2=P(i),均值為 u2=i
iP(i)/P2,則整個圖像的均值為u=iP(i)=P1u1+P2u2;利用式(3)求最大類間方差,從 1~L改變 th,最佳閾值th即為σ2取最大值時的值
(4)如果圖像的每一子塊像素值大于th,則此塊屬于前景區(qū),否則該子塊屬于背景區(qū)。
實驗表明,此算法適用性較強、計算簡單,無需根據(jù)經(jīng)驗選取閾值,運算速度比傳統(tǒng)分割方法更快,穩(wěn)定有效。但是采用全局閾值對圖像進行分割時,當光照不均、有突發(fā)噪聲或背景灰度變化較大時,圖像分割沒有合適的單一門限,分割效果不好。
本文在分析了上述分割方法后提出了一種新的分割方法,即結(jié)合方差法和最大類間方差法對圖像進行分割。該方法克服了單一方法不能很好地分割圖像的缺點,能準確地將圖像前景分割出來。采用該方法時,首先將圖像分成w×w塊,然后利用組合方法對圖像進行分割,最后再對圖像進行平滑處理。具體算法步驟如下:
(1)根據(jù)式(2)和式(3)求出整個指紋圖像的灰度方差V和最佳分割閾值th;
(2)將選取的指紋圖像分成 w×w小塊,本文選取 w=16,利用式(1)和式(2)計算每一小塊的均值m和方差u;
(3)若每一小塊的方差 u<αV(α為修正系數(shù),取值為(0~1)),則該塊為背景區(qū),不再對此塊進行處理;若 u≥αV,則認為該塊大部分為指紋前景區(qū),對于指紋前景區(qū)用最大類間方差法對這一部分圖像再進行處理:
(4)若每一小塊的均值 m>β×th(β為修正系數(shù),取值為(1~2)),則該塊為背景塊,否則認為該塊為前景塊;
(5)平滑孤立塊,消除孤立的前景塊和背景塊,具體方法為:如果某一塊被標記為前景塊,且其周圍八鄰域中前景塊的數(shù)目不大于3,則該塊為背景塊;如果某一子塊被標記為背景塊,且其周圍八鄰域中前景塊的個數(shù)大于3,則將該塊標記為前景塊,然后再利用開閉運算對邊緣進行平滑。
本文從指紋圖像庫中選取了三種質(zhì)量不同的指紋圖像,并利用傳統(tǒng)指紋分割算法(方差法、方向圖法)和本文的新算法對其進行分割,觀察其分割效果并對其進行比較。本實驗在CPU為Intel(R)Core(TM)2 Duo 2.1 GHz、內(nèi)存為2 GB的計算機上,利用Matlab 7.0編程工具實現(xiàn)了上述算法。實驗結(jié)果如圖1~圖3所示。從仿真結(jié)果可以看出,當利用方差法對圖像進行分割時,對于質(zhì)量較好的指紋圖像,分割效果較好,但對于質(zhì)量較差或含噪聲的圖像,當選取的分割閾值較大時往往將一些有用的信息點分割掉;若選取的閾值較小,分割不徹底,有些噪聲不能去除。當用方向圖法對指紋進行分割時,分割效果最差,并且算法比較復雜。相對于前幾種算法,利用本文算法不僅可以將前景準確地分割出來,而且圖像邊緣比較平滑不含有任何背景噪聲,效果比較好。本文算法對噪聲區(qū)域的分割結(jié)果更加準確,抵抗噪聲干擾的能力相對于基于灰度方差和方向圖的分割結(jié)果更為精確,尤其適合對噪聲較嚴重的圖像進行分割。雖然相對于方差法計算量有所增加,但由于分割后的圖像完全去除了無用的信息點,分割比較徹底,減少了后續(xù)處理的時間,因此整個指紋識別的復雜度并未增加。
圖1 質(zhì)量較好指紋圖像的幾種算法分割結(jié)果比較
圖2 質(zhì)量較差指紋圖像的幾種算法分割結(jié)果比較
圖3 污跡分布不均勻指紋圖像的幾種算法分割結(jié)果比較
為了有效說明三種算法的實際分割效果,本文采用錯誤背景率FBR(是指將前景區(qū)域錯誤地分割為背景區(qū)域的比率)、錯誤前景率FFR(是指將背景區(qū)域錯誤地分割為前景區(qū)域的比率)和兩種誤分的平均概率三種性能指標對圖像進行分析。對照所選取的三種指紋圖像,實際性能指標如表1所示。
圖像的分割是指紋圖像預處理的重要一步,正確地分割為指紋的后續(xù)處理節(jié)省了大量的時間和空間。本文研究和分析了方差法和最大類間方差法,并針對其單獨使用時的缺點,提出了一種將這兩種方法結(jié)合起來使用的新方法。利用Matlab7.0編程工具對多幅指紋圖像進行分割后證實,本算法不僅適合高對比度圖像和低對比圖像,尤其是對含噪聲較嚴重的圖像分割效果很好。相比于傳統(tǒng)分割方法無需根據(jù)經(jīng)驗選取閾值,在利用方差法進行初步分割時提出了一個修正系數(shù)α,α取值為(0,1),修正系數(shù)的選取降低了將部分前景錯分為背景的概率,提高了分割準確率。
表1 三種算法對三幅指紋圖像的實際分割性能
[1]田捷,楊鑫.生物特征識別技術(shù)理論與應用[M].北京:電子工業(yè)出版社,2005.
[2]METHRE B M, MURTHY N N, KAPOOR S, et al.Segmentation offingerprintimagesusing the directional images[J].Pattern Recognition,1995,28(3):1678-1683.
[3]MALATHI S, UMA MAHESWARI S, MEENA C.Rolled fingerprintsegmenation [J].GlobalJournalofComputer Science and Technology,2010, 9(5):107-109.
[4]RATHA N,CHEN S,JAIN A.Adaptive flow orientation based feature extraction in fingerprint images[J].Pattern Recognition,1995, 28(1):1657-1672.
[5]OSTU N.A threshold selection method from gray-level histogram [J].IEEE Transactions on Systems,Man and Cybernetics, 1995, 9(1):62-69.