【摘要】采用多通濾波檢測器實現對掌紋圖像的特征信息采集,對采集的掌紋圖像進行不同層次的特征信息分割,通過深層特征提取方法實現對掌紋圖像特征融合處理。構建掌紋圖像的可控方向值二維融合調度模型,結合多維多視角圖像的分割先驗知識,建立掌紋圖像特征提取的可控方向值方圖;分析掌紋圖像的淺層特征信息和深層特征信息,對各層特征信息實現信息融合;利用可控方向值方圖融合算法實現對掌紋圖像特征提取和識別優(yōu)化。仿真結果表明,采用該方法進行掌紋圖像特征提取的精度較高、誤分率較小,提高了對掌紋圖像的識別和檢測能力。
【關鍵詞】可控方向值方圖;掌紋圖像;特征提取;圖像分割
〔中圖分類號〕TP391 〔文獻標識碼〕A 〔文章編號〕1674-3229(202004- 0024一05
0 引言
掌紋同指紋一樣,都是人體的重要生物特征。隨著圖像處理技術的發(fā)展,利用智能圖像特征分析方法提取人體的生物特征信息,完成圖像特征的提取和有效的數據融合,全面地將個體特征提供給識別系統(tǒng),實現了特征提取技術在身份鑒定和辨識等領域的廣泛應用[1]。
對掌紋圖像特征提取的傳統(tǒng)方法主要有模糊信息處理法、基于支持向量機學習法以及基于圖像分割的特征提取方法等,構建掌紋圖像特征提取的圖模型結構,通過二維和三維空間分布式重構,實現掌紋圖像特征提取。傳統(tǒng)方法進行特征提取的適應度不高、精度不好[2-4]。
針對上述問題,本文引入可控方向值方圖算法提取掌紋圖像特征,在掌紋圖像特征(邊緣輪廓等)的分割處理上采用深層特征融合,結合多維多視角圖像分割構建可控方向值二維融合調度模型,從而實現掌紋圖像特征的提取。
1 掌紋圖像采集和分割預處理
1.1 掌紋圖像采集模型
結合小波多尺度分解[5]方法實現掌紋圖像中關鍵特征分解重構,并用矢量量化圖像的小波變換系統(tǒng),采用圖像編碼技術,構建掌紋圖像的特征提取模型,如圖1所示。
圖1 掌紋圖像特征提取模型
根據圖1所示的掌紋圖像特征提取模型,采用特征圖的細化操作方法,獲得掌紋的紋理特征信息,根據掌紋圖像的紋理分布的字典集[6],采用迭代深層特征信息融合的方法,得到掌紋圖像特征提取的紋理字典集為:
其中,f為掌紋圖像特征參數,△g為深層提取的特征信息參數,y(j)為構造特征圖信息融合參數模型,通過學習圖像塊的數據特征得到掌紋信息增強的尋優(yōu)模型描述為:
其中,pi(t)為掌紋的語義相關性融合特征函數,△p(t)為語義分割網絡分布的結構特性,采用多層網絡結構分析的方法,得到輸出的zi(t),zj(t)表示掌紋圖像的特征提取視覺分布點,采用空間區(qū)域映射和線性融合的方法,得到掌紋圖像的多層次紋理分布結果為:
其中,hn為提取掌紋的紋理稀疏特征分量,采集的掌紋圖像進行不同層次的特征信息分割,采用深層特征提取方法實現紋理信息衍射分析,提高掌紋圖像的識別能力[7]。
1.2 掌紋圖像分割
采用深層特征融合完成掌紋圖像的分割處理,采用邊緣輪廓提取方法構建掌紋圖像的超維信息特征分割模型,通過三維信息空間重構,進行掌紋圖像的信息增強處理[8],提取掌紋圖像的稀疏性特征解集,通過模糊度尋優(yōu),得到掌紋圖像的自相關特征匹配模型為:
其中,df為掌紋圖像的稀疏度融合特征分量,dfi,j為掌紋圖像的超分辨融合分布系數,以像素點j為中心進行掌紋圖像的小波多尺度融合和線性分割。初始化掌紋圖像的紋理特征點,對于每個掌紋圖像的特征點K的近鄰點[9],得到掌紋紋理融合解析控制函數為:
其中,i為掌紋圖像的紋理信息分割的閾值,R為一個規(guī)范常量,sj為掌紋圖像的多維特征空間融合系數,gi為掌紋圖像邊緣特征子集,通過離散線性序列融合[10],得到掌紋圖像深度學習的紋理映射特征分布函數為:
其中,k(a)為掌紋圖像特征提取的子空間映射函數,構建掌紋的模板匹配模型,根據線性分割結果,得到掌紋圖像的邊緣輪廓子集,得到子集信息分量為:
其中,гv為掌紋匹配模型參數,lx為紋理分布函數值,構建掌紋圖像的深層次紋理映射模型,提高掌紋圖像的信息融合和特征辨識能力[11]。
2 掌紋圖像特征提取優(yōu)化
2.1 掌紋圖像可控方向值二維融合
構建掌紋圖像的可控方向值二維融合調度模型,結合多維多視角圖像分割的先驗知識,建立掌紋圖像特征提取的可控方向值方圖,采用平衡語義標簽分布插值運算的方法[12],得到掌紋圖像的可控方向值分布維數為m,在掌紋數據庫中采用線性匹配濾波檢測的方法,得到掌紋圖像的可控方向下的紋理分布序列為Aj(j=1,2,…,n),d=[d1d2…dn]表示掌紋圖像可控方向值的差異度,dj≥0,∑j=1dj=1,dj表示掌紋圖像可控的相似度分布距離,結合光流信息檢測的方法,得到掌紋分布序列模板匹配輸出為:
選擇直方圖模板匹配方法,得到掌紋的可控方向值方圖為:
p(v)=Jc+Ω(X)+U(9)
其中,Jc為可控方向值方圖的模糊度函數,Ω(X)是融合光流場檢測增強系數,采用空間區(qū)域模型動態(tài)切換的方法,提取掌紋圖像的相似度信息,得到T次迭代后的模糊度系數,得出掌紋圖像可控模糊參數為:
其中,J(x)為掌紋圖像的目標直方圖重建系數,I(x)為掌紋分布的光流場幅度圖。根據上述分析,構建掌紋圖像可控方向值二維融合模型[13]。
2.2 掌紋圖像特征提取輸出
采用相似性區(qū)域合并的方法,構建掌紋圖像可控方向的Kalman濾波分析模型,結合區(qū)域等效直方圖分析方法[14],得到掌紋圖像的稀疏特征點用I(i,j)描述,得到目標模板I(k)(i,j)表示如下:
其中,k表示出區(qū)域等效直方圖的等效區(qū)域控制系數,采用鄰域加權控制的方法,得到掌紋圖像可控方向的分層特征提取輸出為:
M=I(K)(i,j)+d(z)+he(12)
其中,d(z)為掌紋圖像的灰度特征分布參數,he為當前處理區(qū)域函數,對每個窗口的直方圖實現加權控制,結合紋理穩(wěn)態(tài)識別的方法,得到模板匹配的差異度函數為:
其中,hk、gk代表圖像融合和濾波系數,若Xi為原始掌紋紋理線性分布序列,yi、zi分別為掌紋特征融合系數,其面積為Ai。根據匹配模板直方圖分析和線性跟蹤識別,得到掌紋圖像的特征提取輸出的迭代函數為:
zd=rw+(gy+ge)(14)
其中,rw為掌紋圖像特征提取的可控方向值方圖參數,gy,ge為掌紋圖像的淺層特征信息和深層特征信息,采用線性特征序列加權控制的方法[15],實現掌紋圖像加權穩(wěn)定性控制,在最佳特征匹配下,得到掌紋圖像的邊緣特征提取輸出為:
Φ=zd+(λ+v)+cn(15)
其中,掌紋圖像的邊緣信息加權系數λ,v均為常數,且λ>0,cn為輸出的控制權系數,掌紋圖像的特征提取的分布面積為:
其中,I(s)為掌紋圖像的灰度直方圖,vr是符號函數,Gσ是誤差系數,綜上分析,采用可控方向值方圖融合算法,實現對掌紋圖像特征提取和識別優(yōu)化[16]。實現流程如圖2所示。
3 仿真測試
為了驗證本文方法提取掌紋特征的應用性能,采用Matlab進行掌紋特征提取算法的仿真測試分析,掌紋的采集樣本數為1200,掌紋紋理特征分布的訓練集規(guī)模為500,模板匹配系數為0.38,掌紋紋理的相似度系數為0.014,得到待識別的掌紋圖像如圖3所示。
圖3為待識別的掌紋圖像,得到的掌紋圖像紋理特征提取結果輸出如圖4所示。
圖2 掌紋圖像特征提取實現流程
圖3 待識別的掌紋圖像
圖4 紋理特征提取輸出結果
分析圖4可知,本文方法能有效實現掌紋圖像的紋理特征提取,特征聚類性較好。為進一步驗證本文方法的應用性能,對比本文方法和文獻[10]中改進的掌紋特征提取方法、文獻[11]中基于形態(tài)學濾波和鄰域搜索的掌紋提取方法,測試掌紋特征提取紋理分布誤差,結果如圖5所示。
圖5 誤差對比測試
分析上述仿真結果可知,用本文方法進行掌紋圖像特征提取和識別,誤差較小,且波動振蕩性低于傳統(tǒng)方法。
4 結語
為了利用特征分布的差異性實現人體生物特征編碼識別,有效提取方向特征的穩(wěn)定性信息,本文提出基于可控方向值方圖算法的掌紋圖像特征提取技術?;谛〔ㄗ儞Q的矢量量化方法,使其在圖像分析和處理等方面的優(yōu)異性得到體現。仿真測試結果表明,本文方法對掌紋圖像特征提取的聚類性較好,識別誤差較低。
[參考文獻]
[1]何正義,曾憲華,郭姜.一種集成卷積神經網絡和深信網的步態(tài)識別與模擬方法[J].山東大學學報(工學版),2018,48(3):88-95.
[2]郭偉,邢宇哲,曲海成.高置信度互補學習的實時目標跟蹤[J].中國圖象圖形學報,2019,24(8):1315-1326.
[3]吳明珠,陳瑛,李興民.基于Stein-Weiss函數的彩色掌紋特征識別算法[J].計算機應用研究,2020,37 (4):322-326.
[4]WU Y,LIM J,YANGM H.Object tracking benchmark[J].IEEE Transactions on Pattern Analysis and Machine Intelli-gence,2015,37(9):1834-1848.
[5]周友行,劉漢江,趙晗妘,等.基于像元相互關系的FCM聚類分割算法[J].儀器儀表學報,2019,40(9):124-131.
[6]余祥偉,薛東劍,陳鳳嬌.融合多尺度邊緣檢測的小波貝葉斯SAR圖像濾波[J].遙感信息,2019,34(5):120-125.
[7]姚啟芳.基于模糊聚類的養(yǎng)生旅游資源信息檢索方法[J].廊坊師范學院學報(自然科學版),2020,20(1):81-85.
[8]竇方正,孫漢昌,孫顯,等.基于DBN與對象融合的遙感圖像變化檢測方法[J].計算機工程,2018,44 (4):294-298+304.
[9]孫佳美,吳成茂.正則化圖形模糊聚類及魯棒分割算法[J].計算機工程與應用,2019,55(11):179-186.
[10]滕少華,羅江,費倫科一種改進的掌紋線方向特征提取方法[J].江西師范大學學報(自然科學版),2018,42(3):311-316.
[11]李海燕,潘培哲,唐一吟,等.基于形態(tài)學濾波和鄰域搜索的掌紋主線提取方法[J].計算機應用與軟件,2018,35(8):254-259.
[12]蔡俊,趙超,沈曉波,等.基于卷積神經網絡的Canny算法優(yōu)化[J].廊坊師范學院學報(自然科學版),2019,19(4):23-26+44.
[13]李俊杰,高翠芳,黃芳.墓于優(yōu)化采樣支持向量機的指紋二值化方法[J].東北師大學報(自然科學版),2018,50(4):59-65.
[14]劉炳初,趙越嶺,王浩,等.智能考勤系統(tǒng)的設計[J].遼寧工業(yè)大學學報(自然科學版),2018,38(6):364-367.
[15]劉珍珍,劉云清,顏飛.指紋圖像干濕度評價及亮度自動調節(jié)方法研究[J].長春理工大學學報(自然科學版),2018,41(5):83-87.
[16]杜柏圣.卷積網絡的無監(jiān)督特征提取對人臉識別的研究[J].計算機技術與發(fā)展,2018,28(6):17-20.
[收稿日期]2021-07-09
[基金項目]福建省教育廳中青年科技項目(JAT191931)
[作者簡介]胡海鋒(1972-),男,碩士,閩西職業(yè)技術學院信息與制造學院副教授,研究方向:計算機科學。