亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于小訓(xùn)練樣本和紋理分析的筆跡鑒別方法

        2008-01-01 00:00:00桑金歌于國(guó)莉苗曉峰
        計(jì)算機(jī)教育 2008年2期

        摘要:本文針對(duì)高等教育自學(xué)考試考生試卷筆跡真?zhèn)舞b定應(yīng)用,利用人工筆跡鑒定專(zhuān)家知識(shí),結(jié)合文本獨(dú)立,和訓(xùn)練樣本少的特點(diǎn)給出一種基于紋理的算法。通過(guò)實(shí)驗(yàn)得出,正確接受率為92.9%,正確拒絕率為90.0%。

        關(guān)鍵字:筆記鑒別;紋理;Gabor

        中圖分類(lèi)號(hào):G642

        文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1672-5913(2008)02-0122-03

        1引言

        不同的人根據(jù)自身的生理特征和后天的學(xué)習(xí)情況不同,而練就不同的筆跡,正所謂“字如其人”。筆跡正是一種相對(duì)穩(wěn)定的行為特征,因此筆跡可以用來(lái)識(shí)別個(gè)體身份。目前在公安、社會(huì)化考試、銀行等領(lǐng)域得到日益廣泛的應(yīng)用,其中一個(gè)典型應(yīng)用就是高等教育自學(xué)考試考生試卷筆跡真?zhèn)舞b定?,F(xiàn)在試卷筆跡鑒定工作是通過(guò)考試中心文檢人員手工比對(duì),這種傳統(tǒng)的筆跡鑒別方法,容易引入個(gè)人因素,影響鑒定效果的真實(shí)性。隨著考生人數(shù)的增多,這項(xiàng)比對(duì)工作相當(dāng)耗費(fèi)人力、物力。本文正是基于高自考這樣的背景,來(lái)研究基于文本獨(dú)立的離線筆跡鑒別。

        目前筆跡鑒別研究方向可以分為在線(on-line)和離線(off-line)兩類(lèi)。進(jìn)一步細(xì)分,離線筆跡鑒別又可分為:文本依存(Text-dependent)和文本獨(dú)立(Text-independent)

        兩種。文本依存就是提前規(guī)定書(shū)寫(xiě)內(nèi)容,文本獨(dú)立則對(duì)書(shū)寫(xiě)內(nèi)容沒(méi)有限制。筆跡鑒別的復(fù)雜性在于字跡的變化性,其任務(wù)就是從所有筆跡樣本中提取那些變化最大的特征,然后根據(jù)這些特征對(duì)測(cè)試筆跡樣本進(jìn)行真、偽分類(lèi)。

        另一個(gè)問(wèn)題是,目前分類(lèi)方法主要有支持向量機(jī)、多層神經(jīng)網(wǎng)絡(luò)等,由于實(shí)際應(yīng)用中樣本數(shù)較少,以上方法都不適用,因此本文主要針對(duì)訓(xùn)練樣本少的實(shí)際應(yīng)用情況討論文本獨(dú)立型(Text-independent)書(shū)寫(xiě)人識(shí)別。通過(guò)用Gabor等紋理分析方法提取文字紋理特征,獲得了較好的識(shí)別效果。

        2基于Gabor小波的紋理分析

        紋理分析在圖像處理、分析和識(shí)別中廣泛應(yīng)用,是從圖像中提取反映紋理特性的特征。每個(gè)人都有自己的書(shū)寫(xiě)風(fēng)格,從整體筆跡圖像看,它們含有不同的紋理特征,如筆跡的排版規(guī)律(行間、字間排列等)、單個(gè)字符的筆劃搭配關(guān)系都可以看成是一種紋理。從已知的筆跡鑒別方法來(lái)看,有不少都采用了紋理分析的思想。將筆跡視為圖像紋理,利用紋理分析的方法提取筆跡紋理特征并進(jìn)行鑒別,是目前研究的熱點(diǎn)。

        Gabor函數(shù)由Dennis Gabor于20世紀(jì)40年代提出的,后來(lái)被J.Daugman首先用于表征圖像,并用于視覺(jué)方面的研究。隨著計(jì)算機(jī)的不斷發(fā)展,成為了非常流行的圖像處理方法,這得益于Gabor函數(shù)特有的屬性及其生物意義。生物學(xué)的研究表明Gabor函數(shù)可以較準(zhǔn)確地描述人腦視覺(jué)皮層簡(jiǎn)單細(xì)胞的感受野。如圖1所示。

        圖1視覺(jué)皮層簡(jiǎn)單細(xì)胞的感受野與二維Gabor函數(shù)的對(duì)比

        Gabor函數(shù)是一個(gè)被復(fù)正弦函數(shù)調(diào)制的高斯函數(shù),它是唯一能夠達(dá)到時(shí)頻測(cè)不準(zhǔn)關(guān)系下界的函數(shù),能夠最好地兼顧信號(hào)在時(shí)域和頻域中的分辨能力。其中,一維Gabor函數(shù)如式(1):

        其中m用來(lái)控制函數(shù)的中心,s為寬度(Gaussian函數(shù)的標(biāo)準(zhǔn)偏差),周期為T(mén),函數(shù)波形如圖2所示。

        圖2一維Gabor函數(shù)波形

        二維Gabor函數(shù)具有方向選擇性和帶通性,能夠比較精確地提取圖像的局部紋理特征。二維Gabor函數(shù)如式(2)所示:

        3Gabor變換以及筆跡特征獲取

        本文使用Gabor核函數(shù)對(duì)筆跡紋理圖像進(jìn)行Gabor變換,提取筆跡特征。給定一幅圖像f(x,y),其Gabor變換定義為:

        (4)

        根據(jù)卷積定理,時(shí)域中卷積相當(dāng)于頻域中乘積,故可借助快速傅立葉變換(FFT)。這是由于快速傅立葉變換算法的計(jì)算效率要比基本的離散傅立葉變換高出幾個(gè)數(shù)量級(jí),由于FFT的高效率,在許多情況下實(shí)現(xiàn)卷積最有效的方法是先計(jì)算參與卷積的序列的離散傅立葉變換,然后將它們的變換相乘,最后計(jì)算這些變換乘積的逆變換??焖俑盗⑷~變換算法有很多種,目前廣為使用的是蝶形算法。對(duì)于本文中,進(jìn)行的是二維傅立葉變換,由于其行列可分性,因此可以先對(duì)列進(jìn)行一維快速傅立葉變換,然后對(duì)行進(jìn)行一維傅立葉變換。特征提取的實(shí)現(xiàn)過(guò)程入下:

        (1) 先根據(jù)Gabor核函數(shù)的參數(shù),即4個(gè)頻率和8個(gè)相位,依次求出32個(gè)Gabor核函數(shù),并對(duì)其依次進(jìn)行二維快速傅立葉變換,將其結(jié)果保存到數(shù)組;

        (2) 對(duì)筆跡紋理圖像塊進(jìn)行二維快速傅立葉變換,將其結(jié)果分別與32個(gè)Gabor核函數(shù)相乘,并且乘上一個(gè)系數(shù);

        (3) 對(duì)32個(gè)相乘結(jié)果分別進(jìn)行二維傅立葉逆變換,這樣對(duì)于每一個(gè)Gabor核函數(shù)將對(duì)應(yīng)得到一個(gè)Gabor變換系數(shù),該系數(shù)為復(fù)數(shù),對(duì)于每一個(gè)筆跡樣本就對(duì)應(yīng)得到32個(gè)變換系數(shù);

        (4) 針對(duì)每一變換系數(shù),分別求出模值,然后根據(jù)模值求出方差和均值,經(jīng)實(shí)驗(yàn)比較,對(duì)于本文文本依存情況,僅選取32維方差要比選取32維均值或者64維方差和均值的混合特征作為筆跡特征,鑒別率要高,效果要好,因此最終特征選用32維變換系數(shù)模值的方差。

        4分類(lèi)器的構(gòu)建

        由于人工神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)等分類(lèi)器均需要較多樣本進(jìn)行訓(xùn)練,而在實(shí)際應(yīng)用中樣本數(shù)較少。根據(jù)這一事實(shí),并且結(jié)合本文提出的訓(xùn)練方法,本文從樣本距離角度尋求分類(lèi)器。從相關(guān)文獻(xiàn)中了找了8個(gè)與距離相關(guān)的分類(lèi)標(biāo)準(zhǔn),目的是通過(guò)實(shí)驗(yàn)從中找出適合于本文的分類(lèi)器。這8個(gè)分類(lèi)標(biāo)準(zhǔn)依次為歐氏距離、普通距離、相似度、特征距離、Canberra距離、Dice系數(shù)、Jacquard系數(shù)、向量間距離,其數(shù)學(xué)表達(dá)式分別如式4~1所示:

        歐氏距離:

        以上8個(gè)式子中, 和 分別為特征向量,i=1,2,3,4,5……

        實(shí)驗(yàn)時(shí)選取8個(gè)人的樣本,其中5個(gè)人每人1份,另3個(gè)人每人10份樣本,共8個(gè)人35份筆跡樣本,測(cè)試結(jié)果如表1所示,表中A,B,C分別為三個(gè)書(shū)寫(xiě)人,每人10份筆跡樣本,實(shí)驗(yàn)步驟為(以A為例,其它類(lèi)似):

        (1) 以A的第一份樣本為參考樣本,經(jīng)“隨機(jī)訓(xùn)練”為每個(gè)分類(lèi)器獲取閾值;

        (2) 以A的第一份樣本為參考樣本,用獲取到的閾值,與A的其它9個(gè)樣本進(jìn)行比對(duì),給出測(cè)試正確樣本數(shù),對(duì)于每個(gè)分類(lèi)器分別填入對(duì)應(yīng)表格“本人”處;

        (3) 以A的第一份樣本為參考樣本,用獲取到的閾值,與B、C的各5個(gè)樣本進(jìn)行比對(duì),給出測(cè)試正確樣本數(shù),對(duì)于每個(gè)分類(lèi)器分別填入對(duì)應(yīng)表格“不同人”處;

        (4) 分別統(tǒng)計(jì)每個(gè)分類(lèi)器判別正確的樣本數(shù)。

        根據(jù)表中各分類(lèi)器的分類(lèi)結(jié)果,并結(jié)合運(yùn)算量,本文最終選定歐氏距離作為分類(lèi)器。對(duì)于兩個(gè)樣本,其歐氏距離越小,表明兩個(gè)樣本越相似,假設(shè)兩個(gè)樣本之間的歐氏距離為d,分類(lèi)閾值為g,那么如果d

        5結(jié)論

        本文研究?jī)?nèi)容是文本獨(dú)立的離線筆跡鑒別,結(jié)合課題背景本文給出一種基于紋理的方法。實(shí)驗(yàn)時(shí),先采集30人共計(jì)108份筆跡樣本,然后對(duì)這些筆跡樣本進(jìn)行預(yù)處理、形成紋理圖,使用32個(gè)Gabor核函數(shù),進(jìn)行Gabor變換,把變換后所得系數(shù)的方差作為最后的筆跡特征,共32維。最后使用歐氏距離作為分類(lèi)器,采用本文提出的閾值獲取辦法進(jìn)行訓(xùn)練。我們?cè)谧约翰杉墓P跡庫(kù)上實(shí)驗(yàn),在對(duì)28人的56份樣本實(shí)驗(yàn)中,對(duì)于與參考樣本出自同一人的筆跡樣本的測(cè)試,共28份,對(duì)于與參考樣本不同人的筆跡樣本,共140份。

        從表2可以看出,針對(duì)本文方法,對(duì)于與參考樣本出自同一人的筆跡樣本的測(cè)試,共28份,其中被正確鑒別的份數(shù)為26,正確接受率為92.9% 。對(duì)于與參考樣本不同人的筆跡樣本,共140份,正確鑒別的份數(shù)為126,正確拒絕率為90.0%。達(dá)到了較為理想的效果。

        Writer Identification Based on Small Amount of Test Samples and TextureAnalyse

        Abstract This paper is presented for identification of examination papers handwriting, A kind of algorithm, which is characterized with less training samples and text-independent, is proposed, and it is used of artificial handwriting identification expert knowledge. Finally, experiments show that the correct acceptances rate is 92.9% and the correct rejections rate is 90.0%.

        Keywords:handwriting identification, texture, Gabor filter

        參考文獻(xiàn)

        [1] 孫廣萍. 身份驗(yàn)證中的簽名鑒別技術(shù)[J]. 黑龍江通信技術(shù),2003,(1):34-35.

        [2] 劉宏,李錦濤,崔國(guó)勤. 基于SVM和紋理的筆跡鑒別方法[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2003,15(12):1479-1484.

        [3] 許春曄,郭寶蘭. 基于Gabor函數(shù)的漢字字體識(shí)別[J]. 河北大學(xué)學(xué)報(bào)(自然科學(xué)報(bào)),2001,21(2):167-170.

        [4] 邊肇祺,張學(xué)工. 模式識(shí)別[M]. 北京:清華大學(xué)出版社,2000.

        [5] Andrew R Webb著. 王萍,楊培龍,羅穎昕譯. Statistical Pattern Recognition, 2ED[M]. 北京:電子工業(yè)出版社,2004.

        [6] 陶躍華. 基于向量的相似度計(jì)算方案[J]. 云南師范大學(xué)學(xué)報(bào),2001,21(5):17-19.

        [7] 易東,陳慶虎. 基于多分類(lèi)器組合的筆跡驗(yàn)證[J]. 計(jì)算機(jī)應(yīng)用,2006,26(1):172-173.

        [8] 劉成林,戴汝為,劉迎建. 簡(jiǎn)化的Winger分布及其在筆跡鑒別中的應(yīng)用[J]. 計(jì)算機(jī)學(xué)報(bào),1997,20(11):1018-1024.

        作者簡(jiǎn)介:桑金歌,男(漢族),河北工業(yè)大學(xué)在讀碩士研究生,滄州職業(yè)技術(shù)學(xué)院信息工程系副主任。

        注:“本文中所涉及到的圖表、注解、公式等內(nèi)容請(qǐng)以PDF格式閱讀原文。”

        97超级碰碰碰久久久观看| 色偷偷av一区二区三区| 国产又爽又粗又猛的视频| 免费视频一区二区| 性感人妻中文字幕在线| 在线精品首页中文字幕亚洲| 成人精品视频一区二区| 两个人看的www中文在线观看| 亚洲av永久青草无码精品| 国产精品成人一区二区在线不卡| 美国少妇性xxxx另类| 精品午夜福利无人区乱码一区| 成人片99久久精品国产桃花岛| 精品午夜中文字幕熟女| 美腿丝袜诱惑一区二区| 久久er99热精品一区二区| 亚洲AV伊人久久综合密臀性色| 精品av一区二区在线| 黄片大全视频在线播放| 人人爽人人爱| 亚洲一区二区欧美色妞影院| 无码午夜人妻一区二区三区不卡视频 | 亚洲依依成人亚洲社区| 亚洲另在线日韩综合色| 国产av一区麻豆精品久久| 91九色人妻精品一区二区三区| 乱码1乱码2美美哒| 麻豆国产人妻欲求不满谁演的| 高清国产美女av一区二区| 精品国产a毛片久久久av| 亚洲图片自拍偷图区| 男受被做哭激烈娇喘gv视频| 久久尤物av天堂日日综合| 人妻丰满熟妇一二三区| 国产激情综合五月久久| 中文字幕人妻熟女人妻| 亚洲精品久久久久中文字幕二区| 精品国产午夜久久久久九九| 久久久亚洲av午夜精品| 后入到高潮免费观看| 亚洲美国产亚洲av|