亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于圖的書法字筆畫提取研究

        2019-06-09 10:36:01朱欣蔚楊長(zhǎng)強(qiáng)
        軟件導(dǎo)刊 2019年4期

        朱欣蔚 楊長(zhǎng)強(qiáng)

        摘 要:中國(guó)書法藝術(shù)源遠(yuǎn)流長(zhǎng),隨著計(jì)算機(jī)技術(shù)的發(fā)展,利用計(jì)算機(jī)進(jìn)行書法識(shí)別成為可能。為使書法能夠在計(jì)算機(jī)中精確識(shí)別,書法筆畫的正確分割與提取必不可少。采用基于點(diǎn)到邊界方向距離(PBOD)的筆畫分割算法,對(duì)得到的分割筆畫結(jié)合原圖像構(gòu)建無向圖,根據(jù)無向圖的連接區(qū)域最終組合成單獨(dú)的筆畫。采用200幅隨機(jī)書法字圖像進(jìn)行實(shí)驗(yàn),結(jié)果表明筆畫提取的正確率達(dá)到95.35%,證明基于圖的書法字筆畫提取算法準(zhǔn)確率高。該算法不僅能正確地對(duì)筆畫進(jìn)行提取,而且很好地解決了復(fù)雜漢字存在多個(gè)筆畫交叉區(qū)域、在筆畫分割后混淆相似子筆畫的問題,提高了筆畫提取效率。

        關(guān)鍵詞:PBOD;筆畫分割;無向圖;筆畫組合

        DOI:10. 11907/rjdk. 191165

        中圖分類號(hào):TP317.4文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1672-7800(2019)004-0184-04

        0 引言

        提取筆畫信息是書法字識(shí)別和書寫風(fēng)格分析的重要環(huán)節(jié)。筆畫提取主要有兩個(gè)問題:①如何解決交叉點(diǎn)的切分歧義問題;②對(duì)分割后的子筆畫正確組合。

        筆畫提取研究很多[1-8],現(xiàn)有的筆劃提取方法大多采用細(xì)化過程。細(xì)化是骨架化輸入圖像最常用的方法,一般通過數(shù)學(xué)形態(tài)學(xué)算法[9]或Zhang快速并行細(xì)化算法[10]獲取書法字骨架,基于書法字骨架提取筆畫。劉佳巖等[11]通過細(xì)化筆畫初步提取進(jìn)而得到筆順信息,章夏芬[12]等對(duì)筆畫細(xì)化后通過骨架爬蟲提取筆畫,還有如輪廓或線鄰接圖方法等。文獻(xiàn)[13]提出了一種利用漢字外輪廓特征點(diǎn)的方法。

        然而,從骨架、輪廓或線鄰接圖中抽取筆劃各有各的問題,由于中國(guó)書法特殊的性質(zhì),這些方法可能是無效的。本文基于筆畫的基本性質(zhì)提出一種書法筆畫提取方法,利用點(diǎn)到邊界的方向距離(point-to-boundary orientation distance,PBOD)[14]以及筆畫之間的連接關(guān)系構(gòu)建書法筆畫的無向圖。

        1 圖像預(yù)處理

        1.1 圖像去噪

        由于毛筆所含墨汁的狀態(tài),毛筆字在書寫過程中可能出現(xiàn)“小孔”或“毛刺”。此外,在書法字掃描成圖像過程中,可能會(huì)因?yàn)閭鬏數(shù)葐栴}產(chǎn)生噪聲,這些噪聲會(huì)對(duì)筆畫提取造成影響。因此,首先需要對(duì)書法圖像進(jìn)行去噪。

        本文采用中值濾波器去噪。用一個(gè)奇數(shù)點(diǎn)的滑動(dòng)窗口遍歷圖像,把滑動(dòng)窗口的中心對(duì)應(yīng)到目標(biāo)像素[15],用滑動(dòng)窗口中所有像素值的中值代替目標(biāo)像素的像素值,以此去掉不必要的“點(diǎn)”,實(shí)現(xiàn)降噪[16]。圖1、圖2為去噪前后的書法字圖像,從中可以看到許多墨點(diǎn)消失了,字體本身也更加平滑。

        1.2 圖像二值化

        在毛筆字書寫過程中,不同筆畫甚至同一筆畫的不同位置手部用力情況是不同的,毛筆字的各個(gè)部分墨汁深淺存在差異。本文使用直方圖法對(duì)圖像進(jìn)行二值化,使圖像變?yōu)楹诎變缮唧w方法為:把圖像中所有像素點(diǎn)的灰度值放進(jìn)直方圖中,找到直方圖中的兩個(gè)波峰,選擇兩個(gè)波峰中的波谷作為閾值,大于閾值的像素點(diǎn)灰度值設(shè)為255,反之,設(shè)為0[17]。圖3是書法字圖像的直方圖以及閾值選擇,二值化結(jié)果見圖4。

        1.3 提取字符邊界

        提取圖像字符邊界采用邊界跟蹤算法。首先,從上到下、從左到右掃描整個(gè)圖像,找到第一個(gè)像素值為0的像素點(diǎn),記為A0,并定義一個(gè)方向向量dir,用來記錄邊界點(diǎn)的移動(dòng)方向,初始值為0。然后,按順時(shí)針方向遍歷當(dāng)前像素的3×3鄰域,當(dāng)找到與當(dāng)前像素值相同的點(diǎn)時(shí),記此點(diǎn)為A1,并更新dir。一直循環(huán)此步驟,直到當(dāng)前點(diǎn)AN是A1且AN-1是A0時(shí)結(jié)束跟蹤[18]。此時(shí),A0,A1,…AN就是字符邊界,把它們存放在一個(gè)數(shù)組中待使用。

        2 交叉區(qū)域獲取

        本文采用PBOD算法對(duì)筆畫交叉區(qū)域進(jìn)行提取。PBOD算法的基本原理是根據(jù)圖像中每個(gè)像素點(diǎn)到字符邊界的距離將字符中的點(diǎn)分為端點(diǎn)、普通點(diǎn)和交叉點(diǎn),這3類點(diǎn)又構(gòu)成字符的端點(diǎn)區(qū)域、普通點(diǎn)區(qū)域和交叉點(diǎn)區(qū)域。具體做法為:把每一個(gè)像素點(diǎn)從0°~360°每隔3°計(jì)算這個(gè)方向上點(diǎn)到字符邊界的距離,這樣每個(gè)像素點(diǎn)就可得到120個(gè)數(shù)據(jù)。把得到的數(shù)據(jù)以X軸為度數(shù)、Y軸為距離畫出曲線圖。觀察曲線圖的波峰數(shù)目:波峰數(shù)為1此點(diǎn)為端點(diǎn);波峰數(shù)為2此點(diǎn)為普通點(diǎn);波峰數(shù)大于等于3此點(diǎn)為交叉點(diǎn)[19]。圖5、圖6是多個(gè)波峰和一個(gè)波峰的情況。

        如圖7所示,圖5的多個(gè)波峰對(duì)應(yīng)圖7中的交叉區(qū)域,圖6的單個(gè)波峰對(duì)應(yīng)圖7中的端點(diǎn)區(qū)域。

        3 筆畫提取

        3.1 字符圖表示

        以往的筆畫提取研究大多直接對(duì)所有子筆畫進(jìn)行組合測(cè)試,以此判斷兩個(gè)子筆畫之間是否組成一個(gè)筆畫,比較復(fù)雜。本文采取對(duì)字符進(jìn)行建模形成無向圖的方式,使一個(gè)子筆畫只同和它連接在同一個(gè)交叉區(qū)域的其它子筆畫進(jìn)行組合測(cè)試,大大提高了效率和準(zhǔn)確性。具體如下:

        在使用PBOD算法找到所有交叉區(qū)域后,把交叉區(qū)域分開的端點(diǎn)區(qū)域和普通點(diǎn)區(qū)域看成一部分,則一個(gè)字符就由子筆畫和交叉區(qū)域兩部分組成。建立一個(gè)無向圖[G=][(V,E)]對(duì)每個(gè)字符建模,其中V和E是節(jié)點(diǎn)和邊的集合。G中每個(gè)節(jié)點(diǎn)v代表字符中的一個(gè)子筆畫或交叉區(qū)域[20]。如果一個(gè)交叉區(qū)域和一個(gè)子筆畫在字符中是相互連接的,則它們分別對(duì)應(yīng)的節(jié)點(diǎn)vi和vj之間有一條邊ei,記為[(vi,vj)∈][E][21-22]。圖8、圖9為漢字“夫”構(gòu)建的無向圖示例。

        無向圖在計(jì)算機(jī)中以矩陣的形式存儲(chǔ),矩陣行和列的數(shù)量為無向圖的節(jié)點(diǎn)數(shù)(即字符的子筆畫和交叉區(qū)域數(shù)),矩陣中每個(gè)元素的值表示節(jié)點(diǎn)之間的連接關(guān)系:若節(jié)點(diǎn)之間有邊連接,則對(duì)應(yīng)的矩陣值為1;反之,則為0。圖9中無向圖矩陣表示為式(1)。

        為了在筆畫組合過程中方便確定每個(gè)區(qū)域的位置和其對(duì)應(yīng)的無向圖中的節(jié)點(diǎn),對(duì)整個(gè)字符建立坐標(biāo)系,以圖像左下角的點(diǎn)為坐標(biāo)原點(diǎn)。取每個(gè)區(qū)域的重心表示該區(qū)域和該區(qū)域在無向圖中對(duì)應(yīng)的節(jié)點(diǎn)[23],重心Ai(xi,yi)公式如下:

        3.2 筆畫組合

        在把整個(gè)漢字分成各個(gè)子筆畫區(qū)域后,需要對(duì)子筆畫進(jìn)行組合進(jìn)而形成一個(gè)個(gè)完整的筆畫,算法過程如下:

        (1)對(duì)整張圖像遍歷,通常選取圖像左上角的子筆畫(圖8中的a區(qū)域),根據(jù)公式(2)得到的重心確定該子筆畫在坐標(biāo)系中的位置和在無向圖中對(duì)應(yīng)的節(jié)點(diǎn)(圖9中的節(jié)點(diǎn)a)。

        (2)通過無向圖找到與該節(jié)點(diǎn)相連的節(jié)點(diǎn)(圖9中的c節(jié)點(diǎn)),即找到無向圖中該節(jié)點(diǎn)在存儲(chǔ)矩陣中所代表的行值為1的元素(矩陣(1)中第1行第3個(gè)元素)。之后再通過公式(2)得到的重心確定相連節(jié)點(diǎn)在字符中的位置(圖8中的c區(qū)域)。

        (3)重復(fù)步驟(2),找到相連的節(jié)點(diǎn)(圖9中的b節(jié)點(diǎn)、d節(jié)點(diǎn)和j節(jié)點(diǎn)),確定其在字符中的位置(圖8中的b區(qū)域、d區(qū)域和j區(qū)域)。將這些區(qū)域根據(jù)無向圖的連接關(guān)系相連,分別作連續(xù)性分析(即把圖8中的a區(qū)域與c區(qū)域相連之后分別與b區(qū)域、d區(qū)域和j區(qū)域相連)。連續(xù)性分析方法:對(duì)相連的3個(gè)區(qū)域,計(jì)算中間區(qū)域像素的PBOD曲線,若PBOD曲線只有兩個(gè)波峰且波峰之間的度數(shù)相距大約180°,則這3個(gè)區(qū)域?yàn)橥粋€(gè)筆畫[24]。

        (4)重復(fù)步驟(3)直到?jīng)]有與之相連的節(jié)點(diǎn),至此組成了一個(gè)完整的筆畫(圖8中的a區(qū)域、c區(qū)域、j區(qū)域、g區(qū)域、h區(qū)域組成一個(gè)完整的筆畫)。

        (5)返回步驟(1),繼續(xù)遍歷圖像,找到一個(gè)仍然沒有組成完整筆畫的子筆畫(如圖8中的b區(qū)域)。

        (6)圖像中所有子筆畫都組合成了完整的筆畫(圖8中的a、c、j、g、h為一個(gè)筆畫,b、c、d為一個(gè)筆畫,e、g、f為一個(gè)筆畫,g、i為一個(gè)筆畫),結(jié)束遍歷。

        4 實(shí)驗(yàn)結(jié)果

        為驗(yàn)證本文算法的有效性,對(duì)一組漢字圖像進(jìn)行一系列實(shí)驗(yàn)。在Visual Studio 2017的平臺(tái)環(huán)境下,隨機(jī)選取一組不同藝術(shù)家書寫的200幅楷體書法字圖像作為實(shí)驗(yàn)對(duì)象,進(jìn)行預(yù)處理、交叉區(qū)域獲取和筆畫組合,結(jié)果共包含?? 1 285個(gè)交叉區(qū)域和2 276個(gè)筆畫,筆畫提取正確率達(dá)到95.35%。圖10為漢字“堵”的筆畫提取示例。

        5 結(jié)語

        本文利用無向圖對(duì)PBOD分割的子筆畫進(jìn)行排列,在筆畫組合過程中只讓彼此相連的子筆畫進(jìn)行筆畫組合,與筆畫分割后所有子筆畫進(jìn)行組合相比,提高了筆畫組合的準(zhǔn)確性,降低了筆畫提取復(fù)雜度。

        雖然本文算法筆畫提取的準(zhǔn)確性較高,但還需進(jìn)行以下工作:本文算法目前只能對(duì)楷書這種較規(guī)范的字體進(jìn)行筆畫提取,而對(duì)于草書等筆畫連綿、狂亂的字體在交叉區(qū)域的提取、無向圖的構(gòu)建和子筆畫的組合上還有待完善,要解決這方面的問題很大程度上依賴漢字書寫的先驗(yàn)知識(shí)。因此,對(duì)各種書法字體筆畫的提取是今后要研究的主題。

        參考文獻(xiàn):

        [1] YU K,WU J,YUAN Z. Stroke extraction for chinese calligraphy characters[J]. Journal of Computational Information Systems, 2012,8(6):2493-2500.

        [2] LAM J H M,YAM Y. Structural analysis based stroke segmentation for Chinese characters[C]. Proceedings of the IEEE Conference on Decision and Control,2009:3118-3123.

        [3] LIU C L,KIM I J,JIN H K. Model-based stroke extraction and matching for handwritten chinese character recognition[J]. Pattern Recognition, 2001,34(12): 2339-2352.

        [4] FAN K C,WU W H. A run-length coding based approach to stroke extraction of Chinese characters [J]. Pattern Recognition,2000,33(11):1881-1895.

        [5] 李國(guó)宏,施鵬飛. 基于筆劃方向特征和非對(duì)稱分布的手寫體漢字識(shí)別[J]. 上海交通大學(xué)學(xué)報(bào),2005,39(12):35-41.

        [6] 程立,王江晴,李波,等. 基于輪廓的漢字筆畫分離算法[J]. 計(jì)算機(jī)科學(xué),2013, 40(7):307-311.

        [7] 錢自強(qiáng). 基于圖像處理的毛筆書法參數(shù)化辨識(shí)研究[J].? 工業(yè)控制計(jì)算機(jī),2016,29(9):124-125.

        [8] 鄧學(xué)雄,李京陶,李牧. 毛筆書法臨帖的計(jì)算機(jī)評(píng)價(jià)[J]. 圖學(xué)學(xué)報(bào), 2014, 35(6):899-904.

        [9] 李杰,彭月英,元昌安,等. 基于數(shù)學(xué)形態(tài)學(xué)細(xì)化算法的圖像邊緣細(xì)化[J].? 計(jì)算機(jī)應(yīng)用, 2012, 32(2):514-520.

        [10] 吳選忠. Zhang快速并行細(xì)化算法的擴(kuò)展[J].? 福建工程學(xué)院學(xué)報(bào),2006,4(1):89-92.

        [11] 劉佳巖,章夏芬. 基于書寫規(guī)則的書法字筆畫及筆順提取[J]. 微型機(jī)與應(yīng)用, 2015, 34(15):51-54.

        [12] 章夏芬,劉佳巖. 用爬蟲法提取書法筆畫[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2016,28(2):301-309.

        [13] MA X,PAN Z,ZHANG F. The automatic generation of Chinese outline font based on stroke extraction[J]. Journal of Computer Science & Technology,1995,10(1):42-52.

        [14] TAN C L,CAO R. A model of stroke extraction from Chinese character images[C]. International Conference on Pattern Recognition, 2000.

        [15] 王偉華. 基于機(jī)器視覺的表貼芯片缺陷檢測(cè)系統(tǒng)的研究[D]. 西安:西安建筑科技大學(xué),2017.

        [16] 張艷楠. 圖像處理中的中值濾波及其改進(jìn)[J]. 中國(guó)新通信, 2018,20(2):230-231.

        [17] 何春. 一種基于直方圖的圖像二值化算法[J]. 宜賓學(xué)院學(xué)報(bào), 2016,16(12):53-55.

        [18] 楊琦. 毛筆書法中筆畫的提取[D]. 青島:山東科技大學(xué), 2015.

        [19] 陳睿,唐雁,邱玉輝. 基于筆畫段分割和組合的漢字筆畫提取模型[J]. 計(jì)算機(jī)科學(xué),2003, 30(10):74-77.

        [20] 周昌樂. 一種手寫漢字拓?fù)鋱D表示及其動(dòng)態(tài)獲取[J]. 計(jì)算機(jī)科學(xué), 1996,23(5):60-62.

        [21] WANG X,LIANG X,SUN L,et al. Triangular mesh based stroke segmentation for Chinese calligraphy[C]. International Conference on Document Analysis and Recognition, 2013.

        [22] 朱程輝,曹敏,王建平. 基于過程神經(jīng)網(wǎng)絡(luò)的漢字特征提取方法的研究[J]. 合肥工業(yè)大學(xué)學(xué)報(bào):自然科學(xué)版,2013(10):1203-1209.

        [23] 王民,曾寶瑩,要趁紅,等. 中國(guó)書法的特征提取及識(shí)別[J]. 信息通信, 2015(7):19-20.

        [24] SUN Y,QIAN H,XU Y. A geometric approach to stroke extraction for the Chinese calligraphy robot[C]. IEEE International Conference on Robotics & Automation,2014.

        (責(zé)任編輯:杜能鋼)

        人妻少妇偷人精品久久人妻| 97精品依人久久久大香线蕉97| 国产精品刺激好大好爽视频| 麻豆成人在线视频| 久草视频在线这里只有精品| 二区三区日本高清视频| 成人无码av一区二区| 老熟妇高潮喷了╳╳╳| 久久精品国产热| 手机av在线观看视频| 日本不卡在线视频二区三区| 特黄特色的大片观看免费视频 | 日韩精品视频免费在线观看网站| 欧美成人精品a∨在线观看| 亚洲综合av在线在线播放| 第九色区Aⅴ天堂| 亚洲av综合色一区二区| 国产成人亚洲精品无码av大片| 亚欧AV无码乱码在线观看性色| 国产小视频一区二区三区| 精品黑人一区二区三区久久hd| 亚洲av日韩一卡二卡| 97人人模人人爽人人喊网| 97无码人妻福利免费公开在线视频| 亚洲色www无码| 亚洲福利二区三区四区| 精品一区二区三区在线视频| 无码av免费一区二区三区试看| 精品久久久久久久久免费午夜福利| 亲少妇摸少妇和少妇啪啪 | 日韩亚洲一区二区三区四区| 午夜内射中出视频| 无码欧亚熟妇人妻AV在线外遇| 国产毛片三区二区一区| 91在线视频在线视频| 最近日本免费观看高清视频| 精精国产xxx在线视频app| 国产自拍在线视频观看| 国产自拍偷拍精品视频在线观看| 天天综合网天天综合色| 国产高清国内精品福利99久久|