于 碩,李思思,于萬波
(1. 大連財(cái)經(jīng)學(xué)院 工商管理學(xué)院,遼寧 大連 116600;2. 大連大學(xué) 信息工程學(xué)院,遼寧 大連 116622)
?
圖像數(shù)據(jù)的混沌模式的提取與表達(dá)*
于碩1,李思思1,于萬波2
(1. 大連財(cái)經(jīng)學(xué)院 工商管理學(xué)院,遼寧 大連 116600;2. 大連大學(xué) 信息工程學(xué)院,遼寧 大連 116622)
研究以離散余弦變換(DCT)基函數(shù)作為輔助函數(shù),結(jié)合序列灰度圖像構(gòu)造動(dòng)力系統(tǒng),然后迭代得到軌跡點(diǎn)集合(近似的吸引子);使用該吸引子能夠?qū)⒁曨l圖像的不同場(chǎng)景鑒別出來,用于視頻分段裁剪等。使用多個(gè)DCT基函數(shù)矩陣,分別與一個(gè)圖像構(gòu)造動(dòng)力系統(tǒng),生成多個(gè)近似吸引子,這些吸引子可以作為圖像的特征,用于圖像識(shí)別,也可以重構(gòu)原圖像。
圖像數(shù)據(jù);混沌吸引子;離散余弦變換基函數(shù)
引用格式:于碩,李思思,于萬波. 圖像數(shù)據(jù)的混沌模式的提取與表達(dá)[J].微型機(jī)與應(yīng)用,2016,35(18):39-41,44.
目前,大數(shù)據(jù)是許多學(xué)科領(lǐng)域的研究焦點(diǎn)[1-3]。大數(shù)據(jù)細(xì)節(jié)較多且無規(guī)則,不易用現(xiàn)有的數(shù)學(xué)方法、計(jì)算機(jī)工具等進(jìn)行描述和處理[4-6]?;煦绗F(xiàn)象是非線性科學(xué)固有的、內(nèi)在的、普遍的現(xiàn)象,盡管有些研究人員認(rèn)為混沌是未來數(shù)據(jù)處理與表達(dá)的合適的工具,但是,目前把混沌理論與方法用到大數(shù)據(jù)處理與表達(dá)等并不多見。
圖像數(shù)據(jù)是大數(shù)據(jù)的一種,具有可視性、復(fù)雜性、冗余性、規(guī)則性、隨機(jī)性、人腦的可理解性等諸多特點(diǎn)[1,4-6]。對(duì)圖像的理解、基于知識(shí)的存儲(chǔ)、基于內(nèi)容的檢索、視頻數(shù)據(jù)分析等還有很多問題有待解決。對(duì)于是否可以用混沌理論與方法處理圖像、識(shí)別圖像,查找相關(guān)文獻(xiàn)發(fā)現(xiàn)了一些這方面的工作,例如LEE C S與ELGAMMAT A用非線性模型來表示人臉等[7-8]?;诜蔷€性理論的方法作為一種新的特征表達(dá)方式,也已經(jīng)開始初步應(yīng)用于圖像研究領(lǐng)域。
[9]、[10]的研究結(jié)果顯示,以類似于文獻(xiàn)[9]、[10]中的函數(shù)作為輔助函數(shù),與其他(要處理的)函數(shù)或者矩陣構(gòu)造動(dòng)力系統(tǒng),迭代后就可以產(chǎn)生(近似的)混沌吸引子,該吸引子形狀隨著動(dòng)力系統(tǒng)參數(shù)的改變而改變,被處理函數(shù)的改變(圖像形狀)越小,其吸引子的輪廓形狀改變就越小?;诖耍墨I(xiàn)[11]、[12]將正弦函數(shù)作為輔助函數(shù),圖像作為被處理函數(shù),構(gòu)造動(dòng)力系統(tǒng),迭代后得到的吸引子作為圖像特征,繼而用這種方法提取人臉圖像特征,識(shí)別人臉,取得了較好的結(jié)果。
在參考文獻(xiàn)[13]中,使用離散余弦變換(DCT)基函數(shù)矩陣作為輔助函數(shù),將圖像作為被處理函數(shù),提取吸引子作為圖像特征。因?yàn)镈CT基函數(shù)更加震蕩,具有更好的混沌特性,所以生成吸引子的質(zhì)量更好。又因?yàn)镈CT基函數(shù)數(shù)量眾多,有更多的選擇,所以,與正弦函數(shù)等相比,更適合于作為輔助函數(shù)。本文研究使用DCT基函數(shù)矩陣作為輔助函數(shù),與視頻圖像構(gòu)造動(dòng)力系統(tǒng),發(fā)現(xiàn)不同場(chǎng)景得到的吸引子不同,同時(shí)發(fā)現(xiàn),使用多個(gè)吸引子可以重構(gòu)圖像。
下文中提到的吸引子都是指近似的混沌吸引子,或者說是動(dòng)力系統(tǒng)的迭代軌跡。
下面使用DCT基函數(shù)矩陣與圖像矩陣構(gòu)造動(dòng)力系統(tǒng)。DCT基函數(shù)矩陣的定義如下:
(1)
其中, 0≤p≤M-1,0≤q≤N-1,
固定p,q后, R(m,n)都可以看作是以m,n為自變量的二元離散函數(shù)。這里令m,n,p,q均為正整數(shù)。隨著p,q的變化, 基函數(shù)(矩陣)也隨之變化, 共M×N個(gè),選取一個(gè),與灰度圖像矩陣構(gòu)造動(dòng)力系統(tǒng),如式(2)所示:
(2)
式(2)中,f(x,y)表示離散余弦基函數(shù)矩陣,g(x,y)表示灰度圖像矩陣。
算法1利用DCT基函數(shù)與圖像構(gòu)造動(dòng)力系統(tǒng),然后迭代,生成迭代序列
(1)給定p,q的值以及M,N的值,此處取M=N=256。
(2)計(jì)算DCT基函數(shù)矩陣A,并用插值方法將其元素值調(diào)整到1~256之間。
(3)讀入圖像,適當(dāng)裁剪邊緣,以便生成質(zhì)量更好的吸引子。
(4)將裁剪后的圖像調(diào)整到M×N大小,記為H;將圖像調(diào)整為1~256大小是為了使其與像素值一致,便于下面的迭代操作。
(5)給定初始迭代值(u,v),代入矩陣B,即把(u,v)作為下標(biāo),取出矩陣B在(u,v)的元素值,記為z1;再將初始迭代值(u,v)代入矩陣H,即把(u,v)作為下標(biāo),取出矩陣H在(u,v)的元素值,記為z2。
(6)將(z1,z2)的值賦值給(u,v),將每次的(z1,z2)記載下來,然后轉(zhuǎn)到步驟(5)。
(7)將第(6)步重復(fù)執(zhí)行n次。
例如,使用DCT基函數(shù)作為輔助函數(shù),對(duì)一視頻圖像進(jìn)行處理,即按照一定時(shí)間間隔從視頻圖像中取出圖像,與DCT基函數(shù)構(gòu)成動(dòng)力系統(tǒng),使用算法1,迭代生成吸引子,不同場(chǎng)景下的視頻圖像其吸引子區(qū)別也比較大,如圖1所示。
圖1 不同視頻場(chǎng)景下的圖像吸引子
圖1中的圖像取自于一段視頻。一般情況下,越復(fù)雜的圖像,越容易產(chǎn)生吸引子。
算法2視頻圖像場(chǎng)景變化檢測(cè)
(1)給定p,q的值,給定M,N的值,生成基函數(shù)矩陣A,將矩陣A的值調(diào)整為1~M,此處M、N的值視圖像而定,例如M為每幀圖像的高,N為寬。
(2)讀入視頻圖像的三幀,轉(zhuǎn)變?yōu)榛叶葓D像,將圖像的灰度值調(diào)整為1~N,記做B;分別與矩陣A構(gòu)成動(dòng)力系統(tǒng),迭代生成近似吸引子,記做T1、T2、T3。
(3)將T1、T2、T3進(jìn)行二維傅里葉變換,得到變換后的矩陣F1、F2、F3。
(4)計(jì)算F1、F2的相關(guān)系數(shù),記為C1;再計(jì)算F2、F3的相關(guān)系數(shù),記為C2。
(5)計(jì)算C1與C2差值絕對(duì)值D1,C2與C3的差值絕對(duì)值D2。
(6)如果D1遠(yuǎn)小于D2,那么T1、T2場(chǎng)景相同,T2、T3場(chǎng)景不同;如果D1與D2的差值較小,那么T1、T2、T3場(chǎng)景相同。
下面使用多個(gè)DCT基函數(shù)矩陣,分別與一個(gè)圖像構(gòu)造動(dòng)力系統(tǒng),生成多個(gè)近似吸引子,然后再使用這些吸引子,重構(gòu)原圖像。
以Lena圖像作為被處理函數(shù),為了便于分析,對(duì)Lena圖像進(jìn)行了截??;與256×256的DCT基函數(shù)矩陣構(gòu)造動(dòng)力系統(tǒng),p,q的值分別為(2,2)、(3,3)、(4,4)、(5,5)、(6,6)、(7,7),使用算法1,得到的近似吸引子點(diǎn)陣如圖2所示。
DCT基函數(shù)矩陣M=256,N=256, (p,q) 的值分別為(2,2),(3,3),(4,4),(5,5),(6,6), (7,7),圖像使用Lena圖像圖2 近似吸引子點(diǎn)陣
吸引子用二維點(diǎn)集的形式表現(xiàn),但是如果記錄下這些點(diǎn)的先后順序,便可以表達(dá)(記載)圖像的灰度信息。圖3
圖3 吸引子點(diǎn)陣的三維顯示
就是根據(jù)吸引子點(diǎn)產(chǎn)生的先后順序,將二維吸引子轉(zhuǎn)化為三維點(diǎn)陣;(x,y)是圖像的像素位置,z軸是圖像的灰度值。這些位置與灰度值來源于圖像,可以表達(dá)圖像的某種特征,也可以近似復(fù)原圖像。
利用圖3所示的吸引子三維點(diǎn)陣,可以近似復(fù)原圖像。例如,使用語句forp=1 to 2, forq=1 to 2,嵌套循環(huán),即利用(p,q)為(1,1),(1,2),(2,1),(2,2)這4個(gè)DCT基函數(shù)矩陣,復(fù)原后效果如圖4(a)所示;利用forp=1 to 5, forq=1 to 5嵌套循環(huán),得到25個(gè)DCT基函數(shù)矩陣,復(fù)原效果如圖4(b)所示;利用10×10=100個(gè)吸引子復(fù)原效果如圖4(c)所示;利用15×15,30×30,40×40個(gè)吸引子的復(fù)原效果分別如圖4(d)、(e)、(f)所示。
圖4 利用吸引子點(diǎn)陣重構(gòu)圖像
在圖像復(fù)原的時(shí)候,如果繪制出一個(gè)點(diǎn),將這個(gè)點(diǎn)的周圍點(diǎn)也繪制出來,可以加速圖像復(fù)原。例如,當(dāng)每次繪制周圍的3×3個(gè)點(diǎn)時(shí),使用前100個(gè)(p,q)就可以繪制出如圖5(a)所示效果,與圖4(c)相比,復(fù)原效果更好。如果繪制每點(diǎn)周圍5×5個(gè)點(diǎn),那么使用前49個(gè)(p,q)就可以復(fù)原出如圖5(b)所示效果。
圖5 利用吸引子點(diǎn)陣重構(gòu)圖像(每次繪制每點(diǎn)周圍多個(gè)點(diǎn))
49個(gè)近似吸引子疊加在一起,能夠重構(gòu)圖像輪廓;這意味著49個(gè)稀疏的三維數(shù)組代表著一個(gè)Lena圖像;需要的時(shí)候組合,不需要的時(shí)候可以分散放到吸引子庫中。
在已有文獻(xiàn)的基礎(chǔ)上,將輔助函數(shù)改為離散余弦變換基函數(shù),與圖像構(gòu)造動(dòng)力系統(tǒng),得到的近似吸引子可以作為視頻圖像分割的依據(jù)。這種方法與其他圖像特征提取方法存在著本質(zhì)上的不同。
視頻圖像數(shù)據(jù)是一種大數(shù)據(jù),既然這種方法可以應(yīng)用于圖像處理、圖像模式提取,那么也可以經(jīng)過改進(jìn)后,用于其他數(shù)據(jù)處理。
進(jìn)一步的工作是,改進(jìn)這種數(shù)據(jù)存儲(chǔ)與表達(dá)方式,嘗試建立一種新的索引方式,即點(diǎn)陣與概念索引方式。例如“臉”這個(gè)概念,是否對(duì)應(yīng)著“高一級(jí)”的點(diǎn)陣,即吸引子點(diǎn)陣的一種索引結(jié)構(gòu)。
這是一種特征提取與存儲(chǔ)方法,是否可以成為一種數(shù)據(jù)分解與重構(gòu)的方法還有待于進(jìn)一步研究。
參考文獻(xiàn)
[1] KOMMINENI J, SATRIA M, MOHD S S. Content based image retrieval using colour strings comparison[J]. Procedia Computer Science, 2015,50:374-379.
[2] Wu Fei, Wang Zhuhao, Zhang Zhongfei, et al. Weakly semi-supervised deep learning for multi-label image annotation[J]. IEEE Transactions on Big Data, 2015(1):109-122.
[3] TEMESGUEN M, RUSSEL C H, TIMOTHY R T. Segmentation of pulmonary nodules in computed tomography using a regression neural network approach and its application to the lung image database consortium and image database resource initiative dataset[J]. Medical Image Analysis, 2015, 22(1):48-62.
[4] Tian Xinmei, Lu Yijuan, STENDER N, et al. Exploration of image search results quality assessment[J]. IEEE Transactions on Big Data, 2015,1(3):95-108.
[5] ZANG M, WEN D, WANG K, et al. A novel topic feature for image scene classification[J]. Neurocomputing, 2015, 148(1):467-476.
[6] WEINMANN M, URBAN S, HINZ S, et al. Distinctive 2D and 3D features for automated large-scale scene analysis in urban areas[J]. Computers & Graphics, 2015, 49(7):47-57.
[7] Yuan Yuan, Wan Jia, Wang Qi. Congested scene classification via efficient unsupervised feature learning and density estimation[J]. Pattern Recognition, 2016, 56:159-169.[8] Lin Liang, Wang Xiaolong, Yang Wei, et al. Discriminatively trained and-or graph models for object shape detection[J] IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(5):959-972.
[9] 于萬波, 趙斌. 曲面迭代混沌特性研究[J] 物理學(xué)報(bào), 2014,63(12):29-39.
[10] 于萬波. 截面的幾何形狀決定三維函數(shù)的混沌特性[J]. 物理學(xué)報(bào), 2014(12):20-28.
[11] 于萬波, 王大慶. 圖像函數(shù)與三角函數(shù)迭代的混沌特性研究[C]. 第17屆全國圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集,北京: 北京交通大學(xué)出版社, 2014.
[12] 于萬波, 王大慶. 曲面迭代混沌特性及其在人臉識(shí)別中的應(yīng)用[J]. 計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào), 2015,27(12):2264-2271.
[13] 于萬波. 混沌的計(jì)算分析與探索[M]. 北京:清華大學(xué)出版社,2016.
Expression of chaotic pattern of image data based on iteration
Yu Shuo1,Li Sisi1,Yu Wanbo2
(1. School of Business Administration, Dalian University of Finance and Economics, Dalian 116600,China; 2. College of Information, Dalian University, Dalian 116622, China)
This paper used the discrete cosine transform (DCT) basis function as an auxiliary function together with the gray image of the sequence to construct the dynamic system, and then achieved the trajectory point set (approximate attractor) by iteration. This attractor can be used to distinguish the different scenes of the video image. It Used a number of DCT basis function to construct respectively with an image dynamic system to generate a number of approximate attractor. These attractors can be used as image features for image recognition, and can also be used to reconstruct the original image.
image data; chaotic attractor; discrete cosine transform basis function
遼寧省自然科學(xué)基金(201602034)
TP391
ADOI: 10.19358/j.issn.1674- 7720.2016.18.011
2016-05-25)
于碩(1990-),女,碩士,助教,主要研究方向:大數(shù)據(jù)、圖像處理。
李思思(1994-),女,本科生,主要研究方向:圖像處理。
于萬波(1966-),通信作者,男,博士,副教授,主要研究方向:圖形圖像、人工智能。E-mail:yu_wb@126.com。