鮑蓉
(蘭州石化職業(yè)技術(shù)學院 印刷出版工程系,甘肅 蘭州 730060)
?
基于BP神經(jīng)網(wǎng)絡實現(xiàn)印刷圖像壓縮重建的研究大標題
鮑蓉
(蘭州石化職業(yè)技術(shù)學院 印刷出版工程系,甘肅 蘭州 730060)
針對印刷圖像壓縮重建問題,構(gòu)建BP神經(jīng)網(wǎng)絡模型,采用LM算法提高了運算速度。在印刷圖像壓縮重建訓練過程中,對隱含層神經(jīng)元個數(shù)設定進行了類比分析,峰值信噪比和壓縮比率均達到預期效果。對印刷圖像壓縮重建后出現(xiàn)塊效應效果進行了分析,提出了修正模型方法。
BP神經(jīng)網(wǎng)絡;神經(jīng)元;印刷圖像;壓縮重建;信噪比;MATLAB
目前印刷行業(yè)已廣泛運用數(shù)字技術(shù)存儲和傳輸圖像,圖像信息數(shù)字化后,具有信息量大、帶寬寬等特點。如何在有限的時間和空間里有效地處理、存儲和傳輸更多圖像信息以減少成本,成為日益尖銳的問題。如果增加信道的資源,但信道的增加永遠趕不上信息的爆炸式增長,況且還要受到環(huán)境等因素的制約,那就只能盡量減少表示圖像的數(shù)據(jù)量,以達到壓縮圖像數(shù)據(jù)的目的,因此印刷圖像的壓縮是非常有必要的。
圖像壓縮的算法多種多樣,如JPG/JPEG圖像使用JPEG壓縮標準,JPEG壓縮標準使用了變換編碼與熵編碼的方式。此外還有基于小波變換的圖像壓縮算法、分形壓縮編碼、矢量量化壓縮編碼等。本文采用BP神經(jīng)網(wǎng)絡對印刷圖像進行壓縮,在保證較好峰值信噪比(Psnr)的情況下,達到了較高的壓縮比(Rate)[1-2]。
BP神經(jīng)網(wǎng)絡至少包含一個隱含層,因此整體構(gòu)成了一個三層的網(wǎng)絡。把一組輸入模式通過少量的隱含層單元映射到一組輸出模式,并使輸出模式盡可能等于輸入模式。因此,隱含層神經(jīng)元的值和相應的權(quán)值向量可以輸出一個與原輸入模式相同的向量。當隱含層的神經(jīng)元個數(shù)較少時,就意味著隱含層能用更少的數(shù)來表現(xiàn)輸入模式,這就是BP壓縮原理。
圖1 BP壓縮原理
第一層為輸入層,中間層為隱含層,網(wǎng)絡的映射功能依賴隱含層實現(xiàn)。輸入層到隱含層的變換相當于壓縮的編碼過程,而從隱含層到輸出層的變換則相當于解碼過程,如圖1所示[3]。
網(wǎng)絡的輸入層和輸出層均由M個神經(jīng)元組成,隱含層包含K(K 設定輸入圖像為N×N像素大小,被細分為n×n個圖像塊,圖像塊中每一個像素點與一個輸入或輸出神經(jīng)元相對應,如圖3所示[4]。 圖2 BP壓縮加壓過程 圖3 BP圖像壓縮編碼 圖4 BP計算模型 在圖像中,每個圖像被量化為m比特,共2m個。按線性關系轉(zhuǎn)換為0~1之間的數(shù)值作為網(wǎng)絡的輸入和期望輸出。網(wǎng)絡隨機抽取圖像中的圖像塊作為學習模式。使用反向傳播算法進行學習,通過調(diào)整網(wǎng)絡中神經(jīng)元之間的連接權(quán)值,使訓練集圖像的重建誤差E=f-g的均值達到最小。訓練好的網(wǎng)絡隱含層神經(jīng)元矢量即數(shù)據(jù)壓縮結(jié)果,而輸出層神經(jīng)元矢量即重建數(shù)據(jù)如圖4所示。 模型輸入層與隱含層之間連接權(quán)值矩陣為wij,隱含層j個神經(jīng)元的闕值表示為bj;輸出層和隱含層之間連接權(quán)值矩陣為wji,輸出層i個神經(jīng)元的闕值表示為bi(1≤i≤N,1≤j≤K)。 通過不斷訓練網(wǎng)絡,調(diào)整網(wǎng)絡權(quán)重,使得網(wǎng)絡權(quán)重的輸入和輸出的均方差達到最小,最終將N維向量壓縮為K維向量。 其中f(·)為隱含層傳遞函數(shù),一般為Sigmoid函數(shù),g(·)為輸出層傳遞函數(shù),一般采用線性函數(shù)[5]。 BP神經(jīng)網(wǎng)絡圖像壓縮過程如圖5所示。 圖5 BP神經(jīng)網(wǎng)絡壓縮解壓縮過程 2.1 壓縮步驟 (1) 圖像塊劃分。以圖6為研究對象:圖像大小為256×256像素,大小為68 KB,位深度為8,格式為BMP。網(wǎng)絡輸入神經(jīng)元節(jié)點個數(shù)設為16個,圖像劃分為4 096個4×4大小的圖像塊,數(shù)據(jù)樣本為16×4 096矩陣。 圖6 原始圖像 (2) 歸一化。將神經(jīng)網(wǎng)絡輸出的樣本進行歸一化處理,使用mapminmax歸一化函數(shù),存儲每一行數(shù)據(jù)的最大值和最小值,使得壓縮數(shù)據(jù)必須包含這一部分數(shù)據(jù),使得壓縮率下降。 (3) 建立BP神經(jīng)網(wǎng)絡。運用MATLAB工具箱Feedforwardnet創(chuàng)建BP神經(jīng)網(wǎng)絡,經(jīng)多次模擬,采用LM算法,隱含層神經(jīng)元個數(shù)設N=4,確定目標誤差為0.001,最大迭代次數(shù)1 000次。訓練過程如圖7所示。 圖7 BP神經(jīng)網(wǎng)絡訓練圖 訓練時間12.398 106 s,迭代次數(shù)為22次,動量值為1.00e-7,梯度為0.000 313,性能指標均方誤差為0.001 83,最小均方誤差出現(xiàn)在第16次迭代,值為0.001 729 8。 (4) 存儲數(shù)據(jù)。訓練完成后,壓縮結(jié)果為每個輸入模式對應的隱含層神經(jīng)元向量值,網(wǎng)絡權(quán)值和閾值。為提高壓縮效率,首先對矩陣進行歸一化,再乘以25~28取整量化為比特整數(shù)。隱含層神經(jīng)元值為yc=wij+b。 2.2 解壓縮步驟 (1) 調(diào)取數(shù)據(jù)。讀取壓縮存儲數(shù)據(jù)。 (2) 數(shù)據(jù)反歸一化。數(shù)據(jù)除以25~28,映射到數(shù)據(jù)原區(qū)間。 (3) 重建。輸入神經(jīng)網(wǎng)絡隱含層神經(jīng)元輸出值,與隱含層和輸出層之間矩陣相乘。 (4) 圖像反歸一化。將每份數(shù)據(jù)乘以像素峰值255即可。 (5) 圖像塊回復。圖像塊以4×4劃分,將每列抽取重新排列為4×4矩陣,對各個4×4矩陣按行排列即可恢復原圖像。 圖8 重建圖像N=4 運用MATLAB進行編程,構(gòu)建BP網(wǎng)絡進行訓練,計算網(wǎng)絡輸出值,并顯示壓縮后重建圖像,隱含層神經(jīng)元個數(shù)N=4時重建圖像如圖8所示。圖像峰值信噪比為34.08,壓縮比率為14.56%。 從圖8可以看出,算法將圖像分割為4×4圖像塊,利用BP神經(jīng)網(wǎng)絡進行訓練,圖像在某種程度上出現(xiàn)塊效應現(xiàn)象,塊與塊之間差異較大[6-8]。 修改BP網(wǎng)絡印刷圖像算法的參數(shù)可以調(diào)節(jié)圖像壓縮質(zhì)量,觀察圖9 (a)重建圖像N=2時圖像壓縮比率為8.45%,重建質(zhì)量最差。 針對BP神經(jīng)網(wǎng)絡重建印刷圖像模型,調(diào)整隱含層神經(jīng)元個數(shù)N=1到N=10進行訓練,結(jié)果見表1訓練數(shù)據(jù)。 圖9 BP網(wǎng)絡(a)、(b)、(c)、(d)重建圖像 隱含層神經(jīng)元個數(shù)/個迭代次數(shù)/次訓練時間/s性能指標值梯度值動量值峰值信噪比壓縮比率最小均方誤差最小誤差迭代次數(shù)/次NEpochTimePerformanceGradiengtMuPsnrRateBestValidationPerformance11000577.5716990.006142.75e-061.00e-1131.55220.04940.0058193100021000405.1643340.003753.07e-061.00e-1132.18130.08450.003969210003199.8563810.002400.0001571.00e-0633.55550.11880.00218441342212.3981060.001830.0003131.00e-0734.07510.14560.00172981651000676.9360670.001322.78e-061.00e-1134.43980.18530.0013543100061817.6664110.0009940.0006011.00e-0635.97870.20960.001221118797.8115950.0009160.002161.00e-0536.09870.24510.000955239866.039460.0009830.003731.00e-0536.93940.27340.000989616966.5528850.0008490.004231.00e-0535.38770.27950.0008898361056.1821030.0009100.006211.00e-0533.96790.32730.000968925 BP神經(jīng)網(wǎng)絡是目前應用最為廣泛和成功的神經(jīng)網(wǎng)絡之一。它是一種多層前饋型網(wǎng)絡,可實現(xiàn)從輸入到輸出的任意非線性映射,權(quán)值的調(diào)節(jié)采用反向傳播算法。隨著學習的不斷進行,最終誤差會越來越小。BP算法的主要缺點是:收斂速度慢、局部極值,難以確定隱層節(jié)點的個數(shù)。BP模型采用LM算法是高斯—牛頓法的改進形式,既具有高斯—牛頓法的全局特性又具有梯度法的局部特性有效的優(yōu)化算法[9]。 BP神經(jīng)網(wǎng)絡對印刷圖像進行壓縮,可以對圖像分塊進行分類、采用不同的隱含層節(jié)點數(shù)進行訓練等方法提高模型的運算速度。 [1] 彭放.數(shù)學建模方法[M].武漢:科學出版社,2007. [2] 韓力群.人工神經(jīng)網(wǎng)絡理論設計及應用[M].北京:化學工業(yè)出版社,2002. [3] 許鋒,盧建剛,孫優(yōu)賢.神經(jīng)網(wǎng)絡在圖像處理中的應用[J].信息與控制,2003,32(4):344-351. [4] 陳明.MATLAB神經(jīng)網(wǎng)絡原理與實例講解[M].北京:清華大學出版社,2013. [5] 張慶紅,程國建.基于遺傳算法的神經(jīng)網(wǎng)絡性能優(yōu)化[J].計算機技術(shù)與發(fā)展,2007,17(12):125-127. [6] 肖鋒.基于BP神經(jīng)網(wǎng)絡的數(shù)字圖像邊緣檢測算法的研究[J].西安科技大學學報.2005,25 (3):372-375. [7] 趙弘,周瑞祥,林廷圻.基于Levenberg-Marquardt算法的神經(jīng)網(wǎng)絡監(jiān)督控制[J].西安交通大學學報,2002, 36(5):523-527. [8] 周建華.共軛梯度法在BP網(wǎng)絡中的應用[J].計算機工程與應用,1999,35(3):17-18,49. [9] 王鴻斌,張立毅.新型神經(jīng)網(wǎng)絡的發(fā)展及其應用[J].忻州師范學院學報,2007,23(2):50-53. A Research on the Implementation of Compression Reconstruction of Printing Images Based on the BP Neural Network Bao Rong (Department of Printing and Publishing Engineering, Lanzhou Petrochemical Vocational Technical College,Lanzhou Gansu 730060, China) With respect to compression reconstruction of printing images, this paper establishes a BP neural network model and adopts LM algorithm to raise the computing speed. In the training process of printing image compression reconstruction, analogy analysis is made on the setting of number of neurons of the hidden layer, and both the peak signal-to-noise ratio and compression ratio achieve the expected effect. The blocking effect appearing after printing image compression reconstruction is analyzed, and model correction methods are given. BP neural network; neuron; printing image; compression reconstruction; signal to noise ratio; MATLAB 甘肅省高等學??蒲许椖?015A - 185,蘭州石化職業(yè)技術(shù)學院重點教研項目JY2014-04。 10.3969/j.issn.1000-3886.2016.04.012 TN911.73 A 1000-3886(2016)04-0036-03 鮑蓉(1984-),女,江蘇儀征人,碩士,講師,主要從事印刷技術(shù)和數(shù)值分析方面的研究。 定稿日期: 2015-12-052 經(jīng)網(wǎng)絡壓縮實現(xiàn)
3 印刷圖像重建
4 結(jié)束語