李艷英+++于春曉+++侯永海
【 摘 要 】 神經(jīng)網(wǎng)絡(luò)控制算法是近年來的研究熱點(diǎn),其中的BP神經(jīng)網(wǎng)絡(luò)控制算法是最常用的控制算法,它是前饋網(wǎng)絡(luò)中的核心部分,可以無限逼近任意非線性,實(shí)現(xiàn)數(shù)據(jù)壓縮。本文運(yùn)用BP神經(jīng)網(wǎng)絡(luò)控制算法,借助Matlab神經(jīng)網(wǎng)絡(luò)工具箱函數(shù),編寫程序,首先做了一個(gè)非線性函數(shù)的逼近,其次重點(diǎn)運(yùn)用BP神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)圖像壓縮,通過試驗(yàn)比較,選擇合適的訓(xùn)練函數(shù),設(shè)定最小誤差和最大訓(xùn)練步數(shù),實(shí)現(xiàn)圖像壓縮,并計(jì)算了圖像的信噪比及峰值信噪比,比較了不同壓縮比下圖像質(zhì)量,最后分析了BP神經(jīng)網(wǎng)絡(luò)的局限性。
【 關(guān)鍵詞 】 神經(jīng)網(wǎng)絡(luò);Matlab;圖像壓縮
1 引言
BP神經(jīng)網(wǎng)絡(luò)歸類于前饋型神經(jīng)網(wǎng)絡(luò),原始信息由輸入單元輸入,經(jīng)輸入單元分配到隱含層的各神經(jīng)元,除輸入層以外,每個(gè)神經(jīng)元的信息是由上一層神經(jīng)元狀態(tài)與相對應(yīng)的連接權(quán)值決定的,輸出層可以認(rèn)為是最后一層隱含層。除輸出層外,每一個(gè)神經(jīng)元都與下一層的各神經(jīng)元相連,而同一層的神經(jīng)元之間沒有連接。
BP神經(jīng)網(wǎng)絡(luò)主要應(yīng)用于非線性函數(shù)的逼近、數(shù)據(jù)壓縮、模式識別、分類等領(lǐng)域。
在BP神經(jīng)網(wǎng)絡(luò)中選擇合適的網(wǎng)絡(luò)層數(shù)、各層神經(jīng)元個(gè)數(shù)及訓(xùn)練函數(shù)就可以實(shí)現(xiàn)從輸入到輸出的非線性映射。其學(xué)習(xí)過程可分為工作信號的正向傳播和誤差的反向傳播兩個(gè)過程,傳播過程如圖1所示。
(1)工作信號的正向傳播
信號由輸入經(jīng)過隱含層到輸出層,在信號向前傳播的過程中,網(wǎng)絡(luò)的各層權(quán)值是固定不變的,每一層神經(jīng)元的信息只影響下一層的神經(jīng)元而不會(huì)影響同層或者上一層神經(jīng)元。如果輸出層的輸出結(jié)果與期望值不同就轉(zhuǎn)入誤差的反向傳播。
(2)誤差的反向傳播
網(wǎng)絡(luò)的輸出與期望值之間的差值就是誤差信號。誤差信號由輸出層開始逐層向前傳播,并且將誤差分?jǐn)偨o各層的所有神經(jīng)元,再由此獲得各個(gè)層的誤差信號,通過修正各神經(jīng)元之間的連接權(quán)值,使誤差減小。這個(gè)通過信號的正向傳播和誤差的反向傳播來不斷修正各神經(jīng)元之間的連接權(quán)值的過程是不斷進(jìn)行的,一直運(yùn)行到預(yù)先設(shè)定的訓(xùn)練步數(shù)或者達(dá)到設(shè)定的誤差就停止。
2 BP神經(jīng)網(wǎng)絡(luò)的應(yīng)用
2.1 基于BP神經(jīng)網(wǎng)絡(luò)函數(shù)逼近的實(shí)現(xiàn)
2.1.1 BP神經(jīng)網(wǎng)絡(luò)的函數(shù)逼近能力
BP神經(jīng)網(wǎng)絡(luò)是一個(gè)輸入到輸出的高度非線性映射,即F:Rn→Rm,f(x)=Y。對于樣本集合:輸入xi和yi輸出都可認(rèn)為存在某一映射g使得g(xi)=yi(i=1,2,3...)成立。求出一個(gè)映射f,使得在某種意義下,f是g的最佳逼近。
2.1.2基于BP神經(jīng)網(wǎng)絡(luò)函數(shù)逼近的Matlab實(shí)現(xiàn)
設(shè)要逼近的非線性函數(shù)是:y=5+2e(1-x)cos(2πx),-0.4?x?3.6。建立一個(gè)三層網(wǎng)絡(luò),設(shè)置隱含層神經(jīng)元個(gè)數(shù)為20,最小誤差為0.01最大訓(xùn)練步數(shù)為50。編寫Matlab程序,得到誤差曲線如圖2所示。
由仿真結(jié)果圖可以得出,經(jīng)過訓(xùn)練后的曲線和原函數(shù)曲線非常接近,由此說明,訓(xùn)練后的神經(jīng)網(wǎng)絡(luò)函數(shù)逼近效果很好。
2.2 BP神經(jīng)網(wǎng)絡(luò)在圖像壓縮中的應(yīng)用
圖像是最重要的一種信息傳遞方式,然而,圖像數(shù)據(jù)量大給信息傳遞帶來了困難,當(dāng)前的硬件技術(shù)所能提供的存儲(chǔ)資源和網(wǎng)絡(luò)寬帶遠(yuǎn)不能滿足日益增長的圖像傳遞要求。圖像作為一種重要的資源,對它進(jìn)行壓縮處理在一定程度上能夠減緩它對硬件的要求。
2.2.1 圖像冗余
圖像數(shù)據(jù)壓縮的根本方法是減小圖像冗余,數(shù)據(jù)圖像的冗余主要表現(xiàn)在以下幾種形式:空間冗余、時(shí)間冗余、結(jié)構(gòu)冗余、視覺冗余、知識冗余等,有了圖像的這些冗余信息,就找到了圖像壓縮的根據(jù)。此外,根據(jù)大面積著色原理,圖像必須在一定面積內(nèi)存在相同或相近的顏色,圖像中相鄰像素間存在的相似性產(chǎn)生了圖像預(yù)測編碼。
2.2.2 圖像壓縮的分類及圖像性能指標(biāo)
圖像壓縮的實(shí)質(zhì)就是去除多余數(shù)據(jù),依據(jù)在壓縮過程中是否有信息損失,可以將圖像壓縮分為兩種,有損壓縮和無損壓縮。無損壓縮沒有信息的損失,解壓后可以完全恢復(fù),例如一些文件的壓縮都可以完全恢復(fù)。有損壓縮則不能完全恢復(fù),有一定的信息損失,但不會(huì)影響對信息的理解。
目前比較流行的壓縮方式有JPEG壓縮,基于小波變換的圖像壓縮算法,分型壓縮,矢量量化壓縮。依據(jù)BP神經(jīng)網(wǎng)絡(luò)對非線性能夠無限逼近的能力,可以保證在比較高的圖像質(zhì)量下盡可能實(shí)現(xiàn)較高的壓縮比。
圖像性能指標(biāo)有圖像的信噪比及峰值信噪比。
(1)圖像的信噪比(SNR)是衡量圖像質(zhì)量高低的重要指標(biāo),見公式(5),其中M和N是圖像長和寬上的像素點(diǎn)數(shù),f(i,j)和g(i,j)分別是原始圖像和重構(gòu)圖像在點(diǎn)(i,j)處的灰度值,信噪比越高說明圖像質(zhì)量越高。
SNR=10log
(1)
(2)峰值信噪比經(jīng)常用作圖像壓縮等領(lǐng)域中信號重建質(zhì)量的測量方法,見公式(6),其中M和N是圖像長和寬上的像素點(diǎn)數(shù),f(i,j)和g(i,j)分別是原始圖像和重構(gòu)圖像在點(diǎn)(i,j)處的灰度值,其值越大,表示圖像失真越小。
PSNR=10log
(2)
2.3 BP神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)圖像壓縮
由上述可知,BP神經(jīng)網(wǎng)絡(luò)可以逼近非線性函數(shù),而圖像的各像素點(diǎn)之間是非線性關(guān)系,故運(yùn)用BP神經(jīng)網(wǎng)絡(luò),通過選取合適的網(wǎng)絡(luò)層數(shù)和訓(xùn)練函數(shù)就可以實(shí)現(xiàn)圖像壓縮。
2.3.1 網(wǎng)絡(luò)層數(shù)的選擇
神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)中,隱含層層數(shù)的確定要根據(jù)實(shí)際應(yīng)用的需要。雖然隱含層層數(shù)多可以降低誤差,提高精確度,但是也增加了神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí)間,而誤差完全可以通過改變隱含層神經(jīng)元個(gè)數(shù)或者使用合適的訓(xùn)練函數(shù)來減小。本文選擇三層神經(jīng)網(wǎng)絡(luò),實(shí)踐證明,三層神經(jīng)網(wǎng)絡(luò)可以達(dá)到很好的效果。endprint
2.3.2訓(xùn)練函數(shù)的選取
針對不同的應(yīng)用,BP神經(jīng)網(wǎng)絡(luò)提供了多種訓(xùn)練方法。不同的訓(xùn)練函數(shù)對應(yīng)結(jié)果如表1。
由此可見,traincgp(Polak-Ribiere變換梯度法)有較快的收斂速度,本文選擇此訓(xùn)練函數(shù)。
2.3.3 基于BP神經(jīng)網(wǎng)絡(luò)圖像壓縮原理及仿真結(jié)果
網(wǎng)絡(luò)結(jié)構(gòu)的確定包括輸入層、隱含層和輸出層,隱含層的節(jié)點(diǎn)數(shù)小于輸入節(jié)點(diǎn)數(shù),輸入節(jié)點(diǎn)數(shù)和輸出節(jié)點(diǎn)數(shù)相同[8]。網(wǎng)絡(luò)在進(jìn)行學(xué)習(xí)時(shí),輸入會(huì)將網(wǎng)絡(luò)數(shù)據(jù)通過隱含層映射到輸出作為導(dǎo)師信號,在這個(gè)學(xué)習(xí)的過程中,輸入層到隱含層稱為網(wǎng)絡(luò)的編碼過程,隱含層到輸出層稱之為網(wǎng)絡(luò)的解碼過程。
將訓(xùn)練用圖像的所有像素點(diǎn)作為壓縮網(wǎng)絡(luò)的輸入,為控制網(wǎng)絡(luò)的規(guī)模,對圖像進(jìn)行劃分。設(shè)訓(xùn)練用圖像由N×N個(gè)像素點(diǎn)構(gòu)成,將其劃分為M個(gè)子圖像塊,每個(gè)子圖像塊分別由p×p的子像素塊構(gòu)成。為了加快收斂速度,保證性能的穩(wěn)定性,對圖像進(jìn)行歸一化處理。歸一化可以使用mapminmax函數(shù)進(jìn)行,但是考慮到圖像數(shù)據(jù)的特殊性,像素點(diǎn)灰度值為整數(shù),且處于0-255之間,因此歸一化處理就可以統(tǒng)一將數(shù)據(jù)除以255。
用Matlab創(chuàng)建一個(gè)三層網(wǎng)絡(luò),函數(shù)如下:
net=newff(minmax(P),[32 ,64],{'tansig','logsig'},'traindx','learngd','mse')。
其中,應(yīng)用的激活函數(shù)為tansig和logsig,采用trainoss訓(xùn)練函數(shù)網(wǎng)絡(luò)初始權(quán)值和閾值均取隨機(jī)數(shù),然后開始訓(xùn)練網(wǎng)絡(luò),最小誤差設(shè)置為0.001,最大訓(xùn)練步數(shù)設(shè)為10000。運(yùn)行結(jié)果如下,Matlab程序流程圖如圖5所示,仿真結(jié)果如圖7所示。
TRAINOSS-srchbac, Epoch 16997/20000, MSE 0.000998813/0.001, Gradient 0.00206669/1e-006
TRAINOSS, Performance goal met.
PSNR = 29.9979
SNR = 22.8039
由運(yùn)行結(jié)果可得,圖像壓縮后峰值信噪比是29.997,信噪比是22.8039,誤差已經(jīng)達(dá)到要求。
訓(xùn)練網(wǎng)絡(luò)誤差曲線如圖3所示。
由誤差曲線可得,在訓(xùn)練步數(shù)達(dá)到1000左右的時(shí)候,誤差下降趨勢趨于平緩,因此選擇訓(xùn)練步數(shù)為1000,然后改變隱含層神經(jīng)元個(gè)數(shù),比較不同的壓縮比情況下的誤差、信噪比及峰值信噪比,不同壓縮比下的結(jié)果如表2。
由表可得,隨著壓縮比的增大,信噪比和峰值信噪比減小,誤差增大。
2.4 BP網(wǎng)絡(luò)的局限性
在實(shí)際應(yīng)用中,BP神經(jīng)網(wǎng)絡(luò)存在的幾個(gè)問題:(1)誤差下降慢,訓(xùn)練次數(shù)多,影響收斂時(shí)間;(2)隱含層神經(jīng)元個(gè)數(shù)是靠經(jīng)驗(yàn)得來的,沒有可靠的理論依據(jù);(3)沒有考慮到測試樣本或者訓(xùn)練樣本對算法的影響。
參考文獻(xiàn)
[1] 鐘珞,饒文碧,鄒承明.人工神經(jīng)網(wǎng)絡(luò)及其融合應(yīng)用技術(shù)[M].北京:科學(xué)出版社,2007: 23-27.
[2] 高雋.人工神經(jīng)網(wǎng)絡(luò)原理及仿真實(shí)例[M].北京:機(jī)械工業(yè)出版社,2007:2-78.
[3] 倪志偉,李鋒剛,毛雪岷.智能管理技術(shù)與方法[M].北京:科學(xué)出版社,2007:12-33.
[4] Andrea Goldsmith. Wireless Communications[M]. Cambrigde University Press,2005:1-5.
[5] Martin T. Hagan,Howard B. Demuth,Mark H. Beale.神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)[M].北京:機(jī)械工業(yè)出版社出版社,2002:3-17.
[6] 張立明.人工神經(jīng)網(wǎng)絡(luò)的模型及其應(yīng)用[M].上海:復(fù)旦大學(xué)出版社,1993:7-99.
[7] 徐麗娜.神經(jīng)網(wǎng)絡(luò)控制[M].北京:電子工業(yè)出版社,2003:10-80.
[8] 錢海軍.基于BP神經(jīng)網(wǎng)絡(luò)的圖像壓縮的Matlab實(shí)現(xiàn)[J].電腦開發(fā)與應(yīng)用, 2011,24(12):77-79.
[9] 劉春艷.基于遺傳算法—BP神經(jīng)網(wǎng)絡(luò)的主汽溫控制系統(tǒng)的研究[D].太原:太原理工大學(xué)碩士研究生學(xué)位論文,2006.
基金項(xiàng)目:
山東省教育科學(xué)“十二五”規(guī)劃課題,課題編號:2011GG256。
作者簡介:
李艷英(1983-),女,山東東營人,畢業(yè)于天津大學(xué),碩士學(xué)位,現(xiàn)任青島工學(xué)院機(jī)電工程學(xué)院副院長,講師;曾參與省級科研課題一項(xiàng)、省級教研課題一項(xiàng),現(xiàn)主持省級科研課題一項(xiàng);主要研究方向和關(guān)注領(lǐng)域:模式識別與人工智能。endprint
2.3.2訓(xùn)練函數(shù)的選取
針對不同的應(yīng)用,BP神經(jīng)網(wǎng)絡(luò)提供了多種訓(xùn)練方法。不同的訓(xùn)練函數(shù)對應(yīng)結(jié)果如表1。
由此可見,traincgp(Polak-Ribiere變換梯度法)有較快的收斂速度,本文選擇此訓(xùn)練函數(shù)。
2.3.3 基于BP神經(jīng)網(wǎng)絡(luò)圖像壓縮原理及仿真結(jié)果
網(wǎng)絡(luò)結(jié)構(gòu)的確定包括輸入層、隱含層和輸出層,隱含層的節(jié)點(diǎn)數(shù)小于輸入節(jié)點(diǎn)數(shù),輸入節(jié)點(diǎn)數(shù)和輸出節(jié)點(diǎn)數(shù)相同[8]。網(wǎng)絡(luò)在進(jìn)行學(xué)習(xí)時(shí),輸入會(huì)將網(wǎng)絡(luò)數(shù)據(jù)通過隱含層映射到輸出作為導(dǎo)師信號,在這個(gè)學(xué)習(xí)的過程中,輸入層到隱含層稱為網(wǎng)絡(luò)的編碼過程,隱含層到輸出層稱之為網(wǎng)絡(luò)的解碼過程。
將訓(xùn)練用圖像的所有像素點(diǎn)作為壓縮網(wǎng)絡(luò)的輸入,為控制網(wǎng)絡(luò)的規(guī)模,對圖像進(jìn)行劃分。設(shè)訓(xùn)練用圖像由N×N個(gè)像素點(diǎn)構(gòu)成,將其劃分為M個(gè)子圖像塊,每個(gè)子圖像塊分別由p×p的子像素塊構(gòu)成。為了加快收斂速度,保證性能的穩(wěn)定性,對圖像進(jìn)行歸一化處理。歸一化可以使用mapminmax函數(shù)進(jìn)行,但是考慮到圖像數(shù)據(jù)的特殊性,像素點(diǎn)灰度值為整數(shù),且處于0-255之間,因此歸一化處理就可以統(tǒng)一將數(shù)據(jù)除以255。
用Matlab創(chuàng)建一個(gè)三層網(wǎng)絡(luò),函數(shù)如下:
net=newff(minmax(P),[32 ,64],{'tansig','logsig'},'traindx','learngd','mse')。
其中,應(yīng)用的激活函數(shù)為tansig和logsig,采用trainoss訓(xùn)練函數(shù)網(wǎng)絡(luò)初始權(quán)值和閾值均取隨機(jī)數(shù),然后開始訓(xùn)練網(wǎng)絡(luò),最小誤差設(shè)置為0.001,最大訓(xùn)練步數(shù)設(shè)為10000。運(yùn)行結(jié)果如下,Matlab程序流程圖如圖5所示,仿真結(jié)果如圖7所示。
TRAINOSS-srchbac, Epoch 16997/20000, MSE 0.000998813/0.001, Gradient 0.00206669/1e-006
TRAINOSS, Performance goal met.
PSNR = 29.9979
SNR = 22.8039
由運(yùn)行結(jié)果可得,圖像壓縮后峰值信噪比是29.997,信噪比是22.8039,誤差已經(jīng)達(dá)到要求。
訓(xùn)練網(wǎng)絡(luò)誤差曲線如圖3所示。
由誤差曲線可得,在訓(xùn)練步數(shù)達(dá)到1000左右的時(shí)候,誤差下降趨勢趨于平緩,因此選擇訓(xùn)練步數(shù)為1000,然后改變隱含層神經(jīng)元個(gè)數(shù),比較不同的壓縮比情況下的誤差、信噪比及峰值信噪比,不同壓縮比下的結(jié)果如表2。
由表可得,隨著壓縮比的增大,信噪比和峰值信噪比減小,誤差增大。
2.4 BP網(wǎng)絡(luò)的局限性
在實(shí)際應(yīng)用中,BP神經(jīng)網(wǎng)絡(luò)存在的幾個(gè)問題:(1)誤差下降慢,訓(xùn)練次數(shù)多,影響收斂時(shí)間;(2)隱含層神經(jīng)元個(gè)數(shù)是靠經(jīng)驗(yàn)得來的,沒有可靠的理論依據(jù);(3)沒有考慮到測試樣本或者訓(xùn)練樣本對算法的影響。
參考文獻(xiàn)
[1] 鐘珞,饒文碧,鄒承明.人工神經(jīng)網(wǎng)絡(luò)及其融合應(yīng)用技術(shù)[M].北京:科學(xué)出版社,2007: 23-27.
[2] 高雋.人工神經(jīng)網(wǎng)絡(luò)原理及仿真實(shí)例[M].北京:機(jī)械工業(yè)出版社,2007:2-78.
[3] 倪志偉,李鋒剛,毛雪岷.智能管理技術(shù)與方法[M].北京:科學(xué)出版社,2007:12-33.
[4] Andrea Goldsmith. Wireless Communications[M]. Cambrigde University Press,2005:1-5.
[5] Martin T. Hagan,Howard B. Demuth,Mark H. Beale.神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)[M].北京:機(jī)械工業(yè)出版社出版社,2002:3-17.
[6] 張立明.人工神經(jīng)網(wǎng)絡(luò)的模型及其應(yīng)用[M].上海:復(fù)旦大學(xué)出版社,1993:7-99.
[7] 徐麗娜.神經(jīng)網(wǎng)絡(luò)控制[M].北京:電子工業(yè)出版社,2003:10-80.
[8] 錢海軍.基于BP神經(jīng)網(wǎng)絡(luò)的圖像壓縮的Matlab實(shí)現(xiàn)[J].電腦開發(fā)與應(yīng)用, 2011,24(12):77-79.
[9] 劉春艷.基于遺傳算法—BP神經(jīng)網(wǎng)絡(luò)的主汽溫控制系統(tǒng)的研究[D].太原:太原理工大學(xué)碩士研究生學(xué)位論文,2006.
基金項(xiàng)目:
山東省教育科學(xué)“十二五”規(guī)劃課題,課題編號:2011GG256。
作者簡介:
李艷英(1983-),女,山東東營人,畢業(yè)于天津大學(xué),碩士學(xué)位,現(xiàn)任青島工學(xué)院機(jī)電工程學(xué)院副院長,講師;曾參與省級科研課題一項(xiàng)、省級教研課題一項(xiàng),現(xiàn)主持省級科研課題一項(xiàng);主要研究方向和關(guān)注領(lǐng)域:模式識別與人工智能。endprint
2.3.2訓(xùn)練函數(shù)的選取
針對不同的應(yīng)用,BP神經(jīng)網(wǎng)絡(luò)提供了多種訓(xùn)練方法。不同的訓(xùn)練函數(shù)對應(yīng)結(jié)果如表1。
由此可見,traincgp(Polak-Ribiere變換梯度法)有較快的收斂速度,本文選擇此訓(xùn)練函數(shù)。
2.3.3 基于BP神經(jīng)網(wǎng)絡(luò)圖像壓縮原理及仿真結(jié)果
網(wǎng)絡(luò)結(jié)構(gòu)的確定包括輸入層、隱含層和輸出層,隱含層的節(jié)點(diǎn)數(shù)小于輸入節(jié)點(diǎn)數(shù),輸入節(jié)點(diǎn)數(shù)和輸出節(jié)點(diǎn)數(shù)相同[8]。網(wǎng)絡(luò)在進(jìn)行學(xué)習(xí)時(shí),輸入會(huì)將網(wǎng)絡(luò)數(shù)據(jù)通過隱含層映射到輸出作為導(dǎo)師信號,在這個(gè)學(xué)習(xí)的過程中,輸入層到隱含層稱為網(wǎng)絡(luò)的編碼過程,隱含層到輸出層稱之為網(wǎng)絡(luò)的解碼過程。
將訓(xùn)練用圖像的所有像素點(diǎn)作為壓縮網(wǎng)絡(luò)的輸入,為控制網(wǎng)絡(luò)的規(guī)模,對圖像進(jìn)行劃分。設(shè)訓(xùn)練用圖像由N×N個(gè)像素點(diǎn)構(gòu)成,將其劃分為M個(gè)子圖像塊,每個(gè)子圖像塊分別由p×p的子像素塊構(gòu)成。為了加快收斂速度,保證性能的穩(wěn)定性,對圖像進(jìn)行歸一化處理。歸一化可以使用mapminmax函數(shù)進(jìn)行,但是考慮到圖像數(shù)據(jù)的特殊性,像素點(diǎn)灰度值為整數(shù),且處于0-255之間,因此歸一化處理就可以統(tǒng)一將數(shù)據(jù)除以255。
用Matlab創(chuàng)建一個(gè)三層網(wǎng)絡(luò),函數(shù)如下:
net=newff(minmax(P),[32 ,64],{'tansig','logsig'},'traindx','learngd','mse')。
其中,應(yīng)用的激活函數(shù)為tansig和logsig,采用trainoss訓(xùn)練函數(shù)網(wǎng)絡(luò)初始權(quán)值和閾值均取隨機(jī)數(shù),然后開始訓(xùn)練網(wǎng)絡(luò),最小誤差設(shè)置為0.001,最大訓(xùn)練步數(shù)設(shè)為10000。運(yùn)行結(jié)果如下,Matlab程序流程圖如圖5所示,仿真結(jié)果如圖7所示。
TRAINOSS-srchbac, Epoch 16997/20000, MSE 0.000998813/0.001, Gradient 0.00206669/1e-006
TRAINOSS, Performance goal met.
PSNR = 29.9979
SNR = 22.8039
由運(yùn)行結(jié)果可得,圖像壓縮后峰值信噪比是29.997,信噪比是22.8039,誤差已經(jīng)達(dá)到要求。
訓(xùn)練網(wǎng)絡(luò)誤差曲線如圖3所示。
由誤差曲線可得,在訓(xùn)練步數(shù)達(dá)到1000左右的時(shí)候,誤差下降趨勢趨于平緩,因此選擇訓(xùn)練步數(shù)為1000,然后改變隱含層神經(jīng)元個(gè)數(shù),比較不同的壓縮比情況下的誤差、信噪比及峰值信噪比,不同壓縮比下的結(jié)果如表2。
由表可得,隨著壓縮比的增大,信噪比和峰值信噪比減小,誤差增大。
2.4 BP網(wǎng)絡(luò)的局限性
在實(shí)際應(yīng)用中,BP神經(jīng)網(wǎng)絡(luò)存在的幾個(gè)問題:(1)誤差下降慢,訓(xùn)練次數(shù)多,影響收斂時(shí)間;(2)隱含層神經(jīng)元個(gè)數(shù)是靠經(jīng)驗(yàn)得來的,沒有可靠的理論依據(jù);(3)沒有考慮到測試樣本或者訓(xùn)練樣本對算法的影響。
參考文獻(xiàn)
[1] 鐘珞,饒文碧,鄒承明.人工神經(jīng)網(wǎng)絡(luò)及其融合應(yīng)用技術(shù)[M].北京:科學(xué)出版社,2007: 23-27.
[2] 高雋.人工神經(jīng)網(wǎng)絡(luò)原理及仿真實(shí)例[M].北京:機(jī)械工業(yè)出版社,2007:2-78.
[3] 倪志偉,李鋒剛,毛雪岷.智能管理技術(shù)與方法[M].北京:科學(xué)出版社,2007:12-33.
[4] Andrea Goldsmith. Wireless Communications[M]. Cambrigde University Press,2005:1-5.
[5] Martin T. Hagan,Howard B. Demuth,Mark H. Beale.神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)[M].北京:機(jī)械工業(yè)出版社出版社,2002:3-17.
[6] 張立明.人工神經(jīng)網(wǎng)絡(luò)的模型及其應(yīng)用[M].上海:復(fù)旦大學(xué)出版社,1993:7-99.
[7] 徐麗娜.神經(jīng)網(wǎng)絡(luò)控制[M].北京:電子工業(yè)出版社,2003:10-80.
[8] 錢海軍.基于BP神經(jīng)網(wǎng)絡(luò)的圖像壓縮的Matlab實(shí)現(xiàn)[J].電腦開發(fā)與應(yīng)用, 2011,24(12):77-79.
[9] 劉春艷.基于遺傳算法—BP神經(jīng)網(wǎng)絡(luò)的主汽溫控制系統(tǒng)的研究[D].太原:太原理工大學(xué)碩士研究生學(xué)位論文,2006.
基金項(xiàng)目:
山東省教育科學(xué)“十二五”規(guī)劃課題,課題編號:2011GG256。
作者簡介:
李艷英(1983-),女,山東東營人,畢業(yè)于天津大學(xué),碩士學(xué)位,現(xiàn)任青島工學(xué)院機(jī)電工程學(xué)院副院長,講師;曾參與省級科研課題一項(xiàng)、省級教研課題一項(xiàng),現(xiàn)主持省級科研課題一項(xiàng);主要研究方向和關(guān)注領(lǐng)域:模式識別與人工智能。endprint