亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        LMBP和RBF在ECS特性曲線(xiàn)擬合中對(duì)比研究

        2013-10-15 05:08:04常曉恒巫慶輝

        丁 碩, 常曉恒, 巫慶輝

        (渤海大學(xué) 工學(xué)院, 遼寧 錦州 121013)

        0 引 言

        數(shù)字式渦流傳感器ECS(Eddy Current Sensors)工作在正常條件下, 且在保持某些參數(shù)值恒定不變的前提下, 線(xiàn)圈等效電感L就是位移d的單值函數(shù)。因此, 傳感器輸出信號(hào)的頻率f與微小位移信號(hào)d之間呈現(xiàn)正比例關(guān)系。若被測(cè)試件位移產(chǎn)生變化時(shí), 數(shù)字式渦流傳感器頻率f的變化將直接反映被測(cè)試件位移d的情況。但在實(shí)際中利用渦流傳感器進(jìn)行位移測(cè)量時(shí), 輸入和輸出特性曲線(xiàn)存在較為嚴(yán)重的非線(xiàn)性關(guān)系, 影響到傳感器的測(cè)量精度。為準(zhǔn)確反映數(shù)字式渦流傳感器d-f間的非線(xiàn)性關(guān)系, 實(shí)現(xiàn)精確測(cè)量, 需要擬合一條曲線(xiàn), 使其盡可能逼近數(shù)字式渦流傳感器實(shí)際的輸入、 輸出特性。實(shí)際中經(jīng)常通過(guò)計(jì)算機(jī)利用最小二乘法、 查表法和線(xiàn)性插值等方法解決非線(xiàn)性問(wèn)題。由于人工神經(jīng)網(wǎng)絡(luò)具有大規(guī)模并行處理、 自適應(yīng)性和容錯(cuò)性等優(yōu)點(diǎn)[1], 其發(fā)展為渦流傳感器的特性曲線(xiàn)擬合提供了有效的方法, 只要恰當(dāng)選擇網(wǎng)絡(luò), 就能逼近任何非線(xiàn)性函數(shù)。其中兩種前饋反向傳播BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)和徑向基函數(shù)RBF(Radial Basis Function)神經(jīng)網(wǎng)絡(luò)較為流行, 并且取得了一定的效果。但神經(jīng)網(wǎng)絡(luò)的類(lèi)型種類(lèi)繁多, 不同類(lèi)型網(wǎng)絡(luò)對(duì)數(shù)字式渦流傳感器的非線(xiàn)性特性的擬合效果不同, 而且各自所適合的場(chǎng)合以及計(jì)算量、 仿真過(guò)程都有很大不同。因?yàn)闃?biāo)準(zhǔn)的BP網(wǎng)絡(luò)存在學(xué)習(xí)收斂速度較慢、 穩(wěn)定性差、 易陷入局部極小等缺點(diǎn)[2,3]。筆者以標(biāo)準(zhǔn)BP算法為基礎(chǔ), 利用收斂速度相對(duì)較快、 擬合精度較高且性能穩(wěn)定的LM(Levenberg-Marquart)算法構(gòu)建LMBP神經(jīng)網(wǎng)絡(luò), 同時(shí)構(gòu)建了RBF神經(jīng)網(wǎng)絡(luò), 分別對(duì)渦流傳感器的特性曲線(xiàn)進(jìn)行擬合, 并對(duì)結(jié)果進(jìn)行比較分析, 得出二者各自所適應(yīng)的仿真計(jì)算過(guò)程。

        1 LMBP網(wǎng)絡(luò)的結(jié)構(gòu)與學(xué)習(xí)算法

        由于傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)算法反向傳播算法迭代速度慢, 且易陷入局部最小點(diǎn), 計(jì)算機(jī)的內(nèi)存足夠大時(shí), 對(duì)中小型結(jié)構(gòu)的網(wǎng)絡(luò)一般使用非線(xiàn)性阻尼最小二乘法(Levenberg-Marquardt Algorithm)的改進(jìn)方法。LM算法是一種非常有效的優(yōu)化設(shè)計(jì)方法, 從收斂速度和收斂性來(lái)看, 它結(jié)合了神經(jīng)網(wǎng)絡(luò)的梯度下降法和高斯-牛頓法的優(yōu)點(diǎn), 是在牛頓法和最速下降法之間進(jìn)行平滑調(diào)和的結(jié)合算法。LM算法尤其適用于目標(biāo)函數(shù)為誤差平方和最小化的情況, 因其具有二階收斂速度、 所需的迭代次數(shù)很少的優(yōu)點(diǎn)[4,5], 所以可大幅度提高其收斂速度, 并可提高其算法的穩(wěn)定性以及避免陷入局部最小點(diǎn)。

        在多層前向神經(jīng)網(wǎng)絡(luò)中, 前一層的輸出為下一層的輸入, 輸入與輸出之間函數(shù)表達(dá)式為

        am+1=fm+1(wm+1am+1+bm+1),m=0,1,2,…,M-1

        (1)

        其中a為某層的輸出,b為閾值,f為激活函數(shù),m為網(wǎng)絡(luò)層數(shù), 相應(yīng)的權(quán)值矩陣為

        (2)

        其中wij表示前一層第j個(gè)神經(jīng)元輸入到后一層第i個(gè)神經(jīng)元的權(quán)值。

        設(shè)神經(jīng)網(wǎng)絡(luò)的誤差指標(biāo)函數(shù)為

        (3)

        其中Q為目標(biāo)向量元素?cái)?shù)目,ejq為第q個(gè)輸入輸出樣本對(duì)的誤差,ei(w)為誤差向量,N為輸出層的神經(jīng)元數(shù)目。令J(w)為E(w)的Jacobian矩陣, 表示為

        (4)

        誤差矩陣

        2ei(w)

        (5)

        E(w)的梯度

        E(w)=2JT(w)e(w)

        (6)

        E(w)的Hessian矩陣

        2E(w)=2JT(w)J(w)+S(w)

        (7)

        當(dāng)接近誤差指標(biāo)函數(shù)的最小值時(shí), 則誤差矩陣S(w)中的元素很小, 于是可取Hessian矩陣近似值

        2E(w)=2JT(w)J(w)

        (8)

        由于矩陣JT(w)J(w)可能奇異, 故Hessian矩陣可表示為

        2E(w)=2JT(w)J(w)+μI

        (9)

        其中μ為比例系數(shù), 當(dāng)μ≈0時(shí), LM算法接近高斯-牛頓法; 當(dāng)μ?0, LM算法近似于最速下降法。由此得出LM算法

        Δw=-[JT(w)J(w)+μI]-1JT(w)e(w)

        (10)

        其中I為單位矩陣。

        根據(jù)上述的推理可看出, 由于LM算法采用二階近似偏導(dǎo)數(shù), 所以收斂速度相對(duì)梯度下降法而言快很多且JT(w)J(w)+μI是正定陣, 所以其解總是存在的[6,7]。

        2 RBF網(wǎng)絡(luò)的結(jié)構(gòu)與學(xué)習(xí)算法

        RBF神經(jīng)網(wǎng)絡(luò)是一種典型的局部逼近神經(jīng)網(wǎng)絡(luò)。RBFNN(Radial Basis Function Artificial Neural Networks)由3層組成: 輸入層節(jié)點(diǎn)的作用是傳遞信號(hào)到隱層; 隱層節(jié)點(diǎn)由徑向基函數(shù)構(gòu)成; 輸出層節(jié)點(diǎn)通常是簡(jiǎn)單的線(xiàn)性函數(shù)。在RBFNN中, 從輸入層到隱層的變換是非線(xiàn)性的, 隱層的作用是對(duì)輸入向量進(jìn)行非線(xiàn)性變換, 而從隱層到輸出層的變換是線(xiàn)性的, 即網(wǎng)絡(luò)的輸出是隱節(jié)點(diǎn)輸出的線(xiàn)性加權(quán)和[8-10]。通過(guò)分析RBFNN結(jié)構(gòu)的特點(diǎn)可發(fā)現(xiàn), 主要有兩個(gè)因素決定RBFNN結(jié)構(gòu): 網(wǎng)絡(luò)隱層神經(jīng)元個(gè)數(shù)及其中心、 隱層與輸出層連接權(quán)值。所以, 一般的算法都是利用RBFNN的3層結(jié)構(gòu)特點(diǎn)設(shè)計(jì)學(xué)習(xí)算法。第1步確定網(wǎng)絡(luò)隱層神經(jīng)元個(gè)數(shù)與其中心; 第2步確定網(wǎng)絡(luò)的權(quán)值。由于在第2步可以直接利用線(xiàn)性?xún)?yōu)化算法, 從而可以加快學(xué)習(xí)速度和避免局部最優(yōu)[11]。

        徑向基網(wǎng)絡(luò)傳遞函數(shù)的原型函數(shù)為

        radbas(n)=exp(-n2)

        (11)

        當(dāng)輸入自變量為0時(shí), 傳遞函數(shù)取得最大值為1。隨著權(quán)值和輸入向量之間距離的減少, 網(wǎng)絡(luò)輸出是遞增的。當(dāng)輸入向量和加權(quán)向量一致時(shí), 神經(jīng)元輸出為1。徑向基函數(shù)網(wǎng)絡(luò)隱含層采用徑向基函數(shù)作為激勵(lì)函數(shù), 該徑向基函數(shù)一般為高斯函數(shù)。隱層每個(gè)神經(jīng)元與輸入層相連的權(quán)值向量w1i和輸入矢量Xq之間的距離乘以閾值b1i作為本身的輸入。由此可得隱含層的第i個(gè)神經(jīng)元的輸入為[12]

        (12)

        輸出為

        (13)

        徑向基函數(shù)的閾值b1可以調(diào)節(jié)函數(shù)的靈敏度, 但在實(shí)際工作中更常用另一參數(shù)C。兩者的關(guān)系有多種確定方式。在Matlab神經(jīng)網(wǎng)絡(luò)工具箱中,b1和C的關(guān)系為:b1i=0.832 6/C, 此時(shí)隱含層神經(jīng)元的輸出變?yōu)?/p>

        (14)

        C值的大小實(shí)際反映了輸出對(duì)輸入的響應(yīng)寬度,C值越大, 隱含層神經(jīng)元對(duì)輸入矢量的響應(yīng)范圍越大, 且神經(jīng)元間的平滑度也越好。輸出層的輸入為各隱含層神經(jīng)元輸出的加權(quán)求和。由于激勵(lì)函數(shù)為純線(xiàn)性函數(shù), 因此輸出為

        (15)

        在RBF網(wǎng)絡(luò)訓(xùn)練中, 隱含層神經(jīng)元數(shù)量的確定是關(guān)鍵問(wèn)題, 傳統(tǒng)的做法是使其與輸入向量的元素相等。顯然, 在輸入矢量很多時(shí), 過(guò)多的隱含層單元數(shù)難以讓人接受。因此, 筆者提出了改進(jìn)方法, 基本原理是從0個(gè)神經(jīng)元開(kāi)始訓(xùn)練, 通過(guò)檢查輸出誤差使網(wǎng)絡(luò)自動(dòng)增加神經(jīng)元。每次循環(huán)使用, 使網(wǎng)絡(luò)產(chǎn)生的最大誤差所對(duì)應(yīng)的輸入向量作為權(quán)值向量w1i產(chǎn)生一個(gè)新的隱含層神經(jīng)元, 然后檢查新網(wǎng)絡(luò)的誤差, 重復(fù)過(guò)程直到達(dá)到誤差要求或最大隱含層神經(jīng)元數(shù)為止[13-15]。由此可見(jiàn), 徑向基函數(shù)網(wǎng)絡(luò)具有結(jié)構(gòu)自適應(yīng)確定、 輸出與初始權(quán)值無(wú)關(guān)等特點(diǎn)。

        3 仿真實(shí)驗(yàn)

        該實(shí)驗(yàn)采用型號(hào)為MLW-Y330008的數(shù)字式渦流傳感器, 完成系統(tǒng)硬件連接, 并對(duì)系統(tǒng)進(jìn)行調(diào)試, 采用機(jī)械放大桿并配合使用杠桿千分尺的形式獲得微小位移信號(hào)。為了真正反映傳感器的輸入輸出特性曲線(xiàn), 在標(biāo)準(zhǔn)室溫條件下, 且在MLW-Y330008傳感器測(cè)試量程允許范圍內(nèi), 采用正反行程(正向行程、 反向行程各10次)多次測(cè)量, 最后取平均值的方法獲得傳感器的輸出頻率與被測(cè)位移量之間的輸入-輸出數(shù)據(jù)(見(jiàn)表1)。由實(shí)驗(yàn)數(shù)據(jù)可知:d-f變化趨勢(shì)在被測(cè)試件位移量較小時(shí)基本上成線(xiàn)性關(guān)系; 但在被測(cè)試件位移量較大時(shí), 線(xiàn)性度較差, 呈現(xiàn)非線(xiàn)性關(guān)系。影響傳感器特性的因素有很多: 被測(cè)試件表面平整度、 表面磁效應(yīng)、 表面鍍層、 表面尺寸以及傳感器的安裝和工作溫度等諸多因素都會(huì)對(duì)渦流傳感器的特性產(chǎn)生影響。在Matlab7.0環(huán)境下, 將實(shí)驗(yàn)測(cè)得數(shù)據(jù)進(jìn)行歸一化處理, 將所收集的數(shù)據(jù)映射到指定的區(qū)間[0,1]中, 根據(jù)上述過(guò)程利用Matlab語(yǔ)言編程建立BP神經(jīng)網(wǎng)絡(luò)、 對(duì)網(wǎng)絡(luò)初始化并分別對(duì)LMBP網(wǎng)絡(luò)和RBF網(wǎng)絡(luò)進(jìn)行訓(xùn)練, 將表1中實(shí)際測(cè)量所得的數(shù)據(jù)分別作為經(jīng)過(guò)訓(xùn)練后的兩種網(wǎng)絡(luò)的測(cè)試數(shù)據(jù)(數(shù)字式渦流傳感器輸入位移量d變化范圍: 0~1.208 34 mm; 數(shù)字式渦流傳感器輸出頻率f變化范圍: 382.016~393.958 Hz)。LMBP網(wǎng)絡(luò)選擇3層結(jié)構(gòu), 隱層單元數(shù)13個(gè)。RBF網(wǎng)絡(luò)選用高斯函數(shù)作為隱層單元的徑向基函數(shù)。隱層單元數(shù)與輸入的訓(xùn)練樣本數(shù)一致, RBF的中心在輸入樣本中隨機(jī)選取, 參數(shù)C由相鄰樣本數(shù)據(jù)的最大距離確定, 筆者實(shí)驗(yàn)時(shí)C取0.06。當(dāng)網(wǎng)絡(luò)平方和誤差取為0.000 1時(shí), 采用上述學(xué)習(xí)算法, 其性能對(duì)比如表1所示。

        表1 LMBP網(wǎng)絡(luò)與RBF網(wǎng)絡(luò)擬合結(jié)果

        圖1和圖2分別是LMBP網(wǎng)絡(luò)和RBF網(wǎng)絡(luò)的訓(xùn)練誤差變化曲線(xiàn)。從圖1和圖2可看出, 若目標(biāo)精度為0.000 1, LMBP網(wǎng)絡(luò)經(jīng)過(guò)66個(gè)周期才達(dá)到所需精度, 而RBF神經(jīng)網(wǎng)絡(luò)只需要28個(gè)周期, 可見(jiàn)RBF網(wǎng)絡(luò)的收斂速度遠(yuǎn)高于LMBP網(wǎng)絡(luò)。

        圖1 LMBP網(wǎng)絡(luò)訓(xùn)練誤差變化曲線(xiàn) 圖2 RBF網(wǎng)絡(luò)訓(xùn)練誤差變化曲線(xiàn)

        圖3是兩種網(wǎng)絡(luò)在各測(cè)量點(diǎn)的相對(duì)誤差變化曲線(xiàn)。由圖3可看出RBF網(wǎng)絡(luò)比LMBP網(wǎng)絡(luò)收斂快, 擬合誤差比LMBP網(wǎng)絡(luò)小。由于LMBP網(wǎng)絡(luò)隱層激活函數(shù)是全局的, 如果要進(jìn)一步提高擬合精度, 可以通過(guò)增加隱層單元數(shù)或選擇多個(gè)隱層結(jié)構(gòu)網(wǎng)絡(luò)的方法, 但這樣很容易導(dǎo)致擬合的局部振蕩, 會(huì)影響網(wǎng)絡(luò)的泛化能力。相比之下, RBF網(wǎng)絡(luò)對(duì)測(cè)試數(shù)據(jù)幾乎達(dá)到了完全逼近, 只有最后的幾個(gè)測(cè)試數(shù)據(jù)有較小誤差, 但誤差不超過(guò)0.524 1%; LMBP網(wǎng)絡(luò)有較大誤差, 且誤差波動(dòng)較大, 其最大殘差不超過(guò)0.701 5%。

        LMBP網(wǎng)絡(luò)與RBF網(wǎng)絡(luò)對(duì)于某渦流傳感器的輸入、 輸出測(cè)量數(shù)據(jù)的擬合效果如圖4所示。經(jīng)分析可發(fā)現(xiàn)兩種都實(shí)現(xiàn)了對(duì)某渦流傳感器測(cè)量數(shù)據(jù)的擬合。RBF網(wǎng)絡(luò)基本上和測(cè)量點(diǎn)數(shù)據(jù)完全吻合, 而LMBP網(wǎng)絡(luò)則在多個(gè)函數(shù)段上有不吻合現(xiàn)象, 且RBF網(wǎng)絡(luò)擬合曲線(xiàn)更平滑。因此RBF網(wǎng)絡(luò)在整體擬合效果上也要優(yōu)于LMBP網(wǎng)絡(luò)。LMBP網(wǎng)絡(luò)與RBF網(wǎng)絡(luò)性能對(duì)比結(jié)果由表2所示, 在對(duì)某渦流傳感器的測(cè)量數(shù)據(jù)進(jìn)行擬合時(shí), RBF網(wǎng)絡(luò)的綜合性能較LMBP網(wǎng)絡(luò)更為優(yōu)越。

        圖3 測(cè)量點(diǎn)相對(duì)誤差變化曲線(xiàn) 圖4 LMBP網(wǎng)絡(luò)與RBF網(wǎng)絡(luò)對(duì)于某 渦流傳感器的擬合效果

        表2 LMBP網(wǎng)絡(luò)與RBF網(wǎng)絡(luò)性能對(duì)比結(jié)果

        4 結(jié) 語(yǔ)

        利用神經(jīng)網(wǎng)絡(luò)的非線(xiàn)性映射關(guān)系可實(shí)現(xiàn)任意數(shù)據(jù)的函數(shù)逼近且無(wú)需知道數(shù)據(jù)的數(shù)學(xué)模型。LMBP網(wǎng)絡(luò)和RBF網(wǎng)絡(luò)對(duì)訓(xùn)練樣本均有很高的擬合精度, 但RBF網(wǎng)絡(luò)的精度稍高于LMBP網(wǎng)絡(luò), 幾乎達(dá)到了完全逼近, 而且設(shè)計(jì)更方便, 網(wǎng)絡(luò)可以自動(dòng)增加神經(jīng)元直到滿(mǎn)足精度要求為止。當(dāng)訓(xùn)練樣本過(guò)多時(shí), RBF網(wǎng)絡(luò)的結(jié)構(gòu)過(guò)于龐大, 從而運(yùn)算量也有所增加, 復(fù)雜程度會(huì)隨之增大, 而LMBP網(wǎng)絡(luò)則不會(huì)出現(xiàn)此問(wèn)題, 這時(shí)選用網(wǎng)絡(luò)能更好地滿(mǎn)足工程需要。LMBP網(wǎng)絡(luò)在訓(xùn)練過(guò)程中需要對(duì)網(wǎng)絡(luò)的所有權(quán)值和閾值進(jìn)行修正, 是全局逼近網(wǎng)絡(luò), 訓(xùn)練速度較慢, 所以在對(duì)實(shí)時(shí)性較高的場(chǎng)合不宜用LMBP網(wǎng)絡(luò)擬合渦流傳感器特性曲線(xiàn)。RBF網(wǎng)絡(luò)是利用高斯函數(shù)對(duì)非線(xiàn)性輸入輸出映射進(jìn)行局部逼近, 對(duì)每個(gè)訓(xùn)練樣本只需要對(duì)少量的權(quán)值和閾值進(jìn)行修正, 訓(xùn)練速度很快。所以, RBF網(wǎng)絡(luò)適宜應(yīng)用于實(shí)時(shí)仿真計(jì)算、 實(shí)時(shí)控制等對(duì)時(shí)間要求比較高的場(chǎng)合。在測(cè)試數(shù)據(jù)較容易獲取的情況下, 要盡可能地將測(cè)試點(diǎn)范圍劃分更細(xì)些, 這樣局部擬合計(jì)算精度將更進(jìn)一步提高。

        參考文獻(xiàn):

        [1]蔣良孝, 李超群. 基于BP神經(jīng)網(wǎng)絡(luò)的函數(shù)逼近方法及其MATLAB實(shí)現(xiàn) [J]. 微型機(jī)與應(yīng)用, 2004, 23(1): 52-53.

        JIANG Liang-xiao, LI Chao-qun. Function Approach Method Based on BP Neural and Its Implement with MATLAB [J]. Microcomputer & Its Applications, 2004, 23(1): 52-53.

        [2]余妹蘭, 匡芳君. BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的改進(jìn)及應(yīng)用 [J]. 沈陽(yáng)農(nóng)業(yè)大學(xué)學(xué)報(bào), 2011, 42(3): 382-384.

        YU Mei-lan, KUANG Fang-jun. Improved Learning Algorithms for BP Neural Network and Application [J]. Journal of Shenyang Agricultural University, 2011, 42(3): 382-384.

        [3]賀清碧. BP神經(jīng)網(wǎng)絡(luò)及應(yīng)用研究 [D]. 重慶: 重慶交通大學(xué)信息科學(xué)與工程學(xué)院, 2004.

        HE Qing-bi. Back Propagation Neural Network and Applications [D]. Chongqing: College of Information Science and Engineering, Chongqing Jiaotong University, 2004.

        [4]史步海, 朱學(xué)峰. LMBP神經(jīng)網(wǎng)絡(luò)改進(jìn)算法的研究 [J]. 控制工程, 2008, 15(2): 164-167.

        SHI Bu-hai, ZHU Xue-feng. On Improved Algorithm of LMBP Neural Networks [J]. Control Engineering of China, 2008, 15(2): 164-167.

        [5]WANG Wei-peng. An Inventory Optimization Model Based on BP Neutral Network [C]∥2011 2nd IEEE International Conference on Software Engineering and Service Science. Beijing, China: IEEE, 2011: 415-418.

        [6]李業(yè)麗, 馮超, 陸利坤. 一種基于共軛梯度的LMBP改進(jìn)學(xué)習(xí)算法 [J]. 計(jì)算機(jī)工程與應(yīng)用, 2008, 44(21): 106-108.

        LI Ye-li, FENG Chao, LU Li-kun. Improved Learning Algorithm for LMBP Based on Conjugate Gradient Methods [J]. Computer Engineering and Applications, 2008, 44(21): 106-108.

        [7]王彥, 劉宏立, 楊珂. LMBP神經(jīng)網(wǎng)絡(luò)PID控制器在暖通空調(diào)系統(tǒng)中的應(yīng)用研究 [J]. 湖南大學(xué)學(xué)報(bào): 自然科學(xué)版, 2010, 37(3): 49-52.

        WANG Yan, LIU Hong-li, YANG Ke. Study on Application of LMBP Neural Network PID Controller in HVAC System [J]. Journal of Hunan University: Natural Sciences, 2010, 37(3): 49-52.

        [8]郭新辰, 吳希, 陳書(shū)坤, 等. 基于RBFNN和PSO求解第二類(lèi)Volterra積分方程的混合方法 [J]. 吉林大學(xué)學(xué)報(bào): 理學(xué)版, 2010, 48(5): 488-491.

        GUO Xin-chen, WU Xi, CHEN Shu-kun, et al. Hybird Method Based on RBFNN and PSO for Solving Linear Volterra Integral Equations of the Second Kind[J]. Journal of Jilin University: Science Edition, 2010, 48(4): 658-661.

        [9]張一農(nóng), 劉伯龍, 王文婷. 基于神經(jīng)網(wǎng)絡(luò)的客服中心話(huà)務(wù)量預(yù)測(cè)模型 [J]. 吉林大學(xué)學(xué)報(bào): 信息科學(xué)版, 2011, 29(2): 98-101.

        ZHANG Yi-nong, LIU Bo-long, WANG Wen-ting. Neural Network Based Traffic Prediction Model of Customer Service Center [J]. Journal of Jilin University: Information Science Edition, 2011, 29(2): 98-101.

        [10]孫丹, 萬(wàn)里明, 孫延風(fēng), 等. 一種改進(jìn)的RBF神經(jīng)網(wǎng)絡(luò)混合學(xué)習(xí)算法 [J]. 吉林大學(xué)學(xué)報(bào): 理學(xué)版, 2010, 48(5): 817-822.

        SUN Dan, WAN Li-ming, SUN Yan-feng, et al. An Improved Hybrid Learning Algorithm for RBF Neural Network [J]. Journal of Jilin University: Science Edition, 2010, 48(5): 817-822.

        [11]李彬. 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法研究 [D]. 威海: 山東大學(xué)威海分校信息工程學(xué)院, 2005.

        LI Bin. Research on Learning Algorithms of Radial Basis Function Neural Networks [D]. Weihai: School of Information Engineering, Shandong University at Weihai, Shandong University, 2005.

        [12]劉延喜, 李忠范. RBF神經(jīng)網(wǎng)絡(luò)非對(duì)稱(chēng)損失改進(jìn)及應(yīng)用 [J]. 吉林大學(xué)學(xué)報(bào): 信息科學(xué)版, 2010, 28(5): 488-491.

        LIU Yan-xi, LI Zhong-fan. Improving RBF Neural Network under Asymmetric Loss and Its Application [J]. Journal of Jilin University: Information Science Edition, 2010, 28(5): 488-491.

        [13]劉瑞年. 汽車(chē)銷(xiāo)售預(yù)測(cè)模型應(yīng)用研究 [D]. 武漢: 武漢理工大學(xué)管理學(xué)院, 2009.

        LIU Rui-nian. A Research on the Implement of Automobile Sales Forecast Models [D]. Wuhan: School of Management, Wuhan University of Technology, 2009.

        [14]李濤, 伯曉晨. MATLAB工具箱應(yīng)用指南 [M]. 北京: 電子工業(yè)出版社, 2000.

        LI Tao, BO Xiao-chen. MATLAB Toolbox Application Guide [M]. Beijing: Publishing House of Electronics Industry, 2000.

        [15]王曉茹. 影響徑向基神經(jīng)網(wǎng)絡(luò)分類(lèi)性能的因素 [J]. 吉林大學(xué)學(xué)報(bào): 信息科學(xué)版, 2009, 27(2): 191-194.

        WANG Xiao-ru. Influencing Element of RBFN’s Classification Performance [J]. Journal of Jilin University: Information Science Edition, 2009, 27(2): 191-194.

        91久久精品一区二区喷水喷白浆| 特级毛片爽www免费版| 国产欧美精品一区二区三区四区| 中文字幕一区日韩精品| 日韩av高清在线观看| 国产aⅴ无码专区亚洲av| 大肉大捧一进一出视频出来呀| 久青草久青草视频在线观看| 久久久久无码国产精品不卡| 九九精品无码专区免费| 午夜久久精品国产亚洲av| 亚洲妇女av一区二区| 亚洲中文字幕第一页免费| 第一次处破女18分钟高清| 国产亚洲一本大道中文在线| 天美麻花果冻视频大全英文版| 91久国产在线观看| 在线观看av不卡 一区二区三区| 国产三级精品av在线| 国产成人精品免费久久久久 | 美腿丝袜美腿国产在线| av手机在线观看不卡| 在线看片免费人成视频电影| 欧美精品一区二区性色a+v| 日本专区一区二区三区| 久久精品国产黄片一区| 把女人弄爽特黄a大片| 亚洲精品92内射| 亚洲欧美日韩国产精品一区| 亚洲av毛片在线播放| 色欲人妻aaaaaaa无码| 抽搐一进一出试看60秒体验区| 久久久调教亚洲| 男人的天堂av你懂得| 国产精品亚洲专区无码不卡| 凹凸在线无码免费视频| 午夜tv视频免费国产区4| 男女后入式在线观看视频| 国产裸体美女永久免费无遮挡 | 国产乱人偷精品人妻a片| 国产亚洲精品aaaaaaa片|