亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        有混合數(shù)據(jù)輸入的自適應模糊神經(jīng)推理系統(tǒng)

        2019-10-14 06:45:46張宇獻郭佳強錢小毅王建輝
        自動化學報 2019年9期
        關鍵詞:規(guī)則分類模型

        張宇獻 郭佳強 錢小毅 王建輝

        隨著全球數(shù)據(jù)量出現(xiàn)爆炸式增長,數(shù)據(jù)成了當今社會增長最快的資源之一.如何對大量復雜數(shù)據(jù)進行分析和挖掘,從中提取有價值的知識用于決策,已經(jīng)成為學術界和產(chǎn)業(yè)界廣泛關注的問題[1?2].在各行業(yè)中數(shù)據(jù)分析與數(shù)據(jù)建模仍有許多核心技術問題有待解決[3?4].如商業(yè)金融領域,電子商務企業(yè)通過對所銷售產(chǎn)品的類別以及客戶的瀏覽行為進行數(shù)據(jù)分析,進而精準把握客戶的購買意圖,其中數(shù)據(jù)信息中既包含數(shù)量、單價這樣的數(shù)值信息,又包含商品種類、屬性這樣的非數(shù)值信息.銀行金融企業(yè)對儲戶分類進行分析,根據(jù)客戶特點對其設計不同的金融管理方案,其中數(shù)據(jù)信息中既包含賬戶余額、資金流量這樣的數(shù)值信息,也包含儲戶年齡區(qū)間、職業(yè)、性別等非數(shù)值信息.又如工業(yè)生產(chǎn)領域,鋼鐵行業(yè)煉鋼過程通過生產(chǎn)工藝參數(shù)建立生產(chǎn)過程數(shù)據(jù)模型對產(chǎn)量、產(chǎn)品質量、能耗等指標進行估計,其中工藝參數(shù)中既包含氧氣壓力、流量等數(shù)值數(shù)據(jù),也包含造渣原料種類(如石灰、白云石和螢石等)帶有分類性質的非數(shù)值數(shù)據(jù).汽車行業(yè)電動汽車電池管理系統(tǒng)通過電池組運行數(shù)據(jù)對電池組狀態(tài)和汽車續(xù)航里程進行估計,其中既包含電流、電壓、內(nèi)阻、溫度等數(shù)值數(shù)據(jù),也包含電池結構、電池類型等非數(shù)值數(shù)據(jù).再如醫(yī)療領域中,醫(yī)療輔助診斷借助醫(yī)院綜合管理信息系統(tǒng)數(shù)據(jù)進行大數(shù)據(jù)挖掘給出患者的診斷和治療方案建議,其中醫(yī)學數(shù)據(jù)中既包含化驗結果、基因數(shù)據(jù)等數(shù)值數(shù)據(jù),同時也包含波形信號、圖像、文字等非數(shù)值數(shù)據(jù).上述領域中普遍存在一個共同特點,即數(shù)據(jù)信息中同時包含數(shù)值/非數(shù)值兩類數(shù)據(jù)(這里我們將非數(shù)值數(shù)據(jù)統(tǒng)稱為分類數(shù)據(jù)).

        然而,現(xiàn)有數(shù)據(jù)建模方法大多依賴于定量的數(shù)值信息,難以加入定性的分類信息.對此國內(nèi)外學者進行了大膽的嘗試,并取得了一些進展.Jacobs等[5]利用多個獨立網(wǎng)絡子模型構建組合模型,采用有監(jiān)督學習對模型參數(shù)進行訓練.其子模型中僅包含數(shù)值變量,各子模型由分類變量組合成完整數(shù)據(jù)模型.但當分類屬性值較多時,不同分類變量的組合排序將呈幾何倍數(shù)增長.Lee 等[6]構建了多個參數(shù)的組合模型,每個子模型輸入僅有數(shù)值數(shù)據(jù).該方法采用1-out-of-n編碼,把子模型中分類數(shù)據(jù)編碼為一個數(shù)值向量,然后把該向量導入神經(jīng)網(wǎng)絡.然而當訓練數(shù)據(jù)分布不均勻時無法精確描述模型.Brouwer[7?8]提出基于多層感知機(Multi layer perception,MLP)結構的改進神經(jīng)網(wǎng)絡模型,該模型由多感知機和多輸出編碼器單元組成.模型輸入為數(shù)值變量,由分類變量決定最終模型輸出,即每一個輸出單元對應一個分類輸入變量組合.該方法適用于分類變量較少的數(shù)據(jù)建模問題,當分類變量數(shù)量較大時該方法訓練結構參數(shù)的時間較長.Reydel-Castillo 等[9]提出一種模糊極小極大神經(jīng)網(wǎng)絡,由模糊超立方體聚集形成的集合體定義模糊集,模糊超立方體的極大點作為模糊操作算子,并利用改進模糊極小極大神經(jīng)網(wǎng)絡模型結構實現(xiàn)數(shù)值/分類混合屬性數(shù)據(jù)建模.但由于神經(jīng)網(wǎng)絡的黑箱結構,模型的輸入輸出映射關系難以解釋.Hsu[10]采用自組織神經(jīng)網(wǎng)絡(Self-organizing map,SOM)結構,通過定義分類數(shù)據(jù)之間的距離把分類數(shù)據(jù)轉化為數(shù)值數(shù)據(jù).張宇獻等[11]以自組織映射神經(jīng)網(wǎng)絡為框架,采用基于樣本概率的異構值差度量混合屬性數(shù)據(jù)的相異性.利用分類特征項在Voronoi 集合中出現(xiàn)頻率作為分類屬性數(shù)據(jù)參考向量更新規(guī)則的基礎,通過混合更新規(guī)則實現(xiàn)數(shù)值屬性和分類屬性數(shù)據(jù)規(guī)則的更新.

        盡管上述研究工作在數(shù)值/分類混合的數(shù)據(jù)建模中做出了積極貢獻,但對于數(shù)值/分類混合的數(shù)據(jù)建模研究中仍有一些難點問題尚未得到很好的解決,具體體現(xiàn)在以下幾方面:1)多個分類變量采用排列組合方式參與數(shù)值數(shù)據(jù)計算時,不同分類變量的組合排序將呈幾何倍數(shù)增長;2)按分類變量建立多個子模型,各子模型訓練數(shù)據(jù)分布不均勻;3)將分類變量轉化為二進制數(shù)或定義成數(shù)值變量,參與計算時易出現(xiàn)大數(shù)吃小數(shù)現(xiàn)象;4)分類數(shù)據(jù)轉化為數(shù)值數(shù)據(jù)的過程,忽略了各變量值之間內(nèi)在的分類或約束關系.

        針對上述問題,Liu 等[12]提出帶分類輸入的自適應模糊推理系統(tǒng)(Adaptive network-based fuzzy inference system with categorical inputs,C-ANFIS)結構,將激勵強度轉移矩陣(Firingstrength transform matrix,FTM)引入自適應模糊推理系統(tǒng)(Adaptive network-based fuzzy inference system,ANFIS)中,把分類數(shù)據(jù)對規(guī)則的影響作用到規(guī)則前件的激勵強度上.該方法一定程度上取得了不錯的效果,但它卻存在自身不足:CANFIS 只考慮分類數(shù)據(jù)對規(guī)則前件的影響,而對規(guī)則后件并未做任何處理.基于以上分析,本文提出了一種具有混合數(shù)據(jù)輸入的自適應模糊推理系統(tǒng)

        (Adaptive network-based fuzzy inference system with mixed data inputs,MDI-ANFIS)模型.該模型在標準ANFIS 結構基礎上,引入激勵強度轉移矩陣和后件影響矩陣(Consequent influence matrix,CIM),通過后件影響矩陣把分類數(shù)據(jù)對模糊規(guī)則后件的影響作用到ANFIS 上,使分類數(shù)據(jù)對整個模糊規(guī)則產(chǎn)生影響,并提出適應MDI-ANFIS 結構的參數(shù)學習算法.同時,針對MDI-ANFIS 結構辨識問題,給出了基于高氏距離的減法聚類算法,通過在減法聚類中引入混合型數(shù)據(jù)的高氏距離來確定MDI-ANFIS 的模糊規(guī)則數(shù)和規(guī)則前后件的初始參數(shù).

        1 MDI-ANFIS 模型

        1.1 MDI-ANFIS 的網(wǎng)絡結構

        學者Jang 于1993 年提出了ANFIS[13],它融合了神經(jīng)網(wǎng)絡的學習機制和模糊系統(tǒng)的語言推理能力等優(yōu)點,彌補各自不足,屬于神經(jīng)模糊系統(tǒng)的一種.ANFIS 能夠以任意精度逼近非線性函數(shù),具有便捷高效的特點,并已在多個領域取得了成功應用[14?18].

        然而,標準的ANFIS 結構只針對數(shù)值數(shù)據(jù)輸入,當輸入有分類數(shù)據(jù)時利用標準ANFIS 建模將變得不再適合.例如,針對混合數(shù)據(jù)的自適應神經(jīng)模糊推理建模問題,假設ANFIS 中的第l條規(guī)則有2 個數(shù)值輸入和1 個分類輸入,其規(guī)則描述如下:

        其中,x1和x2是數(shù)值數(shù)據(jù)輸入,xC是分類數(shù)據(jù)輸入,是第l條規(guī)則對應的模糊子集,yl是第l條規(guī)則的后件輸出.

        因為xC是分類數(shù)據(jù),在規(guī)則中的和不能直接計算.

        針對這個問題,本文提出一種具有混合數(shù)據(jù)輸入的自適應模糊推理系統(tǒng)(MDI-ANFIS)模型,它在C-ANFIS 的基礎上,引入后件影響矩陣,使分類數(shù)據(jù)對規(guī)則前件和后件同時產(chǎn)生影響,使得其對混合數(shù)據(jù)輸入作用更加完善.

        圖1 是一個多輸入單輸出的MDI-ANFIS 結構圖,其對應的第l條模糊規(guī)則為:

        其中,xN=(x1,x2,···,xn)T為數(shù)值數(shù)據(jù)輸入,為分類數(shù)據(jù)輸入,n為數(shù)值輸入變量個數(shù),m為分類輸入變量個數(shù).為第i個數(shù)值輸入對應的第j個模糊子集(為了表述方便在圖1 中取j=1,2),s為分類數(shù)據(jù)的編碼向量,為第l條規(guī)則的后件參數(shù),pl為分類數(shù)據(jù)對第l條規(guī)則的后件影響,yl為第l條規(guī)則的后件輸出,l=1,2,···,L,L為規(guī)則數(shù).

        MDI-ANFIS 網(wǎng)絡結構分為6 層:輸入層、規(guī)則層、正規(guī)化層、混合激勵層、結論層和輸出層,具體各層的輸出為:

        第1 層:輸入層,該層的節(jié)點執(zhí)行模糊化操作,把數(shù)值輸入轉化為模糊子集的隸屬度值.各節(jié)點的輸出可表示為

        其中,μAij(xi)為輸入變量xi的第j個模糊子集的隸屬度函數(shù),當取高斯隸屬度函數(shù)時,其表達式為:

        圖1 MDI-ANFIS 結構Fig.1 Structure of MDI-ANFIS

        其中,{cij,σij}(i=1,2,···,n,j=1,2)為模糊規(guī)則的前件參數(shù)集.

        第2 層:規(guī)則層,該層節(jié)點執(zhí)行規(guī)則前件數(shù)值變量的模糊與運算,計算出第l條規(guī)則數(shù)值變量的激勵強度:

        第3 層:正規(guī)化層,正規(guī)化規(guī)則層的激勵強度.該層節(jié)點的輸出為:

        第4 層:混合激勵層,該層節(jié)點計算分類數(shù)據(jù)和數(shù)值數(shù)據(jù)對每條規(guī)則的激勵強度.各節(jié)點在該層的輸出為:

        其中,fl為分類數(shù)據(jù)的編碼向量經(jīng)激勵強度轉移矩陣T得到的第l條規(guī)則上的分類激勵值,fl=s·Tl,s為分類數(shù)據(jù)的編碼向量,Tl為激勵強度轉移矩陣T的第l列.

        第5 層:結論層,該層計算每條規(guī)則的輸出.各節(jié)點函數(shù)是一個線性函數(shù),各節(jié)點輸出為:

        其中,pl為分類數(shù)據(jù)通過后件影響矩陣I得到的分類數(shù)據(jù)對每條規(guī)則的后件影響值,pl=s·Il,Il為后件影響矩陣I的第l列.

        第6 層:輸出層,計算整個MDI-ANFIS 的輸出:

        1.2 MDI-ANFIS 的參數(shù)學習

        假設有K個訓練樣本點xk和sk(k=1,2,···,K)分別為第k個樣本點的數(shù)值輸入向量和分類編碼向量,其中xk=(x1k,x2k,···,xik,···,xnk),xik為第i個數(shù)值變量在第k個樣本上的取值.Yk為第k個樣本點的訓練輸出值,為第k個樣本點的期望輸出值.對于單個樣本點的MDI-ANFIS 的輸出誤差為

        整個訓練樣本集的輸出誤差為:

        參數(shù)學習的目的是通過訓練MDI-ANFIS 中的參數(shù)使總誤差E達到最小.假定系統(tǒng)輸入為第k個樣本點,其輸出為:

        這里把所有由Cl元素組成的參數(shù)集合稱為后件參數(shù)集Pc,所有由Il元素組成的參數(shù)集合稱為后件影響矩陣參數(shù)集Pi.

        將式(10)兩邊同時乘以[(zk)T·zk]?1·(zk)T,可以得到:

        式(11)表明[(zk)T·zk]?1·(zk)T·Yk通過Q與H(xk,sk)成線性關系,而Q包含后件參數(shù)和后件影響矩陣參數(shù),因此Pc和Pi可以通過最小二乘估計(Least squares estimation,LSE)得到.

        同理,在第k個樣本點下的輸出:yL(xk,sk)]T,Tl為激勵強度轉移矩陣T的第l列參數(shù)向量.

        這里稱由所有Tl元素組成的參數(shù)集合為激勵強度轉移矩陣參數(shù)集Pt.

        將式(12)兩邊同時乘以[(sk)T·sk]?1·(sk)T,可以得到:

        其中,

        式(13)表明[(sk)T·sk]?1·(sk)T·Yk通過T與M(xk,sk)成線性關系,因此激勵強度轉移矩陣參數(shù)集Pt也可由LSE 得到.

        以上有關Y k的所有推導中為MDIANFIS 正規(guī)化層的第l個輸出,這里把所有中的參數(shù)組成的集合稱為前件參數(shù)集Pp,它可以通過預先固定參數(shù)集Pt、Pc和Pi,然后由反向傳播算法(Back propagation,BP)求得.MDI-ANFIS的參數(shù)學習步驟如表1 所示.

        表1 MDI-ANFIS 混合學習算法Table 1 Hybrid learning algorithm of MDI-ANFIS

        1.3 MDI-ANFIS 的結構辨識

        當輸入ANFIS 的維度不斷增大時,采用傳統(tǒng)的網(wǎng)格劃分會使規(guī)則數(shù)目呈指數(shù)增大,這將不可避免導致維度災難.本文提出了基于高氏距離的減法聚類算法(Gower distance-based subtractive cluster,GDSC)對其進行結構辨識.減法聚類(Subtractive cluster,SC)是一種無需預先確定聚類數(shù)和快速單次的聚類算法,克服了其他聚類算法的計算量隨著輸入維數(shù)的增加而呈指數(shù)增長的不足.然而,減法聚類只適用于對數(shù)值數(shù)據(jù)進行聚類,而對于混合數(shù)據(jù)就顯得無能為力了,同時僅對混合數(shù)據(jù)的數(shù)值部分聚類產(chǎn)生的模糊推理結構也不完備,因為它沒有考慮混合數(shù)據(jù)的分類部分對結構辨識產(chǎn)生的影響.基于以上減法聚類的優(yōu)缺點,GDSC 算法把高氏距離引入到減法聚類公式中.這樣GDSC 算法既充分利用了SC 的優(yōu)勢,又充分考慮到分類數(shù)據(jù)對結構辨識的影響.

        結合文獻[19]和[20],本文定義樣本點Xk和Xr的高氏距離為:

        將式(14)代入到減法聚類公式中得到樣本點的高氏密度

        為排除已被選為聚類中心的附近數(shù)據(jù)作為下一個聚類中心的可能性,將式(15)的減法聚類密度修正為:

        算法1.GDSC 算法

        1.4 MDI-ANFIS 收斂性分析

        本文針對基于MDI-ANFIS 網(wǎng)絡結構的T-S 模糊系統(tǒng),給出收斂性證明[21?22].基于MDI-ANFIS的T-S 模糊系統(tǒng)規(guī)則為:

        其中,xN=(x1,x2,···,xn)T為數(shù)值輸入,xC=為分類輸入,s為分類數(shù)據(jù)的編碼向量,s ∈{s1,s2,···,sG},l=1,2,···,L,j=1,2,···,ni,此處ni為第i個變量的模糊子集個數(shù),L為規(guī)則數(shù),n為數(shù)值輸入變量個數(shù),m為分類輸入變量個數(shù).

        其模糊子系統(tǒng)的規(guī)則為:

        其中,Rlg為分類編碼向量s=sg確定的模糊規(guī)則,lg=1,2,···,Lg.

        這里,flg為子系統(tǒng)第lg條規(guī)則分類數(shù)據(jù)的激勵強度,為子系統(tǒng)第lg條規(guī)則分類數(shù)據(jù)的后件影響值,為子系統(tǒng)第lg條規(guī)則的后件參數(shù).

        定義1.數(shù)值數(shù)據(jù)取值Cn[0,1],分類數(shù)據(jù)取值{s1,s2,···,sG}的φ次n+1 元多項式函數(shù)可以寫為:

        定義2.稱論域U上的一組模糊集Aij(j=1,2,···,ni)是一致的,如果對某些xi0∈U存在使得且對任意υ=1,2,···,ni,以及=j,都有

        假設1.所研究的T-S 模糊系統(tǒng)的每一個數(shù)值輸入變量的模糊子集都是一致的.

        假設2.所研究的T-S 模糊系統(tǒng)采用的隸屬度函數(shù)都是連續(xù)且分段可微的.

        假設3.所研究的T-S 模糊系統(tǒng)的每一個分類輸入sg,sg·Tlg=1,其余=lg,sg·Tl=0.

        基于上述假設,證明基于MDI-ANFIS 網(wǎng)絡結構的T-S 模糊系統(tǒng)具有通用逼近性.

        定理1.基于MDI-ANFIS 網(wǎng)絡結構的T-S 模糊系統(tǒng)能夠以任意精度一致逼近數(shù)值數(shù)據(jù)取值Cn[0,1]上,分類數(shù)據(jù)取值{s1,s2,···,sG}的φ次n+1 元多項式函數(shù)Pφ(xN,xC),即?γ >0,存在T-S 模糊系統(tǒng)使得:

        證明.假設T-S 模糊子系統(tǒng)的每一條規(guī)則Rlg,lg=1,2,···,Lg,它決定了一個特殊數(shù)值輸入矢量xlg=(x1,x2,···,xn)T,每個分量xi(i=1,2,···,n)的取值恰好等于對應的模糊子集Algij的中心點,即

        顯然,對應一個T-S 模糊子系統(tǒng),全部輸入矢量共有Lg個,并且與子系統(tǒng)模糊規(guī)則一一對應的關系,記它們的集合為

        在fT S(xN,xC)中xN=(x1,x2,···,xn)T,并且令x0≡1.設數(shù)值輸入變量xi(i=1,2,···,n)的第j個模糊子集的中心點為歸一化xi(i=1,2,···,n)有不失一般性,設每個中心點處的隸屬度為1,對每一個數(shù)值輸入變量xi(i=1,2,···,n)定義模糊分割間距:

        在此基礎上可以對每個數(shù)值輸入變量xi(i=1,2,···,n)定義最大模糊分割間距:

        注意xN的任意分量xi(i=1,2,···,n),總可以找到下標j ∈{1,2,···,ni+1},使得從而

        引理1.?ζ >0,存在多項式P(x),使得對一切x ∈[a,b]的f(x)成立:

        定理2.基于MDI-ANFIS 網(wǎng)絡結構的T-S 模糊系統(tǒng)能夠以任意精度一致逼近數(shù)值輸入在緊致集U ?Rn上的任意實函數(shù)Ψ(xN,xC),即?δ >0,存在基于MDI-ANFIS 網(wǎng)絡結構的T-S 模糊系統(tǒng)使得:

        證明.根據(jù)引理,在U ?Rn上存在φ次多項式函數(shù)Pφ(xN,sg),一致逼近任意連續(xù)實函數(shù)ψ(xN,sg),即?ζg >0 存在Pφ(xN,sg)使得另一方面,?γg >0,根據(jù)定理1,存在

        2 仿真實驗及結果分析

        為了驗證所建模型的性能,我們將從規(guī)則后件參數(shù)影響分析、結構辨識方法比較以及幾種混合數(shù)據(jù)建模方法預測精度對比幾方面來說明本文所提出的MDI-ANFIS 的優(yōu)越性.

        實驗操作系統(tǒng)為Windows 8.1,仿真軟件為MATLAB 2009b.硬件條件:CPU 為Intel Core I5 2.5 GHz,內(nèi)存為4 GB.

        2.1 后件參數(shù)影響分析

        對于參數(shù)預測問題,文獻[12]提出的C-ANFIS算法把分類數(shù)據(jù)對規(guī)則的影響作用到規(guī)則前件上,但并未考慮其對后件的影響.本文在C-ANFIS 結構上做了改進,提出適用于混合數(shù)據(jù)參數(shù)預測的算法MDI-ANFIS,使混合數(shù)據(jù)中的分類數(shù)據(jù)對規(guī)則的前后件均產(chǎn)生影響.

        這里采用UCI 機器學習庫中的Abalone 數(shù)據(jù)集來訓練C-ANFIS 和MDI-ANFIS 參數(shù),然后預測鮑魚的年齡.Abalone 數(shù)據(jù)集包含4 177 個樣本點,分別記錄了鮑魚的性別、長度、直徑、高度、整體重量、脫皮重量、內(nèi)臟重量、殼重量和年齡屬性值,其中鮑魚的性別是分類屬性數(shù)據(jù),其他變量是數(shù)值屬性數(shù)據(jù).

        表2 給出了兩種算法對比結果,其中平均規(guī)則后件值反映了C-ANFIS 與MDI-ANFIS 對規(guī)則后件結論的影響大小,預測誤差選取均方根誤差作為誤差指標.為了更加體現(xiàn)分類數(shù)據(jù)對規(guī)則后件的影響,我們選取表2 第1 組實驗產(chǎn)生的平均規(guī)則后件值數(shù)據(jù)制作對比柱狀圖見圖2,橫坐標表示本組實驗一共產(chǎn)生9 條規(guī)則,縱坐標記錄了每條規(guī)則的平均輸出值.圖2 非常直觀地顯示出考慮分類數(shù)據(jù)對規(guī)則后件的影響將極大地改變規(guī)則后件大小.表2同時體現(xiàn)出MDI-ANFIS 相較C-ANFIS 能夠有一個更好的預測精度.圖3 是兩種算法的訓練誤差對比,從圖上可以看出隨著訓練周期的增加,兩者的誤差距離正在逐漸拉大.圖4 是訓練后的C-ANFIS模型和MDI-ANFIS 模型對測試樣本點做預測的結果.對比結果顯示相對于C-ANFIS 模型,本文所提出的MDI-ANFIS 模型在后件參數(shù)的影響和預測精度上更具優(yōu)勢.

        2.2 結構辨識對比分析

        圖2 樣本平均規(guī)則后件輸出Fig.2 Average consequent output of samples

        圖3 模型訓練誤差對比Fig.3 Comparison of model training error

        表2 兩種算法的平均規(guī)則后件影響和誤差Table 2 Average consequent influences and errors of two algorithms

        圖4 模型預測結果對比Fig.4 Comparison of model prediction

        MDI-ANFIS 的結構辨識問題對具有高維輸入數(shù)據(jù)的網(wǎng)絡性能具有重要影響,本文提出的GDSC算法,將高氏距離引入到減法聚類中,實現(xiàn)數(shù)值數(shù)據(jù)和分類數(shù)據(jù)同時對初始規(guī)則產(chǎn)生影響,從而完成混合屬性數(shù)據(jù)的ANFIS 結構辨識.實驗采用UCI中的Boston Housing 數(shù)據(jù)集,它包含506 個樣本點,其中11 個數(shù)值屬性和2 個分類屬性,這里把數(shù)值屬性記為NA1~NA11,分類屬性記為CA1和CA2.實驗首先利用SC 算法和GDSC 算法對Boston Housing 數(shù)據(jù)集聚類,然后利用聚類結果產(chǎn)生的規(guī)則作為MDI-ANFIS 的網(wǎng)絡結構,再通過對MDI-ANFIS 進行訓練得出模型來預測波士頓的房價.為了可視化方便,我們選取CA1=1,CA2={1,2,3}的樣本點且使用平行坐標系顯示(其結果見圖5),圖5 通過平行坐標系實現(xiàn)高維混合屬性數(shù)據(jù)的可視化,從圖中我們可以看出減法聚類得到的聚類中心數(shù)是12,聚類中心相對集中,存在一致性的問題.而基于高氏距離減法聚類得到的聚類中心數(shù)是4,且聚類中心位置分布相對比較合理.我們可以發(fā)現(xiàn),GDSC 算法得出的聚類中心數(shù)比SC 算法得到的聚類中心數(shù)顯著減小,且GDSC 算法得到的聚類中心更具代表性.

        表3 從Boston Housing 數(shù)據(jù)集中隨機選取10組樣本集作訓練對結構辨識性能對比,其中規(guī)則數(shù)反映出利用兩種算法做辨識得到的規(guī)則數(shù)目多少,預測誤差反映采用兩種算法作結構辨識時模型的預測精度.通過10 組樣本預測結果比較可以看出,兩種辨識算法的預測誤差平均值較為接近,但GDSC 算法在結構辨識中產(chǎn)生的規(guī)則較少,降低了需要訓練的規(guī)則參數(shù)個數(shù),因此模型的參數(shù)辨識速度相對較快.圖6 是MDI-ANFIS 在第1 組數(shù)據(jù)下采用兩種辨識算法做訓練的模型訓練誤差,圖7 是MDI-ANFIS 模型預測波士頓房價的結果.

        圖5 聚類結果對比圖Fig.5 Comparison of clustering results

        表3 結構辨識性能對比Table 3 Performance comparison of structure identification

        圖6 模型訓練誤差Fig.6 Model training error

        圖7 MDI-ANFIS 模型預測對比Fig.7 Prediction results comparison of MDI-ANFIS

        2.3 模型誤差對比分析

        為了比較分析MDI-ANFIS 模型在混合屬性數(shù)據(jù)建模上的性能,現(xiàn)選取幾種已有混合屬性數(shù)據(jù)建模方法與之對比,對比建模方法說明如下:

        1)ANFIS 模型:采用標準的ANFIS 算法,其中混合屬性數(shù)據(jù)只考慮數(shù)值輸入,而不考慮分類輸入.

        2)帶有數(shù)值轉化的自適應模糊推理系統(tǒng)(Adaptive network-based fuzzy inference system with numeric conversion,N-ANFIS)模型:將分類數(shù)據(jù)轉化為數(shù)值數(shù)據(jù)(如1,2,3,···),然后和數(shù)值輸入一起導入標準的ANFIS 網(wǎng)絡中.

        3)帶有頻率轉化的自適應模糊推理系統(tǒng)(Adaptive network-based fuzzy inference system with frequency conversion,F-ANFIS)模型:通過頻率給分類數(shù)據(jù)賦值,之后與數(shù)值輸入導入ANFIS網(wǎng)絡.

        4)分離多層感知機(Multi-layer perception with separation method,S-MLP)模型:是由Brouwer 提出的混合屬性數(shù)據(jù)預測模型,分類數(shù)據(jù)經(jīng)編碼后與以數(shù)值數(shù)據(jù)做輸入的MLP 的輸出作點乘,產(chǎn)生預測輸出.

        5)C-ANFIS 模型:是由Liu 等提出的CANFIS 混合屬性數(shù)據(jù)預測模型,其分類數(shù)據(jù)經(jīng)激勵強度轉移矩陣作用到ANFIS 結構上.

        6)MDI-ANFIS 模型:本文所提出的混合屬性數(shù)據(jù)預測模型,分類數(shù)據(jù)經(jīng)激勵強度轉移矩陣和后件影響矩陣作用到ANFIS 上.

        對比實驗選取UCI 數(shù)據(jù)庫中的Abalone、Boston Housing、Auto MPG、Servo、TAE、Zoo和Heart Disease 數(shù)據(jù)集,驗證本文提出的算法對不同數(shù)據(jù)集的性能.

        這里對ANFIS、N-ANFIS、F-ANFIS 和CANFIS 模型的結構辨識采用SC 算法;對MDIANFIS 模型的結構辨識采用GDSC 算法,其初始參數(shù)設置為:鄰域半徑表示樣本點Xk和Xr的高氏距離,閾值ε=0.06,最大迭代次數(shù)L=100,訓練周期epoch=50,初始化步長step=0.01,慣性因子gamma=0.75,激勵強度轉移矩陣FTM 和后件影響矩陣CIM 初始化為0~1 區(qū)間的隨機矩陣.而S-MLP 模型設置學習率deta=0.001,訓練周期epoch=1 000,權值矩陣初始化為0~1 區(qū)間的隨機矩陣.

        對比實驗采用十折交叉驗證,選取均方根誤差(Root mean squared error,RMSE)為模型預測誤差的評價指標.

        其中,Yk為第k個樣本點的預測輸出值,為第k個樣本點的期望輸出值,K為樣本點總數(shù).

        實驗過程,記錄每次測試集的RMSE,然后對十次測試得到的RMSE求其平均值,以此來判斷模型對一種數(shù)據(jù)集的預測精度.

        同時,本文還通過誤差降低率(Error reduction rate,ERR)對各模型進行比較,其反映了各模型的RMSE相對原有模型下降的大小,誤差降低率定義為:

        其中,RMSEM是MDI-ANFIS 模型的預測誤差,RMSEother是本文對比的其他混合屬性數(shù)據(jù)建模方法的預測誤差.

        表4 給出UCI 數(shù)據(jù)庫中7 個數(shù)據(jù)集對應不同建模方法的預測誤差以及誤差降低率.通過幾種建模方法的預測誤差和誤差降低率結果對比可以看出,對于不同數(shù)據(jù)集本文所提出的MDI-ANFIS 相對ANFIS、F-ANFIS、S-MLP 和C-ANFIS 具有相對較高的預測精度,僅相對于N-ANFIS 誤差降低率較小.當對比7 個數(shù)據(jù)集的誤差降低率平均值時,N-ANFIS 相對MDI-ANFIS 高出0.203.

        表4 UCI 數(shù)據(jù)集模型誤差對比Table 4 Model error comparison on UCI dataset

        進一步我們對比N-ANFIS 和MDI-ANFIS 的計算時間復雜度,這里我們假設W為訓練周期,K為樣本點個數(shù),n為數(shù)值屬性個數(shù),m為分類屬性個數(shù),L為規(guī)則數(shù),則N-ANFIS 和MDI-ANFIS的時間復雜度分別為O(W ×K×(n+m)×L3)和O(W ×K ×n×L3),因此,在輸入是高維混合屬性數(shù)據(jù)時,MDI-ANFIS 的程序運行效率要高于N-ANFIS.

        3 結論

        本文針對已有混合數(shù)據(jù)模型存在的模型組合隨分類變量呈幾何增長以及子模型訓練數(shù)據(jù)分布不均勻問題,提出一種具有混合數(shù)據(jù)輸入的自適應模糊神經(jīng)推理系統(tǒng)模型.該模型引入激勵強度轉移矩陣和后件影響矩陣,構建新型模糊神經(jīng)網(wǎng)絡結構,使混合屬性數(shù)據(jù)對模糊規(guī)則的前后件同時產(chǎn)生影響.在模型的結構辨識中,將高氏混合距離引入減法聚類,計算混合型樣本點的密度值,克服了經(jīng)典ANFIS 網(wǎng)絡僅適用于數(shù)值數(shù)據(jù)不適用分類數(shù)據(jù)的缺陷.在模型的參數(shù)學習中,使用BP 和LSE 混合學習算法來訓練前件參數(shù)、激勵強度轉移矩陣、后件參數(shù)以及后件影響矩陣.仿真實驗驗證了后件規(guī)則對模型的影響作用,并驗證了結構辨識中采用GDSC 算法能夠以更少的規(guī)則數(shù)達到模型精度要求.最后,選取UCI 數(shù)據(jù)庫中7 組數(shù)據(jù)進行對比實驗,結果表明所提出的具有混合數(shù)據(jù)輸入的自適應模糊神經(jīng)推理系統(tǒng)模型相比其他模型具有更高的預測精度.

        猜你喜歡
        規(guī)則分類模型
        一半模型
        撐竿跳規(guī)則的制定
        數(shù)獨的規(guī)則和演變
        分類算一算
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權M-估計的漸近分布
        分類討論求坐標
        數(shù)據(jù)分析中的分類討論
        讓規(guī)則不規(guī)則
        Coco薇(2017年11期)2018-01-03 20:59:57
        教你一招:數(shù)的分類
        日本a级一级淫片免费观看| 亚洲国产99精品国自产拍| 天堂Av无码Av一区二区三区 | 一个人的视频免费播放在线观看| 国产激情在线观看免费视频| 国模冰莲自慰肥美胞极品人体图| 五月婷婷俺也去开心| 北岛玲日韩精品一区二区三区| 亚洲精品女人天堂av麻| 亚洲一区二区女搞男| 天天躁狠狠躁狠狠躁夜夜躁| 无码毛片高潮一级一免费| 国产视频一区二区三区在线看| 亚洲一区二区二区视频| 性生交大全免费看 | 米奇亚洲国产精品思久久| av在线免费观看大全| 日本免费一区二区在线| 欧美精品色婷婷五月综合| 人妻av中文字幕无码专区| 日韩偷拍一区二区三区视频| 国产精品视频一区二区久久| 精品露脸国产偷人在视频| 天天看片视频免费观看| 探花国产精品三级在线播放| 日本一区二区三区丰满熟女| 婷婷丁香五月激情综合| 女人被做到高潮免费视频| 亚洲情精品中文字幕有码在线| 国产精品国产三级久久| 国精产品推荐视频| 91天堂素人精品系列全集亚洲| 日本一区二区日韩在线| 国产99久久久国产精品~~牛| 黄色视频免费在线观看| 成年人免费黄色h网| 中文字幕乱码亚洲在线| 亚洲中文字幕久久无码精品| 国产999视频| 99亚洲女人私处高清视频| 精品乱人伦一区二区三区|