亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度學習模型的無線傳感器網(wǎng)絡(luò)數(shù)據(jù)融合算法*

        2014-09-06 10:48:05邱立達劉天鍵黃章超
        傳感技術(shù)學報 2014年12期
        關(guān)鍵詞:特征提取神經(jīng)網(wǎng)絡(luò)分類

        邱立達,劉天鍵,林 南,黃章超

        (1.閩江學院物理學與電子信息工程系,福州 350108;2.廈門理工學院光電與通信工程學院,福建 廈門 361024)

        ?

        基于深度學習模型的無線傳感器網(wǎng)絡(luò)數(shù)據(jù)融合算法*

        邱立達1*,劉天鍵1,林 南1,黃章超2

        (1.閩江學院物理學與電子信息工程系,福州 350108;2.廈門理工學院光電與通信工程學院,福建 廈門 361024)

        為了在無線傳感器網(wǎng)絡(luò)中提高數(shù)據(jù)融合性能,基于深度學習模型,提出一種將層疊自動編碼器(SAE)和分簇協(xié)議相結(jié)合的數(shù)據(jù)融合算法SAEMDA,該算法在各個簇內(nèi)構(gòu)建特征提取分類模型SAEM,通過SAEM對節(jié)點數(shù)據(jù)進行特征提取和分類,之后將同類特征融合并發(fā)送給匯聚節(jié)點。SAEM的訓練既可以采用離線有監(jiān)督學習也可以采用在線無監(jiān)督學習。仿真實驗表明:和BPFDA,SOFMDA算法相比,SAEMDA在網(wǎng)絡(luò)能耗大致相當?shù)那闆r下能將數(shù)據(jù)融合正確率提高最多7.5%。

        無線傳感器網(wǎng)絡(luò);數(shù)據(jù)融合;深度學習;自動編碼器

        1 相關(guān)工作

        無線傳感器網(wǎng)絡(luò)(WSN)數(shù)據(jù)融合技術(shù)能有效去除數(shù)據(jù)冗余性,減少通信開銷從而降低能耗,延長網(wǎng)絡(luò)壽命,因此成為WSN中的重要研究課題之一。目前已提出了多種WSN數(shù)據(jù)融合方法,如文獻[1]使用遺傳算法尋找傳感器數(shù)據(jù)融合節(jié)點序列的最優(yōu)路徑,有效減少了網(wǎng)絡(luò)能耗和傳輸延時,但未解決數(shù)據(jù)本身的冗余性問題。文獻[2]通過在分簇結(jié)構(gòu)的簇首中對節(jié)點數(shù)據(jù)進行PCA降維達到數(shù)據(jù)融合的目的,其缺點是簇首需周期性的對所有數(shù)據(jù)進行PCA運算,開銷大,實時性差且PCA的非線性映射能力不佳。文獻[3]提出中介真值度度量的動態(tài)多節(jié)點數(shù)據(jù)加權(quán)融合,算法簡單,實時性好,但是未考慮不同類型數(shù)據(jù)間的差異性。

        近年來,鑒于神經(jīng)網(wǎng)絡(luò)和WSN的相似性使其成為數(shù)據(jù)融合算法的研究重點[4-6],該類方法通過神經(jīng)網(wǎng)絡(luò)對節(jié)點數(shù)據(jù)進行特征提取分類并融合同類特征,在降低數(shù)據(jù)通信量的同時能夠保留原始數(shù)據(jù)的關(guān)鍵信息。文獻[5]提出的BPNDA是該類算法的典型代表,BPNDA將BP神經(jīng)網(wǎng)絡(luò)與分簇協(xié)議結(jié)合,先在匯聚節(jié)點訓練BP網(wǎng)絡(luò),之后將網(wǎng)絡(luò)參數(shù)發(fā)送給各簇的簇首和簇節(jié)點用于構(gòu)造BP神經(jīng)網(wǎng)絡(luò)模型來對節(jié)點原始數(shù)據(jù)進行特征提取和分類融合,BPNDA能有效提高數(shù)據(jù)融合效率,降低網(wǎng)絡(luò)能耗,但是在訓練樣本不含標簽信息時BP網(wǎng)絡(luò)將無法訓練。文獻[7]提出基于SOFM神經(jīng)網(wǎng)絡(luò)的SOFMDA算法,SOFMDA對網(wǎng)絡(luò)分簇后在簇首訓練SOFM并通過SOFM對接收到的節(jié)點數(shù)據(jù)進行特征提取和分類融合。作為無監(jiān)督神經(jīng)網(wǎng)絡(luò),SOFM不要求訓練樣本包含標簽信息。目前在神經(jīng)網(wǎng)絡(luò)驅(qū)動的數(shù)據(jù)融合算法中主要使用單隱層BP神經(jīng)網(wǎng)絡(luò),SOFM神經(jīng)網(wǎng)絡(luò)等傳統(tǒng)淺層模型,它們的非線性映射能力與對復雜數(shù)據(jù)的特征表示能力較弱,直接影響了數(shù)據(jù)融合的效果,與之相比,深層模型能更好的逼近復雜函數(shù),泛化能力和數(shù)據(jù)特征表示能力更強,但是其非凸損失函數(shù)局部極值多,訓練容易陷入局部極小,以多隱層BP神經(jīng)網(wǎng)絡(luò)為例傳統(tǒng)訓練方法的效果已很不理想[8],因此在深度學習技術(shù)出現(xiàn)前,深層模型的應用受到了較大制約。2006年Hinton等提出可以通過無監(jiān)督貪婪算法對深層模型逐層訓練(這種訓練方法有效解決了深層結(jié)構(gòu)的優(yōu)化難題[9])并基于此思想提出了深信度網(wǎng)絡(luò)[10]。此后層疊降噪自動編碼器[11]、DCN[12]、Sum-product[13]等深度學習模型被陸續(xù)提出并在各個領(lǐng)域[14-16]取得巨大成功。

        迄今深度學習技術(shù)在WSN中的應用尚鮮有報道,本文將層疊自動編碼器(SAE)和分類器級聯(lián),設(shè)計了一種基于深度學習的特征提取分類模型SAEM。SAEM采用貪婪算法逐層無監(jiān)督訓練,當訓練樣本包含標簽信息時還可通過有監(jiān)督“微調(diào)”進一步優(yōu)化參數(shù),有效克服了傳統(tǒng)深層模型訓練方法的不足,和當前廣泛使用的淺層特征提取分類模型相比具有更優(yōu)異的性能。之后將SAEM和分簇協(xié)議結(jié)合提出了一種新的數(shù)據(jù)融合算法SAEMDA,SAEMDA對網(wǎng)絡(luò)分簇后在各簇內(nèi)通過訓練好的SAEM對節(jié)點數(shù)據(jù)進行特征提取和分類融合,與使用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型的BPNDA,SOFMDA相比,SAEMDA在降低網(wǎng)絡(luò)能耗的同時對于節(jié)點數(shù)據(jù)具有更高的數(shù)據(jù)融合正確率。

        2 深度學習模型

        基于深度學習的層疊自動編碼器(SAE)能有效提取數(shù)據(jù)低維特征,是本文提出的特征提取分類模型SAEM的重要組成部分,下面介紹其原理。

        2.1 自動編碼器

        自動編碼器AE(AutoEncoder)是一種單隱層無監(jiān)督學習神經(jīng)網(wǎng)絡(luò)(如圖1(a)),AE通過尋求最優(yōu)參數(shù)(W,b)使得輸出y盡可能地重構(gòu)輸入x,此時隱藏層輸出a(k,2)可看作是x降維后的低維特征。為了使隱藏層輸出特征更加稀疏魯棒,AE的損失函數(shù)中包括輸入輸出均方誤差約束,權(quán)值衰減約束和稀疏性約束3個部分:

        (1)

        AE通過梯度下降算法來訓練網(wǎng)絡(luò)參數(shù)使得損失函數(shù)最小化,主要步驟如下:

        Step2對于i=1到m,計算:

        Step3更新參數(shù):

        Step4重復Step 2直到收斂或達到最大迭代次數(shù),輸出(W(k,1),b(k,1),W(k,2),b(k,2))。

        2.2 層疊自動編碼器

        將若干AE級聯(lián)可構(gòu)建多層神經(jīng)網(wǎng)絡(luò):層疊自動編碼器(SAE)。SAE的輸出可看作是輸入數(shù)據(jù)經(jīng)過多次降維后的特征表示。SAE的各層參數(shù)可以通過逐層貪婪訓練來獲得(訓練時將前一層AE的隱藏層輸出作為后一層AE的輸入),具體方法如下:

        設(shè)定SAE隱藏層數(shù)Nk,利用樣本x訓練第1個AE獲得其參數(shù)和隱藏層輸出a(1,2),如圖1(a)。用a(1,2)作為輸入,訓練第2個AE獲得其參數(shù)和a(2,2),如圖1(b)。以此類推,對Nk個AE逐層貪婪訓練后獲得參數(shù)組{(W(k,1),b(k,1))|k=1,…,Nk},將(W(k,1),b(k,1))作為SAE各層間連接權(quán)值,如圖2“特征提取模塊”框中所示。

        圖1 自動編碼器AE結(jié)構(gòu)

        圖2 特征提取分類模型SAEM結(jié)構(gòu)

        2.3 特征提取分類模型

        特征提取分類性能直接影響數(shù)據(jù)融合的效果,為此本文設(shè)計了一種WSN特征提取分類模型SAEM,SAEM由SAE“特征提取”模塊和包含分類器的“特征分類”模塊級聯(lián)而成,如圖2,其中分類器可采用無監(jiān)督分類器(SAEM1)或有監(jiān)督分類器(SAEM2)。由于K-means無監(jiān)督聚類算法簡單,參數(shù)少,收斂快且性能優(yōu)異[17]而Softmax有監(jiān)督分類器和SAE在單獨訓練及整體“微調(diào)”時都可通過BP算法推導殘差并使用梯度下降算法求解,模型復雜度小,故在SAEM1,SAEM2中分別選用二者作為分類器。SAEM構(gòu)建方法如下:

        ①SAEM1:當訓練樣本不含標簽信息時,首先訓練SAE作為SAEM1的“特征提取”模塊,接著將SAE輸出的訓練樣本特征作為輸入,訓練與SAE級聯(lián)的K-means無監(jiān)督聚類器作為“特征分類”模塊。

        ②SAEM2:若訓練樣本包含標簽信息,則首先訓練SAE,接著利用SAE輸出的訓練樣本特征和標簽信息訓練有監(jiān)督分類器Softmax,如圖2所示。然后把訓練好的SAE參數(shù){(W(k,1),b(k,1))|k=1,…,Nk}和Softmax參數(shù)(Wc,θc)作為SAEM2的參數(shù)初值,使用BP算法對其進行整體有監(jiān)督“微調(diào)”以進一步優(yōu)化模型性能。

        3 無線傳感器網(wǎng)絡(luò)數(shù)據(jù)融合算法

        在對傳感器節(jié)點數(shù)據(jù)進行分類融合前需要訓練相應的特征提取分類模型,針對訓練樣本不含標簽信息或包含標簽信息的情況,本文設(shè)計了基于SAEM1的無監(jiān)督數(shù)據(jù)融合算法SAEMDA1和基于SAEM2的有監(jiān)督數(shù)據(jù)融合算法SAEMDA2。為便于比較分析,應用SAEMDA算法的WSN具有和同類網(wǎng)絡(luò)[4-7]相同的網(wǎng)絡(luò)模型:①網(wǎng)絡(luò)節(jié)點具有唯一ID號,隨機部署后位置固定;節(jié)點初始能量相同,不可補給。②匯聚節(jié)點部署在感知區(qū)域外,位置固定,能量充足,具有較強的存儲計算能力。③匯聚節(jié)點可直接向節(jié)點發(fā)送數(shù)據(jù)而節(jié)點功率受限;各節(jié)點能獲知自己的位置信息。

        圖4 SAEMDA2算法流程

        首先通過分簇協(xié)議對網(wǎng)絡(luò)分簇并選出各簇的簇首節(jié)點,接著運行SAEMDA1算法(如圖3)或SAEMDA2算法(如圖4),算法主要步驟如下:

        圖3 SAEMDA1算法流程

        ①SAEMDA1

        Step1各簇節(jié)點采集傳感數(shù)據(jù)并不加處理地發(fā)送給相應的簇首節(jié)點。

        Step2簇首以接收到的簇節(jié)點數(shù)據(jù)作為訓練樣本,構(gòu)建并訓練SAEM1。之后簇首將其中的SAE參數(shù)發(fā)送回各個簇節(jié)點,K-means聚類器參數(shù)則由簇首保存。

        Step3簇節(jié)點采集傳感數(shù)據(jù),利用獲得的SAE提取數(shù)據(jù)特征并發(fā)送給簇首。

        Step4簇首用K-means聚類器對特征分類并按式(2)融合同類特征后向匯聚節(jié)點發(fā)送

        (2)

        式中c,Nc為特征類別號和類別數(shù)量,nc為c類特征數(shù)量,a(Nk,nl)(i,c)為SAE輸出的樣本特征(被“特征分類”模塊判定為c類)。

        Step5當網(wǎng)絡(luò)節(jié)點完成一輪數(shù)據(jù)采集、融合與傳輸后,匯聚節(jié)點運行分簇協(xié)議重新分簇、選取簇首并跳轉(zhuǎn)到Step 3。

        ②SAEMDA2

        Step1各簇首節(jié)點向匯聚節(jié)點發(fā)送簇節(jié)點信息表。

        Step2匯聚節(jié)點以包含標簽信息的樣本數(shù)據(jù)作為輸入,構(gòu)建并訓練SAEM2。之后匯聚節(jié)點將SAE參數(shù)發(fā)送回各個簇節(jié)點,將Softmax分類器參數(shù)發(fā)送回各簇首節(jié)點。

        Step3簇節(jié)點采集傳感數(shù)據(jù)并利用SAE進行特征提取后發(fā)送給簇首。

        Step4簇首用Softmax分類器對特征分類并按式(2)融合同類特征后向匯聚節(jié)點發(fā)送。

        Step5網(wǎng)絡(luò)節(jié)點完成一輪數(shù)據(jù)采集、融合與傳輸后,匯聚節(jié)點運行分簇協(xié)議重新分簇、選取簇首并跳轉(zhuǎn)到Step 3。

        上述SAEM1、SAEM2模型的輸入層單元數(shù)和節(jié)點采集數(shù)據(jù)的維數(shù)相同,與網(wǎng)絡(luò)分簇數(shù)量、簇節(jié)點個數(shù)等無關(guān),因此SAEMDA算法和分簇協(xié)議的實現(xiàn)是相互獨立的。

        4 實驗和分析

        利用OMNET++編程對無監(jiān)督數(shù)據(jù)融合算法SOFMDA,SAEMDA1以及有監(jiān)督數(shù)據(jù)融合算法BPNDA,SAEMDA2進行仿真。為了專注于數(shù)據(jù)融合的性能分析,算法皆采用未優(yōu)化的LEACH分簇協(xié)議以及第1類無線通信能耗模型,仿真參數(shù)設(shè)置為:在100 m×100 m平面區(qū)域隨機分布100個傳感器節(jié)點,匯聚節(jié)點坐標(50,175),節(jié)點初始能量0.5 J,網(wǎng)絡(luò)中數(shù)據(jù)包長度4 000 bit,分簇消息長度200 bit,包頭長度200 bit,仿真時間300 s。

        SAEMDA1和SOFMDA的對比如表1,其中nl,s1,Nc分別表示特征提取分類模型的層數(shù)、輸入數(shù)據(jù)維數(shù)和數(shù)據(jù)分類數(shù)量。由表1可知,SOFMDA的特征提取分類性能略高于SAEMDA1(n1=3),但隨著SAEM1層數(shù)增加,SAEMDA1(n1=4,5)的正確率逐漸超過SOFMDA;當處理高維多類別數(shù)據(jù)時,淺層模型SOFM的參數(shù)數(shù)量急劇增加,訓練容易陷入局部極值以至性能不佳,而基于深度學習的多隱層SAEM1此時優(yōu)勢愈發(fā)明顯。

        SAEMDA2和BPNDA的對比如表2,可見當SAEM2和BP神經(jīng)網(wǎng)絡(luò)模型層數(shù)相同時,SAEMDA2的正確率均高于BPNDA,尤其是處理高維多類別數(shù)據(jù)時,SAEMDA2通過逐層訓練多隱層SAEM2能獲得比BP網(wǎng)絡(luò)更好的參數(shù)來提高特征提取分類能力,因此表現(xiàn)更優(yōu)異。此外由于利用了標簽信息,有監(jiān)督數(shù)據(jù)融合算法性能要比無監(jiān)督學習的好。

        表1 無監(jiān)督數(shù)據(jù)融合正確率

        表2 有監(jiān)督數(shù)據(jù)融合正確率

        以處理數(shù)據(jù)(s1=1600,Nc=10)為例,算法能耗如圖5所示,可見各數(shù)據(jù)融合算法的能耗均低于LEACH,其中BPNDA和SAEMDA2的能耗水平大致相當且都低于SOFMDA和SAEMDA1,這是因為BPNDA和SAEMDA2中層數(shù)相同的BP網(wǎng)絡(luò)和SAEM2結(jié)構(gòu)相似且都是在匯聚節(jié)點中進行訓練,而SOFMDA和SAEMDA1則是在簇首中訓練SOFM網(wǎng)絡(luò)和SAEM2,簇首需要接收簇節(jié)點發(fā)送的原始數(shù)據(jù)作為訓練樣本,加大了節(jié)點能耗;此外SOFMDA中特征提取分類都在簇首進行,而SAEMDA2中簇節(jié)點在本地進行特征提取,簇首只進行分類融合,減少了數(shù)據(jù)傳輸量,因此SAEMDA2的能耗又低于SOFMDA。

        WSN中隨著能量消耗節(jié)點陸續(xù)死亡,網(wǎng)絡(luò)逐漸失效,通常將死亡節(jié)點達到某一比例時的網(wǎng)絡(luò)運行時間或輪數(shù)定義為WSN的網(wǎng)絡(luò)壽命。與圖5相應的各算法網(wǎng)絡(luò)壽命如圖6,顯見網(wǎng)絡(luò)能耗越低則網(wǎng)絡(luò)壽命越長,以20%節(jié)點死亡為例,各算法下的網(wǎng)絡(luò)壽命為:LEACH(540輪),SOFMDA(760輪),SAEMDA1(943輪),BPNDA(1265輪),SAEMDA2(1278輪)??梢奡AEMDA的網(wǎng)絡(luò)壽命等同或優(yōu)于同類算法。

        圖5 數(shù)據(jù)融合算法能耗對比

        圖6 網(wǎng)絡(luò)壽命對比

        5 結(jié)論

        在WSN數(shù)據(jù)融合中引入深度學習技術(shù),針對SOFMDA,BPNDA等廣泛使用的傳統(tǒng)淺層神經(jīng)網(wǎng)絡(luò)模型非線性映射能力弱,數(shù)據(jù)特征表示效果不理想的問題,設(shè)計了一種特征提取分類模型SAEM。SAEM基于深度學習,采用逐層訓練的方法,相較于BP網(wǎng)絡(luò),SOFM網(wǎng)絡(luò)具有更好的特征提取分類性能。仿真實驗表明,本文提出的以SAEM為基礎(chǔ)結(jié)合分簇協(xié)議的SAEMDA算法在降低網(wǎng)絡(luò)能耗的同時,對各種數(shù)據(jù)具有更高的數(shù)據(jù)融合正確率,同時適用于無監(jiān)督或有監(jiān)督情況下的數(shù)據(jù)融合。深度學習模型在WSN領(lǐng)域具有廣闊的應用前景,如何進一步簡化參數(shù),縮短模型訓練時間,提高特征提取分類速度是下一步的研究重點。

        [1] 張揚,楊松濤,張香芝. 一種模擬退火遺傳算法的傳感器網(wǎng)絡(luò)數(shù)據(jù)融合技術(shù)研究[J]. 計算機應用研究,2012,29(5):1860-1862.

        [2]馬守明,王汝傳,葉寧. 基于主元分析的無線傳感器網(wǎng)絡(luò)數(shù)據(jù)融合研究[J]. 計算機工程與科學,2010,32(11):44-46.

        [3]戎舟. 基于中介理論的無線傳感器網(wǎng)絡(luò)加權(quán)數(shù)據(jù)融合[J]. 電子測量與儀器學報,2010,24(8):705-710.

        [4]孔玉靜,侯鑫,華爾天,等. 基于BP神經(jīng)網(wǎng)絡(luò)的無線傳感器網(wǎng)絡(luò)路由協(xié)議的研究[J]. 傳感技術(shù)學報,2013,26(2):246-251.

        [5]孫凌逸,黃先祥,蔡偉,等. 基于神經(jīng)網(wǎng)絡(luò)的無線傳感器網(wǎng)絡(luò)數(shù)據(jù)融合算法[J]. 傳感技術(shù)學報,2011,24(1):122-127.

        [6]俞黎陽,王能,張衛(wèi). 無線傳感器網(wǎng)絡(luò)中基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)融合模型[J]. 計算機科學,2008,35(12):43-47.

        [7]楊永健,劉帥. 基于SOFM神經(jīng)網(wǎng)絡(luò)的無線傳感器網(wǎng)絡(luò)數(shù)據(jù)融合算法[J]. 傳感技術(shù)學報,2013,26(12):1757-1763.

        [8]Bengio Y. Learning Deep Architectures for AI[J]. Foundations and Trends in Machine Learning,2009,2(1):1-127.

        [9]Erhan D,Bengio Y,Couville A,et al. Why Does Unsupervised Pre-Training Help Deep Learning[J]. Journal of Machine Learning Research,2010,11(3):625-660.

        [10]Hinton G E,Salakhutdinov R R. Reducing the Dimensionality of Data with Neural Networks[J]. Science,2006,313(5786):504-507.

        [11]Vincent P,Larochelle H,Lajoie I,et al. Stacked Denoising Autoencoders:Learning Useful Representations in a Deep Network with a Local Denoising Criterion[J]. Journal of Machine Learning Research,2010,11(12):3371-3408.

        [12]Dong Yu,Li Deng. Deep Convex Network:A Scalable Architecture for Speech Pattern Classification[C]//Proc of the 12th Annual Conference of International Speech Comunication Association. 2011:2285-2288.

        [13]Poon H,Domingos P. Sum-Product Networks:A New Deep Architecture[C]//Proc of IEEE International Conference on Computer Vision. 2011:689-690.

        [14]Mohamed A,Sainath T N,Dahl G E,et al. Deep Belief Networks using Discriminative Features for Phone Recognition[C]//Proc of IEEE International Conference on Acoustics,Speech,and Signal Processing,2011:5060-5063.

        [15]Chen Bo,Polatkan G,Sapiro G,et al. Deep Learning with Hierarchical Convolutional Factor Analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(8):1887-901.

        [16]Martinez B,Valstar M F,Binefa X,et al. Local Evidence Aggregation for Regression Based Facial Point Detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2013,35(5):1149-1163.

        [17]Coates A,Lee H Y,Ng A. An Analysis of Single-Layer Networks in Unsupervised Feature Learning[J]. Journal of Machine Learning Research,2011,215-223.

        邱立達(1984-),男,閩江學院物理學與電子信息工程系,講師,主要研究方向為目標跟蹤與模式識別、機器視覺和無線傳感器網(wǎng)絡(luò),qld.qq@163.com;

        劉天鍵(1975-),男,閩江學院物理學與電子信息工程系,副教授,主要研究方向為模式分類、目標跟蹤和非線性濾波;

        林南(1978-),女,閩江學院物理學與電子信息工程系,副教授,主要研究方向為無線傳感器網(wǎng)絡(luò)拓撲控制和光電子器件數(shù)值模擬;

        黃章超(1985-),男,廈門理工學院光電與通信工程學院,講師,主要研究方向為光纖傳感和光電信息處理。

        DataAggregationinWirelessSensorNetworkBasedonDeepLearningModel*

        QIULida1*,LIUTianjian1,LINNan1,HUANGZhangchao2

        (1.Department of Physics and Electronic Information Engineering,Minjiang University,Fuzhou 350108,China;2.School of Opto-Electronic and Communication Engineering,Xiamen University of Technology,Xiamen Fujian 361024,China)

        In order to improve the performance of data fusion in wireless sensor network,a data aggregation algorithm SAEMDA(stacked autoencoder model data fusion algorithm)based on deep learning model was proposed,which combined stacked autoencoder(SAE)and wireless sensor network clustering routing protocol. Feature extraction and classification model(SAEM)is designed by SAEMDA to extract and classify the data features of nodes in each cluster,and then SAEMDA sends the features fused in the same class to Sink node. Either offline supervised learning algorithm or online unsupervised learning algorithm can be used to train the SAEM. Simulation results show that compared with BPFDA and SOFMDA,SAEMDA can improve the data fusion accuracy by 7.5 percentage points at most in similar situations of energy consumption.

        wireless sensor network;data aggregation;deep learning;autoencoder

        項目來源:福建省教育廳科技項目(JA12263);福州市科技計劃項目(2013-G-86)

        2014-07-16修改日期:2014-10-20

        TP393

        :A

        :1004-1699(2014)12-1704-06

        10.3969/j.issn.1004-1699.2014.12.022

        猜你喜歡
        特征提取神經(jīng)網(wǎng)絡(luò)分類
        分類算一算
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        分類討論求坐標
        基于Daubechies(dbN)的飛行器音頻特征提取
        電子制作(2018年19期)2018-11-14 02:37:08
        數(shù)據(jù)分析中的分類討論
        教你一招:數(shù)的分類
        Bagging RCSP腦電特征提取算法
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
        重型機械(2016年1期)2016-03-01 03:42:04
        復數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應用
        基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
        亚洲国产精品va在线看黑人| 在线观看亚洲视频一区二区| 中文字幕国产亚洲一区| 国产成人av综合色| 蜜桃臀无码内射一区二区三区| 国产精品亚洲ΑV天堂无码| 亚洲国产一区二区,毛片| 国产精品美女久久久网av| 欧洲一卡2卡三卡4卡免费网站| 久草国产视频| av网站在线观看二区| 巨爆中文字幕巨爆区爆乳| 少妇下蹲露大唇无遮挡| AV无码中文字幕不卡一二三区 | 国产av日韩a∨亚洲av电影| 亚洲精品欧美二区三区中文字幕| 女高中生自慰污免费网站| 日韩精品综合在线视频| 亚洲av日韩av激情亚洲| 最近最好的中文字幕2019免费| 五月婷婷影视| 日本二区三区在线免费| 台湾佬中文娱乐网22| 5级做人爱c视版免费视频| 日韩精品一区二区三区在线观看的 | 全国一区二区三区女厕偷拍| 成人爽a毛片免费视频| 国产小受呻吟gv视频在线观看| 国产无遮挡又黄又爽无VIP| 91三级在线观看免费| 日韩视频中文字幕精品偷拍 | 扒开腿狂躁女人爽出白浆| 亚洲中文字幕无码永久在线| 国产亚洲无码1024| 日韩中文字幕一区二区二区| 啦啦啦www播放日本观看| 免费一本色道久久一区| 精品国产av一区二区三区| 女人高潮内射99精品| 在线看亚洲十八禁网站| 精品一区二区中文字幕|