亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于改進(jìn)權(quán)值更新和選擇性集成的AdaBoost算法

        2020-06-19 08:45:58歐陽瀟琴王秋華
        軟件導(dǎo)刊 2020年4期
        關(guān)鍵詞:集成學(xué)習(xí)入侵檢測

        歐陽瀟琴 王秋華

        摘 要:針對傳統(tǒng)AdaBoost算法中樣本權(quán)值更新缺陷造成的分類準(zhǔn)確率降低,以及冗余弱分類器造成的分類速度慢、計(jì)算開銷大等問題,提出一種基于改進(jìn)權(quán)值更新和選擇性集成的AdaBoost算法。首先,在弱分類器訓(xùn)練階段,提出一種改進(jìn)權(quán)值更新方式的AdaBoost算法,根據(jù)各個(gè)樣本在前t次訓(xùn)練中的平均正確率更新樣本權(quán)值,使所有樣本的權(quán)值更新更均衡,在一定程度上抑制了噪聲樣本權(quán)值的無限擴(kuò)大;其次,在弱分類器組合階段,提出一種新的弱分類器相似度度量方式,并基于該度量方式和層次聚類算法進(jìn)行選擇性集成,剔除了冗余的弱分類器,提高了分類速度,減少了計(jì)算開銷;最后使用KDDCUP99、waveform和image-segmentation三個(gè)數(shù)據(jù)集對所提方案進(jìn)行性能仿真與驗(yàn)證,分類準(zhǔn)確率分別達(dá)到99.51%、86.07%和94.45%。實(shí)驗(yàn)表明,將改進(jìn)權(quán)值更新和選擇性集成的AdaBoost算法應(yīng)用于入侵檢測系統(tǒng),不僅提高了分類準(zhǔn)確率和檢測速度,而且降低了計(jì)算開銷。

        關(guān)鍵詞:入侵檢測;集成學(xué)習(xí);AdaBoost;權(quán)值更新;選擇性集成

        DOI: 10. 11907/rjdk.191736

        開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID):

        中圖分類號(hào):TP312

        文獻(xiàn)標(biāo)識(shí)碼:A

        文章編號(hào):1672-7800( 2020)004-0257-06

        0 引言

        入侵檢測可從網(wǎng)絡(luò)系統(tǒng)若干關(guān)鍵點(diǎn)收集信息,并分析網(wǎng)絡(luò)是否存在入侵行為及跡象[1,2]。入侵檢測可看作一個(gè)數(shù)據(jù)分類過程,從收集的信息中識(shí)別出正常操作和入侵行為。當(dāng)前,入侵檢測分類算法主要有決策樹[3]、神經(jīng)網(wǎng)絡(luò)[4]和支持向量機(jī)[5]等。上述分類器均為單個(gè)分類器,泛化能力不足,分類準(zhǔn)確率不高。因此,集成學(xué)習(xí)方法[6]被引入。集成學(xué)習(xí)是一種通過構(gòu)建多個(gè)弱分類器(單個(gè)分類器),再將其組合成一個(gè)強(qiáng)分類器的學(xué)習(xí)方法。集成學(xué)習(xí)方法充分利用單個(gè)弱分類器之間的互補(bǔ)性,有效提升了分類器的泛化能力。

        集成學(xué)習(xí)方法分為Bagging[7]和Boosting[8]兩大類。Bagging方法通過對訓(xùn)練樣本進(jìn)行有放回的隨機(jī)抽樣得到不同的樣本集,從而構(gòu)建一組具有差異的弱分類器,最后通過平均投票法確定待測樣本類別。隨機(jī)森林( RandomForest)[9]是改進(jìn)版的Bagging集成方法。Random Forest使用決策樹作為弱學(xué)習(xí)器,每個(gè)決策樹隨機(jī)選擇樣本的一部分特征,并從中選擇一個(gè)最優(yōu)特征作為決策樹的左右子樹,進(jìn)一步增強(qiáng)了模型的泛化能力。B oosting方法先通過初始訓(xùn)練集訓(xùn)練出一個(gè)弱分類器,再根據(jù)該分類器的表現(xiàn)對訓(xùn)練樣本分布進(jìn)行調(diào)整,使得先前弱分類器分錯(cuò)的訓(xùn)練樣本在后續(xù)受到更多關(guān)注;然后基于調(diào)整后的樣本分布訓(xùn)練下一個(gè)弱分類器;最終將所有弱分類器進(jìn)行加權(quán)組合,每個(gè)弱分類器的權(quán)重依賴于自身分類誤差。在B oosting方法中,最著名的是AdaBoost算法[10](Adaptive Boosting:自適應(yīng)提升),它是目前最具實(shí)用價(jià)值的集成學(xué)習(xí)算法,其本質(zhì)是通過改變樣本分布實(shí)現(xiàn)弱分類器訓(xùn)練。它根據(jù)每次訓(xùn)練集中每個(gè)樣本的分類是否正確,以及上一次的總體分類準(zhǔn)確率更新每個(gè)樣本的權(quán)值。將修改過權(quán)值的訓(xùn)練集送給下層分類器進(jìn)行訓(xùn)練,最后將每次訓(xùn)練得到的分類器組合成強(qiáng)分類器。雖然AdaBoost算法在一定程度上提高了分類器的泛化能力,其仍存在以下不足:

        (1)該算法的權(quán)值更新機(jī)制容易造成不公平的權(quán)值分配,且容易導(dǎo)致噪聲樣本權(quán)值的無限增大。不少學(xué)者針對該缺點(diǎn)對算法進(jìn)行了改進(jìn)[11-14]。文獻(xiàn)[11]提出一種分級(jí)結(jié)構(gòu)的AdaBoost算法,通過增大權(quán)重變化量、尋找最優(yōu)分類器等方法,提高分類準(zhǔn)確率與分類速度;文獻(xiàn)[12]提出一種基于噪聲檢測的AdaBoost改進(jìn)算法,根據(jù)錯(cuò)分樣本中噪聲樣本與普通錯(cuò)分樣本的差異性確定噪聲樣本,并重新對其分類,從而提高了分類準(zhǔn)確率;李文輝等[13]通過調(diào)整加權(quán)誤差分布限制目標(biāo)類樣本權(quán)值的擴(kuò)張,并且以概率值輸出代替?zhèn)鹘y(tǒng)的離散值輸出作為強(qiáng)分類器的輸出結(jié)果;董超等[14]根據(jù)樣本分類正確率提高其權(quán)值,同時(shí)抑制噪聲樣本權(quán)值的無限增大。

        (2)弱分類器訓(xùn)練過程帶有一定隨機(jī)性,容易導(dǎo)致冗余弱分類器產(chǎn)生。此類弱分類器不僅不能提高分類準(zhǔn)確率,還會(huì)增加計(jì)算開銷,降低分類速度。周志華[15]提出的“Many could be better than all”理論證明,使用較少的弱分類器組合而成的強(qiáng)分類器也可以達(dá)到相同甚至更優(yōu)的效果?;谠摾碚?,選擇性集成方法[16-17]被提出,該方法在集成學(xué)習(xí)的基礎(chǔ)上增加了一個(gè)分類器選擇階段。在該階段,通過某種策略剔除那些對集成分類器分類能力具有負(fù)面影響的弱分類器,將剩下的弱分類器組合成強(qiáng)分類器,從而進(jìn)一步提高分類性能;謝元澄等[18]通過刪除弱分類器中性能差的分類器進(jìn)行選擇性集成;王忠民等[19]通過計(jì)算弱分類器的雙誤差異性增量值并結(jié)合近鄰傳播聚類算法,將T個(gè)弱分類器分成K個(gè)簇,選取每簇的中心分類器組合成強(qiáng)分類器。

        為解決AdaBoost算法存在的上述問題,本文提出一種基于改進(jìn)權(quán)值更新和選擇性集成的AdaBoost算法,該算法分別在弱分類器訓(xùn)練階段和弱分類器組合階段進(jìn)行改進(jìn)。

        在弱分類器訓(xùn)練階段,針對AdaBoost算法僅依靠前一次分類情況決定樣本的權(quán)值變化太過片面,并且容易導(dǎo)致噪聲樣本權(quán)值無限擴(kuò)大的缺點(diǎn),提出一種改進(jìn)權(quán)值更新方式的AdaBoost算法。改進(jìn)更新方式根據(jù)各個(gè)樣本在前t次訓(xùn)練中的加權(quán)平均正確率更新樣本權(quán)值,所有樣本都在前t次訓(xùn)練的基礎(chǔ)上提升其權(quán)值。前t次的分類正確率越高,權(quán)值提升越小。最后再對提升后的權(quán)值歸一化,在一定程度上抑制了噪聲樣本權(quán)值的無限擴(kuò)大,令所有樣本的權(quán)值更新更均衡。

        在弱分類器組合階段,針對弱分類器冗余導(dǎo)致的分類速度慢、計(jì)算開銷大等問題,提出一種新的弱分類器相似度度量方式,并基于該相似度度量方式和層次聚類算法[20-21]進(jìn)行選擇性集成,將相似度超過閾值的弱分類器歸入一類,取分類準(zhǔn)確率最高的弱分類器組合成強(qiáng)分類器,從而剔除冗余的弱分類器,提高分類速度,減少計(jì)算開銷。

        基于KDDCUP99、wavetorm和image-segmentation三個(gè)數(shù)據(jù)集對所提方案進(jìn)行性能仿真與驗(yàn)證,實(shí)驗(yàn)結(jié)果表明,改進(jìn)權(quán)值更新方式的AdaBoost算法提高了分類準(zhǔn)確率。選擇性集成不僅剔除了冗余的弱分類器,并且能夠保持相同甚至更高的分類準(zhǔn)確率。

        1 AdaBoost算法及分析

        1.1 AdaBoost算法

        AdaBoost算法是一種將多個(gè)弱分類器組合成一個(gè)強(qiáng)分類器的迭代算法,通過T次迭代訓(xùn)練出T個(gè)弱分類器,算法框架如圖1所示。

        算法流程如下:①在第t次迭代時(shí),根據(jù)此次樣本權(quán)值分布Wt,從初始訓(xùn)練集D中隨機(jī)抽取N個(gè)樣本作為此次訓(xùn)練樣本集Dt,并根據(jù)Dt訓(xùn)練得到第t個(gè)弱分類器h.;②使用h.預(yù)測D中的每個(gè)樣本,得到ht的分類準(zhǔn)確率。根據(jù)該準(zhǔn)確率計(jì)算ht的權(quán)重ac,,準(zhǔn)確率越高,權(quán)重越大;③根據(jù)步驟②的分類結(jié)果對Wt進(jìn)行更新,提升錯(cuò)誤分類樣本的權(quán)值,降低正確分類樣本的權(quán)值,使得錯(cuò)分樣本在下一次迭代中被選中的概率更大;④將訓(xùn)練得到的弱分類器組合成一個(gè)強(qiáng)分類器H,弱分類器的加權(quán)投票結(jié)果作為強(qiáng)分類器的輸出。

        1.2 AdaBoost算法分析

        AdaBoost算法通過訓(xùn)練多個(gè)弱分類器對待分類樣本進(jìn)行分類,并投票決定樣本類別,利用弱分類器之間的互補(bǔ)性提高強(qiáng)分類器的分類精度。相比于單個(gè)分類器,在一定程度上提高了分類準(zhǔn)確率,但其缺點(diǎn)也很明顯。

        (1)樣本權(quán)值更新時(shí)對所有正確(或錯(cuò)誤)分類的樣本同等看待,并且僅憑第t次訓(xùn)練結(jié)果決定一個(gè)樣本在下一次迭代中的權(quán)值太過片面。例如,在前t-1次訓(xùn)練中,樣本xp被多次分錯(cuò),而樣本xq被多次分對,但在第t次訓(xùn)練中二者都分類錯(cuò)誤。那么,令xp和xq的權(quán)值有同樣變化是不公平的,而應(yīng)令xp的權(quán)值比xq有更大提升,使其在第t+1次訓(xùn)練中更容易被選中。除此之外,一味降低分對樣本的權(quán)值、提升分錯(cuò)樣本的權(quán)值,容易導(dǎo)致噪聲樣本權(quán)值無限增大,從而使非噪聲樣本被選中的概率降低,最終分類準(zhǔn)確率也可能隨之降低。

        (2)由于弱分類器訓(xùn)練階段采用有概率的隨機(jī)抽樣方法選取訓(xùn)練樣本,有可能使得兩次訓(xùn)練抽取到的訓(xùn)練集十分相似,從而得到兩個(gè)差異性很小的弱分類器。這些冗余的弱分類器不僅對分類性能沒有幫助,反而會(huì)降低分類速度,增加計(jì)算開銷。

        2 AdaBoost算法改進(jìn)

        針對AdaBoost算法缺點(diǎn),本文提出一種基于改進(jìn)權(quán)值更新和選擇性集成的AdaBoost算法,該算法分為弱分類器訓(xùn)練和弱分類器組合兩個(gè)階段。

        該方法不需要預(yù)先設(shè)置K值,并且保證最后得到的K個(gè)類中任意兩個(gè)類之間的相似度小于或等于δ,每個(gè)類內(nèi)的任意兩個(gè)弱分類器相似度大于δ。剔除冗余的弱分類器,保留相互之間差異性較大的弱分類器,既提高了分類速度,又保證了較高的準(zhǔn)確率。

        3 性能仿真與分析

        3.1 實(shí)驗(yàn)數(shù)據(jù)集

        本文使用3個(gè)數(shù)據(jù)集對所提算法進(jìn)行性能仿真,分別是KDDCUP1999、wavetorm和image-segmentation,如表1所示。KDDCUP1999是一個(gè)入侵檢測數(shù)據(jù)集,包含Nor-mal、DoS、Probe、U2L和R2L五個(gè)類別標(biāo)簽;wavetorm是一個(gè)聲音波形數(shù)據(jù)集,包含3個(gè)類別標(biāo)簽:0、1和2;im -age-segmentation是一個(gè)圖像識(shí)別數(shù)據(jù)集,包含7個(gè)類別標(biāo)簽:CRASS、CEMENT、WINDOW、PATH、SKY、FOLIAGE、BRICKFACE。

        實(shí)驗(yàn)中將每個(gè)數(shù)據(jù)集的70%劃分為訓(xùn)練集,30%劃分為測試集,取10次實(shí)驗(yàn)結(jié)果的平均值作為最終結(jié)果。采用分類準(zhǔn)確率衡量分類效果,其計(jì)算方式為分類正確的樣本數(shù)與樣本總數(shù)的比例。另外,分類效率的衡量標(biāo)準(zhǔn)為最終用來組合成強(qiáng)分類器的弱分類器數(shù)目,弱分類器越少,效率越高,反之越低。

        3.2 分類準(zhǔn)確率

        首先對傳統(tǒng)的AdaBoost算法權(quán)值更新方式進(jìn)行改進(jìn)。為了驗(yàn)證改進(jìn)權(quán)值更新后的AdaBoost算法分類效果,在KDDCUP1999、wavef orm、image-segmentation三個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),并與傳統(tǒng)AdaBoost算法和文獻(xiàn)[14]所提改進(jìn)AdaBoost算法進(jìn)行對比,對比結(jié)果如圖2、圖3和圖4所示。

        從圖2、圖3和圖4可以看出,文獻(xiàn)[14]所提算法雖然提高了部分類別的分類準(zhǔn)確率,但對U2R類別的樣本分類準(zhǔn)確率明顯偏低,而本文所提算法在各個(gè)樣本類別的分類準(zhǔn)確率都優(yōu)于傳統(tǒng)AdaBoost算法和文獻(xiàn)[14]的算法。

        3.3 不同弱分類器數(shù)目對分類準(zhǔn)確率的影響

        在集成學(xué)習(xí)方法中,弱分類器數(shù)目T與最終強(qiáng)分類器性能有直接關(guān)系。為了驗(yàn)證T對分類效果的影響,本文基于KDDCUP99、Image-Segmentation和Waveform三個(gè)數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。對于每個(gè)數(shù)據(jù)集,分別令T=1、2、4、7、11、16、22、29、37、46、56、67,進(jìn)行12組實(shí)驗(yàn),結(jié)果如圖5所示。

        從圖5可以看出,對于KDDCUP99數(shù)據(jù)集,當(dāng)T<30時(shí),分類準(zhǔn)確率隨T的增大而提高,T=29時(shí),分類準(zhǔn)確率最高,達(dá)到99.51%;而當(dāng)T>30時(shí),分類準(zhǔn)確率不再隨著T的增大而繼續(xù)增加,而是穩(wěn)定在99.4%左右;對于image-seg-mentation數(shù)據(jù)集,當(dāng)T從1增大到16時(shí),其分類準(zhǔn)確率不斷上升,從86.62%提高到94.62%。當(dāng)T>16之后,準(zhǔn)確率不再隨著T的增大而提高,而是穩(wěn)定在94.45%左右;對于wavetorm數(shù)據(jù)集,當(dāng)T從1增大到37時(shí),其分類準(zhǔn)確率不斷上升,從74.74%上升至86.07%,T>37之后,準(zhǔn)確率穩(wěn)定在86%左右。

        上述結(jié)果表明,雖然集成學(xué)習(xí)方法都是通過訓(xùn)練多個(gè)弱分類器來提高強(qiáng)分類器的泛化能力,但不表示弱分類器越多效果越好。當(dāng)弱分類器超過一定數(shù)目時(shí),準(zhǔn)確率將不再繼續(xù)提升,甚至有可能下降,這也表示在弱分類器訓(xùn)練過程中極有可能產(chǎn)生冗余分類器,這些冗余弱分類器不僅不能令強(qiáng)分類器性能得到提升,反而會(huì)使強(qiáng)分類器性能下降,進(jìn)而影響分類速度。因此,選擇性集成是有必要的。

        3.4 基于層次聚類的選擇性集成效果分析

        為驗(yàn)證本文提出的基于層次聚類的選擇性集成方法,分別對3個(gè)數(shù)據(jù)集在T=10、20、30、40、50、60、70的情況下進(jìn)行實(shí)驗(yàn)。

        表2、表3和表4分別顯示了KDDCUP99、Image-Seg-mentation和Waveform三個(gè)數(shù)據(jù)集在選擇性集成前后的分類效果對比。從表中可以看出,由不同數(shù)目弱分類器組合成的強(qiáng)分類器,在經(jīng)過選擇性集成后都可以減少弱分類器數(shù)目,達(dá)到相同甚至更優(yōu)的分類性能。例如,對于KDD-CUP99數(shù)據(jù)集,在T=10的條件下,選擇性集成前分類準(zhǔn)確率為99.25%,而δ=0.85和δ=0.9條件下的選擇性集成分別將弱分類器數(shù)目減至7個(gè)和8個(gè),分類準(zhǔn)確率分別達(dá)到了99.26%和99.32%;對于Image-Segmentation數(shù)據(jù)集,在T=20的條件下,選擇性集成前分類準(zhǔn)確率為93.38%,而在δ =0.8、0.85和0.9的條件下,選擇性集成可以將弱分類器數(shù)目減至12、14和16個(gè),分類準(zhǔn)確率分別達(dá)到93 .42%、93.90%和93.38%;對于Waveform數(shù)據(jù)集,在T=60的條件下,選擇性集成前分類準(zhǔn)確率為86.4%,而在δ= 0.9的條件下,選擇性集成可以將弱分類器數(shù)目減至43個(gè),達(dá)到86.6%的準(zhǔn)確率。以上數(shù)據(jù)表明,本文提出的基于層次聚類的選擇性集成方法可以在保證準(zhǔn)確率的前提下,選取盡可能少的弱分類器組合成強(qiáng)分類器,從而提升分類效率。

        此外,不同δ值得到的選擇性集成結(jié)果也不同,δ越大得到的弱分類器越多。由于選擇性集成既要剔除冗余的弱分類器,又要保留差異性較大的弱分類器,即在使用盡可能少的弱分類器同時(shí)要達(dá)到最為理想的分類性能,因此δ的選取尤為重要。若δ值過大,可能導(dǎo)致存在冗余的弱分類器沒有被剔除;若δ過小,則會(huì)導(dǎo)致過多弱分類器被剔除,使得剩余的弱分類器之間互補(bǔ)性不足,達(dá)不到最優(yōu)性能。如表3所示,在T=30的條件下,選擇性集成前的分類準(zhǔn)確率為94.19%;當(dāng)δ=0.8時(shí),選擇性集成后得到的弱分類器數(shù)目為17,準(zhǔn)確率為93.76%,小于94.19%;當(dāng)δ=0.85時(shí),選擇性集成后得到的弱分類器數(shù)目為20,準(zhǔn)確率為94.48%,大于94.19%;而當(dāng)δ=0.9時(shí),選擇性集成后得到的弱分類器數(shù)目為23,準(zhǔn)確率為94.33%,小于94.48%。因此,本實(shí)驗(yàn)中,δ =0.85時(shí)分類性能達(dá)到最優(yōu)。

        3.5 不同集成方法分類效果對比

        本文同時(shí)基于上述3個(gè)數(shù)據(jù)集使用其它集成學(xué)習(xí)方法Bagging、AdaBoost和Random Forest進(jìn)行分類實(shí)驗(yàn),實(shí)驗(yàn)中所使用的弱分類器數(shù)目T=30,本文所提方案中令δ= 0.85,各方案分類結(jié)果如表5所示。通過表中數(shù)據(jù)對比可知,本文所提方法在分類準(zhǔn)確率上略優(yōu)于其它3種集成學(xué)習(xí)方法。但本文方案經(jīng)過選擇性集成后將弱分類器數(shù)目減少至23個(gè),提高了強(qiáng)分類器的分類效率,減少了計(jì)算開銷。因此,本文所提方案在準(zhǔn)確率和效率上都優(yōu)于Bag-glng、AdaBoost和Random Forest。

        4 結(jié)語

        為提高AdaBoost算法的分類準(zhǔn)確率和效率,本文首先提出改進(jìn)樣本權(quán)值更新方式的AdaBoost算法,在一定程度上提高了分類準(zhǔn)確率;其次,利用基于層次聚類和相似度的選擇性集成方法對弱分類器進(jìn)行篩選,得到一個(gè)弱分類器子集,并組合成強(qiáng)分類器。與其它集成學(xué)習(xí)方法相比,本文所提方法不僅提高了分類速度,而且保證了相同甚至更高的分類準(zhǔn)確率。然而,與其它集成方法一樣,弱分類器訓(xùn)練階段的耗時(shí)問題仍然存在。另外,本文在參數(shù)選取方面,只能通過多次實(shí)驗(yàn)得出最佳參數(shù)。因此,提升弱分類器訓(xùn)練階段效率、優(yōu)化參數(shù)選取方式是今后的研究重點(diǎn)。

        參考文獻(xiàn)

        [1]BUCZAK A L, GUVEN E. A survey of data mining and machine learn-ing methods for cyber security intrusion detection[J] . IEEE Communi-cations Survevs & Tutorials . 2017. 18( 2) : 1153-1176.

        [2]OZA N C.Online ensemble learning[C].Seventeenth National Confer-ence on Artificial Intelligence and Twelfth Conference on InnovativeApplications of Artificial Intelligence, July 30- August 3,2000,Austin, Texas, Usa. DBLP, 2000: 1109.

        [3]JIANG F,SUI Y,CAO C.An incremental decision tree algorithmhased on rough sets and its application in intrusion detection[J].Arti-ficial Intelligence Review, 2013, 40(4):517-530.

        [4]SIMON H. Neural network:a comprehensive foundation [M]. NeuralNetworks:A Comprehensive Foundation. Prentice Hall PTR, 1994:71-80.

        [5]YANG Q, FU H, ZHU T.An optimization method for parameters ofsvm in network intrusion detection system [C]. International Confer-ence on Distributed Computing in Sensor Systems. IEEE, 2016:136-142.

        [6]WANG Y. SHEN Y, ZHANC G.Research on intrusion detection mod-el using ensemble learning methods[C] In IEEE International Con-ference on Soft,vare Engineering and Service Science, 2017: 422-425.

        [7]BREIMAN L Bagging predictors [J]. Machine Learning, 1996, 24( 2):123-140.

        [8]SCHAPIRE R, FREUND Y.Boosting: foundations and algorithms[J].Kvbernetes, 2012, 42(1):164 -166.

        [9]BIAU G,SCORNET E.A random forest guided tour[Jl. Test, 2016,25(2):1-31.

        [10] 曹瑩,苗啟廣,劉家辰,等.AdaBoost算法研究進(jìn)展與展望[J].自動(dòng)化學(xué)報(bào),2013,39(6):745-758.

        [11] 楊曉元,胡志鵬,魏立線.分級(jí)結(jié)構(gòu)Adaboost算法在無線傳感器網(wǎng)絡(luò)入侵檢測中的應(yīng)用研究[J].傳感技術(shù)學(xué)報(bào),2012. 25(8):1159-1165.

        [12]張子祥,陳優(yōu)廣.基于樣本噪聲檢測的AdaBoost算法改進(jìn)[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2017( 12):186-190.

        [13] 李文輝,倪洪印,一種改進(jìn)的Adaboost訓(xùn)練算法[J].吉林大學(xué)學(xué)報(bào)(理學(xué)版),2011(3):498-504.

        [14]董超,周剛,劉玉嬌,等.基于改進(jìn)的Adaboost算法在網(wǎng)絡(luò)入侵檢測中的應(yīng)用[J].四川大學(xué)學(xué)報(bào)(自然科學(xué)版),2015, 52(6):568-574.

        [15]ZHOU Z H, WU J,TANG W. Ensembling neural net,vorks: manvcould be better than all[C].Artificial Intelligence, 2002.

        [16] 張春霞,張講社.選擇性集成學(xué)習(xí)算法綜述[J]計(jì)算機(jī)學(xué)報(bào),2011. 34(8):1399-1410.

        [17]CHEN T.A selective ensemble classification method on microarravdata[J].Journal of Chemical& Pharmaceutical Research, 2014(9):851-859.

        [18]謝元澄,楊靜宇.刪除最差基學(xué)習(xí)器來層次修剪Bagging集成[J].計(jì)算機(jī)研究與發(fā)展,2009,46(2):261-267.

        [19] 王忠民,張爽,賀炎.基于差異性聚類的選擇性集成人體行為識(shí)別模型[J].計(jì)算機(jī)科學(xué),2018. 45(1):307-312.

        [20]ZHAO Y. KARYPIS G,F(xiàn)AYYAD U.Hierarchical clustering algo-rithms for document datasets[J].Data Mining& Knowledge Discov-ery, 2005, 10(2): 141-168.

        [21]惠飛,彭娜,景首才,等.基于凝聚層次的駕駛行為聚類與異常檢測方法[J].計(jì)算機(jī)工程,2018 .44(12):196-201.

        (責(zé)任編輯:杜能鋼)

        基金項(xiàng)目:浙江省自然科學(xué)基金項(xiàng)目( IY19F020039);之江實(shí)驗(yàn)室重大科研項(xiàng)目(2019DHOZXOI)

        作者簡介:歐陽瀟琴(1993-),女,杭州電子科技大學(xué)通信工程學(xué)院碩士研究生,研究方向?yàn)閭鞲衅骶W(wǎng)絡(luò)安全、計(jì)算機(jī)網(wǎng)絡(luò)安全;王秋華(1978-),女,博士,杭州電子科技大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副教授,研究方向?yàn)閭鞲衅骶W(wǎng)絡(luò)安全、計(jì)算機(jī)網(wǎng)絡(luò)安全、安全密鑰管理。

        猜你喜歡
        集成學(xué)習(xí)入侵檢測
        基于局部有效性的選擇性決策樹集成
        基于集成學(xué)習(xí)的高送轉(zhuǎn)股票研究
        基于稀疏編碼器與集成學(xué)習(xí)的文本分類
        基于屬性權(quán)重的Bagging回歸算法研究
        多Agent的創(chuàng)新網(wǎng)絡(luò)入侵檢測方法仿真研究
        基于入侵檢測的數(shù)據(jù)流挖掘和識(shí)別技術(shù)應(yīng)用
        藝術(shù)類院校高效存儲(chǔ)系統(tǒng)的設(shè)計(jì)
        基于網(wǎng)絡(luò)規(guī)劃識(shí)別的入侵檢測結(jié)構(gòu)
        基于關(guān)聯(lián)規(guī)則的計(jì)算機(jī)入侵檢測方法
        基于Φ—OTDR的分布式入侵檢測系統(tǒng)的應(yīng)用綜述
        科技視界(2016年9期)2016-04-26 12:11:48
        国模欢欢炮交啪啪150| 亚洲2022国产成人精品无码区| 日本视频一区二区三区一| 亚洲免费观看视频| 亚洲综合av永久无码精品一区二区| 国产成人无码精品久久二区三区 | 黑丝美腿国产在线观看| 久久亚洲精品国产av| 国产一区二区三区毛片| 色爱av综合网站| 夜夜未满十八勿进的爽爽影院| 午夜亚洲www湿好大| 国产AV国片精品有毛| 超薄肉色丝袜一区二区| 免费jjzz在线播放国产| 亚洲欧美日韩在线中文一| 大香蕉久久精品一区二区字幕| 亚洲成人av在线播放不卡| 美女扒开腿露内裤免费看| 日韩欧美亚洲国产精品字幕久久久| 国产欧美日韩精品专区| 国产真实夫妇视频| 日本一区二区不卡视频| 亚洲无码夜夜操| 一区二区三区国产偷拍| 免费人妖一区二区三区| 美女视频黄是免费| 欧美人与动人物牲交免费观看久久| 亚洲永久无码7777kkk| 亚洲伊人久久一次| 麻豆人妻无码性色AV专区| 看中文字幕一区二区三区| 91九色最新国产在线观看| 草草浮力影院| 亚洲AV日韩AV无码A一区| 久久精品国产亚洲av桥本有菜| 日本免费一区二区久久久| 天天干天天日夜夜操| 国产午夜精品一区二区三区不卡 | 国产精品成人一区二区在线不卡 | 无码国内精品人妻少妇蜜桃视频|