亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于集成學(xué)習(xí)的入侵檢測(cè)模型

        2024-01-15 10:18:18李鉑初閻紅燦
        關(guān)鍵詞:準(zhǔn)確率卷積神經(jīng)網(wǎng)絡(luò)

        李鉑初,閻紅燦,2

        (1. 華北理工大學(xué) 理學(xué)院,河北 唐山 063210;2. 河北省數(shù)據(jù)科學(xué)與應(yīng)用重點(diǎn)實(shí)驗(yàn)室,河北 唐山 063210)

        引言

        隨著互聯(lián)網(wǎng)上的信息數(shù)據(jù)日益增加,病毒、滲透、網(wǎng)絡(luò)入侵等網(wǎng)絡(luò)安全問題也愈發(fā)頻繁。入侵檢測(cè)作為保證網(wǎng)絡(luò)安全的重要手段,可以檢測(cè)出用戶的異常行為,攔截惡意用戶的攻擊或入侵行為并檢測(cè)網(wǎng)絡(luò)中的惡意流量,是網(wǎng)絡(luò)信息安全的重要技術(shù)之一。而在目前網(wǎng)絡(luò)攻擊類型日趨多樣、攻擊方式逐漸多元化的趨勢(shì)下,使用人工智能技術(shù)進(jìn)行異常行為檢測(cè)逐漸成為主流。

        針對(duì)異常行為檢測(cè)模型許多專家和學(xué)者進(jìn)行了諸多研究,而在算法改進(jìn)方面,機(jī)器學(xué)習(xí)算法被廣泛應(yīng)用:周杰英等[1]使用梯度提升決策樹進(jìn)行特征選擇,使用隨機(jī)森林模型進(jìn)行特征變換。文獻(xiàn)[2]通過高斯混合模型將數(shù)據(jù)聚類,為每個(gè)簇訓(xùn)練不同的隨機(jī)森林分類器。文獻(xiàn)[3]使用CART(Classification And Regression Trees)決策樹進(jìn)行特征選擇,并使用帶有網(wǎng)格追蹤法確定的超參數(shù)CART決策樹進(jìn)行訓(xùn)練。文獻(xiàn)[4]使用極限隨機(jī)樹進(jìn)行遞歸特征消除,并使用LightGBM(Light Gradient Boosting Machine)模型進(jìn)行分類訓(xùn)練。

        深度學(xué)習(xí)方法在入侵檢測(cè)中也被廣泛研究文獻(xiàn)[5-6]結(jié)合卷積神經(jīng)網(wǎng)絡(luò)與長短期記憶網(wǎng)絡(luò)構(gòu)建入侵檢測(cè)模型。文獻(xiàn)[7]將注意力機(jī)制與LSTM網(wǎng)絡(luò)結(jié)合。文獻(xiàn)[8]融合卷積神經(jīng)網(wǎng)絡(luò)、Bi-GRU和注意力層,并進(jìn)行數(shù)據(jù)擴(kuò)增測(cè)試。文獻(xiàn)[9-10]將生成對(duì)抗網(wǎng)絡(luò)GAN(Generative Adversarial Network)[11]思想應(yīng)用于異常行為檢測(cè)模型,有效提高了檢測(cè)精度。

        除算法外,對(duì)于高維度數(shù)據(jù)的特征選擇也是學(xué)者的研究方向之一。如文獻(xiàn)[12]使用Kmeans聚類算法生成具有典型數(shù)據(jù)特征的數(shù)據(jù)集。文獻(xiàn)[13]通過ReliefF、XGBoost和Pearson相關(guān)系數(shù)計(jì)算特征權(quán)重,以此刪除權(quán)重較低的特征。文獻(xiàn)[14]運(yùn)用基于特征值分布的評(píng)分系統(tǒng)DSM(distribution-based scoring mechanism)進(jìn)行特征提取。

        不平衡數(shù)據(jù)集的訓(xùn)練問題也有學(xué)者進(jìn)行了探究,Zhang等人[15]使用SMOTE算法(Synthetic Minority Over-sampling TEchnique)對(duì)少數(shù)類過采樣,并使用高斯混合模型聚類對(duì)多數(shù)類數(shù)據(jù)進(jìn)行欠采樣得到平衡的數(shù)據(jù)集。文獻(xiàn)[16]將多分類檢測(cè)問題轉(zhuǎn)化為多個(gè)二分類問題,在每個(gè)二分類問題中選擇RBBoost[17],RUSBoost[18],SMOTEBoost[19]等不同的采樣方法。

        針對(duì)UNSW-NB15數(shù)據(jù)集的特點(diǎn),對(duì)UNSW-NB15數(shù)據(jù)集進(jìn)行去除冗余數(shù)據(jù)、選擇維度、采樣等處理,提出了一種聯(lián)合深度學(xué)習(xí)與機(jī)器學(xué)習(xí)的算法,首先通過并行卷積神經(jīng)網(wǎng)絡(luò)串聯(lián)LSTM網(wǎng)絡(luò)訓(xùn)練出一個(gè)模型;之后將其結(jié)果與特征選擇后的特征拼接;對(duì)數(shù)據(jù)進(jìn)行采樣后放入XGBoost模型進(jìn)行訓(xùn)練;本模型運(yùn)用了boosting集成學(xué)習(xí)的思想,充分結(jié)合了深度學(xué)習(xí)與XGBoost算法的優(yōu)勢(shì),在不同規(guī)模、類別數(shù)量的數(shù)據(jù)集上都有良好表現(xiàn)。

        1 相關(guān)工作

        1.1 卷積神經(jīng)網(wǎng)絡(luò)

        卷積神經(jīng)網(wǎng)絡(luò)包括卷積層、池化層、全連接層三個(gè)主要部分。卷積層通過卷積核實(shí)現(xiàn)從輸入數(shù)據(jù)中提取特征,卷積核的參數(shù)通過反向傳播進(jìn)行更新,在訓(xùn)練期間卷積核的權(quán)值保持不變。池化層用于降低特征圖的維度,減少計(jì)算量并增強(qiáng)對(duì)輸入圖像變化的魯棒性,減少過擬合。全連接層在神經(jīng)網(wǎng)絡(luò)分類模型中用于將輸入向量轉(zhuǎn)化為最終輸出完成分類。

        1.2 Bi-LSTM

        (1)

        1.3 XGBoost算法

        XGBoost[20]模型是通過Boosting方式構(gòu)建的一種提升樹模型,是由多個(gè)弱分類器形成的一個(gè)強(qiáng)分類器,其利用上一顆樹預(yù)測(cè)的殘差值生成一顆新樹以此提升模型的總體性能。XGBoost算法是梯度提升決策樹(Gradient Boosting Decison Tree)即GBDT算法的改進(jìn)算法,與GBDT相比,XGBoost對(duì)損失函數(shù)進(jìn)行二階泰勒展開,并在使用CART作為基分類器時(shí)加入正則化項(xiàng)防止過擬合,同時(shí)XGBoost算法支持使用多種類型的基分類器。

        XGBoost的目標(biāo)函數(shù)如公式(2)所示:

        (2)

        (3)

        1.4 特征工程

        在對(duì)數(shù)據(jù)建立模型進(jìn)行分析前,首先需要對(duì)數(shù)據(jù)進(jìn)行特征工程使其標(biāo)準(zhǔn)化、易于建模。特征工程包括數(shù)據(jù)降維、數(shù)據(jù)采樣等方法。數(shù)據(jù)降維可以去除冗余變量,提高模型訓(xùn)練速度,主要分為特征選擇和特征提取兩類。特征選擇是提取原數(shù)據(jù)集的子特征,主要方法有遞歸特征消除、通過樹結(jié)構(gòu)選擇重要特征等。特征提取則是將原始數(shù)據(jù)集變換為一個(gè)維度更低的新特征子集,主要有PCA(Principal Component Analysis)、LDA(Linear Discriminant Analysis)等方法。采樣方法分為過采樣、欠采樣以及組合采樣三大類。過采樣是對(duì)少數(shù)類樣本進(jìn)行重復(fù)抽取或生成類似樣本,方法有簡(jiǎn)單隨機(jī)過采樣、Synthetic Minority Oversampling Technique(SMOTE)、Adaptive Synthetic (ADASYN)[21]等等。欠采樣是將多數(shù)類樣本剔除,主要方法分為從多數(shù)類方法中選擇數(shù)據(jù)的簡(jiǎn)單隨機(jī)欠采樣、NearMiss[22]、ClusterCentroids以及清洗數(shù)據(jù)的TomekLinks、EditedNearestNeighbours等等。組合采樣是將SMOTE與清洗數(shù)據(jù)的方法結(jié)合,去除SMOTE算法生成的與多數(shù)類樣本重疊的數(shù)據(jù);例如SMOTEENN與SMOTETomek[23]算法。

        2 數(shù)據(jù)預(yù)處理與模型搭建

        2.1 數(shù)據(jù)集介紹

        UNSW-NB15數(shù)據(jù)集[24]是一個(gè)入侵檢測(cè)領(lǐng)域的數(shù)據(jù)集,該數(shù)據(jù)集分為訓(xùn)練集與測(cè)試集,其中訓(xùn)練集包含175 341條數(shù)據(jù),測(cè)試集包含82 332條數(shù)據(jù)。UNSW-NB15數(shù)據(jù)集中共有45個(gè)特征,包含'Generic'、'Exploits'、'Fuzzers'、'DoS'、'Reconnaissance'、'Analysis'、'Backdoor'、'Shellcode'、'Worms'9個(gè)攻擊類別以及正常樣本'Normal'類,可以進(jìn)行"正常"與"攻擊"的二分類任務(wù)和十分類任務(wù)。

        2.2 數(shù)據(jù)集預(yù)處理

        原UNSW-NB15訓(xùn)練集與測(cè)試集處理流程如圖1所示。由于原數(shù)據(jù)集中存在數(shù)據(jù)分布不均衡[25]的情況,首先將其訓(xùn)練集與測(cè)試集合并,預(yù)處理后按照類別數(shù)量的比例重新劃分,使得訓(xùn)練集與測(cè)試集中各類樣本比例相同。

        圖1 數(shù)據(jù)處理流程

        (1)獨(dú)熱編碼

        在UNSW-NB15數(shù)據(jù)集中存在proto,service,state3個(gè)字符型屬性,需要先將其轉(zhuǎn)為數(shù)字型數(shù)據(jù)才能參與計(jì)算,因此將這3列轉(zhuǎn)換為One-Hot(獨(dú)熱)編碼形式,轉(zhuǎn)變后的數(shù)據(jù)共有196維(刪除id、二分類標(biāo)簽與多分類標(biāo)簽三維)。

        (2)數(shù)據(jù)標(biāo)準(zhǔn)化

        由于UNSW-NB15數(shù)據(jù)集中各個(gè)特征的數(shù)值方差較大,為避免模型受到不同規(guī)模特征的影響、提高模型收斂速度,將所有數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化使其映射到[0,1]之間。本文選用最大-最小標(biāo)準(zhǔn)化法,計(jì)算公式如下:

        (4)

        其中X是樣本的值,Xmax和Xmin是該特征在所有樣本上的最大值和最小值,X'則是歸一化后樣本的值。

        (3)去除冗余數(shù)據(jù)

        在UNSW-NB15數(shù)據(jù)集中存在部分重復(fù)數(shù)據(jù),且存在特征相同、類別標(biāo)簽不同的數(shù)據(jù);為提升模型訓(xùn)練效果、去除共計(jì)40 400個(gè)特征相同而所屬類別不同的噪聲數(shù)據(jù)。表1中展示了去除噪聲數(shù)據(jù)后的數(shù)據(jù)集。

        表1 去除冗余數(shù)據(jù)后的數(shù)據(jù)分布

        (4) 數(shù)據(jù)降維

        數(shù)據(jù)集在進(jìn)行獨(dú)熱編碼后維數(shù)較高,因此采用數(shù)據(jù)降維。選擇隨機(jī)森林、遞歸特征消除等特征選擇方法進(jìn)行數(shù)據(jù)降維。為保證數(shù)據(jù)降維不提前學(xué)習(xí)到測(cè)試集數(shù)據(jù)特征,本文進(jìn)行數(shù)據(jù)降維時(shí)只使用訓(xùn)練集數(shù)據(jù)。

        (5) 采樣方法

        在UNSW-NB15數(shù)據(jù)集中,同時(shí)存在超過萬條的類別以及不足一千條的類別,本文對(duì)上(過)采樣[26]、下(欠)采樣[27]與混合采樣幾種方法進(jìn)行對(duì)比。

        2.2 行為檢測(cè)模型架構(gòu)

        本文構(gòu)建的入侵檢測(cè)模型分為2個(gè)部分,如圖2所示,分別是基于深度學(xué)習(xí)的并行卷積神經(jīng)網(wǎng)絡(luò)連接LSTM模型與XGBoost模型。模型訓(xùn)練流程分為3個(gè)步驟:首先通過訓(xùn)練集訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練完成的模型在測(cè)試集上進(jìn)行預(yù)測(cè),得到模型對(duì)各個(gè)分類的概率(類別數(shù)*數(shù)據(jù)個(gè)數(shù))。之后構(gòu)建XGBoost模型輸入數(shù)據(jù):采用K折交叉驗(yàn)證,將訓(xùn)練集分為K份,由每K-1份訓(xùn)練生成一個(gè)神經(jīng)網(wǎng)絡(luò)模型,得到最后一份數(shù)據(jù)對(duì)各個(gè)分類的預(yù)測(cè)概率;將K個(gè)模型預(yù)測(cè)得到的結(jié)果拼接成訓(xùn)練集結(jié)果;之后將原數(shù)據(jù)與訓(xùn)練集和測(cè)試集的預(yù)測(cè)概率拼接成XGBoost模型的訓(xùn)練集與測(cè)試集。最后將拼接成的訓(xùn)練集放入XGBoost模型中進(jìn)行訓(xùn)練,通過測(cè)試集得到預(yù)測(cè)結(jié)果。

        圖2 CNN-LSTM+XGBoost模型

        2.2.1 并行CNN+LSTM模型

        檢測(cè)模型的第一部分使用并行卷積神經(jīng)網(wǎng)絡(luò)連接長短期記憶網(wǎng)絡(luò)LSTM,模型結(jié)構(gòu)與參數(shù)如圖3所示。具體過程為:首先對(duì)數(shù)據(jù)進(jìn)行轉(zhuǎn)化,變?yōu)榭晒┚矸e神經(jīng)網(wǎng)絡(luò)輸入的三維數(shù)據(jù)流;輸入層獲取數(shù)據(jù)流后,通過并行卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,提取到數(shù)據(jù)不同深度的深層特征;再將不同深度的深層特征拼接傳入2層Bi-LSTM網(wǎng)絡(luò)獲取輸入的全局特征,最后由全連接層進(jìn)行分類預(yù)測(cè)。

        圖3 CNN+LSTM神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)

        Stacking集成方法第一層的作用是生成元特征作為第二層的輸入,使用第一層可以減少過擬合、提高分類精確度。第一層可以采用一個(gè)或多個(gè)相同或不同的基分類器,該研究第一層采用的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)具有較好的分類能力,對(duì)不同維度的特征進(jìn)行訓(xùn)練都有較好效果。

        2.2.2 XGBoost模型

        檢測(cè)模型的第二部分是XGBoost算法,經(jīng)過CNN+LSTM神經(jīng)網(wǎng)絡(luò)模型獲得預(yù)測(cè)概率后,將訓(xùn)練集與測(cè)試集分別與得到的預(yù)測(cè)概率特征進(jìn)行拼接,將得到的訓(xùn)練集放入XGBoost模型進(jìn)行訓(xùn)練。數(shù)據(jù)集特征較多的情況下可以進(jìn)行特征選擇來減少特征維度。流程圖如圖4所示。

        圖4 XGBoost模型訓(xùn)練流程

        XGBoost算法的參數(shù)如表2所示。

        表2 XGBoost算法參數(shù)值

        3 實(shí)驗(yàn)結(jié)果與討論

        3.1 實(shí)驗(yàn)環(huán)境

        本文實(shí)驗(yàn)設(shè)備為Intel Core i7-10875H CPU,16GB內(nèi)存以及NVIDIA的 GeForce RTX2060顯卡。實(shí)驗(yàn)環(huán)境采用python3.8編程語言,采用Tensorflow2.4.1、scikit-learn 0.24.1構(gòu)建模型。

        3.2 評(píng)估指標(biāo)

        實(shí)驗(yàn)采用準(zhǔn)確率(accuracy)指標(biāo)評(píng)估模型整體效果,其公式如下:

        (5)

        由于數(shù)據(jù)中各類樣本數(shù)量不均衡,因此全局準(zhǔn)確率主要受數(shù)量多的數(shù)據(jù)影響,準(zhǔn)確率的高低無法有效反應(yīng)模型對(duì)于少數(shù)類樣本的分類效果,召回率(recall)、精準(zhǔn)率(precision)、F1-score(f1-score)指標(biāo)可以有效評(píng)價(jià)模型對(duì)于不同類別數(shù)據(jù)的分類效果。對(duì)于每一類樣本的recall、precision、f1-score值,其公式如下:

        (6)

        (7)

        (8)

        在多分類任務(wù)中,TP(true positives)是將本類樣本成功預(yù)測(cè)為本類的數(shù)量,TN(true negatives)是將其它類樣本預(yù)測(cè)為其他類的數(shù)量,FN(false negatives)是將本類樣本預(yù)測(cè)為其它類的數(shù)量,FP(false positives)是將其他類樣本預(yù)測(cè)為本類的數(shù)量。

        3.3 模型與基準(zhǔn)模型對(duì)比

        (1) 準(zhǔn)確率對(duì)比:

        將本文提出的CNN+LSTM-In-XGBoost模型與Adaboost算法、KNN(K-Nearest Neighbor)算法、GBDT(Gradient Boosting Decision Tree)算法、隨機(jī)森林算法等常用機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)基準(zhǔn)模型進(jìn)行對(duì)比分析,如圖5所示,該模型總準(zhǔn)確率為91.31,高于其他常用算法。

        圖5 本文算法與其他算法結(jié)果對(duì)比

        (2)算法對(duì)比

        將本文算法與XGBoost算法進(jìn)行對(duì)比,比較其在每一類上的f1值,同時(shí)將其他算法中對(duì)每一類預(yù)測(cè)的最高值加入比較。圖6所示為不同算法對(duì)于每一類預(yù)測(cè)的f1值,該模型對(duì)8個(gè)少數(shù)類的預(yù)測(cè)準(zhǔn)確率最高。證明了本文算法有效改善了原有模型對(duì)于少數(shù)類別的預(yù)測(cè)成功率較低問題。

        圖6 不同算法對(duì)在不同類別上的f1-score值

        (3)算法加入預(yù)測(cè)概率特征與原本對(duì)比

        圖7所示為不同算法對(duì)加入十維訓(xùn)練準(zhǔn)確率特征并進(jìn)行特征選擇后訓(xùn)練的模型與原本模型的結(jié)果對(duì)比。加入預(yù)測(cè)特征后的模型準(zhǔn)確率平均提升1%,少數(shù)類樣本預(yù)測(cè)準(zhǔn)確率提升較大,證明了準(zhǔn)確率特征對(duì)少數(shù)類樣本的預(yù)測(cè)起到了作用。

        圖7 不同算法加入訓(xùn)練準(zhǔn)確率特征后的對(duì)比

        3.4 采樣方法對(duì)比

        圖8對(duì)比了幾種過采樣、欠采樣以及組合采樣方法預(yù)測(cè)準(zhǔn)確率與十類平均f1值。

        圖8 不同采樣方法對(duì)比

        由圖8可知,對(duì)于本數(shù)據(jù)集,過采樣效果普遍高于欠采樣,猜測(cè)為清洗后的數(shù)據(jù)集中冗余數(shù)據(jù)較少。與此同時(shí),不采樣與簡(jiǎn)單隨機(jī)采樣也有較好的效果。表3所示為不同采樣方法下的平均準(zhǔn)確率與召回率值以及五類少數(shù)類樣本(DoS、Analysis、Backdoor、Shellcode、Worms)的平均預(yù)測(cè)準(zhǔn)確率。

        表3 不同采樣方法的平均precision與recall值

        對(duì)比幾種采樣方法在各類樣本上的幾項(xiàng)指標(biāo)可得:選用的12種方法采樣中有6種precision值超過0.75,平均recall值在0.7以上,其中過采樣方法的平均precision普遍高于其它方法,同時(shí)過采樣方法的平均precision和recall值較為平均,整體預(yù)測(cè)效果較好。 InstanceHardnessThreshold采樣方法對(duì)于所有類樣本的平均recall值達(dá)到0.88,該采樣方法會(huì)訓(xùn)練一個(gè)分類器,將分類器中預(yù)測(cè)概率較低的樣本移除,因此,對(duì)少數(shù)類預(yù)測(cè)準(zhǔn)確率達(dá)到76.36%,可以成功預(yù)測(cè)出少數(shù)類樣本,但該方法也會(huì)導(dǎo)致整體準(zhǔn)確率降低。

        總體而言,過采樣能保證整體預(yù)測(cè)效果提升,欠采樣能有效提高少數(shù)類預(yù)測(cè)效果,因此本文選擇先將Analysis、Backdoor、Shellcode、Worms幾個(gè)少數(shù)類進(jìn)行SMOTE過采樣,再對(duì)Normal、Generic等多數(shù)類進(jìn)行簡(jiǎn)單隨機(jī)欠采樣。

        3.5 數(shù)據(jù)維度選擇

        經(jīng)過數(shù)據(jù)預(yù)處理后的原始數(shù)據(jù)共有196維,神經(jīng)網(wǎng)絡(luò)模型預(yù)測(cè)得到的特征為10維;為提升模型的訓(xùn)練與預(yù)測(cè)速度,本文采用隨機(jī)森林算法對(duì)原始數(shù)據(jù)進(jìn)行特征選擇,與神經(jīng)網(wǎng)絡(luò)模型預(yù)測(cè)得到的10維特征拼接后分別構(gòu)建模型;由于XGBoost本身為具有判斷特征重要性能力的樹結(jié)構(gòu),同時(shí)采用XGBoost算法進(jìn)行特征排名,選出特征訓(xùn)練模型。

        圖9所示為由隨機(jī)森林與XGBoost進(jìn)行特征重要性排名,選擇前20、35、50、65維特征同神經(jīng)網(wǎng)絡(luò)十維預(yù)測(cè)結(jié)果分別拼接后作為訓(xùn)練集的模型預(yù)測(cè)結(jié)果。對(duì)比可知,使用隨機(jī)森林選擇的特征訓(xùn)練出的模型準(zhǔn)確率均在91%以上,平均高于XGBoost選擇得到的特征0.5%,與使用全部特征相比平均準(zhǔn)確率只下降了0.2%,效果最好的50維特征僅下降0.04%。

        圖9 不同維度數(shù)預(yù)測(cè)結(jié)果對(duì)比比

        4 結(jié)論

        (1)提出了一種結(jié)合卷積神經(jīng)網(wǎng)絡(luò)、LSTM網(wǎng)絡(luò)與XGBoost算法的網(wǎng)絡(luò)異常行為檢測(cè)模型,該模型在UNSW-NB15數(shù)據(jù)集上多分類準(zhǔn)確率達(dá)到91.31%,在十個(gè)個(gè)類別上平均f1值為0.80,綜合效果高于非集成模型與未使用采樣方法的模型。同時(shí)證明了數(shù)據(jù)降維方法在高維度數(shù)據(jù)中的效果,采用數(shù)據(jù)降維后,模型在十個(gè)類別上平均f1值提升了0.025。

        (2)針對(duì)多分類網(wǎng)絡(luò)異常行為檢測(cè)任務(wù),在觀察實(shí)驗(yàn)結(jié)果后,認(rèn)為下一步改進(jìn)計(jì)劃主要有兩點(diǎn):一是發(fā)現(xiàn)DoS類預(yù)測(cè)準(zhǔn)確率較低,DoS類樣本中近半數(shù)被預(yù)測(cè)為Exploits類,可以就對(duì)于DoS類的預(yù)測(cè)單獨(dú)構(gòu)建模型;二是發(fā)現(xiàn)部分?jǐn)?shù)據(jù)在多輪實(shí)驗(yàn)中均預(yù)測(cè)到其它類,猜測(cè)其標(biāo)簽可能標(biāo)注錯(cuò)誤,證明數(shù)據(jù)仍有進(jìn)一步改進(jìn)的空間。同時(shí)如何建立一個(gè)實(shí)時(shí)檢測(cè)系統(tǒng),如何對(duì)大量數(shù)據(jù)進(jìn)行快速檢測(cè),將預(yù)測(cè)模型落實(shí)到應(yīng)用層面也是未來的工作重點(diǎn)。

        猜你喜歡
        準(zhǔn)確率卷積神經(jīng)網(wǎng)絡(luò)
        基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
        乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
        健康之家(2021年19期)2021-05-23 11:17:39
        不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
        2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
        神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
        電子制作(2019年19期)2019-11-23 08:42:00
        從濾波器理解卷積
        電子制作(2019年11期)2019-07-04 00:34:38
        高速公路車牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
        基于傅里葉域卷積表示的目標(biāo)跟蹤算法
        基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
        復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
        99热精品国产三级在线观看| 国产特黄1区2区3区4区| 青青草免费观看视频免费| 激情都市亚洲一区二区| 欧美a级在线现免费观看| 婷婷色婷婷开心五月四房播播| 青青草原综合久久大伊人| 免费中文熟妇在线影片| 麻豆激情视频在线观看| 99青青草视频在线观看| 免费观看a级片| 日日鲁鲁鲁夜夜爽爽狠狠视频97| 亚洲日韩区在线电影| h视频在线观看视频在线| 国产tv不卡免费在线观看| 国产动作大片中文字幕| 亚洲精品夜夜夜| 久久成人永久免费播放| 日韩精品久久伊人中文字幕 | 人妻有码av中文幕久久| 欧美日韩精品一区二区视频| 消息称老熟妇乱视频一区二区| 精品人妻人人做人人爽夜夜爽| 国产精品亚洲专区无码web| 亚洲精品午夜精品国产| 看中文字幕一区二区三区| 中国娇小与黑人巨大交| 亚洲av无码国产剧情| 精品国产群3p在线观看| 蜜桃色av一区二区三区麻豆| 无码人妻久久久一区二区三区| 中文字幕在线播放| 午夜家庭影院| 亚洲中文字幕在线第二页| 国产自拍一区在线视频| 久久99亚洲精品久久久久| 中国xxx农村性视频| 国内精品91久久久久| 国产一区二区三区精品成人爱| 精品国产粉嫩内射白浆内射双马尾 | 国产精品久久久久尤物|