亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于Cross-DeepFM的軍事訓(xùn)練推薦模型*

        2022-08-20 01:39:22高永強張之明王宇濤
        計算機工程與科學 2022年8期
        關(guān)鍵詞:深度特征實驗

        高永強,張之明,王宇濤

        (1.武警工程大學信息工程學院,陜西 西安 710086;2.中國人民武裝警察部隊貴州省總隊,貴州 貴陽 550081)

        1 引言

        新一輪軍事信息化革命的推進對軍事訓(xùn)練組訓(xùn)方式提出了新的要求。以往的軍事訓(xùn)練方式在尊重個體差異性方面仍有所欠缺,較難制定出個性化的訓(xùn)練計劃。將推薦系統(tǒng)應(yīng)用于軍事訓(xùn)練領(lǐng)域,通過適當?shù)耐扑]算法對訓(xùn)練數(shù)據(jù)進行分析,可以形成具有針對性的軍事訓(xùn)練方案,為提高部隊整體戰(zhàn)斗力提供科學輔助。因此,個性化軍事訓(xùn)練推薦系統(tǒng)的研究與應(yīng)用具有重要的理論意義和實踐價值。

        近年來,深度學習取得了長足發(fā)展并被廣泛應(yīng)用到了計算機視覺、自然語言處理和語音識別等領(lǐng)域,基于深度學習的推薦系統(tǒng)研究也成為當前研究的熱點之一。文獻[1]提出了基于深度學習的協(xié)同過濾模型NeuralCF(Neural Collaborative Filtering),用深度神經(jīng)網(wǎng)絡(luò)替代了矩陣分解模型中簡單的內(nèi)積操作,使用戶向量和物品向量能夠更充分地交叉,有效提高了模型的表達能力。文獻[2]將單層的線性模型和深度神經(jīng)網(wǎng)絡(luò)相結(jié)合提出了Wide &Deep模型,使模型兼具較強的“記憶能力”和“泛化能力”。文獻[3]用交叉網(wǎng)絡(luò)代替Wide &Deep模型中的Wide部分,組合交叉網(wǎng)絡(luò)和深度網(wǎng)絡(luò)2部分輸出進行預(yù)測,提出了DCN(Deep &Cross Network)網(wǎng)絡(luò)模型。文獻[4]用因子分解機FM(Factorization Machine)模型替換了Wide &Deep模型中的Wide部分,提出了深度因子分解機模型DeepFM(Deep Factorization Machine),加強了淺層網(wǎng)絡(luò)部分的特征組合能力。隨著圖神經(jīng)網(wǎng)絡(luò)的不斷發(fā)展,越來越多的研究人員提出了基于圖神經(jīng)網(wǎng)絡(luò)的推薦算法。文獻[5]將GCN(Graph Convolutional Network)引入推薦系統(tǒng),提出了NGCF(Neural Graph Collaborative Filtering)模型,顯式建模User-Item之間的高階連接性并據(jù)此給出推薦。文獻[6]提出了一種高效的圖卷積神經(jīng)網(wǎng)絡(luò)推薦算法PinSage,通過該算法產(chǎn)生圖中節(jié)點的嵌入表達,成功地將其應(yīng)用到了節(jié)點數(shù)為10億級別的超大規(guī)模推薦系統(tǒng)中。文獻[7]提出了RippleNet,引入知識圖譜信息,沿著知識圖譜中的連接自動擴展用戶的潛在偏好,提高了推薦系統(tǒng)的性能。文獻[8]提出了基于知識圖譜和圖注意網(wǎng)絡(luò)的推薦算法KG-GAT(Knowledge Graph and Graph Attention neTwork),將知識圖譜作為輔助信息,在圖注意網(wǎng)絡(luò)中使用分層注意力機制獲取更有效的用戶和項目的潛在表示,能夠生成更精確的top-N推薦列表。

        目前,推薦系統(tǒng)在軍事領(lǐng)域已有諸多應(yīng)用,尤其是軍事情報智能推送和軍事新聞個性化推薦領(lǐng)域。申遠等[9]提出了一種基于深度神經(jīng)網(wǎng)絡(luò)和Doc2Vec的戰(zhàn)場態(tài)勢智能推送算法,能夠充分利用用戶-情報歷史交互信息挖掘二者之間的關(guān)聯(lián)關(guān)系,是混合推薦模型在軍事情報智能推送中的典型應(yīng)用之一。王中偉等[10]針對軍事用戶特點,提出了一種軍事文本信息智能推薦技術(shù),并基于“沙漠風暴”軍事文本內(nèi)容構(gòu)建了軍事用戶角色的特征層次模型,實現(xiàn)了情報信息的智能推薦。袁仁進[11]提出了一種基于支持向量機和二分K均值聚類的軍事新聞推薦方法,首先使用支持向量機來表示軍事新聞的文本特征,然后使用聚類算法對文本進行分類,最后將各類軍事新聞推薦給相應(yīng)的感興趣的用戶。但是,推薦系統(tǒng)在軍事訓(xùn)練領(lǐng)域的應(yīng)用目前還比較少。

        基于對深度學習推薦系統(tǒng)的研究分析,本文將推薦系統(tǒng)應(yīng)用到軍事訓(xùn)練領(lǐng)域,基于DeepFM模型的設(shè)計思路,將深度殘差神經(jīng)網(wǎng)絡(luò)DRN(Deep Residual Network)、深度交叉網(wǎng)絡(luò)DCN和因子分解機FM相結(jié)合,提出了Cross-DeepFM(Cross Deep Factorization Machine)混合推薦模型。最后將該模型與主流的深度推薦模型進行了對比實驗,驗證了該模型的有效性。

        2 模型工作流程

        為完成軍事訓(xùn)練推薦任務(wù),本文所提模型的工作流程如圖1所示,主要步驟包括軍事訓(xùn)練數(shù)據(jù)采集、數(shù)據(jù)預(yù)處理與特征提取、推薦模型設(shè)計、模型訓(xùn)練和模型評估與應(yīng)用。

        Figure 1 Flow chart of model圖1 模型工作流程

        步驟1軍事訓(xùn)練數(shù)據(jù)采集。該步驟主要是收集模型所需要的原始數(shù)據(jù)。本文采集了某軍事院校2020年4個季度的學員軍事訓(xùn)練成績以及參訓(xùn)人員和訓(xùn)練科目信息,構(gòu)建軍事訓(xùn)練數(shù)據(jù)集。

        步驟2數(shù)據(jù)預(yù)處理與特征提取。對原始數(shù)據(jù)中的重復(fù)值、缺失值和異常值等非法數(shù)據(jù)進行修正,對數(shù)據(jù)進行one-hot編碼和歸一化操作,使數(shù)據(jù)格式符合模型訓(xùn)練的要求。

        步驟3推薦模型設(shè)計。為提高推薦效果,克服傳統(tǒng)推薦模型面臨的數(shù)據(jù)稀疏和冷啟動問題,在DeepFM模型結(jié)構(gòu)的基礎(chǔ)上,提出了一種結(jié)合深度殘差網(wǎng)絡(luò)、深度交叉網(wǎng)絡(luò)和因子分解機的混合推薦模型。

        步驟4模型訓(xùn)練。每輪訓(xùn)練輸入一個批次的數(shù)據(jù),根據(jù)設(shè)定好的損失函數(shù)計算損失值,應(yīng)用誤差反向傳播算法計算梯度并利用梯度下降算法更新模型參數(shù),循環(huán)迭代至模型收斂。

        步驟5模型評估與應(yīng)用。選定評估指標,在本文構(gòu)建的軍事訓(xùn)練數(shù)據(jù)集上測試模型性能,并與因子分解機、深度因子分解機和深度交叉網(wǎng)絡(luò)等模型進行對比,并最終通過結(jié)合多個模型輸出結(jié)果完成軍事訓(xùn)練推薦任務(wù)。

        3 Cross-DeepFM模型結(jié)構(gòu)

        3.1 模型整體結(jié)構(gòu)

        本文提出的Cross-DeepFM模型由深度殘差網(wǎng)絡(luò)DRN、深度交叉網(wǎng)絡(luò)DCN和因子分解機FM 3部分并行組成,模型結(jié)構(gòu)如圖2所示。其中,F(xiàn)M負責對二階特征組合進行自動學習,DCN負責提取線性交叉組合特征,DRN負責提取深層次高階非線性特征。下面詳細分析模型各個組成部分的結(jié)構(gòu)和原理。

        Figure 2 Structure of Cross-DeepFM model 圖2 Cross-DeepFM模型結(jié)構(gòu)

        3.2 嵌入層

        原始數(shù)據(jù)中的參訓(xùn)學員ID、學員類別、訓(xùn)練科目ID、訓(xùn)練科目類型等類別型字段數(shù)據(jù)經(jīng)過one-hot編碼后包含大量離散信息,直接將高維稀疏特征傳入模型會導(dǎo)致模型參數(shù)過多,所以在模型的輸入部分引入嵌入層(Embedding Layer),將高維稀疏特征轉(zhuǎn)換為低維稠密特征。

        3.3 FM

        FM是由Rendle等[12]提出的,其綜合了矩陣分解和支持向量機模型的優(yōu)勢,尤其適合數(shù)據(jù)稀疏的場景。普通線性模型僅僅將不同特征進行加權(quán)求和,沒有考慮特征之間的組合關(guān)系,模型的表達能力較弱。FM在線性回歸模型的基礎(chǔ)上,引入了二階組合項xixj,能夠?qū)W習特征之間的非線性交互關(guān)系,其表達式如式(1)所示:

        (1)

        (2)

        此時二階FM表達式可以寫為式(3)所示:

        (3)

        利用隨機梯度下降方法對FM進行訓(xùn)練,通過式(3)可以得到模型中各個參數(shù)的梯度如式(4)所示:

        (4)

        3.4 DCN

        FM是淺層模型,可以有效地提取一階特征和二階特征,如果加入三階及以上的特征組合,會使模型的預(yù)測和訓(xùn)練復(fù)雜度過高,最終導(dǎo)致特征爆炸問題。為了增加特征之間的交互力度,本文在模型中引入Cross Network[3]對輸入向量進行高階特征交叉。單層Cross Network的結(jié)構(gòu)如圖3[3]所示。

        Figure 3 Structure of Cross Network圖3 Cross Network結(jié)構(gòu)

        假設(shè)第l層Cross Network的輸出向量為xl,則第l+1層輸出向量的計算公式如式(5)所示:

        (5)

        由Cross Network的結(jié)構(gòu)可知,多層Cross Network的參數(shù)量為D×L×2,其中,D為輸入數(shù)據(jù)的維度,L為Cross Network的層數(shù)。與全連接神經(jīng)網(wǎng)絡(luò)相比,其參數(shù)要少一個數(shù)量級??梢?,多層Cross Network充分考慮了不同特征之間的交叉組合,原始數(shù)據(jù)在每一層都和當前層數(shù)據(jù)進行特征交叉,在保留原始數(shù)據(jù)低階特征的同時,又交叉作用于深層高階特征。

        3.5 DRN

        DRN是一個全連接的多層前饋神經(jīng)網(wǎng)絡(luò),通過多個全連接的神經(jīng)網(wǎng)絡(luò)層獲得復(fù)雜的非線性處理能力。深度全連接神經(jīng)網(wǎng)絡(luò)每層的輸出如式(6)所示:

        a(l+1)=σ(W(l+1)a(l)+b(l))

        (6)

        其中,a(l+1)為第l層的輸出,W(l+1)和b(l)分別為第l層的權(quán)重矩陣和偏置,σ(·)為激活函數(shù)。

        通常認為,深度神經(jīng)網(wǎng)絡(luò)的深度越深,其提取特征的能力和表達能力越強,然而,深度增加也會導(dǎo)致模型難以收斂,造成網(wǎng)絡(luò)性能退化。為了增加網(wǎng)絡(luò)深度增強網(wǎng)絡(luò)提取高級特征的能力,同時克服深層神經(jīng)網(wǎng)絡(luò)面臨的梯度消失和梯度爆炸問題,本文在DRN中引入殘差結(jié)構(gòu)[13]和Dropout機制[14],結(jié)構(gòu)如圖4所示。圖4中,x表示殘差模塊的輸入,F(xiàn)(x)表示殘差函數(shù)。每個殘差模塊的輸入都與殘差模塊的輸出加在一起,作為輸出,即:xl+1=xl+F(xl,Wl)。引入殘差模塊,增加了一個恒等映射,將原始需要學習的函數(shù)H(x)轉(zhuǎn)換為F(x)+x,F(x)+x的優(yōu)化難度比H(x)小得多,并且不會給網(wǎng)絡(luò)增加額外的參數(shù)和計算量,在模型層數(shù)增加時能很好地解決模型的性能退化問題。

        Figure 4 Structure with deep residual network and Dropout圖4 引入殘差模塊和Dropout的網(wǎng)絡(luò)結(jié)構(gòu)

        在深度殘差網(wǎng)絡(luò)中引入Dropout機制是為了防止模型在訓(xùn)練過程中出現(xiàn)過擬合現(xiàn)象,增強模型的泛化能力。在訓(xùn)練過程中每個神經(jīng)元會以設(shè)定的概率進入失活狀態(tài),例如神經(jīng)網(wǎng)絡(luò)中某一層有1 000個神經(jīng)元,本文設(shè)定Dropout概率為0.3,則這一層神經(jīng)元經(jīng)過Dropout后,大約300個神經(jīng)元的輸出值會被置為0。其計算公式如式(7)所示:

        (7)

        3.6 輸出層

        最后模型的輸出如式(8)所示:

        (8)

        4 模型訓(xùn)練

        本文采用的目標函數(shù)為平方損失函數(shù),如式(9)所示:

        (9)

        在模型訓(xùn)練開始前,首先隨機初始化模型參數(shù),在前向傳播階段將訓(xùn)練集數(shù)據(jù)輸入模型計算出一個目標值及其對應(yīng)的損失函數(shù)值。在反向傳播階段,利用反向傳播算法計算出模型中每個參數(shù)的梯度值,采用梯度下降算法對模型參數(shù)進行更新。循環(huán)執(zhí)行上述操作直到完成指定的迭代次數(shù),模型訓(xùn)練完成。Cross-DeepFM模型的整體訓(xùn)練流程如算法1所示。

        算法1Cross-DeepFM模型訓(xùn)練

        輸入:訓(xùn)練集、模型參數(shù)、批次大小batch、迭代次數(shù)epoch和學習率r。

        輸出:優(yōu)化的模型參數(shù)。

        步驟1初始化模型參數(shù);

        步驟2創(chuàng)建Adam優(yōu)化器對象;

        步驟3While迭代次數(shù)小于epochdo

        步驟4for一批次數(shù)據(jù) in 訓(xùn)練集do

        步驟5將數(shù)據(jù)輸入嵌入層,將高維的稀疏向量轉(zhuǎn)換為低維的稠密向量;

        步驟6利用式(3)得到FM的輸出yFM;

        步驟7利用式(5)得到DCN的輸出yDCN;

        步驟8利用式(6)和式(7)得到DRN的輸出yDRN;

        步驟9將以上3部分輸出向量進行拼接,利用式(8)得到模型的最終輸出;

        步驟10利用式(9)計算模型損失值;

        步驟11利用反向傳播算法計算參數(shù)梯度;

        步驟12使用Adam優(yōu)化器更新模型參數(shù);

        步驟13endfor

        步驟14endwhile

        5 實驗與結(jié)果分析

        5.1 實驗環(huán)境

        本文實驗使用的硬件平臺為Intel Xeon(R)Gold 5218 處理器,NVIDIA GeForce RTX 3080 12 GB顯卡。軟件平臺為Ubuntu 18.04操作系統(tǒng),深度學習框架為PyTorch,編程語言為Python 3.7。具體環(huán)境參數(shù)配置參見表1。

        Table 1 Parameters of experimental environment表1 實驗環(huán)境參數(shù)

        5.2 數(shù)據(jù)集

        本文采用的自定義軍事訓(xùn)練數(shù)據(jù)集來源于某軍事院校學員某年度全年的軍事訓(xùn)練考核數(shù)據(jù),包括3 600名參訓(xùn)人員在15個軍事訓(xùn)練科目上的20 000條訓(xùn)練成績數(shù)據(jù),主要包括以下3部分內(nèi)容。

        (1)參訓(xùn)學員個人信息。該部分數(shù)據(jù)包含學員號、身份證號、姓名、性別、學員類別、入學年份、年齡、籍貫、身高、體重和單位等屬性數(shù)據(jù)。

        (2)訓(xùn)練科目基本信息。該部分數(shù)據(jù)采集自最新的軍事訓(xùn)練與考核大綱等文件,包括科目名稱、類型、評分標準和成績評定等數(shù)據(jù)。

        (3)參訓(xùn)學員軍事科目訓(xùn)練成績和評價信息。該部分數(shù)據(jù)包含學員號、訓(xùn)練科目、考核時間、考核地點、考官、考核成績、評定和綜合評價等數(shù)據(jù)。

        將數(shù)據(jù)集隨機分成訓(xùn)練集和測試集2部分,訓(xùn)練集占比80%,用于學習推薦模型中的參數(shù);測試集占比20%,用于評估推薦模型的準確性。

        5.3 評價指標

        本文采用均方根誤差RMSE(Root Mean Square Error)和平均絕對誤差MAE(Mean Absolute Error)作為模型性能的評估指標,誤差值越小,表明算法的推薦精度越高。RMSE和MAE的計算方式分別如式(10)和式(11)所示:

        (10)

        (11)

        5.4 對比模型

        為了驗證Cross-DeepFM模型的性能,本文采用以下幾個具有代表性的推薦模型進行對比實驗:

        (1)FM模型[12]:一種能對二階特征組合進行自動學習的模型,通過隱向量做內(nèi)積來表示組合特征,能夠有效解決高維數(shù)據(jù)的特征組合問題,具有較高的預(yù)測精度和計算效率,在推薦系統(tǒng)領(lǐng)域得到了廣泛研究和應(yīng)用。

        (2)神經(jīng)因子分解機NFM(Neural Factorization Machine)模型[15]:在嵌入層和神經(jīng)網(wǎng)絡(luò)層之間加入了特征交叉池化層,與傳統(tǒng)因子分解機模型相比,實現(xiàn)了更高階的特征交叉,獲得了更好的預(yù)測性能。

        (3)DCN模型[3]:由谷歌和斯坦福大學提出的一種深度學習推薦模型,采用交叉網(wǎng)絡(luò)代替Wide &Deep模型中的Wide部分,組合交叉網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)2部分的輸出進行預(yù)測。

        (4)DeepFM模型[4]:由哈爾濱工業(yè)大學和華為提出的一種深度學習推薦模型,結(jié)合了因子分解機和深度神經(jīng)網(wǎng)絡(luò),因子分解機負責提取低階組合特征,深度神經(jīng)網(wǎng)絡(luò)部分負責提取高階組合特征。

        5.5 實驗結(jié)果分析

        本文為了從多角度驗證本文模型的有效性,從深度網(wǎng)絡(luò)結(jié)構(gòu)對算法性能的影響、深度模型參數(shù)對算法性能的影響和算法效果對比3個方面進行了實驗。

        5.5.1 深度網(wǎng)絡(luò)結(jié)構(gòu)對模型性能的影響

        為了研究殘差模塊對模型性能的影響,本文在自定義軍事訓(xùn)練數(shù)據(jù)集上設(shè)置了一組對比實驗。去除Cross-DeepFM模型中的殘差模塊DRN,全部替換成普通的全連接層,并與原始Cross-DeepFM模型進行實驗對比,結(jié)果如表2所示,表中數(shù)據(jù)均為5次實驗結(jié)果的平均值。

        Table 2 Influence of residual module on model performance表2 殘差模塊對模型性能的影響

        從實驗結(jié)果可以看出,加入殘差模塊的模型性能整體優(yōu)于不加入殘差模塊的模型的。在自定義軍事訓(xùn)練數(shù)據(jù)集上,引入殘差模塊的Cross-DeepFM模型的MAE為0.882 0,相較于只采用普通全連接神經(jīng)網(wǎng)絡(luò)的Cross-DeepFM模型下降了4.5%;RMSE為1.113 5,下降了9.2%。以上結(jié)果表明,引入殘差模塊可以有效解決深度神經(jīng)網(wǎng)絡(luò)的退化問題,提高了模型的高階特征學習能力。

        5.5.2 深度模型參數(shù)對模型性能的影響

        為了探究Cross-DeepFM模型中深度神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)層數(shù)L的最優(yōu)值,本文對網(wǎng)絡(luò)層數(shù)L對模型性能的影響進行了實驗測試,實驗結(jié)果如圖5所示。圖5中展示了神經(jīng)網(wǎng)絡(luò)層數(shù)從2到10變化時,Cross-DeepFM模型在訓(xùn)練集和測試集上RMSE值的變化趨勢。在訓(xùn)練集上,隨著網(wǎng)絡(luò)層數(shù)的增大,模型的RMSE值逐漸下降,表明模型的擬合能力在逐漸增強。在測試集上,隨著網(wǎng)絡(luò)層數(shù)的增大,RMSE值呈現(xiàn)出先下降后上升的趨勢,當網(wǎng)絡(luò)層數(shù)為6時,RMSE值最小,此時模型的準確度最高。當網(wǎng)絡(luò)層數(shù)繼續(xù)增大時,模型在訓(xùn)練集上的效果很好,而在測試集上的效果開始變差,表明模型出現(xiàn)了過擬合現(xiàn)象,泛化能力變差。該實驗結(jié)果表明,恰當?shù)哪P蛯訑?shù)設(shè)置能夠使模型具有較高泛化能力的同時保持合理的計算復(fù)雜度,因此在下一步的模型性能對比實驗中將神經(jīng)網(wǎng)絡(luò)層數(shù)設(shè)定為6。

        Figure 5 Influence of neural network layers on model performance圖5 神經(jīng)網(wǎng)絡(luò)層數(shù)對模型性能的影響

        為了防止模型過擬合,本文在DCN模型、DeepFM模型和Cross-DeepFM模型中的深度神經(jīng)網(wǎng)絡(luò)部分引入Dropout機制。為了分析不同Dropout比率對模型性能的影響,本文以Dropout比率作為自變量,模型的RMSE值作為因變量,在自定義軍事訓(xùn)練數(shù)據(jù)集上進行了對比實驗,實驗結(jié)果如圖6所示。

        Figure 6 Influence of Dropout rate on model performance圖6 Dropout比率對模型性能的影響

        從圖6可知,隨著Dropout比率的逐漸提高,模型性能呈現(xiàn)出先升高后下降的趨勢。這是由于Dropout比率過大時,神經(jīng)網(wǎng)絡(luò)中大部分神經(jīng)元處于休眠狀態(tài),使模型的表達能力下降,處于欠擬合狀態(tài);而Dropout比率過小時,神經(jīng)網(wǎng)絡(luò)中大部分神經(jīng)元處于活躍狀態(tài),模型很容易出現(xiàn)過擬合狀態(tài)。這反映出恰當?shù)腄ropout比率設(shè)置可以有效緩解過擬合,使模型具有更好的泛化能力。根據(jù)以上實驗結(jié)果,在下一步的模型性能對比實驗中將Dropout比率設(shè)定為0.5。

        5.5.3 模型性能對比實驗

        為了客觀地驗證本文模型的性能,本文將使用最優(yōu)參數(shù)組合條件下的Cross-DeepFM模型與4.5.4節(jié)介紹的4個推薦模型進行對比實驗,通過RMSE和MAE指標評估模型性能。最終實驗結(jié)果如表3所示,表中數(shù)據(jù)均為5次實驗結(jié)果的平均值。

        Table 3 MAE and RMSE comparison of different models表3 不同模型的MAE和RMSE

        分析實驗結(jié)果可以得到如下結(jié)論:

        在使用相同數(shù)據(jù)集的情況下,深度學習模型的性能比因子分解機等傳統(tǒng)淺層模型的性能更優(yōu)。主要原因在于:首先,傳統(tǒng)淺層模型的局限性在于其只能學習線性特征,而深度學習推薦模型能夠以非線性方式對參訓(xùn)人員和訓(xùn)練科目進行建模;其次,一些深度學習技巧如Dropout、殘差連接等能夠有效抑制過擬合,提高了模型的泛化能力。

        本文提出的Cross-DeepFM模型在軍事訓(xùn)練數(shù)據(jù)集上的MAE值和RMSE值均優(yōu)于對比模型的,取得了最優(yōu)的結(jié)果。在自定義軍事訓(xùn)練數(shù)據(jù)集上,Cross-DeepFM模型的MAE值為0.882 4,相比對比模型中表現(xiàn)最好的DeepFM模型,下降了6.3%;RMSE值為1.112 0,相比表現(xiàn)最好的DCN模型,下降了3.6%。該實驗結(jié)果表明,Cross-DeepFM模型結(jié)合了因子分解機、深度交叉網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的優(yōu)點,能夠有效提高評分預(yù)測和成績預(yù)測的準確度。

        6 結(jié)束語

        本文基于因子分解機、深度交叉網(wǎng)絡(luò)和深度殘差神經(jīng)網(wǎng)絡(luò),提出了Cross-DeepFM模型,并將其應(yīng)用于軍事訓(xùn)練推薦系統(tǒng)。最后在自定義軍事訓(xùn)練數(shù)據(jù)集上進行了對比實驗,實驗結(jié)果驗證了本文模型的準確性和優(yōu)越性。下一步將在本文工作的基礎(chǔ)上繼續(xù)進行以下2個方面的研究:一是融入評論文本等多源異構(gòu)數(shù)據(jù),提高模型準確度;二是針對算法運行效率做出改進,提高算法在大規(guī)模數(shù)據(jù)集上的運算速率。

        猜你喜歡
        深度特征實驗
        記一次有趣的實驗
        深度理解一元一次方程
        如何表達“特征”
        做個怪怪長實驗
        不忠誠的四個特征
        當代陜西(2019年10期)2019-06-03 10:12:04
        深度觀察
        深度觀察
        深度觀察
        抓住特征巧觀察
        NO與NO2相互轉(zhuǎn)化實驗的改進
        亚洲天堂男人的av天堂| 亚洲一区二区观看播放| 国产一区二区三区四色av| 国产在线一区二区三精品乱码| 尤物在线精品视频| 久久中文字幕人妻熟av女蜜柚m| 野外三级国产在线观看| 一区二区三区在线观看视频 | 久久久精品国产老熟女| 风韵丰满熟妇啪啪区老熟熟女| 亚洲日本在线电影| 人人做人人妻人人精| 精品第一页| 日韩国产有码精品一区二在线| 精品一区2区3区4区| 亚洲综合另类小说色区| 色诱视频在线观看| 国产顶级熟妇高潮xxxxx| 国产精品入口牛牛影视| 热门精品一区二区三区| 看日本全黄色免费a级| 狠狠噜天天噜日日噜视频麻豆| 精品国产福利久久久| 欧美xxxxx精品| 极品美女调教喷水网站| 国产婷婷色一区二区三区在线| 日韩欧美亚洲综合久久影院d3| 午夜人妻中文字幕福利| 亚洲av手机在线网站| 亚洲女初尝黑人巨高清| 日日碰狠狠丁香久燥| 色窝窝手在线视频| 午夜亚洲精品一区二区| 久久精品第九区免费观看| 中文字幕一区二区三区精彩视频| 国产精品自在拍在线播放| 国内精品久久人妻性色av| 99久久无码一区人妻| 少妇内射高潮福利炮| 亚洲嫩模一区二区三区视频| 中文字幕乱码在线人妻|