亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于深度殘差網(wǎng)絡(luò)的DeepFM點(diǎn)擊率預(yù)測模型

        2020-05-28 09:36:21李遙李燁
        軟件導(dǎo)刊 2020年3期

        李遙 李燁

        摘 要:廣告點(diǎn)擊率預(yù)測是互聯(lián)網(wǎng)廣告投放系統(tǒng)中的核心組件,用戶個性化廣告推薦的準(zhǔn)確度對于提高商業(yè)系統(tǒng)回報率有著至關(guān)重要的作用。提出一種基于深度殘差網(wǎng)絡(luò)的DeepFM點(diǎn)擊率預(yù)測架構(gòu),將深度殘差網(wǎng)絡(luò)引入其中的深度神經(jīng)網(wǎng)絡(luò),解決其隨著網(wǎng)絡(luò)變深產(chǎn)生的梯度消失和模型性能退化問題,從而更有效地提取高階組合特征。為了避免過擬合引入Dropout機(jī)制,并且對輸入特征的預(yù)處理引入最大支持的維度參數(shù),以避免獨(dú)熱碼映射時出現(xiàn)維度災(zāi)難?;贑riteo公開數(shù)據(jù)集的研究表明,原生DeepFM的性能優(yōu)于其它主流CTR預(yù)測模型,而提出的模型則具有更低的Logloss和更高的AUC,相比原生DeepFM分別改進(jìn)了1.26%和0.93%。

        關(guān)鍵詞:點(diǎn)擊率預(yù)測;DeepFM;因子分解機(jī);深度神經(jīng)網(wǎng)絡(luò);深度殘差網(wǎng)絡(luò);隨機(jī)失活

        DOI:10. 11907/rjdk. 192670

        中圖分類號:TP303 ? 文獻(xiàn)標(biāo)識碼:A??????????????? 文章編號:1672-7800(2020)003-0074-05

        A Click-through Rate Prediction Model of DeepFM

        Based on Deep Residual Network

        LI Yao, LI Ye

        (School of Optical-Electrical & Computer Engineering, University of Shanghai for Science &Technology, Shanghai 200093, China)

        Abstract: Advertising click-through rate prediction is a core component of Internet advertising system. The accuracy of user personalized recommendations is critical to improve the commercial income. This paper proposes a DeepFM CTR prediction model based on deep residual network. Deep residual network is introduced into the deep neural network to solve the problems of gradient disappearance and model performance degradation caused by the deepening of the network and consequently high-order feature interactions can be learned more effectively. In addition, the Dropout mechanism is adopted to prevent overfitting, and a maximum supported dimension parameter is used in the preprocessing of input features to avoid dimensional disasters. Studies on Criteo public data sets show that the native DeepFM model performs better than other mainstream CTR prediction models, while the proposed model has a lower Logloss and a higher AUC compared to native DeepFM, with improvements of 1.26% and 0.93%, respectively.

        Key Words: click-through rate prediction; DeepFM; factorization machine; deep neural network; deep residual network; dropout

        0 引言

        用戶點(diǎn)擊率預(yù)測(Click-through Rate,CTR)研究是推薦系統(tǒng)中十分重要的組成模塊,也是程序化廣告交易框架中的智慧核心組件,學(xué)習(xí)和預(yù)測用戶行為模式對個性化推薦系統(tǒng)、智能信息檢索等領(lǐng)域都有著極其重要的意義。為了提升用戶點(diǎn)擊率預(yù)測準(zhǔn)確率,過去數(shù)十年內(nèi)不同的學(xué)者對這一領(lǐng)域提出了各種特征提取模型和用戶行為學(xué)習(xí)模型。構(gòu)建好的特征對于機(jī)器學(xué)習(xí)任務(wù)而言至關(guān)重要。He等[1]將決策樹與Logistic回歸(Logistic Regression,LR)相結(jié)合,提出梯度提升決策樹(Gradient Boost Decision Tree,GBDT)模型,其研究表明,捕獲用戶和廣告歷史信息特征對于系統(tǒng)性能具有決定性影響;田嫦麗等[2]基于Hadoop大數(shù)據(jù)平臺研究了GBDT模型的多維特征提取方法;Qiu等[3]提出了一種采用多粒度級聯(lián)森林(gcForest)結(jié)合GBDT的集成學(xué)習(xí)方法,以提高CTR準(zhǔn)確率并降低超參數(shù)調(diào)整工作量;潘書敏等[4]提出了基于用戶相似度和特征分化的CTR方法,根據(jù)混合高斯分布評估用戶相似度,將其劃分為多個群體,針對不同群體,分別構(gòu)建子模型并進(jìn)行有效組合,從而挖掘同一特征對不同群體的差異化影響。

        交叉組合原始特征構(gòu)成新的特征是有效的特征構(gòu)建方法??锟〉萚5]的研究表明基于因子分解機(jī)(Factorization Machine,F(xiàn)M)模型和GBDT+LR模型的預(yù)測精度優(yōu)于基于LR的模型,并且將用戶特征和視頻特征進(jìn)行交叉組合能夠改進(jìn)點(diǎn)擊率預(yù)測精度[6]。FM作為一種矩陣分解模型,能夠有效降低高維數(shù)據(jù)稀疏性,并且對噪聲和冗余不敏感,擁有良好的可擴(kuò)展性[7];鄧路佳等[8]針對傳統(tǒng)單一模型對CTR預(yù)測效果較片面、且廣告日志數(shù)據(jù)存在稀疏性問題,提出一種將高斯混合模型(Gaussian Mixture Model,GMM)與因子分解機(jī)相結(jié)合的廣告點(diǎn)擊率預(yù)測模型;朱志北等[9]對訓(xùn)練數(shù)據(jù)采用隱狄利克雷分配模型(Latent Dirichlet Allocation,LDA)進(jìn)行主題分割,用于訓(xùn)練多個因子分解機(jī)模型,然后依據(jù)廣告屬于各主題的概率對模型進(jìn)行加權(quán)集成;JUAN等[10-11]引入場的概念,提出了場感知因子分解機(jī)(Field-aware Factorization Machines,F(xiàn)FM)模型,使得每兩組特征交叉的隱向量都是獨(dú)立的,取得了更好的組合效果;Pan等[12]很大程度減少了FFM模型的參數(shù)量,提高了算法計(jì)算效率,降低了存儲空間要求。這些方法都取得了不錯的效果,然而,F(xiàn)M類模型只能有效提取一階和二階特征,難以挖掘高階特征信息,限制了模型性能的進(jìn)一步提升。

        FM模型與深度學(xué)習(xí)模型的集成為傳統(tǒng)模型的深度擴(kuò)展提供了思路[13],深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)通過構(gòu)建深層網(wǎng)絡(luò)架構(gòu),可以逐級提取從淺層到深層的特征,從海量數(shù)據(jù)中挖掘豐富而有價值的信息,近幾年性能最顯著的CTR模型均是基于深度學(xué)習(xí)而構(gòu)建的[14-21]。當(dāng)前最具代表性的CTR預(yù)測架構(gòu)是深度因子分解機(jī)(Deep Factorizations Machine,DeepFM)模型[18],DeepFM將FM和深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)相結(jié)合,較好地解決了高階特征挖掘的問題。但是,傳統(tǒng)DNN在反向傳播時存在梯度逐漸消失、參數(shù)不能有效更新的問題,導(dǎo)致模型難以收斂。并且隨著網(wǎng)絡(luò)深度的增加,網(wǎng)絡(luò)性能可能產(chǎn)生退化,即先趨于最優(yōu),然后迅速下降。針對這些問題,提出一種基于深度殘差網(wǎng)絡(luò)的DeepFM架構(gòu),并引入失活(Dropout)機(jī)制抑制過擬合。

        1 基于DeepFM的經(jīng)典CTR預(yù)測模型

        1.1 嵌入編碼層設(shè)計(jì)

        由于CTR預(yù)測中原始輸入特征具有多樣數(shù)據(jù)類型,部分維度甚至是殘缺的,為了將不同類型的特征分量進(jìn)行歸一化映射,同時降低輸入特征向量的維度,一般而言需要將輸入特征先進(jìn)行獨(dú)熱碼向量映射(One Hot Vector Mapping),緊接著在極其稀疏的獨(dú)熱碼輸入層后級聯(lián)嵌入編碼層(Embedding Layer)。與FFM[10]一樣,deepFM把具有相同性質(zhì)的特征歸結(jié)為一個場(Field)。如圖1所示,嵌入層編碼將不同場的獨(dú)熱碼稀疏向量映射到低維向量,這樣可以壓縮原始數(shù)據(jù)信息,極大降低輸入維度。

        其中,x為嵌入編碼后的響應(yīng)向量,S為獨(dú)熱碼稀疏特征向量,M為參數(shù)矩陣,其元素為圖1中連接線的權(quán)重參數(shù),這些參數(shù)在CTR預(yù)測模型訓(xùn)練過程中由學(xué)習(xí)迭代收斂而得到。

        1.2 因子分解機(jī)

        在CTR預(yù)測中由于輸入特征極具稀疏性,同時輸入特征之間存在關(guān)聯(lián)性,Rendle于2010年提出了因子分解機(jī)模型[5],旨在預(yù)測用戶點(diǎn)擊率時充分考慮一階特征和二階組合特征。因子分解機(jī)中的回歸預(yù)測模型為:

        其中,[yFM]為預(yù)測輸出,[n]為輸入特征向量的維度,[xi]為第[i]維輸入特征向量,[ωi]為一階特征的權(quán)重參數(shù),[ωij]為二階組合特征的權(quán)重參數(shù)。該模型的二階組合特征的待學(xué)習(xí)參數(shù)量眾多,為n(n-1)/2,而由于實(shí)際應(yīng)用中數(shù)據(jù)的稀疏性,使得該模型難以訓(xùn)練。將矩陣[{ωij}]分解為[VTV],其中矩陣[V]為:

        其中,[vi]為與[xi]關(guān)聯(lián)的k維隱向量,[]描述了兩個互異特征分量[xi]和[xj]之間的相互關(guān)系。通過這種因子分解,模型的時間復(fù)雜度降低為[O(nk)]。

        1.3 深度神經(jīng)網(wǎng)絡(luò)架構(gòu)

        DeepFM預(yù)測模型引入了DNN對嵌入編碼后的特征向量[x]進(jìn)行全連接層級聯(lián),建立一個回歸或者分類模型,圖2給出了一個典型的DNN模型,其每一個神經(jīng)元的輸出為上一層神經(jīng)元的線性加權(quán)值作非線性映射之后的響應(yīng),即對于[l+1]層神經(jīng)元而言,其輸出響應(yīng)值為:

        其中,[w(l)]、[a(l)]和[b(l)]分別表示第[l]層的權(quán)重矩陣、第[l]層神經(jīng)元的輸出響應(yīng)、連接第[l]層和第[l+1]層的偏置值向量。[φ(?)]為非線性映射函數(shù),常用如下Sigmoid函數(shù)或ReLU函數(shù)。

        2 基于深度殘差網(wǎng)絡(luò)的DeepFM架構(gòu)

        DeepFM模型架構(gòu)的FM具有一階特征和二階組合特征的建模能力,而DNN負(fù)責(zé)對高階特征進(jìn)行提取。但是由于DNN模型是逐步級聯(lián)的,當(dāng)全連接層數(shù)量增加后,會產(chǎn)生冗余的連接層,此時冗余層由于學(xué)習(xí)了不是恒等映射的參數(shù)而造成網(wǎng)絡(luò)性能退化。同時,隨著網(wǎng)絡(luò)層數(shù)的增大,梯度回傳迭代時可能產(chǎn)生梯度彌散,出現(xiàn)難以收斂的窘境。因此,將深度殘差網(wǎng)絡(luò)(Deep Residual Network,DRN)[22]引入到DeepFM模型中(DRN-DeepFM),其架構(gòu)如圖3所示,其中DNN模塊每兩層增加一個跳變(shortcut)連接,構(gòu)成一個殘差塊。通過引入殘差結(jié)構(gòu),將低階的特征與高階的選通相加,其相加的權(quán)重參數(shù)由模型訓(xùn)練過程中學(xué)習(xí)得到。最后在Fusion層將FM和DNN的預(yù)測結(jié)果進(jìn)行融合并作概率歸一化映射。

        其中,非線性映射函數(shù)[f(?)]為Sigmoid函數(shù),[β]為折衷系數(shù)。

        2.1 殘差網(wǎng)絡(luò)層設(shè)計(jì)

        圖4給出了殘差網(wǎng)絡(luò)級聯(lián)的基本方式,全連接層的輸出響應(yīng)F(x)為高階組合特征的表征,它與更低階的組合特征(如x)加權(quán)組合后再作非線性映射,其機(jī)制類似于FM中一階和二階組合特征的關(guān)系,不過殘差網(wǎng)絡(luò)刻畫的是高階和更高階之間的線性組合。因此,基于殘差網(wǎng)絡(luò)的DNN結(jié)合FM可以對用戶數(shù)據(jù)的一階、二階以及高階組合特征進(jìn)行回歸建模,更有利于挖掘數(shù)據(jù)之間的關(guān)聯(lián)性。

        2.2 Dropout機(jī)制

        為了防止在CTR預(yù)測訓(xùn)練過程中出現(xiàn)過擬合現(xiàn)象,在DNN模型的全連接層引入Dropout機(jī)制[23]。如圖5 全連接層中防止過擬合的隨機(jī)失活機(jī)制所示,在訓(xùn)練過程中每一個神經(jīng)元以概率p保留其激活狀態(tài),這樣得到一個期望輸出為:

        在測試時神經(jīng)元總是激活,但其連接權(quán)重采用概率p進(jìn)行加權(quán)。

        Dropout強(qiáng)迫單一神經(jīng)元和隨機(jī)挑選出來的其它神經(jīng)元共同工作,減弱神經(jīng)元節(jié)點(diǎn)間的共適應(yīng)性(Co-adapting),在測試時則可以獲得相當(dāng)于對多個剪枝(Thinned)網(wǎng)絡(luò)取平均的效果,從而顯著降低過擬合,增強(qiáng)泛化能力[23]。

        3 獨(dú)熱碼映射

        CTR預(yù)測中的原始輸入可能包括不同的數(shù)據(jù)類型,如數(shù)值型、枚舉型、哈希值等;為了對異構(gòu)的數(shù)據(jù)規(guī)整化,同時避免特征工程的繁瑣過程,將其轉(zhuǎn)化為獨(dú)熱碼是最常用的有效手段,然而當(dāng)遇到某些維度特征分布極其分散的情況下,會導(dǎo)致轉(zhuǎn)化后的獨(dú)熱碼向量極其稀疏。為了避免枚舉類型或者哈希值型在獨(dú)熱碼映射時出現(xiàn)維度災(zāi)難,在獨(dú)熱碼生成過程中引入一個最大支持維度參數(shù)[Q]。例如,統(tǒng)計(jì)數(shù)據(jù)集中某一個哈希值類型的維度數(shù)據(jù),并建立原始數(shù)據(jù)與發(fā)生頻數(shù)的字典映射關(guān)系為:

        其中,[ρi]為第i個不同的哈希值,[Ci]為其發(fā)生的頻數(shù),T為哈??赡苋≈档目倲?shù)量。當(dāng)[TQ]時,只需要將獨(dú)熱碼向量中索引A(A為[ρi]在所有可能取值中的排序索引)處取值為1即可。當(dāng)[TQ]時,對發(fā)生的頻數(shù)[Ci]進(jìn)行二次映射,構(gòu)建新的字典映射表,直至其維度小于[Q]為止。

        4 實(shí)驗(yàn)結(jié)果與分析

        4.1 Criteo數(shù)據(jù)集

        為了驗(yàn)證所提出的CTR預(yù)測模型的性能,選取Criteo公開數(shù)據(jù)集進(jìn)行評估,該數(shù)據(jù)集中包括了4.5億多用戶點(diǎn)擊事件記錄,數(shù)據(jù)類型有數(shù)值型和哈希值兩大類,其維度分別為13維和26維,正負(fù)樣本占比分別為22.912 5%和77.087 5%,根據(jù)7∶1的比例將此數(shù)據(jù)集劃分為訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集。

        4.2 CTR預(yù)測性能評價指標(biāo)

        CTR預(yù)測性能評估指標(biāo)使用了二元交叉熵?fù)p失函數(shù)Logloss以及AUC(Area Under Curve)。Logloss定義為:

        其中,N為測試集上樣本總數(shù)量,[y(i)]和[y(i)]分別為測試集合上第i個樣本的類別真值和預(yù)測用戶點(diǎn)擊的概率值。

        AUC的定義為ROC(Receiver Operating Characteristic)曲線下坐標(biāo)軸所閉包的區(qū)域面積為:

        其中,[fpr]為假陽率。不同分類閾值下假陽率不同,通過變化分類閾值,可以得到不同假陽率下的真陽率曲線,即ROC。

        4.3 實(shí)驗(yàn)

        基于Tensorflow對CTR預(yù)測模型進(jìn)行開發(fā)實(shí)現(xiàn),圖6給出了Tensorboard中對模型結(jié)構(gòu)和數(shù)據(jù)流圖的可視化,從圖中可以看出嵌入編碼層、FM層、DNN層、Fusion層均有參數(shù)需要學(xué)習(xí),由Adam優(yōu)化器進(jìn)行迭代求解。

        4.3.1 實(shí)驗(yàn)設(shè)置

        為了降低樣本排列順序?qū)ψ罱K模型訓(xùn)練后的性能影響,首先對數(shù)據(jù)集中的樣本進(jìn)行隨機(jī)化洗牌,并將帶有標(biāo)簽的數(shù)據(jù)集D劃分為兩部分,即訓(xùn)練數(shù)據(jù)集[Dtrain]和測試數(shù)據(jù)集[Dtest]。實(shí)驗(yàn)中Batch尺寸為128,學(xué)習(xí)速率為0.001,嵌入編碼層尺度為8,[β=1.0],獨(dú)熱碼映射時的最大支持維度為450。首先分別對矩陣分解超參數(shù)k、隨機(jī)失活的概率p、自適應(yīng)殘差DNN全連接層數(shù)的影響進(jìn)行研究,選取最優(yōu)參數(shù),然后將本文方法與主流CTR預(yù)測模型進(jìn)行對比。

        4.3.2 超參數(shù)影響研究

        表1給出了矩陣分解超參數(shù)k對AUC的影響??梢钥闯?,隨著k的增大,測試集上的AUC越來越好,說明二階組合特征所覆蓋的用戶信息越來越豐富,在[k=16]時,測試集AUC值趨于飽和,為0.808 1。表2給出了隨機(jī)失活概率p和自適應(yīng)殘差DNN的全連接層數(shù)對AUC的影響。可以觀察到,當(dāng)隨機(jī)失活概率逐漸增大,測試集上的AUC性能先逐漸變優(yōu),但是當(dāng)失活概率超過0.3時,測試集AUC性能開始下降。這是由于當(dāng)失活的神經(jīng)元過多時,有效的神經(jīng)元數(shù)量不足以學(xué)習(xí)表征CTR用戶的特征信息。由表2中還可以看出,隨著DNN中全連接層數(shù)的增加,測試集AUC逐漸升高并趨于飽和,當(dāng)全連接層數(shù)為4時,測試集AUC值開始飽和,即為0.808 1。實(shí)驗(yàn)結(jié)果表明,矩陣分解超參數(shù)k、隨機(jī)失活的概率p、自適應(yīng)殘差DNN全連接層數(shù)的選擇對于模型的泛化性能均有重要影響。

        4.3.3 模型性能評估

        根據(jù)表1和表2實(shí)驗(yàn)結(jié)果,矩陣分解超參數(shù)k取16,DNN全連接層數(shù)取4,Dropout機(jī)制隨機(jī)失活概率取30%。

        圖7給出了訓(xùn)練過程中Logloss值和CTR預(yù)測準(zhǔn)確度隨迭代次數(shù)收斂圖,在模型迭代55個Epoch時,其Logloss下降收斂至0.417 3,分類精確度達(dá)到了82.521%。圖8給出了最優(yōu)k、全連接層數(shù)和失活概率下不同Epoch下的整個測試集合上Logloss值和準(zhǔn)確度分布圖,可以看出在模型訓(xùn)練迭代到23個Epoch時,其測試集性能表現(xiàn)最優(yōu),Logloss值為0.445 17,準(zhǔn)確度收斂至80.752%,后期由于網(wǎng)絡(luò)參數(shù)在訓(xùn)練集上出現(xiàn)了過度優(yōu)化,產(chǎn)生過擬合,導(dǎo)致性能有所下降。圖9給出了測試集上AUC值隨著Epoch迭代次數(shù)的分布圖,其在第23個Epoch后達(dá)到最大值0.808 1。

        為了對比不同模型之間的性能,表3給出了與目前主流CTR預(yù)測模型在Criteo數(shù)據(jù)集上的Logloss值和AUC值對比結(jié)果??梢钥闯觯珼eepFM的性能優(yōu)于其它主流CTR預(yù)測模型,而DRN-DeepFM的Logloss與AUC值則比DeepFM分別改進(jìn)了1.26%和0.93%,這歸功于對DNN引入深度殘差網(wǎng)絡(luò)可以更好地對用戶點(diǎn)擊事件中的高階特征進(jìn)行抽象建模。

        5 結(jié)語

        提出了一種基于深度殘差網(wǎng)絡(luò)的DeepFM點(diǎn)擊率預(yù)測架構(gòu),將深度殘差網(wǎng)絡(luò)引入DNN模型,解決DNN隨著網(wǎng)絡(luò)變深產(chǎn)生的梯度消失和模型性能退化問題,從而更有效地提取高階組合特征。此外,為了避免過擬合引入Dropout機(jī)制,并且對輸入特征的預(yù)處理引入最大支持維度參數(shù),以避免獨(dú)熱碼映射時出現(xiàn)維度災(zāi)難。基于Criteo公開數(shù)據(jù)集的研究表明,相比眾多主流CTR預(yù)測模型,本文提出的DRN-DeepFM模型具有更低的Logloss和更優(yōu)越的AUC性能。未來將在所提預(yù)測架構(gòu)下對不同場之間的交互建模開展進(jìn)一步研究。

        參考文獻(xiàn):

        [1]HE X R,PAN J F,JIN O,et al.Practical lessons from predicting clicks on ads at Facebook[C]. Proceedings of the Eighth International Workshop on Data Mining for Online Advertising,2014: 1-9.

        [2]田嫦麗, 張珣, 潘博, 等. 互聯(lián)網(wǎng)廣告點(diǎn)擊率預(yù)估模型中特征提取方法的研究與實(shí)現(xiàn)[J]. 計(jì)算機(jī)應(yīng)用研究,2017,34(2): 334-338.

        [3]QIU X K,YUAN Z,LIU G N. ETCF: An Ensemble Model for CTR Prediction[C]. 2018 15th International Conference on Service Systems and Service Management (ICSSSM),2018: 1-5.

        [4]潘書敏,顏娜,謝瑾奎,等. 基于用戶相似度和特征分化的廣告點(diǎn)擊率預(yù)測研究[J]. 計(jì)算機(jī)科學(xué), 2017, 44(2): 283-289.

        [5]匡俊,唐衛(wèi)紅,陳雷慧,等. 基于特征工程的視頻點(diǎn)擊率預(yù)測算法[J]. 華東師范大學(xué)學(xué)報(自然科學(xué)版),2018,(3): 77-87.

        [6]RENDLE S.Factorization machines[C]. 2010 IEEE International Conference on Data Mining. IEEE, 2010: 995-1000.

        [7]趙衎衎,張良富,張靜,等. 因子分解機(jī)模型研究綜述[J]. 軟件學(xué)報,2019,30(3): 799-821.

        [8]鄧路佳,劉平山. 基于GMM-FMs的廣告點(diǎn)擊率預(yù)測研究[J].? 計(jì)算機(jī)工程, 2018, 45(5): 128-132.

        [9]朱志北,李斌,劉學(xué)軍,等. 基于LDA的互聯(lián)網(wǎng)廣告點(diǎn)擊率預(yù)測研究[J]. 計(jì)算機(jī)應(yīng)用研究,2016,33(4): 979-982.

        [10]JUAN Y C,ZHUANG Y,CHIN W S,et al.Field-aware factorization machines for CTR prediction[C]. Proceedings of the 10th ACM Conference on Recommender Systems,2016: 43-50.

        [11]JUAN Y C,LEFORTIER D, CHAPELLE O. Field-aware factorization machines in a real-world online advertising system[C].? Proceedings of the 26th International Conference on World Wide Web Companion. International World Wide Web Conferences Steering Committee, 2017: 680-688.

        [12]PAN J W,XU J,RUIZ A L,et al. Field-weighted factorization machines for click-through rate prediction in display advertising[C].? Proceedings of the 2018 World Wide Web Conference. International World Wide Web Conferences Steering Committee,2018:1349-1357.

        [13]燕彩蓉, 周靈杰, 張青龍, 等.? 因子分解機(jī)模型的寬度和深度擴(kuò)展研究[J].? 軟件學(xué)報, 2019, 30(3): 822-844.

        [14]張志強(qiáng), 周勇, 謝曉芹, 等.? 基于特征學(xué)習(xí)的廣告點(diǎn)擊率預(yù)估技術(shù)研究[J].? 計(jì)算機(jī)學(xué)報, 2016, 39(4): 780-794.

        [15]ZHANG W N,DU T M,WANG J.Deep learning over multi-field categorical data[C]. European conference on information retrieval. Springer, Cham, 2016: 45-57.

        [16]QU Y R,CAI H,REN K,et al.Product-based neural networks for user response prediction[C]. 2016 IEEE 16th International Conference on Data Mining,2016: 1149-1154.

        [17]CHENG H T,KOC L,HARMSEN J,et al.Wide & deep learning for recommender systems[C]. Proceedings of the 1st workshop on deep learning for recommender systems,2016: 7-10.

        [18]GUO H F,TANG R M,YE Y M,et al.DeepFM: a Factorization-Machine Based Neural Network for CTR Prediction[C]. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence,201:1-8.

        [19]ZHOU G R,MOU N,F(xiàn)AN Y,et al.Deep interest evolution network for click-through rate prediction[C]. Proceedings of the AAAI Conference on Artificial Intelligence,2019, 33: 5941-5948.

        [20]GAN M X,XIAO K J.R-RNN: extracting user recent behavior sequence for click-through rate prediction[J].? IEEE Access, 2019, 7: 111767-111777.

        [21]SUN F,LIU J,WU J,et al. BERT4Rec: sequential recommendation with bidirectional encoder representations from transformer[DB/OL]. arXiv preprint arXiv: 1904.06690, 2019.

        [22]HE K M,ZhANG X Y,REN S Q,et al.Deep residual learning for image recognition[C]. Proceedings of the IEEE conference on computer vision and pattern recognition,2016: 770-778.

        [23]SRIVASTAVA N,HINTON G,KRIZHEVSKY A,et al. Dropout: a simple way to prevent neural networks from overfitting[J]. The journal of machine learning research, 2014, 15(1): 1929-1958.

        (責(zé)任編輯:孫 娟)

        收稿日期:2019-11-28

        作者簡介:李遙(1993-),男,上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院碩士研究生,研究方向?yàn)樯疃葘W(xué)習(xí)、推薦系統(tǒng);李燁(1974-),男,博士,上海理工大學(xué)光電信息與計(jì)算機(jī)工程學(xué)院高級工程師,研究方向?yàn)闄C(jī)器學(xué)習(xí)、移動通信。

        国产香蕉一区二区三区在线视频 | 亚洲无码a∨在线视频| 麻美由真中文字幕人妻| 亚洲精品在线免费视频| 国产产区一二三产区区别在线| 久久久久无码精品亚洲日韩| 国产精品一区成人亚洲| 中文国产乱码在线人妻一区二区| 国产97在线 | 日韩| 成在人线av无码免费| 无码国产一区二区色欲| 国产精品成人av大片| 亚洲av永久无码精品网址| 午夜婷婷国产麻豆精品| 青青草视全福视频在线| 久久久久人妻精品一区二区三区 | av中文字幕综合在线| 国产精品成人久久一区二区| 99人中文字幕亚洲区三| 久久久受www免费人成| 精品国产高清一区二区广区 | 免费毛片a线观看| 成人区视频| 黄色大片国产精品久久| 人妻熟妇乱又伦精品hd| 欧美性性性性性色大片免费的| 国内精品久久久久久久久蜜桃| av在线不卡一区二区| 99久久精品费精品国产一区二| 久热香蕉视频| 色婷婷综合一区二区精品久久| 级毛片内射视频| 欧美激情a∨在线视频播放| 亚洲成AV人在线观看网址| 日本九州不卡久久精品一区| 中文 在线 日韩 亚洲 欧美| 亚洲AV秘 无码一区二p区三区| 色综合久久精品中文字幕| 内射口爆少妇麻豆| 色两性网欧美| 男女搞黄在线观看视频|