亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于淘寶廣告數(shù)據(jù)的點(diǎn)擊概率預(yù)估模型研究

        2022-04-12 07:55:58張奧南李大舟王淮中
        關(guān)鍵詞:特征用戶模型

        高 巍, 張奧南, 李大舟, 王淮中

        (沈陽化工大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院, 遼寧 沈陽 110142)

        隨著互聯(lián)網(wǎng)技術(shù)與應(yīng)用的飛速發(fā)展,人類開始步入大數(shù)據(jù)時(shí)代,面對越來越繁雜的數(shù)據(jù)量,如何搭建準(zhǔn)確率高的點(diǎn)擊概率預(yù)估模型從而篩選數(shù)據(jù)成為網(wǎng)絡(luò)服務(wù)提供商以及互聯(lián)網(wǎng)用戶的共同難題.點(diǎn)擊概率主要從用戶的行為分析包括點(diǎn)擊、瀏覽、收藏等操作來反映用戶的興趣與需求,搭建一個(gè)準(zhǔn)確率高的點(diǎn)擊概率預(yù)估模型,極大地提升在線廣告、營銷、商品推薦等效果.當(dāng)前工業(yè)上使用的基于點(diǎn)擊概率預(yù)估模型需要對用戶-商品的行為數(shù)據(jù)進(jìn)行處理,在用戶-商品的行為數(shù)據(jù)中提取出大量的特征,這些特征就能夠反映出用戶是否會(huì)喜歡某一件商品.目前的點(diǎn)擊概率預(yù)估模型不僅要考慮用戶-商品數(shù)據(jù)中的特征對推薦結(jié)果的影響,還要考慮到兩個(gè)特征之間的組合,或者多個(gè)特征之間的組合對最終結(jié)果產(chǎn)生的影響,因此大量基于特征工程的點(diǎn)擊概率模型相繼誕生.

        2010年之前在推薦系統(tǒng)中應(yīng)用點(diǎn)擊概率預(yù)估模型都是線性模型,例如LR模型、FTRL[1]模型,這類線性模型采用梯度下降[2]的方法提取數(shù)據(jù)中的線性關(guān)系,由于其簡單、易于并行化實(shí)現(xiàn)、可解釋性強(qiáng)等優(yōu)點(diǎn)而被廣泛使用.然而,由于線性模型本身的局限不能處理特征和目標(biāo)之間的非線性關(guān)系,因此模型效果嚴(yán)重依賴于算法工程師的特征工程經(jīng)驗(yàn).為使模型能夠自動(dòng)學(xué)習(xí)到原始特征之間的關(guān)系,于2010年因子分解機(jī)(FM)系列算法相繼誕生,從剛開始的FM算法[3]提出了將特征進(jìn)行兩兩組合以達(dá)到自動(dòng)學(xué)習(xí)特征之間關(guān)系的目的,到之后延進(jìn)化的FFM算法[4]將相同性質(zhì)的特征歸結(jié)于同一個(gè)類別,提出隱向量概念,進(jìn)一步提高了模型對數(shù)據(jù)中特征之間組合的效率.2015年,為了能夠同時(shí)學(xué)習(xí)出高階特征與低階特征之間的組合,點(diǎn)擊概率預(yù)估模型進(jìn)入了深度學(xué)習(xí)的時(shí)代,一大批將線性模型與深度神經(jīng)網(wǎng)絡(luò)相結(jié)合的模型誕生.比較著名的有Wide and Deep[5]、DeepFM算法[6],這類模型是將線性模型與DNN模型進(jìn)行組合的模型.Google發(fā)表的論文Deep Neural Networks for YouTube Recommendations[7]介紹了推薦系統(tǒng)中比較經(jīng)典的兩層結(jié)構(gòu):召回和排序.同樣是利用DNN對數(shù)據(jù)進(jìn)行訓(xùn)練達(dá)到產(chǎn)生候選集和排序的效果.FNN[8]、PNN[9]、GBDT[10-11]利用神經(jīng)網(wǎng)絡(luò)對非線性特征擬合能力較強(qiáng)的優(yōu)點(diǎn)將神經(jīng)網(wǎng)絡(luò)應(yīng)用在點(diǎn)擊概率預(yù)估模型中.筆者對當(dāng)前比較流行的點(diǎn)擊概率預(yù)估模型進(jìn)行研究總結(jié),并提出了因子交互全連接網(wǎng)絡(luò)模型,以達(dá)到增加推薦結(jié)果準(zhǔn)確率的效果.

        1 算法設(shè)計(jì)

        1.1 因子交互全連接網(wǎng)絡(luò)

        對當(dāng)前比較主流的點(diǎn)擊概率預(yù)估模型進(jìn)行分析,提出并搭建一種因子交互全連接網(wǎng)絡(luò)模型,整體構(gòu)架如圖1所示.首先加入壓縮交互網(wǎng)絡(luò)(CIN)模型[12],并將其與因子分解機(jī)(FM)模型和深度神經(jīng)網(wǎng)絡(luò)(DNN)模型進(jìn)行組合.3個(gè)部分共享相同的輸入.因子分解機(jī)部分負(fù)責(zé)解決數(shù)據(jù)經(jīng)過獨(dú)熱編碼后稀疏的問題并提取數(shù)據(jù)中的低階數(shù)據(jù)進(jìn)行組合;深度神經(jīng)網(wǎng)絡(luò)部分負(fù)責(zé)提取和組合數(shù)據(jù)中的高階特征;壓縮交互網(wǎng)絡(luò)負(fù)責(zé)顯性地對數(shù)據(jù)中的特征進(jìn)行組合,在向量級上進(jìn)行計(jì)算,使過程變得可見和可控.

        模型中提到的高階特征、低階特征即為數(shù)據(jù)中原始特征的組合.將數(shù)據(jù)中的特征分別組成維度為1×10的特征矩陣,然后將特征矩陣進(jìn)行兩兩組合計(jì)算兩個(gè)特征之間的相關(guān)性即為低階特征;將多個(gè)特征矩陣進(jìn)行組合計(jì)算得到的即為高階特征.

        筆者將嵌入層處理后的維度為1×10的特征矩陣記為X矩陣,數(shù)據(jù)集中包含多個(gè)特征向量(例如每個(gè)用戶對應(yīng)的ID、每個(gè)物品對應(yīng)的ID等),每個(gè)特征向量對應(yīng)一個(gè)索引值.進(jìn)行特征向量處理分類后會(huì)有39個(gè)類別的特征矩陣X,分別記為X0,X1,X2,…,XK,將這些特征矩陣分別帶入模型的每個(gè)模塊中.

        模型首先將數(shù)據(jù)進(jìn)行獨(dú)熱編碼然后分別輸入到FM、CIN、DNN模塊中,其中FM算法可以利用矩陣分解的原理將稀疏的數(shù)據(jù)轉(zhuǎn)化為稠密數(shù)據(jù)進(jìn)行訓(xùn)練,訓(xùn)練后得到FM算法的輸出為一個(gè)變量.CIN、DNN模塊則需要將經(jīng)過獨(dú)熱編碼后的稀疏數(shù)據(jù)先輸入到嵌入層進(jìn)行降維變成稠密數(shù)據(jù),然后再將得到的特征向量輸入到模塊中進(jìn)行訓(xùn)練.最終將3個(gè)模塊得到的結(jié)果進(jìn)行累加,然后通過Sigmoid函數(shù)得到模型的最終結(jié)果.

        圖1 因子交互全連接網(wǎng)絡(luò)結(jié)構(gòu)

        1.2 獨(dú)熱編碼

        在點(diǎn)擊概率預(yù)估模型領(lǐng)域中要提取的數(shù)據(jù)的特征一般都?xì)w屬于多個(gè)類別的離散數(shù)據(jù).對這些離散數(shù)據(jù)進(jìn)行獨(dú)熱編碼,將他們變成特征矩陣.然而用于點(diǎn)擊率預(yù)估的每個(gè)類別中都會(huì)有空缺部分,如某個(gè)用戶對體育類的商品不感興趣并且從未點(diǎn)擊過這類廣告,那么在數(shù)據(jù)中關(guān)于他的體育類別的數(shù)據(jù)就會(huì)是缺失的,這類數(shù)據(jù)經(jīng)過獨(dú)熱編碼后就會(huì)造成數(shù)據(jù)稀疏問題,如果將稀疏的特征矩陣進(jìn)行組合就會(huì)造成維度爆炸.為了解決這類問題,筆者在模型中加入嵌入層(embedding)使數(shù)據(jù)變得低維且稠密.

        1.3 嵌入層

        嵌入層的主要功能是將輸入的稀疏向量壓縮為低維稠密向量.在點(diǎn)擊率預(yù)估模型領(lǐng)域,輸入一般都是基于用戶的行為數(shù)據(jù)集,與圖像或者語音類輸入不同,圖像、語音的輸入一般是連續(xù)而且密集的,而用于點(diǎn)擊概率預(yù)估的輸入一般無法達(dá)到每個(gè)用戶對每一個(gè)類別都有過點(diǎn)擊行為,所以數(shù)據(jù)一般都是稀疏的,因此要加入嵌入層.其原理類似于兩個(gè)矩陣相乘,類別矩陣的維度為1×n(n為數(shù)據(jù)中的特征數(shù)量),嵌入層中的權(quán)重矩陣為n×k(k為設(shè)定的嵌入層尺寸),相乘得到嵌入層輸出的特征矩陣為1×k.盡管不同類別(field)的輸入長度不同,但是經(jīng)過嵌入層之后向量的長度均為k.

        1.4 神經(jīng)網(wǎng)絡(luò)模型

        筆者采用的神經(jīng)網(wǎng)絡(luò)為多層前饋神經(jīng)網(wǎng)絡(luò),是一種最簡單的神經(jīng)網(wǎng)絡(luò),如圖2所示,各神經(jīng)元分層排列.每個(gè)神經(jīng)元只與前一層的神經(jīng)元相連,接收前一層的輸出,并輸出給下一層.

        圖2 多層前饋神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

        將嵌入層處理后的特征向量X0,X1,X2,…,XK輸入到神經(jīng)網(wǎng)絡(luò)中, 由于經(jīng)過網(wǎng)絡(luò)多層的組合,最終可以實(shí)現(xiàn)對多個(gè)特征進(jìn)行組合的效果,即提取數(shù)據(jù)中的高階特征.但是,特征交互是發(fā)生在特征向量中每個(gè)元素上的,而不是對整個(gè)特征向量進(jìn)行計(jì)算,這一點(diǎn)違背了因子分解機(jī)的初衷.因此,筆者在模型中加入了CIN模塊以解決這個(gè)問題.

        1.5 壓縮交互網(wǎng)絡(luò)(CIN)

        為了實(shí)現(xiàn)自動(dòng)學(xué)習(xí)顯式的高階特征交互,并使交互發(fā)生在向量級上,在模型中加入壓縮交互網(wǎng)絡(luò)模型.在該模型中,隱向量是一個(gè)單元對象,因此將輸入的原始特征和神經(jīng)網(wǎng)絡(luò)中的隱層都分別組成一個(gè)矩陣,記為X0和XK.壓縮交互網(wǎng)絡(luò)中每一層的神經(jīng)元都是根據(jù)前一層的隱層以及原特征向量計(jì)算而來,其計(jì)算公式為

        (1)

        在CIN中,第k層隱層含有Hk條神經(jīng)元向量.隱層的計(jì)算可以分成兩個(gè)步驟:根據(jù)前一層隱層的狀態(tài)XK和原特征矩陣X0,計(jì)算出一個(gè)中間結(jié)果Zk+1,它是一個(gè)三維的張量,如圖3所示.

        圖3 壓縮交互網(wǎng)絡(luò)結(jié)構(gòu)

        在中間結(jié)果Zk+1上,用Hk+1個(gè)尺寸為m×Hk的卷積核生成下一層隱層的狀態(tài).這一操作與計(jì)算機(jī)視覺中最流行的卷積神經(jīng)網(wǎng)絡(luò)大體一致,唯一的區(qū)別在于卷積核的設(shè)計(jì).壓縮交互網(wǎng)絡(luò)中一個(gè)神經(jīng)元相關(guān)的接受域是兩個(gè)矩陣組合之后形成的若干個(gè)平面,而CNN中的接受域是當(dāng)前神經(jīng)元周圍的局部小范圍區(qū)域,因此壓縮交互網(wǎng)絡(luò)中經(jīng)過卷積操作得到的特征圖是一個(gè)向量,即特征交互之后的特征向量,而不是一個(gè)矩陣,達(dá)到了顯式學(xué)習(xí)特征交互的目的.

        CIN的特點(diǎn)是最終學(xué)習(xí)出的特征交互階數(shù)由網(wǎng)絡(luò)層數(shù)決定,每一層隱層都通過一個(gè)池化操作連接到輸出層,從而保證輸出單元可以見到不同階數(shù)的特征交互模式.最終原數(shù)據(jù)集中的特征輸入到CIN模塊中進(jìn)行顯性的特征交互,使計(jì)算發(fā)生在向量級上,即最終得到的結(jié)果是向量形式,從而解決了點(diǎn)擊概率預(yù)估模型中無法顯性組合特征的難題.

        1.6 因子分解機(jī)模型(FM)

        FM算法首先將數(shù)據(jù)分為若干個(gè)類別(field),每個(gè)類別中包含若干個(gè)特征,FM算法負(fù)責(zé)對這些特征進(jìn)行兩兩組合,最終計(jì)算出特征之間的相關(guān)性.為了解決輸入的數(shù)據(jù)經(jīng)過獨(dú)熱編碼后會(huì)變得高維且稀疏的問題,FM算法提出了隱向量的概念,即對模型的參數(shù)矩陣進(jìn)行矩陣分解,得到低維稠密特征向量.

        (2)

        式中:xi、xj分別代表第i和第j個(gè)特征(本實(shí)驗(yàn)中為1×10的特征矩陣),Vi、Vj即為特征i、j的隱向量.具體計(jì)算方式采用矩陣分解的原理進(jìn)行計(jì)算,將經(jīng)過獨(dú)熱編碼后稀疏的特征向量進(jìn)行交互得到一個(gè)特征矩陣,再將得到的特征矩陣進(jìn)行分解,得到稠密的特征向量,其原理與算法中的嵌入層功能一致,在最終的算法中加入FM算法是為了自動(dòng)、顯式地提取組合數(shù)據(jù)中的低階特征.由公式(2)可以看出:FM算法能夠進(jìn)行特征之間的兩兩交互,也就是只能提取數(shù)據(jù)中的低階特征,但事實(shí)證明數(shù)據(jù)中的高階和低階特征對最終的結(jié)果都會(huì)有影響,比如一個(gè)用戶可能會(huì)點(diǎn)擊的廣告包含多個(gè)類別,所以筆者在模型中加入了神經(jīng)網(wǎng)絡(luò)模塊用來組合數(shù)據(jù)中的高階特征.

        2 實(shí)驗(yàn)結(jié)果及分析

        2.1 數(shù)據(jù)集

        筆者采用淘寶廣告展示數(shù)據(jù)集進(jìn)行訓(xùn)練,該數(shù)據(jù)集是在淘寶網(wǎng)站中隨機(jī)抽樣114萬用戶8 d內(nèi)的廣告展示/點(diǎn)擊日志(2600萬條記錄)構(gòu)成原始的樣本數(shù)據(jù).數(shù)據(jù)中包含用戶ID、廣告ID、時(shí)間、廣告展示的位置、行為類型和品牌ID等特征類別.

        樣本數(shù)據(jù)經(jīng)過處理后得到4個(gè)文件:廣告點(diǎn)擊的樣本數(shù)據(jù) raw_sample.csv(用戶對不同位置廣告點(diǎn)擊、沒點(diǎn)擊的情況);廣告基本信息數(shù)據(jù)ad_feature.csv[每個(gè)廣告的類目(ID)、品牌(ID)、價(jià)格特征];用戶基本信息數(shù)據(jù) user_profile.csv(用戶群組、性別、年齡、消費(fèi)購物檔次、所在城市級別等特征);用戶行為日志數(shù)據(jù) behavior_log.csv[用戶對商品類目(ID)、品牌(ID)的瀏覽、加購物車、收藏、購買等信息].將這些數(shù)據(jù)分別組成訓(xùn)練集和測試集,分別帶入到模型中進(jìn)行訓(xùn)練并分析實(shí)驗(yàn)結(jié)果.

        2.2 實(shí)驗(yàn)環(huán)境

        實(shí)驗(yàn)使用Window系統(tǒng),采用NVIDIA GTX 1060 顯卡.筆者提出的模型使用TensorFlow框架搭建,如圖4、圖5所示.

        圖4 AUC、Logloss與網(wǎng)絡(luò)深度關(guān)系

        圖5 AUC、Logloss與隱含層節(jié)點(diǎn)數(shù)關(guān)系

        由圖4、圖5可以看出:當(dāng)筆者所提模型的網(wǎng)絡(luò)深度為3時(shí),得到的AUC值最高、Logloss值最低;當(dāng)選擇的隱含層節(jié)點(diǎn)數(shù)量為200時(shí),模型得到的AUC值最高、Logloss值最小.因此,模型選擇3層結(jié)構(gòu),分別為輸入層、隱含層和輸出層;隱含層的節(jié)點(diǎn)設(shè)置為200個(gè).為了簡化實(shí)驗(yàn)配置,定義所有模型的特征嵌入維度統(tǒng)一固定為10.

        2.3 評價(jià)指標(biāo)

        實(shí)驗(yàn)采用曲線下面積(AUC)和對數(shù)損失函數(shù)(Logloss)指標(biāo)作為模型的評估指標(biāo).

        點(diǎn)擊概率預(yù)估模型的本質(zhì)就是二分類問題,即預(yù)測某一用戶對某一物品的點(diǎn)擊概率.當(dāng)預(yù)測的結(jié)果表明用戶接下來的行為后,利用AUC來對比預(yù)測的行為與測試集中原始特征是否一致.最終得到原始特征之間的相關(guān)性即是用戶對物品的點(diǎn)擊概率.

        (2) Logloss的公式為

        (3)

        式中:n是測試樣本個(gè)數(shù);yi為輸入實(shí)例xi的真實(shí)類別;pi為預(yù)測輸入實(shí)例xi屬于類別1的概率.對所有樣本的對數(shù)損失表示對每個(gè)樣本的對數(shù)損失的平均值.Logloss的結(jié)果越低越好.

        2.4 實(shí)驗(yàn)結(jié)果

        對提出的因子交互全連接網(wǎng)絡(luò)模型(FDC)進(jìn)行訓(xùn)練并將其與LR、DNN、PNN等模型進(jìn)行對比,實(shí)驗(yàn)結(jié)果見表1.

        表1 實(shí)驗(yàn)結(jié)果

        實(shí)驗(yàn)選取了當(dāng)前工業(yè)上比較常用的6種模型分別進(jìn)行訓(xùn)練,將得到的結(jié)果與筆者提出的因子交互全連接網(wǎng)絡(luò)點(diǎn)擊概率預(yù)估模型訓(xùn)練結(jié)果進(jìn)行對比,結(jié)果如圖6所示.由圖6可以看出:因子交互全連接網(wǎng)絡(luò)與其他點(diǎn)擊概率預(yù)估模型對比AUC值均有提升,Logloss均有降低;因子交互全連接網(wǎng)絡(luò)(FDC)模型的AUC值比原始的線性(LR)模型AUC值提高了近0.05,與采用線性模型與神經(jīng)網(wǎng)絡(luò)模型結(jié)合的模型(FM)對比AUC值提高了0.01左右,Logloss值與其對比分別降低了0.04以及0.01左右.由此可以說明筆者設(shè)計(jì)并實(shí)現(xiàn)的點(diǎn)擊概率預(yù)估模型(FDC)在工業(yè)與學(xué)術(shù)中均有較好的實(shí)際意義.

        圖6 不同點(diǎn)擊概率預(yù)估模型的實(shí)驗(yàn)結(jié)果

        3 結(jié) 論

        筆者提出了一種基于因子分解機(jī)(FM)、深度神經(jīng)網(wǎng)絡(luò)(DNN)與壓縮交互網(wǎng)絡(luò)(CIN)結(jié)合的因子交互全連接網(wǎng)絡(luò)(FDC),并將因子交互全連接網(wǎng)絡(luò)與工業(yè)上應(yīng)用較廣的6種模型進(jìn)行對比.通過對比發(fā)現(xiàn)因子交互全連接網(wǎng)絡(luò)的準(zhǔn)確率最高、效果最好.因子交互全連接網(wǎng)絡(luò)既能同時(shí)自動(dòng)地對數(shù)據(jù)中高階和低階的特征進(jìn)行提取和組合,又能同時(shí)以顯性和隱性兩種方式進(jìn)行高階特征交互的功能,使交互發(fā)生在向量級上.解決了推薦系統(tǒng)中的多種難題,如人工提取特征費(fèi)時(shí)費(fèi)力、獨(dú)熱編碼后數(shù)據(jù)稀疏、不能同時(shí)提取數(shù)據(jù)中的高低階特征、無法顯示的組合特征,等等.該算法的提出可以提高推薦系統(tǒng)對用戶推薦信息的準(zhǔn)確率,提升用戶體驗(yàn),對從業(yè)人員的工作效率也有一定的提升.

        猜你喜歡
        特征用戶模型
        一半模型
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
        如何表達(dá)“特征”
        不忠誠的四個(gè)特征
        抓住特征巧觀察
        關(guān)注用戶
        商用汽車(2016年11期)2016-12-19 01:20:16
        3D打印中的模型分割與打包
        關(guān)注用戶
        商用汽車(2016年6期)2016-06-29 09:18:54
        關(guān)注用戶
        商用汽車(2016年4期)2016-05-09 01:23:12
        国产三级不卡一区不卡二区在线| 377p日本欧洲亚洲大胆张筱雨 | 无码人妻丰满熟妇精品区| 久热这里只有精品99国产| 国产xxxxx在线观看免费| 国产精品涩涩涩一区二区三区免费| 国产精品成人有码在线观看| 久久久国产熟女综合一区二区三区| 亚洲精品第一页在线观看| 精品丰满人妻无套内射| 一本无码人妻在中文字幕免费 | 国产高清精品自在线看| 国产在线观看精品一区二区三区| 草逼视频污的网站免费| 黄片视频免费在线播放观看| 久久人人爽爽爽人久久久| 中文字幕在线亚洲日韩6页| 成人片黄网站色大片免费观看app| 欧美刺激午夜性久久久久久久| 国产精品午夜福利天堂| 亚洲天堂av福利在线| 亚洲av无码日韩av无码网站冲| 鲁一鲁一鲁一鲁一曰综合网| 久久99精品国产99久久6男男| 四虎在线播放免费永久视频| 精品人妻久久av中文字幕| 在线视频国产91自拍| 色多多a级毛片免费看| 中文字幕巨乱亚洲| 按摩少妇高潮在线一区| 午夜视频国产在线观看| 久久久久女人精品毛片| 国内精品国产三级国产av另类| 女人天堂国产精品资源麻豆| 亚洲av高清一区二区三| 日韩一区二区三区无码影院| 无码免费一区二区三区| 欧美视频二区欧美影视| 国产三级自拍视频在线| 网站在线观看视频一区二区| 亚洲色成人网站www永久|