亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于自編碼器的旅行同伴挖掘

        2020-12-07 05:57:31李小昌陳貝董啟文陸雪松
        關(guān)鍵詞:注意力機制

        李小昌 陳貝 董啟文 陸雪松

        摘要:隨著移動設(shè)備的廣泛應(yīng)用,當今的位置跟蹤系統(tǒng)不斷產(chǎn)生大量的軌跡數(shù)據(jù)。同時,許多應(yīng)用亟需具備從移動物體的軌跡數(shù)據(jù)中挖掘出一起旅行的物體(旅行同伴)的能力,如智慧交通系統(tǒng)和智慧營銷?,F(xiàn)有算法或是基于模式挖掘方法,按照特定模式匹配旅行同伴:或是基于表征學習方法,學習相似軌跡的相似表征。前一種方法受限于點對匹配的問題,后一種方法往往忽略軌跡之間的時間相近性。為了改善這些問題,提出了一個基于自編碼器的深度表征學習模型Mean-Attn(Mean-Attention),用于發(fā)現(xiàn)旅行同伴。Mean-Attn分別使用低維稠密向量表征和位置編碼技術(shù),將空間和時間信息同時注入軌跡的嵌入表征中;此外,還利用Sort-Tile-Recursive(sTR)算法、均值運算和全局注意力機制,鼓勵軌跡向鄰近的軌跡學習;從編碼器獲得軌跡表征后,利用DBSCAN(Density-Based Spatial Clustering of Applications with Noise)對表征進行聚類,從而找到旅行同伴。實驗結(jié)果表明,Mean-Attn在尋找旅行同伴方面的表現(xiàn)要優(yōu)于傳統(tǒng)的數(shù)據(jù)挖掘算法和最新的深度學習算法。

        關(guān)鍵詞:旅伴同伴;自編碼器;時空信息;STR算法;注意力機制

        中圖分類號:TP391 文獻標志碼:A DOI:10.3969/j.issn。1000-5641.202091003

        0引言

        挖掘結(jié)伴同行的移動物體(旅行同伴)在許多實際應(yīng)用中是一個非常有價值的問題。例如,在智慧交通系統(tǒng)中,交通流的優(yōu)化需要依賴道路傳感器監(jiān)控車流量。如果傳感器能夠發(fā)現(xiàn)大量汽車正沿同一路徑行進,交通管制人員則可以及時管控和調(diào)整車輛行進路線,以減輕可能發(fā)生的交通擁堵。再如,在移動廣告中,有研究證明,在同一時間出現(xiàn)在同一地點的消費者,通常會表現(xiàn)出共同的消費偏好。因而,發(fā)現(xiàn)一起行走的消費者群體,并向他們發(fā)放同一產(chǎn)品類別的優(yōu)惠券,有可能會增加廣告的營銷效益。尋找旅行同伴在其他方面也有著廣泛應(yīng)用,包括機場安防、動物遷徙監(jiān)測和公共游行管理等。

        旅行同伴可以從物體的軌跡中挖掘。物體的軌跡是指按時間順序排列的一系列位置點,而旅行同伴的軌跡在空間和時間上都比較接近,即在相近的時間內(nèi)互相有大量彼此靠近的位置點?,F(xiàn)有的旅行同伴挖掘方法可以大致分為兩類:一類是基于模式挖掘的方法;另一類是基于表示學習的方法?;谀J酵诰虻姆椒?,通常首先依據(jù)專家經(jīng)驗來定義和旅行同伴有關(guān)的軌跡模式,即相似的軌跡,然后開發(fā)相應(yīng)的算法從軌跡數(shù)據(jù)集中挖掘預(yù)定義的模式。這類算法中,軌跡的相似性計算通?;邳c對之間的歐氏距離,因此要求待檢驗的軌跡按照時間戳對齊。但是,實際應(yīng)用中的軌跡通常包含許多缺失的位置點,必須通過插值補齊后才能有效對齊,因而在挖掘過程中會引入大量的測量誤差。另外,基于表示學習的方法不需要定義模式或逐點比較,而是使用機器/深度學習模型來學習軌跡的嵌入表征,然后將這些表征進行聚類,從而挖掘出相似的軌跡?,F(xiàn)有的軌跡表征模型,一般需要一定的特征工程,或者需要特定的標簽以進行有監(jiān)督學習。在實踐中,特征工程通常依賴于問題的定義并且很耗時,會給數(shù)據(jù)挖掘帶來額外的開銷;而軌跡標簽信息通常很難收集,并且在使用時經(jīng)常存在倫理問題。除此以外,現(xiàn)有模型更多關(guān)注的是軌跡之間空間接近性上的特征,而忽略了軌跡之間時間接近性上的特征。因而,這樣挖掘出的軌跡雖然形狀相似,但并不一定對應(yīng)一起旅行的同伴。

        為了解決上述問題,本文開發(fā)了一種基于自編碼器的無監(jiān)督模型MEAN-Attn。該模型可以直接從原始軌跡中學習表征,輸入的原始軌跡不需要按照時間戳對齊,即允許具有不同數(shù)量的位置點,也即軌跡長度可以不同。模型學習到的表征同時包含了原始軌跡的空間和時間特征,從而允許通過聚類軌跡表征的方式來發(fā)現(xiàn)旅行同伴。Mean-Attn的靈感來源于文本摘要模型MeanSum。MeanSum模型可以用于對主題相似的文本進行摘要式總結(jié)?;诖?,本文首先使用STR算法對原始軌跡進行分組。STR算法最初用于對空間數(shù)據(jù)進行分組,以支持R樹的批量構(gòu)建。利用STR分組,可以使同一組內(nèi)的軌跡具有一定的時空接近性。隨后,從每組軌跡中抽取小的批次輸入基于注意力的自編碼器中。這背后的想法是鼓勵時空上更近的軌跡能互相學習到更多相似的表征,同時在軌跡嵌入的時候,本文使用了位置編碼技術(shù),將軌跡的時間信息注入模型的輸入表征中。然后,對每組軌跡學到的表征做均值計算,并使用一個解碼器一編碼器結(jié)構(gòu)對表征均值進行重編碼。模型的損失函數(shù)分為兩部分:一部分是軌跡的重構(gòu)損失,用以控制軌跡學習自身的特征;另一部分是前述重編碼表征和相應(yīng)批次中其他軌跡表征的相似性,用以引導批次中的軌跡互相學習對方的特征。由于在編碼時使用了注意力機制,并且使用均值計算來聚合一個批次的編碼,因此本文將模型稱為Mean-Attn自編碼器。當模型訓練完畢,就可以使用它的編碼器對軌跡進行編碼,然后使用聚類算法,如DBSCAN,對編碼得到的表征進行聚類。最后,在聚類后同一個簇中的表征所對應(yīng)的軌跡中,同時具有時間和空間上的相似性的可視為旅行同伴。

        1相關(guān)工作介紹

        1.1基于點對匹配的同伴挖掘

        在過去的10年中,尋找旅行同伴的問題在數(shù)據(jù)挖掘領(lǐng)域已經(jīng)有了非常廣泛的研究。一些具有代表性的研究主要是Flock、Convoy、Swarm和Gathering。本文重點闡述與本文要解決的問題更相關(guān)的Convoy和Swarm這兩個工作。Flock、Gathering與Convoy、Swarm這兩個工作類似,但是定義旅行同伴模式的方法不同。Convoy被定義為一組至少包含m個移動物體的集合,且要求集合中中的移動物體需要在至少k個連續(xù)時間點內(nèi)都是密度連通的:首先,通過在每個時間點執(zhí)行聚類算法,發(fā)現(xiàn)密度聯(lián)通的簇后,找出那些在連續(xù)的時間點內(nèi)能夠至少維護n個簇的對象;然后把這些對象加入Convoy候選集;最后,對于候選集中的每個對象,對其中的所有簇相交以測試所有的簇是否至少包含m個相同的軌跡。為了緩解計算復(fù)雜度過高的問題,Jeung等建議,首先根據(jù)簡化的軌跡挖掘Convoy候選集,然后在微調(diào)步中確定每個候選集是否確實合格。另一個類似的工作是Swarm,它通過將旅行同伴定義為在至少k個可能不連續(xù)的時間點內(nèi)具有密度連通特性的移動物體。這個定義放松了Convoy對旅行同伴的約束,即k個時間點可以不連續(xù)。這項工作的目的是發(fā)現(xiàn)所有封閉的群體,即群體中的軌跡集或者時間點都不能被擴大。由于候選的封閉Swarm數(shù)量過高,因此Li等提出了利用兩種剪枝策略來縮小模式的搜索空間。

        1.2基于表征學習的軌跡相似度計算

        近年來,軌跡的表征學習引起了很多關(guān)注。因為它幾乎不需要特征工程,并且不依賴于基于點對的相似度計算,一旦表征被學習到,就可以非常高效地將表征用于其他任務(wù)。與本文工作最相關(guān)的研究包括軌跡聚類和基于表征學習的軌跡相似度計算。Yao等使用序列到序列的自編碼器來學習軌跡表征,并用于軌跡聚類任務(wù):首先提取軌跡特征,例如速度和轉(zhuǎn)彎速率等;然后將其轉(zhuǎn)換為能描述相應(yīng)對象移動模式的特征序列;最后,將特征序列輸入自編碼器模型,以學習固定長度的軌跡表征。隨后,Li等提出了一種基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的模型來學習用于相似度計算的軌跡表征。該模型不需要特征提取,直接從原始軌跡中學習表征。但是,該模型的訓練是有監(jiān)督學習,需要對每條原始軌跡進行下采樣,以構(gòu)建訓練對。值得一提的是,這兩個工作都只關(guān)注尋找具有相似形狀的軌跡,因此它們所發(fā)現(xiàn)的相似軌跡,有可能是時間上間隔很遠的軌跡,因此不能被直接用來發(fā)現(xiàn)旅行同伴。另外,Zhang等的模型將額外的語義信息(例如環(huán)境約束和軌跡活動)注入到模型中,以獲得更精確的軌跡表征。盡管如此,到目前為止還沒有發(fā)現(xiàn)一個現(xiàn)有模型可以同時學習軌跡之間的時間相似性和空間相似性。

        2Mean-Attn模型

        2.1軌跡點的嵌入表征

        首先,對于給定的軌跡數(shù)據(jù)集,將整個空間劃分為大小相同的正方形單元。然后使用低維稠密表征技術(shù)對所有單元的嵌入表征進行預(yù)訓練,使得空間上接近的單元具有更相似的嵌入表征。對于軌跡中的每個點,使用該點所在單元格的表征作為其表征,那么每條軌跡就可以表示為它所有點的表征的序列。

        其次,為了捕獲軌跡的時間特征,使用位置編碼技術(shù)將時間信息注入軌跡的每個點的表征中。位置編碼原先被用于Transformer模型中用來捕獲文本中各個單詞之間的位置信息。由于已經(jīng)將軌跡表示成了一個標識序列,因此可以使用相同的機制來給每個標識加入時間信息。位置編碼PE(Positional Encoding)的計算方法為(本文用PpE表示)

        2.2Mean-Attn自編碼器

        為了鼓勵每條軌跡更多地向時空接近的軌跡學習,首先根據(jù)軌跡的時空接近性將它們粗略地劃分為不同的組,然后將每個組獨立地輸入到自編碼器中。這里使用STR算法對軌跡進行分組。STR算法最初用于將空間接近的對象打包為最小邊界矩形MBR(Minimum Bounding Rectangle),并用來構(gòu)建R樹索引的批量加載。由于每個軌跡都可以視為三維空間(t,x,y)中的一個對象,其中t是時間維度,x和y代表兩個空間維度,因此可借用STR的思想粗略地對軌跡進行分組。被分到同一個MBR的軌跡在時間上和空間上都更為接近,因此更有可能是旅行同伴。隨后從每個MBR中單獨抽取軌跡,組成小批次送入模型,相比原來開放式地抽取軌跡組成一個批次,小批次的處理更有可能包含旅行同伴,從而有更多的機會學習到彼此相似的特征。

        整個模型由兩個共享參數(shù)的自編碼器構(gòu)建,如圖1所示。左側(cè)的編碼器和解碼器構(gòu)成了第一個自編碼器,用于重構(gòu)每條輸入的軌跡。編碼器和解碼器均采用LSTM(Long Short-Term Memory)網(wǎng)絡(luò)。在模型右側(cè)是一個解碼器一編碼器結(jié)構(gòu)。首先,對左側(cè)的編碼器輸出的一個小批次的軌跡表征進行均值運算,得到一個小批次的平均編碼,后將其送入右側(cè)的解碼器,將解碼器輸出的中間軌跡再次輸?shù)接覀?cè)的編碼器中,以獲得重編碼的軌跡平均表征;然后,計算左側(cè)編碼器輸出的每條軌跡的編碼與右側(cè)編碼器輸出的平均軌跡的重編碼之間的相似性,用以控制軌跡在自我編碼的同時,盡量學習與其鄰近軌跡的特征。為了既保證軌跡的自我重構(gòu),又保證從鄰近軌跡學到相似的表征,左右兩側(cè)的兩個編碼器和解碼器分別需要共享相同的結(jié)構(gòu)和參數(shù)。

        在兩個LSTM編碼器上,本文還使用全局注意力機制來匯總每個步驟的隱藏狀態(tài),以形成最終的輸出編碼。該編碼考慮了整個軌跡的全局信息,實驗證明能夠提高編碼的表征能力。具體來說,首先初始化與軌跡點維度相等的全局注意力向量a,用來計算軌跡中每個軌跡點的注意力得分,相應(yīng)公式為其中,Hti表示在左側(cè)模塊中編碼器生成的針對ti軌跡的注意力聚合編碼,Ht'代表由右側(cè)的編碼器生成的平均軌跡重編碼。通過同時最小化重構(gòu)損失和相似性損失,迫使編碼器產(chǎn)生的編碼,既保持軌跡自身的獨特特征,也能從同一組中的鄰居軌跡那里學到相似的特征。這樣,相似的編碼所對應(yīng)的軌跡,同時在時間和空間上具有相似性。

        3實驗結(jié)果

        3.1實驗數(shù)據(jù)和評估指標

        本文在與亞洲某機場的合作研究中,獲得了一個真實的乘客機場軌跡數(shù)據(jù)集。該數(shù)據(jù)集包含14 605個軌跡,約有719 507個位置點,每個軌跡包含20至120個點。本文使用此數(shù)據(jù)集來訓練模型,挖掘一起行走的乘客。

        將Mean-Attn與簡單的LSTM自編碼器(LSTM-AE)、兩個經(jīng)典的模式挖掘算法Convoy和Swarm,以及兩個機器學習模型T2Vec(Trajectory to Vector)和BFEA(Behavior Feature ExtractionAlgorithm)進行比較。對于基于模式挖掘的兩個算法Convoy和Swarm,本文比較它們抽取的簇數(shù)(旅行同伴的組數(shù)),且先學習軌跡表征,然后對表征聚類得到的簇數(shù)進行比較。為了遵循算法的要求,本文在數(shù)據(jù)集中進行線性插值,針對每條軌跡,每10s為一個時間步,在軌跡點缺失時生成一個插值點。對于T2Vec和BFEA,修改模型的輸入,將位置編碼添加到其原始嵌入中,以便和本文的模型進行公平比較。本文使用DBSCAN對學習到的編碼進行聚類,并比較各個算法的聚類性能。

        在評估軌跡表征聚類效果時,本文采用Davis-Bouldin Index、Silhouette Coefficient以及WeightedAverage Entropy(加權(quán)平均熵)這3個指標來衡量。Davis-Bouldin Index首先根據(jù)每個簇的直徑找到最相似的簇,然后計算這些簇的平均相似度,因此較小的值通常表示著較好的聚類性能。SilhouetteCoefficient是衡量每個對象與相同簇內(nèi)的其他對象相比于簇外的對象是否更相似的一種度量;較高的Silhouette Coefficient值表示每個對象與相同簇內(nèi)的對象相似度較高,而與簇外對象的相似度較低,因此表明聚類效果更好。Davis-Bouldin Index和Silhouette Coefficient是進行聚類評估的內(nèi)部指標。除此之外,本文還計算所有簇的加權(quán)平均熵并將其作為外部指標。簇的熵是聚類對象的最大似然估計,當簇中的對象的類別較為一致時,簇的熵較小。加權(quán)平均熵是所有簇的熵的加權(quán)總和,其中每個簇的權(quán)重是簇的大小除以對象總數(shù)。更好的軌跡表征應(yīng)使得簇的加權(quán)平均熵較小。盡管無法得到軌跡的類別標簽,但如果幾名乘客是旅行同伴,那么他們更有可能乘坐同一航班。基于此假設(shè),本文將每個軌跡的最后位置點,與10 min后的第一個航班相關(guān)聯(lián),并將該航班用作進行熵計算的軌跡標簽。對于所有這些實驗,本文丟棄大小為1的簇,即被視為單獨移動的軌跡。

        3.2實驗參數(shù)設(shè)定和訓練細節(jié)

        MBR的大小和小批次大小設(shè)定:本文將MBR的大小和小批次的大?。ㄝ斎肽P蜁r軌跡與其鄰居軌跡數(shù)目的總和)分別設(shè)定為64和8,MBR的大小即使用STR算法對軌跡進行粗略分組時的組的大小。

        網(wǎng)格單元的大小設(shè)定:將整個機場空間劃分為大小相同的網(wǎng)格單元,每個單元的邊長為5 m,共得到15 354個單元。

        訓練細節(jié):本文使用Adam算法對模型進行優(yōu)化,學習率固定為0.001,權(quán)重衰減率為0.000 01.當軌跡重建損失和表征相似性損失都收斂時,訓練即可停止。本文觀察到所有的模型都會在20輪后收斂。

        3.3主要結(jié)果

        本文使用DBSCAN對4個深度學習模型學到的軌跡表征進行聚類。其中,距離參數(shù)Epsilon從0到0.2進行變化,以0.000 1的增量遞增;然后針對每個Epsilon進行聚類,并計算前述3種指標的結(jié)果。結(jié)果分別如圖2a)、圖2b)和圖2c)所示。

        在圖2a)和圖2b)中可觀察到,Mean-Attn在Epsilon變化時,基本上都具有較小的Davis-BouldinIndex值和較大的Silhouette Coefficient值,這表明Mean-Attn的性能在以內(nèi)部標準來評估時,在大部分情況下都優(yōu)于LSTM-AE,T2Vec和BFEA。在圖2a)中,當Epsilon大于0.16時,使用LSTM-AE訓練的所有模型表征都被聚類到同一個簇中,因此不再有相應(yīng)的指標值。當Epsilon大于0.04時,BFEA同理。T2Vec在Epsilon較小的時候表現(xiàn)不如Mean-Attn。但是當Epsilon大于0.15時,Davis-Bouldin Index值比Mean-Attn小,這是因為經(jīng)過Mean-Attn聚類得到的同行軌跡之間的表征相似度較大,更易被分到一個簇中;而當Epsilon變大時,簇內(nèi)則更易引入不相似的噪聲軌跡。在圖2b)中,Mean-Attn的表現(xiàn)穩(wěn)定地優(yōu)于其他3種模型。在圖2c)中,還可觀察到,對于變化的Epsilon,Mean-Attn生成的簇的加權(quán)平均熵始終要小于LSTM-AE、T2Vec和BFEA生成的簇。這意味著Mean-Attn產(chǎn)生的簇內(nèi)部,乘客對應(yīng)的航班標簽較為一致,也即意味著相較于其他模型,Mean-Attn產(chǎn)生的同一個簇中的軌跡更有可能成為旅行同伴。

        此外,本文還將LSTM-AE和Mean-Attn這兩個模型找到的至少具有2條軌跡的簇的數(shù)量,與Convoy和Swarm提取出來的簇的數(shù)量進行了比較,結(jié)果如表1所示。對于Convoy和Swarm,本文將k設(shè)置為18(至少3 min),將m設(shè)置為2(至少有2人同行),然后將e設(shè)置為3 m和5 m。例如,表1中的第一行表示一個Convoy必須要在至少18個連續(xù)的時間點中,包含至少2條軌跡,他們的軌跡點始終是3 m密度連通的。對于LSTM-AE和Mean-Attn這兩個模型,僅顯示當它們發(fā)現(xiàn)最大數(shù)量的簇時的結(jié)果??梢杂^察到,即使放寬變量設(shè)定的限制,Convoy和Swarm仍生成許多只包含單個軌跡的簇。相比之下,本文提出的模型可以將更多的軌跡進行聚類,即發(fā)現(xiàn)更多的旅行同伴。

        3.4敏感性分析

        本節(jié)通過更改Mean-Attn模型中STR算法的MBR容量和小批次大小這兩個超參數(shù)來執(zhí)行敏感度分析。

        首先,將輸入模型的小批次大小固定為8,然后將STR算法的MBR容量(capacity)設(shè)為(32,64,96)。圖3a)、圖3b)和圖3c)顯示了結(jié)果。從圖3中可以觀察到,盡管存在細微的差異,但是當MBR容量變化時,3個測量都會產(chǎn)生較為相似的結(jié)果。這表明,Mean-Attn對MBR容量的選擇具有一定的魯棒性。

        然后,將MBR容量固定為64,并將小批次大小(用軌跡數(shù)量(Trajectories)表示)設(shè)為(4,8,16)。圖4a)、圖4b)和圖4c)顯示了結(jié)果。從圖4中可以觀察到,當小批次大小等于16時,3個指標的表現(xiàn)均為最差。本文認為這是合理的,因為當小批次大小較大時,利用Mean-Attn訓練的編碼,更有可能從不太相似的軌跡中學習到特征。因此,平均編碼與各個軌跡表征的偏差也會更大,這使得表征相似度損失收斂變得更加困難。根據(jù)這一結(jié)果,本文認為Mean-Attn更偏向于使用較小的批次進行訓練。

        3.5位置編碼的效果

        本文利用位置編碼技術(shù)來捕獲軌跡點的時間信息。為了展示這種想法的有效性,本文從軌跡點的嵌入表征中刪除位置編碼,然后再次訓練Mean-Attn模型。隨后,計算相應(yīng)的Davis-Bouldin Index、Silhouette Coefficient和加權(quán)平均熵這3個指標,并和原模型的指標進行對比。結(jié)果如圖5a)、圖5b)和圖5c1所示。

        從圖5中可以觀察到,使用了位置編碼的模型比沒有使用位置編碼的模型,在絕大多數(shù)情況下都表現(xiàn)出了更好的聚類性能。這是因為沒有位置編碼的Mean-Attn只能學習軌跡之間的空間相似性。在這種情況下,形狀相似但在時間維度上完全偏離的軌跡,仍可能生成相似的表征,從而被誤認為是旅行同伴;而包含了位置編碼的Mean-Attn能夠同時學習軌跡之間的時間和空間相似性,從而能被用于更精確地找到旅行同伴。

        3.6軌跡可視化

        為了展示旅行同伴挖掘的直觀效果,本文選擇數(shù)據(jù)集中某一天從凌晨00:00到凌晨02:00這2 h內(nèi)的軌跡。這段時間內(nèi)軌跡相對較少,能夠更清晰地展示結(jié)果。本文分別對LSTM-AE和Mean-Attn生成的軌跡表征進行了DBSCAN聚類,對同一個簇中的軌跡使用相同的顏色來表示。對當DBSCAN發(fā)現(xiàn)最大數(shù)目的簇時(排除單個軌跡)的結(jié)果進行可視化,結(jié)果如圖6a)和圖6b)所示。圖6中,x和y代表空間維度,z是時間維度。軌跡通常從右下位置移動到左上位置,代表從航站樓入口移動到登機口。

        從圖6中可以觀察到,Mean-Attn可以發(fā)現(xiàn)5組旅行同伴,而LSTM-AE只能發(fā)現(xiàn)3組。在藍色組中,Mean-Attn發(fā)現(xiàn)了3條軌跡,而LSTM-AE僅發(fā)現(xiàn)了2條軌跡,從圖中可見,LSTM-AE沒有發(fā)現(xiàn)最初偏離其他兩個軌跡的那條軌跡。在LSTM-AE發(fā)現(xiàn)的粉紅色組中,這4個軌跡其實在大部分時間里都偏離了,只是最后移到了同一個登機口。而Mean-Attn可以將它們分為2個簇(粉紅色和綠色),每個簇中的2條軌跡看起來更像是旅行同伴。最后,Mean-Attn會識別LSTM-AE未發(fā)現(xiàn)的2個黃色旅行同伴,即使他們在大多數(shù)情況下的距離都非常接近。由此可見,Mean-Attn可以比LSTM-AE學到更適合用來挖掘旅行同伴的軌跡表征。

        4結(jié)論

        本文提出了一個無監(jiān)督的深度模型Mean-Attn,用于發(fā)現(xiàn)軌跡數(shù)據(jù)中的旅行同伴。首先采用低維稠密表征技術(shù)和位置編碼技術(shù)對每條軌跡進行嵌入表示。利用這兩種技術(shù),可以同時捕獲每條軌跡的空間和時間信息。然后,使用Sort-Tile-Recursive算法對原始軌跡進行分組,并從每組中單獨抽取小批次輸?shù)侥P椭?,以鼓勵它們向鄰近軌跡學習。在模型的具體結(jié)構(gòu)中,使用了共享參數(shù)的雙重自編碼器,分別從軌跡重構(gòu)和小批次中軌跡之間的相似性兩方面來約束表征的訓練,同時使用了全局注意力機制對LSTM的所有隱層進行聚合,以獲取最終的軌跡表征。實驗結(jié)果表明,相比LSTM-AE、T2Vec和BFEA,本文提出的Mean-Attn學習到的軌跡表征,在尋找旅行同伴的應(yīng)用上有更好的表現(xiàn)。在未來的工作中,一方面將尋找更多的真實數(shù)據(jù)集,進一步驗證模型的效果;另一方面,將采用其他架構(gòu),如自注意力機制等,來改進自編碼器的編碼效果,從而改進旅行同伴的挖掘效率。

        猜你喜歡
        注意力機制
        基于注意力機制的行人軌跡預(yù)測生成模型
        基于注意力機制和BGRU網(wǎng)絡(luò)的文本情感分析方法研究
        多特征融合的中文實體關(guān)系抽取研究
        基于序列到序列模型的文本到信息框生成的研究
        基于深度學習的手分割算法研究
        從餐館評論中提取方面術(shù)語
        面向短文本的網(wǎng)絡(luò)輿情話題
        基于自注意力與動態(tài)路由的文本建模方法
        軟件導刊(2019年1期)2019-06-07 15:08:13
        基于深度學習的問題回答技術(shù)研究
        基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
        国产av麻豆mag剧集| 国产精品国产三级在线专区| 国产一区二区资源在线观看 | 爆乳午夜福利视频精品| 亚洲精品中文字幕一二| 中文字幕无码中文字幕有码| 日韩制服国产精品一区| 亚洲中文字幕无码久久2018| 日韩美女人妻一区二区三区| 国产av一区二区三区性入口| 亚洲av无码av制服另类专区| 久久91综合国产91久久精品| 亚洲一区二区三区一区| 久久久精品人妻一区二区三区四区| 亚洲v欧美v国产v在线观看| 色综合久久无码中文字幕app| 久久久一本精品久久久一本| 久久久久免费精品国产| 欧美成人片一区二区三区| 久久这里都是精品一区| 国产一区二区三区四区在线视频| 无码中文字幕人妻在线一区| 成人无码一区二区三区网站 | 久久精品一区二区三区夜夜| 国产欧美精品aaaaaa片| 丁香花在线影院观看在线播放| 久久精品国产亚洲综合色| 亚洲一区二区三区四区精品| 亚洲综合成人婷婷五月网址| 亚洲中文字幕无码爆乳av| 精品亚洲不卡一区二区| 国产精品一区二区黑丝| 97人妻碰碰视频免费上线| 国产资源在线视频| 亚洲人成精品久久熟女| 美女露内裤扒开腿让男人桶无遮挡 | 奇米影视777撸吧| 成人无码区免费AⅤ片WWW| 国产亚洲专区一区二区| 九九久久99综合一区二区| 99热在线精品播放|