摘 要:在各大知識推理應(yīng)用場景下,知識圖譜中時(shí)序的缺失、知識圖譜構(gòu)建時(shí)實(shí)體關(guān)系的不完善,已然成為研究者們亟需解決的問題。為此,構(gòu)造了一種融合時(shí)序信息與小樣本關(guān)系的知識圖譜推理模型,該模型將知識圖譜的三元組表示擴(kuò)展到含有時(shí)序信息的四元組表示,并通過時(shí)序信息來提高推理路徑的準(zhǔn)確性。此外,通過元學(xué)習(xí)從高頻關(guān)系中學(xué)習(xí)元參數(shù),并使用元參數(shù)適配小樣本關(guān)系任務(wù),提高模型在小樣本關(guān)系中的泛化能力。實(shí)驗(yàn)表明,所提出的方法在Hits@1、Hits@3、Hits@10和MRR上均高于對比方法,并且均提高5%以上,表明所提出的方法可以完成知識圖譜的推理,并且在小樣本關(guān)系下具有較好的效果。
關(guān)鍵詞:知識圖譜推理;時(shí)序;小樣本學(xué)習(xí);元學(xué)習(xí);強(qiáng)化學(xué)習(xí);多跳推理
中圖分類號:TP3-0 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-1302(2024)05-0-05
0 引 言
知識圖譜是一種使用圖結(jié)構(gòu)模型來描述、構(gòu)建和表示實(shí)體之間關(guān)系的技術(shù)[1],它在問答系統(tǒng)、推薦系統(tǒng)、語義分析等領(lǐng)域都發(fā)揮著重要的作用。一般地,知識圖譜是用三元組(h, r, t)表示相關(guān)事實(shí)的集合,其中,h、t表示實(shí)體,r表示實(shí)體之間的關(guān)系。
目前,由三元組構(gòu)成的知識圖譜已經(jīng)可以很好地表示實(shí)體之間的關(guān)系了,但是這種方式忽略了實(shí)體關(guān)系中的時(shí)序信息。為了解決知識圖譜中時(shí)序信息表示問題,研究人員將三元組形式的知識圖譜擴(kuò)展到由四元組(h, r, t, τ)表示[2]的時(shí)序知識圖譜,其中τ表示時(shí)序信息。
知識圖譜推理是人工智能領(lǐng)域的一個(gè)前沿研究方向,其旨在通過圖譜中已有的實(shí)體和關(guān)系推斷出未知的目標(biāo)實(shí)體。在小樣本場景下,融合時(shí)序信息的知識圖譜可以幫助下游任務(wù)解決信息稀疏、路徑選擇困難等問題,因此融合時(shí)序信息的知識圖譜推理技術(shù)得到了不少研究者的關(guān)注。
1 相關(guān)工作
國內(nèi)外研究人員從不同角度對知識圖譜推理技術(shù)進(jìn)行了相關(guān)研究,主要使用兩大方法:基于知識圖譜嵌入的方法[3-6]和基于多跳推理的方法[7-9]。
基于知識圖譜嵌入的方法中,研究人員將時(shí)序信息嵌入到低維空間中,通過評分函數(shù)對推理結(jié)果進(jìn)行打分,然后根據(jù)最終打分結(jié)果來選擇目標(biāo)實(shí)體,該方法在隱式推理上具有不錯(cuò)的效果。
基于多跳推理的方法中,通過強(qiáng)化學(xué)習(xí)將知識圖譜推理過程建模成馬爾科夫序列決策過程,找到實(shí)體與關(guān)系之間的預(yù)測路徑來得到目標(biāo)實(shí)體,該方法在目標(biāo)實(shí)體推理的過程中具有較強(qiáng)的可解釋性。
文獻(xiàn)[10]中提出了一種基于元學(xué)習(xí)的多跳推理模型(Meta-KGR),該模型將帶有同一關(guān)系的實(shí)體查詢視為一個(gè)任務(wù),采用強(qiáng)化學(xué)習(xí)方法訓(xùn)練智能體(Agent)來搜索目標(biāo)實(shí)體和推理路徑。值得肯定的是,該方法從高頻關(guān)系中學(xué)習(xí)到的元信息在處理小樣本關(guān)系時(shí)具有不錯(cuò)效果。
綜上所述,研究人員對時(shí)序信息表示和知識圖譜推理進(jìn)行了相關(guān)探索與研究,但是在小樣本知識推理過程中仍然存在一些局限,主要有以下三個(gè)方面:
(1) 基于圖譜嵌入的方法主要通過隱式推理完成任務(wù),只能得到最終的推理結(jié)果,而不能得到真實(shí)的推理路徑,因此該方法忽略了推理路徑的可解釋性,限制了其在更復(fù)雜的推理任務(wù)中的使用;
(2) 基于多跳推理的方法在知識圖譜推理過程中,往往不考慮圖譜中的時(shí)序信息,因此該方法忽略了時(shí)序信息在推理過程中所帶來的增益,限制其在小樣本關(guān)系推理上的應(yīng)用;
(3) 對于小樣本關(guān)系下時(shí)序知識圖譜推理的研究尚不成熟,評價(jià)標(biāo)準(zhǔn)也不完善,對推理路徑的長度也沒有統(tǒng)一的度量指標(biāo)。
鑒于以上分析,本文結(jié)合實(shí)體關(guān)系中的時(shí)序信息和小樣本關(guān)系的特點(diǎn),提出了一種適用于小樣本關(guān)系下融合時(shí)序信息的知識圖譜推理的策略。
2 模型設(shè)計(jì)
本文設(shè)計(jì)了一種適用于小樣本關(guān)系時(shí)序知識圖譜推理的FastRS-Path模型,該模型設(shè)計(jì)主要包括多跳推理設(shè)計(jì)、策略網(wǎng)絡(luò)設(shè)計(jì)和元學(xué)習(xí)設(shè)計(jì)。如圖1所示是FastRS-Path模型的結(jié)構(gòu),主要由路徑推理、策略網(wǎng)絡(luò)和回報(bào)函數(shù)構(gòu)成,圖中{es, e1, ..., et}表示智能體能夠找到目標(biāo)實(shí)體的多跳路徑,{τ0|r0, τ1|r1, ..., τt|rt}表示在時(shí)序τ下的實(shí)體關(guān)系r,{h0, h1, ..., ht}表示在{τ0|r0, τ1|r1, ..., τt|rt}下LSTM的隱藏狀態(tài)。
2.1 多跳推理
在對時(shí)序知識圖譜表示時(shí),本文將圖譜定義為有向圖G=(V, E, R, Γ),其中V和E分別表示圖譜頂點(diǎn)和邊的集合。通過POMDP對部分可觀測環(huán)境規(guī)劃問題進(jìn)行系統(tǒng)建模,使用六元組{S, A, T, R, O, Ω}表示POMDP模型,其中S表示所有連續(xù)狀態(tài)空間,O表示未觀測到的狀態(tài)空間,A表示所有行為的集合,T表示概率轉(zhuǎn)移矩陣,R表示觀測點(diǎn)上對應(yīng)行為的回報(bào),Ω表示觀測點(diǎn)轉(zhuǎn)移后被觀測到的概率。具體地,POMDP的每個(gè)組成部分解釋如下:
(1)狀態(tài)S:狀態(tài)s∈S表示為s=(, es, r, et, τ),其中,表示當(dāng)前到達(dá)的實(shí)體,es和et分別為源實(shí)體和目標(biāo)實(shí)體,r表示es和et在τ時(shí)刻的關(guān)系。
(2)觀測O:環(huán)境是不可觀測的,只轉(zhuǎn)移其當(dāng)前位置和任務(wù)。觀測函數(shù)定義為O(S=(, es, r, e0, τ))=(et, es, r, τ)。
(3)行為A:行為空間被定義為狀態(tài)s下可能的關(guān)系和時(shí)序點(diǎn)的集合,由狀態(tài)s下圖譜中頂點(diǎn)的所有出方向的邊組成。形式上,,其中v是一個(gè)臨時(shí)實(shí)體。在時(shí)序τc中,每個(gè)狀態(tài)下的智能體從多個(gè)出邊中選擇rc并到達(dá)臨時(shí)實(shí)體v,且智能體在推理路徑上所走的步數(shù)小于給定長度。
(4)轉(zhuǎn)換T:根據(jù)智能體選擇的邊,環(huán)境將當(dāng)前狀態(tài)更新為新狀態(tài)。狀態(tài)轉(zhuǎn)移函數(shù)定義為δ(s, A)=(v, es, r, et, τ),其中s表示狀態(tài),A表示智能體選擇的行為空間。
(5)回報(bào)R:在時(shí)序圖譜推理路徑中,智能體傾向于選擇重復(fù)的推理路徑。為了鼓勵(lì)智能體盡可能地探索有效路徑,本文提出了一種新的回報(bào)函數(shù)(如圖2所示),該函數(shù)對基礎(chǔ)回報(bào)Rb進(jìn)行修正,通過引入輔助回報(bào)δ來降低推理路徑的整體回報(bào),提高發(fā)現(xiàn)新實(shí)體的可能性,如式(1)和式(2)所示。
(1)
(2)
式中:δ(x)是sigmoid函數(shù);D表示所有可觀測的四元組;函數(shù)f表示兩實(shí)體間的推理路徑;本文引入線性參數(shù)λ和μ用于調(diào)整回報(bào)修正的強(qiáng)度,且λ, μ∈[0, 1]。
2.2 策略網(wǎng)絡(luò)
在時(shí)序知識圖譜中,每個(gè)實(shí)體通過不同的邊連接多個(gè)實(shí)體,給定一組時(shí)序關(guān)系(et, r, et, τ),對于任一實(shí)體對(es, eo)有P={p1, p2, ..., pm}為es到eo的所有多跳路徑,其中,pm表示實(shí)體對(es, eo)下的一條具體路徑。一般地,,其中“:”表示向量拼接。在小樣本關(guān)系中,推理路徑長度一般不超過6,即k≤6。策略網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。在LSTM中,智能體將歷史行為和觀測序列Ht編碼為連續(xù)的向量ht∈R2d,其中觀測序列,歷史路徑向量表示為ht,LSTM動(dòng)態(tài)更新如式(3)所示。
(3)
式中:as表示起始實(shí)體es的行為;os表示起始時(shí)刻的觀測;at-1=(rt-1, τt-1)表示t-1時(shí)刻的行為向量,主要包含了實(shí)體關(guān)系和時(shí)序的向量表示;ot表示在t時(shí)刻的觀測向量。
基于當(dāng)前觀測ot和當(dāng)前歷史向量ht,網(wǎng)絡(luò)選擇關(guān)系和時(shí)序作為所有行為的輸出。該神經(jīng)網(wǎng)絡(luò)為兩層前饋網(wǎng)絡(luò),并且每層后接一個(gè)修正非線性層(ReLU)。輸出是一個(gè)行為向量,該向量由來自當(dāng)前實(shí)體上所有可能的行為構(gòu)成,并使用Softmax函數(shù)進(jìn)行規(guī)范化,策略網(wǎng)絡(luò)定義如式(4)所示。
(4)
式中:W1和W2是兩層前饋神經(jīng)網(wǎng)絡(luò)的權(quán)重矩陣;ot和ht是t時(shí)刻的觀測向量和歷史向量。
2.3 元學(xué)習(xí)
如圖4所示,模型在高頻學(xué)習(xí)中捕獲一般任務(wù)下的初始化參數(shù)θ*,當(dāng)接觸到新任務(wù)Tr時(shí),模型的參數(shù)就會適應(yīng)地調(diào)整為θ*r,即利用以往的知識經(jīng)驗(yàn)來指導(dǎo)新任務(wù)的學(xué)習(xí)[2]。高頻學(xué)習(xí)所捕獲的元信息就是一般關(guān)系的初始化參數(shù),對于小樣本關(guān)系r1、r2、r3可以快速適應(yīng)得到參數(shù)θ*r1、θ*r2、θ*r3。
在推理任務(wù)Tr上,本文分別使用單任務(wù)和多任務(wù)梯度下降方法更新特定關(guān)系參數(shù)θ*r和θ。具體地,在更新參數(shù)θ*r時(shí),本文使用單任務(wù)梯度下降方法計(jì)算獲取,如式(5)所示:
(5)
式中:Ds是從屬于Tr的四元組中隨機(jī)采樣得到的訓(xùn)練集;α表示學(xué)習(xí)速率。在學(xué)習(xí)特定關(guān)系參數(shù)θ*r后,本文在數(shù)據(jù)集DQ上評估,根據(jù)評估的梯度來更新策略網(wǎng)絡(luò)。在更新參數(shù)θ時(shí),本文采用多任務(wù)梯度下降方法計(jì)算獲取,如式(6)所示:
(6)
式中:DQ是從屬于Tr中隨機(jī)采樣得到的訓(xùn)練集;β為學(xué)習(xí)速率。
2.4 訓(xùn)練
時(shí)序知識圖譜推理模型的訓(xùn)練過程是智能體和環(huán)境迭代的過程。其中,環(huán)境用來存放訓(xùn)練過程中所有的向量,包括實(shí)體向量、關(guān)系向量、時(shí)序向量等。如圖5所示,給定一個(gè)缺省四元組(e, r, ?, τ),使用當(dāng)前向量初始化狀態(tài)S1,通過觀測函數(shù)計(jì)算出觀測值O1,智能體獲取到觀測值后,通過策略網(wǎng)絡(luò)計(jì)算出行為A1,并將行為傳給環(huán)境。在這個(gè)過程中,狀態(tài)S1轉(zhuǎn)換到狀態(tài)S2后,智能體將返回這條推理路徑的回報(bào),重復(fù)執(zhí)行該過程就實(shí)現(xiàn)了環(huán)境和智能體的迭代。最后,通過式(1)和式(2)獲得整條路徑的回報(bào)值。
在對策略網(wǎng)絡(luò)優(yōu)化時(shí),本文采用梯度上升的訓(xùn)練方法,即與梯度下降相反的訓(xùn)練方法。區(qū)別在于梯度下降是最小化損失,而梯度上升是最大化回報(bào),如式(7)所示。
(7)
式中:J(θ)表示完整周期下的回報(bào);A表示行為空間;E表示訓(xùn)練數(shù)據(jù)集的經(jīng)驗(yàn)平均值;RSt, At表示t時(shí)刻狀態(tài)S中行為A的整體回報(bào)。
(8)
(9)
(10)
式(8)~(10)用于更新策略網(wǎng)絡(luò)的近似梯度,對序列上的每個(gè)時(shí)間位置t,使用梯度上升方法更新策略函數(shù)的參數(shù),a表示訓(xùn)練步長。在訓(xùn)練過程中,通過向模型輸入缺省四元組(e, r, ?, τ),實(shí)現(xiàn)智能體和環(huán)境之間的迭代。在每一輪學(xué)習(xí)中,模型將初始化狀態(tài)向量和每輪學(xué)習(xí)時(shí)長,通過當(dāng)前的狀態(tài)向量來獲得觀測向量,并將前一輪學(xué)習(xí)的歷史路徑向量定義為ht-1,前一輪學(xué)習(xí)中的行為向量定義為at-1。然后,設(shè)置每一輪學(xué)習(xí)長度的上限為max_length,在長度上限max_length內(nèi),智能體將通過策略網(wǎng)絡(luò)來獲得下一個(gè)行為向量,從而使環(huán)境到達(dá)下一個(gè)狀態(tài),并通過獎(jiǎng)勵(lì)函數(shù)對路徑推理進(jìn)行獎(jiǎng)勵(lì)。
3 實(shí)驗(yàn)結(jié)果與分析
3.1 數(shù)據(jù)集
實(shí)驗(yàn)過程中,本文選擇兩個(gè)時(shí)間數(shù)據(jù)集對FastRS-Path模型進(jìn)行評估,分別是綜合危機(jī)預(yù)警系統(tǒng)(ICEWS)和全球事件、語言和語氣數(shù)據(jù)庫(GDELT)。其中,ICEWS記錄了包含事件發(fā)生時(shí)間、事件參與實(shí)體等58個(gè)字段;GDELT記錄了包含事件發(fā)生時(shí)間、事件參與實(shí)體等61個(gè)字段。為了對比不同樣本關(guān)系下的模型性能,實(shí)驗(yàn)分別從ICEWS和GDELT數(shù)據(jù)集中選擇常規(guī)關(guān)系數(shù)據(jù)集和小樣本關(guān)系數(shù)據(jù)集。表1中分別給出了常規(guī)關(guān)系和小樣本關(guān)系的統(tǒng)計(jì)數(shù)據(jù)。
對于每一個(gè)數(shù)據(jù)集,本文通過構(gòu)建逆向四元組來表示逆向關(guān)系,將帶有逆向關(guān)系的四元組添加入訓(xùn)練數(shù)據(jù)集,通過逆向關(guān)系來提升推理路徑的性能。在具體評估過程中,本文分別對兩個(gè)原始數(shù)據(jù)集的關(guān)系進(jìn)行排序,通過構(gòu)建top-n關(guān)系的子集作為推理任務(wù)。在測試數(shù)據(jù)集中,本文也同樣生成一些逆向四元組,在測試過程中評估推理任務(wù)。
3.2 基線方法
在模型對比評估時(shí),本文將以下三種推理方法作為基線,分別是TTransE[11]、TA-TransE[12]和TA-DistMult[9]。在數(shù)據(jù)集ICEWS和GDELT上,通過比較評價(jià)指標(biāo)的數(shù)據(jù)值來評估FastRS-Path模型的性能。實(shí)驗(yàn)選擇Hits@n和MRR作為模型性能的評價(jià)指標(biāo),數(shù)值越大表明模型的效果越好。其中MRR是一個(gè)國際上通用的對于知識圖譜補(bǔ)全任務(wù)進(jìn)行評價(jià)的機(jī)制;Hits@n則是表示正確實(shí)體出現(xiàn)在前n個(gè)結(jié)果中的比例,即n命中率,一般選擇n=1, 3, 10。對每個(gè)模型,本文計(jì)算驗(yàn)證集采樣中單個(gè)小批量回報(bào),然后只對回報(bào)最高的模型進(jìn)行訓(xùn)練。
3.3 結(jié)果分析
在數(shù)據(jù)集ICEWS(normal)和GDELT(normal)上,本文選擇常規(guī)數(shù)據(jù)集來測試FastRS-Path模型,使用Hits@1/3/10和MRR作為實(shí)驗(yàn)結(jié)果的評價(jià)指標(biāo)。實(shí)驗(yàn)結(jié)果見表2所列,本文提出的模型在Hits@1和MRR上的指標(biāo)均超過其他模型,效果提升7.4%左右,但仍然存在評價(jià)值低于基線方法的情況,例如:ICEWS(normal)數(shù)據(jù)集上,F(xiàn)astRS-Path模型在Hits@3上的值低于TA-DistMult下的評價(jià)值。實(shí)驗(yàn)結(jié)果中雖然存在部分Hits@n值略低于基線方法的值,但這并不影響該模型的可靠性。因此本文提出的模型在時(shí)序知識圖譜推理任務(wù)中具有一定的可行性,且時(shí)序信息在多跳路徑推理中起著關(guān)鍵作用。
在數(shù)據(jù)集ICEWS(few-shot)和GDELT(few-shot)上,本文選擇小樣本關(guān)系數(shù)據(jù)集來分析FastRS-Path模型,以常規(guī)數(shù)據(jù)集上最優(yōu)的基線方法—TA-DistMult模型作對比,使用Hits@1和MRR作為實(shí)驗(yàn)結(jié)果的評價(jià)指標(biāo),通過調(diào)整小樣本關(guān)系閾值K來觀測實(shí)驗(yàn)結(jié)果的變化。實(shí)驗(yàn)中本文設(shè)定閾值K的大小分別為K=1, 3, 10, max,實(shí)驗(yàn)結(jié)果見表3所列。在小樣本關(guān)系中,F(xiàn)astRS-Path模型的MMR和Hits@1評價(jià)得分在各個(gè)閾值下均高于TA-DistMult模型。因此,本文提出的模型性能對閾值K不敏感,具有更好的魯棒性,能夠提高小樣本關(guān)系數(shù)據(jù)集中路徑推理的性能。
為了進(jìn)一步分析FastRS-Path在小樣本關(guān)系數(shù)據(jù)集上的性能,本文通過調(diào)整推理路徑的長度來分析該模型的有效性。從圖6中可以觀察到:當(dāng)路徑的長度為3時(shí),模型的效果顯著優(yōu)于其他路徑長度;當(dāng)路徑長度小于3時(shí),模型的性能幾乎為0;當(dāng)路徑長度大于3時(shí),模型的性能逐漸降低。
因此,本文推測:在路徑長度較小時(shí),實(shí)體之間的時(shí)序信息較少,不能完整地發(fā)揮出時(shí)序在推理任務(wù)中的作用;而當(dāng)路徑較長時(shí),推理過程變得復(fù)雜,所以性能有所下降,但是仍然優(yōu)于其他模型。
4 結(jié) 語
本文結(jié)合實(shí)體關(guān)系中的時(shí)序信息和小樣本關(guān)系的特點(diǎn),提出了一種融合時(shí)序信息和小樣本關(guān)系的知識圖譜推理的FastRS-Path模型。該模型把時(shí)序信息作為一個(gè)新的維度引入,將知識圖譜的三元組表示擴(kuò)展到四元組表示,在時(shí)序信息的參與下提高了推理路徑的準(zhǔn)確性。除此之外,為了提高模型在小樣本關(guān)系中的泛化能力,F(xiàn)astRS-Path模型采用元學(xué)習(xí)從高頻關(guān)系中學(xué)習(xí)元參數(shù)來適應(yīng)小樣本關(guān)系。同時(shí),在FastRS-Path模型中提出新的回報(bào)函數(shù),利用LSTM從環(huán)境中捕獲觀測結(jié)果,并通過該回報(bào)函數(shù)向環(huán)境輸出關(guān)系向量與時(shí)序向量,減少了重復(fù)路徑的選擇。實(shí)驗(yàn)表明,F(xiàn)astRS-Path模型在時(shí)序知識圖譜推理任務(wù)中具有一定的效果,在小樣本關(guān)系的推理任務(wù)中性能較為顯著。
參考文獻(xiàn)
[1] JI S,PAN S,CAMBRIA E,et al. A survey on knowledge graphs:representation,acquisition,and applications [J]. IEEE transactions on neural networks and learning systems,2021,33(2):494-514.
[2] LEBLAY J, CHEKOL M W . Deriving validity time in knowledge graph [C]// Companion Proceedings of the Web Conference. Republic and Canton of Geneva,CHE:International World Wide Web Conferences Steering Committee,2018:1771-1776.
[3] LIN Y,LIU Z,SUN M,et al. Learning entity and relation embeddings for knowledge graph completion [C]// Proceedings of the AAAI Conference on Artificial Intelligence. [S.l.]:AAAI,2015.
[4] TRIVEDI R,DAI H,WANG Y,et al. Know-evolve:deep temporal reasoning for dynamic knowledge graphs [C]// Proceedings of the 34th International Conference on Machine Learning. Sydney,NSW,Australia:JMLR.org,2017:3462-3471.
[5] GARCíA-DURáN A,DUMAN?I? S,NIEPERT M. Learning sequence encoders for temporal knowledge graph completion [EB/OL]. (2018-09-10). https://doi.org/10.48550/arXiv.1809.03202.
[6] JIN W,ZHANG C,SZEKELY P,et al. Recurrent event network for reasoning over temporal knowledge graphs [EB/OL]. [2023-04-28]. https://arxiv.org/abs/1904.05530v1.
[7] DAS R,DHULIAWALA S,ZAHEER M,et al. Go for a walk and arrive at the answer:reasoning over paths in knowledge bases using reinforcement learning [EB/OL]. [2023-04-28].http://arxiv.org/abs/1711.05851.
[8] WANG H,LI S,PAN R,et al. Incorporating graph attention mechanism into knowledge graph reasoning based on deep reinforcement learning [C]// Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). [S.l.]:[s.n.],2019:2623-2631.
[9] BAI L,YU W,CHEN M,et al. Multi-hop reasoning over paths in temporal knowledge graphs using reinforcement learning [J]. Applied soft computing,2021,103(1):375-391.
[10] HOSPEDALES T,ANTONIOU A,MICAELLI P,et al. Meta-learning in neural networks:a survey [J]. IEEE transactions on pattern analysis and machine intelligence,2021,44(9):5149-5169.
[11] ZHU C,CHEN M,F(xiàn)AN C,et al. Learning from history:modeling temporal knowledge graphs with sequential copy-generation networks [C]// Proceedings of the AAAI Conference on Artificial Intelligence. [S.l.]:AAAI,2021:4732-4740.
[12] CHENG S Y,HUANG S H,YIN J. Recommendation model based on knowledge graph and recurrent neural network [J]. Journal of Chinese computer systems,2020,41(8):1670-1675.
作者簡介:邵亞麗(1991—),女,本科,助教,研究方向?yàn)槿斯ぶ悄堋?/p>
何曉昀(1978—),男,碩士,副教授,研究方向?yàn)槿斯ぶ悄堋C(jī)器視覺。
收稿日期:2023-04-28 修回日期:2023-05-25
基金項(xiàng)目:廣東理工學(xué)院科技創(chuàng)新項(xiàng)目(2022GKJZK007);廣東理工學(xué)院質(zhì)量工程項(xiàng)目(2020-19);廣東理工學(xué)院質(zhì)量工程(JXGG202116);廣東理工學(xué)院科技創(chuàng)新團(tuán)隊(duì)項(xiàng)目(2021GKJTD001)