張凱 紀(jì)濤 況瑩
摘 要:知識追蹤模型建模學(xué)習(xí)者對每個知識點(diǎn)的狀態(tài)推斷其知識總狀態(tài),預(yù)測其未來的學(xué)習(xí)表現(xiàn)。但現(xiàn)有研究在建模知識總狀態(tài)時,沒有融合知識點(diǎn)狀態(tài)之間的關(guān)系,影響了最終的預(yù)測效果。針對這一問題,提出一種融合知識點(diǎn)狀態(tài)關(guān)系的知識追蹤模型。首先向量化表示數(shù)據(jù)集中的知識點(diǎn),構(gòu)建知識點(diǎn)表示圖;其次將知識點(diǎn)表示圖擴(kuò)散至潛式空間以反映其內(nèi)在結(jié)構(gòu)和本質(zhì)信息;融合當(dāng)前時刻的習(xí)題與知識點(diǎn)作為引導(dǎo)向量,從知識點(diǎn)表示圖的潛式表示中提取知識點(diǎn)狀態(tài)圖;以知識點(diǎn)狀態(tài)圖為基礎(chǔ),推導(dǎo)知識總狀態(tài),預(yù)測當(dāng)前習(xí)題的表現(xiàn)。通過在三個數(shù)據(jù)集上對比四個相關(guān)模型的實(shí)驗(yàn)證明,提出的模型在AUC、ACC和表示質(zhì)量方面均取得了一定的優(yōu)勢。其中,在 ASSISTments2009數(shù)據(jù)集上表現(xiàn)最佳,與對比模型中的最優(yōu)值和最低值比較,AUC分別提升了1.17%、10.57%,ACC分別提升了3.23%、12.17%,表示質(zhì)量分別提升了1.95%、10.40%。進(jìn)一步地,可視化地展示了知識點(diǎn)狀態(tài)及其關(guān)系的內(nèi)部推導(dǎo)過程,以及它們與真實(shí)答題結(jié)果之間的對應(yīng)關(guān)系,說明模型具備一定的可解釋性。同時,將該模型應(yīng)用于三門課程以預(yù)測學(xué)生的表現(xiàn),與相關(guān)模型對比取得了更好的結(jié)果,說明模型具備一定的實(shí)用性。
關(guān)鍵詞:知識追蹤;知識點(diǎn);知識點(diǎn)狀態(tài);知識狀態(tài);擴(kuò)散模型
中圖分類號:TP183?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號:1001-3695(2023)12-015-3621-07
doi:10.19734/j.issn.10013695.2023.04.0155
State relationships incorporated knowledge tracing model
Abstract:Knowledge tracing models the learners state of each knowledge point,infers overall knowledge state,and predicts their future learning performance.However,existing research does not incorporate the relationships between knowledge point states when modeling the overall knowledge state,which affects the final prediction accuracy.To address this problem,this paper proposed a knowledge tracing model that integrated the relationships between knowledge point states.Firstly,it vectorized the knowledge points in the dataset,and constructed a knowledge point representation graph.Secondly,it diffused the knowledge point representation graph to the latent space to reflect its inherent structure and essential information.Thirdly,it fused the current exercises and knowledge points as guiding vectors to extract the knowledge point state graph from the latent representation of the knowledge point representation graph.Fourthly,based on the knowledge point state graph,it derived the overall knowledge state.Through experiments comparing four related models on three datasets,the proposed model demonstrated certain advantages in AUC,ACC,and DOA.Among them,it performed best on the ASSISTments2009 data set.Compared with the optimal value and the lowest value in the comparison model,AUC increased by 1.17% and 10.57% respectively,and ACC increased by 3.23% and 12.17% respectively,indicates quality increased by 1.95% and 10.40% respectively.Furthermore,the internal reason process of the knowledge point state and its relationships are visualized,as well as their correspondence with the actual test results,demonstrating the models interpretability.Additionally,when applied to predicting student performances in three courses and compared with related models,the proposed model achieves better results,demonstrating its practicality.
Key words:knowledge tracing;concept; concept state;knowledge state;diffusion models
0 引言
在學(xué)術(shù)方面,近年來越來越多的學(xué)者投身于知識追蹤領(lǐng)域的研究。當(dāng)前的知識追蹤研究一般通過深度序列模型建模習(xí)題、知識點(diǎn)、知識點(diǎn)狀態(tài)、知識總狀態(tài)之間的一個或多個映射關(guān)系,最終實(shí)現(xiàn)對學(xué)習(xí)者未來學(xué)習(xí)表現(xiàn)的預(yù)測。在應(yīng)用方面,隨著國家智慧教育公共服務(wù)平臺、edX、Coursera、學(xué)堂在線等智能教學(xué)環(huán)境的蓬勃發(fā)展,知識追蹤模型應(yīng)用更廣?;谏鲜銮闆r,學(xué)術(shù)界和工業(yè)界均對知識追蹤模型的預(yù)測效果提出了更高的要求[1~6]。
當(dāng)前的知識追蹤研究雖然已經(jīng)取得了一定的進(jìn)展,但仍存在一些問題與挑戰(zhàn)。其中,傳統(tǒng)的知識追蹤主要刻畫知識點(diǎn)的表示或建模單個知識點(diǎn)狀態(tài),忽略了知識點(diǎn)狀態(tài)之間的關(guān)系。這種做法會導(dǎo)致對知識總狀態(tài)的表征不夠準(zhǔn)確,影響模型的預(yù)測效果。因此,融合知識點(diǎn)狀態(tài)關(guān)系已成為知識追蹤模型的重要研究方向。具體地,通過知識點(diǎn)狀態(tài)建模知識總狀態(tài),預(yù)測學(xué)習(xí)者作答習(xí)題正確與否,是當(dāng)前知識追蹤模型的前沿成果。這種方法的優(yōu)勢在于,知識總狀態(tài)由各個知識點(diǎn)狀態(tài)融合生成,對知識總狀態(tài)的建模邏輯合理,知識總狀態(tài)的表示蘊(yùn)涵了更加豐富的信息。這類模型的預(yù)測效果整體上更好。然而,各個知識點(diǎn)狀態(tài)之間的關(guān)系會影響到對知識點(diǎn)狀態(tài)的聚合表征,以及知識總狀態(tài)的表征,從而影響知識追蹤模型最終的預(yù)測效果。所以,當(dāng)前方法忽略了將各個知識點(diǎn)狀態(tài)之間的關(guān)系納入對知識總狀態(tài)的表示。
針對以上問題,本文提出了一個融合知識點(diǎn)狀態(tài)關(guān)系的知識追蹤模型(state relationships incorporated knowledge tracing model,SRKT),該模型協(xié)同聚合知識點(diǎn)狀態(tài)與知識點(diǎn)狀態(tài)之間的關(guān)系,融合推導(dǎo)知識總狀態(tài),實(shí)現(xiàn)對學(xué)習(xí)者表現(xiàn)更加精準(zhǔn)的預(yù)測。本文主要的創(chuàng)新與貢獻(xiàn)有:
a)在建模知識點(diǎn)狀態(tài)中,增加了對各知識點(diǎn)狀態(tài)之間存在的相互作用關(guān)系的表征,在各個知識點(diǎn)狀態(tài)及其相互關(guān)系的基礎(chǔ)上推導(dǎo)出知識總狀態(tài)。
b)建立學(xué)習(xí)者認(rèn)知體系中知識點(diǎn)表示潛式空間與現(xiàn)實(shí)世界中知識點(diǎn)表示顯式空間的映射關(guān)系,提取知識點(diǎn)狀態(tài)之間的關(guān)系,生成知識點(diǎn)狀態(tài)圖,預(yù)測學(xué)習(xí)者的未來表現(xiàn)。
c)將提出的模型在智能教育平臺實(shí)現(xiàn),用于預(yù)測學(xué)生在不同課程上的表現(xiàn),并通過對比實(shí)驗(yàn)和實(shí)際教學(xué)應(yīng)用對模型效果進(jìn)行驗(yàn)證,進(jìn)一步體現(xiàn)了模型的有效性與魯棒性。
1 相關(guān)工作
建模學(xué)習(xí)者的知識總狀態(tài)是知識追蹤模型的研究關(guān)鍵。從知識總狀態(tài)建模方法的角度出發(fā),知識追蹤研究的發(fā)展可歸納為以下三個階段:第一階段,從習(xí)題表征中直接推導(dǎo)知識總狀態(tài);第二階段,在習(xí)題表征的基礎(chǔ)上首先刻畫相關(guān)知識點(diǎn),然后再建模知識總狀態(tài);第三階段,在知識點(diǎn)表征的基礎(chǔ)上,建模知識點(diǎn)狀態(tài)的表征,進(jìn)而建模知識總狀態(tài)的表征??梢钥闯觯S著研究的進(jìn)展,知識總狀態(tài)融合的信息逐漸豐富,知識追蹤模型的預(yù)測效果也逐漸改善。
1.1 從習(xí)題表征推導(dǎo)知識總狀態(tài)
這類模型一般從習(xí)題的表征直接推導(dǎo)出知識總狀態(tài)向量,其優(yōu)點(diǎn)是直接利用序列模型的缺省建模能力,無須對習(xí)題到知識總狀態(tài)的中間階段設(shè)計(jì)新的結(jié)構(gòu)建模。其中,DKT[7]是這一類模型的典型代表,它使用序列模型通過習(xí)題信息將知識總狀態(tài)建模為一個隱藏向量ht,后續(xù)的這類研究大多借鑒了這種做法。IDKT[8]建立習(xí)題與知識點(diǎn)關(guān)系圖用于迭代習(xí)題表征,但在推導(dǎo)知識總狀態(tài)方面它與DKT使用了相同的方法。TCNKT[9]使用全卷積層和膨脹因果卷積層建模歷史狀態(tài)對當(dāng)前狀態(tài)的影響和作用,推導(dǎo)出知識總狀態(tài)。MAFKT[10]將習(xí)題信息輸入時間卷積模塊以此融合表示習(xí)題在不同尺度上的知識點(diǎn)狀態(tài)表示,最終得到知識總狀態(tài)。KTSABiGRU[11]使用雙向GRU推導(dǎo)出的知識總狀態(tài)向量融合了上下文的信息。
上述工作抓住了知識總狀態(tài)在某一方面的特點(diǎn),在一定的條件下取得了較好的效果。但是這類工作均從習(xí)題表征直接推導(dǎo)出知識總狀態(tài),缺少對單一知識點(diǎn)更加細(xì)致的描述,導(dǎo)致最終的知識總狀態(tài)的表征能力有限。
1.2 從知識點(diǎn)表征推導(dǎo)知識總狀態(tài)
這類模型一般先從習(xí)題表征獲取對應(yīng)知識點(diǎn)的表征,再推導(dǎo)出知識總狀態(tài)向量。它們的優(yōu)點(diǎn)是增加了新的模型結(jié)構(gòu)對知識點(diǎn)表征進(jìn)行建模,細(xì)化了表示知識總狀態(tài)的流程,得到的知識總狀態(tài)融合了更多信息,表征能力更強(qiáng)。NKTF[12]將習(xí)題表示為知識點(diǎn)、難度和隱性特征的融合,再將融合向量映射為知識總狀態(tài)。CRKT[13]先將習(xí)題映射為知識點(diǎn)的表示,再從知識點(diǎn)表示空間推導(dǎo)出知識總狀態(tài)。KTCR[14]將對應(yīng)的知識點(diǎn)上下文信息融入習(xí)題表征,由序列模型得到知識總狀態(tài)。
上述工作將習(xí)題表征首先建模為對應(yīng)知識點(diǎn)描述,更加細(xì)致地建模了知識總狀態(tài)的形成過程,使其融合了更加豐富的信息,取得了更好的效果。但是這類工作缺少建模從知識點(diǎn)表示到知識點(diǎn)狀態(tài)的映射,導(dǎo)致最終的知識總狀態(tài)的表征能力仍存在提升的空間。
1.3 從知識點(diǎn)狀態(tài)表征推導(dǎo)知識總狀態(tài)
這類模型一般先將習(xí)題表示為知識點(diǎn),再建立知識點(diǎn)表示到知識點(diǎn)狀態(tài)的映射關(guān)系,最后由知識點(diǎn)狀態(tài)推導(dǎo)出知識總狀態(tài)。它們的優(yōu)點(diǎn)在于,增加了建模知識點(diǎn)狀態(tài)的模型結(jié)構(gòu),得到的知識總狀態(tài)包含了更加豐富的語義。DKVMN[15]是這一類方法的代表,它使用鍵矩陣存儲習(xí)題映射至各個知識點(diǎn)表示,再根據(jù)知識點(diǎn)表示得到知識點(diǎn)狀態(tài)的表示,最終推導(dǎo)出知識總狀態(tài)。受DKVMN的影響,后續(xù)研究探索了由知識點(diǎn)狀態(tài)推導(dǎo)出知識總狀態(tài)的不同方法。在SAKT[16]模型中,知識點(diǎn)狀態(tài)由注意力機(jī)制建模而成,融合拼接后得到知識總狀態(tài)。CKT[17]融合習(xí)題表示、歷史相關(guān)表現(xiàn)、知識點(diǎn)正確率等信息表示知識點(diǎn)狀態(tài),使用層次卷積建模知識總狀態(tài)。AKT[18]使用注意力機(jī)制將知識點(diǎn)的歷史狀態(tài)描述為當(dāng)前時刻的知識總狀態(tài)。LFKT[19]借助專家標(biāo)注信息建模了當(dāng)前習(xí)題考查知識點(diǎn)的狀態(tài),由此計(jì)算出知識總狀態(tài)。MSKT[20]在DKVMN的基礎(chǔ)上,引入掌握速度的表示,以此建模知識點(diǎn)狀態(tài),推導(dǎo)出知識總狀態(tài)。DKVMNBORUTA[21]通過引入學(xué)習(xí)行為特征,在DKVMN的結(jié)構(gòu)中優(yōu)化知識總狀態(tài)。NSIKT[22]融合知識點(diǎn)關(guān)系和知識點(diǎn)狀態(tài),以此來推導(dǎo)知識總狀態(tài)。
上述工作在前人研究的基礎(chǔ)上增加了對知識點(diǎn)的建模,并由此推導(dǎo)出知識總狀態(tài),語義更加合理。但是這類工作仍然缺少對各個知識點(diǎn)狀態(tài)之間關(guān)系的描述,缺失了推導(dǎo)知識總狀態(tài)的邏輯鏈路。具體地,從知識點(diǎn)狀態(tài)推導(dǎo)知識總狀態(tài)的這類方法,通過建模知識點(diǎn)的狀態(tài)以及相關(guān)的特征信息,能夠更好地描述學(xué)習(xí)者的知識總狀態(tài)。但由于沒有建模知識點(diǎn)狀態(tài)之間的關(guān)系,知識總狀態(tài)的表征能力依舊受限。通過融入知識點(diǎn)狀態(tài)的關(guān)系,能夠捕捉到知識點(diǎn)狀態(tài)之間的依賴關(guān)系和演化趨勢,進(jìn)一步提高知識總狀態(tài)的表征能力。
本文工作在前人研究的基礎(chǔ)上,增加了對各個知識點(diǎn)狀態(tài)之間存在的相互作用關(guān)系的表征,在各個知識點(diǎn)狀態(tài)及其相互關(guān)系的基礎(chǔ)上推導(dǎo)出知識總狀態(tài)。
2 融合狀態(tài)關(guān)系的知識追蹤模型
2.1 模型提出的思想
當(dāng)前的研究一般使用知識點(diǎn)狀態(tài)建模知識總狀態(tài),以此預(yù)測學(xué)習(xí)者的表現(xiàn)。這種做法忽視了知識點(diǎn)狀態(tài)之間的相互關(guān)系對知識總狀態(tài)的刻畫作用。例如:數(shù)學(xué)中的兩個知識點(diǎn)“方差”和“標(biāo)準(zhǔn)差”,如果某道習(xí)題僅考查了“方差”,并未考查“標(biāo)準(zhǔn)差”,“標(biāo)準(zhǔn)差”的知識點(diǎn)狀態(tài)仍會隨著“方差”知識點(diǎn)狀態(tài)的改變發(fā)生同向變化。即這兩個知識點(diǎn)狀態(tài)之間的關(guān)系會對各自的狀態(tài)產(chǎn)生影響和作用。可見,在建模知識點(diǎn)狀態(tài)中融入知識點(diǎn)狀態(tài)之間的關(guān)系,有利于捕獲知識點(diǎn)狀態(tài)發(fā)生變化時相互之間產(chǎn)生的影響,更加準(zhǔn)確地描述知識點(diǎn)狀態(tài),增強(qiáng)知識總狀態(tài)的表征能力,從而提高模型對學(xué)習(xí)者表現(xiàn)的預(yù)測能力。為了使建模知識點(diǎn)狀態(tài)之間的關(guān)系影響對應(yīng)的知識點(diǎn)狀態(tài),進(jìn)而作用到知識總狀態(tài)的機(jī)制,本文提出了融合狀態(tài)關(guān)系的知識追蹤模型。
2.2 問題描述
習(xí)題的總數(shù)記為Q,學(xué)習(xí)者作答的第t個習(xí)題qt的獨(dú)熱向
qt=o(qt)ATq
其中:qt∈Euclid Math TwoRAp1×dq;dq為習(xí)題嵌入向量的維度;at∈{0,1}表示學(xué)習(xí)者作答qt的結(jié)果,其中at=0表示作答錯誤,at=1表示作答正確。
ci=o(ci)ATc
其中:ci∈Euclid Math TwoRAp1×dc;dc為知識點(diǎn)嵌入向量的維度。
2.2.1 知識點(diǎn)表示圖
知識點(diǎn)表示是t時刻學(xué)習(xí)者對知識點(diǎn)相關(guān)信息的認(rèn)知編碼,其中蘊(yùn)涵了知識點(diǎn)本體及其相互關(guān)系的表示、知識點(diǎn)狀態(tài)及其相互關(guān)系的表示、知識點(diǎn)經(jīng)過的練習(xí)次數(shù)、練習(xí)間隔的時間等信息。各個知識點(diǎn)表示以及它們之間的關(guān)系共同構(gòu)成了知識點(diǎn)表示圖,如下:
GRt={Euclid Math OneVApR,Euclid Math OneEApR,CRt,ERt}
其中:Euclid Math OneVApR是知識點(diǎn)的集合{c1,c2,…,cN};Euclid Math OneEApR是知識點(diǎn)之間關(guān)系的集合{eij=(ci,cj)|ci,cj∈Euclid Math OneVAp R};t時刻ci的特征是cit,知識點(diǎn)特征矩陣記為CRt∈Euclid Math TwoRApN×dc;t時刻eij的特征是eijt,關(guān)系特征矩陣記為ERt∈Euclid Math TwoRApde×|Euclid Math OneEApR|。
2.2.2 知識點(diǎn)狀態(tài)圖
知識點(diǎn)狀態(tài)描述t時刻學(xué)習(xí)者對知識點(diǎn)的掌握狀態(tài)情況,各個知識點(diǎn)狀態(tài)以及它們之間的關(guān)系共同構(gòu)成了知識點(diǎn)狀態(tài)圖,記為GSt,從GRt語義空間映射至GSt語義子空間得到
GSt=f(GRt)
其中:f表示上述映射關(guān)系。本文使用逆擴(kuò)散過程建模這一知識點(diǎn)表示圖到知識點(diǎn)狀態(tài)圖的映射提取過程。
2.2.3 問題定義
模型求解兩個問題:
a)在已知當(dāng)前時刻GRt的條件下推導(dǎo)當(dāng)前時刻的知識點(diǎn)狀態(tài)圖GSt,并融合當(dāng)前時刻的qt、ct,預(yù)測學(xué)習(xí)者的表現(xiàn):
pθ1(at=1|GSt,qt,ct)pθ2(GSt|GRt)
b)在已知當(dāng)前時刻GRt、qt、at、ct的條件下,預(yù)測下一時刻的知識點(diǎn)表示圖:
pθ3(GRt+1|GRt,qt,at,ct)
2.3 模型架構(gòu)
模型框架如圖1所示。
模型的主要過程如下:a)知識點(diǎn)表示圖的初始化,將知識點(diǎn)以分布式編碼表示,結(jié)合知識點(diǎn)關(guān)系構(gòu)建初始的知識點(diǎn)表示圖;b)知識點(diǎn)表示圖的擴(kuò)散,以知識點(diǎn)表示圖為對象,借助擴(kuò)散過程將其映射至潛式空間,該空間反映了知識點(diǎn)表示圖的內(nèi)在結(jié)構(gòu)和本質(zhì)信息,從中得到知識點(diǎn)表示圖的擴(kuò)散結(jié)果;c)提取知識點(diǎn)狀態(tài)圖,以潛式空間中知識點(diǎn)表示圖為對象,以習(xí)題和知識點(diǎn)信息為引導(dǎo)向量,控制逆擴(kuò)散過程提煉出知識點(diǎn)狀態(tài)及其關(guān)系,形成知識點(diǎn)狀態(tài)圖;d)融合狀態(tài)關(guān)系的預(yù)測模塊,利用注意力機(jī)制結(jié)合當(dāng)前的習(xí)題與知識點(diǎn)計(jì)算權(quán)重,得到知識總狀態(tài)向量,從而預(yù)測學(xué)習(xí)者的表現(xiàn);e)推導(dǎo)下一時刻知識點(diǎn)表示圖,仍以潛式空間的知識點(diǎn)表示圖為對象,融合習(xí)題、答案及知識點(diǎn)信息為引導(dǎo)向量,再次操作逆擴(kuò)散過程,提煉下一時刻的知識點(diǎn)表示圖。
2.3.1 知識點(diǎn)表示圖的初始化
本節(jié)定義初始時刻的知識點(diǎn)表示圖。初始時刻的任一知識點(diǎn)記為ci0,其特征向量記為ci0。綜上,初始時刻的知識點(diǎn)表示圖定義為
GR0={Euclid Math OneVApR,Euclid Math OneEApR,CR0,ER0}
學(xué)習(xí)者對知識點(diǎn)的認(rèn)知表示會隨著練習(xí)而變化。假設(shè)起始時刻學(xué)習(xí)者對知識點(diǎn)并無過多了解,每做一道習(xí)題,學(xué)習(xí)者均會在當(dāng)前時刻的知識點(diǎn)表示圖中進(jìn)行認(rèn)知推導(dǎo),求解各個相關(guān)知識點(diǎn)及其關(guān)系的表示。所以,知識點(diǎn)表示圖會隨著習(xí)題做答而不斷地進(jìn)化。t時刻的知識點(diǎn)表示圖記為GRt。
2.3.2 知識點(diǎn)表示圖的擴(kuò)散
知識點(diǎn)表示圖是學(xué)習(xí)者認(rèn)知體系中知識點(diǎn)表示潛式空間映射至現(xiàn)實(shí)世界中知識點(diǎn)表示顯式空間的結(jié)果,即潛式空間中的表征決定了顯式空間中呈現(xiàn)的知識點(diǎn)表示?;谏鲜鲞壿?,使用擴(kuò)散模型[23,24]得到知識點(diǎn)表示圖的潛式空間表示。
利用NENN[25]聚合知識點(diǎn)表示圖GRt的節(jié)點(diǎn)和邊的表示,如下:
cit=concat(cEuclid Math OneNApit,cEuclid Math OneEApit)
eijt=concat(eEuclid Math OneNApijt,eEuclid Math OneEApijt)
其中:cEuclid Math OneNApit是知識點(diǎn)ci的鄰居節(jié)點(diǎn);cEuclid Math OneEApit是知識點(diǎn)ci的鄰邊;eEuclid Math OneNApijt是邊eij的鄰居節(jié)點(diǎn);eEuclid Math OneEApijt是邊eij的鄰邊。融合上述知識點(diǎn)表示圖中,知識點(diǎn)及其關(guān)系的特征表示,如下:
q(R(i)t|R(i-1)t)=Euclid Math OneNAp(R(i)t;α(i)tR(i-1)t,β(i)tI)
可以看出,擴(kuò)散過程在給定現(xiàn)在狀態(tài)及所有過去狀態(tài)的情況下,其未來狀態(tài)的條件概率分布僅依賴于當(dāng)前狀態(tài),即服從馬爾可夫性質(zhì),如下:
綜上所述,第i步的擴(kuò)散向量可表示為
最終可以得到知識點(diǎn)表示圖的擴(kuò)散結(jié)果R(I)t。
2.3.3 逆擴(kuò)散:提取知識點(diǎn)狀態(tài)圖GSt
知識點(diǎn)狀態(tài)描述的是知識點(diǎn)掌握狀態(tài)的信息,蘊(yùn)涵于知識點(diǎn)表示中,是知識點(diǎn)表示圖從高維潛式空間映射至低維顯式空間的結(jié)果。為了從知識點(diǎn)表示圖中提取知識點(diǎn)狀態(tài)圖,需要控制逆擴(kuò)散過程結(jié)合引導(dǎo)向量,提煉出知識點(diǎn)狀態(tài)及其關(guān)系,從而生成知識點(diǎn)狀態(tài)圖,并用于后續(xù)的預(yù)測。
建模從知識點(diǎn)表示提取知識點(diǎn)狀態(tài)的過程如下:a)融合qt和ct,屏蔽at,生成逆擴(kuò)散過程的引導(dǎo)向量;b)引導(dǎo)逆擴(kuò)散過程生成更新的知識點(diǎn)表示圖;c)通過解碼器生成作答qt過程中更新的知識點(diǎn)狀態(tài)圖。
屏蔽at的原因在于:首先,本步驟建模的是完成答題之后,尚未確知答案之前,知識點(diǎn)表示圖的更新;其次,該表示中蘊(yùn)涵的知識點(diǎn)狀態(tài)是預(yù)測學(xué)習(xí)中表現(xiàn)的,所以不能包含答案信息。
a)生成引導(dǎo)向量。學(xué)習(xí)者在作答當(dāng)前習(xí)題的過程中,知識點(diǎn)表示圖會根據(jù)當(dāng)前的習(xí)題和知識點(diǎn)(qt,ct)等發(fā)生相應(yīng)的變化。為了刻畫這一過程,融合(qt,ct)得到作答過程中的學(xué)習(xí)行為融合數(shù)據(jù)FSt,如下:
FSt=concat(qt,ct)
其中:FSt表示作答完畢但不知道作答對錯的情況下,當(dāng)前的學(xué)習(xí)行為對知識點(diǎn)表示圖產(chǎn)生的影響。
b)引導(dǎo)逆擴(kuò)散過程。此步驟建模的是,從學(xué)習(xí)者開始作答習(xí)題qt,到完成答題,但尚不知道作答對錯的過程中,其知識點(diǎn)表示圖的變化。這個過程中,學(xué)習(xí)者對知識點(diǎn)的認(rèn)知表示會逐漸變化。為了作答qt,學(xué)習(xí)者會在知識點(diǎn)表示圖中進(jìn)行認(rèn)知推導(dǎo)。相應(yīng)地,各個相關(guān)知識點(diǎn)及其關(guān)系的表示會迭代更新,所以作答習(xí)題的過程是知識點(diǎn)表示圖進(jìn)化的過程,使用逆擴(kuò)散來建模上述過程。同時,將FSt作為逆擴(kuò)散過程的引導(dǎo)向量,控制該過程,生成受當(dāng)前作答行為影響的知識點(diǎn)表示圖。
逆擴(kuò)散過程同樣分為I步,每一步向R(I)t中去除少量的高斯噪聲,每一步逆擴(kuò)散產(chǎn)生的結(jié)果表示為R(I)t,R(I-1)t,…,R(0)t。每一步的迭代公式如下:
其中:σ(i)t是一個由α(i)t、β(i)t表示的已知量;z~Euclid Math OneNAp(0,1);εθ用來近似每一步擬去除的噪聲。這里使用邊緣特征增強(qiáng)的圖注意力網(wǎng)絡(luò)EGAT[26],以增強(qiáng)建模知識點(diǎn)之間關(guān)系的表示:
其中:ε~Euclid Math OneNAp(0,1)。最終可以得到融合(qt,ct)的知識點(diǎn)表示圖R2S(0)t。
c)提取知識點(diǎn)狀態(tài)圖。使用一個全連接網(wǎng)絡(luò)將R2S(0)t降維生成知識點(diǎn)狀態(tài)圖節(jié)點(diǎn)和邊的表示St,如下:
2.3.4 融合狀態(tài)關(guān)系的預(yù)測模塊
預(yù)測模塊根據(jù)當(dāng)前的知識狀態(tài),對學(xué)習(xí)表現(xiàn)進(jìn)行預(yù)測??紤]到習(xí)題中包含的知識點(diǎn)以及知識點(diǎn)狀態(tài)及其關(guān)系對于作答結(jié)果的影響。將當(dāng)前時刻的習(xí)題qt及知識點(diǎn)ct拼接后與St計(jì)算注意力權(quán)重。得到知識總狀態(tài)向量ft,包含知識點(diǎn)狀態(tài)和知識點(diǎn)狀態(tài)之間的關(guān)系,如下:
pt=sigmoid(Wft+b)
2.3.5 逆擴(kuò)散:推導(dǎo)下一時刻知識點(diǎn)表示圖GRt+1
知識點(diǎn)表示圖描述的是知識點(diǎn)表示及其關(guān)系,在作答了新的習(xí)題后,顯式空間的知識點(diǎn)表示及其關(guān)系發(fā)生了改變。由于潛式空間的表征決定了顯式空間中的知識點(diǎn)表示和關(guān)系,使用擴(kuò)散模型的逆擴(kuò)散過程對潛式空間的知識點(diǎn)表示進(jìn)行更新,并映射回顯式空間,生成新的知識點(diǎn)表示圖。更新后的知識點(diǎn)表示圖即為下一時刻的知識點(diǎn)表示圖。
下一時刻的知識點(diǎn)表示圖主要用于下一時刻的擴(kuò)散過程。與2.3.3節(jié)相比,僅需前面兩步,生成引導(dǎo)向量和逆擴(kuò)散即可。其主要區(qū)別在于引導(dǎo)向量步驟需要額外融合對習(xí)題qt的作答結(jié)果at。
融合at的原因在于:首先本步驟建模的是下一時刻的知識點(diǎn)表示圖,即為完成答題之后且確知答案之后的知識點(diǎn)表示圖,所以需要蘊(yùn)涵作答結(jié)果信息在內(nèi)。
a)生成引導(dǎo)向量。學(xué)習(xí)者在作答當(dāng)前習(xí)題的過程中,知識點(diǎn)表示圖會根據(jù)當(dāng)前的習(xí)題和知識點(diǎn)(qt,ct,at)等發(fā)生相應(yīng)的變化。為了刻畫這一過程,融合(qt,ct,at)得到作答過程中的學(xué)習(xí)行為融合數(shù)據(jù)FRt,如下:
FRt=concat(qt,ct,at)
其中:FRt表示作答完畢且已知作答對錯的情況下,當(dāng)前的學(xué)習(xí)行為對知識點(diǎn)表示圖產(chǎn)生的影響。
b)引導(dǎo)逆擴(kuò)散過程。同2.3.3節(jié)對應(yīng)步驟,不同之處在于,使用交叉注意力融合學(xué)習(xí)中作答習(xí)題的表現(xiàn),以擬合逆擴(kuò)散過程的每一步,如下:
最終可以得到融合(qt,ct,at)的知識點(diǎn)表示圖GRt+1,作為下一時刻的知識點(diǎn)表示圖。
2.3.6 模型訓(xùn)練
使用交叉熵以及擴(kuò)散模型的損失項(xiàng),作為整個模型的損失函數(shù),如下:
其中:ε為服從高斯分布的隨機(jī)變量;εθ是邊緣特征增強(qiáng)的圖注意力網(wǎng)絡(luò)。
3 實(shí)驗(yàn)與討論
首先介紹了實(shí)驗(yàn)步驟及實(shí)驗(yàn)所用的數(shù)據(jù)集等信息。本章實(shí)驗(yàn)主要包括:有效性實(shí)驗(yàn),從AUC和ACC的角度展示了提出模型與對比模型在各個數(shù)據(jù)集上的表現(xiàn);模型表示質(zhì)量實(shí)驗(yàn),對比各個模型的知識狀態(tài)預(yù)測值與實(shí)際值之間的一致性,依次衡量模型輸出的知識狀態(tài)的質(zhì)量高低;消融實(shí)驗(yàn),證明了提出的引導(dǎo)向量對逆擴(kuò)散過程的有效控制;可解釋性實(shí)驗(yàn),通過隨機(jī)截取的一段學(xué)習(xí)序列展示了融合知識點(diǎn)狀態(tài)之間的關(guān)系后,模型對知識總狀態(tài)的預(yù)測更加準(zhǔn)確。本章從有效性、表示質(zhì)量、模型中核心模塊的作用、可解釋性等方面展示了提出模型的優(yōu)勢,并對相關(guān)原因進(jìn)行了分析說明。
當(dāng)前的研究從建模知識點(diǎn)狀態(tài)的角度可以分為三個階段:從習(xí)題表征推導(dǎo)知識總狀態(tài)、從知識點(diǎn)表征推導(dǎo)知識總狀態(tài),以及從知識點(diǎn)狀態(tài)表征推導(dǎo)知識總狀態(tài)。本文提出的SRKT模型在第三個階段研究的基礎(chǔ)上,融合了知識點(diǎn)狀態(tài)之間的關(guān)系,推導(dǎo)知識總狀態(tài)。根據(jù)上述情況,選用的對比模型為DKT、GKT、DKVMN、NSIKT等。原因在于,DKT屬于第一階段的研究,從習(xí)題表示推導(dǎo)知識總狀態(tài),使用匯總的隱藏向量來表示知識狀態(tài);GKT屬第二階段的研究,從知識點(diǎn)表示推導(dǎo)知識總狀態(tài),構(gòu)建知識點(diǎn)圖來刻畫知識點(diǎn)之間的關(guān)系,并通過圖神經(jīng)網(wǎng)絡(luò)對知識點(diǎn)圖和學(xué)習(xí)者表示聯(lián)合更新知識狀態(tài);DKVMN屬第三階段的研究,從知識點(diǎn)狀態(tài)推導(dǎo)知識總狀態(tài),同步更新對應(yīng)的知識點(diǎn)狀態(tài)來表示知識總狀態(tài);NSIKT屬于第二和第三階段的結(jié)合研究,由知識點(diǎn)關(guān)系和知識狀態(tài)聯(lián)合表示知識總狀態(tài),構(gòu)建知識點(diǎn)關(guān)系圖和知識點(diǎn)狀態(tài)圖融合表示知識狀態(tài)。
3.1 實(shí)驗(yàn)步驟
本文模型的輸入是全體知識點(diǎn)、當(dāng)前擬作答的習(xí)題qt、該習(xí)題回答的對錯at,該習(xí)題考查的知識點(diǎn)ct等。輸出是預(yù)測學(xué)習(xí)者對習(xí)題qt的作答結(jié)果pt,同時還需要輸出下一時刻的知識點(diǎn)表示圖。根據(jù)模型架構(gòu)(圖1),實(shí)驗(yàn)的具體步驟如下:
a)知識點(diǎn)表示圖的初始化。對數(shù)據(jù)集中的全體知識點(diǎn)進(jìn)行分布式編碼,定義知識點(diǎn)之間的關(guān)系,形成初始時刻的知識點(diǎn)表示圖GR0。具體實(shí)驗(yàn)過程參見2.3.1節(jié)。
b)知識點(diǎn)表示圖的擴(kuò)散過程。首先使用NENN模型將知識點(diǎn)表示圖表示為包含節(jié)點(diǎn)和邊信息的矩陣R(0)t。其次,對R(0)t進(jìn)行擴(kuò)散過程表示,生成知識點(diǎn)表示圖的潛式空間表示。具體實(shí)驗(yàn)過程參見2.3.2節(jié)。
c)逆擴(kuò)散:提取知識點(diǎn)狀態(tài)圖GSt。首先融合習(xí)題和知識點(diǎn)信息(qt,ct),生成逆擴(kuò)散過程的引導(dǎo)向量。其次,使用引導(dǎo)向量控制逆擴(kuò)散過程,生成受(qt,ct)影響的知識點(diǎn)表示圖。最后,通過解碼器從知識點(diǎn)表示圖中降維提取知識點(diǎn)狀態(tài)圖的矩陣表示St。具體實(shí)驗(yàn)過程參見2.3.3節(jié)。
d)預(yù)測模塊。將St與(qt,ct)計(jì)算注意力權(quán)重,生成知識總狀態(tài),從而預(yù)測學(xué)習(xí)者的表現(xiàn)pt。具體實(shí)驗(yàn)過程參見2.3.4節(jié)。
e)逆擴(kuò)散:推導(dǎo)知識點(diǎn)表示圖。首先,融合習(xí)題、答題對錯和知識點(diǎn)信息(qt,at,ct)生成逆擴(kuò)散過程的引導(dǎo)向量。其次,使用上述引導(dǎo)向量控制逆擴(kuò)散過程,生成受(qt,at,ct)影響的知識點(diǎn)表示圖,作為下一時刻的知識點(diǎn)表示圖。具體實(shí)驗(yàn)過程參見2.3.5節(jié)。
3.2 實(shí)驗(yàn)數(shù)據(jù)集
本文的實(shí)驗(yàn)數(shù)據(jù)集包括ASSISTments2009(ASSIST09),ASSISTments2012(ASSIST12)和ASSISTments2017(ASSIST17)等。其中,ASSIST09是2009—2010年ASSISTments平臺收集到的學(xué)習(xí)交互相關(guān)數(shù)據(jù),本實(shí)驗(yàn)使用其去除了部分重復(fù)數(shù)據(jù)的更新版本skillbuilder數(shù)據(jù)集。ASSIST12與ASSIST09數(shù)據(jù)集的最大區(qū)別在于,ASSIST12中每一習(xí)題僅考查一個知識點(diǎn)。ASSIST17是ASSISTments平臺2017年舉辦的數(shù)據(jù)挖掘競賽提供的數(shù)據(jù)集。針對上述三個數(shù)據(jù)集進(jìn)行了相關(guān)清洗操作,包括去除未標(biāo)注考查知識點(diǎn)的學(xué)習(xí)交互、去除交互次數(shù)小于10次的記錄等。交互數(shù)據(jù)中用于訓(xùn)練集、測試集和驗(yàn)證集的比例分別為70%、20%和10%。數(shù)據(jù)集的相關(guān)信息如表1所示。
3.3 性能對比實(shí)驗(yàn)
受試者工作特征曲線(receiver operating characteristic curve,ROC)與坐標(biāo)軸圍成的面積稱為工作特征曲線下面積(area under ROC curve,AUC∈[0.5,1]),該指標(biāo)一般用來表征模型的預(yù)測效果,AUC取值越高,則說明模型的預(yù)測效果越好。準(zhǔn)確率(accuracy,ACC)是模型預(yù)測正確的樣本數(shù)與樣本總數(shù)的比值。類似地,ACC指標(biāo)的取值與模型的效果正相關(guān)。
圖2是在三個實(shí)驗(yàn)數(shù)據(jù)集上,SRKT模型與四個對比模型預(yù)測結(jié)果的AUC 指標(biāo)對比。
圖3是在三個數(shù)據(jù)集上,SRKT模型與四個對比模型預(yù)測結(jié)果的ACC指標(biāo)對比。
根據(jù)圖2和3,SRKT模型對比四個基線模型在AUC和ACC指標(biāo)上都取得了更好的效果。相較于對比模型中性能最優(yōu)的NSIKT模型,SRKT在三個數(shù)據(jù)集上的AUC分別提高了1.17%、2.52%、0.98%,ACC分別提高了3.23%、1.93%、4.5%。上述對比模型表現(xiàn)不佳的原因可能在于:DKT從習(xí)題表征推導(dǎo)知識總狀態(tài),缺少對單一知識點(diǎn)的細(xì)致描述,導(dǎo)致最終的知識總狀態(tài)表征能力不佳;GKT從知識點(diǎn)表征推導(dǎo)知識總狀態(tài),雖然建模了對應(yīng)的知識點(diǎn)描述,但是缺少從知識點(diǎn)表征到知識點(diǎn)狀態(tài)的映射,導(dǎo)致最終的知識總狀態(tài)表征能力存在局限性;DKVMN從知識點(diǎn)狀態(tài)推導(dǎo)知識總狀態(tài),雖然建模了知識點(diǎn)狀態(tài),但是缺少對知識點(diǎn)狀態(tài)之間的關(guān)系描述,最終的知識總狀態(tài)表征能力仍有提升空間;NSIKT在這些工作的基礎(chǔ)上,建模了知識點(diǎn)關(guān)系和知識點(diǎn)狀態(tài),但依舊沒有詳細(xì)描述知識點(diǎn)狀態(tài)之間的關(guān)系,導(dǎo)致最終的知識總狀態(tài)表征能力與SRKT模型存在一定差距。本文模型表現(xiàn)較好的原因是在建模知識點(diǎn)狀態(tài)的同時,融合了知識狀態(tài)之間的關(guān)系,由此推導(dǎo)的知識總狀態(tài)具有更好的表征能力。
3.4 表示質(zhì)量對比實(shí)驗(yàn)
模型對學(xué)習(xí)者知識總狀態(tài)的表示存在質(zhì)量高低不一的問題,主要通過知識總狀態(tài)與實(shí)際作答習(xí)題情況之間的一致性(degree of agreement,DoA)來衡量,其定義如下:
其中:v表示某知識點(diǎn);a和b表示學(xué)習(xí)者;sav表示學(xué)習(xí)者a對知識點(diǎn)v的知識點(diǎn)狀態(tài);sbv表示學(xué)習(xí)者b對知識點(diǎn)v的知識點(diǎn)狀態(tài)。δ是分段函數(shù),定義為
如圖4所示,整體的實(shí)驗(yàn)結(jié)果可分為三類:第一類包括DKT、DKVMN和GKT,DoA表現(xiàn)不佳,由灰色折線顯示(見電子版);第二類包括NSIKT,DoA表現(xiàn)較好,由綠色折線顯示;第三類包括SRKT,DoA表現(xiàn)最好,由紅色折線顯示。SRKT模型與四個基線模型的表示質(zhì)量結(jié)果相比,SRKT在全部三個數(shù)據(jù)集上均取得了最好的表示質(zhì)量結(jié)果。對比模型與SRKT在表示質(zhì)量方面存在差距的原因可能在于:第一類灰色折線代表的模型缺少對知識點(diǎn)狀態(tài)之間關(guān)系的描述,最終的知識總狀態(tài)表征能力受限,導(dǎo)致模型預(yù)測的學(xué)習(xí)者知識狀態(tài)與實(shí)際情況存在一定差距。第二類綠色折線代表的NSIKT模型考慮了知識點(diǎn)關(guān)系與知識點(diǎn)狀態(tài),并融合表示知識總狀態(tài),取得了較好的效果,但是由于未能考慮到知識點(diǎn)狀態(tài)之間的關(guān)系,仍有一定局限性。第三類紅色折線代表的SRKT模型在這些工作的基礎(chǔ)上,融入了知識點(diǎn)狀態(tài)之間的關(guān)系,最終的知識總狀態(tài)表征能力更強(qiáng),模型預(yù)測的學(xué)習(xí)者知識狀態(tài)更符合真實(shí)的情況。
3.5 消融實(shí)驗(yàn)
本文假設(shè)“知識點(diǎn)狀態(tài)之間的關(guān)系會對知識點(diǎn)狀態(tài)以及知識總狀態(tài)的建模有增強(qiáng)效果”。為了驗(yàn)證該假設(shè)的準(zhǔn)確性,以數(shù)據(jù)集ASSIST09為例,設(shè)計(jì)了兩個消融實(shí)驗(yàn),測試在逆擴(kuò)散過程中不使用EGAT,即沒有融入狀態(tài)關(guān)系信息,以及在知識點(diǎn)表示逆擴(kuò)散的過程中不使用CrossAttention,即沒有融入狀態(tài)關(guān)系信息。模型預(yù)測結(jié)果的AUC、ACC指標(biāo)以及模型表示學(xué)習(xí)者知識狀態(tài)的一致性DoA,如表2所示。
根據(jù)表2,未融入知識點(diǎn)狀態(tài)關(guān)系時,模型的性能以及表示質(zhì)量(表2的第一行數(shù)據(jù))與缺省SRKT模型實(shí)驗(yàn)結(jié)果(表2的第三行數(shù)據(jù))相差最大,說明了知識點(diǎn)狀態(tài)關(guān)系對知識總狀態(tài)存在影響,這個假設(shè)具備一定的準(zhǔn)確性。表2第二行數(shù)據(jù)來源是模型逆擴(kuò)散知識點(diǎn)表示圖沒有融入知識點(diǎn)關(guān)系圖中邊的信息,這種做法會減弱知識點(diǎn)表示圖的表示能力,減弱下一時刻知識點(diǎn)狀態(tài)的表示,所以對模型的最終性能也產(chǎn)生了影響。但由于知識點(diǎn)狀態(tài)圖未受到影響,所以對模型預(yù)測性能的最終影響較小。
3.6 可解釋性實(shí)驗(yàn)
隨機(jī)選擇一段學(xué)習(xí)序列,可視化其中知識點(diǎn)狀態(tài)以及狀態(tài)關(guān)系的進(jìn)化過程,以及與序列中習(xí)題真實(shí)作答結(jié)果的對應(yīng)關(guān)系,以此來展示知識點(diǎn)狀態(tài)、知識點(diǎn)狀態(tài)之間的關(guān)系、習(xí)題的作答結(jié)果之間的可解釋性,如圖5所示。
圖5中,圓形代表知識點(diǎn)狀態(tài),內(nèi)部紅色數(shù)字是知識點(diǎn)編號(見電子版),知識點(diǎn)1、2、3、4、5、6、7分別代表概率定義、一個單獨(dú)事件的概率、兩個不同事件的概率、平方根、絕對值、整數(shù)加減、整數(shù)乘除等知識點(diǎn)。藍(lán)色數(shù)字是知識點(diǎn)狀態(tài)數(shù)值。紅色圓形代表當(dāng)前時刻考查的知識點(diǎn)。圓形之間的連邊代表知識點(diǎn)狀態(tài)之間的關(guān)系,黑色數(shù)字代表知識點(diǎn)狀態(tài)關(guān)系的權(quán)重。預(yù)測值是模型預(yù)測的學(xué)習(xí)者正確作答當(dāng)前習(xí)題的概率pt,真實(shí)值是對學(xué)習(xí)者作答結(jié)果的評判(正確或錯誤)。
從圖5表示的知識點(diǎn)狀態(tài)進(jìn)化過程中可以看出:t=1時刻,考查知識點(diǎn)1,即概率定義。因?yàn)榭疾橹R點(diǎn)狀態(tài)較低,且與之關(guān)聯(lián)的知識點(diǎn)狀態(tài)及其關(guān)系數(shù)值均較低,模型只有各知識點(diǎn)的初始化狀態(tài)。最終模型預(yù)測正確作答的概率僅為0.29,與真實(shí)值“錯誤”一致。
t=2時刻,考查知識點(diǎn)2,即一個單獨(dú)事件的概率。因?yàn)樯弦粫r刻學(xué)習(xí)者回答錯誤,所以上一時刻考查的知識點(diǎn)狀態(tài)以及與之相關(guān)的知識點(diǎn)狀態(tài)整體上均有不同程度的下降,個別知識點(diǎn)狀態(tài)出現(xiàn)了上升。值得注意的是,知識點(diǎn)狀態(tài)之間關(guān)系權(quán)重的整體趨勢雖然類似,但其變化相對平緩,起到了穩(wěn)定學(xué)習(xí)知識總狀態(tài)的作用,最終會在模型預(yù)測結(jié)果上有所體現(xiàn)。由于知識點(diǎn)狀態(tài)之間關(guān)系權(quán)重的穩(wěn)定性,約束了知識點(diǎn)狀態(tài)的快速變化,最終模型預(yù)測正確作答的概率為0.41,仍然與真實(shí)值“錯誤”一致。
t=3時刻,考查知識點(diǎn)4,即平方根。上一時刻學(xué)習(xí)者仍然回答錯誤,這會對知識點(diǎn)狀態(tài)及其關(guān)系產(chǎn)生整體下降的影響,但這種趨勢會受到知識點(diǎn)狀態(tài)關(guān)系的約束?;谶@種實(shí)際情況,這一時間步模型預(yù)測正確作答的概率為0.54,仍然與真實(shí)值“正確”保持一致。
t=4時刻,考查知識點(diǎn)1,即概率定義。上一時刻學(xué)習(xí)者回答正確,相關(guān)知識點(diǎn)狀態(tài)以及它們之間的關(guān)系整體上均得到了提升,但這種影響隨著距離變化而逐漸降低,且有些知識點(diǎn)狀態(tài)和關(guān)系實(shí)際上出現(xiàn)了下降的情況,但這種趨勢會受到知識點(diǎn)狀態(tài)關(guān)系的約束。最終模型預(yù)測學(xué)習(xí)者作答正確的概率為0.58,然而真實(shí)的作答結(jié)果是“錯誤”。這與本時刻考查的知識點(diǎn)與上一時刻作答的知識點(diǎn)之間關(guān)系權(quán)重較低,影響降低有關(guān)。
t=5時刻,考查知識點(diǎn)3,即兩個不同事件的概率。上一時刻學(xué)習(xí)者回答錯誤,相關(guān)知識點(diǎn)狀態(tài)以及它們之間的關(guān)系整體上均會降低。同樣地,這種影響會逐漸減少,有些知識點(diǎn)狀態(tài)和關(guān)系也可能出現(xiàn)提升的情況。但這種趨勢會受到知識點(diǎn)狀態(tài)關(guān)系的約束。最終模型預(yù)測學(xué)習(xí)者作答正確的概率為0.65,真實(shí)值的作答結(jié)果為“正確”,所以預(yù)測值與真實(shí)值保持一致。
t=6時刻,考查知識點(diǎn)7,即整數(shù)乘除。上一時刻學(xué)習(xí)者回答錯誤,相關(guān)知識點(diǎn)狀態(tài)以及它們之間的關(guān)系整體上均會降低。同樣地,這種影響會逐漸降低,有些知識點(diǎn)狀態(tài)和關(guān)系也可能出現(xiàn)提升的情況,但這種趨勢會受到知識點(diǎn)狀態(tài)關(guān)系的約束。最終模型預(yù)測概率為0.76,而真實(shí)的作答結(jié)果為“正確”,所以預(yù)測值與真實(shí)值保持一致。
綜上所述,根據(jù)模型預(yù)測的學(xué)習(xí)者表現(xiàn)以及學(xué)習(xí)者的真實(shí)表現(xiàn),SRKT模型能夠在內(nèi)部的知識點(diǎn)狀態(tài)表征、知識點(diǎn)狀態(tài)之間的關(guān)系表征到模型對外預(yù)測的學(xué)習(xí)者表現(xiàn)之間建立一定的可解釋鏈路,知識點(diǎn)狀態(tài)之間的關(guān)系能夠起到穩(wěn)定作用,在知識點(diǎn)狀態(tài)變化較大的時候,將知識總狀態(tài)向著真實(shí)值收斂,說明SRKT模型建模的知識點(diǎn)狀態(tài)關(guān)系能夠增強(qiáng)知識總狀態(tài)的表示,且SRKT模型具備一定的可解釋性。
3.7 模型應(yīng)用實(shí)例
為了檢驗(yàn)SRKT模型在實(shí)際教學(xué)場景中的有效性和可用性,本文開發(fā)了跨模態(tài)多尺度知識追蹤智慧學(xué)習(xí)環(huán)境,如圖6所示。該人工智能+教育環(huán)境接受多種模態(tài)的輸入信息,建模多尺度的學(xué)習(xí)者學(xué)習(xí)和記憶等認(rèn)知功能,完成知識狀態(tài)的判斷和預(yù)測。同時,它還集成了當(dāng)前主流的若干知識追蹤模型,便于通過在實(shí)際教學(xué)環(huán)境中的應(yīng)用效果評價(jià)各個模型的有效性及效果的差異評估。
SRKT模型的實(shí)驗(yàn)對象包括2022—2023學(xué)年度第二學(xué)期,人工智能和機(jī)器學(xué)習(xí)兩門課程中的學(xué)生159人,以及同一學(xué)期英文閱讀課程中的學(xué)生378人。將學(xué)生個人信息脫敏處理,保存若干次作業(yè)的答題記錄,再將這些記錄的80%用作訓(xùn)練集,20%用作測試集,可以得到各個模型的平均預(yù)測準(zhǔn)確率,具體如表3所示??梢钥闯?,SRKT模型表現(xiàn)最好。
具體地,SRKT相較未考慮知識點(diǎn)狀態(tài)關(guān)系的DKT、DKVMN和GKT在實(shí)際應(yīng)用中的準(zhǔn)確率有明顯的優(yōu)勢,與考慮了知識點(diǎn)關(guān)系和知識點(diǎn)狀態(tài)但未考慮知識點(diǎn)狀態(tài)之間關(guān)系的NSIKT相比,也有一定優(yōu)勢。這也說明了協(xié)同聚合知識點(diǎn)狀態(tài)與知識點(diǎn)狀態(tài)之間的關(guān)系,融合推導(dǎo)知識總狀態(tài),能夠更加精準(zhǔn)地預(yù)測學(xué)習(xí)者表現(xiàn)。
4 結(jié)束語
本文提出了一個融合知識點(diǎn)狀態(tài)關(guān)系的知識追蹤模型SRKT,該模型不僅考慮知識點(diǎn)狀態(tài)表示,同時納入知識點(diǎn)狀態(tài)之間的關(guān)系,推導(dǎo)出蘊(yùn)涵更加豐富信息的知識總狀態(tài),進(jìn)一步提升了知識追蹤模型預(yù)測的準(zhǔn)確性。該模型在一定程度上解決了現(xiàn)存研究中未將知識點(diǎn)狀態(tài)關(guān)系融入知識總狀態(tài)表征的問題。首先,利用擴(kuò)散過程生成知識點(diǎn)表示圖的潛式空間表征,借助習(xí)題和知識點(diǎn)對逆擴(kuò)散過程進(jìn)行引導(dǎo),提取當(dāng)前時刻的知識點(diǎn)狀態(tài)圖,推導(dǎo)知識總狀態(tài),完成對學(xué)習(xí)者表現(xiàn)的預(yù)測。第二個逆擴(kuò)散過程以習(xí)題、知識點(diǎn)和作答結(jié)果作為引導(dǎo),生成下一時刻的知識點(diǎn)表示圖。SRKT模型與四個基線模型在三個數(shù)據(jù)集上的對比結(jié)果上顯示,SRKT模型達(dá)到了更好的效果,證明了本文引入知識點(diǎn)狀態(tài)關(guān)系增強(qiáng)知識總狀態(tài)表征的合理性。未來將在知識點(diǎn)及其相互關(guān)系、全局及局部位置、知識點(diǎn)狀態(tài)及其相互關(guān)系、全局及局部位置、知識總狀態(tài)表征等核心步驟,以及這些步驟的融合創(chuàng)新等方面進(jìn)行更多的探索。
參考文獻(xiàn):
[1]王宇,朱夢霞,楊尚輝,等.深度知識追蹤模型綜述和性能比較[J].軟件學(xué)報(bào),2023,34(3):13651395.(Wang Yu,Zhu Mengxia,Yang Shanghui,et al.Review and performance comparison of deep knowledge tracing models[J].Journal of Software,2023,34(3):13651395.)
[2]劉鐵園,陳威,常亮,等.基于深度學(xué)習(xí)的知識追蹤研究進(jìn)展[J].計(jì)算機(jī)研究與發(fā)展,2021,59(1):81104.(Liu Tieyuan,Chen Wei,Chang Liang,et al.Research advances in the knowledge tracing based on deep learning[J].Journal of Computer Research and Development,2021,59(1):81104.)
[3]陳之彧,單志龍.知識追蹤研究進(jìn)展[J].計(jì)算機(jī)科學(xué),2022,49(10):8395.(Chen Zhiyu,Shan Zhilong.Research advances in knowledge tracing[J].Computer Science,2022,49(10):83-95.)
[4]張暖,江波.學(xué)習(xí)者知識追蹤研究進(jìn)展綜述[J].計(jì)算機(jī)科學(xué),2021,48(4):213222.(Zhang Nuan,Jiang Bo.Review progress of learner knowledge tracing[J].Computer Science,2021,48(4):213-222.)
[5]梁琨,任依夢,尚余虎,等.深度學(xué)習(xí)驅(qū)動的知識追蹤研究進(jìn)展綜述[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(21):41-58.(Liang Kun,Ren Yimeng,Shang Yuhu,et al.Review of knowledge tracing preprocessing based on deep learning[J].Computer Engineering and Applications,2021,57(21):41-58.)
[6]Liu Qi,Shen Shuanghong,Huang Zhenya,et al.A survey of knowledge tracing[EB/OL].(2021)[20230329].https://arxiv.org/pdf/2105.15106.
[7]Piech C,Bassen J,Huang J,et al.Deep knowledge tracing[C]//Proc of the 29th Annual Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2015:505-513.
[8]劉坤佳,李欣奕,唐九陽,等.可解釋深度知識追蹤模型[J].計(jì)算機(jī)研究與發(fā)展,2021,58(12):26182629.(Liu Kunjia,Li Xinyi,Tang Jiuyang,et al.Interpretable deep knowledge tracing[J].Journal of Computer Research and Development,2021,58(12):26182629.)
[9]王璨,劉朝暉,王蓓,等.TCNKT:個人基礎(chǔ)與遺忘融合的時間卷積知識追蹤模型[J].計(jì)算機(jī)應(yīng)用研究,2022,39(5):255-261.(Wang Can,Liu Zhaohui,Wang Bei,et al.TCNKT:temporal convolutional knowledge tracing model based on fusion of personal basis and forgetting[J].Application Research of Computers,2022,39(5):255-261.)
[10]段建設(shè),崔超然,宋廣樂,等.基于多尺度注意力融合的知識追蹤方法[J].南京大學(xué)學(xué)報(bào):自然科學(xué),2021,57(4):591-598.(Duan Jianshe,Cui Chaoran,Song Guangle,et al.Knowledge tracing based on multiscale attention fusion[J].Journal of Nanjing University:Natural Science,2021,57(4):591-598.)
[11]李浩君,方璇,戴海容.基于自注意力機(jī)制和雙向GRU神經(jīng)網(wǎng)絡(luò)的深度知識追蹤優(yōu)化模型[J].計(jì)算機(jī)應(yīng)用研究,2022,39(3):732738.(Li Haojun,F(xiàn)ang Xuan,Dai Hairong.Deep knowledge tracing optimization model based on selfattention mechanism and bidirectional GRU neural network[J].Application Research of Computers,2022,39(3):732738.)
[12]魏思,沈雙宏,黃振亞,等.融合通用題目表征學(xué)習(xí)的神經(jīng)知識追蹤方法研究[J].中文信息學(xué)報(bào),2022,36(4):146155.(Wei Si,Shen Shuanghong,Huang Zhenya,et al.Integrating general exercises representation learning into neural knowledge tracing[J].Journal of Chinese Information Processing,2022,36(4):146155.)
[13]張凱,劉月,覃正楚,等.概念表示增強(qiáng)的知識追蹤模型[J].計(jì)算機(jī)應(yīng)用研究,2022,39(11):33093314.(Zhang Kai,Liu Yue,Qin Zhengchu,et al.Concept representation enhanced knowledge tracing[J].Application Research of Computers,2022,39(11):33093314.)
[14]王文濤,馬慧芳,舒躍育,等.基于上下文表示的知識追蹤方法[J].計(jì)算機(jī)工程與科學(xué),2022,44 (9):16931701.(Wang Wentao,Ma Huifang,Shu Yueyu,et al.Knowledge tracing based on contextualized representation[J].Computer Engineering & Science,2022,44(9):16931701.)
[15]Zhang Jiani,Shi Xingjian,King I,et al.Dynamic keyvalue memory networks for knowledge tracing[C]//Proc of the 26th International Conference on World Wide Web.New York:ACM Press,2017:765774.
[16]Pandey S,Karypis G.A selfattentive model for knowledge tracing[C]//Proc of the 12th International Conference on Educational Data Mining.Montreal:International Educational Data Mining Society,2019:384389.
[17]Shen Shuanghong,Liu Qi,Chen Enhong,et al.Convolutional knowledge tracing:modeling individualization in student learning process[C]//Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval.New York:ACM Press,2020:18571860.
[18]Ghosh A,Heffernan N,Lan A S.Contextaware attentive knowledge tracing[C]//Proc of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining.New York:ACM Press,2020:23302339.
[19]李曉光,魏思齊,張昕,等.LFKT:學(xué)習(xí)與遺忘融合的深度知識追蹤模型[J].軟件學(xué)報(bào),2021,32(3):818-830.(Li Xiaoguang,Wei Siqi,Zhang Xin,et al.LFKT:deep knowledge tracing model with learning and forgetting behavior merging[J].Journal of Software,2021,32(3):818-830.)
[20]宗曉萍,陶澤澤.基于掌握速度的知識追蹤模型[J].計(jì)算機(jī)工程與應(yīng)用,2021,57(6):117123.(Zong Xiaoping,Tao Zeze.Knowledge tracing model based on mastery speed[J].Computer Engineering and Applications,2021,57(6):117123.)
[21]李浩君,盧佳琪,吳嘉銘.融合學(xué)習(xí)過程特征的深度知識追蹤方法[J].浙江工業(yè)大學(xué)學(xué)報(bào),2022,50(3):245-252.(Li Haojun,Lu Jiaqi,Wu Jiaming.Deep knowledge tracing method incorporating learning process characteristics[J].Journal of Zhejiang University of Technology,2022,50(3):245-252.)
[22]張凱,秦心怡,況瑩,等.知識狀態(tài)神經(jīng)推理的知識追蹤模型[J].計(jì)算機(jī)應(yīng)用研究,2023,40(6):3309-3314.(Zhang Kai,Qin Xinyi,Kuang Ying,et al.Knowledge tracing via neural inference on knowledge states[J].Application Research of Computers,2023,40(6):3309-3314.)
[23]Ho J,Jain A,Abbeel P.Denoising diffusion probabilistic models[C]//Advances in Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2020:68406851.
[24]Li Yaguang,Yu R,Shahabi C,et al.Diffusion convolutional recurrent neural network:datadriven traffic forecasting[C]//Proc of the 6th International Conference on Learning Representations.2018.
[25]Yang Yulei,Li Dongsheng.NENN:incorporate node and edge features in graph neural networks[C]//Proc of the 12th Asian Conference on Machine Learning.2020:593-608.
[26]Wang Ziming,Chen Jun,Chen Haopeng.EGAT:edgefeatured graph attention network[C]//Proc of the 30th International Conference on Artificial Neural Networks.Cham:Springer,2021:253-264.