摘 要:知識(shí)追蹤旨在評(píng)估學(xué)習(xí)者的知識(shí)掌握狀態(tài),然而已有研究表明,問題難度與知識(shí)掌握狀態(tài)密切相關(guān)。忽略問題難度的知識(shí)追蹤模型難以有效評(píng)估學(xué)習(xí)者的實(shí)際狀態(tài)。為了解決上述問題,提出了融入多維問題難度的自適應(yīng)知識(shí)追蹤模型(multi-dimensional knowledge tracing,MDKT)。該模型采用BERT與CNN對(duì)題目文本進(jìn)行語義難度提取,并結(jié)合問題難度、概念難度和認(rèn)知難度,形成多維問題難度表征;通過構(gòu)建自適應(yīng)學(xué)習(xí)模塊,個(gè)性化地捕捉學(xué)習(xí)者與增強(qiáng)練習(xí)難度之間的交互;在預(yù)測學(xué)習(xí)者未來表現(xiàn)過程中,引入Transformer的多頭注意力機(jī)制,以關(guān)注不同部分預(yù)測狀態(tài)的重要程度。在實(shí)驗(yàn)階段,與七個(gè)知識(shí)追蹤模型在兩個(gè)真實(shí)數(shù)據(jù)集的性能對(duì)比實(shí)驗(yàn)中,AUC、ACC性能分別提升了3.99%~12.06%和3.63%~11.15%,實(shí)驗(yàn)結(jié)果表明,所提模型在性能方面更加出色。在應(yīng)用方面,將該模型和知識(shí)點(diǎn)網(wǎng)絡(luò)圖相結(jié)合,能準(zhǔn)確挖掘出學(xué)習(xí)者的薄弱知識(shí)點(diǎn),證明了所提模型在實(shí)際教學(xué)中的可行性。
關(guān)鍵詞:知識(shí)追蹤;知識(shí)掌握狀態(tài);問題難度
中圖分類號(hào):TP183
文獻(xiàn)標(biāo)志碼:A
文章編號(hào):1001-3695(2024)11-010-3272-09
doi:10.19734/j.issn.1001-3695.2024.03.0080
MDKT: adaptive knowledge tracing model incorporating multidimensional problem difficulty
Li Haojun, Zhong Youchun
(College of Education Science amp; Technology, Zhejiang University of Technology, Hangzhou 310023, China)
Abstract:Knowledge tracing aims to assess learners’ mastery of knowledge, but studies have shown that question difficulty is closely related to mastery status. Models that overlook question difficulty struggle to effectively evaluate learners’ actual status. To resolve this issue, this paper developed an MDKT model, incorporating multi-dimensional difficulty. This model employed BERT and CNN to extract semantic difficulty from question texts and integrates question difficulty, conceptual difficulty, and cognitive difficulty to create a multi-dimensional difficulty representation. It constructed an adaptive learning module to capture the interaction between learners and increased exercise difficulty personally. In predicting learners’ future perfor-mance, the model used the Transformer’s multi-head attention mechanism to focus on the importance of different prediction states. Experimentally, on two real datasets, the MDKT model improved performance by 3.99%~12.06% in AUC and 3.63%~11.15% in ACC, outperforming seven other knowledge tracing models. The results demonstrate the superior performance of the model. Furthermore, integrating this model with a knowledge point network graph accurately identifies lear-ners’ weak knowledge points, and it confirms the model’s feasibility in actual teaching.
Key words:knowledge tracing; knowledge mastery status; problem difficulty
0 引言
知識(shí)追蹤(knowledge tracing, KT)[1]是根據(jù)學(xué)習(xí)者的學(xué)習(xí)歷史來預(yù)測其未來學(xué)習(xí)表現(xiàn),并實(shí)時(shí)測量學(xué)習(xí)者對(duì)不同知識(shí)概念掌握程度的一種方法。通過這種方式,可以對(duì)學(xué)習(xí)者知識(shí)狀態(tài)進(jìn)行評(píng)估,進(jìn)而為他們量身定制適應(yīng)性學(xué)習(xí)方案。這不僅有助于提高學(xué)習(xí)者學(xué)習(xí)效率,使他們能夠?qū)W⒂谏形凑莆盏闹R(shí)概念(KC),還為教師提供了寶貴的參考,使教師能夠根據(jù)學(xué)習(xí)者實(shí)際掌握的知識(shí)狀態(tài)進(jìn)行個(gè)性化指導(dǎo)。在學(xué)習(xí)資源推薦[2]、學(xué)習(xí)路徑規(guī)劃[3]、教學(xué)評(píng)價(jià)[4]以及自適應(yīng)學(xué)習(xí)系統(tǒng)構(gòu)建[5]等多個(gè)研究領(lǐng)域,知識(shí)追蹤都展現(xiàn)出了較好的應(yīng)用效果。
國內(nèi)外研究人員在知識(shí)追蹤領(lǐng)域進(jìn)行了深入的研究,根據(jù)模型實(shí)現(xiàn)方法的不同,將知識(shí)追蹤模型分為三類:a)概率模型;b)邏輯模型;c)深度學(xué)習(xí)模型。在概率模型中,最具代表性的知識(shí)追蹤模型是貝葉斯模型BKT[6]。BKT利用馬爾可夫模型對(duì)學(xué)習(xí)者的知識(shí)狀態(tài)進(jìn)行建模。但BKT模型假設(shè)知識(shí)點(diǎn)之間是獨(dú)立的,實(shí)際學(xué)習(xí)中知識(shí)點(diǎn)與知識(shí)點(diǎn)之間是密切關(guān)聯(lián)且具有層次關(guān)系的。與概率模型不同的是,邏輯模型更具解釋性,其基本原理是采用函數(shù)來描述學(xué)習(xí)者學(xué)習(xí)能力參數(shù)、練習(xí)參數(shù)(難度、練習(xí)次數(shù)等)與正確回答練習(xí)概率之間的關(guān)系??冃б蛩胤治瞿P蚉FA[7]作為邏輯模型的一種,其采用logistic函數(shù)來估計(jì)掌握的概率。近年來,隨著深度學(xué)習(xí)的發(fā)展,神經(jīng)網(wǎng)絡(luò)也被應(yīng)用于知識(shí)追蹤領(lǐng)域。利用循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)或長短期記憶網(wǎng)絡(luò)(LSTM)對(duì)學(xué)習(xí)者的知識(shí)狀態(tài)進(jìn)行建模提出了深度知識(shí)追蹤模型DKT[8]。DKT的出現(xiàn)為深度學(xué)習(xí)在知識(shí)追蹤的應(yīng)用方面提供了新的研究方向,研究人員提出了一系列提高預(yù)測性能的深度知識(shí)追蹤模型。例如動(dòng)態(tài)鍵值記憶網(wǎng)絡(luò)DKVMN[9]定義了key矩陣和value矩陣分別存儲(chǔ)潛在的知識(shí)概念和學(xué)習(xí)者的學(xué)習(xí)狀態(tài),并提供讀寫操作,使模型能夠靈活地捕捉學(xué)習(xí)者的知識(shí)狀態(tài),使其隨時(shí)間的變化而變化;HFEP-KTC[10]通過基于知識(shí)點(diǎn)的內(nèi)隱信息和交互數(shù)據(jù)的外顯信息提出了融合內(nèi)外異質(zhì)信息的知識(shí)追蹤模型;SAKT[11]使用Transformer框架和自注意機(jī)制捕捉長序列的依賴關(guān)系、F-TCKT[12]考慮到學(xué)習(xí)過程中遺忘行為的影響,提出了融合遺忘因素的深度時(shí)序知識(shí)追蹤模型。
盡管上述知識(shí)追蹤模型在構(gòu)建上取得了不錯(cuò)的成就,但它們普遍忽略了問題難度與學(xué)習(xí)者知識(shí)狀態(tài)之間的聯(lián)系,難以有效評(píng)估學(xué)習(xí)者知識(shí)狀態(tài)。已有相關(guān)研究證明問題難度和學(xué)習(xí)者知識(shí)狀態(tài)之間存在密切的關(guān)聯(lián)[13~16],這一發(fā)現(xiàn)為進(jìn)一步完善知識(shí)追蹤模型提供了新的視角。
實(shí)際上,已有部分知識(shí)追蹤模型嘗試探索問題難度屬性對(duì)KT的影響。EKT[17]和RKT[18]通過分析問題的文本內(nèi)容來隱式評(píng)估難度,而AKT[19]則引入基于項(xiàng)目反映理論(item response theory, IRT)[20]的問題嵌入,以豐富問題的難度表征;同時(shí)MF-DAKT[21]利用難度等級(jí)作為外部信息優(yōu)化問題表示。這些方法利用隱式問題難度來提高問題表征,但存在問題難度提取不足等問題。然而,DIMKT[22]、DKP[23]模型通過顯式地引入問題難度和概念難度作為嵌入特征,但也存在問題難度屬性嵌入不全、問題難度表示不足以及問題難度提取方式單一等局限。
針對(duì)現(xiàn)有知識(shí)追蹤模型在問題難度屬性表征方面的不足,本文提出了融入多維問題難度的自適應(yīng)學(xué)習(xí)知識(shí)追蹤模型(multi-dimensional knowledge tracing,MDKT模型),充分挖掘題目所包含的問題難度屬性,真實(shí)地模擬學(xué)習(xí)者與問題之間的交互,并利用多維問題難度和自適應(yīng)學(xué)習(xí)理論有效地預(yù)測學(xué)習(xí)者的未來表現(xiàn)。本文工作的主要貢獻(xiàn)和創(chuàng)新如下:
a)采用顯式和隱式相結(jié)合的方式嵌入難度,其中問題難度與概念難度作為顯式嵌入,語義難度(文本內(nèi)容的表述方式)與認(rèn)知難度(題目所考察的形式)作為隱式嵌入,這種嵌入方式能夠更全面地表征問題難度屬性,提高模型的預(yù)測精度。
b)構(gòu)建了由增強(qiáng)練習(xí)難度交互表征模塊(EIARN)、自適應(yīng)學(xué)習(xí)模塊(ALM)和知識(shí)狀態(tài)序列預(yù)測模塊(FUTPM)組成的MDKT模型,有效解決了問題難度的提取,全面展現(xiàn)問題難度與學(xué)習(xí)者之間的個(gè)性化交互,實(shí)時(shí)更新學(xué)習(xí)者知識(shí)狀態(tài)的對(duì)應(yīng)變化,實(shí)驗(yàn)表明,MDKT模型優(yōu)于現(xiàn)有的工作。
c)將MDKT模型和學(xué)習(xí)者知識(shí)點(diǎn)網(wǎng)絡(luò)圖相結(jié)合,實(shí)現(xiàn)了學(xué)習(xí)者個(gè)性化薄弱知識(shí)點(diǎn)的挖掘,創(chuàng)新了知識(shí)追蹤在教育教學(xué)中的應(yīng)用場景,為個(gè)性化教育提供了有力的支持。
1 相關(guān)工作
1.1 融入自適應(yīng)學(xué)習(xí)思想的知識(shí)追蹤模型
融入自適應(yīng)學(xué)習(xí)思想的知識(shí)追蹤模型通過模擬學(xué)習(xí)者與習(xí)題交互過程,自適應(yīng)地調(diào)整學(xué)習(xí)者的知識(shí)狀態(tài),主要分為模擬讀寫操作的知識(shí)追蹤模型、模擬遺忘行為的知識(shí)追蹤模型、模擬學(xué)習(xí)過程的知識(shí)追蹤。動(dòng)態(tài)鍵值記憶網(wǎng)絡(luò)DKVMN[9]通過定義了key矩陣和value矩陣模擬學(xué)習(xí)者的讀寫操作,使模型可以直接輸出每個(gè)概念的掌握程度。但是DKVMN存在無法捕捉練習(xí)序列中長期依賴關(guān)系的問題,為此,順序鍵值記憶網(wǎng)絡(luò)的知識(shí)追蹤SKVMN[24]在DKVMN的基礎(chǔ)上利用練習(xí)相似計(jì)算HOP-LSTM來解決這一問題,并改進(jìn)了DKVMN中寫的過程。模擬讀寫操作的知識(shí)追蹤模型突出了學(xué)習(xí)者與學(xué)習(xí)結(jié)果行為的交互,但忽略了學(xué)習(xí)者與學(xué)習(xí)過程交互。王璨等人[25]提出的個(gè)人基礎(chǔ)與遺忘融合的時(shí)間卷積知識(shí)追蹤模型TCN-KT,利用RNN計(jì)算學(xué)生的先驗(yàn)基礎(chǔ),并利用時(shí)間卷積網(wǎng)絡(luò)預(yù)測下一題學(xué)習(xí)者的表現(xiàn), 有效融合了學(xué)生遺忘行為。李曉光等人[26]考慮學(xué)習(xí)者對(duì)知識(shí)點(diǎn)的掌握程度,提出了DKT+FORGET, 將其答題結(jié)果作為知識(shí)追蹤過程中掌握程度的間接反饋, 建立了一個(gè)融合學(xué)習(xí)和遺忘行為的知識(shí)追蹤模型。模擬遺忘行為的知識(shí)追蹤模型考慮了學(xué)習(xí)者和學(xué)習(xí)過程中的遺忘行為,但沒有充分展示學(xué)習(xí)者與學(xué)習(xí)過程的交互。學(xué)習(xí)過程一致的知識(shí)追蹤LPKT[27]由學(xué)習(xí)模塊、遺忘模塊和預(yù)測模塊組成,并利用時(shí)間信息模擬學(xué)習(xí)與遺忘過程取得了不錯(cuò)的效果。Shen等人[22]提出的DIMKT模型設(shè)計(jì)了自適應(yīng)神經(jīng)序列用于模擬學(xué)習(xí)者和習(xí)題難度之間的動(dòng)態(tài)關(guān)系。模擬學(xué)習(xí)過程的知識(shí)追蹤雖然展示了學(xué)習(xí)者與習(xí)題交互前、中、后的過程,但是存在習(xí)題與交互過程不緊密、不充分的問題。
1.2 問題難度增強(qiáng)的知識(shí)追蹤模型
問題難度與學(xué)習(xí)者知識(shí)狀態(tài)有著緊密的聯(lián)系,因此不少研究人員通過間接的方式將問題難度引入知識(shí)追蹤模型中。Su等人[28]設(shè)計(jì)習(xí)題增強(qiáng)遞歸神經(jīng)網(wǎng)絡(luò)(EERNN)框架,利用word2vec將單詞轉(zhuǎn)換為詞向量,然后嵌入到雙向LSTM中獲得題目語義難度表示向量。Liu等人[17]在EERNN的基礎(chǔ)上,通過引入DKVMN的知識(shí)矩陣,對(duì)每個(gè)知識(shí)點(diǎn)掌握情況的追蹤提出了EKT。Pandey等人[18]利用題目文本信息開展了題目文本余弦相似度計(jì)算,獲得題目的相對(duì)問題難度。Zhang等人[21]提出了MF-DAKT模型,該模型引入了一種預(yù)訓(xùn)練方法,將問題關(guān)系和難度納入問題表征,進(jìn)一步應(yīng)用雙注意機(jī)制進(jìn)行知識(shí)追蹤。間接引入問題難度的知識(shí)追蹤可以從文本中提取隱藏的難度信息,但是忽略了知識(shí)點(diǎn)難度、題目難度等固有的難度屬性,同時(shí)存在隱藏的難度信息不全的問題。此外還有研究人員直接從學(xué)習(xí)者的答題歷史中提取問題難度引入到知識(shí)追蹤中,Shen等人[22]將學(xué)習(xí)者歷史答題中獲得的概念難度和問題難度嵌入知識(shí)追蹤中,提出了DIMKT模型。王士進(jìn)等人[23]將概念難度和問題難度用于學(xué)習(xí)者知識(shí)畫像建模。此外,梁祥等人[29]對(duì)練習(xí)難度進(jìn)行分類,將獲得的練習(xí)難度等級(jí)嵌入DKT中,提出了DKT-DE模型。直接引入問題難度的知識(shí)追蹤從問題的知識(shí)點(diǎn)難度、題目難度、難度等級(jí)對(duì)問題難度進(jìn)行表征,但是忽略了隱藏的難度信息以及不同問題難度屬性之間融合不夠深入等問題。
1.3 問題難度效應(yīng)
有研究人員發(fā)現(xiàn)問題難度和學(xué)習(xí)者知識(shí)狀態(tài)之間有著密切的聯(lián)系。例如,Kn?uper等人[13]發(fā)現(xiàn)知識(shí)能力高的學(xué)習(xí)者比知識(shí)能力低的學(xué)習(xí)者在面對(duì)難題時(shí)更容易做出正確的答案,并且知識(shí)狀態(tài)較好的學(xué)生受問題難度影響的波動(dòng)較小。Lomas等人[14]指出,簡單的問題更容易獲得學(xué)習(xí)者更多的時(shí)間投入,但會(huì)減慢學(xué)習(xí)速度,而解決更具挑戰(zhàn)性的問題可能會(huì)加快學(xué)習(xí)的速度。Beck等人[15]指出,問題越難,解決問題所需的知識(shí)點(diǎn)就越多。此外,從出題的角度出發(fā),問題太難或者太容易都無法區(qū)分學(xué)習(xí)者不同的知識(shí)狀態(tài)[16]。因此,問題難度對(duì)學(xué)習(xí)者的學(xué)習(xí)有顯著影響,學(xué)習(xí)者對(duì)不同問題難度等級(jí)題目的回答直接反映了學(xué)習(xí)者的知識(shí)狀態(tài)。所以在知識(shí)追蹤模型完善過程中要充分考慮問題難度的影響。
2 模型與方法
2.1 問題定義
知識(shí)追蹤旨在根據(jù)學(xué)習(xí)者的歷史作答序列來評(píng)估學(xué)習(xí)者的知識(shí)狀態(tài),基于學(xué)習(xí)者的知識(shí)狀態(tài)來預(yù)測學(xué)習(xí)者在未來的作答表現(xiàn)。具體描述為,通過學(xué)習(xí)者的作答表現(xiàn)xt來評(píng)估學(xué)習(xí)者當(dāng)前的知識(shí)狀態(tài)ht,從而預(yù)測學(xué)習(xí)者在qt+1上的作答表現(xiàn)rt+1。Q為習(xí)題集合,E為練習(xí)題題目文本集合,其中xn=(qn,en,rn)是一個(gè)三元組,表示學(xué)習(xí)者在n時(shí)刻的作答表現(xiàn),qn∈Q表示的是在n時(shí)刻學(xué)習(xí)者作答習(xí)題的id, en∈E表示的是在n時(shí)刻學(xué)習(xí)者作答習(xí)題的題目文本。r∈(0,1),其中0表示作答錯(cuò)誤,1表示作答正確。
2.2 提出思想
學(xué)習(xí)者與習(xí)題交互過程中,習(xí)題難度與學(xué)習(xí)者知識(shí)狀態(tài)有著密切的關(guān)系,例如,答對(duì)習(xí)題難度更高的學(xué)習(xí)者,說明其知識(shí)狀態(tài)更好。另一方面,同一習(xí)題難度對(duì)每個(gè)學(xué)習(xí)者的知識(shí)狀態(tài)影響不同,例如一道中等難度的題目對(duì)于掌握較好的學(xué)習(xí)者來說比較簡單,答對(duì)這道題目對(duì)其知識(shí)狀態(tài)影響很小,但對(duì)于掌握較差的學(xué)習(xí)者來說,答對(duì)這道題目對(duì)其知識(shí)狀態(tài)影響很大,與此同時(shí),對(duì)學(xué)習(xí)者知識(shí)狀態(tài)影響的大小并不等同于對(duì)學(xué)習(xí)者知識(shí)狀態(tài)更新的多少。為解決上面兩個(gè)問題,本文提出了融入多維問題難度的自適應(yīng)學(xué)習(xí)知識(shí)追蹤模型(multi-dimensional knowledge tracing,MDKT模型),模型分為三層,第一層是增強(qiáng)練習(xí)難度交互表征模塊(EIARN)用于全面表征習(xí)題難度;第二層是自適應(yīng)學(xué)習(xí)模塊(ALM)用于刻畫習(xí)題難度和知識(shí)狀態(tài)之間交互的影響以及知識(shí)狀態(tài)的更新;第三層是知識(shí)狀態(tài)序列預(yù)測模塊(FUTPM)用于衡量不同知識(shí)狀態(tài)對(duì)學(xué)習(xí)者重要性的不同,并預(yù)測學(xué)習(xí)者未來的答題情況。
2.3 模型框架
模型框架如圖1所示,其結(jié)構(gòu)主要由三個(gè)模塊構(gòu)成:增強(qiáng)練習(xí)難度交互表征模塊(EIARN)、自適應(yīng)學(xué)習(xí)模塊(ALM)以及知識(shí)狀態(tài)序列預(yù)測模塊(FUTPM)。在EIARN模塊中,模型融合了特定問題難度(QS)、知識(shí)概念難度(KS)、問題認(rèn)知難度(CS)、題目語義難度(US)以及知識(shí)點(diǎn)概念(KC)嵌入,形成一個(gè)全面的問題表征向量,有效捕捉了問題的多維難度屬性;ALM模塊則通過問題難度計(jì)算層、知識(shí)能力學(xué)習(xí)層和知識(shí)狀態(tài)更新層的協(xié)同作用,深入刻畫了學(xué)習(xí)者的內(nèi)部心理學(xué)習(xí)過程;FUTPM模塊利用學(xué)習(xí)者在當(dāng)前問題上的隱藏狀態(tài)與下一個(gè)問題的深度交互來預(yù)測其未來表現(xiàn)?;谏疃冉换サ念A(yù)測方式充分考慮了學(xué)習(xí)者的個(gè)性化特點(diǎn)和問題的難度特點(diǎn),為實(shí)現(xiàn)精準(zhǔn)的知識(shí)追蹤提供了有力支持。
2.4 增強(qiáng)練習(xí)難度交互表征模塊(EIARN)
2.4.1 多維問題難度的定義
本文將問題難度細(xì)分為特定問題難度(QS)、知識(shí)概念難度(KS)、問題認(rèn)知難度(CS)、題目語義難度(US)四個(gè)主要層次。具體定義如下:特定問題難度(QS)主要指的是每個(gè)問題因其獨(dú)特性而產(chǎn)生的難度;知識(shí)概念難度(KS)則側(cè)重于問題中涉及的知識(shí)概念本身的難度;問題認(rèn)知難度(CS)是基于布魯姆的認(rèn)知領(lǐng)域教育目標(biāo)分類理論[30]來定義的,將認(rèn)知過程分為記憶、理解、應(yīng)用、分析、評(píng)價(jià)、創(chuàng)新六個(gè)層次(例如,“為什么電路會(huì)短路”比“什么是電路短路”更難,前者是分析維度,后者是記憶維度)。題目語義難度(US)主要關(guān)注語言表達(dá)對(duì)問題難度的影響,即使考察同一個(gè)問題、同一概念,由于語言表達(dá)不同,所引起的難度也不同。
2.4.2 特定問題難度(QS)和知識(shí)概念難度(KS)的計(jì)算
參考文獻(xiàn)[22]的相關(guān)研究工作,使用客觀的統(tǒng)計(jì)方法來計(jì)算特定問題難度(QS)和知識(shí)概念難度(KS)。計(jì)算公式如式(1)(2)所示。
QS=∑|Si|i{aij==0}|Si|.Cqs(1)
KS=∑|Si|i ∑|Qj|j{aijm==0}∑Si|i{εi}.|Si|.Cks(2)
其中:Si表示回答練習(xí)題qt的學(xué)生集合;Qj是所有練習(xí)題qt的集合,每一個(gè)練習(xí)題qt包含若干個(gè)知識(shí)點(diǎn)km;aij==0表示的是學(xué)習(xí)者Si對(duì)特定問題qt回答錯(cuò)誤;aijm==0表示的是學(xué)生Si對(duì)練習(xí)題qj中的特定概念km回答錯(cuò)誤;εi表示的是學(xué)習(xí)者Si作答的所有題目中包含知識(shí)點(diǎn)km的總個(gè)數(shù),其中常數(shù)項(xiàng)Cqs和Cks分別表示預(yù)定義練習(xí)題的具體問題難度等級(jí)和知識(shí)點(diǎn)概念難度等級(jí)。
2.4.3 問題認(rèn)知難度(CS)的劃分
本文認(rèn)知難度的界定是基于題目與布魯姆認(rèn)知思維目標(biāo)層次的對(duì)應(yīng)關(guān)系。針對(duì)一個(gè)問題qt中可能蘊(yùn)涵多個(gè)認(rèn)知思維目標(biāo),基于布魯姆理論的層級(jí)遞進(jìn)性,即高層次的思維活動(dòng)是建立在低層次思維活動(dòng)充分理解和掌握的基礎(chǔ)之上,選擇其最高的目標(biāo)層次來代表問題qt的認(rèn)知難度。問題認(rèn)知難度編碼如表1所示。
2.4.4 題目語義難度(US)的獲取
問題題目首先會(huì)經(jīng)過分詞處理,每個(gè)詞隨后被編碼為對(duì)應(yīng)的詞向量。接著整合位置向量、字符向量和分段向量輸入BERT-WWM預(yù)訓(xùn)練模型中。輸出一個(gè)題目文本語義表征向量QE∈?z×dc,其中z代表預(yù)先設(shè)定的問題題目的最大長度。盡管題目文本語義表征向量QE中每一行能夠代表題目中單個(gè)詞的詞向量,但單個(gè)詞向量通常無法全面表達(dá)題目文本的整體語義。為了捕捉更豐富的上下文信息,對(duì)詞向量進(jìn)行卷積操作。通過使用不同大小的卷積核,能夠提取出長度不一的鄰近詞特征向量。較短的卷積核有助于捕捉局部鄰近詞之間的關(guān)系,而較長的卷積核則能夠覆蓋更廣泛的詞匯聯(lián)系。這些特征向量融合了鄰近詞的信息,因此比單個(gè)詞向量包含更多的語義內(nèi)容。卷積操作的具體流程如圖2所示。
采用卷積核K來對(duì)題目文本語義表征向量QE∈?z×dc進(jìn)行卷積操作,K∈?h×dc,其中h表示為卷積核的寬度,dc為輸入向量的維數(shù),卷積操作的計(jì)算如式(3)所示。
gi=tanh(〈QE·K〉+b0)(3)
其中:〈·〉表示的是卷積操作;gi為卷積之后的鄰近詞特征,i∈(1,2,3,…,n-d+1)。卷積之后進(jìn)行最大池化,公式如式(4)所示。
usi=MAX(gi)(4)
其中:usi∈?。本文采用三種不同尺寸的卷積核,數(shù)量共為d個(gè),分別為K1∈?h1×dc、K2∈?h2×dc、K3∈?h3×dc,經(jīng)過卷積層和池化層后,得到d個(gè)不同的輸出{us1,us2,…,usd}。將這些輸出進(jìn)行拼接,得到融合不同長度的鄰近詞的題目文本語義難度表征向量uset=[us1,us2,…,usd],uset∈?d。
2.4.5 增強(qiáng)練習(xí)難度交互表征
本文隨機(jī)初始化矩陣Q∈?Cq×d和KC∈?Ckc×d, 分別對(duì)問題和問題所包含的概念進(jìn)行表示,得到qej和kcej。對(duì)于每一個(gè)問題,選取其所包含的前六個(gè)概念作為問題的概念表示,若概念數(shù)量不足六個(gè),則進(jìn)行特殊填充。因此,一個(gè)問題所包含的概念可以表示為kcej1、kcej2、kcej3、kcej4、kcej5、kcej6。前面已經(jīng)詳細(xì)闡述了QS、KS計(jì)算以及CS劃分,進(jìn)一步地,隨機(jī)初始化嵌入矩陣QS∈ ?Cqs×d,KS∈?Cks×d對(duì)題目難度和概念難度進(jìn)行表示,得到qsej和ksej。同時(shí),隨機(jī)化嵌入矩陣CS∈?6×d和AT∈?2×d,對(duì)認(rèn)知難度和作答結(jié)果{0,1}進(jìn)行表示,得到csej和atej。將問題難度、概念難度、認(rèn)知難度、語義難度進(jìn)行拼接,得到綜合問題難度表示DQCet,具體計(jì)算如式(5)所示。
DQCet=qset⊕kset⊕cset⊕uset(5)
然后,將問題、知識(shí)概念、綜合問題難度、答案進(jìn)行拼接后輸入多層感知機(jī)(MLP),獲得t時(shí)刻的增強(qiáng)練習(xí)難度表征向量xt。具體計(jì)算公式如式(6)所示。
xt=WT1[qet⊕kcet1⊕kcet2⊕kcet3⊕kcet4⊕kcet5⊕
kcet6⊕DQCet]+b1(6)
其中:⊕表示拼接;WT1∈?11d×d是MLP的權(quán)重矩陣;b1∈?d是對(duì)應(yīng)的偏置項(xiàng)。
2.5 自適應(yīng)學(xué)習(xí)模塊(ALM)
該模塊的設(shè)計(jì)遵循了自適應(yīng)學(xué)習(xí)思想,主要包括問題困難感計(jì)算層(CDILA)、個(gè)性化知識(shí)能力學(xué)習(xí)層(CAPAB)、知識(shí)狀態(tài)更新層(PEFIN)。首先,問題困難感計(jì)算層通過評(píng)估學(xué)習(xí)者的已有知識(shí)掌握狀態(tài)與問題難度之間的差距,計(jì)算出問題的困難感,以便為學(xué)習(xí)者提供適合其水平的學(xué)習(xí)內(nèi)容。其次,個(gè)性化知識(shí)能力學(xué)習(xí)層根據(jù)每位學(xué)習(xí)者的學(xué)習(xí)能力和需求,提供個(gè)性化的知識(shí)獲取方式和資源,以滿足不同學(xué)習(xí)者的學(xué)習(xí)需求。最后,知識(shí)狀態(tài)更新層在學(xué)習(xí)者獲取知識(shí)后,及時(shí)更新其知識(shí)掌握狀態(tài),以便為后續(xù)的學(xué)習(xí)提供準(zhǔn)確的反饋和指導(dǎo)。
2.5.1 問題困難感計(jì)算層(CDILA)
增強(qiáng)練習(xí)難度xt綜合反映了問題的難度以及解決該問題所需的知識(shí)能力水平。學(xué)習(xí)者在解決這道問題時(shí)的知識(shí)隱藏狀態(tài)ht-1則代表著他們解決問題能力的高低。為了計(jì)算學(xué)習(xí)者的問題困難感,具體如式(7)(8)所示。
St=ht-1×xt|ht-1|×|xt|(7)
SDt=xt·(1-St)-h(huán)t-1·St(8)
St計(jì)算的是增強(qiáng)練習(xí)難度xt和學(xué)習(xí)者隱藏狀態(tài)ht-1的契合度,它表示解決問題所需的能力和已有解決問題能力之間的適配度。SDt計(jì)算的是問題困難感與自信感的差值,得到學(xué)習(xí)者面對(duì)問題時(shí)的整體困難感。其中,xt·(1-St)是指問題難度和解決問題能力未適配度之間的乘積,即解決問題困難感;ht-1·St是指隱藏狀態(tài)和解決問題能力適配度之間的乘積,即解決問題的自信感。
2.5.2 個(gè)性化知識(shí)能力學(xué)習(xí)層(CAPAB)
由于學(xué)習(xí)能力因人而異,知識(shí)學(xué)習(xí)的多少不僅與問題困難感相關(guān),還受到答案的影響。因此,本文設(shè)計(jì)了一種計(jì)算個(gè)性化知識(shí)學(xué)習(xí)量的方法。具體計(jì)算如下:
Upktt=tanh(WT2(SDt⊕atej)+b2)(9)
Ipktt=sigmoid(WT3(SDt⊕atej)+b3)(10)
PKt=Upktt·Ipktt(11)
其中:tanh和sigmoid分別表示tanh非線性激活函數(shù)和sigmoid激活函數(shù);WT2、WT3∈?2d×d是MLP的權(quán)重矩陣;b2、b3∈?d是對(duì)應(yīng)的偏置項(xiàng)。Upktt代表知識(shí)能力學(xué)習(xí)的直接輸出,反映了知識(shí)學(xué)習(xí)的總量。Ipktt則設(shè)計(jì)為一個(gè)門控機(jī)制,用于有選擇性地保存Upktt中的信息,從而得到學(xué)習(xí)者的個(gè)性化知識(shí)能力學(xué)習(xí)量PKt。
2.5.3 知識(shí)狀態(tài)更新層(PEFIN)
經(jīng)過個(gè)性化知識(shí)能力學(xué)習(xí)層之后,為了更加客觀地反映學(xué)習(xí)知識(shí)狀態(tài)的變化,本文考慮了以下影響知識(shí)狀態(tài)更新的因素:學(xué)習(xí)者前一時(shí)刻的知識(shí)隱藏狀態(tài)ht-1、當(dāng)前時(shí)刻作出的回答atet、問題的難度qset以及其他相關(guān)因素。本文設(shè)計(jì)了一個(gè)權(quán)重因子IKSUt,用于衡量當(dāng)前時(shí)刻個(gè)性化知識(shí)能力學(xué)習(xí)量和當(dāng)前時(shí)刻學(xué)習(xí)者隱藏狀態(tài)對(duì)下一時(shí)刻學(xué)習(xí)隱藏狀態(tài)的影響效果。具體的知識(shí)狀態(tài)更新如式(12)(13)所示。
IKSUt=sigmoidWT4ht-1⊕atet⊕qset⊕kset⊕cset⊕uset+b4(12)
ht=PKt·IKSUt+ht-1·(1-IKSUt)(13)
其中:WT4∈?6d×d是MLP的權(quán)重矩陣;b4∈?d是對(duì)應(yīng)的偏置項(xiàng)。通過計(jì)算出當(dāng)前時(shí)刻個(gè)性化知識(shí)能力學(xué)習(xí)量對(duì)下一時(shí)刻學(xué)習(xí)隱藏狀態(tài)的權(quán)重因子IKSUt,繼而就可以得到下一時(shí)刻學(xué)習(xí)者的隱藏狀態(tài)ht。
2.6 知識(shí)狀態(tài)序列預(yù)測模塊(FUTPM)
學(xué)習(xí)者在解決問題過程中,其實(shí)質(zhì)是學(xué)習(xí)者的隱藏狀態(tài)與問題之間的深層交互。為了刻畫這種交互過程,引入了學(xué)習(xí)者的預(yù)測狀態(tài),并基于此來預(yù)測學(xué)習(xí)者的表現(xiàn)。在預(yù)測時(shí),對(duì)預(yù)測狀態(tài)的不同部分應(yīng)給予不同的關(guān)注度,特別是與當(dāng)前問題緊密相關(guān)的部分更應(yīng)受到重視。因此,在知識(shí)狀態(tài)序列預(yù)測模塊中,設(shè)計(jì)了一個(gè)多頭注意力數(shù)據(jù)統(tǒng)一化層,選擇性地關(guān)注學(xué)習(xí)者預(yù)測狀態(tài)中的關(guān)鍵信息,更加精準(zhǔn)地預(yù)測學(xué)習(xí)者在解決問題過程中的表現(xiàn),從而有效提高預(yù)測的準(zhǔn)確性。
首先,通過計(jì)算學(xué)習(xí)者在時(shí)間步t的隱藏狀態(tài)ht,預(yù)測學(xué)習(xí)者在時(shí)間步t+1的表現(xiàn)。在MDKT模型中,利用時(shí)間步為t的隱藏狀態(tài)ht與時(shí)間步為t+1的問題qt+1做內(nèi)積來模擬學(xué)習(xí)者做題的過程,得到預(yù)測狀態(tài)pret+1。具體如式(14)所示。
pret+1=ht×qt+1(14)
其中:×表示內(nèi)積。接下來,為了更細(xì)致地處理預(yù)測狀態(tài)中的信息,將向量預(yù)測狀態(tài)pret+1拆分為n個(gè)等長度的部分。具體如式(15)所示。
pret+1=[pret+11,pret+12,…,pret+1j,…,pret+1n](15)
然后,對(duì)每個(gè)子預(yù)測狀態(tài)pretj進(jìn)行自注意力計(jì)算,包括計(jì)算查詢Qj矩陣、鍵kj矩陣和值Vj矩陣等操作,最后得到新的子預(yù)測狀態(tài)preatt+1j。具體如式(16)~(19)所示。
Qj=WT5·pret+1j+b5(16)
kj=WT6·pret+1j+b6(17)
Vj=WT7·pret+1j+b7(18)
preatt+1j=sigmoid(Qj·kj)d·Vj(19)
其中:WT5、WT6、WT7∈?d1×d1, d1的大小為d/n;b5、b6、b7∈?d1是對(duì)應(yīng)的偏置。將得到的n個(gè)子預(yù)測狀態(tài)進(jìn)行聚合,得到新預(yù)測狀態(tài)preatt+1∈?d,具體如式(20)所示。
preatt+1=preatt+11⊕…⊕preatt+1j⊕…⊕preatt+1n(20)
最后,將新的預(yù)測狀態(tài)輸入到多層感知機(jī)(MLP)中計(jì)算學(xué)習(xí)者的具體表現(xiàn),具體如式(21)所示。
rt+1=WT8·preatt+1+b8(21)
其中:WT8∈?d×2是一個(gè)權(quán)重矩陣,b8∈?2。在知識(shí)狀態(tài)序列預(yù)測模塊中,通過設(shè)計(jì)一個(gè)中間狀態(tài)來刻畫學(xué)習(xí)者當(dāng)前時(shí)刻知識(shí)狀態(tài)和下一個(gè)問題的交互過程,并對(duì)預(yù)測狀態(tài)中關(guān)注的信息賦予了注意力,模型可以輸出問題的預(yù)測結(jié)果,并增強(qiáng)輸出的可解釋性。
為了訓(xùn)練MDKT模型中的所有參數(shù)和向量,選擇交叉熵對(duì)數(shù)損失函數(shù)作為預(yù)測rt+1和實(shí)際答案at+1 作為目標(biāo)函數(shù)。同時(shí),使用Adam優(yōu)化器對(duì)小批量樣本進(jìn)行損失最小化。具體的損失函數(shù)loss如式(22)所示。
loss=∑Tt=1(at+1log rt+1+(1-at+1)log(1-rt+1))(22)
3 實(shí)驗(yàn)與結(jié)果分析
3.1 實(shí)現(xiàn)方法
MDKT模型以知識(shí)點(diǎn)、習(xí)題題目、問題難度QS、概念難度KS、認(rèn)知難度CS、習(xí)題作答表現(xiàn)等作為輸入,以學(xué)習(xí)者的作答預(yù)測為輸出,具體實(shí)驗(yàn)步驟如下:
a)綜合問題難度表示:對(duì)問題難度QS、概念難度KS、認(rèn)知難度CS進(jìn)行編碼并映射成相應(yīng)的向量,利用BERT和CNN對(duì)習(xí)題題目進(jìn)行語義難度提取,綜合四個(gè)問題難度得到綜合問題難度表示DQCet。
b)增強(qiáng)練習(xí)難度交互表示:對(duì)全體習(xí)題和知識(shí)點(diǎn)進(jìn)行編碼并映射成相對(duì)應(yīng)的向量,通過多層感知機(jī)將綜合問題難度表示DQCet融入到對(duì)應(yīng)習(xí)題和知識(shí)點(diǎn)向量中,得到xt。
c)建模知識(shí)狀態(tài):對(duì)增強(qiáng)練習(xí)難度交互表示xt和前一時(shí)刻學(xué)習(xí)者知識(shí)狀態(tài)進(jìn)行余弦相似度計(jì)算,得到問題困難感,將不同時(shí)刻的學(xué)習(xí)者的答題結(jié)果映射成向量,結(jié)合問題困難感得到個(gè)性化知識(shí)學(xué)習(xí)量,通過tanh非線性激活函數(shù)和sigmoid激活函數(shù)衡量個(gè)性化知識(shí)能力學(xué)習(xí)量和學(xué)習(xí)者前一時(shí)刻隱藏狀態(tài)的影響效果,從而建模學(xué)習(xí)者當(dāng)前知識(shí)狀態(tài)ht。
d)預(yù)測結(jié)果:將知識(shí)狀態(tài)ht和下一時(shí)刻習(xí)題qt+1進(jìn)行交互,通過多頭注意力機(jī)制和數(shù)據(jù)統(tǒng)一化層,輸出預(yù)測結(jié)果rt+1。
3.2 實(shí)驗(yàn)數(shù)據(jù)集
為了驗(yàn)證MDKT模型的有效性,以浙江省6個(gè)地區(qū)的學(xué)生為實(shí)驗(yàn)對(duì)象,共涉及11所學(xué)校29個(gè)班級(jí),總計(jì)1 120名學(xué)生參與測驗(yàn),采用試卷形式,經(jīng)過一個(gè)學(xué)期的數(shù)據(jù)收集和處理,經(jīng)過嚴(yán)格篩選,剔除了空白等無效試卷,確保了數(shù)據(jù)的質(zhì)量和有效性。數(shù)據(jù)集包含2個(gè)子集project2和project3。project2子集共收回1 120份有效試卷,而project3子集則收回了983份有效試卷。數(shù)據(jù)集包括學(xué)生的作答情況、題目所包含的知識(shí)點(diǎn)、題目文本、題目對(duì)應(yīng)的認(rèn)知維度等重要信息。在錄入數(shù)據(jù)時(shí),作答正確記為“1”,作答錯(cuò)誤記為“0”。對(duì)于題目所包含的知識(shí)點(diǎn)、題目所對(duì)應(yīng)的認(rèn)知難度都是邀請(qǐng)學(xué)科教師、專家進(jìn)行評(píng)定。數(shù)據(jù)集的具體概覽如表2所示,詳細(xì)展示了數(shù)據(jù)集的各個(gè)部分和特征。
在數(shù)據(jù)集的劃分上,隨機(jī)選取70%的序列作為訓(xùn)練驗(yàn)證集,剩余的30%作為測試集。對(duì)于訓(xùn)練驗(yàn)證集,采用五折交叉驗(yàn)證方法進(jìn)行模型的訓(xùn)練和驗(yàn)證:在每次折疊中,使用80%的序列進(jìn)行訓(xùn)練,剩余的20%用于驗(yàn)證。所有超參數(shù)均在訓(xùn)練集上進(jìn)行調(diào)整,并選擇驗(yàn)證集上表現(xiàn)最好的模型用于評(píng)估測試集的性能。
使用網(wǎng)格搜索法在以下的參數(shù)取值內(nèi)確定模型的最優(yōu)參數(shù),使用早停策略進(jìn)行訓(xùn)練,訓(xùn)練輪數(shù)epoch∈{20、30、40、50},學(xué)習(xí)率learning_rate∈{0.001、0.003、0.005},batch-size∈{32、64、128},選擇交叉熵?fù)p失函數(shù)和 Adam 優(yōu)化器,同時(shí)為了防止過擬合,將dropout設(shè)置為0.2。
3.4 性能對(duì)比實(shí)驗(yàn)
本文采用三個(gè)評(píng)價(jià)指標(biāo)來評(píng)估模型的性能:均方根誤差(root mean square error,RMSE)、準(zhǔn)確率(accuracy,ACC)和ROC曲線下的面積(area under curve,AUC)。這些指標(biāo)的計(jì)算如式(23)~(25)所示。
RMSE=1n∑Ni=1(r(xi)-yi)2(23)
ACC=rN(24)
AUC=∑i∈positionranki-m(1+m)2m×n(25)
在計(jì)算上面指標(biāo)時(shí),將分類閾值設(shè)置為0.5。N表示學(xué)生的練習(xí)交互記錄數(shù)量,r(xi)為第i個(gè)交互記錄得分的預(yù)測值,yi為對(duì)應(yīng)的真實(shí)標(biāo)簽,r為預(yù)測正確的數(shù)量,m為正例的數(shù)量,n為負(fù)例的數(shù)量。RMSE值越小表示模型越好,相反ACC和AUC越大表示模型越好。
為了評(píng)估MDKT模型的有效性,本文將其與多個(gè)基線模型進(jìn)行對(duì)比。所有模型均在配備NVIDIA RTX 4090 GPU的Linux服務(wù)器集群中進(jìn)行訓(xùn)練,以確保公平比較和最佳性能。以下是各基線模型的詳細(xì)信息:
a)DKT[8]:該模型利用RNN、GRU、LSTM等技術(shù)來評(píng)估學(xué)習(xí)者的知識(shí)狀態(tài)。在本文的對(duì)比實(shí)驗(yàn)中,采用LSTM來實(shí)現(xiàn)DKT模型。
b)DKT+[31]:解決了DKT在跨時(shí)間預(yù)測性能不一致的問題,同時(shí)重構(gòu)了觀察到的輸入。此外,在損失函數(shù)計(jì)算時(shí)增加了兩個(gè)正則項(xiàng),使學(xué)習(xí)者的知識(shí)掌握狀態(tài)逐漸增加。
c)DKVMN[9]:動(dòng)態(tài)記憶網(wǎng)絡(luò)的知識(shí)追蹤模型,定義了key矩陣和value矩陣分別存儲(chǔ)潛在的知識(shí)概念和學(xué)習(xí)者的學(xué)習(xí)狀態(tài)。通過提供讀寫操作,該模型能夠靈活地捕捉學(xué)習(xí)者的知識(shí)狀態(tài)隨時(shí)間的變化。
d)SAKT[11]:受Transformer的啟發(fā),第一個(gè)使用Transformer框架的知識(shí)追蹤模型,利用自注意力機(jī)制來捕捉學(xué)生行為序列中的長期依賴關(guān)系。
e)EKT[17]:模型將練習(xí)題的文本內(nèi)容嵌入知識(shí)追蹤模型,使用記憶網(wǎng)絡(luò)來量化每個(gè)練習(xí)題在練習(xí)過程中對(duì)學(xué)習(xí)者知識(shí)點(diǎn)掌握程度的影響,采用注意力機(jī)制來優(yōu)化EKT模型。
f)CKT[32]:關(guān)注學(xué)生特征,它利用統(tǒng)計(jì)手段捕獲學(xué)生個(gè)性化的先驗(yàn)知識(shí),并在CNN中引入卷積窗口來模擬他們?cè)趯W(xué)習(xí)過程中的不同學(xué)習(xí)率。
g)DIMKT[22]:利用統(tǒng)計(jì)方法獲取問題難度,并設(shè)計(jì)了一個(gè)自適應(yīng)神經(jīng)網(wǎng)絡(luò)用于捕捉題目難度對(duì)學(xué)習(xí)者動(dòng)態(tài)知識(shí)狀態(tài)的影響。
本文通過比較不同知識(shí)追蹤模型在預(yù)測學(xué)習(xí)者未來表現(xiàn)方面的性能,發(fā)現(xiàn)MDKT模型在兩個(gè)子數(shù)據(jù)集上的AUC值、ACC值和RMSE值均顯著優(yōu)于其他七個(gè)基線模型(具體數(shù)值詳見表4)。這一結(jié)果表明,引入問題難度對(duì)MDKT模型至關(guān)重要,且其自適應(yīng)學(xué)習(xí)模塊中的問題困難感計(jì)算層(CDILA)、個(gè)性化知識(shí)能力學(xué)習(xí)層(CAPAB)和知識(shí)狀態(tài)更新層(PEFIN)能成功捕捉學(xué)習(xí)者知識(shí)掌握狀態(tài)與問題難度屬性之間的關(guān)系。因此,MDKT模型在預(yù)測性能上表現(xiàn)出優(yōu)越性。
此外,與未考慮問題難度屬性的知識(shí)追蹤模型(如BKT、DKT、DKVMN、SAKT,CKT)相比,利用問題難度屬性來增強(qiáng)問題嵌入的知識(shí)追蹤模型(如EKT、DIMKT、MDKT)展現(xiàn)出了更好的性能。這是因?yàn)槔脝栴}難度屬性增強(qiáng)的問題嵌入與學(xué)習(xí)者知識(shí)狀態(tài)之間的交互更具針對(duì)性,從而提高了模型的預(yù)測準(zhǔn)確性。這也進(jìn)一步強(qiáng)調(diào)了考慮問題難度屬性在知識(shí)追蹤模型中的重要性。與僅利用練習(xí)題隱式難度來增強(qiáng)問題嵌入的知識(shí)追蹤模型EKT相比,MDKT模型采用隱式與顯式相結(jié)合的方式嵌入問題難度屬性。這種方式不僅考慮了問題的表面難度特征,還深入挖掘了與學(xué)習(xí)者知識(shí)狀態(tài)相關(guān)的多層難度信息。因此,MDKT模型在性能上表現(xiàn)出更大的優(yōu)越性。這也凸顯了MDKT模型在問題難度屬性嵌入方式上的創(chuàng)新性和實(shí)用性。
3.5 參數(shù)對(duì)比實(shí)驗(yàn)
為了進(jìn)一步確定MDKT的最佳參數(shù),設(shè)計(jì)了參數(shù)對(duì)比實(shí)驗(yàn),主要分為非問題難度影響參數(shù)與問題難度影響參數(shù)對(duì)比實(shí)驗(yàn)。
3.5.1 非問題難度影響參數(shù)分析
具體如下:非問題難度影響參數(shù)將MDKT模型、嵌入矩陣、知識(shí)狀態(tài)序列更新模塊和多頭注意力機(jī)制中的隱藏層維度d均設(shè)置為32、64、128,多頭注意力機(jī)制的頭數(shù)為2、4,對(duì)比不同維度與多頭注意力機(jī)制頭數(shù)h情況下MDKT模型的最佳AUC,實(shí)驗(yàn)結(jié)果如表5所示。
從表5可以看出,當(dāng)多頭注意力機(jī)制頭數(shù)h為2、隱藏層維度d為64時(shí),MDKT模型的AUC在兩個(gè)數(shù)據(jù)集中表現(xiàn)最好,因此本文將多頭注意力機(jī)制頭數(shù)h、隱藏層維度d分別設(shè)置為2、64。
3.5.2 問題難度參數(shù)影響分析
為了深入分析MDKT模型中問題難度參數(shù)對(duì)性能的影響,本文進(jìn)行了敏感性分析。具體而言,關(guān)注了三個(gè)關(guān)鍵參數(shù):問題難度等級(jí)Cqs、概念難度等級(jí)Cks以及題目文本最大長度z。這些參數(shù)在模型中起著重要作用,直接影響著特定問題難度、知識(shí)概念難度和題目語義難度的提取。
首先,針對(duì)問題難度等級(jí)Cqs進(jìn)行了實(shí)驗(yàn)。Cqs代表具體問題難度等級(jí),其取值設(shè)為10、50、100、500、1 000。在固定Cks=100、z=40的條件下,觀察了不同Cqs對(duì)MDKT模型性能的影響。實(shí)驗(yàn)結(jié)果如表6所示。當(dāng)Cqs為1 000時(shí),在兩個(gè)子數(shù)據(jù)集中,MDKT模型的AUC平均下降1.78%、ACC平均下降1.165%、RMSE平均上升0.78%;當(dāng)Cqs為10時(shí),在兩個(gè)子數(shù)據(jù)集中,MDKT模型的AUC平均下降1.05%、ACC平均下降0.48%、RMSE平均上升0.41%。因此Cqs過大(1 000)或者過?。?0),MDKT的性能都會(huì)出現(xiàn)一定的下降,原因是當(dāng)Cqs過大時(shí),沒有體現(xiàn)問題難度的一般性,然而當(dāng)Cqs過小時(shí),沒有展示問題難度特異性。因此,選擇合適的Cqs值對(duì)模型性能至關(guān)重要。
其次,探究了Cks對(duì)模型性能的影響。Cks表示知識(shí)點(diǎn)概念難度等級(jí),取值同樣設(shè)為10、50、100、500、1 000。在固定Cqs=100、z=40的條件下進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表7所示。當(dāng)Cks為1 000時(shí),在兩個(gè)子數(shù)據(jù)集中,MDKT模型的AUC平均下降1.76%、ACC平均下降0.91%、RMSE平均上升0.55%;當(dāng)Cks為10時(shí),在兩個(gè)子數(shù)據(jù)集中,MDKT模型的AUC平均下降1.74%、ACC平均下降0.61%、RMSE平均上升0.89%。原因與Cqs類似,即Cks過大或過小時(shí),模型無法準(zhǔn)確捕捉概念難度的一般性和特異性。
最后,分析了題目文本最大長度z的影響。z的取值設(shè)為20、30、40、50、60,代表題目文本的語義完整度。在固定Cqs=100、Cks=100的條件下進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表8所示,當(dāng)z為20時(shí),在兩個(gè)子數(shù)據(jù)集上,MDKT模型的AUC平均下降1.01%、ACC平均下降0.70%、RMSE平均上升0.50%;當(dāng)z為60時(shí),在兩個(gè)子數(shù)據(jù)集上,MDKT模型的AUC平均下降0.34%、ACC平均下降0.10%、RMSE平均上升0.03%。原因是當(dāng)z過小時(shí),題目文本的語義信息不完整,導(dǎo)致模型無法準(zhǔn)確表征語義難度;而z過大時(shí),空白信息填充過多,對(duì)語義難度的提取造成了一定干擾。
通過對(duì)Cqs、Cks和z三個(gè)參數(shù)的敏感性分析,發(fā)現(xiàn)這些參數(shù)對(duì)MDKT模型性能具有重要影響。為了保證模型性能達(dá)到最優(yōu),建議將Cqs和Cks的取值設(shè)定在50~100,并將z的取值設(shè)定題目文本的平均長度附近。
3.6 消融實(shí)驗(yàn)結(jié)果
為了進(jìn)一步驗(yàn)證MDKT模型中各模塊的有效性,本文在兩個(gè)子數(shù)據(jù)集上對(duì)MDKT模型進(jìn)行了消融實(shí)驗(yàn)。消融實(shí)驗(yàn)的目的在于通過移除或替換模型中的某些組件,觀察模型性能的變化,從而評(píng)估這些組件對(duì)模型性能的貢獻(xiàn)。實(shí)驗(yàn)中共選擇了五種MDKT變體模型,每種變體模型都是在原有MDKT模型的基礎(chǔ)上刪除一種結(jié)構(gòu)組件或者用較為簡單的組件替換。具體情況如下:
a)MDKT w/o DQC,在MDKT模型中不考慮問題難度的影響。
b)MDKT w/o CDILA,用xt-h(huán)t替換原來的知識(shí)能力學(xué)習(xí)層。
c)MDKT w/o CAPAB,在MDKT模型中不考慮個(gè)性化知識(shí)能力學(xué)習(xí)層。
d)MDKT w/o PEFIN,在MDKT模型中不考慮知識(shí)狀態(tài)更新層。
e)MDKT w/o ATT,在MDKT模型中不考慮注意力池化層。
圖3展示了這些變體模型在兩個(gè)子數(shù)據(jù)集上的性能對(duì)比結(jié)果。從圖中可以看出,不考慮注意力池化層時(shí),MDKT模型性能下降最為顯著,ACC平均下降8.79%、AUC平均下降8.45%、RMSE平均上升2.61%。這是因?yàn)槎囝^注意力機(jī)制能夠使MDKT模型聚焦于當(dāng)前問題,解決相關(guān)的預(yù)測狀態(tài)部分,若缺少該機(jī)制,模型將無差別地關(guān)注預(yù)測狀態(tài),導(dǎo)致性能下降。此外,不考慮問題難度時(shí),MDKT模型性能也受到較大影響,ACC平均下降3.37%、AUC平均下降2.89%、RMSE平均上升0.29%。這說明在構(gòu)建模型時(shí)考慮問題難度的重要性。當(dāng)移除知識(shí)狀態(tài)序列更新模塊的各個(gè)部分時(shí),MDKT模型性能均出現(xiàn)下降。這是因?yàn)檫@些部分共同構(gòu)成了學(xué)習(xí)者自適應(yīng)學(xué)習(xí)的過程展示,缺少任何一個(gè)結(jié)構(gòu)組件都將影響模型的完整性。
3.7 模型應(yīng)用效果
本文將MDKT模型與知識(shí)點(diǎn)網(wǎng)絡(luò)圖相結(jié)合,構(gòu)建了挖掘?qū)W習(xí)者薄弱知識(shí)點(diǎn)的應(yīng)用原型。首先,通過MDKT模型獲取學(xué)習(xí)者對(duì)題目回答情況以及題目所涵蓋的知識(shí)點(diǎn),進(jìn)而推斷出學(xué)習(xí)者對(duì)每個(gè)知識(shí)點(diǎn)概念的掌握程度。其次,考慮知識(shí)點(diǎn)之間的空間關(guān)系以及知識(shí)點(diǎn)本身的難度,包括上位知識(shí)點(diǎn)對(duì)當(dāng)前知識(shí)點(diǎn)的影響以及當(dāng)前知識(shí)點(diǎn)對(duì)下位知識(shí)點(diǎn)的影響。最后,綜合這些因素,得出學(xué)習(xí)者對(duì)每個(gè)知識(shí)點(diǎn)的綜合掌握程度。以Project2子數(shù)據(jù)集中的測試集數(shù)據(jù)S12學(xué)習(xí)者為例,其具體的知識(shí)點(diǎn)綜合掌握情況如圖4所示。
利用學(xué)習(xí)者對(duì)每個(gè)知識(shí)點(diǎn)的綜合掌握程度,對(duì)學(xué)習(xí)者的錯(cuò)題進(jìn)行分析,找出導(dǎo)致答錯(cuò)的主要知識(shí)點(diǎn)(即錯(cuò)因知識(shí)點(diǎn))。表9展示了學(xué)習(xí)者S12的錯(cuò)題及其對(duì)應(yīng)的錯(cuò)因知識(shí)點(diǎn)。
通過對(duì)學(xué)習(xí)者的“錯(cuò)因知識(shí)點(diǎn)”進(jìn)行聚合分析,可以識(shí)別出學(xué)習(xí)者的薄弱知識(shí)點(diǎn)。圖5 展示了學(xué)習(xí)者S12的薄弱知識(shí)點(diǎn)分布情況。
根據(jù)圖5所示的學(xué)習(xí)者S12的薄弱知識(shí)點(diǎn)分布圖,可以清晰地識(shí)別出一級(jí)薄弱知識(shí)點(diǎn)和二級(jí)薄弱知識(shí)點(diǎn)。結(jié)合學(xué)習(xí)者的實(shí)際答題情況和題目所包含的知識(shí)點(diǎn)進(jìn)行分析驗(yàn)證,發(fā)現(xiàn)包含一級(jí)薄弱知識(shí)點(diǎn)的題目學(xué)習(xí)者幾乎全部答錯(cuò)。以學(xué)習(xí)者S12的k35為例,涉及該知識(shí)點(diǎn)的題目包括tilte20、title24、title25、title30等,對(duì)照學(xué)習(xí)者S12的真實(shí)答題記錄,發(fā)現(xiàn)這些題目均答錯(cuò)。進(jìn)一步對(duì)Project2子數(shù)據(jù)集中的其他學(xué)習(xí)者進(jìn)行分析也得出類似結(jié)論。此外,對(duì)二級(jí)薄弱知識(shí)點(diǎn)的分析表明,即使學(xué)習(xí)者對(duì)某些知識(shí)點(diǎn)掌握得不錯(cuò),仍可能答錯(cuò)相關(guān)題目,這可能與學(xué)習(xí)者的狀態(tài)、所處環(huán)境等其他因素有關(guān)。因此通過分析學(xué)習(xí)者的薄弱知識(shí)點(diǎn),不僅可以識(shí)別其一級(jí)薄弱知識(shí)點(diǎn)和易錯(cuò)知識(shí)點(diǎn),還能為個(gè)性化教學(xué)提供有針對(duì)性的指導(dǎo)。
4 結(jié)束語
本文提出了融入多維問題難度的知識(shí)追蹤模型MDKT,該模型利用BERT對(duì)題目文本進(jìn)行向量化處理,獲取語義信息,并結(jié)合問題難度、概念難度和認(rèn)知難度,形成多維問題難度表征;通過構(gòu)建自適應(yīng)學(xué)習(xí)模塊和采用多頭注意力機(jī)制,模擬學(xué)習(xí)者做題過程并解決預(yù)測狀態(tài)重要性不一致問題。實(shí)驗(yàn)表明,MDKT模型性能優(yōu)越,且通過消融實(shí)驗(yàn)驗(yàn)證了其結(jié)構(gòu)上的優(yōu)勢。結(jié)合知識(shí)點(diǎn)網(wǎng)絡(luò)圖,計(jì)算出學(xué)習(xí)者對(duì)知識(shí)點(diǎn)的綜合掌握程度,成功挖掘出薄弱知識(shí)點(diǎn),為個(gè)性化補(bǔ)救教學(xué)實(shí)施提供支持。未來研究將從更多的視角挖掘出問題難度的層次,從考慮問題難度層次之間的重要性和相互作用中實(shí)現(xiàn)問題難度層次的融合創(chuàng)新,在自適應(yīng)學(xué)習(xí)模塊中通過問題難度推斷出學(xué)習(xí)者在作答過程中的失誤、猜測等因素,并探究這些因素如何融入到自適應(yīng)學(xué)習(xí)模塊,增加模型應(yīng)用場景的多元性。
參考文獻(xiàn):
[1]李曉光, 魏思齊, 張昕, 等. LFKT: 學(xué)習(xí)與遺忘融合的深度知識(shí)追蹤模型 [J]. 軟件學(xué)報(bào), 2021, 32(3): 818-830. (Li Xiao-guang, Wei Siqi, Zhang Xin, et al. LFKT: deep knowledge tracing model with learning and forgetting behavior merging [J]. Journal of Software, 2021, 32(3): 818-830.)
[2]馬驍睿, 徐圓, 朱群雄. 一種結(jié)合深度知識(shí)追蹤的個(gè)性化習(xí)題推薦方法 [J]. 小型微型計(jì)算機(jī)系統(tǒng), 2020, 41(5): 990-995. (Ma Xiaorui, Xu Yuan, Zhu Qunxiong. Personalized exercises recommendation method based on deep knowledge tracing [J]. Journal of Chinese Computer Systems, 2020, 41(5): 990-995.)
[3]李建偉, 武佳惠, 姬艷麗. 面向自適應(yīng)學(xué)習(xí)的個(gè)性化學(xué)習(xí)路徑推薦 [J]. 現(xiàn)代教育技術(shù), 2023, 33(1):108-117. (Li Jianwei, Wu Jiahui, Ji Yanli. Personalized learning path recommendation oriented to adaptive learning [J]. Modern Educational Technology, 2023, 33(1): 108-117.)
[4]劉放, 徐行健, 孟繁軍, 等. 大規(guī)模測評(píng)數(shù)據(jù)驅(qū)動(dòng)的個(gè)性化評(píng)價(jià)模型設(shè)計(jì)與實(shí)施 [J]. 計(jì)算機(jī)教育, 2022 (4): 138-144. (Liu Fang, Xu Xingjian, Meng Fanjun, et al. Design and implementation of personalized evaluation model driven by large-scale assessment data [J]. Computer Education, 2022 (4): 138-144.)
[5]鄭佩蕓. 基于深度知識(shí)追蹤的大學(xué)英語智適應(yīng)學(xué)習(xí)系統(tǒng)構(gòu)建初探 [J]. 外語電化教學(xué), 2023 (1): 53-56, 112. (Zheng Peiyun. A preliminary study on the construction of a smart adaptive learning system for college English using deep knowledge tracing [J]. Computer Assisted Foreign Language Education in China, 2023 (1): 53-56, 112.)
[6]Corbett A T, Anderson J R. Knowledge tracing: modeling the acquisition of procedural knowledge [J]. User Modeling and User-adapted Interaction, 1994, 4(4): 253-278.
[7]Pavlik Jr P I, Cen H, Koedinger K R. Performance factors analysis—a new alternative to knowledge tracing [J]. Online Submission, 2009, 15(3): 513-521.
[8]Piech C, Bassen J, Huang J, et al. Deep knowledge tracing [C]// Proc of the 29th Annual Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2015: 505-513.
[9]Zhang J, Shi X, King I, et al. Dynamic key-value memory networks for knowledge tracing [C]// Proc of the 26th International Confe-rence on World Wide Web. 2017: 765-774.
[10]張凱, 付姿姿, 紀(jì)濤. 習(xí)題內(nèi)外表示異質(zhì)融合的知識(shí)追蹤模型 [J]. 計(jì)算機(jī)應(yīng)用研究,2024,41(3):764-771. (Zhang Kai, Fu Zizi, Ji Tao. Knowledge tracing via heterogeneous fusion of exercise internal and external representations [J]. Application Research of Computers, 2024,41(3):764-771.)
[11]Pandey S, Karypis G. A self-attentive model for knowledge tracing [C]// Proc of the 12th International Conference on Educational Data Mining. 2019: 384-389.
[12]張鵬, 文磊. F-TCKT: 融合遺忘因素的深度時(shí)序卷積知識(shí)追蹤模型 [J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(4): 1070-1074. (Zhang Peng, Wen Lei. F-TCKT: deep temporal convolutional knowledge [J]. Application Research of Computers, 2023, 40(4): 1070-1074.)
[13]Kn?uper B, Belli R F, Hill D H, et al. Question difficulty and respondents’ cognitive ability: the effect on data quality [J]. Journal of Official Statistics, 1997, 13: 181-199.
[14]Lomas D, Patel K, Forlizzi J L, et al. Optimizing challenge in an educational game using large-scale design experiments [C]// Proc of SIGCHI Conference on Human Factors in Computing Systems. 2013: 89-98.
[15]Beck J, Stern M, Woolf B P. Using the student model to control problem difficulty [C]// Proc of the 6th International Conference on User Modeling. Vienna: Springer, 1997: 277-288.
[16]Padó U. Question difficulty-how to estimate without norming, how to use for automated grading [C]// Proc of the 12th Workshop on Innovative Use of NLP for Building Educational Applications. 2017: 1-10.
[17]Liu Qi, Huang Zhenya, Yin Yu, et al. EKT: exercise-aware know-ledge tracing for student performance prediction [J]. IEEE Trans on Knowledge and Data Engineering, 2019, 33(1): 100-115.
[18]Pandey S, Srivastava J. RKT: relation-aware self-attention for know-ledge tracing [C]// Proc of the 29th ACM International Conference on Information amp; Knowledge Management. New York:ACM Press, 2020: 1205-1214.
[19]Ghosh A, Heffernan N, Lan A S. Context-aware attentive knowledge tracing [C]// Proc of the 26th ACM SIGKDD International Confe-rence on Knowledge Discovery amp; Data Mining. New York:ACM Press, 2020: 2330-2339.
[20]Van Der Linden W J, Hambleton R K. Item response theory: brief history, common models, and extensions [M]// Handbook of Modern Item Response Theory. New York: Springer, 1997: 1-28.
[21]Zhang Moyu, Zhu Xining, Zhang Chunhong, et al. Multi-factors aware dual-attentional knowledge tracing [C]// Proc of the 30th ACM International Conference on Information amp; Knowledge Management. New York:ACM Press, 2021: 2588-2597.
[22]Shen Shuanghong, Huang Zhenya, Liu Qi, et al. Assessing student’s dynamic knowledge state by exploring the question difficulty effect [C]// Proc of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press, 2022: 427-437.
[23]王士進(jìn), 吳金澤, 張浩天,等. 可信的端到端深度學(xué)生知識(shí)畫像建模方法 [J]. 計(jì)算機(jī)研究與發(fā)展, 2023, 60(8): 1822-1833. (Wang Shijin, Wu Jinze, Zhang Haotian, et al. Trustworthy end-to-end deep student knowledge portrait modelling method [J]. Journal of Computer Research and Development, 2023, 60(8): 1822-1833.)
[24]Abdelrahman G, Wang Qing. Knowledge tracing with sequential key-value memory networks [C]// Proc of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. 2019: 175-184.
[25]王璨, 劉朝暉, 王蓓, 等. TCN-KT: 個(gè)人基礎(chǔ)與遺忘融合的時(shí)間卷積知識(shí)追蹤模型 [J]. 計(jì)算機(jī)應(yīng)用研究, 2022, 39(5): 1496-1500. (Wang Can, Liu Zhaohui, Wang Bei, et al. TCN-KT: temporal convolutional knowledge tracking model based on fusion of personal basis and forgetting [J]. Application Research of Computers, 2022, 39(5): 1496-1500.
[26]李曉光, 魏思齊, 張昕, 等. LFKT: 學(xué)習(xí)與遺忘融合的深度知識(shí)追蹤模型 [J]. 軟件學(xué)報(bào), 2021, 32(3): 818-830. (Li Xiao-guang, Wei Siqi, Zhang Xin, et al. LFKT: deep knowledge tracing model with learning and forgetting behavior merging [J]. Journal of Software, 2021, 32(3): 818-830.)
[27]Shen Shuanghong, Liu Qi, Chen Enhong, et al. Learning process-consistent knowledge tracing [C]// Proc of the 27th ACM SIGKDD Conference on Knowledge Discovery amp; Data Mining. New York:ACM Press, 2021: 1452-1460.
[28]Su Yu, Liu Qingwen, Liu Qi, et al. Exercise-enhanced sequential modeling for student performance prediction [C]// Proc of the 32nd AAAI Conference on Artificial Intelligence and the 30th Innovative Applications of Artificial Intelligence Conference and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 2435-2443.
[29]梁祥, 劉夢(mèng)赤, 胡婕,等. 融合習(xí)題難度和作答經(jīng)驗(yàn)的深度知識(shí)追蹤模型 [J]. 華南師范大學(xué)學(xué)報(bào):自然科學(xué)版, 2023, 55(4): 81-86. (Liang Xiang, Liu Mengchi, Hu Jie, et al. Deep knowledge tracing model by integrating problem difficulty and answering experience [J]. Journal of South China Normal University:Natural Science Edition, 2023, 55(4): 81-86.)
[30]Krathwohl D R. A revision of Bloom’s taxonomy: an overview [J]. Theory into Practice, 2002, 41(4): 212-218.
[31]Yeung C K, Yeung D Y. Addressing two problems in deep know-ledge tracing via prediction-consistent regularization [C]// Proc of the 5th Annual ACM Conference on Learning at Scale. New York:ACM Press, 2018: 1-10.
[32]Shen Shuanghong, Liu Qi, Chen Enhong, et al. Convolutional knowledge tracing: modeling individualization in student learning process [C]// Proc of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. New York:ACM Press, 2020: 1857-1860.