王建偉等
摘 要:引入ID3算法的大學(xué)生體育訓(xùn)練決策支持系統(tǒng)可以根據(jù)學(xué)生的特征對其分類。而傳統(tǒng)的決策樹ID3算法存在多值傾向的問題,選擇分裂屬性不符合客觀事實(shí)。本文運(yùn)用了一種基于灰色關(guān)聯(lián)度的修正因子屬性選擇方法予以改進(jìn),克服了傳統(tǒng)ID3算法的不足,改進(jìn)的ID3算法可使分類更加精確,更好的為大學(xué)生體育訓(xùn)練提供決策支持。
關(guān)鍵詞:ID3算法 決策支持系統(tǒng) 數(shù)據(jù)挖掘 灰色關(guān)聯(lián)度
中圖分類號:G434 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-098X(2014)02(a)-0019-01
大學(xué)生體育訓(xùn)練決策支持系統(tǒng)是隨著人工智能理論與數(shù)據(jù)挖掘技術(shù)的發(fā)展而不斷發(fā)展的,通過對大學(xué)生身體素質(zhì)和訓(xùn)練等數(shù)據(jù)來進(jìn)行有效的挖掘,產(chǎn)生用于輔助決策的規(guī)則,進(jìn)而為大學(xué)生體育訓(xùn)練制定相應(yīng)的訓(xùn)練方案[1]。系統(tǒng)中應(yīng)用了數(shù)據(jù)挖掘的決策樹ID3算法對不同特征的學(xué)生進(jìn)行分類,但傳統(tǒng)的ID3算法存在多值傾向的問題,選擇分裂屬性不符合客觀事實(shí),同時(shí),在構(gòu)造樹的過程中,需要多次自上而下對數(shù)據(jù)集的排序和掃描,因而導(dǎo)致算法的處理效率較低[2],如何改進(jìn)算法從而使分類更加精確是我們亟需解決的問題。
1 ID3算法的改進(jìn)
灰色關(guān)聯(lián)分析是指對一個(gè)系統(tǒng)發(fā)展變化態(tài)勢的定量描述和比較的方法,分析考慮了各因素之間的相關(guān)性,比系統(tǒng)分析中常用的因素兩兩對比法要更合理,更科學(xué)[3]。同時(shí)考慮到正弦函數(shù)的曲線變化比較緩和,對信息增益因子修正不會(huì)出現(xiàn)過度的問題。因此,本文引入灰色關(guān)聯(lián)度的正弦值作為ID3算法的修正因子進(jìn)行改進(jìn)。改進(jìn)的ID3算法的具體流程是:
(1)計(jì)算各特征屬性與類別屬性之間的灰色關(guān)聯(lián)度,并將它們排序;
(2)對取值較多的屬性通過灰色關(guān)聯(lián)度來判斷是否最優(yōu),從而確定是否降低它的信息增益;
(3)對取值較多但灰色關(guān)聯(lián)度低的屬性,在計(jì)算其信息增益時(shí)通過灰色關(guān)聯(lián)度的正弦值作為修正因子,而其它屬性計(jì)算信息增益時(shí)修正因子設(shè)為0。
改進(jìn)的ID3算法的描述如下:
算法:GBID(Sample_set,Attribute_set)
輸入:由多個(gè)屬性描述的訓(xùn)練樣本集Sample_set;候選屬性集Attribute_set。
輸出:一棵決策樹。
Begin
如果 Sample_set為空
則返回null;創(chuàng)建結(jié)點(diǎn)L;
如果結(jié)點(diǎn)L中的所有樣本均屬于同一類C
則返回L作為葉結(jié)點(diǎn),并以類C為標(biāo)記;
如果Attribute_set為空
則返回L作為葉結(jié)點(diǎn),并以Sample_set中最普通的類標(biāo)記;
計(jì)算出Attribute_set中每個(gè)屬性的信息增益,并選擇出信息增益最大的屬性A和取值個(gè)數(shù)最多的屬性B
如果 A=B,該條件成立說明選擇信息增益最大和取值個(gè)數(shù)最多的屬性作為測試屬性易產(chǎn)生多值偏向問題,需要用修正因子降低該屬性的信息增益
則根據(jù)公式
屬性A具有多值傾向是其它來計(jì)算該屬性的修正因子;
再根據(jù)公式重新計(jì)算該屬性的信息增益;
否則該屬性的修正系數(shù)為0,信息增益最大的屬性不是取值個(gè)數(shù)最多屬性,選擇該屬性作為分裂屬性不會(huì)產(chǎn)生多值偏向問題,不需要用修正系數(shù)降低該屬信息增益
從Attribute_set中選擇出信息增益最大的屬性Splitting_Attribute作為分裂屬性;
標(biāo)記結(jié)點(diǎn)L為Splitting _Attribute;
For Each Splitting_Attribute中的已知;
m為Splitting_Attribute的取值個(gè)數(shù)∥根據(jù)Splitting_Attribute的取值劃分Sample_set
根據(jù)Splitting_Attribute=,從結(jié)點(diǎn)L產(chǎn)生相應(yīng)分支表示測試條件;
設(shè)為Splitting_Attribute=所獲得的樣本集;
如果為空
則加上一個(gè)葉結(jié)點(diǎn),并標(biāo)記為Sample_set中最普通的類;
否則加上GBID(Attribute_set,Splitting _Attribute)返回的結(jié)點(diǎn);
End。
2 改進(jìn)后的ID3算法的應(yīng)用
我們選取十個(gè)學(xué)生的籃球訓(xùn)練樣本集作說明,每個(gè)學(xué)生有四個(gè)屬性,分別為力量、身高、靈活性、速度。每條學(xué)生記錄為(學(xué)號 力量 身高 靈活性 速度 評價(jià)),十條學(xué)生記錄為(20100001強(qiáng)高好慢Y),(20100002強(qiáng)高好塊Y),(20100003強(qiáng)矮好慢Y),(20100004強(qiáng)中一般慢N),(20100005弱中差慢N),(20100006弱中差塊N),(20100007弱矮差快N),(20100008強(qiáng)高一般慢Y),(20100009弱高差慢N),(20100010弱中一般慢N)。力量為強(qiáng)、弱,量化為{0,1};身高為高、中、矮分別量化為{0,1,2};靈活性為好、一般、差分別量化為{0,1,2};速度為快、慢量化為{0,1}。根據(jù)訓(xùn)練集樣本數(shù)據(jù),依次根據(jù)公式計(jì)算各特征屬性與分類屬性的灰色關(guān)聯(lián)度,結(jié)果為r(力量)=0.52,r(身高)=0.72,r(靈活性)=0.78,r(速度)=0.56,然后計(jì)算上述屬性信息增益,可得Gain(力量)=0.4816,Gain(身高)=0.0275,Gain(靈活性)=0.0588,Gain(速度)=0.0368,因?yàn)榱α康男畔⒃鲆孀畲?、取值個(gè)數(shù)最多但灰色關(guān)聯(lián)度最低,所以需要用修正因子降低其信息增益,設(shè)定修正因子CF(力量)為sin(0.52)=0.4968,而其它屬性的信息增益設(shè)定為0,則改進(jìn)的ID3算法算得的Gain(力量)=-0.2196。因而會(huì)選擇信息增益最大的靈活性作為分裂屬性。
從上面實(shí)例可知,ID3算法確定決策樹的根節(jié)點(diǎn)時(shí),選擇信息增益最大的力量作為分裂屬性,顯然這與客觀事實(shí)不符。而改進(jìn)的ID3算法在確定根節(jié)點(diǎn)時(shí),選擇靈活性作為分裂屬性,符合客觀事實(shí),避免了多值但非最優(yōu)屬性的力量成為分裂屬性。
3 結(jié)語
改進(jìn)的ID3算法避免了傳統(tǒng)算法的多值傾向問題,使分類更加精確。首先,通過訓(xùn)練集總結(jié)出學(xué)生分類模型,通過上述模型我們可以對新加入的學(xué)生進(jìn)行預(yù)測,然后再將不同的學(xué)生根據(jù)模型添加到不同的類型中。把不同學(xué)生的特征存入了相應(yīng)的用戶庫之后,教師可以通過它及時(shí)地了解學(xué)生的信息,并以此為依據(jù)為不同的學(xué)生提供不同的教學(xué)策略的決策支持。
參考文獻(xiàn)
[1] 王鑫,王建偉,鐘玉峰,等.個(gè)性化遠(yuǎn)程教學(xué)平臺中數(shù)據(jù)挖掘技術(shù)的應(yīng)用[J].黑龍江工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2010(24):72-74.
[2] 孫衛(wèi)強(qiáng).決策樹方法在遠(yuǎn)程教育輔助教學(xué)中的應(yīng)用研究[D].中山大學(xué),2010:22-25.
[3] 葉明全,胡學(xué)鋼.一種基于灰色關(guān)聯(lián)度的決策樹改進(jìn)算法[J].2007,43(32):171-173.
摘 要:引入ID3算法的大學(xué)生體育訓(xùn)練決策支持系統(tǒng)可以根據(jù)學(xué)生的特征對其分類。而傳統(tǒng)的決策樹ID3算法存在多值傾向的問題,選擇分裂屬性不符合客觀事實(shí)。本文運(yùn)用了一種基于灰色關(guān)聯(lián)度的修正因子屬性選擇方法予以改進(jìn),克服了傳統(tǒng)ID3算法的不足,改進(jìn)的ID3算法可使分類更加精確,更好的為大學(xué)生體育訓(xùn)練提供決策支持。
關(guān)鍵詞:ID3算法 決策支持系統(tǒng) 數(shù)據(jù)挖掘 灰色關(guān)聯(lián)度
中圖分類號:G434 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-098X(2014)02(a)-0019-01
大學(xué)生體育訓(xùn)練決策支持系統(tǒng)是隨著人工智能理論與數(shù)據(jù)挖掘技術(shù)的發(fā)展而不斷發(fā)展的,通過對大學(xué)生身體素質(zhì)和訓(xùn)練等數(shù)據(jù)來進(jìn)行有效的挖掘,產(chǎn)生用于輔助決策的規(guī)則,進(jìn)而為大學(xué)生體育訓(xùn)練制定相應(yīng)的訓(xùn)練方案[1]。系統(tǒng)中應(yīng)用了數(shù)據(jù)挖掘的決策樹ID3算法對不同特征的學(xué)生進(jìn)行分類,但傳統(tǒng)的ID3算法存在多值傾向的問題,選擇分裂屬性不符合客觀事實(shí),同時(shí),在構(gòu)造樹的過程中,需要多次自上而下對數(shù)據(jù)集的排序和掃描,因而導(dǎo)致算法的處理效率較低[2],如何改進(jìn)算法從而使分類更加精確是我們亟需解決的問題。
1 ID3算法的改進(jìn)
灰色關(guān)聯(lián)分析是指對一個(gè)系統(tǒng)發(fā)展變化態(tài)勢的定量描述和比較的方法,分析考慮了各因素之間的相關(guān)性,比系統(tǒng)分析中常用的因素兩兩對比法要更合理,更科學(xué)[3]。同時(shí)考慮到正弦函數(shù)的曲線變化比較緩和,對信息增益因子修正不會(huì)出現(xiàn)過度的問題。因此,本文引入灰色關(guān)聯(lián)度的正弦值作為ID3算法的修正因子進(jìn)行改進(jìn)。改進(jìn)的ID3算法的具體流程是:
(1)計(jì)算各特征屬性與類別屬性之間的灰色關(guān)聯(lián)度,并將它們排序;
(2)對取值較多的屬性通過灰色關(guān)聯(lián)度來判斷是否最優(yōu),從而確定是否降低它的信息增益;
(3)對取值較多但灰色關(guān)聯(lián)度低的屬性,在計(jì)算其信息增益時(shí)通過灰色關(guān)聯(lián)度的正弦值作為修正因子,而其它屬性計(jì)算信息增益時(shí)修正因子設(shè)為0。
改進(jìn)的ID3算法的描述如下:
算法:GBID(Sample_set,Attribute_set)
輸入:由多個(gè)屬性描述的訓(xùn)練樣本集Sample_set;候選屬性集Attribute_set。
輸出:一棵決策樹。
Begin
如果 Sample_set為空
則返回null;創(chuàng)建結(jié)點(diǎn)L;
如果結(jié)點(diǎn)L中的所有樣本均屬于同一類C
則返回L作為葉結(jié)點(diǎn),并以類C為標(biāo)記;
如果Attribute_set為空
則返回L作為葉結(jié)點(diǎn),并以Sample_set中最普通的類標(biāo)記;
計(jì)算出Attribute_set中每個(gè)屬性的信息增益,并選擇出信息增益最大的屬性A和取值個(gè)數(shù)最多的屬性B
如果 A=B,該條件成立說明選擇信息增益最大和取值個(gè)數(shù)最多的屬性作為測試屬性易產(chǎn)生多值偏向問題,需要用修正因子降低該屬性的信息增益
則根據(jù)公式
屬性A具有多值傾向是其它來計(jì)算該屬性的修正因子;
再根據(jù)公式重新計(jì)算該屬性的信息增益;
否則該屬性的修正系數(shù)為0,信息增益最大的屬性不是取值個(gè)數(shù)最多屬性,選擇該屬性作為分裂屬性不會(huì)產(chǎn)生多值偏向問題,不需要用修正系數(shù)降低該屬信息增益
從Attribute_set中選擇出信息增益最大的屬性Splitting_Attribute作為分裂屬性;
標(biāo)記結(jié)點(diǎn)L為Splitting _Attribute;
For Each Splitting_Attribute中的已知;
m為Splitting_Attribute的取值個(gè)數(shù)∥根據(jù)Splitting_Attribute的取值劃分Sample_set
根據(jù)Splitting_Attribute=,從結(jié)點(diǎn)L產(chǎn)生相應(yīng)分支表示測試條件;
設(shè)為Splitting_Attribute=所獲得的樣本集;
如果為空
則加上一個(gè)葉結(jié)點(diǎn),并標(biāo)記為Sample_set中最普通的類;
否則加上GBID(Attribute_set,Splitting _Attribute)返回的結(jié)點(diǎn);
End。
2 改進(jìn)后的ID3算法的應(yīng)用
我們選取十個(gè)學(xué)生的籃球訓(xùn)練樣本集作說明,每個(gè)學(xué)生有四個(gè)屬性,分別為力量、身高、靈活性、速度。每條學(xué)生記錄為(學(xué)號 力量 身高 靈活性 速度 評價(jià)),十條學(xué)生記錄為(20100001強(qiáng)高好慢Y),(20100002強(qiáng)高好塊Y),(20100003強(qiáng)矮好慢Y),(20100004強(qiáng)中一般慢N),(20100005弱中差慢N),(20100006弱中差塊N),(20100007弱矮差快N),(20100008強(qiáng)高一般慢Y),(20100009弱高差慢N),(20100010弱中一般慢N)。力量為強(qiáng)、弱,量化為{0,1};身高為高、中、矮分別量化為{0,1,2};靈活性為好、一般、差分別量化為{0,1,2};速度為快、慢量化為{0,1}。根據(jù)訓(xùn)練集樣本數(shù)據(jù),依次根據(jù)公式計(jì)算各特征屬性與分類屬性的灰色關(guān)聯(lián)度,結(jié)果為r(力量)=0.52,r(身高)=0.72,r(靈活性)=0.78,r(速度)=0.56,然后計(jì)算上述屬性信息增益,可得Gain(力量)=0.4816,Gain(身高)=0.0275,Gain(靈活性)=0.0588,Gain(速度)=0.0368,因?yàn)榱α康男畔⒃鲆孀畲?、取值個(gè)數(shù)最多但灰色關(guān)聯(lián)度最低,所以需要用修正因子降低其信息增益,設(shè)定修正因子CF(力量)為sin(0.52)=0.4968,而其它屬性的信息增益設(shè)定為0,則改進(jìn)的ID3算法算得的Gain(力量)=-0.2196。因而會(huì)選擇信息增益最大的靈活性作為分裂屬性。
從上面實(shí)例可知,ID3算法確定決策樹的根節(jié)點(diǎn)時(shí),選擇信息增益最大的力量作為分裂屬性,顯然這與客觀事實(shí)不符。而改進(jìn)的ID3算法在確定根節(jié)點(diǎn)時(shí),選擇靈活性作為分裂屬性,符合客觀事實(shí),避免了多值但非最優(yōu)屬性的力量成為分裂屬性。
3 結(jié)語
改進(jìn)的ID3算法避免了傳統(tǒng)算法的多值傾向問題,使分類更加精確。首先,通過訓(xùn)練集總結(jié)出學(xué)生分類模型,通過上述模型我們可以對新加入的學(xué)生進(jìn)行預(yù)測,然后再將不同的學(xué)生根據(jù)模型添加到不同的類型中。把不同學(xué)生的特征存入了相應(yīng)的用戶庫之后,教師可以通過它及時(shí)地了解學(xué)生的信息,并以此為依據(jù)為不同的學(xué)生提供不同的教學(xué)策略的決策支持。
參考文獻(xiàn)
[1] 王鑫,王建偉,鐘玉峰,等.個(gè)性化遠(yuǎn)程教學(xué)平臺中數(shù)據(jù)挖掘技術(shù)的應(yīng)用[J].黑龍江工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2010(24):72-74.
[2] 孫衛(wèi)強(qiáng).決策樹方法在遠(yuǎn)程教育輔助教學(xué)中的應(yīng)用研究[D].中山大學(xué),2010:22-25.
[3] 葉明全,胡學(xué)鋼.一種基于灰色關(guān)聯(lián)度的決策樹改進(jìn)算法[J].2007,43(32):171-173.
摘 要:引入ID3算法的大學(xué)生體育訓(xùn)練決策支持系統(tǒng)可以根據(jù)學(xué)生的特征對其分類。而傳統(tǒng)的決策樹ID3算法存在多值傾向的問題,選擇分裂屬性不符合客觀事實(shí)。本文運(yùn)用了一種基于灰色關(guān)聯(lián)度的修正因子屬性選擇方法予以改進(jìn),克服了傳統(tǒng)ID3算法的不足,改進(jìn)的ID3算法可使分類更加精確,更好的為大學(xué)生體育訓(xùn)練提供決策支持。
關(guān)鍵詞:ID3算法 決策支持系統(tǒng) 數(shù)據(jù)挖掘 灰色關(guān)聯(lián)度
中圖分類號:G434 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-098X(2014)02(a)-0019-01
大學(xué)生體育訓(xùn)練決策支持系統(tǒng)是隨著人工智能理論與數(shù)據(jù)挖掘技術(shù)的發(fā)展而不斷發(fā)展的,通過對大學(xué)生身體素質(zhì)和訓(xùn)練等數(shù)據(jù)來進(jìn)行有效的挖掘,產(chǎn)生用于輔助決策的規(guī)則,進(jìn)而為大學(xué)生體育訓(xùn)練制定相應(yīng)的訓(xùn)練方案[1]。系統(tǒng)中應(yīng)用了數(shù)據(jù)挖掘的決策樹ID3算法對不同特征的學(xué)生進(jìn)行分類,但傳統(tǒng)的ID3算法存在多值傾向的問題,選擇分裂屬性不符合客觀事實(shí),同時(shí),在構(gòu)造樹的過程中,需要多次自上而下對數(shù)據(jù)集的排序和掃描,因而導(dǎo)致算法的處理效率較低[2],如何改進(jìn)算法從而使分類更加精確是我們亟需解決的問題。
1 ID3算法的改進(jìn)
灰色關(guān)聯(lián)分析是指對一個(gè)系統(tǒng)發(fā)展變化態(tài)勢的定量描述和比較的方法,分析考慮了各因素之間的相關(guān)性,比系統(tǒng)分析中常用的因素兩兩對比法要更合理,更科學(xué)[3]。同時(shí)考慮到正弦函數(shù)的曲線變化比較緩和,對信息增益因子修正不會(huì)出現(xiàn)過度的問題。因此,本文引入灰色關(guān)聯(lián)度的正弦值作為ID3算法的修正因子進(jìn)行改進(jìn)。改進(jìn)的ID3算法的具體流程是:
(1)計(jì)算各特征屬性與類別屬性之間的灰色關(guān)聯(lián)度,并將它們排序;
(2)對取值較多的屬性通過灰色關(guān)聯(lián)度來判斷是否最優(yōu),從而確定是否降低它的信息增益;
(3)對取值較多但灰色關(guān)聯(lián)度低的屬性,在計(jì)算其信息增益時(shí)通過灰色關(guān)聯(lián)度的正弦值作為修正因子,而其它屬性計(jì)算信息增益時(shí)修正因子設(shè)為0。
改進(jìn)的ID3算法的描述如下:
算法:GBID(Sample_set,Attribute_set)
輸入:由多個(gè)屬性描述的訓(xùn)練樣本集Sample_set;候選屬性集Attribute_set。
輸出:一棵決策樹。
Begin
如果 Sample_set為空
則返回null;創(chuàng)建結(jié)點(diǎn)L;
如果結(jié)點(diǎn)L中的所有樣本均屬于同一類C
則返回L作為葉結(jié)點(diǎn),并以類C為標(biāo)記;
如果Attribute_set為空
則返回L作為葉結(jié)點(diǎn),并以Sample_set中最普通的類標(biāo)記;
計(jì)算出Attribute_set中每個(gè)屬性的信息增益,并選擇出信息增益最大的屬性A和取值個(gè)數(shù)最多的屬性B
如果 A=B,該條件成立說明選擇信息增益最大和取值個(gè)數(shù)最多的屬性作為測試屬性易產(chǎn)生多值偏向問題,需要用修正因子降低該屬性的信息增益
則根據(jù)公式
屬性A具有多值傾向是其它來計(jì)算該屬性的修正因子;
再根據(jù)公式重新計(jì)算該屬性的信息增益;
否則該屬性的修正系數(shù)為0,信息增益最大的屬性不是取值個(gè)數(shù)最多屬性,選擇該屬性作為分裂屬性不會(huì)產(chǎn)生多值偏向問題,不需要用修正系數(shù)降低該屬信息增益
從Attribute_set中選擇出信息增益最大的屬性Splitting_Attribute作為分裂屬性;
標(biāo)記結(jié)點(diǎn)L為Splitting _Attribute;
For Each Splitting_Attribute中的已知;
m為Splitting_Attribute的取值個(gè)數(shù)∥根據(jù)Splitting_Attribute的取值劃分Sample_set
根據(jù)Splitting_Attribute=,從結(jié)點(diǎn)L產(chǎn)生相應(yīng)分支表示測試條件;
設(shè)為Splitting_Attribute=所獲得的樣本集;
如果為空
則加上一個(gè)葉結(jié)點(diǎn),并標(biāo)記為Sample_set中最普通的類;
否則加上GBID(Attribute_set,Splitting _Attribute)返回的結(jié)點(diǎn);
End。
2 改進(jìn)后的ID3算法的應(yīng)用
我們選取十個(gè)學(xué)生的籃球訓(xùn)練樣本集作說明,每個(gè)學(xué)生有四個(gè)屬性,分別為力量、身高、靈活性、速度。每條學(xué)生記錄為(學(xué)號 力量 身高 靈活性 速度 評價(jià)),十條學(xué)生記錄為(20100001強(qiáng)高好慢Y),(20100002強(qiáng)高好塊Y),(20100003強(qiáng)矮好慢Y),(20100004強(qiáng)中一般慢N),(20100005弱中差慢N),(20100006弱中差塊N),(20100007弱矮差快N),(20100008強(qiáng)高一般慢Y),(20100009弱高差慢N),(20100010弱中一般慢N)。力量為強(qiáng)、弱,量化為{0,1};身高為高、中、矮分別量化為{0,1,2};靈活性為好、一般、差分別量化為{0,1,2};速度為快、慢量化為{0,1}。根據(jù)訓(xùn)練集樣本數(shù)據(jù),依次根據(jù)公式計(jì)算各特征屬性與分類屬性的灰色關(guān)聯(lián)度,結(jié)果為r(力量)=0.52,r(身高)=0.72,r(靈活性)=0.78,r(速度)=0.56,然后計(jì)算上述屬性信息增益,可得Gain(力量)=0.4816,Gain(身高)=0.0275,Gain(靈活性)=0.0588,Gain(速度)=0.0368,因?yàn)榱α康男畔⒃鲆孀畲?、取值個(gè)數(shù)最多但灰色關(guān)聯(lián)度最低,所以需要用修正因子降低其信息增益,設(shè)定修正因子CF(力量)為sin(0.52)=0.4968,而其它屬性的信息增益設(shè)定為0,則改進(jìn)的ID3算法算得的Gain(力量)=-0.2196。因而會(huì)選擇信息增益最大的靈活性作為分裂屬性。
從上面實(shí)例可知,ID3算法確定決策樹的根節(jié)點(diǎn)時(shí),選擇信息增益最大的力量作為分裂屬性,顯然這與客觀事實(shí)不符。而改進(jìn)的ID3算法在確定根節(jié)點(diǎn)時(shí),選擇靈活性作為分裂屬性,符合客觀事實(shí),避免了多值但非最優(yōu)屬性的力量成為分裂屬性。
3 結(jié)語
改進(jìn)的ID3算法避免了傳統(tǒng)算法的多值傾向問題,使分類更加精確。首先,通過訓(xùn)練集總結(jié)出學(xué)生分類模型,通過上述模型我們可以對新加入的學(xué)生進(jìn)行預(yù)測,然后再將不同的學(xué)生根據(jù)模型添加到不同的類型中。把不同學(xué)生的特征存入了相應(yīng)的用戶庫之后,教師可以通過它及時(shí)地了解學(xué)生的信息,并以此為依據(jù)為不同的學(xué)生提供不同的教學(xué)策略的決策支持。
參考文獻(xiàn)
[1] 王鑫,王建偉,鐘玉峰,等.個(gè)性化遠(yuǎn)程教學(xué)平臺中數(shù)據(jù)挖掘技術(shù)的應(yīng)用[J].黑龍江工程學(xué)院學(xué)報(bào)(自然科學(xué)版),2010(24):72-74.
[2] 孫衛(wèi)強(qiáng).決策樹方法在遠(yuǎn)程教育輔助教學(xué)中的應(yīng)用研究[D].中山大學(xué),2010:22-25.
[3] 葉明全,胡學(xué)鋼.一種基于灰色關(guān)聯(lián)度的決策樹改進(jìn)算法[J].2007,43(32):171-173.