鄒曉輝
3結束語
Logistic回歸是最基本的分類算法之一,算法簡單且時間復雜度低,適合解決線性分類問題。機器學習中有“Occam's Razor”原理,即“簡單有效原理”。如果能用簡單模型解決問題,則不使用更復雜模型。當代數(shù)據(jù)科學是涵蓋了統(tǒng)計學、數(shù)學、信息學、優(yōu)化理論以及其它各門學科在內的交叉學科,要從大量數(shù)據(jù)中挖掘出有用的知識和模式,非常重要的一個問題是數(shù)據(jù)的預處理。從數(shù)據(jù)中提取有用特征,去除冗余信息和噪聲,進行特征選擇[5-6]、特征組合、特征降維、特征映射、特征表示等,統(tǒng)計學習算法和模型就是建立在數(shù)據(jù)的特征維度上。高效的目標函數(shù)優(yōu)化算法也是數(shù)據(jù)建模領域的重要研究方向。
[J(下轉第143頁)
參考文獻:[HT]
劉紅巖, 陳劍, 陳國青. 數(shù)據(jù)挖掘中的數(shù)據(jù)分類算法綜述[J]. 清華大學學報(自然科學版), 2002, 42(6):727-730.
[2] 李航. 統(tǒng)計學習方法[M]. 北京: 清華大學出版社, 2012.
[3] 約翰·內特. 應用線性回歸模型[M]. 北京: 中國統(tǒng)計出版社, 1990.
[4] 王濟川. Logistic回歸模型:方法與應用[M]. 北京: 高等教育出版社, 2001.
[5] 姜百寧. 機器學習中的特征選擇算法研究[D]. 青島: 中國海洋大學, 2009.
[6] 陳鐵明,馬繼霞,HUANG S H. 一種新的快速特征選擇和數(shù)據(jù)分類方法[J]. 計算機研究與發(fā)展, 2012, 49(4):735-745.