王國(guó)慶 李克祥 鄭國(guó)華 邵衛(wèi)華 夏文培
摘要:利用(基于保持稀疏重構(gòu)的半監(jiān)督字典學(xué)習(xí))中學(xué)習(xí)得到的字典,得到區(qū)域的稀疏編碼系數(shù),用該系數(shù)作為特征能夠有效地區(qū)分目標(biāo)間的形狀差異。由于SVM在分類過程中需要計(jì)算測(cè)試樣本與所有支持向量之間的核函數(shù),故實(shí)時(shí)性較差。所以采用基于正則化的集成線性SVM分類方法,既實(shí)現(xiàn)了快速分類,又能避免過擬合情況的發(fā)生,融合CNN深度學(xué)習(xí)算法更體現(xiàn)其良好性能。
關(guān)鍵詞:正則化 ?支持向量機(jī) ?分類器 ?機(jī)器學(xué)習(xí)
Research on High-Efficiency SVM Classifier for the Elderly and Children Based on the Regularization Theory
WANG Guoqing ?LI Kexiang ?ZHENG Guohua ?SHAO Weihua
XIA Wenpei
(Zhejiang Sostech Co., Ltd., Wenzhou, Zhejiang Province, 325000 China)
Abstract: By using the dictionary learned in (Semi-supervised dictionary learning based on preserving sparse reconstruction), the sparse coding coefficients of the region are obtained.We can effectively distinguish the shape difference between the targets by using this coefficient as a feature. Since the SVM needs to calculate the kernel function between the test sample and all the support vectors during the classification process, the real-time performance is poor. Therefore, the integrated linear SVM classification method based on regularization not only achieves fast classification, but also avoids the occurrence of over-fitting. The fusion of CNN deep learning algorithm more reflects its good performance.
Key Words: Regularization; Support vector machine; Classifier; Machine learning
1. 基于正則化SVM分類器
對(duì)于提取的目標(biāo)區(qū)域,需要對(duì)其進(jìn)行快速判斷是否為檢測(cè)目標(biāo)對(duì)象。SVM由于高準(zhǔn)確率而成為目標(biāo)識(shí)別分類的常用方法,然而其對(duì)新樣本進(jìn)行預(yù)測(cè)判斷時(shí),需要計(jì)算此樣本與所有支持向量之間的核函數(shù),故實(shí)時(shí)性比較差。針對(duì)上述問題,本項(xiàng)目擬提出一種新型的SVM分類器,以實(shí)現(xiàn)快速、準(zhǔn)確分類,具體可分為以下幾步。
1.1正則化理論
正則化[1](Regularization)是機(jī)器學(xué)習(xí)中對(duì)原始損失函數(shù)引入額外信息,以便防止過擬合和提高模型泛化性能的一類方法的統(tǒng)稱。也就是目標(biāo)函數(shù)變成了原始損失函數(shù)+額外項(xiàng),常用的額外項(xiàng)一般有兩種,英文稱作?1?norm?1?norm和?2?norm?2?norm,中文稱作L1正則化和L2正則化,或者L1范數(shù)和L2范數(shù)(實(shí)際是L2范數(shù)的平方)。正則化又稱為規(guī)則化、權(quán)重衰減技術(shù),在不同的方向上有不同的叫法,在數(shù)學(xué)中叫作范數(shù)。以信號(hào)降噪為例公式(1-1):
(1-1)
其中,x(i)為原始信號(hào),或者小波或者傅里葉等系數(shù),R(x(i))為懲罰函數(shù),λ是正則項(xiàng),y(i)是噪聲的信號(hào), 為降噪后的輸出。
范數(shù),是衡量某個(gè)向量空間或矩陣中的每個(gè)向量長(zhǎng)度或大小,范數(shù)的一般化定義為:對(duì)實(shí)數(shù)p>=1,范數(shù)定義如公式(1-2):
(1-2)
L1范數(shù):當(dāng)p=1時(shí),是L1范數(shù)其表示某個(gè)向量中所有元素絕對(duì)值的和。
L2范數(shù):當(dāng)p=2時(shí),是L2范數(shù)表示某個(gè)向量中所有元素平方和再開根,也就歐幾里得距離公式。
1.2 混合線性SVM分類器
對(duì)于提取的目標(biāo)區(qū)域,需要對(duì)其進(jìn)行快速判斷是否為目標(biāo)對(duì)象。SVM由于高準(zhǔn)確率而成為目標(biāo)識(shí)別分類的常用方法,然而其對(duì)新樣本進(jìn)行預(yù)測(cè)判斷時(shí),需要計(jì)算此樣本與所有支持向量之間的核函數(shù),故實(shí)時(shí)性比較差。針對(duì)上述問題,本項(xiàng)目擬提出一種新型的SVM分類器,以實(shí)現(xiàn)快速、準(zhǔn)確分類。
混合線性模型(Mixed linear model)是方差分量模型中既含有固定效應(yīng),又含有隨機(jī)效應(yīng)的模型。采用最大似然估計(jì)法(maximum likelihood,ML)和約束最大似然估計(jì)法原理計(jì)算協(xié)方差矩陣。
●總的混合線性模型(Mixed effect model,MLM)的模型方程為公式(1-3):
(1-3)
MLM在GLM基礎(chǔ)上引入隨機(jī)變量設(shè)計(jì)矩陣Z。式(1-3)中Y表示反應(yīng)變量測(cè)量值的矩陣向量, 為固定效應(yīng)參數(shù)設(shè)計(jì)矩陣向量,X為固定效應(yīng)自變量設(shè)計(jì)矩陣向量, 為隨機(jī)效應(yīng)參數(shù)設(shè)計(jì)矩陣向量,Z為隨機(jī)效應(yīng)自變量設(shè)計(jì)矩陣向量,其中 服從均值向量為0,方差協(xié)方差矩陣向量為G的正態(tài)性分布,表示為 , 為隨機(jī)誤差設(shè)計(jì)矩陣向量,服從均值向量為0,方差/協(xié)方差矩陣向量為R的正態(tài)分布,即 。
●一種混合線性[2]的快速SVM分類器公式(1-4):
(1-4)
其中,x為輸入樣本, 和 分別為線性子分類器的權(quán)重系數(shù)和偏差,可以看出,分類器的輸出為 個(gè)子分類器群組的輸出之和,頁每個(gè)群組的輸出則是 個(gè)相互競(jìng)爭(zhēng)的子分類器輸出的最大值。
根據(jù)上述優(yōu)化問題,建立一個(gè)具有層次樹結(jié)構(gòu)的SVM分類器,其基本思想是在盡可能小的函數(shù)復(fù)雜度下,用線性SVM不斷把錯(cuò)分的正(負(fù))類樣本從當(dāng)前分類器所分得的負(fù)(正)類中分離出來再進(jìn)行訓(xùn)練。
2. 實(shí)驗(yàn)與結(jié)果分析
2.1 線性SVM分類器實(shí)驗(yàn)
實(shí)驗(yàn)使用sklearn官網(wǎng)提供的Iris數(shù)據(jù)集,然后通過代碼片斷結(jié)合實(shí)驗(yàn)結(jié)果進(jìn)行分析。
步驟一,數(shù)據(jù)預(yù)處理,通過Iris數(shù)據(jù)集分為兩個(gè)數(shù)組,一組存放值,另一組存放標(biāo)簽,以兩個(gè)特性為例,代碼如下所示:
iris_datas = datasets.load_iris()
x = iris_datas.data[:,:2] #value
x = iris_datas.target #label
步驟二,拆分?jǐn)?shù)據(jù)集,將數(shù)據(jù)集拆分為訓(xùn)練集和測(cè)試集驗(yàn)證集,訓(xùn)練集50%,驗(yàn)證集20%,測(cè)試集30%。
步驟三SVC和擬合模型參數(shù)設(shè)置,選擇SVM參數(shù),Kernel支持向量機(jī)的線性核函數(shù),C控制誤分類訓(xùn)練數(shù)據(jù)損失函數(shù)。Gamma控制模型中誤差和偏差之間誤差權(quán)衡函數(shù),代碼如下所示:
clf = svm.SVC(kernel=’rbf’,C=c,gamma=g)
clf.fit(x_train,y_train)
接著在驗(yàn)證集評(píng)估以上參數(shù)設(shè)置,并檢查相應(yīng)的成功率,找到算法最優(yōu)值,代碼如下所示:
clf_predictions = clf.predict(x_validate)
clf_sc = clf.score(x_validate,y_validate)
對(duì)于不同的C值訓(xùn)練一個(gè)線性SVM,并繪制了數(shù)據(jù)和決策邊界。圖1中可看出1邊界變化是由C引起的通知SVM在每個(gè)訓(xùn)練中避免出現(xiàn)多少錯(cuò)誤分類。對(duì)于較大的C值,優(yōu)化將選擇一個(gè)較小的邊界超平面,該超平面能更好地得到所有訓(xùn)練點(diǎn)的正確分類。
相反,一個(gè)很小的C值將導(dǎo)致優(yōu)化器尋找一個(gè)更大的邊界分隔超平面,即使這個(gè)超平面錯(cuò)誤分類了更多的點(diǎn)。所以C值小的錯(cuò)誤分辨率低,反之錯(cuò)誤分辨率高。C=0.1時(shí)給出的最佳精度是77.77%。最后,選擇了C的最佳值,并在測(cè)試集上對(duì)模型進(jìn)行了評(píng)估.通過將C調(diào)整最佳后,發(fā)現(xiàn)測(cè)試的準(zhǔn)確率為83.333%為最高。
2.2 深度學(xué)習(xí)分類實(shí)驗(yàn)
線性SVM分類器[3]在實(shí)驗(yàn)中進(jìn)行的二分類測(cè)試,經(jīng)過幾輪的C值調(diào)整最后得到一個(gè)令人比較滿意的結(jié)果83.33%。但是,在實(shí)際復(fù)雜場(chǎng)景檢測(cè)中每次都是需要人工去干預(yù),調(diào)整模型的參數(shù)值,這不是一個(gè)合適的方法。所以選擇一個(gè)可定制化的環(huán)境與CNN深度學(xué)習(xí)[4]一起工作,使用一個(gè)實(shí)際參數(shù)和神經(jīng)元。為了簡(jiǎn)化模型的構(gòu)建項(xiàng)目中使用tensorflow下的輕型框架Keras,實(shí)驗(yàn)步驟如下。
步驟一:獲取文件目錄里老人與兒童面部圖像數(shù)所存放目錄,將數(shù)據(jù)分成兩組,一組存放轉(zhuǎn)換后的二進(jìn)制,另一存放二進(jìn)制標(biāo)簽值。然后將得到每一張圖像修改尺寸大小為64×64,最后存儲(chǔ)為npz文件。
步驟二:讀取npz文件獲取圖像值和標(biāo)簽值,拆分?jǐn)?shù)據(jù)集為訓(xùn)練集和測(cè)試集,訓(xùn)練集為80%,測(cè)試集為20%。
步驟三:構(gòu)建網(wǎng)絡(luò)結(jié)構(gòu)圖2分為卷積層、池化層、全連接層。網(wǎng)絡(luò)參數(shù)、訓(xùn)練參數(shù)為Batch_size=32,num_class=2,epochs=30
Batch_size是一個(gè)重要參數(shù),它是批大小,它定義了一次向前/向后傳播網(wǎng)絡(luò)的樣本數(shù)量。通常這意味著更高的批大小將為單次傳遞提供更多的示例,但也會(huì)增加內(nèi)存使用。通常較小的批大小將導(dǎo)致更好的泛化[5-6]。
步驟四:模型訓(xùn)練,通過創(chuàng)建的模型網(wǎng)絡(luò)結(jié)構(gòu)(如圖2所示)和訓(xùn)練參數(shù)設(shè)置,可以觀察到訓(xùn)練過程中精確率,驗(yàn)證正確率,訓(xùn)練輪數(shù),測(cè)試結(jié)果如圖3和圖4。
圖3的模型訓(xùn)練過程精度為0.9967訓(xùn)練30輪驗(yàn)證率0.9868。
圖4的模型測(cè)試結(jié)果為label=0,predict=0表示為老人,label=1,predict=1表示兒童
3 ?結(jié)語
通過以上兩組實(shí)驗(yàn)對(duì)比線性SVM分類器算法,調(diào)整C值過后精確度為83.333%,而選擇與深度學(xué)習(xí)CNN搭建網(wǎng)絡(luò)模型融合訓(xùn)練得到結(jié)果0.9868%。采用這種算法雖然取得了比較好的效果,但仍然還有需要改進(jìn)的地方。例如,年齡不在老年人階段,但面臉表情特征如老年人,兒童檢測(cè)也存在類似問題。后期,計(jì)劃在人臉特征提取,人臉數(shù)據(jù)多樣性方面進(jìn)行優(yōu)化和增強(qiáng)。
參考文獻(xiàn)
[1] 劉保成,樸燕,唐悅.基于時(shí)空正則化的視頻序列中行人的再識(shí)別[J].計(jì)算機(jī)應(yīng)用,2019,39(11):3216-3220.
[2] 楊斌,王斌,吳宗敏.基于雙線性混合模型的高光譜圖像非線性光譜解混[J].紅外與毫米波學(xué)報(bào),2018,37(5):631-641.
[3] 王福斌,潘興辰,王宜文.基于SVM的多核學(xué)習(xí)飛秒激光燒蝕光斑圖像分類[J].激光雜志,2020,41(4):86-91.
[4] 林景棟,吳欣怡,柴毅,等.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化綜述[J].自動(dòng)化學(xué)報(bào),2020,46(1):24-37.
[5] 葉俊賢.深度神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)并行訓(xùn)練加速策略研究[D].成都:電子科技大學(xué),2020.
[6] 王鐸. Relu網(wǎng)絡(luò)的一種新型自適應(yīng)優(yōu)化方法研究[D].北京:北京工業(yè)大學(xué),2020.
2292501186223
科技創(chuàng)新導(dǎo)報(bào)2021年27期