亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        增量式約簡拉氏非對稱ν型孿生支持向量回歸機(jī)

        2023-11-16 00:51:00張帥鑫顧斌杰
        計(jì)算機(jī)與生活 2023年11期

        張帥鑫,顧斌杰,潘 豐

        江南大學(xué) 輕工過程先進(jìn)控制教育部重點(diǎn)實(shí)驗(yàn)室,江蘇 無錫 214122

        構(gòu)建貼合樣本分布的模型是一項(xiàng)具有挑戰(zhàn)性的工作。支持向量回歸機(jī)(support vector regression,SVR)是貼合樣本分布來構(gòu)建回歸模型的經(jīng)典算法[1]。目前,SVR 已經(jīng)在許多領(lǐng)域如預(yù)測電力負(fù)荷[2]、股市價(jià)格[3]、風(fēng)速[4]和天氣[5]等取得了成功的應(yīng)用。

        為了提高SVR 的泛化性能,Sch?lkopf 等人[6]提出了ν型支持向量回歸機(jī)(ν-support vector regression,ν-SVR),在目標(biāo)函數(shù)中引入比例參數(shù)ν(0≤ν≤1)來自動(dòng)調(diào)整SVR 中的不敏感參數(shù)ε,實(shí)現(xiàn)對支持向量數(shù)量的控制。然而,ν-SVR 所考慮的上下ε區(qū)間內(nèi)的樣本數(shù)量是一樣的,為了處理回歸問題中的不對稱噪聲,Huang 等人[7]用彈球損失函數(shù)代替ε不敏感損失函數(shù),提出了一種非對稱ν型支持向量回歸機(jī)(asymmetric-ν-support vector regression,Asy-ν-SVR),位于不同位置的樣本會受到不同的懲罰,從而模型能夠獲得更好的泛化性能。

        為了加快SVR的訓(xùn)練速度,Peng[8]提出了孿生支持向量回歸機(jī)(twin support vector regression,TSVR),TSVR 將原來的求解單一大規(guī)模二次規(guī)劃問題轉(zhuǎn)化為求解兩個(gè)較小規(guī)模的二次規(guī)劃問題,構(gòu)建兩個(gè)非平行超平面,其訓(xùn)練速度大約是SVR 的4 倍,并且具有同樣出色的泛化性能。隨后涌現(xiàn)了大量關(guān)于TSVR的研究[9-12]。2017年,Xu等人[13]將TSVR和Asy-ν-SVR相結(jié)合,提出了一種非對稱ν型孿生支持向量回歸機(jī)(asymmetric-ν-twin support vector regression,Asy-ν-TSVR),兼顧訓(xùn)練速度和泛化性能。隨后,Gupta 等人[14]對Asy-ν-TSVR 進(jìn)行了改進(jìn),提出了一種基于彈球損失函數(shù)的改進(jìn)正則項(xiàng)的拉氏非對稱ν型孿生支持向量回歸機(jī)(Lagrangian asymmetric-ν-twin support vector regression,LAsy-ν-TSVR)。首先用2-范數(shù)代替原來松弛變量的1-范數(shù),使得最小化目標(biāo)函數(shù)具有強(qiáng)凸性;然后在目標(biāo)函數(shù)中加入正則化項(xiàng),以遵循結(jié)構(gòu)風(fēng)險(xiǎn)最小化原則;最后使用線性迭代收斂法改善計(jì)算性能,實(shí)驗(yàn)結(jié)果表明,LAsy-ν-TSVR 能獲得比SVR、TSVR 以及Asy-ν-SVR 更出色的泛化性能。此后,為了解決核函數(shù)的半正定性問題,Gupta等人[15]提出了一種魯棒的拉氏非對稱ν型孿生支持向量回歸機(jī),引入光滑函數(shù)改進(jìn)模型的訓(xùn)練速度,并提升了泛化性能。

        然而,以上研究都是傳統(tǒng)離線學(xué)習(xí)方法,不能滿足在給定時(shí)間內(nèi)處理大量數(shù)據(jù)的要求,從而導(dǎo)致越來越多的未處理數(shù)據(jù)累積,同時(shí)并未把新信息不斷地集成到已經(jīng)構(gòu)建的模型中,可能會導(dǎo)致過時(shí)的模型。在大數(shù)據(jù)情況下,增量算法能夠有效地解決以上問題。針對SVR 的增量形式,目前學(xué)者們?nèi)〉昧撕芏嘌芯砍晒?,主要分為精確求解形式和近似求解形式。

        精確求解形式的回歸模型以Ma等人[16]提出的精確在線支持向量回歸模型(accurate online support vector regression,AOSVR)為代表,保留逐個(gè)增加的每一個(gè)訓(xùn)練樣本,能夠求得模型的精確解,不會降低模型的泛化性能。隨后,受AOSVR 思想的啟發(fā),Gu等人[17]提出了增量式支持向量有序回歸學(xué)習(xí)算法,顧斌杰等人[18]提出了精確增量式在線ν型支持向量回歸機(jī)。之后,為了降低噪聲的影響,并加快訓(xùn)練速度,Huang 等人[19]提出了一種在線魯棒支持向量回歸機(jī)(online robust support vector regression,ORSVR)。最近,曹杰等人[20]提出了一種精確增量式ε型孿生支持向量回歸機(jī),實(shí)現(xiàn)了ε型孿生支持向量回歸機(jī)高效地增量處理線性回歸問題。

        近似求解形式通過對輸入樣本的預(yù)處理或者篩選,只能求得目標(biāo)函數(shù)的近似最優(yōu)解。Hao等人[21]提出增量式最小二乘孿生支持向量回歸機(jī),通過矩陣求逆引理和基于已有核矩陣僅添加新增樣本與舊樣本構(gòu)成的行向量,保持解的數(shù)量不增長,使增量更新模型的速度加快。為了解決最小二乘孿生支持向量回歸機(jī)(least squares twin support vector regression,LSTSVR)存在構(gòu)成的核矩陣無法很好地逼近原核矩陣的問題,曹杰等人[22]提出一種增量式約簡LSTSVR。

        目前還沒有關(guān)于拉氏非對稱ν型孿生支持向量回歸機(jī)的增量學(xué)習(xí)算法。盡管Gupta 等人[15]對拉氏非對稱ν型孿生支持向量回歸機(jī)進(jìn)行了光滑處理,提升了泛化性能,但其仍然是離線算法,并不適用于增量提供樣本的場景(極端情況下,每次僅提供一個(gè)新樣本),例如:時(shí)間序列預(yù)測、網(wǎng)絡(luò)監(jiān)測、入侵檢測、數(shù)據(jù)挖掘、金融數(shù)據(jù)分析、谷氨酸發(fā)酵過程等。一方面,現(xiàn)有的拉氏非對稱ν型孿生支持向量回歸機(jī)無法隨著樣本的到來動(dòng)態(tài)更新模型;另一方面,在歷史樣本積累到計(jì)算機(jī)內(nèi)存無法承載處理的程度,應(yīng)當(dāng)考慮如何削減樣本集的大小,保留有效的樣本信息。為了將拉氏非對稱ν型孿生支持向量回歸機(jī)推廣到在線學(xué)習(xí)模式,并緩解增量過程中內(nèi)存消耗問題,本文提出一種增量式約簡拉氏非對稱ν型孿生支持向量回歸機(jī)(incremental reduced Lagrangian asymmetric-ν-twin support vector regression,IRLAsy-ν-TSVR)。針對現(xiàn)有的LAsy-ν-TSVR 離線模型無法高效求解增量問題,選擇特征相異的樣本,構(gòu)建能夠保留原增廣核矩陣中線性無關(guān)的列向量和行向量的增廣核矩陣,然后以約簡后的增廣核矩陣為基礎(chǔ),推導(dǎo)增量遞推公式,構(gòu)建增量式約簡拉氏非對稱ν型孿生支持向量回歸機(jī)。最后通過實(shí)驗(yàn)驗(yàn)證算法的可行性和有效性。

        1 拉氏非對稱ν型孿生支持向量回歸機(jī)

        拉氏非對稱ν型孿生支持向量回歸機(jī)的原始問題如下[15]:

        其中,ω1,ω2∈Rm為權(quán)重向量,b1,b2∈R 為偏置,C3,C4>0 為正則化常數(shù),C1,C2>0 為線性項(xiàng)常數(shù),ξ1,ξ2∈Rl是松弛向量,||?||表示2范數(shù),e表示元素全為1的列向量,0

        式(1)和式(2)的對偶問題如下[15]:

        因此,對于某個(gè)測試輸入x可通過式(5)預(yù)測其輸出:

        2 增量式約簡拉氏非對稱ν型孿生支持向量回歸機(jī)

        本章首先引入正號函數(shù),將拉氏非對稱ν型孿生支持向量回歸機(jī)的有約束最優(yōu)化問題轉(zhuǎn)換成無約束最優(yōu)化問題,并說明為什么采用半光滑牛頓法直接在原始空間求解最優(yōu)化問題;其次在增量環(huán)境下,為了節(jié)省矩陣求逆的時(shí)間開銷,討論如何利用矩陣求逆引理高效更新Hessian 逆矩陣;然后為了減少大規(guī)模數(shù)據(jù)集情況下樣本累積導(dǎo)致的內(nèi)存消耗,采用約簡技術(shù)篩選出特征差異較大的樣本,以確保解的稀疏性;最后給出了增量式拉氏非對稱ν型孿生支持向量回歸機(jī)算法的步驟,并分析了時(shí)間復(fù)雜度。

        2.1 半光滑牛頓法

        由于在原始問題轉(zhuǎn)化為對偶問題后往往要求解一對二次規(guī)劃問題,而二次規(guī)劃的解不一定是凸優(yōu)化最優(yōu)解。Fung等人[23]將半光滑牛頓法運(yùn)用到拉氏支持向量分類機(jī)上,直接在原始空間中求解凸優(yōu)化問題,進(jìn)一步加快了模型的收斂速度。受其啟發(fā),考慮到LAsy-ν-TSVR的目標(biāo)函數(shù)具有局部連續(xù)二次梯度的特性,使用半光滑牛頓法可以保證局部二次收斂,為此采用半光滑牛頓法[24-25]在原始空間直接求解最優(yōu)化問題,并將目標(biāo)函數(shù)修改成方便后續(xù)增量推導(dǎo)的形式。

        首先,參照文獻(xiàn)[25]中的方法,引入正號函數(shù)(x+)=max{0,xi},i=1,2,…,l,將式(1)和式(2)改寫成如下無約束最優(yōu)化問題:

        為了更加方便直觀地處理正號函數(shù),將式(6)和式(7)簡化為:

        其中,Λ1、Λ2表示對角矩陣,以式(8)為例,當(dāng)?shù)趇個(gè)輸入樣本的二次梯度不存在時(shí),則Λ1的第i個(gè)對角元素為0,表示為。式(9)中Λ2的第i個(gè)對角元素也同樣構(gòu)造。

        ν型和ε型的區(qū)別在于ν型用一個(gè)比例參數(shù)ν去靈活控制管道寬度ε。因此,將ε當(dāng)成一個(gè)變量,對含有雙變量的目標(biāo)函數(shù)求最優(yōu)解。

        接著,對目標(biāo)函數(shù)L1分別求關(guān)于u1和ε1的偏導(dǎo)數(shù),整理得到Jacobian矩陣為:

        2.2 高效更新逆矩陣和對角矩陣

        雖然在2.1 節(jié)中用半光滑牛頓法重新對LAsy-ν-TSVR進(jìn)行了求解,加快了收斂速度[15,25],但是其仍是離線算法,無法處理在線問題。為此,結(jié)合逆矩陣的增量更新公式,將拉氏非對稱ν型孿生支持向量回歸機(jī)改寫成增量形式。假設(shè)下標(biāo)t表示t時(shí)刻,上標(biāo)k表示第k次迭代,以此類推。假設(shè)在t+1 時(shí)刻,新增一個(gè)樣本(xl+1,yl+1),則基于增量更新公式,u1(t+1)、u2(t+1)可以由u1(t)、u2(t)快速更新求解。接下來,將分別描述初始化和迭代更新的詳細(xì)步驟。

        2.2.1 初始化

        初始化對角矩陣計(jì)算如下:

        引理1[26]設(shè)A是l×l的可逆矩陣,b是l×1的向量,d是標(biāo)量,且d-bTA-1b≠0,則有:

        由引理1可得:

        因此,Hessian矩陣的逆只需要通過求解W1的逆便可以求得。

        在t+1時(shí)刻的初始矩陣如下:

        引理2[27]設(shè)A∈Rl×l為非奇異矩陣,u,ν∈Rl是任意向量,若1+νTA-1u≠0,則A+uνT非奇異,且其逆矩陣可表示為:

        2.2.2 迭代更新

        2.3 約簡技術(shù)

        離線算法和增量算法的共性問題是:增廣核矩陣的行列數(shù)會隨著輸入樣本的增加而增加,算法的復(fù)雜度會隨著解的維數(shù)指數(shù)增長。因此,為了縮短大規(guī)模數(shù)據(jù)下的訓(xùn)練時(shí)間,同時(shí)減少由于大規(guī)模數(shù)據(jù)集情況下樣本累積帶來的內(nèi)存消耗,提出了一種增量式約簡拉氏非對稱ν型孿生支持向量回歸機(jī)(IRLAsy-ν-TSVR)。該算法利用約簡技術(shù),首先通過篩選特征差異較大的輸入樣本,對應(yīng)保留原增廣核矩陣中線性無關(guān)程度較大的列向量;然后篩選增量過程中位于ε管道以外的樣本,對應(yīng)保留原增廣核矩陣中對模型信息貢獻(xiàn)較大的行向量,以此構(gòu)成約簡增廣核矩陣。接下來對該IRLAsy-ν-TSVR算法的約簡部分進(jìn)行描述。

        2.3.1 增廣核逆矩陣列約簡

        在t+1 時(shí)刻,新增一個(gè)樣本(xl+1,yl+1),假設(shè)之前l(fā)個(gè)樣本中按照列約簡技術(shù)已經(jīng)篩選出線性無關(guān)程度較大的樣本,命名為基準(zhǔn)樣本,并將基準(zhǔn)樣本存儲在集合B中,用式(13)來判定該樣本是否為基準(zhǔn)樣本:

        然后,把式(14)代入式(13),可由式(12)求得Δ的值:

        如果Δ大于或者等于預(yù)先設(shè)定的常數(shù)ρ∈(0,1),那么新增樣本被添加到集合B中;否則,不被添加到集合B中。

        在處理完當(dāng)前新增樣本的列歸屬之后,還要更新Φt+1,為處理下一輪新增樣本做準(zhǔn)備。需要考慮如下兩種情況:

        2.3.2 增廣核逆矩陣行約簡

        在t+1 時(shí)刻,新增一個(gè)樣本(xl+1,yl+1),假設(shè)之前l(fā)個(gè)樣本中按照行約簡技術(shù)已經(jīng)篩選出特征差異明顯的樣本,并將其按照輸入順序存儲在集合P中,以下用式(18)來判斷是否當(dāng)前的輸入樣本應(yīng)該為增廣核矩陣增加一行有效的數(shù)據(jù)行:

        如果γ1大于或者等于本輪迭代更新得到的ε1(t+1),也就是間隔函數(shù)的預(yù)測值位于ε1(t+1)帶以外,則新增樣本被添加到集合P中;否則,新增樣本被丟棄。

        同樣,在處理完當(dāng)前新增樣本的行歸屬之后,還要更新Φt+1,根據(jù)列約簡的分屬情況,將行約簡總結(jié)為以下四種情況:

        情況1如果樣本不被添加到集合B中,但被添加到集合P中,則Φt+1的更新與式(16)相同。

        情況2如果樣本不被添加到集合B中,同時(shí)也不被添加到集合P中,相當(dāng)于丟棄新增樣本對增廣核矩陣的更新信息,增廣核矩陣既不增加行,也不增加列,則Φt+1無需更新。

        情況3如果樣本被添加到集合B中,同時(shí)被添加到集合P中,則Φt+1的更新與式(17)相同。

        情況4如果樣本被添加到集合B中,但不被添加到集合P中,相當(dāng)于執(zhí)行增廣核矩陣的列更新而不執(zhí)行行更新。則:

        2.4 算法步驟

        算法1 給出了IRLAsy-ν-TSVR 中迭代求解u1(t+1)和ε1(t+1)的過程。

        u2(t+1)和ε2(t+1)可以用同樣的算法步驟求解,此處不再贅述。

        2.5 時(shí)間復(fù)雜度分析

        針對2.3 節(jié)和2.4 節(jié)給出的增量算法,以下分析新增一個(gè)輸入樣本所需的時(shí)間復(fù)雜度,并且將其分為半光滑牛頓法尋優(yōu)時(shí)間復(fù)雜度和約簡樣本時(shí)間復(fù)雜度。由于加法時(shí)間復(fù)雜度所消耗的時(shí)間遠(yuǎn)小于乘法時(shí)間復(fù)雜度,分析時(shí)只考慮后者。

        綜上,如果使用直接求解逆矩陣的方法來計(jì)算半光滑牛頓法的二階梯度,其時(shí)間復(fù)雜度將為,而結(jié)合矩陣求逆引理,可將復(fù)雜度由原先的立方階降至平方階,大大加快了算法的運(yùn)算速度。雖然在更新時(shí)的時(shí)間復(fù)雜度為立方階,但考慮到與l1、l2有關(guān),而l1、l2大小是由約簡過程中的參數(shù)ρ和中間計(jì)算的ε1、ε2進(jìn)行控制。實(shí)際上,只要參數(shù)相對合理,在增量過程中會篩選掉大量線性無關(guān)的樣本,時(shí)間復(fù)雜度遠(yuǎn)遠(yuǎn)小于立方階,同時(shí)能夠保證精度損失不嚴(yán)重。

        3 數(shù)值實(shí)驗(yàn)與分析

        3.1 實(shí)驗(yàn)設(shè)計(jì)和參數(shù)設(shè)置

        為了驗(yàn)證所提出的IRLAsy-ν-TSVR 算法的優(yōu)勢,選取AOSVR、拉氏ε型孿生支持向量回歸機(jī)(Lagrangianε-twin support vector regression,L-ε-TSVR)[28]、LAsy-ν-TSVR、光滑魯棒非對稱拉氏孿生支持向量回歸機(jī)(smooth robust asymmetric Lagrangianν-twin support vector regression,SRALTSVR1)[15]在基準(zhǔn)測試數(shù)據(jù)集上進(jìn)行對比,其中,AOSVR是增量學(xué)習(xí)算法,其余都是離線學(xué)習(xí)算法,而SRALTSVR1是指用平滑近似函數(shù)ζ1(x,τ)=x+ln(1+exp(-τx))/τ將LAsy-ν-TSVR 光滑處理的算法,其中ζ1(x,τ)是τ+的近似函數(shù),τ為非負(fù)實(shí)數(shù)。所有實(shí)驗(yàn)均在Intel i5-8400T(@1.70 GHz)處理器,8 GB 內(nèi)存的PC,Matlab 2016a軟件平臺上完成。

        表1 中給出了實(shí)驗(yàn)所使用的8 個(gè)基準(zhǔn)測試數(shù)據(jù)集,它們分別是Boston housing、Concrete CS(compressive strength)、Space_ga、Abalone、Cpusmall、CCPP(combined cycle power plant)、Bike sharing和RLCTSAA(relative location of CT slices on axial axis),數(shù)據(jù)集規(guī)模從506到53 500不等,且所有數(shù)據(jù)集的特征被歸一化到[0,1],然后劃分為訓(xùn)練集和測試集。

        表1 實(shí)驗(yàn)中使用的基準(zhǔn)測試數(shù)據(jù)集Table 1 Benchmark datasets used in experiment

        在訓(xùn)練集上采用5 次五折交叉驗(yàn)證,共25 次實(shí)驗(yàn)的平均值進(jìn)行參數(shù)尋優(yōu),最終以訓(xùn)練集上的最優(yōu)模型在測試集上的表現(xiàn)來評價(jià)模型的性能。采用均方根誤差(root mean square error,RMSE)和絕對平均誤差(mean absolute error,MAE)來綜合評價(jià)回歸算法的泛化性能,并且在實(shí)驗(yàn)中統(tǒng)計(jì)了列解稀疏率φ和行解稀疏率ψ,具體定義見式(20)~式(23)。同時(shí)記錄了訓(xùn)練平均單個(gè)樣本所需的CPU時(shí)間,單位為s。

        其中,表示第i個(gè)輸入樣本的預(yù)測值,yi表示第i個(gè)樣本的實(shí)際輸出值,l為當(dāng)前訓(xùn)練樣本的總數(shù),lB是集合B中樣本的個(gè)數(shù),lP是集合P中樣本的個(gè)數(shù)。

        采用網(wǎng)格化搜索進(jìn)行參數(shù)尋優(yōu),為了保證實(shí)驗(yàn)條件一致性和對比公平起見,AOSVR 的參數(shù)設(shè)置為ε=0.01,C=2i在i∈[-8,8]范圍內(nèi)尋優(yōu)。L-ε-TSVR的參數(shù)設(shè)置為C1=C2=2i,C3=C4=2i在i∈[-8,8]范圍內(nèi)尋優(yōu),ε1=ε2=0.01。LAsy-ν-TSVR和SRALTSVR1的參數(shù)設(shè)置為v1=v2=j×0.1,r=k×0.1,在j,k∈[1,9]范圍內(nèi)尋優(yōu),C1~C4的設(shè)置與L-ε-TSVR 相同。IRLAsy-ν-TSVR 使用與對應(yīng)離線算法相同最優(yōu)參數(shù),最大迭代次數(shù)設(shè)置為k=100,半光滑牛頓法迭代停止精度設(shè)置為σ=10-5,列線性無關(guān)常數(shù)ρ=10-3。

        為了便于比較,統(tǒng)一選取高斯徑向基核函數(shù)作為核函數(shù)K(xi,xj)=exp(-||xi-xj||2/2σ2),其中核參數(shù)σ=2i在i∈[-5,5]范圍內(nèi)尋優(yōu)。

        3.2 實(shí)驗(yàn)結(jié)果分析

        表2 所示為選取的五種算法在基準(zhǔn)測試數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果,“—”表示該處指標(biāo)無意義,“@”表示內(nèi)存不足無法運(yùn)算。為了清楚起見,最優(yōu)指標(biāo)加粗表示。

        表2 五種算法在基準(zhǔn)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Table 2 Experimental results of five algorithms on benchmark datasets

        從表2 可以看出,相對其他四種算法,本文算法的RMSE更小,也就是泛化性能要優(yōu)于AOSVR、L-ε-TSVR、SRALTSVR1 和其對應(yīng)的離線算法LAsy-ν-TSVR,即繼承了LAsy-ν-TSVR 的泛化性能,這與文獻(xiàn)[14]中的結(jié)論一致,一方面參數(shù)ν和非對稱參數(shù)q的引入讓模型靈活地去貼合樣本,另一方面在約簡過程中,剔除相似特征的列向量和約簡對預(yù)測性能貢獻(xiàn)較小的行向量,使得處理過后的核矩陣比只篩選列向量更加逼近原核矩陣,獲得和離線算法相當(dāng)甚至更優(yōu)的泛化性能,而其他算法的增廣核矩陣由于沒有行列信息篩選的步驟,并不能反映原核矩陣的有效信息。同時(shí),在單步增量的半光滑牛頓迭代中,設(shè)置合適的迭代停止精度也會讓模型的RMSE更小。

        從行列稀疏率指標(biāo)上看,只有本文算法對核矩陣的行具有約簡過程,其稀疏率隨著樣本的增加而減小,說明其有效地剔除了核矩陣中的無效行,使增廣核矩陣逼近原核矩陣。

        對于單個(gè)樣本的增量時(shí)間,本文提出的IRLAsyν-TSVR與L-ε-TSVR和LAsy-ν-TSVR相比有著相當(dāng)大的優(yōu)勢,通過2.5 節(jié)的時(shí)間復(fù)雜度分析,IRLAsy-ν-TSVR 的平方階復(fù)雜度優(yōu)于離線算法的立方階的時(shí)間復(fù)雜度,但對比SRALTSVR1 算法,其訓(xùn)練速度較差,主要原因在于本文算法添加了對增廣核矩陣的列向量和行向量的約簡,如2.5節(jié)中四種行約簡情況所分析部分,具體的時(shí)間復(fù)雜度取決于樣本的歸屬情況,同時(shí)在增量過程中,更新初始解和更新Hessian矩陣的過程中,也會增加平方階的時(shí)間復(fù)雜度,從而導(dǎo)致增量過程中平均一次更新時(shí)間稍大。但是從數(shù)量級上來看,兩者在大規(guī)模數(shù)據(jù)集CCPP上平均單個(gè)樣本的增量時(shí)間數(shù)量級相當(dāng),時(shí)間相差不大,詳見2.5節(jié)中的時(shí)間復(fù)雜度分析。

        對于更大規(guī)模的數(shù)據(jù)集Bike sharing和RLCTSAA,由于三種離線算法均因?yàn)槌^內(nèi)存無法運(yùn)算,表2中僅列出在線算法的實(shí)驗(yàn)結(jié)果。在數(shù)據(jù)集Bike sharing上,雖然本文提出的IRLAsy-ν-TSVR 訓(xùn)練速度不及AOSVR,但RMSE 和MAE 更小。而在數(shù)據(jù)集RLCTSAA上,只有本文提出的IRLAsy-ν-TSVR能夠訓(xùn)練,這也體現(xiàn)其解決大規(guī)模數(shù)據(jù)集的在線學(xué)習(xí)問題的優(yōu)勢。

        為了使算法對比更加直觀,圖1 給出了在CCPP數(shù)據(jù)集上,RMSE、MAE、總訓(xùn)練時(shí)間隨著訓(xùn)練樣本個(gè)數(shù)的增加的變化過程。從圖1(a)和圖1(b)中可以看出,在大規(guī)模數(shù)據(jù)集上,本文算法在RMSE和MAE的下降趨勢方面都要優(yōu)于SRALTSVR1。

        圖1 CCPP數(shù)據(jù)集上不同算法的性能對比Fig.1 Performance comparison of different algorithms on CCPP dataset

        從圖1(c)中可以看出,IRLAsy-ν-TSVR 算法的總訓(xùn)練時(shí)間要小于LAsy-ν-TSVR算法,與AOSVR算法類似,訓(xùn)練總時(shí)間大致呈線性增長。IRLAsy-ν-TSVR 的時(shí)間增長趨勢要優(yōu)于AOSVR,這是由于AOSVR 算法屬于精確增量算法,在其每次增加樣本時(shí),所有歷史樣本的信息都要整合到核矩陣中,稀疏率會遠(yuǎn)大于本文算法,增加后續(xù)增量過程中的計(jì)算量。但相較于SRALTSVR1,本文算法的訓(xùn)練時(shí)間較長,是因?yàn)楸疚乃惴ㄒ环矫嬖黾恿藢α邢蛄亢托邢蛄康募s簡處理,另一方面,本文算法增加了增量過程和半光滑牛頓法中Hessian 矩陣初始化和迭代更新,因此本文算法的時(shí)間復(fù)雜度要稍大于SRALTSVR1算法。本文算法的時(shí)間復(fù)雜度由l1、l2決定,參與模型更新的樣本減少,即l1、l2減小,總的訓(xùn)練時(shí)間也相應(yīng)減少。

        此外,為了體現(xiàn)本文算法在迭代更新時(shí)模型的收斂情況,圖2統(tǒng)計(jì)了在CCPP數(shù)據(jù)集上,每次新增一個(gè)樣本時(shí),IRLAsy-ν-TSVR 算法中半光滑牛頓法的迭代次數(shù)。從圖2中可以看出,大多數(shù)情況下僅需要兩次迭代就可以收斂到設(shè)定的迭代停止精度,少數(shù)情況下只需要一次。一方面,增廣權(quán)重向量在梯度方向上的維度是累加的,增量過程使得在每次添加解的維度時(shí)只需要對新增維度進(jìn)行梯度下降糾正,加快了收斂速度;另一方面,在列舉的四種約簡情況中,有的情況對模型有較小更新,甚至無需更新,這也會縮短算法的訓(xùn)練時(shí)間。

        圖2 CCPP數(shù)據(jù)集上每次新增一個(gè)樣本時(shí)IRLAsy-ν-TSVR的迭代次數(shù)Fig.2 Iterations of adding a new sample for IRLAsy-ν-TSVR on CCPP dataset

        4 結(jié)論

        本文將約簡技術(shù)運(yùn)用到拉氏非對稱ν型孿生支持向量回歸機(jī)上,提出了一種增量式約簡拉氏非對稱ν型孿生支持向量回歸算法。在增量過程中,該算法結(jié)合矩陣求逆引理,通過對增廣核矩陣的行列約簡以逼近原增廣核矩陣,避免了半光滑牛頓法中Hessian 矩陣的直接求逆,獲得約簡拉氏非對稱ν型孿生支持向量回歸機(jī)模型,在保證最優(yōu)解的高效更新的同時(shí),實(shí)現(xiàn)了解的稀疏化與解的增量連續(xù)性,而且繼承了原離線算法的泛化性能。實(shí)驗(yàn)結(jié)果表明,本文算法獲得的模型和離線模型具有相近的回歸精度,并且能夠獲得稀疏解,與利用光滑函數(shù)優(yōu)化的離線算法SRALTSVR1 相比,泛化性能更加出色,因此更加適合解決大規(guī)模數(shù)據(jù)集的在線學(xué)習(xí)問題。

        国语对白嫖老妇胖老太| va精品人妻一区二区三区| 日韩精品久久中文字幕| 国产精品99久久久久久猫咪| 一本色道久久99一综合| 日本人妻av在线观看| 久久精品亚洲成在人线av乱码| 国产色xx群视频射精| 四虎永久免费一级毛片| 在线观看中文字幕一区二区三区| 中文字幕丰满人妻av| 中字幕人妻一区二区三区| 精品一级毛片| 成人短篇在线视频夫妻刺激自拍| 日韩精品一区二区在线天天狠天| 日本老熟妇50岁丰满| 亚洲AV永久天堂在线观看| 久久久精品人妻一区二区三区免费| 麻豆国产精品久久人妻| 成av人片一区二区三区久久| 国产九九在线观看播放| 日本黄色影院一区二区免费看| 亚洲av日韩aⅴ无码色老头| 亚洲h视频| 亚洲国产成人av第一二三区| 最新露脸自拍视频在线观看| 亚洲日本在线电影| av无码天堂一区二区三区 | 99精品国产丝袜在线拍国语| 99re6热在线精品视频播放6| 亚洲av色在线观看网站| 91久久精品国产综合另类专区| 中文字幕乱伦视频| 午夜精品久视频在线观看| 中文字幕人妻互换av| 国产精品∧v在线观看| 揄拍成人国产精品视频| 国成成人av一区二区三区| 内射口爆少妇麻豆| 爱a久久片| 亚洲中文字幕第一第二页|