亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于樣本集質(zhì)量的建筑能耗預(yù)測機器學習算法選擇及參數(shù)設(shè)置

        2022-06-21 07:17:46李曉倩
        重慶大學學報 2022年5期
        關(guān)鍵詞:參數(shù)設(shè)置樣本量學習效果

        劉 剛,李曉倩,韓 臻

        (天津大學 a.建筑學院;b.天津市建筑物理環(huán)境與生態(tài)技術(shù)重點實驗室,天津 300072)

        可持續(xù)建筑節(jié)能效果很大程度上取決于建筑初期設(shè)計[1]。近年來,結(jié)合建筑能耗預(yù)測方法和優(yōu)化算法在建筑設(shè)計初期輔助節(jié)能優(yōu)化決策成為研究熱點[2]。優(yōu)化過程中通常會生成大量的備選方案,能否快速進行建筑能耗預(yù)測成為影響優(yōu)化效率的關(guān)鍵因素。隨著人工智能技術(shù)的不斷發(fā)展,基于機器學習的能耗預(yù)測方法越來越多的應(yīng)用于建筑能耗優(yōu)化中。實踐證明,通過機器學習預(yù)測建筑能耗大大提高了建筑節(jié)能優(yōu)化設(shè)計的效率,正逐步為建筑師所接納。在實際應(yīng)用中,建筑節(jié)能優(yōu)化問題多為在已知可行空間內(nèi)尋找最優(yōu)方案[3],但在優(yōu)化過程中,個體方案多為隨機生成或有引導性的隨機生成[4-6],使得用于學習的訓練樣本集分布情況未知?,F(xiàn)有研究中,關(guān)于樣本集質(zhì)量(即樣本分布不均衡問題)的研究多集中于分類問題中[7-9],在關(guān)于回歸問題中機器學習算法的選擇及其參數(shù)設(shè)置的研究中,關(guān)于樣本集質(zhì)量尚無統(tǒng)一定義[10],多集中于樣本集大小對學習效果的影響或樣本個體質(zhì)量對學習效果的影響,較少關(guān)注樣本集樣本分布情況即樣本集所包含信息完整性對學習效果的影響[11-14]。但在樣本分布情況未知的前提下,隨意選擇的算法或不合理的參數(shù)設(shè)置可能會導致算法性能不理想,從而影響建筑節(jié)能優(yōu)化效果。同時,對于建筑師而言,由于機器學習原理及應(yīng)用的復雜性,尚未有較統(tǒng)一且明確的學習方法選擇及參數(shù)設(shè)置依據(jù)對其進行指導。

        文中提出了基于樣本量及樣本覆蓋性的樣本集質(zhì)量評價方法,通過比較幾種常用的機器學習方法及參數(shù)設(shè)置在不同質(zhì)量樣本集情況下的學習效果,分析樣本集質(zhì)量與機器學習算法性能之間的關(guān)系,針對不同質(zhì)量樣本集提出學習方法選擇及參數(shù)設(shè)置建議,為建筑師使用提供理論指導。

        1 理論與方法

        1.1 傳統(tǒng)機器學習算法

        支持向量回歸(Support Vector Regression,SVR)[15]是支持向量機的重要分支,廣泛應(yīng)用于非線性回歸問題[16]。該算法基于核函數(shù)的小樣本統(tǒng)計理論,其核心是VC維理論及結(jié)構(gòu)風險最小化原則,可以有效避免陷入局部最優(yōu)而達到全局最優(yōu), 并通過核函數(shù)將低維空間問題映射至高維空間,將其轉(zhuǎn)化為線性回歸關(guān)系[17]。SVR算法具有結(jié)構(gòu)簡單、穩(wěn)定性強、泛化能力強的優(yōu)點,可以有效解決模型選擇與欠學習、過學習、小樣本、非線性和局部最優(yōu)等問題,是建筑能耗預(yù)測中常用算法[18-21]。

        BP神經(jīng)網(wǎng)絡(luò)(Back-Propagation Network,BP)是一種典型的多層前向型神經(jīng)網(wǎng)絡(luò),利用誤差反向傳播算法對網(wǎng)絡(luò)進行訓練,理論上通過選擇適當?shù)木W(wǎng)絡(luò)層次及神經(jīng)元個數(shù)可以任意逼近非線性函數(shù)[22]。該方法具有一定的自適應(yīng)與自組織能力以及非線性映射能力,在建筑能耗預(yù)測問題中顯示出明顯優(yōu)勢[16]。但性能受樣本數(shù)據(jù)及神經(jīng)網(wǎng)絡(luò)拓撲結(jié)構(gòu)影響較大,且隨著樣本量的增多訓練時間會大大加長,因此,選擇適當?shù)耐負浣Y(jié)構(gòu)對該算法尤其重要。

        1.2 集成機器學習算法

        集成學習(Ensemble Learning)是機器學習領(lǐng)域重要的研究方向之一,通過多個學習算法對同一個問題進行學習,得到多個具有差異性的學習器,并通過一定組合方法對其學習結(jié)果進行組合得到最終結(jié)果,核心思想是充分利用誤差較大的個體學習器所獲得的局部信息來增強集成學習器的整體準確度和可靠性,而不是直接將其舍棄。集成學習具有準確度高,穩(wěn)定性高,對參數(shù)設(shè)置敏感性相對較小以及學習效率高等優(yōu)點,在建筑能耗預(yù)測中應(yīng)用日趨廣泛[23-25]。其中,應(yīng)用最多且范圍最廣的為Bagging算法與Boosting算法。

        Bagging算法通過自主采樣法(Bootstrap)產(chǎn)生新的訓練子集訓練基學習器,結(jié)合策略組合各基學習器預(yù)測結(jié)果進行輸出,基學習算法對訓練數(shù)據(jù)越敏感,基學習器差異性越大,集成效果越好。

        算法1Bagging算法

        輸入:訓練集D,個體學習器L,迭代次數(shù)T;

        fort=1, 2, 3, …,T:

        1)對樣本集進行自主采樣得到訓練子集Dt;

        2)使用訓練子集訓練得到個體學習器ht;

        end

        Boosting算法的基本思想是將多個預(yù)測精度較低的弱學習器提升至精度較高的強學習器。其中,最具代表性的為AdaBoost算法,核心思想是通過將自身的學習結(jié)果反饋到問題空間來進行交互,根據(jù)自身對環(huán)境的擬合程度來改變樣本的采樣概率[26],從而加強對精度較低個體的學習。

        算法2AdaBoost算法

        輸入:訓練集D,個體學習器L,迭代次數(shù)T;

        1)樣本權(quán)重初始化為ωi= 1/N,i= 1, 2, …,N,其中N為樣本總數(shù);

        2)通過迭代獲得強學習器:

        fort= 1, 2, …,T。

        ①在訓練集上根據(jù)權(quán)重ωi進行學習獲得弱學習器ht;

        ②計算當前弱學習器中每個樣本的相對誤差并根據(jù)誤差更新權(quán)重。

        Bagging及AdaBoost算法均為使用較廣泛的集成學習算法,Bagging主要通過減小方差來提高學習性能,而AdaBoost在減小方差的同時還可以減小偏差,但Bagging對方差的減小程度大于AdaBoost。且Bagging與AdaBoost相比穩(wěn)定性和魯棒性更強,但AdaBoost在降低錯誤率的程度上強于Bagging[27]。

        2 樣本集質(zhì)量劃分方法

        在使用機器學習算法時,樣本集質(zhì)量對絕大多數(shù)機器學習算法的學習效果影響較大,學習算法選擇及其參數(shù)設(shè)置一直是機器學習研究中的熱點問題,目前尚未有準確的結(jié)論可供參考,多通過參數(shù)尋優(yōu)或經(jīng)驗驗證進行設(shè)置,存在較大的主觀性和局限性。在回歸問題中,較少考慮樣本數(shù)據(jù)分布特征,未充分利用隱含在數(shù)據(jù)集中的信息[28]。在建筑節(jié)能優(yōu)化實踐中,其數(shù)據(jù)集存在以下特點:1)解集空間已知,屬于已知范圍內(nèi)的尋優(yōu)問題;2)訓練集為無噪聲仿真數(shù)據(jù),但訓練集通過性能模擬得到,耗時較長;3)樣本在解集空間中分布情況未知,可能會出現(xiàn)樣本聚集,影響學習效果。

        基于以上特征,文中提出一種基于樣本量及樣本覆蓋性的樣本集質(zhì)量評價方法,以此為基礎(chǔ),測試不同樣本集質(zhì)量下機器學習算法的學習效果。首先,根據(jù)“3σ”準則,將樣本集樣本量分為小、中、大3個等級。其次,引入優(yōu)化算法中解集質(zhì)量評價指標——覆蓋性(Coverage)評價樣本在可行空間內(nèi)的分布情況,如圖1所示。

        圖1 樣本集樣本覆蓋性示意圖Fig.1 The coverage of sample set

        覆蓋性常用于優(yōu)化算法中評價解集在解集空間中分布廣泛性的指標,反映了樣本點在可行求解空間中的分布情況,以表現(xiàn)在解集空間內(nèi)的搜索程度,用以衡量是否陷入局部最優(yōu)。其計算方法為

        (1)

        其中,

        式中,COV為覆蓋性;SDk為第k個變量的標準差(k= 1, 2, …,m),m為變量個數(shù);hkj為第j個個體第k個變量的值(j= 1, 2, …,t),t為個體數(shù)量;Mk為第k個變量的平均值。由式(1)可知,覆蓋性由各樣本點各變量方差乘積求得,反應(yīng)樣本中各變量在空間中的不均衡性,即空間覆蓋程度。在樣本量相同的情況下,樣本的覆蓋性越高,說明樣本在可行空間內(nèi)的分布越均勻,樣本集在各變量維度上的信息完整度越高,越有利于算法進行學習。

        文中通過對樣本量分別為50、200、500的樣本集(均為隨機生成)進行重復測試并計算其覆蓋性。結(jié)果表明,樣本集的覆蓋性大致遵循正態(tài)分布,如圖2所示,故樣本集覆蓋性等級劃分采用“3σ”準則。

        圖2 樣本量為50、200、500的樣本集覆蓋性分布情況Fig.2 Coverage Probability Histogram for sample sets in different sizes (sample size: 50, 200, 500)

        3 實驗設(shè)置

        設(shè)計2組實驗測試不同樣本集質(zhì)量對其學習算法性能的影響。首先,測試傳統(tǒng)機器學習算法在不同質(zhì)量樣本集下的表現(xiàn),從中選出對于每類樣本集表現(xiàn)較好的學習方法及參數(shù)設(shè)置,將其作為第2組實驗的基學習器;其次,以第一階段的實驗結(jié)果為基礎(chǔ),測試集成學習算法對不同質(zhì)量樣本集的預(yù)測效果。最后,得出較好預(yù)測效果所需樣本量,以及對應(yīng)的機器學習方法及其參數(shù)設(shè)置,為建筑節(jié)能優(yōu)化設(shè)計提供幫助。

        3.1 實驗環(huán)境及樣本集設(shè)置

        實驗的運行環(huán)境為:Interi7 8核 2.81 GHz處理器,8G RAM內(nèi)存,64位Windows 10操作系統(tǒng)。實驗樣本集來自天津一虛擬辦公建筑的全年平均能耗模擬數(shù)據(jù)。該建筑共包含4大功能分區(qū),分別為辦公區(qū)、多媒體會議區(qū)、餐飲區(qū)及中庭交通區(qū)。因研究重點在測試機器學習算法性能,在合理的范圍內(nèi)簡化模型,如圖3所示。各樣本集中的所有樣本均為可行空間內(nèi)隨機生成的個體樣本,其能耗通過Grasshopper中能耗模擬插件Honeybee仿真模擬得出。變量及取值范圍,如表1所示,能耗相關(guān)參數(shù)設(shè)置及運行時間設(shè)置等均依照相關(guān)辦公建筑設(shè)計規(guī)范設(shè)定。

        圖3 天津一虛擬辦公建筑模型示意圖Fig.3 The model of a virtual office building in Tianjin

        表1 變量表

        基于建筑節(jié)能優(yōu)化實踐中數(shù)據(jù)集的特征,綜合考慮實際應(yīng)用中的時間成本,將樣本量分為50,200,500三個等級,分別代表小、中、大樣本量。針對每類樣本量各生成1 500個樣本集并計算其覆蓋性,依據(jù)“3σ”準則將其劃分為低、中、高覆蓋性。具體樣本集分類及其特征如表2所示。

        表2 樣本集分類及特征

        3.2 實驗設(shè)置

        機器學習算法通過python Scikit-Learn中的SVR、MLPRegressor、BaggingRegressor及AdaBoostRegressor工具包實現(xiàn)。在訓練學習器之前,為消除變量量級對學習性能的影響,對樣本數(shù)據(jù)進行歸一化處理:

        (2)

        其中,x′為歸一化后的數(shù)據(jù),xavg,xstd分別為x的平均值和方差。

        實驗1:傳統(tǒng)機器學習算法性能評價。

        選取SVR算法及BP神經(jīng)網(wǎng)絡(luò)算法進行訓練,各類樣本集中隨機選擇一個作為該類樣本集代表。對于每一樣本集,80%的樣本作為訓練集,剩余20%作為測試集。對于SVR算法,主要超參數(shù)包括正則化參數(shù)C,不敏感參數(shù)ε及核函數(shù)中的參數(shù);對于BP神經(jīng)網(wǎng)絡(luò)算法,主要超參數(shù)包括隱藏層結(jié)構(gòu),激活函數(shù)以及學習率??紤]到計算時間成本,使用與待測試樣本集同維度的Scikit-Learn自帶標準數(shù)據(jù)集Boston Housing進行預(yù)實驗,確定較優(yōu)學習效果下的各參數(shù)大致范圍,并選取對學習效果影響較大的超參數(shù)作為測試參數(shù)。最終選取SVR算法中高斯核函數(shù)的系數(shù)γ及BP神經(jīng)網(wǎng)絡(luò)中神經(jīng)元結(jié)構(gòu)的神經(jīng)元個數(shù)作為測試超參數(shù),其余超參數(shù)設(shè)置同樣依據(jù)預(yù)實驗中學習效果較優(yōu)的模型參數(shù)。具體算法參數(shù)設(shè)置,如表3所示。

        表3 實驗1算法超參數(shù)設(shè)置

        實驗2:集成機器學習算法性能評價。

        選取實驗1中綜合性能較好的1組SVR及BP設(shè)定參數(shù),作為集成學習算法的基學習器,將Bagging、AdaBoost算法作為比較算法,主要分析基學習器及集成規(guī)模對集成效果的影響。訓練集及測試集劃分同實驗1。由于集成學習算法對于基學習器正確率的最低要求為0.5,在集成過程中剔除正確率小于0.5的基學習器。算法參數(shù)設(shè)置如表4所示。

        表4 實驗2算法超參數(shù)設(shè)置

        3.3 學習方法性能評價

        算法性能評價包含擬合效果、有效率以及時間成本3方面。其中,擬合效果采用均方誤差(mean squared error, MSE)及決定系數(shù)(Coefficient of determination,R2)進行評價。在實驗中,R2大于0.9視為優(yōu)秀的學習算法,將有效率定義為用R2大于0.9的概率,時間成本為算法運行一次的時間。

        4 實驗結(jié)果與分析

        4.1 實驗1結(jié)果與分析

        所有算法訓練100次取平均值作為最終結(jié)果進行比較,SVR算法及BP算法對不同質(zhì)量樣本集的決定系數(shù)和均方誤差如圖4~圖9所示,運算時間如表5~表6所示,有效性如表7~表8所示。

        圖4 Sample50決定系數(shù)Fig.4 The R2 of Sample50

        圖5 Sample50均方誤差Fig.5 The MSE of Sample50

        圖6 Sample200決定系數(shù)Fig.6 The R2 of Sample200

        圖8 Sample500決定系數(shù)Fig.8 The R2 of Sample500

        圖9 Sample500均方誤差Fig.9 The MSE of Sample500

        表5 SVR算法計算時間

        表6 BP算法計算時間

        表7 SVR算法有效率

        表8 BP算法有效率

        通過對實驗1結(jié)果進行分析,可得到如下結(jié)論:

        1)擬合效果方面,Sample50中所有覆蓋性樣本集擬合效果均較差,SVR算法及BP神經(jīng)網(wǎng)絡(luò)算法均未達到R2>0.9的優(yōu)秀標準,但SVR算法擬合效果普遍優(yōu)于BP神經(jīng)網(wǎng)絡(luò)算法。Sample200中,擬合效果明顯提升,當神經(jīng)元個數(shù)小于35時,SVR算法表現(xiàn)優(yōu)異,對于低、高覆蓋性的樣本集,在γ取0.03時取得最優(yōu)效果并達到優(yōu)秀標準,當神經(jīng)元個數(shù)大于35時,BP神經(jīng)網(wǎng)絡(luò)算法的擬合效果優(yōu)于SVR算法,但計算時間較長。對于中覆蓋性樣本集,始終未達到優(yōu)秀標準。Sample500中,擬合效果極優(yōu),2種算法的r2均可達到0.9以上,BP神經(jīng)網(wǎng)絡(luò)算法甚至可達0.95;

        2)樣本量越大,計算成本越高,有效率越高,準確性越強,即訓練樣本中包含的可行空間內(nèi)的信息越豐富,學習效果越好。同時,隨著樣本量的增加,擬合效果對學習算法及參數(shù)設(shè)置的敏感性下降,即各算法及參數(shù)設(shè)置之間的學習差異減小;

        3)覆蓋性對學習效果有一定影響,當樣本量相同時,各樣本集覆蓋性雖然存在差異,但其學習效果的變化趨勢基本相同。樣本量不同時,覆蓋性對學習效果的影響存異,在實驗中,樣本量為50,200時,其學習效果從優(yōu)至劣依次為高、低、中覆蓋性;當樣本量為500時,SVR算法的學習效果優(yōu)劣排序為高、中、低,而BP神經(jīng)網(wǎng)絡(luò)算法學習效果優(yōu)劣排序則為中、高、低。由此可見,覆蓋性與學習器的學習效果并不始終成正相關(guān)關(guān)系,而是與樣本量及學習算法有關(guān)。印證了Zhou等[29]在“選擇性集成”概念中證明的通過選擇部分個體學習器來構(gòu)建集成可能要優(yōu)于使用所有個體學習器構(gòu)建的集成;

        4) 在實驗中,SVR算法在不同參數(shù)設(shè)置下算法復雜度無明顯差別,BP神經(jīng)網(wǎng)絡(luò)算法的復雜度隨著隱藏層結(jié)構(gòu)的復雜化而逐漸增加,結(jié)果表明,當隱藏層結(jié)構(gòu)達到一定復雜度時,繼續(xù)增加神經(jīng)元個數(shù),反而會降低學習效果,且神經(jīng)元個數(shù)越多,時間成本越大,在選擇算法及參數(shù)設(shè)定時,應(yīng)選用適當復雜度算法,以防止出現(xiàn)過擬合現(xiàn)象;

        5)對于不同樣本量樣本集,計算時間雖隨著樣本量增加而逐漸增大,并無數(shù)量級上的差別,測試模型較為簡單,隨著模型復雜度的增加,樣本量帶來的計算時間差異會逐漸增大。在建筑優(yōu)化過程中,時間成本的增加主要來自于生成樣本集時所需的模擬計算時間,故當樣本量增大時,整體時間成本會大大增加。

        4.2 實驗2結(jié)果與分析

        在實驗1中,Sample50中所有樣本集均未達到優(yōu)秀水平,Sample200中覆蓋性樣本集未達到優(yōu)秀水平,對以上樣本集進行集成學習實驗,以獲得較好的擬合效果。基學習器綜合考慮準確性、有效率及計算時間3方面,以實驗1結(jié)果為參考,選取表現(xiàn)較好且模型復雜度適中的算法及參數(shù)設(shè)置作為基學習器。因支持向量機是一種比較穩(wěn)定的學習算法,直接集成效果不佳,故基學習器均選取不同復雜度的神經(jīng)網(wǎng)絡(luò)算法。其中,Sample50因樣本量較少且R2呈遞增趨勢,故選取4種隱藏層結(jié)構(gòu)依次進行集成。具體學習器設(shè)置及集成學習參數(shù)如表9所示。

        表9 集成學習參數(shù)設(shè)置

        實驗2算法R2如圖10~圖13所示,計算時間如表10~表11所示,算法有效性如表12~表13所示。通過對實驗2結(jié)果進行分析,可得到以下結(jié)論:

        1)在擬合效果方面,對于Sample50的三類樣本集,由于基學習器學習效果較差,經(jīng)集成之后,絕大多數(shù)集成學習器仍未達到優(yōu)秀標準,僅在高覆蓋性樣本集中,以隱藏層結(jié)構(gòu)為(40, )的BP神經(jīng)網(wǎng)絡(luò)學習器作為基學習器時,R2可達到0.9以上。但在各類覆蓋性中,均有集成學習器R2可達到0.85以上,達到回歸學習器可使用的基本要求。在Sample200_med樣本集中,當AdaBoost算法的集成規(guī)模達到40時,R2達到0.9;

        2)在基學習器方面,基學習器的擬合效果與最終集成后的擬合效果并不完全成正相關(guān)關(guān)系。因為基學習器的復雜度過高,導致其泛化能力較弱,在集成時生成的個體學習器差異度較小,從而影響其擬合效果;

        3)在集成規(guī)模方面,當集成規(guī)模達到一定數(shù)值之后,繼續(xù)增大集成規(guī)模并不會明顯提升集成效果,甚至會減弱擬合效果(如圖7中AdaBoost[(50, )]);

        4)在計算時間方面,隨著集成規(guī)模的擴大,時間成本逐漸增高。計算時間受樣本量影響較大,當樣本量增加時,時間成本明顯提高。綜合考慮,在設(shè)定集成規(guī)模時,應(yīng)適中為宜。

        圖10 Sample50_low集成學習決定系數(shù)Fig.10 The R2 of Sample50_low

        圖11 Sample50_med集成學習決定系數(shù)Fig.11 The R2 of Sample50_med

        圖12 Sample50_high集成算法決定系數(shù)Fig.12 The R2 of Sample50_high

        圖13 Sample200_med集成算法決定系數(shù)Fig.13 The R2 of Sample200_med

        表10 Sample50集成算法計算時間

        表11 Sample200集成算法計算時間

        表12 Sample50集成算法結(jié)果有效率

        表13 Sample200_med集成算法結(jié)果有效率

        綜合實驗結(jié)果,樣本量為50時無法保證在大多數(shù)情況下達到較優(yōu)學習效果,但R2可以達到0.85以上,已達到可用標準,若建筑師無充足時間且對預(yù)測精度要求較低時,可使用樣本量為50的樣本集。樣本量為200時,全部覆蓋度可以保證0.9以上的R2,耗時在可接受范圍內(nèi),為較理想的樣本量。樣本量為500時,僅使用傳統(tǒng)機器學習算法就可以達到極好的學習效果,R2可達0.95以上,學習用時較短,但其生成樣本集時間成本巨大,若建筑師有充足的時間且對預(yù)測精度有極高要求,可采用該樣本集。針對不同質(zhì)量樣本集的學習方法及參數(shù)設(shè)置建議及其學習效果如表14所示。

        表14 不同質(zhì)量樣本集的學習方法選擇與參數(shù)設(shè)置建議

        5 結(jié) 論

        文中基于樣本量及樣本分布特征對樣本集質(zhì)量進行評價與分類,針對不同質(zhì)量樣本集構(gòu)建了建筑能耗預(yù)測模型,分析樣本量與樣本分布特征對機器學習算法學習性能的影響,得到以下結(jié)論:

        1)樣本量及樣本覆蓋性對機器學習算法的學習性能有影響,其中,樣本量的影響程度大于樣本覆蓋性。對于某一種機器學習算法,在相同樣本量的情況下,不同覆蓋性樣本集的學習效果隨參數(shù)變化的趨勢相同。對于不同算法,在同樣本量情況下,樣本覆蓋性對學習效果的影響有所不同。因此,樣本覆蓋性與算法的學習效果并不始終成正相關(guān)關(guān)系,而是與樣本量及選擇的學習算法有關(guān)。

        2)當樣本量越大時,學習效果對學習算法及參數(shù)設(shè)置的敏感性越低,各算法及參數(shù)設(shè)置之間的學習效果差異減小。雖樣本量越大學習效果越佳,但時間成本亦隨之增加(其主要增加量來自于生成樣本所需的模擬計算時間),針對本案例,當樣本量為200時,無論覆蓋性如何,均足以取得較優(yōu)的學習效果。

        3)集成學習對擬合效果的提升較為明顯,當其集成規(guī)模達到一定程度后,繼續(xù)擴大集成規(guī)模,時間成本增量較大,但其擬合效果提升較小。

        在實際設(shè)計應(yīng)用中,需根據(jù)特定問題選擇適宜的算法進行求解。文中提出了針對各類質(zhì)量樣本集的適用算法及其參數(shù)設(shè)置,為建筑師實際使用提供了參考。在未來研究中,將繼續(xù)研究樣本集質(zhì)量及其余超參數(shù)與學習效果的關(guān)系,建立自適應(yīng)的機器學習算法集并將其集成至優(yōu)化算法中,進一步提高建筑節(jié)能優(yōu)化效率。

        猜你喜歡
        參數(shù)設(shè)置樣本量學習效果
        “百詞斬”對于大學英語四級詞匯學習效果的實證研究
        民族文匯(2022年14期)2022-05-10 03:08:22
        醫(yī)學研究中樣本量的選擇
        基于學習性評價原則提高研究性學習效果的研究
        蓮心寶寶有話說
        航空裝備測試性試驗樣本量確定方法
        Sample Size Calculations for Comparing Groups with Binary Outcomes
        蟻群算法求解TSP中的參數(shù)設(shè)置
        動車環(huán)境下U900異頻切換參數(shù)設(shè)置探討
        基于MATLAB仿真的井下變壓器參數(shù)設(shè)置研究
        自適應(yīng)樣本量調(diào)整中Fisher合并P值法和傳統(tǒng)檢驗法的模擬比較
        亚洲av有码在线天堂| 性感女教师在线免费观看| 国产精品永久久久久久久久久| 激情综合一区二区三区| 国产亚洲精久久久久久无码苍井空| 被驯服人妻中文字幕日本| 日本一区二区视频高清| 久久不见久久见免费影院国语| 久久人人爽人人爽人人av东京热| 亚洲av午夜成人片精品| 亚洲国产av综合一区| 亚州国产av一区二区三区伊在| 老湿机香蕉久久久久久| 国色天香精品亚洲精品| av网站不卡的av在线| 97人妻人人做人碰人人爽| 国产一区二区不卡老阿姨 | 亚洲精品一区二区三区国产| 日本中文一区二区在线| 2018国产精华国产精品| 久久国产亚洲精品超碰热| 蜜桃色av一区二区三区麻豆| 精品国产sm最大网站| 成全高清在线播放电视剧| 久久露脸国产精品WWW| 国产av精选一区二区| 人妻少妇乱子伦无码视频专区| 亚洲av第一成肉网| 福利一区二区三区视频在线| 麻豆最新国产av原创| 首页 综合国产 亚洲 丝袜| 国产 中文 制服丝袜 另类| 日韩国产一区二区三区在线观看| 成年美女黄的视频网站| 国产乱妇乱子视频在播放| 麻豆国产VA免费精品高清在线| 久久这里都是精品99| 中文字幕无线码| 国产哟交泬泬视频在线播放| 成人黄色片久久久大全| av免费网址在线观看|