亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于ConvLSTM 的移動邊緣計算服務(wù)器能耗模型

        2024-02-18 13:46:36李小龍楊凌峰
        應(yīng)用科學(xué)學(xué)報 2024年1期
        關(guān)鍵詞:實驗模型

        李小龍,李 曦,楊凌峰,黃 華

        1.湖南工商大學(xué)計算機學(xué)院,湖南 長沙 410205

        2.湖南工商大學(xué)前沿交叉學(xué)院,湖南 長沙 410205

        隨著智能交通[1]、智能醫(yī)療[2]、人工智能[3]和虛擬現(xiàn)實[4]等數(shù)字產(chǎn)業(yè)的進一步發(fā)展,計算能力的需求也在不斷增加。作為信息產(chǎn)業(yè)的支柱,邊緣數(shù)據(jù)中心的數(shù)量不斷擴大。最新研究[5-6]表明,數(shù)據(jù)中心的能源需求預(yù)計將從2014 年全球總電力消耗的1%增加到2025 年的3%。數(shù)據(jù)中心頻繁產(chǎn)生大量冗余服務(wù),用來維護服務(wù)的穩(wěn)定性和可靠性。然而,服務(wù)器的使用具有周期性,這會導(dǎo)致大量資源的浪費[7]。節(jié)約數(shù)據(jù)中心能耗[8-10]不僅可以節(jié)約資源和降低數(shù)據(jù)中心成本,還有助于減少二氧化碳排放。在數(shù)據(jù)中心的能源消耗中,約52% 用于提供IT設(shè)備,38% 用于提供支持IT 設(shè)備的冷卻系統(tǒng)[11]。冷卻系統(tǒng)和支持設(shè)施的能源消耗易于管理,而IT 設(shè)備的能源消耗占比最多,且隨著運行條件的變化而變化。對數(shù)據(jù)中心的能源消耗進行有效監(jiān)測和預(yù)測可以提高資源利用率和服務(wù)質(zhì)量,節(jié)省系統(tǒng)資源。實時的數(shù)據(jù)中心能耗建模可以為節(jié)能優(yōu)化算法提供指導(dǎo)和依據(jù)。

        建立一種能夠?qū)崟r準確預(yù)測服務(wù)器能耗的模型有助于提前了解服務(wù)器狀態(tài),這對于優(yōu)化服務(wù)器能耗至關(guān)重要[12-13]。目前,開發(fā)服務(wù)器能耗模型的方法主要分為兩類:基于資源利用率的建模方法[14-17]和基于性能監(jiān)測計數(shù)器的建模方法[18-25]。

        基于資源利用率的能耗模型主要是利用服務(wù)器組件(如CPU 和內(nèi)存)的利用率來構(gòu)建的。文獻[14] 提出了一種邊緣服務(wù)器的能耗模型,指出服務(wù)器的總能耗由處理器、內(nèi)存、磁盤等組件的能耗組成。CPU 的能耗模型根據(jù)處理器的不同狀態(tài)建立。文獻[15] 認為能耗模型可以通過提取處理器、內(nèi)存、磁盤等組件的主要參數(shù)來構(gòu)建。文獻[16] 提出了一種基于基本功率和有功功率確定能耗的預(yù)測方法,通過云監(jiān)測計算獲得有功功率,通過硬件測量獲得基本功率。實驗結(jié)果表明,該方法在CPU 測試中的平均誤差率為4.22%。文獻[17] 提出了虛擬機遷移算法,使虛擬機從主機服務(wù)器遷移到客戶服務(wù)器,降低服務(wù)器的總能耗。以上網(wǎng)絡(luò)的優(yōu)點是簡單方便且易于實現(xiàn)。然而,這些網(wǎng)絡(luò)僅考慮了服務(wù)器的少數(shù)參數(shù),缺乏對服務(wù)器整體狀況的考慮。

        近年來,一些學(xué)者使用神經(jīng)網(wǎng)絡(luò)進行邊緣服務(wù)器能耗建模和定量評估,因為神經(jīng)網(wǎng)絡(luò)可以在復(fù)雜條件下提取數(shù)據(jù)特征,并具有非線性擬合的優(yōu)勢[18-19]。文獻[20] 提出了使用長短期記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(long short-term memory recurrent neural network,LSTM-RNN)模型進行電力生產(chǎn)預(yù)測的方法,對光伏電站的發(fā)電量進行建模,取得了良好的效果。文獻[21] 提出了結(jié)合特征選擇和神經(jīng)網(wǎng)絡(luò)構(gòu)建能耗模型的方法,將服務(wù)器的日常工作模式劃分為CPU 密集型、I/O 密集型和WEB 密集型,并通過構(gòu)建這3 種場景的網(wǎng)絡(luò)模型驗證了模型的有效性。文獻[22] 驗證了使用反向傳播(back propagation,BP)神經(jīng)網(wǎng)絡(luò)、Elman 神經(jīng)網(wǎng)絡(luò)和長短期記憶神經(jīng)網(wǎng)絡(luò)構(gòu)建的模型在CPU 密集型、內(nèi)存密集型、I/O 密集型和混合任務(wù)類型的工作負載下比多元線性回歸和支持向量回歸具有更好的性能。文獻[23] 提出了一種基于Elman 神經(jīng)網(wǎng)絡(luò)的服務(wù)器能耗預(yù)測模型,可以根據(jù)服務(wù)器運行過程中的參數(shù)預(yù)測服務(wù)器的能耗。文獻[24]使用改進和優(yōu)化的BP 神經(jīng)網(wǎng)絡(luò)對目標用戶信用體系進行預(yù)測,以完成能源管理系統(tǒng)的現(xiàn)代化改造。文獻[25] 基于神經(jīng)網(wǎng)絡(luò)和參數(shù)選擇構(gòu)建了一種新型的能耗模型,實驗結(jié)果表明,該模型具有良好的性能。文獻[26] 提出基于支持向量機的實時能耗預(yù)測方法,可以有效處理工作負載類型的變化,在CPU 密集型、WEB 密集型和I/O 密集型任務(wù)上對所提出的模型進行了廣泛而全面的評估。

        為了有效地測量和評估數(shù)據(jù)中心的能耗,傳統(tǒng)方法使用傳感器和其他硬件來監(jiān)測能耗,但由于可擴展性差且成本高,難以應(yīng)用于異構(gòu)數(shù)據(jù)中心[27-28]。基于軟件的監(jiān)測系統(tǒng)由于經(jīng)濟高效和易于擴展的特點,適用于數(shù)據(jù)中心復(fù)雜的設(shè)備環(huán)境[29]。本文使用軟件收集相關(guān)參數(shù),并基于卷積長短期記憶(convolutional long short-term memory,ConvLSTM)神經(jīng)網(wǎng)絡(luò)構(gòu)建服務(wù)器能耗模型。具體的工作如下:

        1)基于服務(wù)器狀態(tài)建立了一種細粒度的功率模型。與其他僅考慮單一任務(wù)狀態(tài)的功率模型不同,本文考慮了4 種類型,即CPU 密集型、I/O 密集型、內(nèi)存密集型和混合型。

        2)利用熵值法[30]篩選對服務(wù)器能耗影響更大的參數(shù),并將其用于后續(xù)的能耗建模。

        3)利用ConvLSTM 神經(jīng)網(wǎng)絡(luò),提出了一種用于移動邊緣計算的服務(wù)器智能能耗模型(intelligence server energy consumption model,IECM)。實驗結(jié)果證實了該模型的準確性和有效性。

        1 相關(guān)工作

        1.1 熵值法

        特征數(shù)據(jù)的選擇有多種方式,熵值法是一種客觀的權(quán)重方法,它根據(jù)指標觀測值所提供的信息來確定指標的權(quán)重。該方法可以用于確定參數(shù)的權(quán)重,消除一些主觀因素的干擾,使結(jié)果更加科學(xué)和合理。使用熵值法進行綜合評估的步驟如下:

        步驟1初始值歸一化

        正向指標為

        負向指標為

        步驟2計算第j個指標中第i個指標的占比

        每個評價指標的熵值可以定義為

        式中:k=1/lnm,m為評價對象的數(shù)量。如果Yij=0,則排除指標j的評價對象i。

        步驟3計算熵的冗余度,其公式為

        步驟4計算每個評價指標的權(quán)重,其公式為

        1.2 LSTM

        LSTM 是為解決循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)長期依賴問題及其可能帶來梯度消失和爆炸問題而提出的。LSTM 通過輸入門、輸出門和遺忘門這3 個關(guān)鍵門單元實現(xiàn)數(shù)據(jù)傳輸和處理,旨在保護和控制信息的流動。LSTM 的計算公式為

        式中:it、ft和ht分別為輸入門、遺忘門和輸出門;Wi和bi分別為輸入門的權(quán)重和偏差;Wf和bf分別為遺忘門的權(quán)重和偏差;Wo和bo對應(yīng)于輸出門的權(quán)重和偏差;xt、ht-1和ct-1分別表示LSTM 網(wǎng)絡(luò)中當前單元的輸入、上一個單元的輸出和狀態(tài),運算符“?”表示Hadamard乘積,σ表示非線性激活函數(shù)。

        1.3 ConvLSTM

        本文使用的ConvLSTM 神經(jīng)網(wǎng)絡(luò)與LSTM 具有相同的結(jié)構(gòu),計算公式為

        式中:Xt表示當前單元的輸入;Ct-1和Ht-1分別對應(yīng)于上一個單元的狀態(tài)和輸出;“*”為卷積運算;W表示核為k*k的2D 卷積濾波器;k為卷積核的大小。Wi、bi、Wf、bf、Wo和bo的定義與LSTM 的計算公式類似,但數(shù)據(jù)維度和處理方法不同。

        2 IECM-服務(wù)器能耗模型

        本部分介紹建立基于ConvLSTM 的服務(wù)器能耗模型的過程,包括數(shù)據(jù)收集、數(shù)據(jù)分析、特征參數(shù)選擇、神經(jīng)網(wǎng)絡(luò)構(gòu)建和模型評估。

        2.1 能耗建模步驟

        服務(wù)器能耗建模的過程如圖1 所示,包括以下5 個步驟:

        圖1 能耗建模過程Figure 1 Process of energy consumption modeling

        步驟1在移動邊緣計算服務(wù)器上安裝監(jiān)控軟件,用于實時監(jiān)測服務(wù)器硬件和軟件,以獲取運行時間數(shù)據(jù),此步驟稱為數(shù)據(jù)收集;

        步驟2在特征提取階段,將所需的監(jiān)測項目保存在監(jiān)控軟件中,并用作后續(xù)步驟中的特征參數(shù);

        步驟3在特征選擇階段,使用特征選擇算法獲取特征參數(shù)的權(quán)重,對于權(quán)重極小的參數(shù),若其對結(jié)果影響較小,則丟棄,以提高模型準確性;

        步驟4在模型建立階段,使用ConvLSTM 來建立移動邊緣計算服務(wù)器的能耗模型;

        步驟5在模型評估階段,將服務(wù)器工作負載分為CPU 密集型、I/O 密集型、內(nèi)存密集型和混合型4 種場景,使用建立的模型與其他模型在4 種不同場景下進行比較。

        2.2 數(shù)據(jù)采樣過程

        為了獲取目標服務(wù)器的特征數(shù)據(jù)需要在服務(wù)器上設(shè)置監(jiān)測項目。傳統(tǒng)的監(jiān)測項目需要安裝硬件監(jiān)測設(shè)備以獲取相關(guān)參數(shù),這種方法過程復(fù)雜、條件受限且代價昂貴。

        本文采用軟件監(jiān)測來獲取必要的參數(shù)。常用的監(jiān)測軟件有Zabbix1、Ganglia2 和Nagios3。Zabbix 支持自定義監(jiān)測,但在需要傳輸大量數(shù)據(jù)時可能會有延遲現(xiàn)象。Ganglia 易于后期大規(guī)模擴展,但其沒有內(nèi)置消息系統(tǒng)和告警機制。Nagios 的基礎(chǔ)功能較為簡單,其監(jiān)測能力主要由插件提供,需要安裝和配置插件拓展功能。基于此,本文選擇了具備內(nèi)置消息系統(tǒng)和警報功能的Zabbix 與支持大規(guī)模部署的Ganglia 兩個軟件進行組合監(jiān)測,由Zabbix 監(jiān)測各種系統(tǒng)和應(yīng)用程序,Ganglia 監(jiān)測集群中各個節(jié)點的狀態(tài)和性能,以獲取全面且完整的監(jiān)測數(shù)據(jù)。

        2.3 特征數(shù)據(jù)選擇

        2.3.1 數(shù)據(jù)獲取

        大量的數(shù)據(jù)不但會增加模型資源開銷,而且也會降低模型的準確性。此本文使用熵值法來獲取特征選擇的參數(shù)。在特征選擇過程中,如果權(quán)重極小,則表示該值對結(jié)果影響很小,可以將其移除,以降低服務(wù)器負載,提高模型準確性。與其他僅考慮單一任務(wù)狀態(tài)的功率模型不同,本文實驗包括的4 種類型(CPU 密集型、I/O 密集型、內(nèi)存密集型和混合型)涵蓋了不同的任務(wù)特性和資源需求,能更準確地體現(xiàn)系統(tǒng)在各種場景下的功率消耗情況。實驗過程中,將權(quán)重低于0.001 的參數(shù)丟棄。

        本文的實驗硬件環(huán)境如表1 所示,測試數(shù)據(jù)集如表2 所示。CPUGrab-Ex 和Mem Test64是常用的服務(wù)器CPU 和內(nèi)存壓力測試軟件。IOzone 是一個文件系統(tǒng)測試工具,用于測試不同操作系統(tǒng)下系統(tǒng)的讀寫性能。PCMARK10 中包含了現(xiàn)代工作場所中各種任務(wù)的綜合測試項目集。表3 列出了所有選定的參數(shù)。

        表1 實驗環(huán)境Table 1 Experimental environment

        表2 測試數(shù)據(jù)集Table 2 Data set for the test

        表3 參數(shù)解釋Table 3 Parameters explanation

        2.3.2 數(shù)據(jù)分析

        獲取相關(guān)實驗數(shù)據(jù)后,通過熵值法進行特征分析和選擇。雖然每個實驗的特征數(shù)據(jù)不同,但大多數(shù)特征參數(shù)都有一定的規(guī)律。

        表4 顯示了4 個實驗中權(quán)重值前10 的特征參數(shù)。在實驗中,CPU 利用率和內(nèi)存利用率表示CPU 和內(nèi)存的狀態(tài),磁盤讀寫速率表示磁盤的工作狀態(tài)。

        表4 4 種類型工作負載下權(quán)重排列前10 的參數(shù)Table 4 Parameters of the top ten weights in the four types of workloads

        圖2 展示了在CPU 密集型負載下3 個主要特征參數(shù)和能耗值的趨勢。圖3 展示了在I/O密集型負載下3 個主要特征參數(shù)和能耗值的趨勢。圖4 展示了在內(nèi)存密集型負載下3 個主要特征參數(shù)和能耗值的趨勢。圖5 展示了在混合型負載下3 個主要特征參數(shù)和能耗值的趨勢。

        圖2 CPU 密集型負載下每個組件的參數(shù)值Figure 2 Parameter values of each component under CPU-intensive load

        圖3 I/O 密集型負載下每個組件的參數(shù)值Figure 3 Parameter values of each component under I/O-intensive load

        圖4 內(nèi)存密集型負載下每個組件的參數(shù)值Figure 4 Parameter values of each component under memory intensive load

        圖5 混合負載下每個組件的參數(shù)值Figure 5 Parameter values of each component under hybrid intensive load

        從圖2~5 可以看出,服務(wù)器的能耗、CPU、內(nèi)存和磁盤利用率隨著負載的波動而變化。然而,這些變化并不滿足特定的關(guān)系。為了更好地預(yù)測和量化服務(wù)器的能耗,考慮到ConvLSTM神經(jīng)網(wǎng)絡(luò)具有良好的非線性擬合特性[31],選擇ConvLSTM 神經(jīng)網(wǎng)絡(luò)來對服務(wù)器的能耗進行建模。

        2.4 IECM 模型

        IECM 模型旨在基于LSTM 的數(shù)據(jù)集中添加學(xué)習(xí)空間信息的功能。該模型將LSTM 單元中狀態(tài)與狀態(tài)之間的矩陣乘法替換為卷積運算,使算法能夠處理時空數(shù)據(jù),并使用來自本地鄰居和先前狀態(tài)的輸入來確定網(wǎng)格中特定單元的未來狀態(tài)。ConvLSTM 的內(nèi)部結(jié)構(gòu)和模型圖如圖6 和7 所示。

        圖6 ConvLSTM 的內(nèi)部結(jié)構(gòu)圖Figure 6 Internal structure diagram of ConvLSTM

        圖7 ConvLSTM 的模型圖Figure 7 Model diagram of ConvLSTM

        3 實驗結(jié)果與分析

        3.1 實驗環(huán)境

        本文實驗在CPU 密集型、I/O 密集型、內(nèi)存密集型和混合型負載下進行。監(jiān)測軟件每秒記錄1 次數(shù)據(jù),共獲得40 個服務(wù)器數(shù)據(jù)項。實驗首先使用熵值法計算每個特征數(shù)據(jù)的權(quán)重,并排除一些權(quán)重較小的數(shù)據(jù);其次對數(shù)據(jù)進行歸一化處理;然后按比例將數(shù)據(jù)分為訓(xùn)練集和測試集;再使用Python 中Keras 庫的ConvLSTM2D 包構(gòu)建神經(jīng)網(wǎng)絡(luò)模型;最后,使用測試集評估模型并驗證其性能。為了更好地評估IECM 模型的性能,本文將其與BP[32]、LSTM[33]和多層感知機(multilayer perceptron,MLP)模型[34]進行比較。

        3.2 實驗結(jié)果

        為驗證提出模型IECM 的優(yōu)勢,圖8~11 展示了4 種環(huán)境下每個神經(jīng)網(wǎng)絡(luò)模型預(yù)測值和實際值??梢姡篊PU 密集型任務(wù)的服務(wù)器能耗最高,因為處理器消耗的能量比內(nèi)存和I/O 組件多;BP 和LSTM 模型主要提取數(shù)據(jù)的時空特征,預(yù)測性能相對理想;MLP 模型的準確性處于中等水平,其深度學(xué)習(xí)速度較慢,容易陷入局部最優(yōu)。IECM 模型整合了時間性和空間性,在4 個實驗中比其他3 個模型的性能效果更佳。此外,IECM 模型采用熵值法選擇了更多的參數(shù),提高了模型的準確性。

        圖8 在CPU 密集型工作負載下4 種算法的能耗比較Figure 8 Energy consumption comparison of the four algorithms under the CPU-intensive workload

        圖9 在I/O 密集型工作負載下4 種算法的能耗比較Figure 9 Energy consumption comparison of the four algorithms under the I/Ointensive workload

        圖10 在內(nèi)存密集型工作負載下4 種算法的能耗比較Figure 10 Energy consumption comparison of the four algorithms under the memory-intensive workload

        圖11 在混合工作負載下4 種算法的能耗比較Figure 11 Energy consumption comparison of the four algorithms under the hybrid workload

        通過4 個實驗的比較,在混合型實驗中每個網(wǎng)絡(luò)的表現(xiàn)都不如其他3 個網(wǎng)絡(luò),因為混合型實驗具有更多的變量,更難預(yù)測。

        圖12 和13 展示了4 種模型(BP,LSTM,MLP 和IECM)在不同負載下的平均絕對誤差(mean absolute error,MAE)和平均相對誤差(mean relative error,MRE)。如圖12 所示,IECM 在4 個實驗環(huán)境中的MAE 值分別為0.72、0.76、0.92 和1.50,MAE 方面IECM 優(yōu)于其他3 個能耗模型。如圖13 所示,IECM 在4 個實驗環(huán)境中的MRE 率分別為0.69%、1.33%、1.41% 和0.03%,與其他3 個能耗模型相比IECM 更好。BP 模型主要用于提取數(shù)據(jù)的空間特征,而LSTM 主要用于提取數(shù)據(jù)的時間特征。在CPU 密集型條件下,BP 模型的效果與LSTM 相似。然而,在I/O 密集型和內(nèi)存密集型工作負載下,BP 模型的效果明顯優(yōu)于LSTM。MLP 模型由于其學(xué)習(xí)速度慢、容易陷入局部最優(yōu)而處于中等水平。IECM 模型采用熵值法且選擇了更多的參數(shù),整合了時間性和空間性以提高模型的準確性和魯棒性。

        圖12 MAE 比較Figure 12 Comparison of MAE

        圖13 MRE 比較Figure 13 Comparison of MRE

        4 結(jié)語

        本文針對現(xiàn)有能耗模型對動態(tài)工作負載波動的低敏感性和低精度問題,提出了一種基于ConvLSTM 神經(jīng)網(wǎng)絡(luò)的移動邊緣計算服務(wù)器能耗模型,有效評估和量化邊緣數(shù)據(jù)中心服務(wù)器的能耗。該模型使用熵值法篩選影響服務(wù)器能耗的參數(shù),以此消除主觀因素的干擾,提高結(jié)果的合理性和科學(xué)性。針對服務(wù)器工作負載動態(tài)變化的問題,利用熵值法選定的參數(shù)使用ConvLSTM 神經(jīng)網(wǎng)絡(luò)訓(xùn)練和構(gòu)建準確的功率模型。在CPU 密集型、I/O 密集型、內(nèi)存密集型和混合型4 個數(shù)據(jù)集上的實驗結(jié)果表明:IECM 具有高精度和良好的魯棒性?;诒疚墓ぷ?,未來的研究點在于實時監(jiān)測和控制服務(wù)器能耗,以提高服務(wù)器性能和效率為目標,構(gòu)建準確、穩(wěn)定的多目標模型,在此基礎(chǔ)上擴充多種硬件環(huán)境下的對比實驗,使模型的建立更加全面科學(xué)。

        猜你喜歡
        實驗模型
        一半模型
        記一次有趣的實驗
        微型實驗里看“燃燒”
        重要模型『一線三等角』
        重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
        做個怪怪長實驗
        3D打印中的模型分割與打包
        NO與NO2相互轉(zhuǎn)化實驗的改進
        實踐十號上的19項實驗
        太空探索(2016年5期)2016-07-12 15:17:55
        FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
        免费观看羞羞视频网站| 在线视频你懂的国产福利| 五十路熟久久网| 久久精品国产亚洲AV成人公司| 香蕉视频免费在线| 国产一级做a爱视频在线| 高清国产精品一区二区| 曰日本一级二级三级人人| 激情五月婷婷一区二区| 国内少妇毛片视频| 日本japanese丰满多毛| 久久久亚洲色| 国产成人一区二区三中文| 精品久久久久88久久久| 一区二区三区观看视频在线| 国内久久婷婷六月综合欲色啪| 色综合久久无码五十路人妻| 精品国产一二三产品区别在哪| 国产nv精品你懂得| 日韩精品夜色二区91久久久| 一区二区三区四区黄色av网站| 免费欧洲毛片a级视频老妇女| 久久亚洲中文字幕无码| 日韩永久免费无码AV电影| 日本人妻少妇精品视频专区| 二区三区日本高清视频| 亚洲色大成网站www永久| 亚洲综合色区另类av| 久久精品国产亚洲AⅤ无码| 国产三级在线观看不卡| 国产大屁股视频免费区| 首页 综合国产 亚洲 丝袜| 99久热re在线精品99 6热视频| 香蕉视频免费在线| 国产自拍av在线观看| 99在线精品视频在线观看 | 久久久久亚洲AV片无码乐播| 女同久久精品国产99国产精| 亚洲国产av一区二区三区天堂| 97精品国产97久久久久久免费| 麻豆国产成人av高清在线观看|