亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        開源云計算資源調(diào)度策略優(yōu)化研究

        2023-06-15 08:00:50顏金堯耿俊杰
        計算機技術(shù)與發(fā)展 2023年6期
        關(guān)鍵詞:優(yōu)化資源策略

        邱 亞,顏金堯,陳 宇,耿俊杰

        (1.中央廣播電視總臺 技術(shù)局,北京 100020;2.中國傳媒大學(xué) 媒體融合與傳播國家重點實驗室,北京 100024)

        0 引 言

        近十幾年來,云計算是一個熱門話題。云計算服務(wù)正逐漸成為新型的信息基礎(chǔ)設(shè)施,各個國家政府這些年來紛紛鼓勵廠商制定計劃優(yōu)先發(fā)展云服務(wù),從而促進互聯(lián)網(wǎng)技術(shù)不斷創(chuàng)新[1]。云計算是一種通過統(tǒng)一規(guī)劃硬件系統(tǒng)資源,實現(xiàn)用戶按需分配的技術(shù),有利于資源的管理與監(jiān)控[2]。

        OpenStack作為目前流行的開源云計算管理平臺項目,通過各個組件來完成云處理功能,覆蓋了網(wǎng)絡(luò)、服務(wù)器、操作系統(tǒng)、虛擬化等各個方面,提供了完整的IaaS解決方案[3]。OpenStack云計算平臺成本低、可擴展性強、管理方便,成為企業(yè)認可的公有或私有云平臺[4]。

        虛擬機是云平臺提供服務(wù)的一種方式,資源的調(diào)度與管理就是通過對數(shù)據(jù)中心中各物理主機的資源進行監(jiān)控,有效分配虛擬機的一個過程[5]。在虛擬機運行當(dāng)中,由于資源的實時變化,各個節(jié)點的規(guī)格差異,容易形成資源的不平衡分布。如今云計算虛擬資源的調(diào)度管理涉及到多個方向:提高資源利用率、降低能耗、提升經(jīng)濟效益或提高服務(wù)質(zhì)量、改善任務(wù)調(diào)度性能等[6]。

        在任務(wù)調(diào)度方面,文獻[7]優(yōu)化了啟發(fā)式異構(gòu)算法(HEFT)有效解決了工作流調(diào)度的難題,降低了調(diào)度的能量消耗。文獻[8]提出了一種基于遺傳算法的云計算任務(wù)調(diào)度算法,劃分任務(wù)級別的同時考慮調(diào)度時間以及成本,具有更好的調(diào)度性能。

        在降低能耗方面,文獻[9]提出了一種兼顧性能和能效的調(diào)度算法GAEHFET,采用有效比率識別并關(guān)閉一組無效的處理器執(zhí)行以減少能耗,可以用于在大型計算系統(tǒng)中調(diào)度云應(yīng)用。文獻[10]嘗試通過預(yù)測工作負載來計算需求,修改可用服務(wù)器的集合來適應(yīng)預(yù)測,為此開發(fā)了預(yù)測優(yōu)化調(diào)度算法,大大降低了云計算平臺的能耗。

        在資源利用率方面,文獻[11]考慮最新的啟發(fā)式算法,研究了將高性能計算作業(yè)映射到資源,嚴格評估云計算工作的負載分配狀態(tài),提出資源感知負載均衡算法,提高了云計算平臺的資源利用效率。文獻[12]設(shè)計了一種基于基線神經(jīng)網(wǎng)絡(luò)技術(shù)的動態(tài)負載平衡策略,該策略將根據(jù)服務(wù)器的剩余負載容量對服務(wù)器進行動態(tài)分類,并將任務(wù)部署到服務(wù)器上,這可以最小化任務(wù)的總執(zhí)行時間,并最大化服務(wù)器的資源利用率,同時平衡長期過程中云數(shù)據(jù)中心的負載。

        然而,現(xiàn)有研究都沒有真正考量云數(shù)據(jù)中心的實際運行狀態(tài)給計算節(jié)點帶來的壓力問題,也沒有涉及在資源變化的過程中動態(tài)評測虛擬機的遷移問題。因此,針對這些問題,該文借助OpenStack平臺,對虛擬機調(diào)度模塊進行優(yōu)化,同時改進計算節(jié)點評價策略、選擇策略,提出運行過程中虛擬機選擇和動態(tài)遷移算法,并進行了實驗驗證。實驗結(jié)果表明,提出的調(diào)度優(yōu)化策略可以改善計算節(jié)點主機的資源均衡度,提升資源利用率和云服務(wù)質(zhì)量。

        1 OpenStack虛擬機調(diào)度原理及問題

        OpenStack云平臺始于2010年Rackspace和NASA的聯(lián)合項目,是一系列軟件的集合,旨在通過虛擬化網(wǎng)絡(luò)、存儲、計算資源來提供全面的云服務(wù)。OpenStack提供的架構(gòu)類似于亞馬遜的EC2和S3[13]。OpenStack完全開源,具有兼容性好、靈活性強等特點,模塊化的設(shè)計和靈活的部署方式使得OpenStack成為眾多企業(yè)的選擇。

        1.1 OpenStack虛擬機調(diào)度原理

        云計算平臺的調(diào)度目標是虛擬機,所有的虛擬機從節(jié)點主機獲取資源,因此云平臺調(diào)度的最終要求是要保障計算節(jié)點主機之間的資源能夠有效分配并且正常使用。

        OpenStack原生的調(diào)度引擎分為兩個步驟:

        (1)計算節(jié)點過濾:首先通過查詢數(shù)據(jù)庫獲取所有計算節(jié)點并對各個節(jié)點進行資源的統(tǒng)計。接著配置過濾器對所有的節(jié)點進行條件性過濾,刪除不符合條件的計算節(jié)點并返回。在用戶創(chuàng)建虛擬機時,由于用戶的需求,虛擬機的規(guī)格不盡相同,當(dāng)過濾器生效后,可能出現(xiàn)返回列表為空,這表示此虛擬機無法運行在現(xiàn)有節(jié)點中,創(chuàng)建流程隨之結(jié)束。

        (2)權(quán)值計算:當(dāng)過濾完不合格的計算節(jié)點后,由于各個節(jié)點剩余的資源不相同,就產(chǎn)生了節(jié)點選擇的順序。OpenStack默認通過基于內(nèi)存的權(quán)值計算來判斷節(jié)點的先后順序,主機剩余的內(nèi)存越大,權(quán)值就越小[14]。

        除了需要考慮虛擬機創(chuàng)建初期的調(diào)度之外,云平臺虛擬機管理還包含了運行時期的監(jiān)管。在云平臺正常運行過程當(dāng)中,各虛擬機的工作狀態(tài)會導(dǎo)致計算節(jié)點之間的工作負載產(chǎn)生差異。為了能夠改善物理主機的負載狀況從而保證虛擬機流暢運行,OpenStack采用了遷移技術(shù)對計算節(jié)點進行有效調(diào)整。目前虛擬機遷移技術(shù)分為兩種類型:靜態(tài)遷移和熱遷移。

        1.2 OpenStack虛擬機調(diào)度管理存在的問題

        (1)虛擬機分配問題。

        虛擬機的分配決定虛擬機在創(chuàng)建和遷移時放置在哪一個計算節(jié)點,也就是尋求一個最佳的映射能夠讓虛擬機正常運行并且各計算節(jié)點之間的資源占用合理。從Nova組件的調(diào)度模塊分析可知,OpenStack在分配虛擬機時,默認根據(jù)節(jié)點主機的剩余內(nèi)存進行選擇[15]。虛擬機的資源有內(nèi)存、CPU、磁盤等,OpenStack平臺在分配虛擬機時采用貪心策略,首先選擇剩余內(nèi)存大的節(jié)點進行放置?;趦?nèi)存的調(diào)度策略過于簡單,這是因為創(chuàng)建新的虛擬機時,如果總是優(yōu)先選擇剩余內(nèi)存大的節(jié)點,可能會導(dǎo)致低規(guī)格的虛擬機占用了所有高性能的節(jié)點,從而高規(guī)格的虛擬機無法創(chuàng)建。

        (2)虛擬機運行問題。

        云計算相關(guān)資源在實際的環(huán)境中是多變的,盡管在初始分配中計算節(jié)點達到理想的均衡狀態(tài),但是由于用戶任務(wù)的差異會使不同節(jié)點中虛擬機的狀態(tài)不一致,從而導(dǎo)致一段時間后,某些計算節(jié)點的負載迅速變化。一旦某一計算節(jié)點的負載升高到極限,將會嚴重影響節(jié)點中虛擬機的正常運行,甚至有可能導(dǎo)致虛擬機宕機。反之,如果某一節(jié)點的負載降低到很小并維持相當(dāng)長的一段時間,就會使平臺資源利用率過低,產(chǎn)生浪費。OpenStack云平臺虛擬機調(diào)度管理策略是一種靜態(tài)的策略,對虛擬機運行過程中的動態(tài)變化的考慮不足[16]。

        2 系統(tǒng)模型

        2.1 虛擬機調(diào)度管理優(yōu)化建模

        (1)調(diào)度管理優(yōu)化思路。

        針對以上分析,OpenStack平臺在虛擬機分配和運行過程中的弊端主要有兩個方面:

        (a)計算節(jié)點的選擇的局限性。OpenStack云平臺在虛擬機初始分配和運行過程中遷移時,基于內(nèi)存選擇計算節(jié)點,并采用貪心算法優(yōu)先選擇節(jié)點剩余內(nèi)存最大的主機。而虛擬機和節(jié)點主機涉及到的資源有多種,僅僅以內(nèi)存作為選擇依據(jù)不能保證多個虛擬機合理分配到對應(yīng)的計算節(jié)點,容易導(dǎo)致計算節(jié)點之間的資源分配不均勻。

        (b)虛擬機調(diào)度策略的靜態(tài)性。云平臺計算資源時刻變化,需要周期性地對云平臺資源進行有效監(jiān)控。OpenStack原生調(diào)度策略不能及時根據(jù)節(jié)點負載進行虛擬機的動態(tài)遷移,無法在實際的云環(huán)境中保證計算節(jié)點的負載均衡,容易對用戶的云服務(wù)質(zhì)量產(chǎn)生影響。

        OpenStack云平臺具有高擴展性,為了改進虛擬機調(diào)度管理策略,需要從以下幾個角度出發(fā):

        ?優(yōu)化計算節(jié)點選擇策略。在原有基于內(nèi)存的選擇策略上進行擴展,重寫nova-scheduler調(diào)度模塊并增加新的調(diào)度策略,將多種計算資源考慮在內(nèi),保證多種類型的虛擬機在創(chuàng)建或者遷移時能夠分配到合適的節(jié)點中。

        ?優(yōu)化云平臺資源監(jiān)控模塊。在虛擬機遷移之前,需要對云平臺節(jié)點資源以及虛擬機自身資源進行有效監(jiān)控,整合所有的資源使用狀況,為虛擬機的遷移做準備。

        ?優(yōu)化虛擬機遷移策略。虛擬機遷移策略包括了三個方面,第一是何時進行遷移,第二是選取哪些虛擬機進行遷移,第三是遷移到哪個目標節(jié)點。

        通過這三個角度實現(xiàn)對云平臺虛擬機資源的動態(tài)管理,可以保證計算節(jié)點的負載均衡,有助于提高云服務(wù)質(zhì)量。

        (2)計算節(jié)點工作負載模型。

        工作負載代表了物理主機在接收任務(wù)后的工作狀態(tài),云計算環(huán)境中計算節(jié)點的工作負載需要時刻進行監(jiān)控。虛擬機在創(chuàng)建或遷移時對節(jié)點的選擇需要考慮到內(nèi)存、CPU、磁盤容量之外,還需要對節(jié)點的工作負載進行考量,從而將一些負載不足的節(jié)點過濾掉,讓虛擬機創(chuàng)建在更合適的物理主機上。

        物理主機的工作負載主要受三個因素影響,分別是內(nèi)存利用率、CPU利用率、磁盤利用率[17]。為了使工作負載的定義更加明確,該文對這些影響因素進行定義,從而得出計算節(jié)點的工作負載模型。

        內(nèi)存利用率用Mut表示,計算節(jié)點主機的內(nèi)存利用率為節(jié)點內(nèi)虛擬機使用的內(nèi)存和節(jié)點內(nèi)存的比值的百分數(shù)。具體公式如式(1)所示。

        (1)

        其中,Mused表示計算節(jié)點中虛擬機已經(jīng)使用的內(nèi)存,Mtotal表示計算節(jié)點主機的總內(nèi)存。

        CPU利用率用Cut表示,CPU利用率為節(jié)點內(nèi)虛擬機使用的CPU數(shù)和節(jié)點主機的總CPU數(shù)比值的百分數(shù)。需要注意的是,在OpenStack云平臺中,節(jié)點主機的一個CPU可以虛擬成6個虛擬的CPU。因此,具體公式如式(2)所示。

        (2)

        其中,Cused表示節(jié)點內(nèi)虛擬機已經(jīng)使用的CPU數(shù),Ctotal表示節(jié)點主機的CPU數(shù)。

        同樣,磁盤利用率用Dut表示,磁盤利用率為節(jié)點內(nèi)虛擬機使用的磁盤大小和節(jié)點主機總的磁盤大小的比值的百分數(shù)。公式如式(3)所示。

        (3)

        其中,Dused表示虛擬機占用的磁盤容量,Dtotal表示節(jié)點主機的總磁盤容量。

        節(jié)點主機的工作負載和以上三種因素有很大關(guān)系,該文用三者的平均值來描述計算節(jié)點的工作負載情況,這樣能夠更加明確地反映出節(jié)點主機的資源使用的實時性。用Load來表示計算節(jié)點的工作負載,具體公式如下:

        (4)

        (3)虛擬機規(guī)格評價模型。

        不同用戶對云平臺虛擬機的要求是不一樣的。有的虛擬機需要具備較多的CPU資源以滿足計算性能,有的虛擬機需要具備較大的磁盤用來提高存儲能力,還有一些虛擬機需要較大的內(nèi)存資源。同樣,云環(huán)境中計算節(jié)點通常也是異構(gòu)的,各節(jié)點的性能也是不一樣的[18]。筆者希望通過對虛擬機進行評價并進行分類,區(qū)分的種類包括內(nèi)存?zhèn)戎匦吞摂M機、CPU側(cè)重型虛擬機以及磁盤側(cè)重型虛擬機。在對虛擬機進行分配時,根據(jù)虛擬機的類型選擇相應(yīng)的權(quán)值計算器對節(jié)點主機進行排序,選擇出適合放置該類型虛擬機的計算節(jié)點。

        為了對虛擬機進行分類,首先需要定義一個基礎(chǔ)的虛擬機類型。通過將用戶需要的虛擬機參數(shù)和基礎(chǔ)虛擬機的參數(shù)比較來衡量虛擬機的具體類型。定義的基礎(chǔ)虛擬機參數(shù)如表1所示。

        表1 基礎(chǔ)虛擬機參數(shù)

        分別用Mbase、Cbase、Dbase代表基礎(chǔ)虛擬機的內(nèi)存CPU和磁盤容量,用Mneed、Cneed、Dneed分別代表用戶需求的內(nèi)存、CPU和磁盤參數(shù)。同時,將用戶的需求參數(shù)和基礎(chǔ)虛擬機參數(shù)做比較,得出需求資源參數(shù)相對超出程度(設(shè)為W)最大的設(shè)為側(cè)重型資源。具體計算方式如式(5)~式(7)。

        (5)

        (6)

        (7)

        其中,Wm、Wc、Wd分別表示用戶虛擬機的內(nèi)存、CPU、磁盤容量超出基礎(chǔ)虛擬機的程度,值越大代表其超出基礎(chǔ)參數(shù)的程度越大,找出三個值當(dāng)中的最大的對應(yīng)的資源就是虛擬機對應(yīng)的側(cè)重型資源。

        (4)計算節(jié)點負載均衡度模型。

        基于OpenStack云平臺虛擬機調(diào)度管理策略優(yōu)化的最終目的之一是實現(xiàn)計算節(jié)點的負載均衡。計算節(jié)點的負載均衡是通過節(jié)點資源利用率進行評價,上文通過內(nèi)存、CPU、磁盤這三種資源定義了節(jié)點主機的工作負載。如果用Loadi表示第i臺計算節(jié)點的工作負載,那么云計算中心計算節(jié)點的平均工作負載如公式(8)所示。

        (8)

        其中,m為云計算系統(tǒng)中計算節(jié)點的個數(shù),所有節(jié)點的平均工作負載對于整個云平臺系統(tǒng)的負載均衡度評價具有重要意義。負載均衡度的計算方式如式(9)所示。

        (9)

        式中,H表示云平臺系統(tǒng)的負載均衡度,從理論上來看,當(dāng)H越小時,計算節(jié)點之間的負載相差越小,說明主機之間的資源使用越均衡。

        2.2 虛擬機調(diào)度管理優(yōu)化實現(xiàn)

        (1)計算節(jié)點選擇策略優(yōu)化實現(xiàn)。

        計算節(jié)點選擇策略至關(guān)重要,它決定了云平臺虛擬機的初始放置位置。OpenStack云平臺的節(jié)點選擇策略分為節(jié)點過濾和權(quán)值計算,通過上文的分析以及相關(guān)模型的建立,該文提出改進策略。在節(jié)點過濾的過程中,在原有的基于內(nèi)存的過濾機制上綜合CPU、磁盤容量過濾,同時加入計算節(jié)點工作負載過濾策略。也就是說,在虛擬機初始放置的過程中,不僅要避免分配到基礎(chǔ)資源不足的節(jié)點,還要避免分配到工作負載不足的節(jié)點。

        作為計算節(jié)點的物理主機在運行的時候,需要衡量運行狀態(tài)是否正常。該文加入節(jié)點負載過濾策略之后,需要定義一個過濾的閾值,當(dāng)節(jié)點主機的工作負載大于過濾閾值時,說明此節(jié)點主機負載達到極限,不適合再分配其它虛擬機。與此同時,還定義了運行閾值,當(dāng)節(jié)點主機的工作負載超過運行閾值時,代表此節(jié)點主機的負載較高,需要時刻注意負載的變化。OpenStack可以在配置文件中設(shè)置過濾閾值和運行閾值的大小。如設(shè)置過濾閾值為90%,運行閾值為80%。這樣的設(shè)置表示當(dāng)節(jié)點主機工作負載超過90%時,說明此計算節(jié)點不適合再分配虛擬機,當(dāng)節(jié)點主機工作負載超過80%時,說明此節(jié)點的負載較高。

        計算節(jié)點選擇策略優(yōu)化后,基本流程見圖1:

        圖1 計算節(jié)點選擇策略流程

        (a)獲取所有計算節(jié)點列表。

        (b)調(diào)用相關(guān)類函數(shù)及重寫的模塊函數(shù)對計算節(jié)點進行基于內(nèi)存、CPU、磁盤、工作負載的過濾,去除不符合任一條件的節(jié)點。

        (c)返回合格節(jié)點列表。

        (d)獲取創(chuàng)建或遷移的虛擬機規(guī)格。

        (e)對虛擬機進行側(cè)重型資源的評價。

        (f)調(diào)用對應(yīng)的權(quán)值計算器,進行節(jié)點的權(quán)值計算并排序,確定最終的計算節(jié)點。

        (g)執(zhí)行虛擬機的創(chuàng)建或遷移操作。

        權(quán)值計算是在節(jié)點過濾之后實現(xiàn)的,OpenStack提供的權(quán)值計算機制就是將多個合格節(jié)點進行排序,選出最佳節(jié)點完成虛擬機的最終創(chuàng)建[20]。該文按照虛擬機的側(cè)重型資源選擇對應(yīng)的權(quán)值計算器對計算節(jié)點進行過濾,由此需要定義的權(quán)值計算器有三種,分別是內(nèi)存權(quán)值計算器、CPU權(quán)值計算器和磁盤權(quán)值計算器。對于多個權(quán)值計算器的情況,采用加權(quán)求和的方法來計算節(jié)點的最終權(quán)值。

        通過對節(jié)點過濾策略和權(quán)值計算策略的重寫,OpenStack云平臺不僅能夠在虛擬機創(chuàng)建時全面衡量計算節(jié)點主機的資源狀況,還能在運行過程中為虛擬機遷移調(diào)用相關(guān)的節(jié)點選擇機制。

        (2)虛擬機遷移策略優(yōu)化實現(xiàn)。

        虛擬機的分配策略是一種靜態(tài)的調(diào)度策略,云平臺的負載狀況在運行過程中會出現(xiàn)實時性變化,該文對虛擬機遷移策略進行優(yōu)化,實現(xiàn)了一種動態(tài)調(diào)度策略,根據(jù)計算節(jié)點主機的實時負載,動態(tài)調(diào)整虛擬機所在的節(jié)點映射,從而保證云平臺能夠負載均衡。

        虛擬機遷移策略優(yōu)化實現(xiàn)需要從三個方面入手[19],分別是遷移觸發(fā)的臨界點、待遷移虛擬機的選擇和目標節(jié)點的選擇。其中,目標節(jié)點的選擇在帶遷移虛擬機確定之后可通過直接調(diào)用計算節(jié)點選擇策略進行實現(xiàn),因此遷移策略的重點是確定遷移觸發(fā)臨界點以及選擇需要遷移的虛擬機。

        當(dāng)虛擬機遷移的條件觸發(fā)后,需要選擇告警隊列中的節(jié)點作為被遷移節(jié)點,對該節(jié)點上的虛擬機執(zhí)行遷移操作。

        虛擬機遷移的條件觸發(fā)之后需要及時對相應(yīng)的節(jié)點進行調(diào)整,選出需要遷移的虛擬機并執(zhí)行操作。待遷移虛擬機的選擇需要考慮以下兩個方面:(a)虛擬機遷移時間:盡管OpenStack能夠在不中斷用戶服務(wù)前提下進行遷移,但是在待遷移虛擬機選擇時,仍然期望選擇遷移時間較短的虛擬機。(b)服務(wù)質(zhì)量:節(jié)點主機的負載過高導(dǎo)致了服務(wù)質(zhì)量下降,因此在虛擬機遷移時,需要考慮是否能夠有效緩解主機負載狀況。結(jié)合計算節(jié)點工作負載的計算模型,考慮將節(jié)點主機的內(nèi)存使用率、CPU使用率以及磁盤使用率進行比較,找出使用率最大的作為節(jié)點主機最缺少的資源類型。當(dāng)此資源類型確定后,優(yōu)先對相應(yīng)資源占有率最大的虛擬機進行遷移。

        綜合以上兩個因素,定義了虛擬機遷移選擇因子如公式(10)所示:

        (10)

        式中,Hi代表了虛擬機對應(yīng)節(jié)點主機最缺少的資源的占有率,Mi代表虛擬機內(nèi)存使用率。當(dāng)虛擬機的Hi越大時,應(yīng)優(yōu)先被視為待遷移虛擬機。

        根據(jù)以上分析,可以得出待遷移虛擬機選擇策略的實現(xiàn)基本流程,如圖2所示。

        圖2 待遷移虛擬機選擇策略

        (a)輸入計算節(jié)點主機的id之后,要獲取該節(jié)點主機中所有的虛擬機列表。

        (b)對節(jié)點的資源使用率進行比較,得出使用率最高的資源作為緩解負載的有效資源。

        (c)讀取虛擬機信息,確定內(nèi)存使用率,計算每臺虛擬機的遷移選擇因子。

        (d)根據(jù)遷移選擇因子,對虛擬機進行優(yōu)先級的排序。

        (e)將優(yōu)先級最高的虛擬機,作為待遷移虛擬機。

        (f)結(jié)束流程,將待遷移虛擬機傳入其他遷移函數(shù)。

        3 仿真實驗

        該文采用CloudSim[20]來構(gòu)建與OpenStack云平臺同等類型的大規(guī)模云計算資源,并對比優(yōu)化后的虛擬機調(diào)度管理策略和OpenStack原生策略,最后對實驗結(jié)果進行分析。

        3.1 實驗設(shè)計

        (1)實驗對象選取。

        為了充分分析OpenStack虛擬機調(diào)度策略優(yōu)化后的性能,選取了另外兩種資源調(diào)度策略進行對比實驗,分別是OpenStack默認的基于剩余內(nèi)存的調(diào)度策略和一種隨機的調(diào)度策略,具體說明如下:

        ?基于剩余內(nèi)存的調(diào)度策略:當(dāng)創(chuàng)建虛擬機時,按照計算節(jié)點主機的剩余內(nèi)存大小進行放置,優(yōu)先選擇剩余內(nèi)存最大的主機。

        ?基于粒子群算法的綜合調(diào)度策略:該策略是現(xiàn)有成果中對OpenStack調(diào)度的一種綜合改進策略,設(shè)計了適合云平臺虛擬機分配的粒子群算法,并且采用了雙閾值的遷移策略,從而一定程度上改進了云平臺調(diào)度性能。

        (2)對比指標選取。

        根據(jù)該文的優(yōu)化目標,實驗測試對比的指標主要有三個:節(jié)點負載、虛擬機遷移次數(shù)、資源利用率。

        ?節(jié)點負載:建立了相應(yīng)的節(jié)點負載模型,考慮到大規(guī)模計算節(jié)點群的總體均衡程度,通過定義節(jié)點的負載均衡度來進行總體評價,將優(yōu)化的虛擬機資源調(diào)度策略與其它策略進行對比,得出優(yōu)化策略的總體性能。

        ?虛擬機遷移次數(shù):虛擬機遷移次數(shù)體現(xiàn)了虛擬機初始分配后計算節(jié)點的負載變化帶來的影響,因此虛擬機遷移的次數(shù)能夠表現(xiàn)調(diào)度算法策略的優(yōu)劣。

        ?資源利用率:資源利用率體現(xiàn)了在保證云平臺業(yè)務(wù)正常運行下對計算資源的使用率能夠達到最高,從而不會造成平臺資源的浪費。因此,最好的衡量手段是比較不同調(diào)度策略基礎(chǔ)上能夠創(chuàng)建的最大虛擬機數(shù)量。

        (3)計算節(jié)點設(shè)計。

        真實的云計算環(huán)境要求計算節(jié)點之間存在規(guī)格差異,因此通過CloudSim模擬了異構(gòu)的計算節(jié)點。為了測試提出的優(yōu)化調(diào)度策略,需要構(gòu)建大規(guī)模的計算節(jié)點群,在節(jié)點群中主要涉及三種類型:內(nèi)存?zhèn)戎匦凸?jié)點、CPU側(cè)重型節(jié)點和磁盤側(cè)重型節(jié)點,總體規(guī)模為90臺,每種類型的節(jié)點為30臺。具體參數(shù)見表2。

        表2 計算節(jié)點具體參數(shù)

        (4)虛擬機設(shè)計。

        同樣,由于云用戶對于業(yè)務(wù)的多樣性需求,對平臺中虛擬機規(guī)格的要求也是多樣性的。該文將需要創(chuàng)建的虛擬機也分為三類:內(nèi)存?zhèn)戎匦吞摂M機、CPU側(cè)重型虛擬機、磁盤側(cè)重型虛擬機,具體參數(shù)見表3。

        表3 虛擬機參數(shù)

        3.2 實驗和結(jié)果分析

        (1)節(jié)點負載對比。

        為了比較不同資源調(diào)度策略給計算節(jié)點的節(jié)點負載帶來的不同程度的影響,通過CloudSim創(chuàng)建了90臺主機(參數(shù)如表2)作為計算節(jié)點,三種類型的節(jié)點數(shù)量平均。同時,通過仿真軟件隨機定義了150個虛擬機用來分配。實驗過程中,通過腳本分別實現(xiàn)了三種資源調(diào)度策略,包括該文優(yōu)化的調(diào)度策略、OpenStack默認基于內(nèi)存的資源調(diào)度策略和基于粒子群算法的綜合調(diào)度策略。

        利用計算節(jié)點工作模型和負載均衡度模型對三種策略的分配結(jié)果進行定時計算,得到如圖3所示的結(jié)果。

        圖3 節(jié)點負載比較

        從圖中可以看出,不管是哪種資源調(diào)度分配策略,都會隨時間造成整個云平臺計算節(jié)點的總體負載均衡度的波動。首先可以明確看到OpenStack默認的基于內(nèi)存的資源調(diào)度策略對云平臺整體負載的影響,也就是計算節(jié)點總體負載均衡度的值在同一時間要大于其它兩種策略。當(dāng)負載均衡度越大時,表明節(jié)點的綜合負載越不均衡。OpenStack基于內(nèi)存的調(diào)度策略會造成云平臺負載不均衡是因為其本身運用的是一種靜態(tài)的簡單調(diào)度算法,這種算法在云平臺實際運行中不能動態(tài)的改善節(jié)點負載。對比該文優(yōu)化后的資源調(diào)度策略和基于粒子群算法的調(diào)度策略,兩種策略下云平臺的節(jié)點負載均衡度的總體變化趨勢相似,但是該文的優(yōu)化調(diào)度策略對云平臺整體節(jié)點負載的改善更加明顯。在優(yōu)化目標的選擇上,該文的調(diào)度策略充分考慮了影響計算節(jié)點的負載的多個因素,利用節(jié)點評價模型和虛擬機的動態(tài)遷移技術(shù)的優(yōu)化,能夠?qū)υ破脚_的節(jié)點負載進行動態(tài)調(diào)整。

        (2)虛擬機遷移分析。

        為了驗證該文優(yōu)化后的資源調(diào)度策略對云平臺節(jié)點負載的改善效率,實驗過程中將對比不同調(diào)度策略在云平臺運行過程中導(dǎo)致的虛擬機遷移次數(shù)。需要說明的是,OpenStack默認的虛擬機調(diào)度策略是靜態(tài)的,不具備虛擬機動態(tài)遷移的功能,因此實驗中只將該文優(yōu)化的調(diào)度策略和綜合調(diào)度策略做對比,具體情況如圖4所示。

        圖4 虛擬機遷移次數(shù)比較

        從實驗結(jié)果中可以看出,該文優(yōu)化的資源調(diào)度策略在云平臺運行過程中觸發(fā)的虛擬機遷移次數(shù)要明顯小于基于粒子群算法的調(diào)度策略,這是因為該文對虛擬機遷移策略做了一定的改進,分別在遷移觸發(fā)的臨界點、待遷移虛擬機的選擇和目標節(jié)點的選擇時綜合考慮了遷移的時間和對服務(wù)質(zhì)量的影響,所以避免了不必要的虛擬機遷移,有效地改善了云平臺整體的負載?;诹W尤核惴ǖ恼{(diào)度策略雖然采用了雙閾值的遷移機制,但是對待遷移虛擬機的選擇是不夠全面的,沒有多方面的考慮遷移的成本。

        (3)資源利用率分析。

        對于云平臺的資源利用率的測試,比較了不同調(diào)度策略下虛擬機創(chuàng)建的最大數(shù)量。在OpenStack默認的調(diào)度策略中,在虛擬機初始創(chuàng)建時采用了簡單的貪心算法。在基于粒子群算法的調(diào)度策略中,主要運用了粒子群算法的放置策略。在綜合了節(jié)點工作負載模型和虛擬機評價模型,提出了計算節(jié)點選擇策略。在實驗中,在構(gòu)建了90臺計算節(jié)點的基礎(chǔ)上,生成包含了三種類型的500臺虛擬機,數(shù)量隨機,接著用三種調(diào)度策略在云平臺中不斷創(chuàng)建虛擬機,直到不能創(chuàng)建為止。圖5是三種調(diào)度策略的對比情況。

        圖5 虛擬機最大遷移數(shù)量比較

        從實驗結(jié)果可以發(fā)現(xiàn),在同樣的云環(huán)境下,該文的優(yōu)化調(diào)度策略可以比OpenStack原生的調(diào)度策略創(chuàng)建更多數(shù)量的虛擬機。這是因為OpenStack原生的虛擬機調(diào)度機制比較簡單盲目,只是優(yōu)先選擇剩余內(nèi)存最大的節(jié)點,不能夠?qū)崟r考慮其它資源的限制。和基于粒子群算法的調(diào)度策略相比,該文優(yōu)化的調(diào)度策略在追求資源利用率的同時,還考慮了云平臺的服務(wù)質(zhì)量,因此不會盲目使得利用率過大而導(dǎo)致節(jié)點主機的工作負載變大。為了驗證這一點,在達到創(chuàng)建虛擬機的最大數(shù)量時,分別測試了云平臺計算節(jié)點的平均工作負載。

        圖6中數(shù)據(jù)表明,該文的優(yōu)化調(diào)度策略下計算節(jié)點主機的平均工作負載為72.6%,而基于粒子群算法的調(diào)度策略下計算節(jié)點的平均工作負載為89.8%。因此提出的優(yōu)化調(diào)度策略能夠在條資源利用率的前提下,最大程度地保證云服務(wù)的質(zhì)量。

        圖6 計算節(jié)點平均工作負載比較

        4 結(jié)束語

        以O(shè)penStack云計算平臺默認的虛擬機調(diào)度管理策略為基礎(chǔ),提出了具體的優(yōu)化方案并實現(xiàn)了動態(tài)調(diào)度機制,提高了云平臺資源利用率和節(jié)點的綜合負載均衡。雖然這些優(yōu)化方案經(jīng)過實驗得到了有效驗證,但是仍然存在一些不足,需要在未來的一段時間繼續(xù)研究。首先,繼續(xù)研究物理主機的負載模型和虛擬機遷移策略,在優(yōu)化虛擬機遷移策略時,通過計算主機一段時間的工作負載的平均值和負載閾值進行比較,在實際的環(huán)境中,云平臺的運行通常具有一定規(guī)則,通過歷史數(shù)據(jù)預(yù)測物理主機的負載,可以作為接下來的一個研究方向。其次,繼續(xù)研究計算節(jié)點選擇策略的優(yōu)化目標,在計算節(jié)點選擇策略上,選擇了對內(nèi)存、CPU、磁盤進行過濾,在實際的云環(huán)境中,計算節(jié)點主機的網(wǎng)絡(luò)帶寬等因素對主機也有一定影響,因此也將是接下來繼續(xù)研究的方向。

        猜你喜歡
        優(yōu)化資源策略
        超限高層建筑結(jié)構(gòu)設(shè)計與優(yōu)化思考
        基礎(chǔ)教育資源展示
        民用建筑防煙排煙設(shè)計優(yōu)化探討
        關(guān)于優(yōu)化消防安全告知承諾的一些思考
        一道優(yōu)化題的幾何解法
        一樣的資源,不一樣的收獲
        例談未知角三角函數(shù)值的求解策略
        我說你做講策略
        資源回收
        高中數(shù)學(xué)復(fù)習(xí)的具體策略
        亚洲在战AV极品无码| 亚洲av网一区二区三区| 麻豆成人久久精品二区三区91 | 一本久久a久久精品vr综合| 色偷偷一区二区无码视频| 天天射色综合| 久久国产精品色av免费看| 日韩av无码中文字幕| 亚洲欧美日韩人成在线播放| 亚洲电影中文字幕| 天天综合色中文字幕在线视频| 久久久精品国产av麻豆樱花| 亚洲熟妇av一区二区三区| 欧美猛男军警gay自慰| 日批视频免费在线观看| 久久免费看视频少妇高潮| 亚洲av高清一区二区三| 樱桃视频影视在线观看免费| 尤物视频一区二区| 久久激情人妻中文字幕| 精品在线观看一区二区视频| 精品乱码一区内射人妻无码| 精品无码国产污污污免费| 国产精品香蕉网页在线播放| 日韩av在线亚洲女同| 国产成人综合美国十次| 3d动漫精品啪啪一区二区下载| 国产精品反差婊在线观看| 久久夜色精品国产噜噜噜亚洲av| 夜夜爽妓女8888888视频| 亚洲人成网站免费播放| 亚洲成av在线免费不卡| 青青手机在线观看视频| 久久国产热这里只有精品 | 午夜精品一区二区久久做老熟女| 亚洲一区二区三区日本久久九| 欧美黑人性暴力猛交喷水黑人巨大| 人妻丰满熟妇AV无码片| 国产一区二区三区精品毛片| 亚洲综合av永久无码精品一区二区| 人人狠狠综合久久亚洲婷婷|