亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        基于互斥條件的云數據中心虛擬機整合策略

        2017-03-08 04:01:29虞慧群范貴生
        關鍵詞:分配資源

        施 凱, 虞慧群, 羅 飛, 范貴生

        (1.華東理工大學計算機科學與工程系,上海 200237; 2.上海市計算機軟件測評重點實驗室,上海 201112)

        基于互斥條件的云數據中心虛擬機整合策略

        施 凱1,2, 虞慧群1, 羅 飛1, 范貴生1

        (1.華東理工大學計算機科學與工程系,上海 200237; 2.上海市計算機軟件測評重點實驗室,上海 201112)

        在云數據中心,虛擬機整合(VMC)是綠色計算和最小化集群功耗問題的關鍵技術。大多數研究采用基于資源使用率來尋求最合理的虛擬機(VM)整合方式,但在整合過程中并未考慮物理服務器(PM)的可用性及同位VM的穩(wěn)定性問題。本文提出了基于互斥條件限制的VMC策略,該策略同時考慮PM的可用性和VM之間的互斥性兩方面因素;給出了集群服務器統(tǒng)一資源預留計算方法,用于保證PM可用性的問題,并給出了基于VM歷史運行數據的相似度判定方法,用于解決互斥條件的判定問題。將該策略應用于運行在OpenStack平臺中的VM數據,實驗結果表明:該策略可以有效地保證PM的可用性,避免同類型VM被整合在一起,減少同位VM的性能損失和確保服務質量。

        互斥條件; 虛擬機整合; 相關性; 云數據中心

        云數據中心已成為當前IT工業(yè)界一個非常重要的基礎設施形式,它基于云計算架構,并以松耦合形式提供計算、存儲和網絡資源。同時,各類物理資源采用虛擬化技術,以保證整體具備較高的綠色節(jié)能能力。比較常見的應用是將數據中心的集群服務器采用虛擬化技術為用戶提供按需租用服務,包括租用服務器、網絡、存儲等資源。隨著云數據中心應用的日益廣泛,如何保證彈性資源供給和虛擬機動態(tài)配置的能力已成為當前研究的熱點[1-3]。

        在資源分配過程中,傳統(tǒng)狀態(tài)下云數據中心的集群服務器為了快速滿足用戶的資源申請需求,大部分采用快速隨機的VM分配技術,但是這種分配方式導致了某些PM資源浪費的問題[1]。例如,某些PM上被分配并運行著數量較少的VM,這些VM的資源需求對于其他PM來說也是可以滿足的,若將這些VM整合到其他PM上,那么,原始PM就可以設置為非激活狀態(tài)[4],由此,從整體上可以降低運行PM的數量并降低能耗,此過程就是目前云計算研究領域經典的虛擬機整合問題(Virutal Machine Consolidation,VMC)和能耗最小化問題。但目前大部分研究僅追求最優(yōu)化的VMC方式,并未詳細考慮整合過程中PM的可用性和同位VM運行的穩(wěn)定性問題,從而引發(fā)由于資源競爭而導致的性能下降,因為其只考慮了資源的“需求-供給”這一個特性[5-6]。

        云數據中心的每臺VM都會運行特定的應用并為用戶提供服務,這些應用從內容上可以分為計算、內存讀寫和網絡傳輸密集型應用3類。由于同類型的應用在運行行為上存在資源利用高相似性的特點,例如,將多臺計算密集型應用的VM同時整合在同一臺PM之上,將導致PM性能下降,并影響其他同位VM的運行。為此,本文提出了基于互斥條件限制的虛擬機整合策略,并同時考慮物理服務器的可用性和虛擬機之間互斥性這兩方面的因素:

        (1) 在PM的可用性方面,提出了集群服務器統(tǒng)一資源預留計算方法。用于解決PM由于資源過度分配,造成無法應對突發(fā)情況,無法正常保證可用性問題。

        (2) 在VM互斥性方面,提出了基于VM歷史運行數據的相似度判定方法。用于解決VMC過程中互斥條件的判定問題,同時也解決了傳統(tǒng)VMC方式下,僅考慮資源滿足條件而導致同位VM穩(wěn)定性低的問題。

        1 整合問題形式化描述

        云數據中心環(huán)境下,PM通常處于同一地理位置并采用集中式管理方式,大量VM運行于其中。每個VM運行著特定的應用并為用戶提供服務。用戶在進行資源申請時,集群服務器為了快速滿足用戶的需求,通常采用隨機分配PM的方式。但是,隨著運行時間的推移,某些PM上的資源利用率可能相對較低。由此,運用VMC方式將VM整合到資源利用率相對較低的PM上,待整合完成后,源PM上若不存在其他VM運行,則可將其設置為非激活或關機狀態(tài)。本文中的變量定義見表1。

        表1 變量定義說明

        由于VMC涉及到本地遷移和遠程遷移等方面,而本文僅考慮VMC過程發(fā)生在一個數據中心內部,因此定義單個數據中心作為本文整合策略的邊界。本文的整合策略需要分析VM實際資源利用率情況,而數據中心數據存儲通常采用共享存儲方式,所以不考慮存儲服務器能耗[5-6],僅考慮計算節(jié)點的CPU、Memory、Network Bandwidth(NB) 3類資源,并評估整合過程中PM的可用性和相應同位VM的穩(wěn)定性。由于每臺VM擁有各自獨立的內存運行單元,所以考慮并定義3類資源的優(yōu)先級有如下關系:priority(CPU)> priority(Memory)> priority(NB)。其次,任何虛擬機的資源請求都必須小于單臺PM所能提供的最大資源剩余量[7],其中有VM(i)∈PM(j)。目標函數如式(1)所示,追求最小化PM數量。

        (1)

        在整合過程中,將運行在資源利用率較小的服務器上的VM整合到其他目的服務器上,同時考慮PM的可用性和同位VM的穩(wěn)定性問題。由此本文提出了基于集群服務器統(tǒng)一資源預留的計算方法,用于解決由于資源的過度分配,造成無法應對突發(fā)情況和無法正常保證服務器的可用性問題。其次,評估目的PM上同位VM與被整合VM之間資源利用率關系,提出了基于VM歷史運行數據的相似度判定方法,解決整合過程中互斥條件的判定。

        相反,在VMC中若僅考慮資源滿足這一個特性,例如BFD算法,雖然可以更好地從整體上符合PM的資源最大化利用[8-9],但并未考慮VM之間的互斥性問題,若強制遷移將導致PM負載加大,影響原有運行VM的性能并可能導致宕機情況發(fā)生[10-11]。本文綜合考慮PM的可用性和同位VM之間互斥性兩方面因素,首先,改進BFD算法為MBFD算法(Modified Descending Best Fit Algorithm),得出根據資源需求而計算獲得的VM整合位置,從而形成預分配映射關系表。在此過程中PM被分為3類資源隊列,分別是接收主機隊列、釋放主機隊和空主機隊列。其次,根據互斥條件的判定算法,修正預分配映射關系表,最終形成VM的最佳整合位置。在此過程中,剔除具有高相似度資源應用的VM被整合在同一臺PM上的映射記錄。

        2 虛擬機整合策略

        2.1 概述

        VM整合策略的詳細過程如圖1所示。該過程包括基于集群服務器統(tǒng)一資源預留計算方法和VMC過程中的互斥條件判定方法,同時,此VMC策略將被部署在監(jiān)控服務器上。

        圖1 虛擬機整合策略框架圖

        2.2 剩余資源隊列構成

        用戶向云數據中心進行VM資源申請,在時間和空間上呈現出隨機性。而空間隨機性,即PM為了快速滿足資源需求,多數情況下對VM的資源分配采用隨機分配方式,但這種情況很可能導致PM資源浪費。隨著集群運行過程時間的往后推移,某些PM上可能僅包含少量的VM。

        由于集群中PM資源利用率是不一致的,所以首先要考慮當前PM的資源剩余和利用率情況,并將其分類為不同對象的服務器。本文定義接收主機、釋放主機和空主機3個類型,分別對應所提出的接收主機隊列、釋放主機隊列和空主機隊列,而3類主機的區(qū)分需根據每臺PM的剩余資源所決定。某臺PM剩余資源采用三元組形式表示,如式(2)所示。

        ρc·rrcpu(i)+ρm·rrmem(i)+ρn·rrnet(i)=Γavg

        (2)

        其中:PM(i)表示第i臺PM;rrcpu(i)、rrmem(i)和rrnet(i)分別表示PM(i)剩余CPU資源(虛擬核心數)、剩余內存和剩余網絡帶寬。所有PM的剩余資源將根據3類資源優(yōu)先級關系,計算加權剩余資源利用率Γavg,并按照從小到大順序加入PM剩余資源隊列(Residual Resource List),如式(3)所示;優(yōu)先級系數ρc、ρm和ρn需要根據實際平臺決定。

        (3)

        在集群中,若某臺PM發(fā)生突發(fā)情況,例如VM的網絡并發(fā)訪問量增加或計算任務加重時,PM為應對突發(fā)情況可以預留足夠的資源處理,從而保證PM的性能。同時對于突發(fā)情況的VM,又可以在預留資源的作用下,被遷移到其他主機或空主機上,進而繼續(xù)為用戶提供服務,有效降低了PM宕機的概率和減少SLA違背。PM預留資源的計算方法如下:

        (ReCpu,ReMen,ReNet)=

        (4)

        在式(4)中,根據資源利用率情況,分別獲得當前運行VM的CPU、內存和網絡帶寬利用率值,選擇每項利用率中的最大值作為當前集群中此項資源的預留值。集群剩余資源利用率計算過程如下:

        Algorithm 1 Creating Residual Resource PMList for each PM

        Input:PMList and VMList

        Output:RRpmList

        (1) RRpmList←Φ

        (2) maxcpu=0; maxmem=0; maxnet=0;

        (3) For host∈PMList do

        (4) RRpmList (host)←get_hostcpu(),get_hostmem(),get_hostnet()};

        (5) For vm∈host.vmlist do

        (6) if(get_vmcpu()>maxcpu) maxcpu=get_vmcpu();

        (7) if(get_vmmem()>maxmem) maxmem=get_vmmem();

        (8) if(get_vmnet() >maxnet) maxnet=get_vmnet();

        (9) End for

        (10) End for

        其中代碼行(3)~(4)表示遍歷集群中的所有PM,計算獲得所有運行PM和VM的3類資源利用率,并選擇其中的最大值;代碼行(11)~(13)將每臺PM的3類資源利用率總和減去當前集群中VM資源預留值,最終形成集群PM的剩余資源隊列。

        2.3 預分配映射關系表構成

        根據所獲得的集群剩余資源隊列,為了有效地進行VMC,需要將現有的集群服務器進行分類。分別將資源利用率較低的PM定義為釋放主機,表示其上的VM可以通過整合策略遷移到其他目的PM上。而資源未產生開銷、沒有VM運行的主機表示為空主機,某些情況下可被關閉或置為非激活狀態(tài)。其余資源利用率相對較高的PM定義為接收主機,在保證性能的情況下可以接收釋放主機上的VM,并分別對應接收主機隊列(Receiver PM queue)、釋放主機隊(Releaser PM queue)和空主機隊列(Empty PM queue)。如式(5)所示。

        ReceiverPMlist={PM(i)|RRPM(i)

        ReleaserPMlist={PM(j)|RRPM(j)>?,

        EmptyPMlist={PM(k)|RRPM(j)=100%,

        (5)

        在式(5)中,定義剩余資源平均閾值為?,若PM(i)加權剩余資源利用率RRPM(i)小于閾值?,則被識別為接收主機,否則被識別為釋放主機,表示當前這臺PM上存在較少運行的VM,并存在較多的剩余資源。若某臺PM剩余資源為100%(不計算預留資源及其自身資源使用),則將被識別為空主機。此閾值根據經驗值及平臺決定,一般設置為剩余20%的資源。

        為了滿足釋放主機上的VM可以有效地整合到接收主機,本文改進BFD裝箱算法為MBFD算法(Modified Descending Best Fit Algorithm),尋求釋放主機上的VM在接收主機上更合理的位置,并形成初始預分配映射關系表。降序最佳適應算法是在原有降序算法的基礎上進行改進,先對物品降序排序,再按照首次適應算法進行裝箱表示。本文中,將接收主機隊列中的PM按照剩余資源從小到大升序排列,而將釋放主機隊列中的VM按照資源請求情況從大到小降序排列,由于對接收主機隊列進行排序考慮,問題演化為在接收主機隊列中尋找第1個合適的位置。為此,定義映射函數如式(6)所示,根據當前釋放主機隊列中的VM資源請求是否符合接收主機隊列中某PM的剩余資源總量,預分配映射關系表算法偽代碼如下:

        Algorithm 2 Creating Pre-allocated mapping table for ReleasePMlist

        Input:RRpmList,?

        Output:Pre-allocated mapping table, ReceiverPMlist, ReleasePMlist, EmptyPMlist

        (1) {ReceiverPMlist, ReleasePMlist, EmptyPMlist}←Φ

        (2) RRmin=maxvalue;

        (3) For host∈RpmList.host do

        (4) avgu=getaverageutilization(host);

        (5) if(avgu=100%) EmptyPMlist←host;

        (6) else if(avgu>?) ReleasePMlist←host;

        (7) else ReceiverPMlist←host;

        (8) End for

        (9) For host∈ReleasePMlist.host do

        (17) End for

        如果沒有尋找到符合的預映射位置,此VM將保留原始位置,最終代碼行(15)形成預分配映射關系表。

        2.4 互斥條件判定

        VM之間存在資源利用率的相關性或相斥性,如果僅考慮資源滿足這一條件進行VMC,將導致被整合VM與目的PM上的VM之間存在資源互斥問題。本文采用基于VM歷史監(jiān)控數據的相關性系數計算方法,判定VM之間資源利用率是否存在低相似性的特征,最終在形成的預分配映射關系表中剔除高相似性特征的VM映射關系,確保整合后PM保證性能并穩(wěn)定工作。計算公式如下:

        (7)

        其中:di,dj分別表示VM(i)和VM(j)某項資源屬性,分別取到t時刻為止CPU資源利用率、內存占用率和網絡帶寬占用率;n表示在采樣時間間隔γ下,共存在n個數據樣本,參與兩臺VM的某項資源屬性相似度計算,由此確定VM之間某項資源屬性運行特征。

        Wherety∈{cpu,mem,net},

        (8)

        Algorithm 3 Creating Pre-allocated modification mapping table for ReleaserPMlist

        Input:Pre-allocated mapping table, ReceiverPMlist, ReleaserPMlist,μ

        Output:Pre-allocated modification mapping table

        (1) For item∈Pre-allocated modification mapping table do

        (2)vm1=getVMfrom_item(); topm=getdestPMfrom_item();

        (3) Forvm∈topm do

        (8) Delete item from Pre-allocated mapping table;

        (9) End for

        (10) End for

        3 算法演化與應用

        3.1 實驗環(huán)境

        實驗環(huán)境為真實的物理環(huán)境,7臺dell R720作為計算節(jié)點,采用共享存儲機制,服務器上安裝OpenStack開源云。實驗系統(tǒng)鏡像中集成自主開發(fā)的運行參數監(jiān)控軟件。此軟件根據設定的時間間隔,采樣VM的CPU利用率、內存占用率和上/下行網絡流量數據。

        初始狀態(tài)下,隨機申請105臺VM(VM1~VM150)。其中PM1分配17臺(PM1={vm1~17}),PM2分配16臺,PM3分配18臺,PM4分配10臺,PM5分配14臺,PM6分配16臺和PM7分配14臺。在實驗中,采用3種VM實例:小實例為1個Vcore,1 GB內存。中實例為2個Vcore,2 GB內存。而大實例為4個Vcore,4 GB內存,網絡都采用百兆網絡帶寬分配。

        所有PM為同構服務器,實驗所采用的數據采集自2015年08月25日至27日,服務器機房處于華東理工大學(奉賢校區(qū))。為了模擬計算密集型、內存讀寫密集型和網絡傳輸密集型應用,本文采用標準基準測試程序,如表2所示。

        3.2 虛擬機整合策略過程

        (1) 根據初始VM分配映射關系,通過監(jiān)控獲得當前PM資源利用率,如圖2所示。

        表2 實驗基準測試程序

        圖2 物理服務器資源利用率圖

        當前集群中VM的分布是不均勻的,并沒有按照特定的應用考慮其最合適的分配位置,特別是PM4和PM5資源利用率相對較少。利用本文提出的整合策略,可以獲得相對合理的整合位置,并在整合過程中詳細考慮PM和同位VM的性能。

        (2) 根據當前所有VM資源申請和PM資源總和,計算PM剩余資源利用率,如表3所示。同時獲得當前實驗環(huán)境下所有VM的最大資源利用狀態(tài):ReCpu=4Vcore,ReMen=4 GB,ReNet=8 Mbps。在表3中,每列數據斜線之前表示剩余可用資源,后面表示物理服務器提供的最大資源能力。

        表3 物理服務器剩余資源表

        (3) 根據初始VM映射關系,通過MBFD算法得出預分配映射關系表,見表4。由于篇幅有限,表4中僅給出10個映射關系條目。在MBFD算法作用下,根據本文提出的VM之間資源相似度計算判定方法,將處于釋放主機隊列中的需要遷移的VM與接收主機隊列中目的PM上其余VM進行資源相似度計算,并將高相似度映射關系從預分配映射關系表中刪除。圖3和圖4分別給出了VM的CPU資源、內存及上行鏈路相似度值關系圖。

        表4 預分配映射關系表

        圖3,4中的橫坐標表示VM之間的關系對,即(Vi,Vj)表示VM(i)和VM(j),縱坐標為相應的資源相似度值。圖3分別示出了用戶提交任務CPU利用率及CPU資源總利用率,在1、8、43、95~120、162~169序列中皆存在大于80%的相似度(圖中橫線表示)。

        圖3 VM的CPU資源利用相似度圖

        圖4分別示出了利用率相似度圖,其中在圖4(a)中多個VM序列顯示內存利用率相似度都大于30%(橫線表示),而在圖4(b)中序列對160及180~190之間也存在高相似的網絡應用。本文選擇上行流量作為網絡資源衡量標準,主要考慮VM是對外提供應用服務,網絡帶寬和網絡沖突是某些突發(fā)情況的瓶頸問題。

        圖4 VM的MEM和UP-NET資源利用相似度圖

        (4) 通過上述總相似度評價值的處理,將獲得修正預分配映射關系表,并且執(zhí)行虛擬機調度策略。在表5中存在互斥關系的條目將被標記,同時不進行虛擬機調度。

        3.3 實驗性能說明

        若僅考慮資源滿足這一個特性,而不考慮整合對同位VM所產生的影響,將導致某些同位VM性能下降。為此采用基準測試程序,評估本文中預分配映射關系表和修正型預分配映射關系表對性能的影響程度,測評方式表現在擾動影響和執(zhí)行時間上。

        本文將評估3方面的影響程度。由于網絡密集型應用主要表現在對源和目的CPU和內存利用的影響,所以僅詳細分析網絡密集型應用對VMC的影響程度,而其他CPU方面僅給出運行時間的說明。

        表5 修正型預分配映射關系表

        首先,計算密集型VMC對目的PM上同類型同位VM所產生的影響。評估整合對目的服務器上2臺VM所產生的影響。在PM1上運行2臺小實例的計算密集型VM1和VM2,而在PM2上運行VM3,但其中已部署計算密集型應用。其次,將VM3從PM2上遷移到PM1,并記錄PM1上兩臺VM的任務平均完成時間。在CPU密集型環(huán)境下,如表6中編號1所示,在顯著地顯示了VM整合對原同位VM執(zhí)行CPU密集型任務所產生的影響程度,平均完成時間有了顯著上升。

        表6 平均完成時間數據對比表

        為了顯示同位VM所產生的影響程度,將目的PM上同位VM數量增加到8臺,實驗結果表明隨著目的PM上VM數量的增加,同類型VM的整合對原同位VM的運行狀態(tài)產生了較大的影響,而這些影響隨著同位VM數量的增加而更加顯著,如表6中編號2數據。

        其次,網絡密集型VMC對目的服務器上同位VM所產生的影響。由于VM遷移采用專用的遷移網絡,所以單純考慮流量性能將不能顯著顯示同類型網絡密集型應用對同位VM所產生的影響程度。所以,在實驗中給出CPU和內存的利用率來說明此問題。

        為了模擬密集型網絡數據傳輸,在原有2臺PM的基礎上,在PM3上新增加VM4,并且PM1上2臺VM分別與VM4進行網絡傳輸任務,數據文件分別是100 M和2 GB及基準測試程序,最終記錄傳輸平均的完成時間。同時,在傳輸過程中將PM2上的VM進行遷移,同樣記錄平均完成時間。如表6中編號3所示,平均完成時間出現了明顯的增加。

        網絡密集型環(huán)境下2臺同位VM的CPU利用率影響程度如圖5所示。圖中顯示了當發(fā)生整合時對同位VM所產生的CPU利用率影響,出現密集型的抖動和嚴重的多峰值情況下,完成時間也有所增加。

        圖5 大文件傳輸兩臺同位VM的CPU利用率影響程度圖

        為了說明VM3整合完成后,若同樣啟動網絡密集型應用對原有同位VM的影響,將VM1和VM2進行2 GB大文件傳輸,而待VM3完成整合后,進行100 M網絡傳輸任務,圖6示出了其內存利用率變化趨勢。而在表6編號4中平均完成時間相比較編號3也有大幅度增加。造成此類問題的原因就是網絡密集型任務不僅占用了大量的網絡帶寬,并且還需在高CPU利用率的控制下進行操作。

        將目的PM上VM數量增加到8臺,并執(zhí)行同樣的評估過程,本文選取影響明顯的4臺VM給出CPU圖示說明,如圖7所示。但為了更好地模擬網絡密集型情況,采用100 M小數據文件傳輸。當進行小文件傳輸時,VM3的整合操作和執(zhí)行網絡傳輸任務都對目的PM上同位VM產生了不同程度的影響,圖7中多次出現CPU利用率高峰值情況,而這些峰值的變化與同位VM的數量和執(zhí)行的同類型應用存在關系。隨著目的PM上同位VM數量的增加,影響程度也逐步提升。表6編號5數據顯示,整合前后平均完成時間都有了顯著的提升。同理在圖8中,目的PM上VM的內存資源利用率表現出不同程度的抖動,說明當同類型網絡密集型VM被遷移到目的服務器上時,對同位VM內存利用率的影響隨著同位虛擬機數量的增加而增加(圖中的利用率曲線采用剩余資源利用率的表示形式)。

        圖6 大文件傳輸兩臺同位VM的MEM利用率影響程度圖

        圖7 小文件傳輸8臺同位VM的CPU利用率影響程度圖

        圖8 小文件傳輸8臺同位VM的MEM利用率影響程度圖

        根據本文提出的總相似度計算公式,得出表7中的數據。實驗中5類模擬情況都存在高相似的特點(除內存),根據本文對于VMC的策略要求,都將拒絕此類高相似性VM的整合。從而保證PM的可用性和同位VM的穩(wěn)定性。

        表7 總相似度評價值表

        4 結束語

        本文提出了一種基于互斥條件的VMCP整合策略。該策略在保證PM及同位VM性能的條件下最小化PM的數量,從而降低整體的能耗。VMCP是一個復雜的系統(tǒng)性問題,在整合過程中,本文引入兩類保在服務器性能方面,提出集群服務器統(tǒng)一資源預留計算方法,用于解決由于資源的過度分配而造成無法應對突發(fā)情況和無法正常保證PM性能的問題。在VM互斥方面,提出基于虛擬機歷史運行數據的相似度判定方法,用于判定VMC過程中的互斥條件。通過與經典的裝箱算法對比,實驗結果表明本文的整合算法不僅考慮同位VM的性能問題,而且還可以保證了PM的性能。未來工作重點將考慮如下幾點:

        (1) 評估和量化性能穩(wěn)定程度。

        (2) 定義自適應閾值,用于區(qū)分3類PM對象隊列。

        (3) 從VM運行特性上更好評估和識別密集型VM應用,并考慮綜合影響。

        [1]李銘夫,畢經平,李忠誠.資源調度等待開銷感知的虛擬機整合[J].軟件學報,2014,25(7):1388-1402.

        [2]劉詩海,孫宇清,劉古月.面向業(yè)務特征的自適應虛擬機遷移帶寬分配算法[J].計算機學報,2013,36(9):1816-1825.

        [3]李青,李勇,涂碧波,等.QoS保證的數據中心動態(tài)資源供應方法[J].計算機學報,2014,37(12):2395-2407.

        [4]羅剛毅,錢柱中,陸桑璐.一種基于網絡感知的虛擬機再調度算法[J].計算機學報,2015,38(5):932-943.

        [5]肖鵬,劉洞波,屈喜龍.云計算中基于能耗比例模型的虛擬機調度算法[J].電子學報,2015,43(2):305-311.

        [6]FILANI D,HE J,GAO S.Dynamic data center power management:Trends,issues,and solutions[J].Intel Technology Journal,2008,12 (1):59-67.

        [7]ZHOU Z,LIU F,XU Y,etal.Carbon-aware load balancing for geo-distributed cloud services[C]//Proceedings of the 2013 IEEE 21st International Symposium on Modeling,Analysis & Simulation of Computer and Telecommunication Systems.USA:IEEE,2013:232-241.

        [8]DENG W,LIU F,JIN H,etal.Harnessing renewable energy in cloud datacenters:Opportunities and challenges[J].Browse Journals & Magazines,2013,28(1):48-55.

        [9]XU Fei,LIU Fangming,JIN Hai,etal.Managing perfor-mance overhead of virtual machines in cloud computing:A survey,state of the art,and future directions[J].Proceedings of the IEEE,2014,102 (1):11-31.

        [10]XU Fei,LIU Fangming,LIU Linghui,etal.iAware:Making live migration of virtual machines interference-aware in the cloud[J].IEEE Transactions on Computers,2014,63 (12):3012-3025.

        [11]ZHENG Qinghua,LI Rui,LI Xueqi,etal.Virtual machine consolidated placement based on multi-objective biogeography-based optimization[J].Future Generation Computer Systems,2016,54:95-122.

        VMC Strategy Based on the Mutual Exclusion Conditions for Cloud Data Center

        SHI Kai1,2, YU Hui-qun1, LUO Fei1, FAN Gui-sheng1

        (1.Department of Computer Science and Engineering,East China University of Science and Technology, Shanghai 200237,China; 2.Shanghai Key Laboratory of Computer Software Testing and Evaluating,Shanghai 201112,China)

        In the cloud data center,virtual machine consolidation (VMC) is one of the key technologies for green computing and minimizing cluster power consumption.In the relevant research works,most seek the most reasonable consolidation schemes based on resource utilization and don’t consider the stability and availability of PM and co-located virtual machines (VM).In this paper,by analyzing their mutual exclusion conditions,a virtual machine consolidation strategy is proposed,in which both the availability of PM and the mutual exclusivity among VM are considered.Moreover,the cluster server uniform resources reservation approach and the similarity calculation method based on the historical running data of VM are also given.Finally,this strategy is evaluated by collecting and analyzing the running data of VM deployed on the open stack platform.Experiment results show that the proposed method can effectively guarantee the PM availability and avoid the situation that the same type of VM is consolidated in one PM.Hence,this algorithm can reduce the performance degradation of co-located VM and improve the quality of service (Qos).

        mutual exclusion conditions; virtual machine consolidation; correlation; cloud data center

        1006-3080(2017)01-0119-10

        10.14135/j.cnki.1006-3080.2017.01.019

        2016-07-20

        國家自然科學基金(61173048,61300041,61472139);高等學校博士學科點專項科研基金博導類資助課題(20130074110015);中央高?;究蒲袠I(yè)務費專項基金(WH1314038,WH1514331)

        施 凱(1989-),男,博士生,主要研究方向為虛擬機整合、云計算和軟件工程等。E-mail:BH4AWS@163.com

        虞慧群,E-mail: yhq@ecust.edu.cn

        TP393

        A

        猜你喜歡
        分配資源
        讓有限的“資源”更有效
        基于可行方向法的水下機器人推力分配
        基礎教育資源展示
        一樣的資源,不一樣的收獲
        應答器THR和TFFR分配及SIL等級探討
        遺產的分配
        一種分配十分不均的財富
        資源回收
        績效考核分配的實踐與思考
        資源再生 歡迎訂閱
        資源再生(2017年3期)2017-06-01 12:20:59
        久久久久久久岛国免费观看| 亚洲一区二区三区免费网站| 国产麻豆精品久久一二三| 人妻少妇偷人精品一区二区三区| 色噜噜亚洲男人的天堂| 亚洲日韩中文字幕一区| 久久福利资源国产精品999| 丝袜美腿亚洲综合久久| 久久精品网站免费观看| 无码精品人妻一区二区三区人妻斩| 日韩亚洲制服丝袜中文字幕| 精品久久免费国产乱色也| 国产狂喷水潮免费网站www| 青青草原综合久久大伊人| 国产主播无套内射一区| 射进去av一区二区三区| 朝鲜女人大白屁股ass孕交| 初尝黑人嗷嗷叫中文字幕| 国产精品亚洲一区二区极品| 手机在线看片国产人妻| 亚瑟国产精品久久| 国产剧情福利AV一区二区| 麻豆AV无码久久精品蜜桃久久 | 亚洲天堂av高清在线| 深夜福利啪啪片| 国产女合集小岁9三部| 一区二区三区免费观看在线视频| 一区二区三区免费看日本| 亚洲精品国偷拍自产在线麻豆| 国产乱子伦精品免费女| 精品久久中文字幕一区 | 久久久亚洲成年中文字幕| 亚洲av成人无遮挡网站在线观看| 午夜精品一区二区三区在线观看| 日本精品人妻在线观看| 国产91传媒一区二区三区| 好日子在线观看视频大全免费动漫| 亚洲一区二区在线视频播放 | 亚洲综合精品中文字幕| 中国丰满熟妇av| 国产精品美女久久久久浪潮AVⅤ|