李達港,李 磊,金連文,黃甘波,吳 權
(1.華南理工大學 電子與信息學院,廣東 廣州 510641; 2.世紀龍信息網絡有限責任公司,廣東 廣州 510630)
?
基于時間序列的Openstack云計算平臺負載預測與彈性資源調度的研究
李達港1,李磊1,金連文1,黃甘波2,吳權2
(1.華南理工大學 電子與信息學院,廣東 廣州 510641; 2.世紀龍信息網絡有限責任公司,廣東 廣州 510630)
摘要:隨著云計算技術的發(fā)展與運用,云計算在資源的效用比、按需服務等方面優(yōu)勢顯著;相對于傳統(tǒng)的計算資源構建,云計算憑借其安全性保障、高效的彈性計算資源分配能力、簡易的硬件要求等特性,能實現(xiàn)面對不同需求時的計算資源快速彈性構建。基于云計算的彈性資源效用比為研究點,以經典的電信接入隨機過程模型—泊松過程為基礎,采用相關性時間序列模型對資源預測進行研究,并對相似的多類模型進行仿真與分析;最后以Openstack云平臺為基礎,結合實際需求對模型進行了工程化實現(xiàn)和初步測試。結果表明,該方法為云計算按需使用和資源彈性構建提供了一種可行的方式,在保證服務等級協(xié)議(service-level agreement, SLA)的同時,進一步降低云計算平臺的運行損耗,提高資源的效用比。
關鍵詞:時間相關;泊松分布;彈性資源分配;高效用比 ;openstack
0引言
目前云計算已經成為互聯(lián)網技術和業(yè)務支撐的重要基礎設施,它使用戶能夠通過網絡按需地從一個共享的、可配置的資源池中獲取包括計算、存儲、網絡等資源[1-3],極大地降低了用戶對于基礎設施的資源投入,可以快速部署自己的應用,并上線運行。目前關于云計算資源調度和效用比的研究成為當前云計算技術和學術的熱點之一,包括用戶的資源利用率、資源調度的過程、服務的響應時間和服務隊列長度[4-6],其目的在于降低云計算平臺運行過程中各種無效的損耗,實現(xiàn)“綠色云”[7-11]。然而文獻[5]中論述了在高可用條件下,為了滿足任何用戶在任意時間不確定的負載,目前以超量資源(所提供的資源大于最大的實際資源需求)方式進行資源的規(guī)劃成為云計算系統(tǒng)資源規(guī)劃的一個常見的方式,這種方式的效用比較低,造成資源大量浪費和資源損耗。
基于上述問題,目前降低云計算平臺中能源損耗和其他無效損耗的方法主要包括:①關閉云計算平臺中空閑狀態(tài)的主機,進一步減低能源的消耗[12];②基于優(yōu)化虛擬機調度方法,使得虛擬機在調度上可以進一步保證資源的有效集中[13];③將云計算的虛擬機按照應用的負載壓力分為多個狀態(tài),即休眠、空閑和忙等狀態(tài),并對狀態(tài)的切換進行優(yōu)化[14]。
然而上述方法是通過優(yōu)化虛擬機調度過程減低云計算的平臺運行消耗,并沒有從按需使用方面來對云計算的資源進行伸縮,從而降低云計算平臺的各項無效損耗,提高云計算的資源的效用比。本文的主要貢獻包括:①從云計算的本質出發(fā),即everything as a service[15],其本質認為任何資源都是一種服務。以云計算平臺提供的服務負載為基礎,對其所需的計算資源進行預測,從按需使用方面對云計算平臺的資源進行彈性伸縮和調度;②以泊松過程為基礎,推演資源預測的數(shù)學模型,并對該模型下相似方法進行了類比,說明不同方法之間的有效性,為相關研究提供有價值的基礎性研究;③將本文所提出的數(shù)學模型在Openstack云計算平臺上進行工程化實現(xiàn),在此過程中依據(jù)實際的需求和環(huán)境進行了優(yōu)化和修正,并初步驗證了實現(xiàn)效果。
1云計算服務負載相關研究與基礎
云計算平臺提供的服務本質是互聯(lián)網的接入服務,在文獻[12,14,16-19]中采用了典型電信接入的隨機過程模型—泊松過程作為系統(tǒng)資源調度優(yōu)化的研究基礎。
泊松過程是一類最基本的描述隨機事件的獨立增量過程,將事件發(fā)生的時間間隔認為是相互獨立的隨機變量,等效為一種更新過程[20]。典型的泊松過程表示為
(1)
(1)式中:N(t)為0到t時刻事件發(fā)生的數(shù)量;λ為事件發(fā)生的強度。在互聯(lián)網接入服務中可以分別看做是t時刻互聯(lián)網服務的接入數(shù)量和接入強度,N(t)-N(t-s)為[t-s,t)時間段內的互聯(lián)網的服務接入數(shù)量的增量。
2基于互聯(lián)網接入服務數(shù)量的時間序列預測模型的研究
互聯(lián)網服務的接入數(shù)量在時間序列上雖然服從泊松過程,并且各個時間段的服務接入數(shù)量的增量相互獨立,但從人類行為學來看,用戶使用互聯(lián)網服務與其作息時間密切相關,互聯(lián)網服務請求量在確定時間間隔內的增量并非穩(wěn)定,而是與時間點密切相關。文獻[21]測量了CN域名服務器在48h內的查詢請求量,如圖1[21]所示。
圖1 CN域名服務器在2008年11月連續(xù)48小時查詢請求率分布Fig.1 48 hours request rate distribution on CN domain name server on November 2008
根據(jù)泊松過程,即s時間段內的互聯(lián)網的負載增量服從(1)式,其數(shù)學期望為
(2)
同時泊松過程的條件期望為
(3)
從(3)式可以得出泊松過程的條件期望等于其泊松過程的期望,本文將E(N(t)|N(t-s))作為互聯(lián)網接入服務預測的基本數(shù)學依據(jù),即下一個時刻互聯(lián)網接入服務數(shù)量的預測等于已知前一個時刻的互聯(lián)網接入數(shù)量情況下的條件期望。
如圖1所示,本文假設互聯(lián)網接入的事件過程是一個具備各態(tài)歷經性的過程,且與之前多個時刻的互聯(lián)網接入數(shù)量有關,因此有
(4)
為進一步體現(xiàn)時間序列的相關性的強弱,一般而言,認為相距較近時間的事件關聯(lián)性越強,數(shù)學描述為
(5)
(5)式中,a(n)為相關系數(shù),表示各個時刻互聯(lián)網接入數(shù)量與預測結果的相關強度。a(n)的數(shù)值直接決定了互聯(lián)網接入數(shù)量預測的質量。為了進一步給出不同方法的對比,本文采用了如下方法對a(n)進行設定。
1)自回歸模型(autoregressivemodel,AR)線性預測模型方法。AR模型是一種線性預測,即已知n個數(shù)據(jù),可由模型推出第m點前面或后面的數(shù)據(jù)(設推出m+1點),所以其本質類似于插值,其目的為了增加有效數(shù)據(jù)[22]。本文采用的AR線性模型數(shù)學表述式為
(6)
(6)式,中a(n)由Yule-Walker方程依據(jù)自相關矩陣得出。
2)時間強度相關模型方法。依據(jù)(5)式,同時依據(jù)圖1表達的數(shù)據(jù)趨勢,本文認為如下假設成立:假設下一個時刻的互聯(lián)網接入數(shù)量與其過去的某一個時間相距最近時刻的事件數(shù)量相關性最強,時間相距最長的相關性最弱。因此,本文假定
(7)
3)斜率導向模型方法。由圖1所示,預測互聯(lián)網的接入數(shù)量主要目的是預測其增長的趨勢和強度,由公式E(N(t)-N(t-s))=E(N(t)|N(t-s))可得出,利用斜率導向的預測模型數(shù)學描述為
(8)
3資源預測模型的仿真與結果對比
3.1預測算法與原始數(shù)據(jù)的對比仿真
本文產生一個以正弦波為載波,并且以此為基礎調制一組泊松分布隨機數(shù)據(jù),從而產生一組測試的數(shù)據(jù)輸入,其中數(shù)據(jù)長度為100個,即在一段時間內的采樣點為100次,泊松強度假設為λ=5。
1)AR線性預測模型方法的實驗對比。本文采用前5個互聯(lián)網接入服務數(shù)量作為AR模型的輸入,與實際服務數(shù)量對比結果如圖2所示。
圖2 AR線性預測模型的效果對比圖Fig.2 Comparison of the effect of AR linear prediction model
從圖2a中可以看出,在每個時刻其預測結果相對于真實的互聯(lián)網接入數(shù)量結果偏低。為進行修正,本文引入了加權修正因子b。修正后的AR線性預測模型數(shù)學表達式為
(9)
在本實驗仿真中,b=1.4。
從圖2b可以看出,相對于原始AR線性預測方法,改進后的AR效果在峰值和提前量上有所改進,但對于某些拐點預測結果誤差較大。這2種方法都出現(xiàn)對于某些低點預測誤差過大的問題。
2)時間強度相關模型方法和斜率導向模型的實驗對比,如圖3所示。
圖3 時間相關模型預測效果對比Fig.3 Comparison of time dependent model prediction
本文同樣采用前5個互聯(lián)網服務數(shù)量作為模型的預測,即系數(shù)a(0)—a(4)設置為0.6,0.2,0.1,0.07,0.03和0.8,0.1,0.05,0.03,0.02,分別代表時間序列的弱相關和強相關。從圖3a可以看出,在時間強度相關模型中強相關和弱相關在預測效果上接近,說明在系數(shù)歸一化的條件下,系數(shù)的設置對于各歷經性的隨機過程影響較小,整體而言預測結果與實際數(shù)據(jù)匹配較好。
在斜率導向模型方法中,為了進行類比,本文同樣采用前5個互聯(lián)網服務負載作為輸入預測后一個負載數(shù)量,即設定2組系數(shù)0.6,0.2,0.1,0.07,0.03和0.8,0.1,0.05,0.03,0.02代表互聯(lián)網服務負載的數(shù)量變化斜率時間序列的弱相關和強相關。從圖3b可以看出,在斜率導向模型強相關性模型中最大值和最小值的預測上出現(xiàn)明顯的過沖現(xiàn)象。與弱相關性預測模型對比,強相關性在數(shù)據(jù)的突變上反應較慢。
3.2各個預測算法之間的效果對比說明
由于直觀上難以對各個預測模型的結果直接進行對比說明,因此,為了進一步得到各個預測算法之間有效性,本文依據(jù)真實的云計算平臺結構設計以下2個評測指標。
1)隊列剩余任務數(shù)。在文獻[12,14,16-19]中均認為云計算平臺為隊列模型處理模型,即互聯(lián)網服務遵循先到先服務(firstcomefirstservice,F(xiàn)CFS)[21],因此,為了評估預測模型的效果,本文定義相同時間段后云計算平臺中任務隊列長度(剩余未處理的任務)Length_lev作為評測指標。Length_lev越大,說明以該模型為預測方法的彈性預測質量較差,其具體的過程包括以下步驟:①依據(jù)真實的云計算服務情況設定初始計算服務資源數(shù),該變量定義為init_res。一般而言,租戶都會預先啟動一定資源的虛擬機作為服務的首次計算資源配置;②假設一個計算單位的計算能力為C,即處理一個計算單位可以處理C個服務,本文實驗設定為100。其數(shù)學描述為
Length_lev=Length_lev(before)+
input/C-predict/C
(10)
(10)式中,當Length_lev(before)<0時,Length_lev(before)=0。Length_lev(before)是前一個時刻的服務隊列長度的數(shù)量,input是當前時刻互聯(lián)網接入數(shù)量,predict是上一個時刻對當前時刻的接入數(shù)量預測。當tn 2)計算資源單位數(shù)量誤差。為了進一步對預測的質量進行對比,本文同時定義了資源準確度,即實際所需的計算單位的數(shù)量和所預測的計算單元數(shù)量差異的總和—res_diff。其數(shù)學描述為 res_diff=res_diff(before)-input/C+predict/C (11) (11)式中,res_diff(before)是前一個時刻的計算資源單位數(shù)量誤差。各預測模型在這2個標準下的效果對比如圖4所示。 圖4 各個預測模型的對比效果Fig.4 Contrast effect of different forecast models 從圖4中可以看出,經過一段時間后,未改進的AR線性模型預測模型的剩余服務隊列最長,約為其他預測模型剩余服務隊列長度的20倍;但在資源的差異方面最小,說明未改進的AR預測模型預測的結果總是低于實際的互聯(lián)網接入服務數(shù)量,經過一定時間后造成剩余服務隊列長度最長,同時每個時刻與實際數(shù)值差值相對最小,因此資源差異最??;而由于未改進的AR線性模型預測模型的剩余的服務隊列最長,無法保證其SLA。同時其他預測模型在剩余的消息隊列長度上接近,說明在某些時刻預測結果大于實際數(shù)量,但差值都小于10,說明所調度的計算資源能較好地滿足接入服務的計算資源需求,可以保證SLA;另外,除了改進的AR預測模型,其他預測模型在資源差異上數(shù)值接近,說明這些模型在預測的資源與實際需求上,其效果和質量接近,同時相對于未改進的AR預測模型,資源準確度相對誤差均在30%內,差值并未出現(xiàn)如剩余服務隊列長度那樣極高的差異;在計算復雜度上,AR線性預測模型>斜率導向模型>時間強度相關模型。綜合考慮本文采用時間強度相關模型作為Openstack平臺的彈性資源預測系統(tǒng)的基礎模型。 4基于Openstack平臺的彈性資源預測調度系統(tǒng)的實現(xiàn) Openstack[23]是由Rackspace 和美國國家航空航天局共同開發(fā)的云計算平臺。 從IceHouse版本開始除了包括了6個主要的核心子工程:Nova—提供虛擬主機的調度、創(chuàng)建和刪除和簡單網絡資源管理功能;Cinder—提供網絡的塊存儲設備;Glance—提供創(chuàng)建虛擬主機所需的鏡像注冊、存儲和刪除功能;Swift—提供對象方式的分布式存儲功能;Keystone—服務權限的驗證、用戶信息注冊、修改、刪除和相關服務權限管理功能;Horizon—基于Django架構的Web服務,提供面向終端用戶的網頁操作管理功能;還提供了包括NaaS(network as a service)—Neutron工程提供用戶定義網絡的服務,監(jiān)控工程—Ceilometer工程,提供資源的監(jiān)控服務,按照模板啟動虛擬機工程—Heat工程,按照用戶自定義的規(guī)則和模板批量動態(tài)擴展虛擬機資源。 4.1基于Openstack云計算平臺的資源預測與彈性調度設計 本文以Heat工程為參考,直接采用了各個相關工程的API進行資源預測和彈性調度模塊的開發(fā)。其架構如圖5所示。 圖5 基于Openstack的資源預測與調度云計算平臺架構Fig.5 Cloud computing platform architecture for resource prediction and scheduling based on Openstack 本文在原有虛擬機管理上增加虛擬機加入集群的預備狀態(tài)和退出集群繼續(xù)執(zhí)行任務的待關閉狀態(tài)(在此狀態(tài)下的虛擬機繼續(xù)執(zhí)行任務),如圖6所示。 圖6 彈性集群虛擬機管理Fig.6 Structure of elastic cluster virtual machine management 同時在實際環(huán)境中,需要考慮監(jiān)控信息獲取的便利性和虛擬機負載的穩(wěn)定性(一般位于50%—80%),在工程化資源預測和彈性調度系統(tǒng)的過程中做了如下的修正和優(yōu)化。 1)對現(xiàn)有系統(tǒng)內的每個虛擬機的負載進行預測,結合公式(5),第k個虛擬機的負載預測為 (12) 2)第i個時刻,系統(tǒng)內虛擬機的平均負載為 (13) 本文以Load_Avg(i)作為資源擴展的依據(jù),設置上、下2個閾值。當Load_Avg(i)大于上閾值時,擴展虛擬機計算資源;當Load_Avg(i)低于閾值時,收縮虛擬機資源,具體流程如圖7所示。 圖7 資源預測與彈性資源調度策略流程圖Fig.7 Resource prediction and flexible resource scheduling strategy flow chart 4.2系統(tǒng)初步實驗結果 本文通過LoadRunner并發(fā)測試工具來模擬多個用戶同時訪問應用服務,以每隔10 s改變并發(fā)用戶的遞增速度模擬對應用服務的訪問壓力,資源預測和彈性調度集群使用的虛擬機類型為2VCPU,2GByte內存的配置,時間窗口m取值為5,同時設定觸發(fā)集群擴展策略的集群平均負載閾值為80,觸發(fā)集群收縮策略的平均負載閾值為30。 如圖8所示為資源預測和彈性調度集群擴展時虛擬機負載曲線圖,隨著用戶的并發(fā)連接數(shù)量不斷增大,彈性集群的平均負載不斷增高,集群中的虛擬機的互聯(lián)網接入服務數(shù)量增加超過一定閾值時,系統(tǒng)會自動增加一臺虛擬機作為資源的彈性擴展;當互聯(lián)網接入服務數(shù)量下降到一定數(shù)值,在虛擬機的內部負載接近0時,關閉其中一臺虛擬機,另外一臺虛擬機的內部負載會出現(xiàn)少量的提高,將關閉的虛擬機處理能力接管過來。 實驗結果可以看出,彈性伸縮策略可以很好地適應互聯(lián)網接入服務數(shù)量的變化,保障良好的服務質量。當用互聯(lián)網接入服務數(shù)量上升時,集群也可以隨之擴大規(guī)模;當互聯(lián)網接入服務數(shù)量下降時,集群也可以隨之收縮規(guī)模;使用戶的計算資源更多地用在應用服務上,提高資源的效用比,資源收益得到提高。 圖8 資源預測和彈性調度集群擴展時虛擬機負載曲線圖Fig.8 Resource prediction and flexible scheduling cluster expansion virtual machine load curve 5總結 經過實踐和實際運行,本文完成了既定的2個目標:①從互聯(lián)網接入服務負載的過程出發(fā),提出了基于泊松過程的資源預測模型,并對相關的理論做了研究和仿真;②以Openstack平臺為基礎,結合實際的條件和需求,對理論的模型進行優(yōu)化和修正,初步實現(xiàn)了模型的工程化。本文為云計算平臺資源彈性和高效用比使用提出一種可行的數(shù)學模型和實現(xiàn)方法,展示了理論和工程化結合的過程。下一步的工作我們將進一步對模型進行優(yōu)化和修正,并結合調度的顆粒度,進一步提高云計算按需使用和資源的效用比。 參考文獻: [1]WANG L, LASZEWSKI G V, YOUNGE A, et al. Cloud computing: A perspective study[J]. New Generation Computing, 2010, 28(2):137-146. [2]SOTOMAYOR B,MONTERO R S,LORENTE I M,et al.Infrastructure Management in Private and Hybrid Clouds[J].IEEE Internet Computing,2009,12(5):14-22. [3]MELL P, GRANCE T. The NIST definition of cloud computing (draft)[J]. NIST special publication, 2011,80(145): 7-15. [4]RUYYA R,YEO C S,VENUGOPA S, et al. Cloud computing and emerging IT platforms: vision, hype, and reality for delivering computing as the 5th utility[J]. Future Generation Computer Systems,2009,25(6):599-616.[5]ARMBRUST M A, FOX R, GRIFFITH R, et al. Above the clouds: A Berkeley view of cloud computing[J]. Eecs Department University of California Berkeley, 2009, 53(4):50-58. [6]XIONG K, PERROS H. Service Performance and Analysis in Cloud Computing[J]. World Conference on Services-i, 2009(13), 1:693-700. [7]LEE Y, ZOMAYA A Y. Energy efficient utilization of resources in cloud computing systems[J]. J Supercomput, 2012, 60(2): 268-280. [8]BElOGLAZOV A, BUYYA R, LEE Y, et al. A taxonomy and survey of energy-efficient data centers and cloud computing systems[J]. Advances in Computers, 2011, 8(3):47-111. [9]PAWAR C, WAGH R. Priority Based Dynamic Resource Allocation in Cloud Computing with Modified Waiting Queue[C]//In Proc. IEEE International Conference on Intelligent Systems and Signal Processing (ISSP). Gujarat, Pakistani: IEEE Press, 2013:311-316.[10] 周相兵.一種基于粒子群優(yōu)化的虛擬資源分配方法[J].重慶郵電大學學報:自然科學版, 2014, 26(5):686-693. ZHOU Xiangbing. An optimization approach of virtual resources allocation base on particle swarm algorithm[J]. Journal of Chongqing University of Posts and Telecommunications: Natural Science Edition,2014,26(5):686-693.[11] 史少鋒,劉宴兵.基于動態(tài)規(guī)劃的云計算任務調度研究[J].重慶郵電大學學報:自然科學版,2012,24(6):687-692. SHI Shaofeng, LIU Yanbing. Cloud computing task scheduling research based on dynamic programming[J]. Journal of Chongqing University of Posts and Telecommunications:Natural Science Edition,2012,24(6):687-692.[12] BIANCHINI R, RAJAMONY R. Power and Energy Management for Server Systems[J]. Computer, 2004, 37(11): 68-74. [13] HUANG W, LI X, QIAN Z. An Energy Efficient Virtual Machine Placement Algorithm with Balanced Resource Utilization[C]//In Proc. IEEE Seventh International Conference on Innovative Mobile and Internet Services in Ubiquitous Computing. USA: IEEE Press,2013:313-319. [14] CHIANG Y, OUYANG Y, HSU C. An Efficient Green Control Algorithm in Cloud Computing for Cost optimization[C]∥IEEE Transactions on Cloud Computing, Taichung, China: IEEE Press, 2015, 3(2):145-155. [15] SUN Y, XIAO Z, BAO D, et al. An Architecture Model of Management and Monitoring on Cloud Services Resources[C]//In Proc. IEEE 3rd International Conference on Advanced Computer Theory and Engineering (ICACTE). Chengdu, China: IEEE Press, 2010,3:207-211. [16] RANJAN R,ZHAO L,WU X,et al.Peer-to-peer cloud provisioning:Service discovery and load-balancing[J].Computer Communications & Networks,2010,12(2)195-217. [17] ZHANG M, HOU Z. M/G/1 queue with single working vacation[J]. Applied Mathematics and Computing, 2012, 39(1):221-234. [18] WANG K,HUANG H.Optimal control of an M/Ek/1 queueing system with a removable service station[J].Operational Research Society,1997,48(9):936-946.[19] CHIANG Y, OUYANG Y, HSU C. An Optimal Cost-Efficient Resource Provisioning for Multi-Servers Cloud Computing[C]//In Proc. IEEE International Conference on Cloud Computing and Big Data(CloudCom-Asia).Fuzhou,China:IEEE Press,2013:225-231. [20] Wikipedia. Poisson distribution[EB/OL]. (2016-03-30) [2015-10-09]. https://en.wikipedia.org/wiki/Poisson_distribution. [21] 尉遲學彪,李曉東,閻保平,等. DNS服務中的Internet訪問行為測量研究[J].計算機工程與應用, 2009, 34(1):85-88. YUCHI Xuebiao, LI Xiaodong, YAN Baoping, et al. Internet usage measurements in DNS services[J]. Computer Engineering and Applications, 2009, 34(1):85-88. [22] Wikipedia. ARMA [EB/OL]. (2016-03-31) [2016-04-01]. https://en.wikipedia.org/wiki/Autoregressive%E2%80%93moving-average_model. [23] BELL T. OpenStack Documentation[EB/OL]. (2016-04-01) [2016-04-06]. http://docs.openstack.org/. DOI:10.3979/j.issn.1673-825X.2016.04.018 收稿日期:2015-12-30 修訂日期:2016-04-20通訊作者:李磊eelilei@scut.edu.cn 基金項目:國家科技支撐計劃(2013BAH65F01-2013BAH65F04);廣東省工業(yè)高新技術領域科技計劃項目(2013B010202004);廣東省應用型科技研發(fā)專項(2015B010131004) Foundation Items:The National Key Technology Support Program(2013BAH65F01-2013BAH65F04); The Guangdong Science and Technology Project(2013B010202004);The Guangdong Science and Technology Research Plan(2015B010131004) 中圖分類號:TP13 文獻標志碼:A 文章編號:1673-825X(2016)03-0560-07 作者簡介: 李達港(1991-),男,廣東佛山人,碩士研究生,主要研究方向為云計算、分布式系統(tǒng)、性能評估、機器學習和大數(shù)據(jù)。E-mail:eric.lee.ltk@gmail.com。 李磊(1983-),男,云南昆明人,博士研究生,工程師,研究領域包括云計算、最優(yōu)控制算法、性能評估、機器學習和綠色云計算系統(tǒng)。E-mail:eelilei@scut.edu.cn。 (編輯:田海江) Research of load forecasting and elastic resources scheduling of Openstack platform based on time series LI Dagang1, LI Lei1, JIN Lianwen1, HUANG Ganbo2, WU Quan2 (1. School of Electronic and Information Engineering, South China University of Technology, Guangzhou 510641, P.R.China;2. 21CN, Guangzhou 510630, P.R.China) Abstract:With the rapid development of cloud computing, cloud computing outperforms in aspects of providing high utility ratio and on-demand resources. Compared with traditional computing resource construction technology, cloud computing, which provides better security levels, higher elastic resource allocation capability and lower hardware requirements, can satisfy the need of fast resource allocation. We focus on one of the researching hot spot of cloud computing, elastic resource effectiveness ratio, and use the time series correlation based on network access probability distributions, Poisson distribution, to analyze and simulate different related models. Finally, based on Openstack cloud computing platform, the model has been developed, which is suitable for the real environment. We also have tested the platform and got some useful results. The results show that the way we provided is a feasible way to improve the cloud computing resource utilization ratio and guarantee service-level agreement(SLA). Keywords:time correlation; Poisson distribution; elastic resources allocation; high effectiveness ratio; openstack