劉丹,李紀(jì)成,隋欣,2,王歡,李莉
(1.長(zhǎng)春理工大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,長(zhǎng)春 130022;2.吉林省教育學(xué)院職業(yè)與成人教育教研培訓(xùn)學(xué)院,長(zhǎng)春 130022)
基于Openstack私有云平臺(tái)的高可用性研究
劉丹1,李紀(jì)成1,隋欣1,2,王歡1,李莉1
(1.長(zhǎng)春理工大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院,長(zhǎng)春 130022;2.吉林省教育學(xué)院職業(yè)與成人教育教研培訓(xùn)學(xué)院,長(zhǎng)春 130022)
隨著信息技術(shù)的發(fā)展,傳統(tǒng)的并行計(jì)算和網(wǎng)格計(jì)算等計(jì)算模式逐漸發(fā)展成為云計(jì)算。當(dāng)前云計(jì)算服務(wù)應(yīng)用于各行各業(yè)。企業(yè)也可以搭建自己的私有云,為內(nèi)部員工提供更加便捷的服務(wù)支持。云服務(wù)的可靠性是一個(gè)值得討論的問(wèn)題。針對(duì)OpenStack私有云的高可用性進(jìn)行分析,將其服務(wù)狀態(tài)分為有狀態(tài)服務(wù)和無(wú)狀態(tài)服務(wù),設(shè)計(jì)私有云平臺(tái)各個(gè)模塊的高可用方案,實(shí)現(xiàn)Openstack私有云平臺(tái)的高可用性。
OpenStack;私有云;服務(wù)狀態(tài)
隨著當(dāng)前數(shù)據(jù)量的急劇增長(zhǎng),網(wǎng)絡(luò)帶寬與物理硬件的提升以及虛擬化技術(shù)的飛速發(fā)展,使得云計(jì)算應(yīng)用的不斷深入,其提供的服務(wù)已應(yīng)用于各個(gè)產(chǎn)業(yè)。在私有云平臺(tái)構(gòu)建過(guò)程中,應(yīng)充分考慮其高可用性。高可用性主要是為了防止系統(tǒng)故障和數(shù)據(jù)丟失而設(shè)計(jì),系統(tǒng)故障會(huì)導(dǎo)致面向客戶的服務(wù)無(wú)法達(dá)到正常的工作時(shí)間、或者低于服務(wù)承諾的平均無(wú)故障時(shí)間。本文針對(duì)OpenStack私有云平臺(tái)的高可用性進(jìn)行討論。
OpenStack云平臺(tái)通過(guò)對(duì)計(jì)算、存儲(chǔ)及網(wǎng)絡(luò)資源的整合,提供給用戶更便捷的服務(wù)?!八接性啤币呀?jīng)廣泛應(yīng)用于政府、大型企業(yè)等。為支持大規(guī)模用戶的高頻訪問(wèn),要求系統(tǒng)結(jié)構(gòu)、計(jì)算資源、網(wǎng)絡(luò)資源等都應(yīng)具有一定的可用性,用來(lái)確保整個(gè)系統(tǒng)平臺(tái)穩(wěn)定的運(yùn)行。OpenStack云平臺(tái)由計(jì)算節(jié)點(diǎn)、網(wǎng)絡(luò)節(jié)點(diǎn)及控制節(jié)點(diǎn)等核心部分構(gòu)成。因此,本文將針對(duì)這幾個(gè)模塊的高可用性進(jìn)行討論,分析Nova-network、消息隊(duì)列以及數(shù)據(jù)庫(kù)等幾項(xiàng)核心模塊。
1.1 網(wǎng)絡(luò)配置的高可用性
OpenStack的網(wǎng)絡(luò)模塊包括nova-network和neutron兩種。本文選用nova-network作為網(wǎng)絡(luò)模塊。Nova-network提供三種網(wǎng)絡(luò)模式:Flat模式、FlatDHCP模式以及VLAN模式。在網(wǎng)絡(luò)部署時(shí),常用的部署方案是單點(diǎn)網(wǎng)絡(luò)結(jié)構(gòu)。單點(diǎn)部署方案可以將網(wǎng)絡(luò)集成到控制節(jié)點(diǎn)中,也可以單獨(dú)用一個(gè)節(jié)點(diǎn)來(lái)提供網(wǎng)絡(luò),負(fù)責(zé)所有與其相連接的Compute節(jié)點(diǎn)的網(wǎng)絡(luò)供應(yīng)。其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示:
圖1 單點(diǎn)網(wǎng)絡(luò)結(jié)構(gòu)圖
Network節(jié)點(diǎn)提供了實(shí)例,實(shí)例與外界之間的網(wǎng)絡(luò)通信,并且能夠?qū)崿F(xiàn)網(wǎng)絡(luò)地址轉(zhuǎn)換與動(dòng)態(tài)主機(jī)配置協(xié)議功能。因此,網(wǎng)絡(luò)節(jié)點(diǎn)的故障會(huì)影響到整個(gè)平臺(tái)的網(wǎng)絡(luò)中斷,造成所有的服務(wù)都失效。為避免單點(diǎn)故障,首先要對(duì)Nova-network進(jìn)行高可用配置。
對(duì)Nova-network進(jìn)行高可用(HA)的配置,可將網(wǎng)絡(luò)節(jié)點(diǎn)進(jìn)行主備冗余配置。同時(shí),配置兩臺(tái)服務(wù)器作為網(wǎng)絡(luò)節(jié)點(diǎn),構(gòu)成“主從結(jié)構(gòu)”,即一臺(tái)“主服務(wù)器”master,一臺(tái)或多臺(tái)“從服務(wù)器”backup。如果backup服務(wù)器一段時(shí)間內(nèi)沒(méi)有收到master信號(hào),就判斷master故障,由backup接管網(wǎng)絡(luò)服務(wù)。其網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示:
圖2 主備冗余網(wǎng)絡(luò)結(jié)構(gòu)圖
當(dāng)主備冗余在發(fā)生故障的時(shí)候,主從服務(wù)器間發(fā)生切換。切換的過(guò)程中,對(duì)網(wǎng)絡(luò)會(huì)產(chǎn)生一定的影響。因此,該網(wǎng)絡(luò)配置方案不是網(wǎng)絡(luò)高可用的最優(yōu)方案。
根據(jù)上述分析結(jié)果,在實(shí)驗(yàn)過(guò)程中,將HA網(wǎng)絡(luò)配置方案進(jìn)行改進(jìn)。將Nova-network模塊集成到計(jì)算節(jié)點(diǎn)中,由每個(gè)計(jì)算節(jié)點(diǎn)自身的Nova-network來(lái)提供網(wǎng)絡(luò),這樣所有的計(jì)算節(jié)點(diǎn)都可以通過(guò)Nova-network來(lái)與外界進(jìn)行網(wǎng)絡(luò)通信,而且所有的計(jì)算節(jié)點(diǎn)中的網(wǎng)絡(luò)模塊,也將形成一個(gè)Flat模式的二層網(wǎng)絡(luò),所有計(jì)算節(jié)點(diǎn)中實(shí)例都可以通過(guò)這個(gè)扁平的二層網(wǎng)絡(luò)進(jìn)行通信。其網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示:
圖3 二層網(wǎng)絡(luò)結(jié)構(gòu)圖
1.2 網(wǎng)絡(luò)通信的高可用性
OpenStack云平臺(tái)的各模塊間的通信是通過(guò)消息隊(duì)列的協(xié)助完成的。因此,消息隊(duì)列的高可用性對(duì)云平臺(tái)的高可用性有較大影響。消息隊(duì)列高可用性可分為集群、鏡像模式等方式。
在默認(rèn)集群模式中,隊(duì)列的消息僅在一個(gè)節(jié)點(diǎn)存在,主副兩個(gè)節(jié)點(diǎn)中有相同的元數(shù)據(jù)。消息每次進(jìn)入主節(jié)點(diǎn)的隊(duì)列中,會(huì)從副節(jié)點(diǎn)經(jīng)過(guò)被需要使用的消費(fèi)者拉取,也就是說(shuō)每次消息都會(huì)在主副節(jié)點(diǎn)間進(jìn)行傳輸,盡量連接每個(gè)節(jié)點(diǎn)去獲取隊(duì)列中的消息。但當(dāng)主節(jié)點(diǎn)發(fā)生故障時(shí),如果主節(jié)點(diǎn)的消息還未被使用(既沒(méi)有消費(fèi)者拉取也沒(méi)有傳遞到其他節(jié)點(diǎn)),該消息就會(huì)丟失。
在鏡像模式中,需要將消息隊(duì)列做成鏡像隊(duì)列,并將其分發(fā)到多個(gè)節(jié)點(diǎn)中,這種模式與上述默認(rèn)集群模式不同。該模式下,消息不需要被動(dòng)的被消費(fèi)者拉取,而是主動(dòng)的在所有的鏡像節(jié)點(diǎn)上同步。鏡像模式分為master節(jié)點(diǎn)和slave節(jié)點(diǎn)。所有的消息都會(huì)經(jīng)過(guò)master向其他slave節(jié)點(diǎn)發(fā)送以確保消息同步。當(dāng)消息消費(fèi)以后,master節(jié)點(diǎn)會(huì)對(duì)消費(fèi)者進(jìn)行ack確認(rèn),通過(guò)后才會(huì)刪除消息。若master節(jié)點(diǎn)故障則系統(tǒng)會(huì)選擇其中一個(gè)salve節(jié)點(diǎn)作為master繼續(xù)維持隊(duì)列通信。這種方案也有一定的弊端。在不考慮集群消耗的情況下,如果同時(shí)有大量消息進(jìn)入鏡像隊(duì)列,這種消息同步的方式會(huì)占用很大的網(wǎng)絡(luò)帶寬造成網(wǎng)絡(luò)擁堵。
上述分析可得,無(wú)論是默認(rèn)集群模式還是鏡像模式,都有不足之處。在構(gòu)造高可靠性的云平臺(tái)時(shí),應(yīng)將以上兩種模式相結(jié)合,設(shè)計(jì)消息隊(duì)列的高可用集群。先實(shí)現(xiàn)默認(rèn)集群模式,以此為基礎(chǔ)配置鏡像模式來(lái)實(shí)現(xiàn)網(wǎng)絡(luò)通信的高可用。
1.3 數(shù)據(jù)庫(kù)的高可用性
OpenStack中的數(shù)據(jù)庫(kù)存儲(chǔ)包括各個(gè)模塊的狀態(tài)信息、配置信息以及云主機(jī)的實(shí)例的相關(guān)信息。數(shù)據(jù)庫(kù)的可靠性是保障整個(gè)系統(tǒng)穩(wěn)定的基礎(chǔ)。如果出現(xiàn)數(shù)據(jù)丟失,OpenStack云平臺(tái)將會(huì)造成無(wú)法預(yù)知的后果,所以數(shù)據(jù)庫(kù)的高可用在企業(yè)應(yīng)用中是必不可少的一部分。
數(shù)據(jù)庫(kù)高可用方案可采用MySQL集群或主從數(shù)據(jù)庫(kù)來(lái)實(shí)現(xiàn)。當(dāng)高可用性需要達(dá)到99.9%級(jí)別時(shí),通常會(huì)選擇MySQL復(fù)制;而99.99%級(jí)別則需要使用NDB集群來(lái)支撐。NDB作為數(shù)據(jù)節(jié)點(diǎn)存儲(chǔ)數(shù)據(jù),統(tǒng)一由管理節(jié)點(diǎn)進(jìn)行管理。還有一個(gè)用來(lái)訪問(wèn)數(shù)據(jù)的節(jié)點(diǎn)稱之為SQL節(jié)點(diǎn)。而整個(gè)高可用性是依賴數(shù)據(jù)節(jié)點(diǎn)中,數(shù)據(jù)進(jìn)行多副本存儲(chǔ)。這樣在出現(xiàn)故障的時(shí)候才能保證數(shù)據(jù)的完整性,從而保障了數(shù)據(jù)庫(kù)的高可用。MySQL復(fù)制則大多依靠MySQL Master-Master Replication Manager來(lái)實(shí)現(xiàn),使用多個(gè)IP結(jié)合多個(gè)數(shù)據(jù)節(jié)點(diǎn)包含master和slave。一旦遇到某個(gè)數(shù)據(jù)節(jié)點(diǎn)fail,檢測(cè)不到心跳、服務(wù)器的狀態(tài),監(jiān)測(cè)模塊會(huì)將服務(wù)切換到一個(gè)正常運(yùn)行的備用節(jié)點(diǎn)上。在正常運(yùn)行的過(guò)程中,主服務(wù)器中每次數(shù)據(jù)有變化時(shí)都會(huì)寫(xiě)入日志,從服務(wù)器連接到主服務(wù)器會(huì)根據(jù)日志讀取到的最后一次數(shù)據(jù)更新,來(lái)保持所有的服務(wù)器數(shù)據(jù)的一致性。
基于數(shù)據(jù)庫(kù)的主從復(fù)制管理集群,包含主節(jié)點(diǎn)、備用節(jié)點(diǎn)及監(jiān)控節(jié)點(diǎn)。所有的節(jié)點(diǎn)都配置在一個(gè)IP資源池。主節(jié)點(diǎn)在進(jìn)行任何數(shù)據(jù)庫(kù)的讀寫(xiě)操作時(shí),利用數(shù)據(jù)庫(kù)的主從復(fù)制,同時(shí)更新備用節(jié)點(diǎn)的數(shù)據(jù)庫(kù),以此保證主備數(shù)據(jù)一致。整個(gè)系統(tǒng)運(yùn)行過(guò)程中,由監(jiān)控節(jié)點(diǎn)負(fù)責(zé)監(jiān)控主節(jié)點(diǎn)上各項(xiàng)服務(wù)是否可用,同時(shí)觸發(fā)主備節(jié)點(diǎn)上的IP地址轉(zhuǎn)換。當(dāng)主節(jié)點(diǎn)發(fā)生故障,備用節(jié)點(diǎn)會(huì)自動(dòng)負(fù)載所有的服務(wù),以保證整個(gè)系統(tǒng)的穩(wěn)定運(yùn)行。
基于以上對(duì)OpenStack私有云高可用性分析,在實(shí)驗(yàn)過(guò)程中,采用以下高可用方案:在云平臺(tái)架構(gòu)中,應(yīng)設(shè)置兩個(gè)私有云控制器。這樣可以避免因單個(gè)節(jié)點(diǎn)壓力造成控制節(jié)點(diǎn)宕機(jī)。而且當(dāng)故障發(fā)生時(shí),自動(dòng)切換也不會(huì)有很大延遲。從而保證整個(gè)體統(tǒng)穩(wěn)定運(yùn)行。具體私有云高可用系統(tǒng)架構(gòu)如圖4所示:
圖4 OpenStack私有云的高可用架構(gòu)圖
在私有云平臺(tái)中,網(wǎng)絡(luò)模塊集成到每個(gè)計(jì)算節(jié)點(diǎn)中。這是為了避免由于網(wǎng)絡(luò)節(jié)點(diǎn)宕機(jī),所造成的系統(tǒng)網(wǎng)絡(luò)中斷。在云平臺(tái)架構(gòu)中,配置雙控制器,可以保證平臺(tái)的認(rèn)證、鏡像及通信等服務(wù)的穩(wěn)定運(yùn)行。在提供服務(wù)的控制器發(fā)生故障時(shí),系統(tǒng)將進(jìn)行自動(dòng)檢測(cè),并切換到另外一個(gè)控制器。整個(gè)切換過(guò)程只會(huì)有短暫的延遲,對(duì)云主機(jī)的使用沒(méi)有任何影響,確保了云平臺(tái)的可靠性及高可用性。
3.1 網(wǎng)絡(luò)配置方案
在OpenStack私有云平臺(tái)架構(gòu)建立中,為了確保其高可用性。在實(shí)驗(yàn)過(guò)程中,要盡量避免單點(diǎn)故障。因此,架構(gòu)設(shè)計(jì)時(shí),每臺(tái)服務(wù)器應(yīng)使用雙網(wǎng)卡機(jī)制,并且配置在兩個(gè)交換機(jī)上。這樣可以保證一個(gè)網(wǎng)卡故障或者交換機(jī)故障,整個(gè)系統(tǒng)的網(wǎng)絡(luò)不會(huì)癱瘓。其網(wǎng)絡(luò)設(shè)計(jì)如圖5所示。
圖5 網(wǎng)絡(luò)設(shè)計(jì)結(jié)構(gòu)圖
在使用雙網(wǎng)卡及兩個(gè)交換機(jī)基礎(chǔ)上,需要對(duì)網(wǎng)卡進(jìn)行設(shè)置以確保網(wǎng)絡(luò)通暢。為此,對(duì)每個(gè)物理服務(wù)器都進(jìn)行雙網(wǎng)卡綁定。所謂雙網(wǎng)卡綁定就是利用ifenslave,將雙物理網(wǎng)卡綁定在虛擬網(wǎng)卡bond0上。實(shí)現(xiàn)了網(wǎng)絡(luò)的高可用性。其主要配置過(guò)程:
OpenStack云平臺(tái)中的全部節(jié)點(diǎn)都按照上述配置方案進(jìn)行部署。無(wú)故障運(yùn)行模式下,兩張網(wǎng)卡同時(shí)負(fù)責(zé)網(wǎng)絡(luò)通信。當(dāng)單張網(wǎng)卡出現(xiàn)故障時(shí),另一張網(wǎng)卡將會(huì)承擔(dān)后續(xù)網(wǎng)絡(luò)的通訊任務(wù)。此時(shí),經(jīng)測(cè)試驗(yàn)證,bond0的傳輸速率是原單張網(wǎng)卡的兩倍。在實(shí)驗(yàn)中,將兩個(gè)萬(wàn)兆物理網(wǎng)卡綁到一個(gè)bond0上,bond0的傳輸速度是20000Mb/s,正好是單張網(wǎng)卡的兩倍。其測(cè)試過(guò)程:
3.2 有狀態(tài)服務(wù)高可用實(shí)現(xiàn)
實(shí)驗(yàn)過(guò)程中,云平臺(tái)中的數(shù)據(jù)庫(kù)采用Mysql。為了實(shí)現(xiàn)數(shù)據(jù)庫(kù)高可用性,將控制節(jié)點(diǎn)的Mysql配置成主從復(fù)制,從而實(shí)現(xiàn)了每一步數(shù)據(jù)庫(kù)相關(guān)的操作都分別在兩個(gè)數(shù)據(jù)庫(kù)中執(zhí)行,確保了數(shù)據(jù)的完整性和Mysql的高可用;通過(guò)配置keepalive的虛擬IP,實(shí)現(xiàn)數(shù)據(jù)庫(kù)發(fā)生故障時(shí),可以進(jìn)行自動(dòng)切換,這樣進(jìn)一步地保證了數(shù)據(jù)庫(kù)的完整性。其主要配置過(guò)程:
在實(shí)驗(yàn)過(guò)程中,消息隊(duì)列RabbitMQ的broker服務(wù)應(yīng)通過(guò)雙控制節(jié)點(diǎn)構(gòu)建,即Erlang節(jié)點(diǎn)的邏輯集合。這樣的配置方式,可以避免任意節(jié)點(diǎn)的單點(diǎn)故障導(dǎo)致消息隊(duì)列服務(wù)失效。部署RabbitMQ broker服務(wù)的關(guān)鍵是確保雙節(jié)點(diǎn)的Erlang cookie文件一致。因此,在配置前應(yīng)暫停所有節(jié)點(diǎn)的RabbitMQ服務(wù),將第一臺(tái)節(jié)點(diǎn)中Cookie文件復(fù)制到其它節(jié)點(diǎn)。然后再啟動(dòng)全部節(jié)點(diǎn)的RabbitMQ,確保所有節(jié)點(diǎn)度處于運(yùn)行狀態(tài)。最后,停掉其余Erlang上的RabbitMQ的應(yīng)用,將其加入到集群。其配置過(guò)程如圖6所示。之后,在Nova.conf配置文件中,Rabbit-MQ HA集群的連接地址及端口需進(jìn)行設(shè)定,實(shí)現(xiàn)消息隊(duì)列的高可用性。
圖6 消息隊(duì)列構(gòu)建過(guò)程
3.3 無(wú)狀態(tài)服務(wù)高可用實(shí)現(xiàn)
云平臺(tái)無(wú)狀態(tài)服務(wù)的高可用性,通過(guò)keepalived實(shí)現(xiàn)。基于虛擬路由冗余協(xié)議協(xié)議(即vrrp協(xié)議),將多臺(tái)提供相同功能的機(jī)器構(gòu)成一個(gè)組。每組能包含一個(gè)master和多個(gè)backup。外提供服務(wù)的虛擬IP由master負(fù)責(zé)提供,當(dāng)backup收不到vrrp包時(shí)就認(rèn)為master宕機(jī),通過(guò)優(yōu)先級(jí)進(jìn)行調(diào)度將backup變成master繼續(xù)使用,用以確保云平臺(tái)的高可用。在實(shí)驗(yàn)過(guò)程中,將兩臺(tái)控制節(jié)點(diǎn)上安裝keepalived。其主要配置過(guò)程:
其中,vrrp_script用來(lái)做健康檢查。當(dāng)檢查失敗會(huì)將vrrp_instance的值減少相應(yīng)的weigh值,并且將兩個(gè)控制節(jié)點(diǎn)的state全都設(shè)置成BACKUP。這樣可以防止當(dāng)master節(jié)點(diǎn)故障消除后,立即將BACKUP機(jī)器的服務(wù)轉(zhuǎn)接過(guò)來(lái),所造成的對(duì)系統(tǒng)穩(wěn)定性的影響。Virtual_ipaddress中對(duì)虛擬IP進(jìn)行了設(shè)置,兩個(gè)控制節(jié)點(diǎn)IP都應(yīng)映射到此IP。當(dāng)虛擬IP所在的節(jié)點(diǎn)宕機(jī),虛擬IP會(huì)自動(dòng)切換到另一個(gè)控制節(jié)點(diǎn)上,接管原來(lái)的所有服務(wù)。
當(dāng)所有服務(wù)都正常啟動(dòng)之后,通過(guò)查看Openstack的Service列表,可以看出整個(gè)云平臺(tái)的服務(wù)信息與狀態(tài)。如圖7所示:
圖7 云平臺(tái)Service列表圖
從前文分析可得,實(shí)驗(yàn)過(guò)程中整個(gè)Openstack私有云平臺(tái)包含兩個(gè)控制節(jié)點(diǎn)(即controller1與controller2)與多個(gè)計(jì)算節(jié)點(diǎn),這兩個(gè)控制節(jié)點(diǎn)中包含相同服務(wù),共同來(lái)管理整個(gè)私有云平臺(tái)。通過(guò)上述的搭建方式實(shí)現(xiàn)云平臺(tái)的高可用性。
本文針對(duì)OpenStack私有云平臺(tái)的高可用性進(jìn)行了討論。在多種服務(wù)狀態(tài)下,通過(guò)對(duì)OpenStack云平臺(tái)的nova-network、消息隊(duì)列以及數(shù)據(jù)庫(kù)等核心模塊的研究分析,設(shè)計(jì)了私有云平臺(tái)各個(gè)模塊的高可用方案。最終實(shí)現(xiàn)私有云平臺(tái)的高可用性,提高了云平臺(tái)的可靠性。
[1]王霄飛.基于OpenStack構(gòu)建私有云計(jì)算平臺(tái)[D].廣州:華南理工大學(xué),2012.
[2]戢友編著.OpenStack開(kāi)源云.王者歸來(lái)[M].清華大學(xué)出版社,2014.
[3]陳伯龍,程志鵬,張杰編著.云計(jì)算與OpenStack虛擬機(jī)Nova篇[M].電子工業(yè)出版社,2013.
[4]劉飛宇.OpenStack云平臺(tái)下的虛擬機(jī)監(jiān)控與控制的研究與實(shí)現(xiàn)[D].成都:電子科技大學(xué),2013.
[5]白瑞俊,劉光明,張瑞虹,等.虛擬化技術(shù)OpenStack在高性能計(jì)算集群上的應(yīng)用與研究[J].計(jì)算機(jī)光盤(pán)軟件與應(yīng)用,2013,16(15):72-74.
[6]汪楠.基于OpenStack云平臺(tái)的計(jì)算資源動(dòng)態(tài)調(diào)度及管理[D].大連:大連理工大學(xué),2013.
[7]Openstack部署工具總結(jié),http://www.chenshake.com/ openstack-deployment-tool-summary/
[8]黃志成.開(kāi)源云計(jì)算OpenStack在高校計(jì)算機(jī)機(jī)房中的應(yīng)用研究[J].計(jì)算機(jī)與現(xiàn)代化,2013(3):204-206.
[9]趙少卡,李立耀,凌曉,等.基于OpenStack的清華云平臺(tái)構(gòu)建與調(diào)度方案設(shè)計(jì)[J].計(jì)算機(jī)應(yīng)用,2013,33(12):3335-3338,3349.
Research on High Availability of Openstack Private Cloud Platform
LIU Dan1,LI Jicheng1,SUI Xin1,2,WANG Huan1,LI Li1
(1.School of Computer Science and Technology,Changchun University of Science and Technology,ChangChun 130022;2.School of Vocational and Adult Education,Jinlin Provincial Institute of Education,ChangChun 130022)
With the development of information technology,the traditional parallel computing and grid computing model has been gradually developed into cloud computing.The current cloud computing services are used in all walks of life. The enterprises are supported to build their own cloud privately for providing internal employees with high quality and convenient computing service.The reliability question of its service is worth out while disscussing.This paper analyzes the high availability of OpenStack private cloud,divides the service status into stateful and stateless.The paper also designs the high availability scheme to each module of private cloud platform,and realizes the high availability of Open-Stack private cloud platform.
OpenStack;private cloud service;service status
P315.69
A
1672-9870(2016)06-0085-05
2016-08-26
劉丹(1983-),女,博士研究生,講師,E-mail:ld_1983@hotmail.com
李莉(1963-),女,博士,教授,博士生導(dǎo)師,E-mail:ll@cust.edu.cn