靳書云,劉凱,房志奇,康衛(wèi),武宇鵬,韓春昊
(中國(guó)電子信息產(chǎn)業(yè)集團(tuán)有限公司第六研究所,北京 100083)
近年來(lái),云計(jì)算平臺(tái)因其能提供快速、按需、彈性的資源構(gòu)建方式,按照用戶需求快速地構(gòu)建計(jì)算資源和開發(fā)環(huán)境,已逐漸被應(yīng)用于航天測(cè)控領(lǐng)域[1-2]。云計(jì)算平臺(tái)的引入改變了航天任務(wù)測(cè)控中心傳統(tǒng)的“單星單系統(tǒng)”發(fā)展模式,解決了傳統(tǒng)測(cè)控系統(tǒng)柔性不足,硬件系統(tǒng)與業(yè)務(wù)應(yīng)用緊耦合,各業(yè)務(wù)系統(tǒng)自成體系,軟硬件資源分配和重組不靈活、資源共享不充分,系統(tǒng)互聯(lián)互通能力差,適應(yīng)新業(yè)務(wù)可擴(kuò)展能力有限等問(wèn)題[3-4]。
但是,云計(jì)算平臺(tái)的引入也出現(xiàn)了新的問(wèn)題。在基于國(guó)產(chǎn)化云計(jì)算平臺(tái)的航天任務(wù)中心系統(tǒng)更新?lián)Q代過(guò)程中,數(shù)據(jù)的強(qiáng)實(shí)時(shí)性、高吞吐性還達(dá)不到實(shí)際應(yīng)用程度,比較突出的問(wèn)題就是,網(wǎng)網(wǎng)絡(luò)資源虛擬化對(duì)數(shù)據(jù)組播的限制,數(shù)據(jù)丟包嚴(yán)重且數(shù)據(jù)極限帶寬不高。本文構(gòu)建基于國(guó)產(chǎn)化云平臺(tái)計(jì)算機(jī)系統(tǒng),設(shè)計(jì)基于云平臺(tái)用戶態(tài)的航天數(shù)據(jù)混合組播應(yīng)用技術(shù),解決了國(guó)產(chǎn)操作系統(tǒng)及云平臺(tái)網(wǎng)絡(luò)資源虛擬化對(duì)數(shù)據(jù)組播的性能瓶頸問(wèn)題,極大地提升了云平臺(tái)數(shù)據(jù)組播的性能,使基于國(guó)產(chǎn)化云平臺(tái)計(jì)算機(jī)系統(tǒng)在航天任務(wù)領(lǐng)域得到實(shí)際應(yīng)用和驗(yàn)證[5]。
緊密圍繞我國(guó)航天裝備發(fā)展應(yīng)用需求,充分利用新的信息技術(shù),構(gòu)建面向服務(wù)、按需定制的一體化云架構(gòu)計(jì)算機(jī)系統(tǒng)[6],如圖1 所示,其主要由資源層、服務(wù)層和應(yīng)用層三層組成。
圖1 一體化云架構(gòu)計(jì)算機(jī)系統(tǒng)體系架構(gòu)圖
資源層提供一個(gè)功能完整、標(biāo)準(zhǔn)開放、方便集成的基礎(chǔ)設(shè)施和平臺(tái)服務(wù),是服務(wù)的核心支撐層,主要由計(jì)算、存儲(chǔ)、網(wǎng)絡(luò)、顯示等硬件資源組成,通過(guò)云平臺(tái)虛擬化技術(shù)將硬件資源以服務(wù)的方式提供給用戶,實(shí)現(xiàn)智能化的資源性能、容量和配置管理。
服務(wù)層提供各類基礎(chǔ)服務(wù)和業(yè)務(wù)服務(wù),支持服務(wù)動(dòng)態(tài)注冊(cè),滿足橫向業(yè)務(wù)擴(kuò)展需求,不同任務(wù)可根據(jù)各自需求獲取不同的接口和服務(wù),實(shí)現(xiàn)信息收發(fā)、數(shù)據(jù)處理、計(jì)算分析等系統(tǒng)功能的服務(wù)化、組件化,為應(yīng)用層與資源層交互提供服務(wù)。
應(yīng)用層直接面向各任務(wù)和用戶。各任務(wù)和用戶以服務(wù)層的軟件服務(wù)為基礎(chǔ),按需定制任務(wù)的服務(wù)模型和服務(wù)流程,并根據(jù)計(jì)算和數(shù)據(jù)存儲(chǔ)需求,分配計(jì)算和存儲(chǔ)資源以及網(wǎng)絡(luò)服務(wù)[7-8]。
依托一體化云架構(gòu)計(jì)算機(jī)系統(tǒng)體系架構(gòu),構(gòu)建系統(tǒng)硬件拓?fù)溥B接,如圖2 所示,系統(tǒng)為均選用國(guó)產(chǎn)化品牌。系統(tǒng)由網(wǎng)絡(luò)資源、計(jì)算資源、存儲(chǔ)資源、輔助資源、顯示資源及配套設(shè)施組成,通過(guò)云平臺(tái)虛擬化技術(shù)將底層物理設(shè)備的硬件資源以服務(wù)的方式提供給服務(wù)層和應(yīng)用層相關(guān)軟件子系統(tǒng)適應(yīng),并通過(guò)運(yùn)管平臺(tái)實(shí)現(xiàn)對(duì)物理資源和虛擬資源的有效監(jiān)。實(shí)現(xiàn)資源虛擬化、功能服務(wù)化、運(yùn)行智能化、任務(wù)實(shí)戰(zhàn)化,形成系統(tǒng)動(dòng)態(tài)重組、數(shù)據(jù)靈活共享、全域調(diào)度指揮、智能任務(wù)決策的航天測(cè)控中心,在體系架構(gòu)轉(zhuǎn)型、系統(tǒng)資源共享、任務(wù)能力生成、運(yùn)行模式優(yōu)化等方面取得顯著的建設(shè)效益[9]。
圖2 一體化云架構(gòu)計(jì)算機(jī)系統(tǒng)硬件拓?fù)鋱D
網(wǎng)絡(luò)資源:采用層次化設(shè)計(jì),包括核心層、匯聚層、接入層,每層功能清晰、架構(gòu)穩(wěn)定、易于擴(kuò)展和維護(hù)。核心層選用兩臺(tái)萬(wàn)兆數(shù)據(jù)中心級(jí)交換機(jī),匯聚層選用兩臺(tái)萬(wàn)兆交換機(jī),核心層與匯聚層均做兩兩堆疊,組成高可用交換網(wǎng)絡(luò),滿足各系統(tǒng)或資源互聯(lián)傳輸性能要求,確保網(wǎng)絡(luò)通信的穩(wěn)定性。
計(jì)算資源:選用若干臺(tái)高性能服務(wù)器作為計(jì)算資源池,云平臺(tái)部署于各計(jì)算節(jié)點(diǎn)上,通過(guò)虛擬化技術(shù),將傳統(tǒng)的物理服務(wù)器進(jìn)行虛擬化復(fù)用,提高服務(wù)器的資源利用率,從而高效地為業(yè)務(wù)平臺(tái)提供各類應(yīng)用云服務(wù)資源,能夠?qū)崿F(xiàn)某中心接收外部數(shù)據(jù),進(jìn)行相關(guān)計(jì)算處理,為完成任務(wù)指令、數(shù)據(jù)注入等應(yīng)用提供計(jì)算能力保障。
存儲(chǔ)資源:選用數(shù)據(jù)庫(kù)、服務(wù)器、光纖交換機(jī)、磁盤陣列構(gòu)建集中式存儲(chǔ)系統(tǒng),配置主備雙活模式,用于結(jié)構(gòu)化數(shù)據(jù)存儲(chǔ);選用分布式存儲(chǔ)系統(tǒng),構(gòu)建多副本存儲(chǔ)模式,用于非結(jié)構(gòu)化數(shù)據(jù)的存儲(chǔ)。兩種存儲(chǔ)方式相輔相成實(shí)現(xiàn)各種實(shí)時(shí)數(shù)據(jù)、事后處理數(shù)據(jù)的存放,滿足中心數(shù)據(jù)存儲(chǔ)的高可靠高穩(wěn)定要求。
顯示資源:主要由LED 顯示屏、信號(hào)處理設(shè)備、集中控制設(shè)備等組成。主要將指揮人員、分析人員及技術(shù)人員在任務(wù)中所需要的指揮、分析、決策和監(jiān)控工作的測(cè)控?cái)?shù)據(jù)及圖表進(jìn)行可視化顯示。
輔助資源:由多臺(tái)操作終端組成,用于指揮人員操作控制,實(shí)時(shí)監(jiān)控任務(wù)中相關(guān)參數(shù)、信息。
基礎(chǔ)軟件:包含麒麟操作系統(tǒng)、麒麟平臺(tái)下的軟雙工管理軟件和時(shí)間服務(wù)軟件等。
航天測(cè)控通信網(wǎng)絡(luò)主要承載數(shù)據(jù)、圖像、話音等業(yè)務(wù),大部分業(yè)務(wù)需要單點(diǎn)發(fā)送、多點(diǎn)接收,如果采用單播方式進(jìn)行傳輸,則需要在源端進(jìn)行多次單播傳輸,重復(fù)的數(shù)據(jù)包會(huì)占用大量網(wǎng)絡(luò)帶寬,增減源主機(jī)負(fù)載,如果涉及跨區(qū)跨域的業(yè)務(wù),則會(huì)占用區(qū)域間有限的鏈路帶寬。而組播的優(yōu)勢(shì)在于當(dāng)需要將大量相同的數(shù)據(jù)傳輸給不同用戶時(shí),能節(jié)省發(fā)送數(shù)據(jù)主機(jī)的系統(tǒng)資源和帶寬,可以通過(guò)支持組播路協(xié)議的路由器或交換機(jī)有選擇地將數(shù)據(jù)復(fù)制給有要求的用戶,并且可以節(jié)省骨干網(wǎng)的傳輸帶寬。同時(shí),組播也更易于管理,方便了解組播成員的應(yīng)用情況,使發(fā)送者和路由器的處理耗費(fèi)以及發(fā)送延遲降低到了最低的程度[10],因此組播通信方式被用在航天業(yè)務(wù)應(yīng)用測(cè)控通信中,從而有效節(jié)約網(wǎng)絡(luò)帶寬,降低網(wǎng)絡(luò)負(fù)載。
組播基本架構(gòu)如圖3 所示,按照協(xié)議層從下往上劃分,組播基本架構(gòu)包括尋址機(jī)制、主機(jī)接入、組播路由、組播應(yīng)用四部分[11]。
其中尋址機(jī)制指使用組播地址,實(shí)現(xiàn)組播源發(fā)送信息到一組接收者;主機(jī)接入指基于組播成員關(guān)系協(xié)議,允許組播接收者動(dòng)態(tài)加入和離開某組播組,實(shí)現(xiàn)對(duì)組播成員的管理;組播路由指基于組播路由協(xié)議構(gòu)建報(bào)文分發(fā)樹,從組播源傳輸報(bào)文到接收者;組播應(yīng)用指組播源與接收者須安裝組播應(yīng)用軟件,進(jìn)行組播信息的發(fā)送和接收。
傳統(tǒng)網(wǎng)絡(luò)環(huán)境中,一臺(tái)物理機(jī)包含一個(gè)或多個(gè)網(wǎng)卡,要實(shí)現(xiàn)與其他物理主機(jī)之間的通信,需要通過(guò)自身的網(wǎng)卡(Network Interface Card,NIC)連接到外部的網(wǎng)絡(luò)設(shè)施(如交換機(jī)(Switch))上,如圖4 所示。這種模式下,往往將一個(gè)應(yīng)用部署在一臺(tái)物理設(shè)備上,從而實(shí)現(xiàn)應(yīng)用隔離。
圖4 傳統(tǒng)網(wǎng)絡(luò)環(huán)境數(shù)據(jù)通信模式
通過(guò)云平臺(tái)虛擬化層的虛擬機(jī)監(jiān)控程序Hypervisor的調(diào)度技術(shù),將資源從空閑的應(yīng)用上調(diào)度到繁忙的應(yīng)用上,實(shí)現(xiàn)對(duì)現(xiàn)有資源的靈活控制和調(diào)度[12]。通過(guò)虛擬化技術(shù),將1 臺(tái)實(shí)體物理機(jī)虛擬為n個(gè)虛擬機(jī),將1 張物理網(wǎng)卡虛擬成多張?zhí)摂M網(wǎng)卡(Virtualised Network Interface Card,vNIC),不同的虛擬機(jī)運(yùn)行不同的應(yīng)用業(yè)務(wù),實(shí)現(xiàn)應(yīng)用隔離。利用支持多層數(shù)據(jù)轉(zhuǎn)發(fā)的高質(zhì)量虛擬交換機(jī) (Open vSwitch,OVS)創(chuàng)建分布式虛擬交換機(jī),實(shí)現(xiàn)跨主機(jī)虛擬機(jī)之間的通信。在虛擬化環(huán)境中,以兩臺(tái)物理機(jī)為例,網(wǎng)絡(luò)傳輸模式如圖5 所示。
圖5 云平臺(tái)虛擬化網(wǎng)絡(luò)環(huán)境數(shù)據(jù)通信模式
隨著航天測(cè)控領(lǐng)域技術(shù)的不斷發(fā)展,航天任務(wù)不斷增加,航天器跟蹤測(cè)量數(shù)據(jù)、飛行控制參數(shù)、飛行軌道姿態(tài)等各類遙測(cè)數(shù)據(jù)越來(lái)越多,對(duì)網(wǎng)絡(luò)通信的實(shí)時(shí)性、穩(wěn)定性和可靠性提出了更高要求,測(cè)控中心網(wǎng)絡(luò)環(huán)境已升級(jí)至10 Gb/s 帶寬。為滿足航天通信要求,在丟包率小于10-7前提下,極限帶寬值不低于7 000 Mb/s。
2.3.1 測(cè)試環(huán)境
按照?qǐng)D2 系統(tǒng)架構(gòu)圖進(jìn)行測(cè)試環(huán)境搭建,網(wǎng)絡(luò)數(shù)據(jù)收發(fā)關(guān)系如圖6 所示。
圖6 網(wǎng)絡(luò)收發(fā)數(shù)據(jù)關(guān)系圖
選取系統(tǒng)中部分虛擬機(jī)、操作終端和數(shù)據(jù)庫(kù)服務(wù)器進(jìn)行網(wǎng)絡(luò)數(shù)據(jù)收發(fā)測(cè)試,圖中箭頭方向?yàn)闇y(cè)試數(shù)據(jù)流向。
2.3.2 測(cè)試工具及方法
(1)測(cè)試工具
在虛擬機(jī)、數(shù)據(jù)庫(kù)服務(wù)器、操作終端上分別部署用戶數(shù)據(jù)包協(xié)議(User Datagram Protocol,UDP)丟包測(cè)試軟件,如圖7 所示。分別對(duì)同一物理機(jī)虛擬機(jī)間、不同物理機(jī)虛擬機(jī)間、虛擬機(jī)與數(shù)據(jù)庫(kù)服務(wù)器、虛擬機(jī)與操作終端的網(wǎng)絡(luò)通信進(jìn)行測(cè)試。
圖7 測(cè)試軟件界面
(2)測(cè)試方法
以4 KB、8 KB、64 KB 3 種字節(jié)長(zhǎng)度進(jìn)行組播性能測(cè)試,測(cè)試方法步驟如下:
(1)啟動(dòng)各測(cè)試端,運(yùn)行網(wǎng)絡(luò)測(cè)試工具。
(2)進(jìn)行組播發(fā)送配置。目的地址為組播地址IP,綁定地址為本機(jī)IP,設(shè)置包長(zhǎng)、發(fā)送間隔、包數(shù)等信息。
(3)進(jìn)行組播接收地址配置。接收地址為組播地址IP,綁定地址為本機(jī)IP,指定源地址為發(fā)送端IP。
(4)根據(jù)需求重復(fù)步驟(3)配置多個(gè)接收地址。
(5)記錄30 min 后接收端的丟包數(shù),計(jì)算丟包率(測(cè)試過(guò)程中丟包數(shù)除以總的收包數(shù),得出測(cè)試過(guò)程的丟包率)。
(6)測(cè)試出不同包長(zhǎng)下的丟包率為10-7情況下的極限帶寬值。
2.3.3 測(cè)試結(jié)果
針對(duì)圖6 中網(wǎng)絡(luò)數(shù)據(jù)收發(fā)關(guān)系,針對(duì)4KB、8KB、64KB 不同包長(zhǎng)分別進(jìn)行12 組測(cè)試,記錄丟包率為10-7情況下的極限帶寬值,測(cè)試結(jié)果如表1 所示。
表1 組播極限帶寬值 (Mb/s)
經(jīng)測(cè)試,相同包長(zhǎng)下,極限帶寬分兩種情況:
(1)通信雙方無(wú)虛擬機(jī)時(shí),4 KB、8 KB、64 KB 極限帶寬分別為5 126.0 Mb/s、6 278.3 Mb/s、6 377.8 Mb/s;
(2)通信雙方有虛擬機(jī)時(shí),4 KB、8 KB、64 KB 極限帶寬分別為3 982.0 Mb/s、5 278.3 Mb/s、5 335.7 Mb/s。
測(cè)試結(jié)果無(wú)法滿足通信要求。
2.3.4 原因分析
通信雙方無(wú)虛擬機(jī)時(shí),數(shù)據(jù)通信不通過(guò)虛擬網(wǎng)絡(luò),帶寬仍不足7 000 Mb/s,與其他項(xiàng)目做比較,不同之處在于設(shè)備上運(yùn)行國(guó)產(chǎn)操作系統(tǒng),分析原因?yàn)閲?guó)產(chǎn)操作系統(tǒng)造成的數(shù)據(jù)帶寬受限。
通信雙方有虛擬機(jī)時(shí),帶寬更低,除操作系統(tǒng)影響外,云平臺(tái)底層網(wǎng)卡設(shè)置方式及虛擬機(jī)CPU 資源分配也會(huì)影響數(shù)據(jù)收發(fā)處理速度。
分別從操作系統(tǒng)、云平臺(tái)、虛擬機(jī)CPU 三個(gè)層面進(jìn)行優(yōu)化設(shè)計(jì),提出航天數(shù)據(jù)云組播技術(shù),對(duì)網(wǎng)絡(luò)帶寬性能進(jìn)行提升。
操作系統(tǒng)內(nèi)核套接字緩存、網(wǎng)卡收發(fā)緩存及網(wǎng)卡最大傳輸單元(Maximum Transmission Unit,MTU)都會(huì)影響數(shù)據(jù)收發(fā)效率。首先將Linux 系統(tǒng)套接字上的緩沖區(qū)默認(rèn)值和最大值進(jìn)行調(diào)整,套接字是操作系統(tǒng)中用于網(wǎng)絡(luò)通信的重要結(jié)構(gòu),它是建立在網(wǎng)絡(luò)體系結(jié)構(gòu)的傳輸層,用于主機(jī)之間數(shù)據(jù)的發(fā)送和接收,避免因?yàn)閮?nèi)核緩沖區(qū)太小造成數(shù)據(jù)丟包;其次,設(shè)置網(wǎng)卡收發(fā)緩存,在網(wǎng)卡硬件參數(shù)滿足情況下,通過(guò)設(shè)置網(wǎng)卡緩存容量改變緩存大小,提高網(wǎng)卡性能;最后,設(shè)置MTU 大?。喝绻粚?duì)該值進(jìn)行設(shè)置,會(huì)造成長(zhǎng)報(bào)文無(wú)法可靠地傳輸,丟失后重傳會(huì)占用大量網(wǎng)絡(luò)資源,通過(guò)改變MTU 大小,提高報(bào)文傳輸效率,從而降低丟包。
設(shè)置網(wǎng)卡全輪詢驅(qū)動(dòng)模式,使用無(wú)中斷方式直接操作網(wǎng)卡的接收和發(fā)送隊(duì)列。全輪詢方式的驅(qū)動(dòng)從網(wǎng)卡上接收到數(shù)據(jù)包后,會(huì)直接通過(guò)直接內(nèi)存訪問(wèn)(Direct Memory Access,DMA)方式傳輸?shù)筋A(yù)分配的內(nèi)存中,同時(shí)更新無(wú)鎖環(huán)形隊(duì)列中的數(shù)據(jù)包指針,不斷輪詢的應(yīng)用程序很快就能感知收到數(shù)據(jù)包,并在預(yù)分配的內(nèi)存地址上直接處理數(shù)據(jù)包,從而提升了網(wǎng)絡(luò)數(shù)據(jù)包的處理性能。
使用大頁(yè)內(nèi)存提高內(nèi)存訪問(wèn)效率。轉(zhuǎn)換后備緩沖器(Translation Lookaside Buffer,TLB)是CPU 中單獨(dú)的一塊髙速緩存,為了實(shí)現(xiàn)虛擬地址到物理地址的轉(zhuǎn)換,首先要查找TLB 來(lái)進(jìn)行快速映射。如果在查找時(shí)TLB沒有命中就會(huì)觸發(fā)一次缺頁(yè)中斷,CPU 就需要到內(nèi)存中去訪問(wèn)多級(jí)頁(yè)表,才能最終得到物理地址,從而導(dǎo)致極大的CPU 開銷。Linux 默認(rèn)大頁(yè)內(nèi)存大小為4 KB,在程序使用大內(nèi)存時(shí),需要大量的頁(yè)表表項(xiàng)才能保證TLB 命中,通過(guò)設(shè)置大頁(yè)內(nèi)存為1 GB 提高檢索效率,確保TLB命中,提高網(wǎng)絡(luò)數(shù)據(jù)包的處理性能,降低丟包率,提高極限帶寬。
利用CPU 親和技術(shù),避免線程在不同核間的切換造成的資源浪費(fèi),從而降低對(duì)網(wǎng)絡(luò)數(shù)據(jù)組播性能的影響。在單個(gè)CPU 核上,多線程可以提髙各應(yīng)用的并發(fā)運(yùn)行程度,從而提高CPU 的整體利用率,但線程的創(chuàng)建和銷毀都有開銷,還會(huì)引入上下文切換、訪存沖突、緩存Cache失效等諸多消耗性能的因素。通過(guò)仔細(xì)規(guī)劃線程在CPU 不同核上的分布,達(dá)到既保持應(yīng)用的高速并發(fā)運(yùn)行,又減少線程切換開銷的目的。利用Linux 系統(tǒng)下的CPU 親和性,將特定任務(wù)綁定到只在某個(gè)CPU 核上運(yùn)行,從而避免線程在不同核間的頻繁切換,減少性能損失。另外作為更進(jìn)一步的優(yōu)化手段,可限定某些核不參與Linux 系統(tǒng)調(diào)度的技術(shù)手段,使特定的任務(wù)線程(如網(wǎng)絡(luò)收發(fā)包線程)可以獨(dú)占CPU核,從而提升網(wǎng)絡(luò)數(shù)據(jù)組播性能。具體實(shí)現(xiàn)示意如圖8 所示。
通過(guò)以上3 種技術(shù)方式的結(jié)合優(yōu)化設(shè)計(jì),極大地提升了云平臺(tái)數(shù)據(jù)組播的性能。優(yōu)化后,測(cè)試結(jié)果如表2所示。
表2 優(yōu)化后組播極限帶寬值
經(jīng)過(guò)實(shí)際測(cè)試結(jié)果表明:滿足組播丟包率優(yōu)于10-7,能夠使萬(wàn)兆網(wǎng)絡(luò)中虛擬化層包長(zhǎng)4 KB 報(bào)文的組播帶寬穩(wěn)定提升到7.6 Gb/s,包長(zhǎng)64 KB 報(bào)文的組播極限帶寬能夠達(dá)到9.6 Gb/s,優(yōu)化后相同包長(zhǎng)情況下實(shí)現(xiàn)帶寬80%~90%的提升,最優(yōu)情況能夠?qū)捥嵘饺f(wàn)兆網(wǎng)絡(luò)的96%,充分滿足了航天任務(wù)中心業(yè)務(wù)使用需求。具體測(cè)試數(shù)據(jù)如表3 所示。
表3 組播極限帶寬對(duì)比
本文構(gòu)建一種基于國(guó)產(chǎn)化云架構(gòu)的一體化計(jì)算機(jī)系統(tǒng),系統(tǒng)設(shè)備國(guó)產(chǎn)化率100%,提出了基于國(guó)產(chǎn)化云平臺(tái)的航天數(shù)據(jù)混合組播應(yīng)用技術(shù),實(shí)現(xiàn)了操作系統(tǒng)、云平臺(tái)、虛擬機(jī)CPU 資源三個(gè)層面技術(shù)優(yōu)化,解決了國(guó)產(chǎn)操作系統(tǒng)及云平臺(tái)網(wǎng)絡(luò)資源虛擬化對(duì)數(shù)據(jù)組播的性能瓶頸問(wèn)題,提升了云平臺(tái)數(shù)據(jù)組播的性能,經(jīng)過(guò)實(shí)際測(cè)試,提升后性能可滿足航天任務(wù)中心業(yè)務(wù)使用需求。