楊仁勇,李 勛,李云艷
(1.南京信息工程大學(xué)大氣科學(xué)學(xué)院,江蘇 南京 210044;2.海南省氣象局,海南 ???570203)
大氣運動所遵循的微分方程組目前在數(shù)學(xué)上無法求得其精確解,只能通過近似方法求其數(shù)值解。數(shù)值模式用譜方法或差分方法對方程組進(jìn)行數(shù)值求解,這個近似解的結(jié)果隨著模式網(wǎng)格分辨率提高變得更準(zhǔn)確[1],這就是氣象學(xué)者孜孜不倦地追求更高分辨率模擬和預(yù)報的原因。從數(shù)值預(yù)報研究和業(yè)務(wù)發(fā)展的歷史也可以看出,二十多年前的模式水平分辨率是幾百千米,而現(xiàn)在是幾十千米甚至幾千米。二十多年來世界上幾大氣象中心的數(shù)值預(yù)報檢驗結(jié)果也顯示,隨著模式改進(jìn)和分辨率提高,預(yù)報可用時效越來越長。理論研究和實踐均表明,在既有的計算條件下,盡可能使用高分辨率網(wǎng)格距來模擬預(yù)報會取得更好的效果。WRF模式是由美國NCAR、NOAA和俄克拉荷馬大學(xué)的暴雨分析預(yù)報中心等多單位共同合作發(fā)展起來的新一代非靜力平衡、科研和業(yè)務(wù)預(yù)報統(tǒng)一的中尺度預(yù)報和資料同化模式,對中小尺度天氣過程具有很強的預(yù)報能力。喬林等[2]用它模擬分析過黔西南的暴雨過程,王曉芳等[3]用它模擬分析過湖北的颮線過程,苗春生等[4]用它模擬分析2008年1月中國南方雨雪冰凍過程,丁治英等[5]和徐文慧等[6]均用它模擬分析過臺風(fēng)登陸過程。但是隨著網(wǎng)格分辨率的提高,需要的計算時間幾乎成量級增長。分析如下:假定模擬區(qū)域、預(yù)報時間和其他參數(shù)不變,當(dāng)水平網(wǎng)格距減小到原來的一半時,則水平X、Y方向的格點數(shù)均變?yōu)樵瓉淼?倍,整個區(qū)域格點總數(shù)將變?yōu)樵瓉淼?倍,由于網(wǎng)格距減小一半,為了保持積分計算的穩(wěn)定性則時間步長也需要相應(yīng)減小一半,這會導(dǎo)致計算的總積分次數(shù)增加1倍,在假定垂直方向的分辨率(垂直層數(shù))不變的情況下,當(dāng)水平分辨率提高1倍時所需要的計算時間將變成原來的8倍,一般垂直層數(shù)也需要適當(dāng)增加[7],計算耗時將是10倍以上增長,所以要想提高模擬的網(wǎng)格分辨率對計算能力的要求非常巨大。怎樣提高WRF模式計算速度呢?采用多機(jī)集群并行是很有意義和必要的,它可以充分利用集群中的多個CPU來同時進(jìn)行模式計算[8]。對于那些沒有高性能計算機(jī)的地市級和省級氣象臺站來說,用微機(jī)集群并行方式運行WRF模式將變得更有實際意義;對于預(yù)報業(yè)務(wù)來說,可以在更短的時間內(nèi)算完從而達(dá)到業(yè)務(wù)時限要求;對于模擬來說,可以將網(wǎng)格距分辨率提高到幾千米甚至幾百米,以滿足特定個例的研究需求。由于目前微電子制造技術(shù)所限,微機(jī)CPU的主頻增長變得越來越難,從而有朝多核方向發(fā)展的趨勢,目前已經(jīng)有十二核CPU面市,今后的微機(jī)CPU將會擁有更多核芯。WRF模式已在我國廣泛應(yīng)用,因此有必要探討用多核CPU單機(jī)集群并行方式運轉(zhuǎn)WRF模式的一些關(guān)鍵問題。
目前常見的集群(Cluster)架構(gòu)有兩種,一種是Web/Internet cluster system,這種架構(gòu)主要是將資料放置在不同的主機(jī)上面,由多部主機(jī)同時負(fù)責(zé)一項服務(wù),通常叫分布式集群;另一種則是所謂的并行運算,就是將同一個運算交給整個集群里面的所有CPU來進(jìn)行同步運算。由于使用到多個CPU的運算能力,可以加快運算的速度,即所謂的高性能集群(HPC)。大型計算機(jī)上就是使用很多的CPU來并行運算,所以速度極快,造價昂貴。它主要用在天文、軍事、物理等需要很精密的、大量的運算工作中,它們通常是使用 Unix系統(tǒng)。不過,目前由于微機(jī)的大量普及且CPU的計算能力也越來越強,因此,這里主要介紹的就是組建Linux系統(tǒng)下的微機(jī)集群。
最簡單的集群其實就是以一種主從(Master/Slave)架構(gòu)來進(jìn)行并行運算工作的。主節(jié)點機(jī)上面必須要有可以將工作分配給各個節(jié)點的函數(shù)庫,也就是MPI,其最重要的功能就是將工作分配到各節(jié)點,而最重要的軟件就是MPICH和編譯器。由于集群是將一個工作平均分給所有的節(jié)點,所以,如果構(gòu)建集群的節(jié)點具有不同的CPU運算等級,那么先做完的節(jié)點將會等到所有的節(jié)點都進(jìn)行完畢后,才會再進(jìn)行下一步的工作以保持同步。因此建議,在同一個集群里各節(jié)點都要使用相同型號的CPU。
如果主節(jié)點機(jī)與從節(jié)點機(jī)是在同一部機(jī)器當(dāng)中,例如有雙CPU或者多核CPU的機(jī)器,那么就不需要網(wǎng)絡(luò)功能,這就是本文所述的單機(jī)集群。如果主節(jié)點機(jī)與從節(jié)點機(jī)使用不同的機(jī)器就需要高速聯(lián)網(wǎng)通訊。這方面的功能有:SSH,用來在主節(jié)點機(jī)與從節(jié)點機(jī)間執(zhí)行命令;NFS,使主節(jié)點機(jī)和從節(jié)點機(jī)能共同讀取主節(jié)點機(jī)上相應(yīng)的目錄數(shù)據(jù)。下面就集群并行重要的環(huán)節(jié)分別做介紹。
WRF模式可以在 Linux操作系統(tǒng)下運行,因此,我們討論的集群在 Linux下構(gòu)建。如果在不同的機(jī)器之間,則可使用SSH方式來發(fā)送工作指令,用SSH方式可以直接在A機(jī)器向B機(jī)器發(fā)送工作指令,而不需要登錄B機(jī)器,這就是SSH的主要功能,通常在雙機(jī)互訪時需要輸入密碼,而集群系統(tǒng)要求設(shè)定為互訪時不需要密碼(即信任連接),這樣主節(jié)點機(jī)可自由地訪問從節(jié)點機(jī),從而達(dá)到啟動模式程序并行運算。
MPI(Messages Passing Interface)是一個規(guī)格很嚴(yán)密的通訊標(biāo)準(zhǔn),主要的功能是處理并行運算之間各個節(jié)點的資料交換[9],但請注意,MPI并不是一套軟件而是一套標(biāo)準(zhǔn)。而MPICH才是符合MPI標(biāo)準(zhǔn)通訊協(xié)議的一套軟件,MPICH的詳細(xì)資料可以參考:http://www - unix.mcs.anl.gov/mpi/mpich/。它提供的MPI函數(shù)庫可以實現(xiàn)并行運算的功能。當(dāng)所寫的程序只要能夠使用MPICH提供的函數(shù)庫,那么該程序就可以實現(xiàn)并行運算。這樣可以避免程序開發(fā)者處理通訊方面的問題,而將重心放在程序本身的問題上面。
構(gòu)建集群,除了SSH和MPICH這兩個軟件之外,NFS在集群中也很重要。這是因為模式實際是在多部機(jī)器上同時運行的。因此,要求集群中的每部機(jī)器都要能進(jìn)行讀寫操作模式數(shù)據(jù),其中也包括前面介紹的MPICH軟件的函數(shù)庫。這就要求我們要在主節(jié)點機(jī)上用NFS方式共享出一個目錄,集群中所有機(jī)器都能存取。因此需要將所有集群軟件和資料,例如 PGI編譯器、MPICH、NETCDF、WRF 模式等等,都安裝到主節(jié)點機(jī)的這個NFS共享目錄下,以便所有機(jī)器統(tǒng)一使用,以保持一致性。
現(xiàn)在市面的微機(jī)所配置的CPU基本都是雙核芯以上,四核芯、六核芯及十二核芯均有,如果是普通微機(jī)多為單顆CPU,如果是一般服務(wù)器,主板可支持兩顆CPU,這兩類微機(jī)很普及,價格也相對低廉。如是高級服務(wù)器,每臺可支持4顆(甚至8顆或更高)CPU,但這種服務(wù)器屬于專用級別,價格比較貴。
構(gòu)建主從集群結(jié)構(gòu)進(jìn)行HPC高性能計算,是因為集群可以將多臺機(jī)器上的CPU集中利用,在WRF模式積分運算時縮短單步積分時間,從而提高模式計算速度。在多核CPU出現(xiàn)之前的單核CPU時期,集群中有幾臺機(jī)器加入運算就相當(dāng)于有幾個CPU在并行運算?,F(xiàn)在由于多核CPU微機(jī)的普及,用單機(jī)即可組成集群,實現(xiàn)多CPU并行運算,或者用少量的機(jī)器即可組成較多CPU的集群。
用單臺多核CPU的微機(jī)組成的集群實際上是主從集群的一種簡化方式,在主從集群的構(gòu)建中有很多與網(wǎng)絡(luò)設(shè)置有關(guān)的項目,如SSH信任連接和網(wǎng)絡(luò)文件共享NFS等在單機(jī)集群中就不再需要,并行軟件MPICH的設(shè)置也相對簡單,這樣就可以大大簡化操作,使得技術(shù)人員不再被繁雜的網(wǎng)絡(luò)設(shè)置問題困擾。單機(jī)集群與多機(jī)集群相比具有配置操作簡單,故障率低,軟硬件維護(hù)容易、計算速度快等優(yōu)點。
微機(jī)一臺,最好是PC服務(wù)器,配置2顆CPU以上,每顆CPU最好是4核芯以上,這樣WRF并行運算時可同時利用到8個CPU核芯以上。要求CPU的主頻越高越好,另外CPU的FSB頻率(前端總線頻率)也越高越好,根據(jù)筆者的實驗經(jīng)驗,同主頻的CPU當(dāng)其FSB不同時運算速度有顯著差別。Linux操作系統(tǒng)建議使用RedHat 9.0或者RedHat AS 4.5這兩個版本,用戶數(shù)量眾多、兼容性好,碰到問題在網(wǎng)上容易查找到相應(yīng)的解決辦法。
①裝Fortran 90的編譯程序PGI:無論是單機(jī)集群還是主從集群,PGI編譯軟件都是WRF模式安裝的基礎(chǔ)。軟件可從 PGI的官方網(wǎng)站 http://www.pgroup.com/downloads.htm下載最新共享試用版本,需要注意PGI編譯器有工作站和服務(wù)器兩種版本,其中的服務(wù)器版支持并行編譯,要求下載Linux系統(tǒng)用的版本,安裝完后需要修改相應(yīng)的環(huán)境變量。
②裝并行軟件MPICH2:從網(wǎng)上下載后進(jìn)行安裝。安裝完成后注意創(chuàng)建并行主機(jī)文件:geidt/root/mpd.hosts,文件內(nèi)容如下:127.0.0.1:8(注:后面的8為本機(jī)的CPU核數(shù),根據(jù)情況而定,缺省為1)。最后根據(jù)安裝說明進(jìn)行并行環(huán)路測試,通過則說明已經(jīng)安裝成功。此步是進(jìn)行并行運算需增加的,若是串行則不需要。
③裝NETCDF模塊:安裝程序可從網(wǎng)上下載,最新版本已經(jīng)到V4,在WRF模式網(wǎng)站是見過V4與模式兼容性不好的提示,建議使用以前的V3.6版本。安裝完后需要修改相應(yīng)的環(huán)境變量。
④RF模式的編譯。上述3步按順序安裝成功后,就可進(jìn)行WRF模式的安裝編譯了,WRF模式主要分WPS、主模塊和3DVAR 3個部分。若不做資料同化則只需安裝編譯前2個部分即可。WPS模塊是WRF模式的前處理部分,用串行或并行方式編譯,執(zhí)行時間相差不多,都是大約幾分鐘的時間,因此沒有必要把WPS按并行方式編譯和運行(并行程序信息反饋不直觀)。而主模塊需要用并行方式編譯才能實現(xiàn)多核CPU并行運算,達(dá)到提高程序執(zhí)行速度的目的。根據(jù)WRF安裝指南,應(yīng)先編譯主模塊然后再編譯WPS模塊。
單機(jī)集群并行環(huán)境建立后即可用并行方式編譯WRF模式。WRF模式的并行比MM5模式要簡單很多,它將串行和并行方式都統(tǒng)一起來,只需選擇而不需要再修改參數(shù)。并行程序多在模式運轉(zhuǎn)最耗時的主模塊部分。WRF模式的安裝過程與單機(jī)串行基本一樣,只有主模塊部分有差別。根據(jù)并行試驗情況適當(dāng)規(guī)劃區(qū)域模擬參數(shù)。
WRF模式用單機(jī)串行方式時編譯通常選擇1或2,若用并行編譯方式在配置configure時選擇“5.Pc Linux i486 i586 i686,PGI compiler DM - Parallel”或“6.Pc Linux i486 i586 i686,PGI compiler DM -Parallel”均可。
主模塊配置好后再進(jìn)行編譯:compile em_real。當(dāng)集群并行環(huán)境調(diào)試成功且模式配置選擇并行方式后,在編譯過程中會自調(diào)用MPICH函數(shù)庫對模式FORTRAN程序進(jìn)行并行編譯,檢查成功后生成的real.exe和wrf.exe文件比串行編譯的文件字節(jié)數(shù)要大很多。
并行編譯后的real.exe和wrf.exe執(zhí)行時與串行生成的文件有差別,一般來說,real.exe程序運行時間只有幾分鐘,可以不用并行方式執(zhí)行,而wrf.exe需要用mpiexec或者mpirun啟動并行方式來執(zhí)行。具體執(zhí)行方式如下:#mpirun–np 8./wrf.exe,其中的參數(shù)8表示用8個CPU核芯來同時參加并行運算。程序串行運行時在屏幕上有提示信息,而并行運行的提示信息都寫在 RSL.000,RSL.001等文件中,每次并行運行前最好將舊的這類文件都刪除。
我們使用一臺 PC服務(wù)器(兩顆 Intel至強X5355CPU,每顆4 核芯,主頻 2.6G,F(xiàn)SB1366M),內(nèi)存為4G,硬盤為萬轉(zhuǎn)SCSI接口136G容量。以目前海南省區(qū)域中尺度數(shù)值預(yù)報系統(tǒng)為例,WRF模式使用V3.2,模擬區(qū)域格點數(shù)260×260,格距12 km(區(qū)域為 3 120 km ×3 210 km),區(qū)域中心取 110°E、24°N,垂直方向取27層,物理過程和各種參數(shù)化方案為Lin混合方案、Kain-Fritsch積云參數(shù)化、Rrtm長波輻射、Dudhia短波輻射、MRF邊界層。積分步長取70 s。使用NCEP資料作初始場,積分模擬24 h分別做試驗。
表1 WRF模擬24 h的單機(jī)集群并行試驗數(shù)據(jù)
多機(jī)集群并行運算的加速比理論極限為1.8左右,并行效率理論極限0.9左右[10]。從表1中單機(jī)集群并行WRF模式試驗數(shù)據(jù)來看,并行運算效率最高是的2個核芯為0.92,這個數(shù)值已經(jīng)達(dá)到理論極限值,這是因為單機(jī)并行,數(shù)據(jù)交換是在微機(jī)主板的系統(tǒng)總線上進(jìn)行,其交換速度是網(wǎng)絡(luò)通信無法達(dá)到的,并行效率隨著核芯數(shù)目增加而逐漸下降。計算速度隨著CPU并行數(shù)目的增加而變快,最快是8核,此時加速比也是最高的達(dá)3.50,隨著并行核芯數(shù)目的增加,加速比也在增加,但是其增長速度趨緩。
我們用相同的WRF模式參數(shù),分別在曙光公司和IBM公司的每秒2.5萬億次級別的高性能計算機(jī)上做過測試,當(dāng)并行的CPU數(shù)目超過128個以后,WRF模式就會遇到計算速度瓶頸,即計算速度幾乎難以繼續(xù)提高。
地市級區(qū)域中尺度預(yù)報系統(tǒng)的區(qū)域規(guī)劃需要考慮以下幾個因素:一是模擬水平區(qū)域一般要在2 000 km×2 000 km以上,如果區(qū)域太小則邊界對結(jié)果影響可能較大,另外如果區(qū)域太小則難以包含影響當(dāng)?shù)氐亩喾N天氣系統(tǒng);二是模式網(wǎng)格水平分辨率要在20 km以內(nèi),目前國家氣象中心下發(fā)業(yè)務(wù)產(chǎn)品的MM5模式分辨率為30 km、GRAPESMESO模式分辨率為15 km,若地市級的模式分辨率不如它們則沒有再運行的必要;三是預(yù)報時效一般要求達(dá)到72 h,這是短期預(yù)報業(yè)務(wù)規(guī)定的要求;四是模式運算須在200 min內(nèi)完成,以每天北京08時資料起報為例,要等到12時NCEP-GFS全球模式預(yù)報出來后,中尺度模式才能取得初始和邊界條件并開始運行,要趕在15時30分地市預(yù)報制作發(fā)布之前結(jié)束。在這個僅200 min的時間段內(nèi),中尺度模式必須完成從資料準(zhǔn)備到結(jié)果輸出的全部工作,否則將失去預(yù)報意義。由于現(xiàn)在預(yù)報業(yè)務(wù)要求地市級氣象臺站要制作精細(xì)化鄉(xiāng)鎮(zhèn)預(yù)報產(chǎn)品,業(yè)務(wù)工作量大增,而高分辨率的區(qū)域中尺度模式產(chǎn)品是制作精細(xì)化預(yù)報產(chǎn)品的基礎(chǔ),因此對其需求是很大的。
WRF模式中變量水平分布采用Arwkrawa-C網(wǎng)格,時間積分采用三階或者四階的Runge-Kutta算法,其優(yōu)點是積分步長可以取得相對較長,取值范圍為格距大小的5~7倍之間,一般多取為6倍(MM5為3倍),即格距15 km時,步長取為90 s。WRF模式計算的總耗時可以從單步耗時估算出來:總耗時=總積分步數(shù)×單步耗時,其中:總積分步數(shù)=總預(yù)報時效/積分步長。如果是做業(yè)務(wù)預(yù)報,總耗時(200 min內(nèi))和預(yù)報時效(72 h)基本是固定的,那就只能減少單步耗時,減少單步耗時有3種辦法,一是提高計算速度,通過提高CPU主頻或增加并行CPU數(shù)目等方法來實現(xiàn),二是減小區(qū)域(會影響天氣系統(tǒng)過程描述),三是將網(wǎng)格距變大(會影響天氣系統(tǒng)精度描述)。后兩種都是減少網(wǎng)格總數(shù)的辦法,對預(yù)報質(zhì)量均會帶來一定影響。
以3.2節(jié)中的模擬區(qū)域、計算機(jī)條件和表1中的試驗數(shù)據(jù)進(jìn)行分析,預(yù)報時效是24 h,只能作為短時預(yù)報系統(tǒng)來使用,有效預(yù)報時間約15 h,使用8CPU并行總耗時153 min低于200 min可以滿足業(yè)務(wù)需要,用4CPU需193 min基本可以完成,而用2CPU和單CPU則耗時292 min以上不能完成任務(wù),預(yù)報失去意義。
區(qū)域數(shù)值預(yù)報系統(tǒng)若以網(wǎng)格距12 km規(guī)劃,積分步長取70 s,預(yù)報72 h,則總積分次數(shù) =72×3 600/70,約為3 700次。需要在180 min內(nèi)計算完成(要留部分時間給模式的前后處理和存儲等其他工作),每步耗時=180×60/3 700,約為2.9 s;其他的格距規(guī)劃可以類似計算出來。由此可以總結(jié)出,當(dāng)規(guī)劃的網(wǎng)格距(分辨率)確定后,就可以計算單步耗時上限值,在既有的計算條件下,可以適當(dāng)調(diào)整區(qū)域大小(網(wǎng)格總數(shù))讓單步耗時控制在允許值內(nèi),才能在有效時間內(nèi)實現(xiàn)預(yù)報。目前海南省區(qū)域中尺度數(shù)值預(yù)報系統(tǒng)采用表2中方案1做區(qū)域規(guī)劃,而且還嵌套子區(qū)域(70×70,4 km),按照表2中最快速度8CPU的總耗時451 min,顯然不能滿足業(yè)務(wù)要求,所以使用了曙光4 000高性能計算機(jī)才能滿足業(yè)務(wù)要求。2007年在PC服務(wù)器上進(jìn)行業(yè)務(wù)試行時就是使用方案5的區(qū)域規(guī)劃。
表2 WRF模擬72 h不同格點數(shù)目的并行試驗數(shù)據(jù)
表2中列出了6種區(qū)域規(guī)劃方案及其運行總耗時測試,隨著計算網(wǎng)格總數(shù)的減小,總耗時也是逐漸減小的。對比方案1與方案6:格點數(shù)減少一半,總耗時只需要原來的1/5~1/4;對比方案4與方案5:格點數(shù)一樣但格距不一樣,單步耗時基本相同,但總耗時粗格距隨總積分次數(shù)減小而變小了;對比方案4與方案6:兩者的區(qū)域大小一樣,因格距粗細(xì)不同描述的網(wǎng)格總數(shù)不同,兩者格距雖只差3 km而總耗時卻幾乎相差一倍。以上試驗數(shù)據(jù)也驗證了前言中分辨率提高對計算時間需求增長的分析結(jié)果。
①數(shù)值模式使用積分近似求解的方法決定了對網(wǎng)格分辨率提高的不懈追求。WRF模擬分辨率提高一倍,計算耗時將呈量級增長。微機(jī)CPU朝多核方向發(fā)展,單機(jī)集群并行與多機(jī)集群相比,數(shù)據(jù)交換不再需要通過網(wǎng)絡(luò),因此具有維護(hù)操作簡單、故障率低、計算速度快的特點。若有條件,在單機(jī)多核CPU上組建多機(jī)集群也很有意義。
②WRF模式并行運算時使用CPU核數(shù)要按2的次方數(shù)增加,這樣運算效率是最優(yōu)的[6],從測試的結(jié)果看出2個核芯并行效率最高達(dá)92%。但我們追求目標(biāo)是計算速度,從測試結(jié)果看,使用8個核芯時速度最快,加速比最高達(dá)到3.50,隨著CPU并行數(shù)目增加,計算速度變快。用更高主頻和更多CPU數(shù)目進(jìn)行并行計算,速度將會更快,用海南省區(qū)域中尺度方案測試,WRF模式在目前的高性能計算機(jī)上最多可并行到128個CPU,再往上會碰到速度瓶頸。
③規(guī)劃地市級區(qū)域中尺度數(shù)值預(yù)報系統(tǒng)時需要綜合考慮區(qū)域大小、預(yù)報時效、既有計算機(jī)條件、200 min的模式計算時間限制等多種因素。若做模擬因為沒有模式計算時間限制,因此不存在這些問題困擾,只需耐心等待模式計算完成即可。
[1]沈桐立,田永祥,葛孝貞,等.數(shù)值天氣預(yù)報[M].北京,氣象出版社,2003.
[2]喬林,陳濤,路秀娟.黔西南一次中尺度暴雨的數(shù)值模擬診斷研究[J].大氣科學(xué),2009,33(3):537-550.
[3]王曉芳,胡伯威,等.湖北一次颮線過程的觀測分析及數(shù)值模擬[J]. 高原氣象,2010,29(2):471-484.
[4]苗春生,趙瑜,王堅紅.080125南方低溫雨雪冰凍天氣持續(xù)降水的數(shù)值模擬[J].大氣科學(xué)學(xué)報,2010,33(1):25-33.
[5]丁治英,王勇,沈新勇,等.臺風(fēng)登陸前后雨帶斷裂與非對稱降水的成因分析[J].熱帶氣象學(xué)報,2009,25(5):523-520.
[6]徐文慧,倪允琪,汪小康,等.登陸臺風(fēng)內(nèi)中尺度強對流系統(tǒng)演變機(jī)制的濕位渦分析.氣象學(xué)報[J],2010,68(1):88-101.
[7]劉宇迪,張亮.靜力模式中水平分辨率與垂直分辨率的協(xié)調(diào)性問題[J].氣象科學(xué),2006,26(5):530-535.
[8]楊仁勇,林建興,等.用微機(jī)集群并行方式運轉(zhuǎn)WRF模式[J].氣象研究與應(yīng)用,2007,28(S2):156-159.
[9]都志輝.高性能計算并行編程技術(shù)—MPI并行程序設(shè)計[M].北京:清華大學(xué)出版社,2001.
[10]謝超,麥聯(lián)叨,等.關(guān)于并行計算系統(tǒng)中加速比的研究與分析[J].計算機(jī)工程與應(yīng)用,2003,26:66-68.