亚洲免费av电影一区二区三区,日韩爱爱视频,51精品视频一区二区三区,91视频爱爱,日韩欧美在线播放视频,中文字幕少妇AV,亚洲电影中文字幕,久久久久亚洲av成人网址,久久综合视频网站,国产在线不卡免费播放

        ?

        MPI下三維FDTD并行運算的分析與實現

        2013-09-25 14:12:56宋永楊闊
        電子設計工程 2013年4期
        關鍵詞:并行算法進程處理器

        宋永,楊闊

        (阿壩師范高等??茖W校 四川 汶川 623002)

        1966年K.S.Yee首先提出的一種以Maxwell方程為基礎的解決電磁場問題的數值計算方法[1]____時域有限差分法(Fnite Difference Time DomainFDTD)。FDTD算法將Maxwell方程中的兩個旋度方程直接轉化為差分形式,將電磁場進行空間和時間上的離散化,得到電磁場演化的迭代方程組,實現在一定體積內和一段時間上對連續(xù)電磁場的數據取樣壓縮。

        在計算技術的迅速發(fā)展下,時域有限差分法被廣泛接受和應用。但是隨著計算量的增大和問題的復雜化,FDTD的實現和優(yōu)越性的發(fā)揮也受到硬件的極大限制。原因是其算法穩(wěn)定性要求空間網格的最大尺寸應小于波長的十分之一,計算時間又正比于網絡總數處理電大目標電磁問題時所需內存很大。這使得在當前的PC機計算能力下,FDTD算法僅在低頻范圍獲得了較多應用,在分析電大目標電磁問題中受到很大限制。而采用并行FDTD算法是解決這一問題的有效途徑之一,從串行計算到并行計算可以使計算能力大幅度提高。

        1 FDTD并行計算環(huán)境簡介

        FDTD算法本身具有適合于開展并行運算的優(yōu)勢[2]:由于FDTD方法中每一網格點的電場(磁場)分量的迭代公式只與它本身上一時刻的場值和周圍網格磁場(電場)上半個時間步的值有關,而與計算區(qū)域內其他遠端網格點的場量沒有直接關系(如圖1)。因而利用FDTD的這種局限性可以將FDTD區(qū)域在空間上分割成若干個子區(qū)域分別進行計算,這一點與并行運算的思路是統(tǒng)一的。

        圖1 FDTD算法中Yee氏網格Fig.1 Yee of FDTD arithmetic

        1.1 并行計算機——曙光4000A

        曙光4000系列是面向網格計算的高性能計算機系統(tǒng),它采用網格技術、體系結構以構件性(Component)、標準性(Standard)、協(xié)作性 (Coorcdinate)為基準采用了服務化(Service)、安全化 (Secnrit)、專 業(yè) 化 (Specialization)、智 能 化(Intelligence)的技術。曙光4000A是曙光系列中計算速度最快的一種系統(tǒng)[3]。

        1.2 MPI消息傳遞機制

        消息傳遞技術MPI(Message Passing Interface消息傳遞接口)

        MPI是一種在專業(yè)計算機領域使用得比較廣泛的技術,是全球工業(yè)、政府和科研部門聯合推出的適合進程間進行標準消息傳遞的并行程序設計平臺;是目前應用最廣泛的并行程序設計平臺。消息傳遞就是指并行執(zhí)行的部分之間通過消息傳遞來交換信息、協(xié)調步伐、控制執(zhí)行。消息傳遞一般是面向分布式存儲結構但是它也可以適用于共享存儲的并行機。

        1.3 MPI的基本函數

        MPI有6個最基本的函數這6個基本函數構成了一個完整的MPI程序所需例程的最小集。

        1)MPI初始化:MPI-Init (&arge&argv) 該初始化函數在MPI應用程序的開始部分調用,它使應用程序中各個并行執(zhí)行的任務獲得初始信息。

        2)返回通信域包含的進程個數:MPI-Comm-size(commsize)

        3)返回當前進程標識如果有n個進程進程的標識號從0到n-1。

        MPI-Comm-rank(comm.,rank)

        4)消息發(fā)送:將首地址為buf的count個數據類型為datatype的數據由當前進程發(fā)送給denst進程。

        intMPI-Send(void*bufintcountMPI-Datatypedatatypeintdest int tag MOI-Comm comm)

        5)消息接收:從sounce進程接收 count個數據類型為datatpye的數據,并保存到首地址為buf的內存空間中。

        Int MPI-Recv(void*bufint countMPI-Datatype datatype int sourceint tag MPI-Comm commMP-Status*status)

        6) MPI結束:MPI-Finalize().

        1.4 MPI程序流程設計

        MPI環(huán)境的初始化和結束流程:在調用MPI例程之前各個進程都應該執(zhí)MPI_Init進行初始化,接著用MPI_Comm_size函數來獲取缺省組 (Group)的大小。調用MPI_Comm_Rank函數獲取調用進程在缺省組中的邏輯編號(從0開始),然后進程可以根據需要向其他節(jié)點發(fā)送消息或接收其他節(jié)點的消息。經常調用的函數是MPI_Send和MPI_Revc,最后當不需要調用任何MPI進程后調用MPI_Finalize函數消除MPI環(huán)境進程,此時可以結束。

        2 MPI下三維FDTD的并行分析和運算實現

        2.1 FDTD的三維基礎

        在FDTD離散中,電場和磁場各節(jié)點的空間分布采用的是著名的Yee氏網格。這種電磁場分量的空間取樣方式不僅符合法拉第電磁感應定律和安培環(huán)路定律的自然結構,而且這種電磁場各分量的空間相對位置也適合于麥克斯韋方程的差分計算,能夠恰當地描述電磁場的傳播特性。

        在三維的PML介質中每個場分量分解為兩個子分量。在笛卡爾坐標系中6個分量則變?yōu)?2個子分量,記為Exy、Exz、Eyx、Eyz、Ezx、Ezy、Hxy、Hxz、Hyx、Hyz、Hzx、Hzy。 進行三維區(qū)域分割后,相鄰空間是在一個面元上進行數據變換,這樣數據的交換量便增大,同時時間并行也變得復雜。如圖2所示的沿二軸的分割圖,可以看出兩節(jié)點需要交換的數據是與分割面平行的場量 Ey、Ez、Ey、Ez。

        圖2 三維空間區(qū)域分割后的場分布Fig.2 Regional segmentation of field distribution in three dimensional space after

        2.2 用捆綁發(fā)送接收實現三維FDTD的應用

        捆綁發(fā)送和接收操作把發(fā)送一個消息到一個目的地和從另一個進程接收一個消息合并到一個調用中,源和目的可以是相同的。捆綁發(fā)送、接收操作雖然在語句上等同于一個發(fā)送操作和一個接收操作的結合,但是它們可以有效地避免單獨書寫發(fā)送或接收操作時由于次序的錯誤而造成的死鎖。這是因為該操作由通信系統(tǒng)來實現的,系統(tǒng)會優(yōu)化通信次序從而有效地避免不合理的通信次序,最大限度地避免死鎖的產生[4]。對于三維的FDTD并行程序,采用C++類函數來編程。在編程的過程中,主要涉及到頭文件的設置,并行初始化激勵源的加載,數據的傳遞以及對邊界處的處理。對于吸收邊界采用的是PML吸收邊界,邊界處電導率的大小與所處位置的關系式是 σ=σmax(ρ/d)n。σmax為邊界處的最大電導率。ρ、d 分別是吸收邊界的位置以及吸收層的厚度。n是ρ和σmax之間所遵循的關系。n=1是線性關系,本程序中采用的n=2的拋物線關系的。對于三維FDTD電場量E,磁場量H各有6個分量分別 Exy、Exz、Eyx、Eyz、Ezx、Ezy、Hxy、Hxz、Hyx、Hyz、Hzx、Hzy。

        2.3 算法檢驗

        在同一微分高斯脈沖激勵源的前提下,分別采用串行、并行計算對同一問題。共計算500個時間步,可以得到每一點在不同時間步采用不同進程的場值幅值。對于同一個位置不同的時間步通過串行、并行得到的數據進行比較,采用了兩個點的比較,點(25,30,30)和點(25,50,50)所得到的結果如圖 3 所示。 左圖是點(25,30,30),右圖是點(25,50,50),由圖示結果可知該并行程序中傳遞函數是正確的,整個程序是合理的。交換邊界處的數據能進行互相接收和發(fā)送。

        2.4 并行性能分析

        并行計算的目標是使用p個處理器執(zhí)行程序并獲得比在單個處理器上高p倍的性能。順序執(zhí)行時間和并行執(zhí)行時間之比稱作加速比[5-6]。

        加速比(Sp)=串行執(zhí)行時間(Topt)/并行執(zhí)行時間(Tp)

        并行計算的效率(也稱作處理器使用率)是加速比除以處理器個數:

        效率(Ep)=加速比(Sp)/p

        圖3 同一點不同時間步的磁場幅度值Fig.3 At the same time steps of different magnetic field amplitude values

        為了達到加速比Sp,并行執(zhí)行時間必須是串行執(zhí)行時間的l/p。因為僅有p個處理器,這意味著每個處理器必須分配到同樣數量的工作。所有處理器在并行執(zhí)行全過程中都必須在執(zhí)行程序,而且算法在并行化過程中不能引入額外的操作。

        在并行計算中,通信開銷已經成為影響計算機效率的一個原因,這是因為每個處理機要獨立管理自己的進程。為了達到較高的加速比,并行程序面臨的一個很重要的問題就是負載平衡。它是指合理的在處理器之間重新分配負載平衡,達到系統(tǒng)的綜合性能最優(yōu)。一般情況下,根據各節(jié)點的性能不同應該承擔不同規(guī)模的工作。計算速度快及內存大者應承擔較大的任務量,反之則承擔較小的任務量,這樣可以避免快節(jié)點等待慢節(jié)點同步而造成的計算時間浪費。負載平衡過程必須在平衡計算能力和通訊開銷的基礎上平衡各節(jié)點的負載。以PML作為吸收邊界的FDTD并行算法則是一種典型的同步并行算法。每一個時間步即是控制全局的并行時鐘,不同的進程在每一個時間步中都要嚴格的按照FDTD迭代方式進行電場、磁場的數據交換。因此每個進程所承擔的計算量負載的平衡是提高FDTD并行算法效率的關鍵之一。

        2.5 并行效率的分析

        對于三維的自由空間,點源輻射可以用數值比較解決問題。文中采用的是計算500個時間步的方式,分別用串行和并行時間來比較其效率。消息的發(fā)送和接收采用MPI捆綁式的堵塞式且對不同的網格大小進行計算,時間單位是s。其中np=2采用的是一維分割,np=4采用的是二維分割,np=8采用的是三維分割,計算結果如表1所示。

        對表中的數據進行分析:對于50×50×50串并行所用時間進行比較,隨著進程的增多所耗時間也是成倍的增加。加速比sp<1,此時的網格大小只是適用于串行不適合并行計算;對于網格 100×100×100、200×200×100、200×200×200 采用串行和并行運算。對于np=2的墻上時間進行比較,可以得到此時均可以得到sp>1,則該網格是適合并行算法的;對于100×100×100,采用不同進程所需要的時間以及得到的加速比進行比較可以得到:采用一維分割時加速比Sp>1,但是對于二、三維分割方式,加速比是小于1的。由表1可知,對于200×200×100采用二維分割能得到最大的加速比。對于200×200×200的網格,三維分割才可以達到最大的加速比,其值高達2.214。這是因為墻上時間由兩部分組成:空間計算時間和通信時間。加速比的高低取決與這兩者的比例,因此可以得出:

        表1 不同網格采用不同進程運行的結果Tab.1 Different grid using different process operation results

        1)當計算的網格數比較小的時候,比如50×50×50時,由于通信也需要一定的時間導致整個空間的計算時間比通信時間要小,采用并行算法時要比串行時間長,得到的加速比小于1。采用的并行進程越多通信量成倍的增加,則所得到的加速比也是成倍的降低效率的;

        2)只有計算網格達到一定的數目,比如 100×100×100時,采用并行計算才能優(yōu)于串行計算達到加速比Sp>1。此時在各個進程之間的通信時間要小于計算時間,計算時間是主要的。所以并不是所有的并行計算都要比串行計算快的。

        3)當采用并行計算的時,空間的分割方式與網格劃分的多少是有關的。

        ①當整個計算空間不是太大時,100×100×100通信時間在整個墻上時間占了一個較大的分量,那么此時采用最簡單的一維分割采用較小數目的進程則能減小通信時間。比如兩個進程時,此時得到的加速比是要高十多個進程的。如果此時采用多個進程將導致加速比Sp<1的情況出現。

        ②當整個計算網格數大到一定的程度時,比如200×200×200,由于計算時間占了很大的一部分,相對通信時間的分量減小,無論采用幾維的分割方式,Sp>1的趨勢是不會改變的。此時采用三維的分割方式多個進程并行可以得到最大的加速比和效率。

        ③采用三維的分割,每維上的進程數是要根據實際情況來選擇的,并不是越多越好,每增加一個進程就是增加一倍的通信時間。對于實際計算中,計算步是成千上萬的網格數,也是多于106個。此時采用合適的并行計算,根據模型采取合適的分割方式以及各個方向上的進程數顯得尤為重要,恰當劃分空間網格可以達到一個最大的加速比。

        3 結束語

        文中主要用數值說明了基于MPI消息傳遞機制的FDTD并行算法分析網格數、進程數、分割方式,三者對效率的影響,定量的給出三者的關系。網格數比較小的時候適合串行。只有網格數達到一定的數目,并行才能優(yōu)于串行計算,而此時采用不同維數并行計算對效率影響比較大,效率的提高依賴于網格劃分方式和進程數。文中給出了網格數以及適合的劃分方式和進程數。這將為以后進行并行計算如何選擇一個合適的分割方式和進程數提供一個參考。

        [1]Yee K S.Numerical solution of initial boundary value problems involving Maxwell equa-tion in isltropic media[J].IEEE Trans.Antennas Propagat.,1966,14(3):302-307.

        [2]Shlager K L.,Schneider John B.Selective survey of the finitedifference time-domain literature[J].IEEE Antennas&Pro Pagation Magazine,1995,37(4):53-57.

        [3]都志輝.高性能計算并行編程技術-MPI并行程序設計[M].北京:清華大學出版社,2001.

        [4]李太全.時域有限差分算法的MPI實現與效率分析 [J].長江大學學報:自科版,2007,4(1):32-34.

        LI Tai-quan.Implementation of FDTD in MPI and analysis on efficiency[J].Journal of Yangtze University:Natural Science Edition,2007,4(1):32-34.

        [5]Michael J.Quinn.Parallel Programming in C with MPI and OpenMP[M].北京:清華大學出版社,2003.

        [6]Quinn M J.MPI與OpenMP并行程序設計 (C語言版)[M].北京:清華大學出版社,2004.

        猜你喜歡
        并行算法進程處理器
        地圖線要素綜合化的簡遞歸并行算法
        債券市場對外開放的進程與展望
        中國外匯(2019年20期)2019-11-25 09:54:58
        基于GPU的GaBP并行算法研究
        Imagination的ClearCallTM VoIP應用現可支持Cavium的OCTEON? Ⅲ多核處理器
        ADI推出新一代SigmaDSP處理器
        汽車零部件(2014年1期)2014-09-21 11:41:11
        呼嚕處理器
        小青蛙報(2014年1期)2014-03-21 21:29:39
        社會進程中的新聞學探尋
        民主與科學(2014年3期)2014-02-28 11:23:03
        基于GPU的分類并行算法的研究與實現
        我國高等教育改革進程與反思
        Linux僵死進程的產生與避免
        国产av一区二区网站| 夜夜综合网| 久久亚洲精品ab无码播放| 黄色成人网站免费无码av| 中国一级免费毛片| 最近亚洲精品中文字幕| 亚洲综合新区一区二区| 亚洲一区在线观看中文字幕| 五月丁香六月综合缴清无码| 免费观看又色又爽又黄的韩国| 久久久久久成人毛片免费看| 偷拍区亚洲区一区二区| 久久精品中文字幕免费| 亚洲av区,一区二区三区色婷婷| 四虎成人精品在永久免费| 成人免费看吃奶视频网站| 最好看2019高清中文字幕视频| 精品无码国产污污污免费网站 | 一本久道久久综合久久| 91在线观看国产自拍| 激情精品一区二区三区| 少妇无码吹潮| 日日摸夜夜添夜夜添无码免费视频 | 久久99精品久久久大学生| 爱性久久久久久久久| 久久无码人妻一区二区三区午夜 | a级毛片高清免费视频就| 综合色天天久久| 老熟妇嗷嗷叫91九色| 久久精品国产亚洲av麻豆长发 | 波多野结衣中文字幕在线视频| 久久国产精品二区99| 国产精品久久久精品三级18| 日本一区二区三区视频在线观看| 日日碰狠狠添天天爽超碰97久久| 久久无码av一区二区三区| 久久精品re| 五十路一区二区中文字幕| 成人免费a级毛片无码片2022| 在线亚洲午夜理论av大片| 亚洲综合网站精品一区二区|