《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > CUDA體系結(jié)構(gòu)上的一層淺水系統(tǒng)的模擬
CUDA體系結(jié)構(gòu)上的一層淺水系統(tǒng)的模擬
來源:微型機(jī)與應(yīng)用2012年第10期
張 哲
(遼寧師范大學(xué) 計算機(jī)與信息技術(shù)學(xué)院計算機(jī)系,遼寧 大連116029)
摘要: 對于使用支持NVIDA CUDA程序設(shè)計模型的GPU的二維一層淺水系統(tǒng),給出了如何加速平衡性良好的有限體積模式的數(shù)值解,同時給出并實(shí)現(xiàn)了在單雙浮點(diǎn)精度下使用CUDA模型利用潛在數(shù)據(jù)并行的算法。數(shù)值實(shí)驗(yàn)表明,CUDA體系結(jié)構(gòu)的求解程序比CPU并行實(shí)現(xiàn)求解程序高效。
關(guān)鍵詞: 軟件 GPU 淺水系統(tǒng) OpenMP CUDA
Abstract:
Key words :

摘  要: 對于使用支持NVIDA CUDA程序設(shè)計模型的GPU的二維一層淺水系統(tǒng),給出了如何加速平衡性良好的有限體積模式的數(shù)值解,同時給出并實(shí)現(xiàn)了在單雙浮點(diǎn)精度下使用CUDA模型利用潛在數(shù)據(jù)并行的算法。數(shù)值實(shí)驗(yàn)表明,CUDA體系結(jié)構(gòu)的求解程序比CPU并行實(shí)現(xiàn)求解程序高效。
關(guān)鍵詞: GPU;淺水系統(tǒng);OpenMP;CUDA

    以具有源項的守恒定律形式表達(dá)的淺水方程廣泛用于引力影響下的一層流體建模,這些模型的數(shù)值解有許多用途,有關(guān)地面水流,如河流或潰壩水流的數(shù)值模擬。由于范圍廣,這些模擬需要大量的計算,因此需要很有效的求解程序在合理的執(zhí)行時間內(nèi)求解這些問題。
    因?yàn)闇\水系統(tǒng)的數(shù)值解有許多可開發(fā)的并行性,使用并行硬件可增加數(shù)值模擬速度。參考文獻(xiàn)[1]給出了對于PC集群模擬淺水系統(tǒng)的數(shù)值模式和該模式的有效并行實(shí)現(xiàn)。參考文獻(xiàn)[2]通過使用SSE優(yōu)化的軟件模塊,改進(jìn)了這個并行實(shí)現(xiàn)。盡管這些改進(jìn)能在更快的計算時間內(nèi)獲得結(jié)果,但模擬過程仍需要很長的運(yùn)行時間。
    現(xiàn)代圖形處理單元GPUs為以并行方式進(jìn)行大規(guī)模浮點(diǎn)操作提供了數(shù)以百計的優(yōu)化處理單元,GPUs也可成為一種在復(fù)雜計算任務(wù)中大大提高性能的簡便而有效的方法[3]。
    曾有人建議將淺水?dāng)?shù)值求解程序放在GPU平臺上。為了模擬一層淺水系統(tǒng),在一個NVIDIA GeForce  7800 GTX顯卡上實(shí)現(xiàn)了一個明確的中心迎風(fēng)方法[4],并且相對于一個CPU實(shí)現(xiàn),其加速比從15到30。參考文獻(xiàn)[1]在GPUs上所給數(shù)值模式的有效實(shí)現(xiàn)在參考文獻(xiàn)[5]中有相關(guān)描述。 相對于一個單處理器實(shí)現(xiàn),在一個NVIDIA GeForce 8800 Ultra顯卡上得到了兩個數(shù)量級的加速。這些先前的建議是基于OpenGL圖形應(yīng)用程序接口[6]和Cg著色語言(動畫著色語言)的[7]。
    近來,NVIDIA開發(fā)了CUDA程序設(shè)計工具包,以C語言為開發(fā)環(huán)境,對一般目的的應(yīng)用,使GPU的程序設(shè)計更為簡便。
    本文目標(biāo)是通過使用支持CUDA的GPUs加速淺水系統(tǒng)的數(shù)值求解,特別是為了取得更快的響應(yīng)時間,修改參考文獻(xiàn)[1]和參考文獻(xiàn)[5]中并行化的一層淺水?dāng)?shù)值求解程序,以適應(yīng)CUDA體系結(jié)構(gòu)。
1 數(shù)值模式
    一層淺水系統(tǒng)是一個具有源項的守恒定律系統(tǒng),該系統(tǒng)可以為在引力加速度g作用下的占有一定空間的均勻流動的淺水層建模。系統(tǒng)形式如下:

其中,



    
    將在GPU上執(zhí)行的每個處理步驟分配到同一個CUDA核,核是在GPU上執(zhí)行的一個函數(shù),其在執(zhí)行中形成并行運(yùn)算的線程塊[9],算法實(shí)現(xiàn)步驟如下:
    (1)建立數(shù)據(jù)結(jié)構(gòu)
    對于每個體積,存儲它的狀態(tài)(h、qx、qy)和高度H。定義一個float4類型的數(shù)組,其中每個元素表示一個體積并且包含了以前的參數(shù),因?yàn)槊總€邊(線程)僅需要它的兩個相鄰的體積的數(shù)據(jù),將數(shù)組存儲為一個二維紋理,紋理存儲器特別適合每個線程在它周圍環(huán)境進(jìn)行存取。另一方面,當(dāng)每個線程需要存取位于全局內(nèi)存的許多鄰近元素時,每個共享內(nèi)存塊更適合,每個線程塊將這些元素的一小部分裝入共享內(nèi)存。欲實(shí)現(xiàn)兩個版本(使用二維紋理和使用共享內(nèi)存),用二維紋理可使執(zhí)行時間更短。
    體積區(qū)域和垂直水平邊的長度需要預(yù)先計算,并傳遞到需要它們的CUDA核。運(yùn)行時通過檢查網(wǎng)格中線程的位置,能知道一個邊或體積是否是一個邊界和一個邊的?濁ij值。
    (2)處理垂直邊和水平邊
    將邊分成垂直邊和水平邊進(jìn)行處理。垂直邊?濁ij,y=0,水平邊?濁ij,x=0。在垂直和水平邊處理中,每個線程分別代表一個垂直和水平邊,計算它對鄰近體積的貢獻(xiàn)在2.1節(jié)已描述。
    當(dāng)借助于存儲在全局內(nèi)存的兩個累加器驅(qū)動一個特定的體積時,邊(即線程)彼此相互同步,并且每個邊都是float4類型的數(shù)組元素。每個累加器的大小就是體積值。累加器的每個元素存儲邊對體積的貢獻(xiàn)(一個3×1向量Mi和一個float值Zi)。在垂直邊的處理中,每個邊將貢獻(xiàn)寫入第一個累加器的右面體積和第二個累加器的左面體積。水平邊的處理與垂直邊處理類似,只是加入累加器的貢獻(xiàn)不同。圖2和圖3分別顯示了垂直邊和水平邊的處理情況。

 

 

    (3)為每個體積計算?駐ti
    每個線程代表一個體積,正像2.1節(jié)描述的計算體積Vi的局部值Δti。最終將通過把存儲在兩個累加器中的相應(yīng)體積Vi位置的兩個float值相加獲得Zi值。
    (4)獲得最小Δt
    通過在GPU上應(yīng)用規(guī)約算法尋找體積的局部?駐ti的最小值,所應(yīng)用的規(guī)約算法是CUDA軟件開發(fā)工具中所包含的規(guī)約樣例的核7(最優(yōu)化的一個)。
    (5)為每個體積計算Win+1
    在這一步,每個線程代表一個體積,正如2.1節(jié)描述的修改體積Vi的狀態(tài)Wi。通過兩個3×1向量相加求出Mi的最終值,這兩個向量存儲在與兩個累加器的體積Vi相稱的位置。因?yàn)橐粋€CUDA的核函數(shù)不能直接寫進(jìn)紋理,需要通過將結(jié)果寫進(jìn)一個臨時數(shù)組來修改紋理,然后將這個數(shù)組復(fù)制到綁定紋理的CUDA數(shù)組。
    這個CUDA算法的雙精度(double)版本已實(shí)現(xiàn),以上所描述的有關(guān)實(shí)現(xiàn)的差別是需要使用兩個double2類型元素的數(shù)組存儲體積數(shù)據(jù),并需要使用double2類型元素的4個累加器。

    

數(shù)值模式運(yùn)行在不同的網(wǎng)格。在[0,1]時間間隔內(nèi),執(zhí)行模擬系統(tǒng)。CFL參數(shù)是?酌=0.9,并且需要考慮墻壁邊界條件(q·η)。
    已經(jīng)實(shí)現(xiàn)了CUDA算法的一個串行和四核CPU并行版本(使用OpenMP[8]),兩個版本都使用C++實(shí)現(xiàn),且使用矩陣操作本征庫[10],在CPU上已經(jīng)使用了double數(shù)據(jù)類型。將CUDA實(shí)現(xiàn)與參考文獻(xiàn)[5]中描述的Cg程序進(jìn)行比較。
    所有程序都是在一個具有4 GB內(nèi)存的酷睿i7920處理器上執(zhí)行,所使用的顯卡是GeForece GTX260和GeForce GTX280。表1顯示了所有網(wǎng)格和程序的執(zhí)行時間(由于沒有足夠的內(nèi)存,有些情況不能執(zhí)行)。
    在具有兩種顯卡的所有情況下,單精度CUDA程序(CUSP)的執(zhí)行時間超過Cg程序的執(zhí)行時間。使用一個GeForce GTX280,相對于單核版本,CUSP實(shí)現(xiàn)了超過140的加速。對于復(fù)雜問題在兩種顯卡下,雙精度CUDA程序(CUDP)比CUSP程序的執(zhí)行速度慢7倍。正如預(yù)期的一樣,相對于單核版本,OpenMP版本僅實(shí)現(xiàn)了不足4倍的加速(OpenMP版本的執(zhí)行速度比單核版本快不到4倍)。

    圖4以圖形的方式顯示了兩種顯卡在CUDA實(shí)現(xiàn)中取得的GB/s和GFLOPS值。用GTX280顯卡,對于大的網(wǎng)格,CUSP達(dá)到了61 GB/s和123 GFLOPS。理論最大值是:對于GTX280顯卡,GB/s和GFLOPS值分別為141.7 GB/s、933.1 GFLOPS(單精度)、77.8 GFLOPS(雙精度);對于GTX260顯卡,GB/s和GFLOPS值分別為111.9 GB/s、804.8 GFLOPS(單精度)、67.1 GFLOPS(雙精度)。

    比較了在單核和CUDA程序求得的數(shù)值解,計算出了全部網(wǎng)格(t=1.0時)在CPU和GPU中得出的解之間的不同L1范數(shù)。使用CUSP的L1范數(shù)的數(shù)量級在10-2~10-4之間變化,而使用CUDP所得到的數(shù)量級在10-13~10-14之間變化,這反映了在GPU上使用單雙精度計算數(shù)值解的不同精度。
    使用CUDA框架為一層淺水系統(tǒng)建立和實(shí)現(xiàn)了一個有效的一階良好有限體積求解程序。為了在CUDA體系結(jié)構(gòu)上有效地并行數(shù)值模式,這個求解程序?qū)崿F(xiàn)了優(yōu)化技術(shù)。在一個GeForce GTX280顯卡上使用單精度執(zhí)行的模擬達(dá)到了61 GB/s和123 GFLOPS,比一個單核版本的求解程序快了2個數(shù)量級,也比一個基于圖形語言的GPU版本速度快。這些模擬也顯示了用求解程序所得到的數(shù)值解對于實(shí)際應(yīng)用是足夠精確的,用雙精度比用單精度求得的解更精確。對于未來的工作,我們提出了在不規(guī)則網(wǎng)格上進(jìn)行有效模擬的擴(kuò)展策略,給出兩層淺水系統(tǒng)的模擬。
參考文獻(xiàn)
[1] CASTRO M J,GARCFA-RODRIGUEZ J A.A parallel 2D finite volume scheme for solving systems of balance laws  with nonconservative products:application to shallow flows[J]. Comput Methods Appl Mech Eng,2006,195(19):2788-2815.
[2] CASTRO M J,GARCFA-RODRIGUEZ J A.Solving shallow  water systems in 2D domains using finite volume methods and multimedia SSE instructions[J].Comput Appl Math,2008,221(1):16-32.
[3] RUMPF M,STRZODKA R.Graphics processor units:new  prospects for parallel computing[J].Lecture notes in computational science and engineering,2006,51(1):89-132.
[4] HAGEN T R,HJELMERVIK J M,LIE K-A.Visual simulation of shallow-water waves[J].Simul Model Pract Theory,2005,13(8):716-726.
[5] LASTRA M,MANTAS J M,URENA C.Simulation of shallow water systems using graphics processing units[J].Math Comput Simul,2009,80(3):598-618.
[6] SHREINER D,WOO M,NEIDER J.OpenGL programming guide:the official guide to learning OpenGL,Version2.1[M]. ddison-Wesley Professional,2007.
[7] FERNANDO R,KILGARD M J.The Cg tutorial:the definitive guide to programmable real-time graphics[M].Addison Wesley,2003.
[8] CHAPMAN B,JOST G,DAVID J.Using OpenMP:portable shared memory parallel programming[M].The MIT Press,Cambridge 2007.
[9] NVIDIA.CUDA Zone[EB/OL].[2009-09-10].http://www.nvidia.com/object/cuda_home.html.
[10] Eigen2.0.9[EB/OL].[2009-09-10].http://eigen.tuxfamily.org.

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。