基于CPU/GPU异构系统架构的高超声速湍流直接数值模拟研究
发布时间:2024-06-29 06:31
【目的】高超声速湍流直接数值模拟(DNS)对空间及时间分辨率要求高,计算量非常大。过大的计算量及过长的计算时间是导致DNS难以在工程中被大范围应用的重要原因。为加快计算速度,作者设计并开发了一套CPU/GPU异构系统架构(HSA)下的高性能计算流体力学程序OpenCFD-SCU。【方法】该程序以作者前期开发的高精度有限差分求解器OpenCFD-SC为基础,经GPU系统的移植及优化而得。GPU程序的计算部分使用CUDA编程,确保所有算术运算都在GPU上完成。【结果】利用GPU程序OpenCFD-SCU,进行了来流Mach数6,6°攻角钝锥边界层转捩的直接数值模拟,得到了转捩过程中的时空演化流场。针对这一算例,GPU程序OpenCFD-SCU与CPU程序OpenCFD-SC相比,实现了60倍的加速效果(单GPU卡对单CPU核心),大大加速了DNS计算过程。【结论】未来,相信会有更多高超声速湍流模拟选择在GPU上开展。
【文章页数】:12 页
【部分图文】:
本文编号:3997308
【文章页数】:12 页
【部分图文】:
图6钝锥表面流向网格
网格规模为1600*1200*120,其中流线网格数1600,周向网格数1200,法向网格数120,总网格2.3亿,流向网格在头部进行加密,周向采用非均匀网格在迎风面对网格进行加密。壁面第一层网格为0.01mm。流向与周向网格见图6、图7。图7钝锥表面周向网格
图1CPU与GPU浮点运算能力[16]
在过往对高超声速湍流的DNS中,往往通过在大规模CPU集群上做并行计算来实现,节点间采用MPI(MessagePassingInterface)、ZeroMQ(0MQ)、Hadoop等方式进行数据通讯。然而,多核架构的CPU的计算能力现今已被众核架构的GPU甩在身后,图1、....
图2CPU与GPU的带宽[16]
利用GPU求解流体力学问题前人已经开展过一些工作,2003年TakashiAmada在GPU上实现了基于平滑分子动力学(SmoothedParticleHydrody-namics)的粒子流动模拟[3],同年,J.Kruger利用GPU求解了二维不可压N-S方程[4]。20....
图3OpenCFD-SC计算流程
CPU/GPU异构系统架构(HSA)下的计算流体力学程序OpenCFD-SCU(OpenCFDScientificComputing-CUDA)以作者前期开发的高精度有限差分求解器OpenCFD-SC[20]为基础,两者使用相同的程序框架,程序框架如图3。程序先读入控制....
本文编号:3997308
本文链接:https://www.wllwen.com/kejilunwen/lxlw/3997308.html