计算流体动力学中的并行计算技术综述

计算流体动力学中的并行计算技术综述

一、计算流体力学并行计算技术研究综述(论文文献综述)

张鹏,孙晓冬,朱家和,王晶,王大伟,赵文生[1](2021)在《集成微系统多物理场耦合效应仿真关键技术综述》文中研究指明先进集成技术的发展以应用为驱动,近年来在智能应用、5G通信、物联网、卫星通信等领域得到了空前关注。然而,集成微系统中信号串扰、腔体效应、自热效应等导致的可靠性问题分布更加密集,跨层级多场耦合过程高效数值仿真是实现集成微系统高效能设计的技术保障。多场耦合仿真已成为跨学科领域研究的主流方向之一,正成为促进电子科学与技术、信息科学与技术等进步的重要手段。主要介绍了集成微系统多物理场耦合仿真中关于数理建模、数值求解以及大规模问题加速求解算法的发展现状及关键技术。

季顺迎,田于逵[2](2021)在《基于多介质、多尺度离散元方法的冰载荷数值冰水池》文中研究说明极地船舶与海洋工程结构冰载荷的确定是其结构抗冰设计、冰区安全运行和结构完整性管理的重要研究内容.当前快速发展的高性能计算技术和多介质、多尺度数值方法为准确、高效地计算结构冰载荷提供了有效的途径,其中以离散元方法为代表的数值方法取得了出色的研究成果.为此,本文针对目前极地船舶与海洋工程结构对冰载荷及力学响应的工程需求,同时考虑国内外对海冰、工程结构与流体相互耦合的多介质、多尺度数值方法研究现状,对极地船舶与海洋工程数值冰水池的概念、框架、开发技术以及基于离散元方法的软件实现与工程应用进行了论述.数值冰水池在船舶与海洋工程结构冰载荷确定方面具有可靠性、经济性、快速性、扩展性和情景化等显着优势.本文工作借鉴数值水池的研究思路,以典型船舶和海洋平台结构冰载荷及结构力学响应的离散元计算为例,探讨了数值冰水池研究的可行性和工程应用前景,阐述其与理论分析、现场测量和模型试验研究相结合的必要性.以上研究有益于中国在极地船舶与海洋工程领域形成具有独立知识产权的数值计算分析平台,对中国极地海洋强国的战略实施具有很好的启发和指导意义.

张兆安[3](2021)在《基于非结构网格GPU加速技术的二维水动力数值模型》文中提出近年来,随着世界范围内暴雨、冰雹等极端天气的频发,泥石流、洪水等次生灾害也越来越常见,洪水数值模型作为研究洪水问题的主要手段,在防洪预报等方面做出了重要贡献。为响应国家对洪水灾害的政策,配合建设全国洪水风险图的编制,本文针对目前二维数值模型的不足点,开发了一套对地形描述更加精确,模拟精度更高,计算速度更快的水动力数值模型。该模型采用非结构网格,其对复杂构型强大的灵活性可以适应各种复杂地形,减少了不必要的网格数目,可以有效应用于各类复杂地形及边界条件。洪水演进过程采用Godunov格式的有限体积法数值求解二维浅水方程,同时引入图形处理器(GPU)加速计算技术,在不降低计算网格精度的条件下大幅提升计算速度。该模型在模拟边界条件复杂,河道蜿蜒崎岖的地形时,可以很好的对洪水过程进行模拟计算,且计算结果准确,加速效果显着。在建模基础之上,通过模拟计算五个经典算例,验证了模型计算的准确性、和谐性、水量守恒、稳定性等,表明了模型可以良好处理复杂混合流态、且拥有高分辨率激波捕获能力。另外通过模拟计算实际洪水演进过程,表明该模型可有效应用于实际洪水演进过程模拟,包括普通洪水演进过程、洪水漫滩过程和溃坝洪水等,模拟结果与文献值、实测值吻合度较高。因此通过上述算例,模型可以良好模拟洪水演进,得到的结论是有效可靠的。模型可以为洪水灾害的预防预警提供有力的技术支撑最后使用不同设备及模型模拟计算并比较计算时长,使用了 GPU对计算过程进行加速之后,模型运算时间大幅度减少;各算例模拟结果ERMS均小于模拟值标准偏差的一半,且ENS均在0.78及以上,模拟结果与文献值、实测值吻合度较高,同时该非结构GPU模型计算效率较高,相较于CPU模型,非结构GPU模型加速比在38.4及以上;相较于结构GPU模型,非结构GPU模型计算效率能提升2倍及以上。针对复杂地形,由于非结构网格对其有优异的适应性,可以较好地契合同时也能更好地描述地形细节,减少多余网格的计算,从而使得计算结果更为精确且计算速度也较快。本文模型对指导防洪配合建设洪水风险图的编制具有重要的应用价值。

潘俊男[4](2021)在《三种语言在N体模拟中的计算效率比较研究》文中指出研究空间中N个粒子在万有引力作用下的运动的问题被称之为N体问题,该问题是天体物理学、流体力学和分子动力学中最基本的问题之一,也是大数据模拟计算的重要领域。N体模拟是用数值模拟的方法对N体问题进行计算,它既是研究宇宙演化和天体构成的主要方法,也是研究分子动力学问题的有效途径。此外,N体模拟还是探索宇宙的一种方式,可以对天文学中一些无法实际操作的实验进行理论模拟,同样也可以对计算机能力进行检验,因此具有极高的研究价值。本文使用三种编程语言对N体问题进行模拟计算,并比较不同编程语言下的计算效率,旨在找到一种适合N体模拟的编程语言,从而提高该问题的研究效率,推广N体模拟方法,增加N体问题的研究人群,推动N体问题的研究。传统的N体模拟计算方法较为复杂,需要熟练掌握编程技巧、储备大量的天体物理知识,这导致研究N体模拟的人群固定化、N体模拟研究推进缓慢。因此,为了高效、便捷、低成本地推广N体模拟,本课题采用PP算法,在不影响计算效率和结果精度的同时尽量简化N体模拟。针对N体问题的模拟,目前有很多编程语言可供选择。本课题考虑了研究领域、使用人群、语言特性、编程优势等多方面因素,最终选择了FORTRAN、C、Python三种最有潜力的编程语言来进行N体模拟的比较实验。首先,本文对几种常见的N体模拟算法进行了总结,引出并阐述了PP算法的基本原理。其次,为了对N体模拟进行有效积分,本文参考差分方案、独立时间步长、邻域算法和K-S正则化,设计出力的四阶多项式,使算法的效率与精度得到平衡,最终编写出符合本课题的程序代码。然后,本文通过三种编程语言的N体模拟实验和对结果进行分析,从而将这三种语言在N体模拟研究中的推广潜质进行科学评估。为了确保实验的准确性和真实性,本研究选择两组包含不同数量级的粒子样本分别进行实验,通过对比计算所需时间来分析计算的效率,并分析三种语言的CPU使用率。通过对三种语言在N体模拟中的表现进行对比,得出FORTRAN语言最适合用于N体模拟的研究特别是硬件配置一般时,Python语言更适合在高性能计算机上工作使用。

张辉[5](2021)在《离心泵叶轮拓扑优化设计方法研究》文中研究表明离心泵是一种在众多行业都有着广泛应用的流体机械,其在运行过程中受各种能量损失的影响,运行效率较低。叶轮作为泵内唯一的做功部件,对泵的整体性能影响显着,因此针对离心泵叶轮结构进行优化设计对于提升泵的性能具有重要意义。针对传统的叶轮设计方法受设计者经验及已有叶轮模型水力性能限制的局限性,本文采用流体拓扑优化方法对叶轮结构进行优化设计。流体拓扑优化方法不受设计者经验的限制,能够通过优化算法自动获得符合设计要求的优化构型。本文基于水平集法和多孔介质模型进行离心泵叶轮流道拓扑优化设计方法的研究,以分布在设计域内若干位置上的水平集函数值作为设计变量,通过Laplace方程插值获得设计域内整体的水平集分布。构造了两种流固区域描述方式,一种以零水平集为流固区域的分界,采用离散的单元渗透率描述流固区域分布;另一种将单元水平集函数值映射为连续的单元密度,并采用连续的单元渗透率描述流固区域分布。通过开源软件OpenFOAM进行叶轮流场的求解,以最小化能量耗散、涡量和流体的扭矩功率为优化目标函数,在流体体积约束条件下,对叶轮的流道进行多目标拓扑优化设计。本文的主要研究内容如下:(1)研究设计域内设计变量的插入方式及水平集函数的插值流程,建立两种拓扑优化流程下水平集函数与单元渗透率之间的函数关系,在OpenFOAM中实现旋转坐标系下流动控制方程的求解及优化目标函数的计算,编写程序建立OpenFOAM与优化算法的连接,实现设计变量与目标函数值的传递,建立水平集拓扑优化方法的优化流程。(2)构造二维和三维的离心泵叶轮优化算例,以最小化能量耗散、涡量和流体的扭矩功率为优化目标函数,采用离散的单元渗透率描述流固区域,在不同的目标函数组合下对叶轮流道进行拓扑优化设计,对优化结果进行精细建模,并与传统设计方法下的叶轮流道进行对比。(3)在优化过程中采用连续的单元渗透率描述流固区域,重新对二维叶轮优化算例进行拓扑优化计算,对比两种流固区域描述方式下的流道优化结果。采用离散的单元渗透率描述流固区域的流道优化结果中存在一些孤立流体域没有被消除,流道的优化构型不完整;采用连续的单元渗透率描述流固区域后,优化结果中的孤立流体域能够被消除,使流体域分布更连续,流道的优化构型更完整。

梁正虹[6](2021)在《CPU+GPU异构并行计算研究及其在可压缩流动中的应用》文中研究说明计算流体力学(Computational Fluid Dynamics,CFD)是一门用计算机数值求解流动控制方程来研究各种流动现象、规律的学科。CFD涉及到计算机科学与技术、流体力学、计算数学等多个专业研究领域。在航空航天领域,CFD已经成为获取高超声速飞行器气动力/热数据、开展高超声速流动基础研究的三大研究手段之一。随着求解问题复杂度的增加,几何外形、数值方法、物理化学模型等的日益精细、复杂,CFD对计算资源有了更高的需求。近年来,GPU发展迅速,基于CPU/GPU异构架构的计算体系成为构造大型超算系统的主要方式。计算机性能飞跃式的发展给CFD领域带了新的机遇和挑战。本文面向CPU/GPU异构体系和可压缩流CFD应用,围绕着可压缩流CFD异构并行计算技术开展研究,重点研究可压缩流CFD算法在CPU/GPU异构计算体系的并行化。研究主要分为两部分:一、可压缩领域常用通量分裂格式在GPU架构下的性能研究。以一维激波管为算例,使用CUDA编程模型编写一维欧拉求解器,对可压缩领域常用的Van Leer格式、Roe格式和AUSMPW+格式在CPU/GPU异构架构上进行分析。结果表明,Roe格式对流场解析效果好,且在异构平台加速性能高,应用前景较好;格式构造中存在的条件分支严重影响了格式的加速性能,构造数值格式时,合理的减少条件分支,将会大大提高其在异构平台的加速效果。二、基于FR格式的异构平台可压缩流求解器。针对当下适用于非结构网格的通量重构格式FR开展GPU可压缩流并行算法研究。首先,根据异构计算机特点结合CFD计算流程,提出基于CPU/GPU异构计算体系并行计算模式;开展基于FR格式的并行任务划分。接着,根据计算点类型对并行任务进行分类,构建Kernel函数;针对GPU数据访存特点,提出基于FR格式的数组存储结构。最后,用圆柱绕流算例验证了GPU算法的有效性,考核了其加速比,并成功将其应用于高超声速升力体数值模拟中。实验结果表明,本文设计的异构可压缩流求解器在单GPU上相较于单核CPU,最大能够达到50倍以上加速比,且能够应用于复杂的高超声速流动模拟,具备一定的工程实用价值。

陈晓梦[7](2021)在《基于日志的高性能计算作业运行时间预测与调度策略的研究与实现》文中提出在高性能计算环境下,计算资源是非常重要且紧缺的,在计算流体力学相关计算作业的执行上表现非常明显。高性能计算资源在实际的生产环境中往往因为功率限制、计算节点无法互联、资源经济成本消耗过高等条件限制而无法满足计算任务的需求,使得当前队列中占用较大资源的任务执行时间过长,导致后续任务长时间处于等待状态,或任务规模太大导致后续任务无法获得空闲资源来支持任务计算。为了提高高性能计算资源的利用率和实际工程环境中研究人员求解问题的效率,本文针对高性能计算作业日志数据集,研究了作业运行时间预测算法。将集成机器学习算法LightGBM首次用于作业运行时间预测和科学计算工作流执行时间预测,并在预测时间的基础上提出了三种调度策略。根据实验结果,选择以执行时间较短的优先执行策略结合贪心算法对计算任务进行预调度,有效的减少作业及工作流整体执行时间和等待时间,有利于尽早释放计算资源。主要研究内容如下:(1)利用高性能计算系统历史作业日志数据集,研究不同机器学习算法对高性能计算作业执行时间的预测,结合工程环境对提高计算资源利用率的需求,分析计算流体力学相关问题的求解计算的主要流程,使用有向图对其进行过程描述,并基于XML轻量级流程描述语言对相应的科学计算工作流模型进行描述,提取有效任务节点信息和数据资源文件。基于预测算法的表现效果和计算流体力学的计算作业日志数据,将预测算法模型用于预测实际的计算流体力学计算作业运行时间和工作流执行时间。(2)在对作业运行时间进行预测的基础上,提出以作业运行时间较短优先执行、以申请资源值较大的作业优先执行、以申请资源值与作业运行时间比值较大的作业优先执行三种优先策略,根据不同调度策略下的对比实验,选择整体表现较好的以作业运行时间较短优先执行的策略,并结合贪心算法对作业和工作流进行预调度。(3)借由仿真模拟不占用实际计算资源且有效的优势,利用WorkflowSim和GridSim模拟平台分别模拟线性科学计算工作流任务调度和非线性科学计算工作流任务调度。实验结果表明,对于线性科学计算工作流任务调度,根据依赖关系采用先来先服务算法更加直接高效,而对于非线性科学计算工作流任务调度,使用作业执行时间预测算法和贪心算法,并根据实际资源数量进行回填调度,能够有效地减少工作流执行代价,提高工作流执行效率,尽早释放计算资源,从而提高计算资源的利用率。

陈坚强[8](2021)在《国家数值风洞(NNW)工程关键技术研究进展》文中进行了进一步梳理随着高性能计算机和计算流体力学(CFD)的飞速发展, 20世纪80年代末日本率先提出了数值风洞的概念.美国进一步发展了数值风洞的概念,认为数值风洞是流体力学、数学、计算机科学和航空工程交叉融合的产物,并在航空航天飞行器研制中发挥着越来越重要的作用. 2018年,我国启动了"国家数值风洞(NNW)"工程项目,旨在联合全国优势力量,发挥集群优势,开展协同攻关,自主研发功能先进、种类齐全的CFD软件系统,研制国际先进的CFD专用高性能计算机,建成拥有我国自主知识产权、国内开放共享的空气动力数值模拟平台.本文介绍了NNW工程的系统构成和主要目标,总结了国家数值风洞软件框架、并行技术、网格生成、可视化技术、验证与确认、算法与模型等相关研究进展,展望了工程下一步的技术发展思路.

李健,张大伟,姜晓明,向立云[9](2021)在《并行化洪水演进模拟研究综述》文中研究说明近年来,并行化洪水演进模拟技术发展迅速,在防汛减灾领域发挥重要作用。在考虑洪水演进模型的数值方法、并行模式和编程技术等因素后,选取一些有代表性的洪水演进模型,分析了同构并行和异构并行洪水演进模型涉及的技术细节,提出并行化模型开发的技术难点和解决方法。最后,提出将来并行化洪水演进模型研发的着力点:非结构网格模型的异构并行化;混合并行的洪水演进模型;适于GPU异构并行的网格形式;并行环境下的实时可视化和交互式计算;基于动态编程语言的模型开发;界面式开发及模型应用推广。

张贝,Gabriele Morra,David A.Yuen,Henry M.Tufo,Matthew G.Knepley,陈石[10](2021)在《大数据时代的地球动力学数值计算方法回顾与展望》文中研究表明随着大数据时代的到来,计算地球动力学数值计算方法体系更加完善.本文系统地回顾了传统数值模拟方法在计算地球动力学领域的应用进展,包括:有限差分法、有限单元法、谱方法和谱元法;并对近年来一些新发展的算法和应用前景进行了综述,如:不连续Galerkin法、小波方法和格子玻尔兹曼方法等.本综述有助于读者以整体视角了解地球动力学数值计算方法的发展脉络,并对大数据时代下研究适应日益丰富的数据和新算法提供有益参考.

二、计算流体力学并行计算技术研究综述(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、计算流体力学并行计算技术研究综述(论文提纲范文)

(1)集成微系统多物理场耦合效应仿真关键技术综述(论文提纲范文)

1 引言
2 集成微系统多场建模
    2.1 物理场数理方程
        2.1.1 漂移扩散方程
        2.1.2 波动方程
        2.1.3 电流连续性方程
        2.1.4 热传导方程
        2.1.5 弹性力学方程
        2.1.6 流体力学方程
    2.2 场-场耦合模型
3 集成微系统数值求解技术
    3.1 时域有限差分法
    3.2 有限元法
    3.3 有限体积法
    3.4 时域非连续伽辽金法
4 大规模问题快速求解技术
    4.1 模型降阶法
    4.2 区域分解方法
5 结论

(3)基于非结构网格GPU加速技术的二维水动力数值模型(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景与意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 国内外研究进展
        1.2.1 水动力数值模型研究进展
        1.2.2 计算网格研究进展
        1.2.3 加速算法研究进展
    1.3 研究内容与技术路线
        1.3.1 研究内容
        1.3.2 技术路线
2 计算区域网格处理
    2.1 Gmsh软件介绍
    2.2 Gmsh模块介绍
        2.2.1 几何处理(Geometry)模块
        2.2.2 网格处理(Mesh)模块
    2.3 网格拓扑
    2.4 二维网格划分效果展示
    2.5 本章小结
3 基于GPU加速技术的二维非结构水动力数值模型
    3.1 控制方程
    3.2 数值计算方法
        3.2.1 有限体积法
        3.2.2 数值通量计算
        3.2.3 边界条件
        3.2.4 摩阻项处理
        3.2.5 底坡源项处理
        3.2.6 干湿网格处理
        3.2.7 稳定条件
    3.3 GPU加速方法
        3.3.1 CPU与GPU的体系结构
        3.3.2 基于GPU加速的并行计算过程
        3.3.3 CPU与GPU的相关参数介绍
    3.4 本章小结
4 模型验证及洪水演进过程数值模拟研究
    4.1 全溃坝水流算例
        4.1.1 模型计算条件
        4.1.2 计算结果对比分析
    4.2 混合流算例
        4.2.1 静水
        4.2.2 缓流
        4.2.3 混合流
    4.3 三角形挡水建筑物溃坝算例
        4.3.1 模型计算条件
        4.3.2 计算结果对比分析
    4.4 具有干湿界面的静水算例
    4.5 驼峰溃坝波算例
        4.5.1 模型计算条件
        4.5.2 计算结果及分析
    4.6 洪水演进过程数值模拟研究
        4.6.1 Toce河实验算例
        4.6.2 Malpasset溃坝算例
        4.6.3 结果分析与小结
    4.7 GPU加速效果研究
        4.7.1 GPU加速效果
        4.7.2 结果分析与小结
    4.8 本章小结
5 结论与展望
    5.1 结论
    5.2 展望
致谢
参考文献
攻读学位期间主要研究成果

(4)三种语言在N体模拟中的计算效率比较研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 选题背景及研究意义
    1.2 国内外研究现状
    1.3 本文的主要内容
第2章 N体模拟的算法选择与设计
    2.1 数值计算技术的发展
    2.2 PP算法的基本原理
    2.3 差分方案
    2.4 独立时间步长算法
    2.5 邻域算法
    2.6 标准算法
第3章 三种编程语言的选择
    3.1 FORTRAN语言概述
    3.2 Python语言概述
    3.3 C语言概述
第4章 N体模拟程序设计
    4.1 实验的准备工作
    4.2 程序架构及设计
第5章 N体模拟的实验
    5.1 小样本的N体模拟中的实验
    5.2 基于较大样本的N体模拟中的实验
    5.3 比较分析
第6章 总结与展望
    6.1 工作总结
    6.2 下一步工作展望
参考文献
致谢
攻读学位期间发表的学术论文和研究成果

(5)离心泵叶轮拓扑优化设计方法研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景
    1.2 叶轮优化设计方法研究现状
    1.3 流体拓扑优化方法综述
        1.3.1 流体拓扑优化方法介绍
        1.3.2 基于梯度算法和非梯度算法的流体拓扑优化
        1.3.3 流体拓扑优化在叶轮机械优化中的应用
    1.4 本文研究内容
2 流场数值模拟及拓扑优化基本理论
    2.1 离心叶轮流场数值模拟基本理论
        2.1.1 流动控制方程
        2.1.2 湍流模型
        2.1.3 数值离散方法
        2.1.4 OpenFOAM下的并行计算
    2.2 叶轮流场求解结果验证
        2.2.1 OpenFOAM下流场求解结果
        2.2.2 CFX下流场求解结果对比
    2.3 水平集拓扑优化方法
        2.3.1 单元渗透率离散的流固区域描述
        2.3.2 单元渗透率连续的流固区域描述
        2.3.3 优化列式
        2.3.4 水平集拓扑优化方法测试
    2.4 本章小结
3 二维离心泵叶轮拓扑优化
    3.1 优化目标函数
    3.2 二维叶轮优化算例构造
        3.2.1 设计域构型及边界条件
        3.2.2 设计变量设置
    3.3 二维叶轮优化结果
        3.3.1 目标函数为最小化能量耗散
        3.3.2 目标函数为最小化能量耗散和涡量
        3.3.3 目标函数为最小化能量耗散和扭矩功率
        3.3.4 不同目标函数下的优化结果对比
    3.4 优化结果精细建模及性能分析
    3.5 本章小结
4 三维离心泵叶轮拓扑优化
    4.1 三维离心泵叶轮算例构造
    4.2 三维叶轮优化结果
    4.3 本章小结
5 单元渗透率连续的二维叶轮拓扑优化
    5.1 二维叶轮优化算例设置
    5.2 二维叶轮优化结果
        5.2.1 目标函数为最小化能量耗散
        5.2.2 目标函数为最小化能量耗散和涡量
        5.2.3 目标函数为最小化能量耗散和扭矩功率
    5.3 本章小结
结论与展望
参考文献
致谢

(6)CPU+GPU异构并行计算研究及其在可压缩流动中的应用(论文提纲范文)

摘要
abstract
1 绪论
    1.1 课题研究的背景和意义
    1.2 国内外研究和发展现状
        1.2.1 计算机架构发展趋势
        1.2.2 异构计算机特点
        1.2.3 CFD离散格式概述
        1.2.4 CPU/GPU异构计算体系下可压缩CFD并行算法发展现状
    1.3 本文的主要工作
2 GPU并行计算
    2.1 引言
    2.2 GPU体系结构
    2.3 GPU软件系统
    2.4 CUDA编程模型
        2.4.1 CUDA执行模式
        2.4.2 CUDA存储结构
        2.4.3 CUDA数据通信及同步
    2.5 本章小结
3 典型通量分裂格式在异构计算体系下的性能分析
    3.1 引言
    3.2 典型通量分裂格式
        3.2.1 FVS
        3.2.2 FDS
        3.2.3 AUSM
    3.3 计算模型
        3.3.1 Riemann问题计算模型
        3.3.2 控制方程
    3.4 基于CPU/GPU的一维Euler算法流程
    3.5 结果分析
        3.5.1 计算结果对比
        3.5.2 并行算法性能对比
        3.5.3 格式加速效果分析
    3.6 本章总结
4 基于通量重构格式的可压缩流数值计算方法
    4.1 引言
    4.2 流动控制方程
        4.2.1 N-S方程
        4.2.2 湍流模型
    4.3 基于通量重构方法的空间离散
    4.4 时间离散方法
    4.5 边界条件
    4.6 本章小结
5 GPU可压缩流并行算法研究
    5.1 引言
    5.2 CPU/GPU异构可压缩流求解器并行模式
    5.3 CPU/GPU可压缩流求解器关键技术
        5.3.1 FR格式任务划分
        5.3.2 核函数构建
        5.3.3 数据存储方式
    5.4 性能测试
        5.4.1 加速比定义
        5.4.2 性能评估
    5.5 升力体算例
    5.6 本章小结
6 总结与展望
    6.1 全文总结
    6.2 工作展望
致谢
参考文献
攻读硕士学位期间发表的学术论文及研究成果

(7)基于日志的高性能计算作业运行时间预测与调度策略的研究与实现(论文提纲范文)

摘要
ABSTRACT
1 绪论
    1.1 研究背景
    1.2 本文主要研究内容
    1.3 本文组织结构
2 相关工作
    2.1 预测相关研究
        2.1.1 作业运行时间预测相关研究
        2.1.2 科学计算工作流执行时间预测相关研究
    2.2 调度相关研究
        2.2.1 作业调度相关研究
        2.2.2 科学计算工作流调度相关研究
    2.3 本章小结
3 基于日志的高性能计算作业运行时间预测
    3.1 作业运行时间预测算法实现过程
    3.2 工作流运行时间预测
        3.2.1 CFD计算作业执行流程表示与描述
        3.2.2 基于作业运行时间预测的工作流执行时间预测研究
    3.3 本章小结
4 基于作业运行时间预测的调度策略
    4.1 作业调度
        4.1.1 以作业运行时间较短优先执行
        4.1.2 以申请资源值较大的作业优先执行
        4.1.3 以申请资源值与作业运行时间比值较大的作业优先执行
    4.2 科学计算工作流任务调度
    4.3 本章小结
5 实验分析与工作流调度模拟
    5.1 作业运行时间预测实验
        5.1.1 作业运行时间预测算法比较与分析
        5.1.2 基于作业运行时间预测的工作流执行时间预测
    5.2 调度算法分析与模拟
        5.2.1 作业调度算法实验分析
        5.2.2 基于WorkflowSim的线性科学计算工作流调度实验与分析
        5.2.3 基于GridSim的非线性科学计算工作流调度实验与分析
    5.3 本章总结
6 总结与展望
    6.1 总结
    6.2 展望
致谢
参考文献
攻读学位期间取得的研究成果

(8)国家数值风洞(NNW)工程关键技术研究进展(论文提纲范文)

1 引言
2 工程简介
3 关键技术
    3.1 软件框架
    3.2 并行技术
    3.3 网格技术
    3.4 可视化技术
    3.5 验证与确认
    3.6 模型与算法
        3.6.1 转捩/湍流预测模型与方法
        3.6.2 高精度算法
        3.6.3 多物理场耦合计算方法
        3.6.4 多相多介质计算方法
4 总结与展望

(9)并行化洪水演进模拟研究综述(论文提纲范文)

1 洪水演进模拟的并行化需求
2 洪水演进模型的并行化模式
3 并行化洪水演进模拟研究现状
    3.1 同构并行化洪水演进模型
    3.2 异构并行化洪水演进模型
    3.3 基于其他并行机制的洪水演进模型
4 讨论
5 结论及展望

四、计算流体力学并行计算技术研究综述(论文参考文献)

  • [1]集成微系统多物理场耦合效应仿真关键技术综述[J]. 张鹏,孙晓冬,朱家和,王晶,王大伟,赵文生. 电子与封装, 2021(10)
  • [2]基于多介质、多尺度离散元方法的冰载荷数值冰水池[J]. 季顺迎,田于逵. 力学学报, 2021(09)
  • [3]基于非结构网格GPU加速技术的二维水动力数值模型[D]. 张兆安. 西安理工大学, 2021
  • [4]三种语言在N体模拟中的计算效率比较研究[D]. 潘俊男. 大理大学, 2021(08)
  • [5]离心泵叶轮拓扑优化设计方法研究[D]. 张辉. 大连理工大学, 2021(01)
  • [6]CPU+GPU异构并行计算研究及其在可压缩流动中的应用[D]. 梁正虹. 西南科技大学, 2021(08)
  • [7]基于日志的高性能计算作业运行时间预测与调度策略的研究与实现[D]. 陈晓梦. 西南科技大学, 2021(08)
  • [8]国家数值风洞(NNW)工程关键技术研究进展[J]. 陈坚强. 中国科学:技术科学, 2021(11)
  • [9]并行化洪水演进模拟研究综述[J]. 李健,张大伟,姜晓明,向立云. 计算机工程与应用, 2021(13)
  • [10]大数据时代的地球动力学数值计算方法回顾与展望[J]. 张贝,Gabriele Morra,David A.Yuen,Henry M.Tufo,Matthew G.Knepley,陈石. 地球与行星物理论评, 2021(01)

标签:;  ;  ;  ;  ;  

计算流体动力学中的并行计算技术综述
下载Doc文档

猜你喜欢