本技术公开了一种基于深度学习的流动场景图像超分辨率重建方法及装置,包括获取流体流速数据集,所述流体流速数据集中的数据具有时间和地理两个维度;对所述流体流速数据集进行预处理,得到低分辨率图像和高分辨率图像;搭建基于反卷积神经网络的超分辨率模型,所述超分辨率模型包括一个反卷积层和若干个卷积层;对所述超分辨率模型的损失函数进行改进,具体为:在L1 Charbonnier损失的基础上增加分段函数,根据阈值调整权重大小;利用所述低分辨率图像和高分辨率图像对所述超分辨率模型进行训练;将训练好的超分辨率模型对低分辨率图像进行重建,得到高分辨率流场图像。对流动场景下图像超分辨率研究具有较好的效果和实用价值。
背景技术
近年来,随着深度学习技术在诸多领域的迅速发展,该技术也被越来越广泛地用来处理具有复杂物理特性、大量数据量的流体力学的相关问题。传统的数值计算方法可以仿真得到高精度的流场,但是需要巨大的算力和硬件支持;使用插值拟合等方式又难以捕获流场内部复杂的非线性关系;深度学习因为具有强大的拟合能力,可以从大量数据中挖掘有效信息,但直接使用生成模型的方式生成流场又存在生成流场不符合物理约束,偏离实际较大等问题。
在实际的研究实践中,会需要流场的流速温度等参数的布局图像,来进行气象研究、飞行器动力设计等研究工作。而这些图像通常难以直接获得,只有在某些点位布置的传感器获取到的流速、温度等数值模态的信息,如果使用计算流体力学等方式仿真,需要耗费巨大的计算资源。如果仅使用生成模型的方式又会生成不符合实际物理约束的流场。故需要一种深度学习的方法来根据这些点位布置的传感器获取的离散的低分辨率的信息来生成反映整个流场流速的高分辨率图像。
实现思路