本技术探讨了一种利用离散小波变换技术的人脸伪造防御方法及其装置,属于图像处理技术领域。该方法通过深度伪造模型对原始图像和扰动图像进行属性编辑,并计算两者间的均方误差,以实现对深度伪造人脸的主动防御。
背景技术
2020年,Ruiz等学者首次提出将对抗攻击用于人脸深度伪造的主动防御。他们利用分类模型上的对抗攻击算法,例如I-FSGM和PGD算法,来破坏深度伪造模型的伪造结果,使得伪造结果产生肉眼可见的异常。
人脸深度伪造主动防御技术是一种通过主动的方式向人脸图像嵌入保护信息的技术,其核心思想是在人脸视频或图像在发布到互联网之前,向其添加特定的对抗扰动。这些添加的扰动可以在人脸多媒体内容发布后对其进行保护,防止人脸多媒体内容受到深度伪造的侵害。
现有的大多数白盒场景下的主动防御方案是在Ruiz等人的方案基础上进行改进的,而且大多数的扰动都是添加在像素域上,并且没有充分考虑生成扰动的鲁棒性问题。也有研究者提出对真实的社交媒体的环境进行建模来增加生成扰动抵御压缩的鲁棒性,但是并未挖掘把对抗扰动添加在其他域,如小波域上,来实现人脸深度伪造主动防御的可能性。
实现思路