本技术聚焦于计算机视觉对抗攻防技术,提出了一种创新的基于图像预处理的对抗样本防御系统构建方案。该系统核心包括自编码器重构样本和对抗样本识别机制,旨在提高模型的鲁棒性,抵御潜在的对抗攻击。
背景技术
目前,深度神经网络在计算机视觉领域取得了巨大的成功,并且在航空航天等领域也显示出极大的应用潜力,如卫星图像处理、目标检测、无人机自主导航等。然而,针对深度神经网络的对抗性攻击构成了重大的安全威胁,特别是在自动驾驶和面部识别以及航空航天等关键任务等领域。这些攻击利用了深度神经网络的弱点,引入了人类无法察觉的扰动,但可以极大地改变模型的预测。例如,在卫星影像处理系统中,这类攻击可能导致对关键地形或气象数据的误判,从而影响航空航天任务的安全性与精度。
对抗性训练(Adversarial Training,简称AT)已经成为对抗此类攻击最有效的防御方法之一。AT将对抗性示例纳入训练数据以增强模型的鲁棒性。在航空航天任务中,如无人机的自主导航系统,AT有助于防御敌方干扰或自然环境下的恶意攻击。AT最初是通过快速梯度符号法(Fast Gradient Sign Method)引入,后来通过基于投影梯度下降的对抗训练方法(Projected Gradient Descent Adversarial Training)增强了AT,它使用了迭代的基于投影梯度下降生成的对抗示例。通过替代损失最小化实现的基于权衡的对抗防御(Tradeoff-inspired Adversarial Defense via Surrogate-loss Minimization)平衡鲁棒性和干净准确性进一步改进了AT。
然而,AT通常以判别学习方式使用,侧重于学习从样本到标签的映射。这种方法的主要目的是加强从输入样本到相应标签的映射,而不考虑样本的潜在分布。因此,AT通常需要高容量模型,这在航空航天领域的边缘计算设备上,如卫星传感器或无人机嵌入式系统,可能面临计算资源的限制。
为了解决AT的局限性,对抗性蒸馏(Adversarial Distillation,简称AD)被提出。AD扩展了知识蒸馏(knowledge distillation,简称KD),通过从更大和更稳健的教师模型转移知识来增强较小模型的鲁棒性。
对抗鲁棒蒸馏(Adversarially Robust Distillation)是一种将对抗训练AD与KD结合起来的技术,旨在通过提升模型的对抗鲁棒性来增强其在对抗攻击下的性能。对抗鲁棒蒸馏的核心思想是通过蒸馏过程,不仅传递模型的知识,还增强其对抗鲁棒性。鲁棒软标签对抗蒸馏(Robust Soft Label Adversarial Distillation)是一种改进的对抗鲁棒蒸馏方法。它通过结合教师模型的鲁棒软标签生成对抗性示例,进一步增强了对抗鲁棒蒸馏的效果。自适应对抗蒸馏(Adaptive Adversarial Distillation)在传统对抗蒸馏的基础上引入了自适应机制,使得蒸馏过程中的知识传递更加灵活和高效。
然而,现有的AD方法仅限于对齐教师和学生模型的预测输出,而忽略了底层数据分布。如果教师模型和学生模型之间存在显著的能力差距,或者教师模型的表现不是最优的,那么对抗性蒸馏的有效性可能会受到损害。
综上,AT和AD都通过强化样本到标签的映射来提升模型的对抗鲁棒性。然而,这些方法往往忽略了底层数据分布的影响。具体而言,AT和AD主要侧重于优化模型在对抗性示例上的性能,即通过强化模型对扰动样本的分类能力来提升鲁棒性。然而,这种方法忽视了数据的整体分布特征,并且对抗性示例的一个典型特征是:它们往往偏离了正常样本的数据分布。这种对抗性示例的偏移可能会引发一系列问题例如对抗鲁棒性与标准精度的权衡问题。并且这种偏移在航空航天等高精度领域中可能尤为严重,因为对抗性示例的存在可能导致导航、探测系统等核心模块的误判,进而影响整个任务的成功与安全。
实现思路