一种基于改进MaskR‑CNN的钣金零件视觉识别方法,涉及一种钣金零件视觉识别方法。所述方法包括有以下构成:PA‑CBAM分割模型:优化了模型的焦点,改进后的网络生成更高质量的特征图提高钣金零件的识别精度;多尺度特征融合:得模型在边缘不清晰的情况下仍然能够准确识别零件;通道空间混合注意力:从而突出对当前任务更重要的特征通道。通过在原始特征金字塔网络(FPN)中添加自下而上的路径和跨层的“快捷”连接,并集成空间通道混合注意力模块(CABAM),该方法显著提高了模型的多尺度特征融合能力和边缘检测精度。在钣金零件的视觉识别任务中,所提出的方法实现了显著的性能改进。
背景技术
钣金零件的视觉识别是工业检测中的一个重要任务,由于钣金零件通常具有复杂的几何形状和精细的边缘特征,传统的实例分割方法在此类任务中往往面临挑战。在实际应用中,光照条件变化、背景干扰等因素会导致边缘模糊,从而影响识别的准确性。因此,如何有效地检测和分割钣金零件,特别是在复杂环境下的检测,成为了一个具有挑战性的研究问题。
在钣金零件的实际分拣过程中,视觉识别技术通常用于自动分拣系统,该系统依靠精确的对象检测和实例分割算法来识别、分类和定位零件。钣金零件分拣在钢铁生产线上的视觉引导分拣中的应用尤为突出。视觉引导的精确分拣技术可以显著减少人工干预,提高生产效率,提高准确性。当钢板通过生产线时,分拣系统使用摄像头在不同角度和光照条件下捕获钣金零件的图像,这些图像通常会受到反射、阴影和背景复杂性的影响。由于复杂的几何形状、表面光泽变化和周围环境的干扰,工业生产中的钣金零件在实际应用中可能会产生模糊的边缘和反射噪声。这些因素使得传统的实例分割算法难以准确捕捉零件的边缘和细节,尤其是在极端光照条件下。
为了解决这些问题,提出了基于改进的Mask R-CNN的PA-CBAM模型。传统的FPN架构在极端光照条件下往往表现出较高的误检测率,而所提出的模型通过添加自下而上的路径和引入跨层“捷径”连接来加强多尺度特征融合,进一步增强了特征图之间的信息流和融合,提高了多尺度对象的检测。此外,改进的多尺度融合输出特征图与CBAM(卷积块注意力模块)集成在一起。该模块通过通道和空间注意力机制,提高了模型对关键特征通道和重要空间位置的关注。结合CBAM使模型能够更好地捕捉钣金零件的边缘和细节,特别是在复杂的照明和背景干扰条件下。
实现思路