本技术提供了一种用于高效识别密集小目标的机器视觉技术及系统。该技术通过将原始图像输入至优化的AMF-YOLOv8模型,实现对图像中密集小目标的准确特征提取和识别,输出结果图清晰展示目标位置。
背景技术
新型人工智能技术已成为各行各业跨越式发展的强力驱动器,机器视觉处理是人工智能的基础性、关键性技术。随新型电力系统、智慧交通、地空经济、虚拟现实等行业以前所未有态势爆发增长,机器视觉的精益化感知,特别是密集小目标感知需求与现有机器视觉处理能力不匹配的矛盾凸显,从而极大制约了通用工控体系中运行、警告、故障等指示信息的纵深功能拓展。究其根本,在于小目标矩阵像素单元数及样本数的稀缺性,以及各类特征表达能力的欠缺性,导致复杂背景和标外信息以噪声淹没方式干扰小目标的正确识别,特征识别难、存留难等成为本领域亟待解决的技术问题。
目前,基于深度学习的目标检测方法是密集目标识别与定位的主流方法,其中,YOLOv8是近年来推出的单阶段目标检测算法,具有检测精度高和速度快等优点,然而,YOLOv8系列模型均采用相似网络结构,其主干网络通过多次卷积提取图像目标特征,经自顶向下和自低向上的双向路径,融合网络多尺度特征后进行输出表达。这一工作范式在面向密集型小目标指示信息处理时也遭遇到了特征荒问题,即:随卷积神经网络加深,语义信息愈加丰富的同时细节特征随之减少,特别是在颈部较深的自底向上融合路径中,各类目标特征信息均有不同程度丢失,当传递到输出层检测时极易导致目标漏检。另外,此类结构还缺乏对相关特征语义的关联学习,使得准确区分出密集目标的类别信息能力欠佳。
因此,优化YOLOv8的不足使其在针对密集小目标的识别过程更具优势是需要解决的问题。
实现思路