本技术介绍了一种结合轻量化残差网络和反卷积级联的自适应目标检测技术。该技术首先获取图像训练集和测试集,利用深度可分离卷积与残差学习提取图像深层特征,并通过1x1卷积固定特征图维度。接着,通过反卷积级联提升特征图分辨率,实现空间尺寸一致性。此外,技术还采用语义特征指导候选区域生成网络在多尺度特征图上生成更匹配的目标候选框,并进行Anchor修正。本发明提高了目标检测的准确性和实时性,能在复杂环境下快速准确检测目标。
背景技术
随着计算机视觉技术的快速发展,目标检测技术已成为人工智能和计算机视觉领域的研究热点,被广泛应用到军事和民用领域。目标检测主要针对视频图像序列中一种或者多种特定目标,对其进行识别与定位。在多数情况下,视频图像采集设备包含丰富的视觉内容,虽然能提供更全面的场景信息,但是待检测的目标在图像或视频中通常尺度变化较大、分布集中、存在遮挡,且没有足够的检测细节,这导致了目前的目标检测算法无法有效提取目标特征,精准定位目标位置。因此,准确高效地检测目标对象是目标检测任务的关键问题之一。
近年来,基于深度学习的目标检测技术取得了巨大成功,不少学者开始研究利用深度学习方法进行目标检测。当前主流的目标检测算法主要分为两类,一类是基于回归方法的单阶段目标检测,一类是基于区域候选框的两阶段目标检测。前者主要是以YOLO系列为代表,其检测思路是将检测问题视为对目标位置和目标类别信息的回归分析问题,通过卷积神经网络直接输出检测结果;后者主要以R-CNN系列为代表,顾名思义。该方法将目标检测过程分为两个主要阶段,候选区域提取模块是第一个部分,通过主流的骨干网提取网络特征,用于检测背景和前景区域,第二个阶段则是对候选区域进行分类和坐标修正,完成目标的准确检测。前者虽然速度较快,但是精度却不尽如人意;后者由于需要进行两次卷积网络运算,这无疑会导致两阶段检测网络有较高的检测精度,但是在一定程度上降低了检测速度。然而随着卷积神经网络的发展,各种轻量化骨干网(如ShuffleNet、MobileNet等)、卷积方式(如深度卷积、可分离卷积、点卷积等)以及不同的连接方式(比如SkipConnection等)的出现,使得网络复杂度和计算复杂度不断降低,同时,硬件设备不断发展,也为目标检测速度的提升奠定了基础。此外,随着卷积神经网络的广泛应用,反卷积也随之进入人们的视线,反卷积作为卷积的逆过程,能有效的解决深层卷积操作带来特征图分辨率降低、特征丢失等问题,是进行多尺度特征融合的一种重要的手段。
现有的方法存在的不足:一方面,传统的经典目标检测算法受限于人工设计的手工特征和选择性搜索算法,导致目标检测精度低、检测速度慢,算法鲁棒性差;另一方面,基于深度学习的目标检测虽然精度有所提升,但是卷积神经网络存在大量参数,算法结构复杂度高,计算量大,很难满足实时性需求。
实现思路