本技术公开一种基于深度学习的复杂条件下杂草目标识别方法,该方法首先对数据集通过LabelMe软件完成半自动标注后借助CVAT,即ComputerVisionAnnotation Tool,进行手动标注;然后,改进CoatNet检测网络的Transformer架构,在DCMHA中引入高斯噪声检测层,并引入Dropout正则化技术,提高计算效率;进一步,改进Coatnet网络结构并加深网络层次以提高网络对复杂目标的特征提取能力;再此基础上,设计非对称平滑焦点损失函数,即Asymmetric SmoothedFocal Loss函数,将交叉熵函数换为焦点损失函数,即Focal Loss函数,引入标签平滑策略和非对称性;最后,将原始视频图像输入训练所得的深度网络,得到最终杂草识别的结果。该方法增强细节信息的表达能力,对于复杂条件下杂草目标识别任务有更强的鲁棒性。
背景技术
目标检测识别是农业除草领域的一个重要内容,当前除杂草主要有化学除草和机械除草两种方式,农药除草剂的使用会导致土壤和水源的污染,影响全球生态系统的健康,破坏生物多样性,并可能引发抗药性杂草的扩散,长期使用还会对全球气候变化产生间接影响,影响生态平衡和人类健康,而机械除草通过目标识别检测方法,能够有效区分作物和杂草,从而提高除草效率,减少资源浪费,并降低对环境的负面影响。在该背景下,机械除草的方法变得越来越重要。因此,为了提高杂草目标识别任务的效率、鲁棒性和准确率,如今农业除草正朝着全自动化、全智能化方向发展,从而减少资源的浪费,保护生态环境。
随着全球变暖、生物多样性丧失、污染、资源过度开发和生态系统退化的问题逐渐严峻,化学除草的方法已越来越不可行,而杂草检测识别的任务效率会直接影响机械除草效率,从而间接影响整个地方的农作物生长情况。近年来,随着深度学习技术被广泛应用到目标检测识别领域,极大地提升了杂草识别检测任务的效率和准确率。利用这些技术,系统可以从干旱、盐碱、肥沃等不同的土壤情况的图像或视频中准确地检测、识别和提取出杂草信息。这种自动化的过程可以显著提高机械除草的效率,并减少对环境的破坏。但是,在实际应用过程中,因处于自然场景下,由于光照、天气和拍摄角度、拍摄距离、路面颠簸等问题产生的高曝光、拍摄模糊和主体不清晰等情况,使得传统的基于深度学习的杂草测识别方法仍有很多不理想的地方。
对于注意力机制方面,Vaswani等人(Vaswani A,Shardlow T,et al.Attentionis All You Need[C]//Proceedings of the 31st International Conference onNeural Information Processing Systems.2017:5998-6008.)提出的多头注意力机制在捕捉不同特征子空间的关系方面表现出色。这种机制通过并行计算多个注意力头,可以更有效地提取杂草与作物之间的细微差异,增强模型对于复杂背景中小目标的辨识能力。然而,计算开销较大,尤其是在高分辨率图像处理时,仍需关注其效率优化。对于网络结构方面,Yu等人(Yu F,Koltun V.Multi-Scale Context Aggregation by DilatedConvolutions[J].arXiv preprint arXiv:1511.07122,2015.)提出的扩张卷积网络,通过增加感受野而不增加参数量,为杂草检测提供了更丰富的上下文信息。这一结构可以更好地应对背景复杂和目标小型化带来的挑战,提高了杂草的检测精度。不过,这种方法在处理极小目标时,仍需结合其他技术以提高整体性能。对于损失函数的设计方面,Lin等人(LinT,Goyal P,Girshick R,et al.Focal Loss for Dense Object Detection[C]//Proceedings of the IEEE International Conference on Computer Vision.2017:2980-2988.)提出的Focal Loss有效解决了类别不平衡的问题,尤其适用于小目标检测。通过调整损失函数的焦点,使得模型对难以分类的样本给予更多关注,显著提升了在复杂场景中的杂草识别能力。然而,调试和选择合适的超参数仍然是一个挑战,需要根据具体数据集进行优化。
综上所述,虽然基于深度学习的杂草检测识别技术已有一定的发展,但是由于实际场景光照变化、杂草背景复杂、杂草存在异物遮挡、不同车型摄像头拍摄角度存在差异等,故还需要对其进行改进,以更好地满足农业除草工作的高效率和高准确率的需求。这将为农业除草领域带来更高效、智能的操作和管理,推动整个农业机械除草的发展和提升。
实现思路