本技术介绍了一种利用多尺度特征融合Transformer技术进行大豆叶片病害识别的新方法。该方法首先从公共数据集中收集多种类型的大豆叶片病害图像,然后通过以下步骤实现识别:S1,数据集图像获取;S2,图像特征提取;S3,特征融合与分类。该技术提高了病害识别的准确性和效率。
背景技术
大豆是一种重要的豆科植物,是全球范围内种植最广泛的经济作物之一。大豆富含蛋白质和油脂,是人类和牲畜重要的食物来源,也是工业用途广泛的原料。然而,大豆病害约占年均产量损失的15%-30%,大豆叶片病害作为大豆病害中较为常见的一类,对大豆的产量和品质具有直接的负面影响,对农民和消费者也会造成一定的损失。因此,快速准确地识别大豆叶片病害对于农业生产和经济发展是至关重要的。
目前,传统的病害识别方法主要依赖于人工经验,准确率和效率较低。近年来,随着人工智能和计算机视觉技术的迅猛发展,机器学习方法和深度学习方法被应用在图像识别领域。但是,传统机器学习算法在特征提取和处理高维数据方面存在明显不足,而传统深度学习算法尤其是基于卷积神经网络(CNN)的模型尽管在自动特征提取和处理复杂数据方面表现出色,但是局部连接结构限制了其对全局信息的建模能力。同时,在实际使用过程中,所获取的大豆叶片图像的大小和形状可能会有较大的变化,卷积神经网络(CNN)无法很好地适应不同的尺度。
因此,需要设计一种用于识别大豆叶片病害的深度学习模型,该方法能够克服卷积神经网络无法兼顾全局特征和局部特征的不足,以实现对不同尺度图像的全局信息的处理。
实现思路