本技术方案介绍了一种高效的低样本图像识别技术,运用卷积高斯过程,旨在图像识别领域提升分类准确性。该方法涵盖了构建适用于低样本图像分类的神经网络模型,并在模型训练的每次迭代中使用特定的迭代策略,以增强模型的泛化能力和分类准确性。
背景技术
随着计算机硬件设备算力的不断增强、可用数据的不断积累以及算法或模型愈发先进,人工智能和人类在某些领域差距越来越小。而人工智能取得如此辉煌的成绩离不开深度学习的快速发展,但是深度学习模型往往需要大量有标注的数据集。尤其是在图像识别领域,大量有标注图像的训练是深度图像识别模型成功运用的关键。在现实场景中,由于成本较大或者难以获取等问题,往往无法获得大量的有标注的数据。因此,在很多场景下,深度学习模型无法发挥作用。相比之下,人类就可以仅通过几次演示就快速学习新的任务。在人类这种能力的驱使下,研究人员希望深度学习模型也可以在学习了大量的知识以后,仅通过少量的标注图像,就能学习新的类别,这就是少样本图像识别要解决的问题。
目前少样本图像识别的主要方法分为三类,分别是基于数据增强的方法、基于元学习方法以及基于度量学习的方法。数据增强方法是指通过扩充和增强原始数据集来实现少样本学习。通常使用的两种扩充和增强方法:处理原始数据集本身和处理无标记或弱监督数据集。对原始数据集本身的处理往往涉及对原始数据集进行平移、旋转、剪切、拼接等操作。自监督学习通常用于处理无标记或弱监督数据集,由于这些数据集不需要标签,所以采集成本很低,数量巨大。可以通过使用它们创建一些预设任务来提高模型特征提取能力。元学习方法是指利用在多个任务中积累的先验知识实现少样本学习,从而在有限数据的情况下快速有效地适应新任务。最经典的做法是让模型具备‘学会学习’的能力,即通过在多个任务上的经验积累,优化模型的初始参数设置,使其能够在面对新任务时更快适应。元学习的好处在于可以用以前学过的知识来指导新任务,这往往可以在面对新任务时减少大量的参数调整过程,提高新任务的性能,避免重复计算和不必要的资源消耗。除了学习初始化参数之外,元学习方法还可以学习网络结构、优化器、损失函数等方面的参数。度量学习方法是指通过创建嵌入空间来实现少样本学习,其中来自同一类别的数据点距离更近,而来自不同类别的数据点相距较远。度量学习按照特征表示方法可以细分为图像级特征表示方法和局部特征表示方法。图像级表示方法旨在使用全局特征来表示图像类别。局部特征表示方法考虑到图像级特征方法会丢失大量局部语义信息的问题。
此外,少样本图像识别方法在设计过程中需要考虑的另一个关键因素是对不确定性的建模和利用,以进一步提升模型识别精度和预测的可信度。在机器学习领域对于不确定性感知方法的研究也十分广泛,现有的不确定性感知方法常将不确定性分为两类:偶然不确定性和认知不确定性。偶然不确定性表示观测值中固有的噪声,是数据所固有的,无法通过收集更多数据来减少。另一方面,认知不确定性通常用于解释模型参数的不确定性,反映了模型对数据的理解程度。因此,增加数据量可以降低认知不确定性。由于少样本学习的特殊性,很难获得足够量的数据。因此,模型更容易受到不确定性的干扰。
目前机器学习领域已经提出了少量方法来减少不确定性对模型的影响。在这些方法中,高斯过程模型因其贝叶斯非参数特性而备受关注。高斯过程可以被认为是一个强大的数学模型,其主要用途是概括函数的分布性质。这种方法的一个显著优势是它能够对各种复杂函数进行建模,同时量化不确定性。这种不确定性的量化对于少样本图像识别模型精度和可信度的提升具有重要作用。
实现思路