本技术涉及一种机械臂抓取目标检测方法和系统,所述方法包括,采集目标物料图像得到初始数据集;采用数据增强的方式对初始数据集进行预处理,得到目标数据集;以生成式残差卷积神经网络模型为基准模型构建改进的生成式残差卷积神经网络模型作为机械臂抓取目标检测网络模型;利用改进后的损失计算方法计算各输出损失和总损失,获得与实际可行抓取信息之间的差异,并获得训练权重;利用损失计算的结果对模型的权重进行更新,得到最优的训练权重,将测试集输入至所述训练后的机械臂抓取目标检测网络模型中得到机械臂抓取目标检测结果,本发明改进后的机械臂抓取目标检测网络模型提高了对抓取目标检测的精度和速度。
背景技术
近年来,机器人抓取技术逐渐成为研究热点,并已在家庭辅助、人机协作、工业制造及空间碎片清理等领域得到了广泛应用,在机器人与真实环境交互中,稳定和高效的抓取是实现可靠操作的关键环节,这对机器人的抓取效果和稳定性也提出了更高的要求。
目前,Pinto等人应用卷积神经网络(CNN)准确预测物体抓取姿态,大幅提升了网络的整体泛化性能。而Asif等人将CNN的多层特征进行逐层融合,并在全局、局部及像素级别上选择最可信的抓取配置作为输出,从而克服了感受野限制。Kumra等人进一步提出了基于RGB-D输入的GR-ConvNet,其输出包含抓取质量、旋转角度和开口宽度。
然而,由于该网络编码器仅由三层卷积组成,特征提取能力有限,且编码器采用较大的卷积核,导致初期计算量过高,主干网络深度不足,难以充分提取图像特征。此外,GR-ConvNet在处理输出时仅对抓取质量、旋转角度和开口宽度的输出进行简单相加,未能合理分配权重。针对上述不足,本文提出了改进型抓取检测模型FusedCNN,对原模型进行了全面优化,包括引入更高效的卷积结构、改进损失计算与预测机制。该模型提升了特征提取能力、计算效率和泛化性,使其在复杂抓取任务和计算机视觉应用中表现出更高的准确性和稳定性。
因此,基于目前抓取算法的基础上提出一种用于机器人抓取目标信息检测方法和系统。
实现思路