本技术披露了一种利用优化后的PointNet++算法的机械臂夹爪定位预测技术,覆盖计算机视觉与机器人技术。该技术包括:构建并训练一个基于改进PointNet++的定位预测模型;将目标物品的点云数据输入模型以预测抓取位置。模型由多个特征提取单元和一个全连接层组成,特征提取单元采用增强通道注意力机制的PointNet++,对点云数据进行深度特征提取;全连接层则输出最终的预测位置参数。该技术融合3D点云与深度学习,提升了机械臂的抓取精度,并在复杂环境中实现高效稳定的操作。
背景技术
随着工业自动化和智能制造的发展,机械臂在生产线上的应用越来越广泛。传统的机械臂目标检测主要依赖于二维图像处理技术,这在处理复杂场景或不同光照条件下往往存在局限性。此外,传统方法在目标物体的空间定位精度方面也常常无法满足高精度操作的需求。因此,开发一种能够准确定位三维空间中物体的机械臂目标抓取方法,对于提升机械臂的作业效率和灵活性具有重要意义。平行夹爪因其结构简单、控制方便而被广泛应用于机械臂上,用于完成从简单的搬运任务到复杂的组装工作。尽管平行夹爪机械臂已经在很多生产线上实现自动化操作,但它们在执行抓取任务时仍面临一系列挑战,特别是在处理多样化和未知环境中的物体时。
现有技术中,虽然已经有一些基于3D视觉的解决方案被提出,但这些方案往往需要复杂的硬件支持,且处理速度不足,难以满足实时操作的要求。此外,现有的深度学习方法虽然在图像识别领域取得了显著进展,但其在3D点云数据处理上的应用仍然面临着训练数据集有限、模型泛化能力不足等挑战。公开号为CN114211490A的中国发明申请公开了一种基于Transformer模型的机械臂抓手位姿预测方法,将Transformer模型应用于机械臂抓手位姿预测技术领域,通过计算点云的全局特征和局部特征,并通过多头自注意力模块获取点云特征,提升了机械臂抓手位姿信息的预测性能和效率,增强了鲁棒性;但该方法采用的Transformer模型计算复杂度较高,尤其是在处理大规模点云数据时,计算和内存开销显著增加;且该方法主要预测的是抓手的位姿信息(如抓手状态、中心点、旋转方向、宽度和深度),但没有直接考虑抓取成功率这一重要指标,这可能会影响实际应用中的抓取效果。
实现思路