本技术公开了一种人机共融环境下异构传感信息融合与点云配准的系统与方法,针对深度相机与激光雷达两者之间的点云稠密程度不同、范围尺度存在明显差异,点云排列规律完全不同,传感信息融合面临挑战的问题,通过滑动球点云粗定位、基于重合比例的改进FPFH算法进行粗配准,以及基于对应点生成的改进ICP算法进行精配准,解决了点云范围尺度差异和疏密差异问题,实现了在人机共融环境下,深度相机与激光雷达之间的传感信息准确融合与点云配准,同时也能应对室内环境下尤其是机器人非平面特征的情况,满足了人机共融安全检测对多源传感信息融合的要求。
背景技术
随着现代制造业的不断发展,机器人技术正在经历巨大的飞跃,人机共融的工作模式逐渐成为了智能制造的发展方向,人机协作过程中的安全保障成为了亟需解决的问题。多传感器融合是监控现场环境,保障人机安全的关键技术之一,以典型的深度相机与激光雷达为例,深度相机可以通过拍照采集现场区域点云与图像,提供丰富的视觉信息,激光雷达可以通过激光束探测目标,采集的点云数据精度高、抗干扰性好。深度相机与激光雷达的多传感器融合可实现信息互补,得到工业现场更丰富的三维环境信息,为人机安全监测提供数据支持,是保障人机协作安全的重要解决方案。
然而受限于深度相机与激光雷达的物理性质影响,深度相机采集的点云为稠密点云,点云范围较小,激光雷达采集范围广,但缺乏色彩和纹理信息,采集点云为稀疏点云,点云密度受到激光雷达线束限制,两者之间的点云稠密程度不同、范围尺度存在明显差异,点云排列规律完全不同,成为深度相机与激光雷达传感信息融合面临的主要挑战。除此之外,人机共融背景下的环境以室内环境为主,涉及到机器人等多种非平面特征,增大了传感信息融合的难度。
目前在多传感器融合研究领域,大多数研究者研究彩色相机与激光雷达的数据融合,即图片与点云之间的关联,对深度相机与多线激光雷达数据融合的研究较少;在点云配准领域,目前大多数研究者针对公开数据集进行点云配准算法的研究,如The Stanford 3DScanning Repository,3D Match,Sydney Urban Objects Dataset等等,然而上述数据集并没有涉及到稀疏点云与稠密点云,大范围点云与小范围点云之间的配准,因此,研究人机协作环境下的深度相机与激光雷达传感器信息融合与点云配准仍具有重要的研究意义。
实现思路