基于GraspYOLO的垃圾分类分拣系统研究与实现

来源 :长安大学 | 被引量 : 0次 | 上传用户:lovinglixia
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
目前,生活垃圾分类分拣工作主要依靠人力完成,需要大量的人工劳动且效率低下。采用计算机视觉方法能够识别摄像头视野内的垃圾类别并确定其抓取位姿,减少大量人工劳动且提高识别精度。因此,本文将研究基于计算机视觉的垃圾检测算法并结合机械臂完成抓取与分拣动作,具体进行以下研究和工作:第一,实现了一种单阶段多尺度的抓取识别算法,通过将抓取检测技巧引入目标检测算法,设计了基于YOLOv4的抓取识别神经网络GraspYOLO,输出线段型的抓取位姿标记并采用基于距离的非极大值抑制算法Dist NMS进行筛选,实现了RGB图像上目标类别和抓取位姿的同步检测。第二,建立并标注了生活垃圾图像数据集,对采集的生活垃圾图像进行分类并在不同类别的图像上分别使用深度卷积生成对抗网络进行扩充,增强了数据集的样本量和垃圾形状表现,进一步提高了GraspYOLO的泛化能力。第三,设计了面向线段型抓取标记的抓取位姿复原方法,通过九点标定法获取手眼变换矩阵并结合深度摄像机将GraspYOLO的输出转换为三维抓取位姿,从而控制机械臂完成目标垃圾的抓取和分拣任务,简化的位姿表示方法提高了机械臂抓取效率。最后,对本文算法及系统进行测试。GraspYOLO的检测速度为28fps,相比YOLOv4提升约21%,达到实时检测的要求。在测试集图像上,GraspYOLO的正确检测率为95.3%;在真实场景下,整个系统的成功抓取率为89.33%,平均单次分拣时间为2.12秒。实验结果表明,GraspYOLO可以满足垃圾分类分拣系统的抓取识别需求。
其他文献