摘要:针对人机协同装配环境复杂多变且装配零件尺度差异大、部分零件相似度高的特征,为保证人机协作装配过程中机器人准确抓取装配零件,提出了一种改进的YOLOv7模型来提高装配场景中多零件目标检测效果。首先,采用ODConv(Omni-Dimensional Dynamic Convolution)替换YOLOv7主干网络中的卷积层,使其能够自适应调整卷积核的权值,提取不同形状、大小的装配零件的特征。其次,在YOLOv7主干网络中引入SimAM(Selective Image Attention Mechanism)模块来减轻复杂多变的装配环境背景对零件检测准确率的影响。最后,使用Efficient-IOU替换原始的Complete-IOU来加速收敛,同时降低部分装配零件相似度高对检测准确率的影响。实验结果表明,该模型的平均准确率为93.4%,改进后的网络优于原始网络和其他目标检测算法。所提出的改进YOLOv7算法在保持高精度的同时具有较高的FPS,模型参数和计算量也相对较低,适合动态人机协同装配场景下实时目标检测要求。
文章目录
1 引言
2 YOLOv7算法模型
3 改进的YOLOv7模型
3.1 全维动态卷积
3.2 SimAM模块
3.3 Efficient-IOU 损失函数
4 消融实验与结果分析
4.1 实验环境
4.2 数据集构建
4.3 实验指标
4.4 实验分析
5 结论