基于感兴趣区域的物体抓取位姿检测

TP242; 在工业生产中,待抓取物体往往具有种类众多、摆放位置杂乱、形状不规则等特点,使得难以准确获取物体抓取位姿.针对以上问题,提出一种基于深度学习的两阶段抓取位姿估计方法.第1阶段,提出一种基于YOLOv4(you only look once version4)改进的轻量级旋转目标检测算法,提高目标的检测速度和检测精度.首先,使用轻量化网络GhostNet和深度可分离卷积对原始网络进行重构,降低整个模型参数.然后,在颈部网络中增加自适应空间特征融合结构和无参注意力模块,提高对感兴趣区域的定位精度;最后,使用近似倾斜交并比(skew intersection over union,Ske...

Full description

Saved in:
Bibliographic Details
Published in系统工程与电子技术 Vol. 46; no. 6; pp. 1867 - 1877
Main Authors 孙先涛, 江汪洋, 陈文杰, 陈伟海, 智亚丽
Format Journal Article
LanguageChinese
Published 安徽大学电气工程与 自动化学院,安徽合肥 230601%北京航空航天大学自动化科学与电气工程学院,北京 100191 01.06.2024
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:TP242; 在工业生产中,待抓取物体往往具有种类众多、摆放位置杂乱、形状不规则等特点,使得难以准确获取物体抓取位姿.针对以上问题,提出一种基于深度学习的两阶段抓取位姿估计方法.第1阶段,提出一种基于YOLOv4(you only look once version4)改进的轻量级旋转目标检测算法,提高目标的检测速度和检测精度.首先,使用轻量化网络GhostNet和深度可分离卷积对原始网络进行重构,降低整个模型参数.然后,在颈部网络中增加自适应空间特征融合结构和无参注意力模块,提高对感兴趣区域的定位精度;最后,使用近似倾斜交并比(skew intersection over union,SkewIoU)损失解决角度的周期性问题.第2阶段,制作与原始图片尺寸一样的掩膜提取感兴趣区域;同时,提出一种改进的DeepLabV3+算法,用以检测感兴趣区域中物体的抓取位姿.实验结果表明,改进后的YOLOv4网络检测精度达到92.5%,改进的DeepLabV3+算法在Cornell抓取数据集上的图像拆分和对象拆分精度分别达到94.6%,92.4%,且能准确检测出物体的抓取位姿.
ISSN:1001-506X
DOI:10.12305/j.issn.1001-506X.2024.06.05