核心提示
中文摘要:
在物体六自由度位姿估计任务中,现有算法在真实场景下对具有弱纹理性且摆放存在遮挡的工件难以实现准确的识别。为提高工件识别精度,提出一种基于深度学习改进的位姿估计算法。该算法采用编码器-解码器架构,引入大核注意力组成视觉注意力网络,聚焦不确定性关键点,增强特征提取能力。根据关键点对应构建密集点对关系,求解出候选位姿。实验结果表明,该算法在公共数据集和自建工业管件数据集上识别准确率分别达到了57.4%和62.1%。与高密度表面编码(Surfemb)算法相比准确率分别提升了5.5%和1.9%。这验证了该算法在遮挡场景下有更高的精准度和鲁棒性。
关键词:
位姿估计;密集对应;深度学习;大核注意力
阅读全文
·END·
部分文字、数据、图、表或其他内容来源于本刊已发表论文或互联网可公开获取资料,版权归该资料版权人所有。若读者或版权人认为本文涉嫌侵权或其他问题,请联系编辑部进行及时处理。
关注《武汉工程大学学报》杂志
了解杂志
请登录官网:http://www.jwit.org.cn/
联系我们
邮箱:jwit@vip.163.com
《武汉工程大学学报》投稿作者QQ群:573604634
电话:027-87195679
地址:湖北省武汉市洪山区雄楚大街693号 武汉工程大学学报编辑部
邮编:430074
编辑:霍淑利
制作:霍淑利,吴宇轩
审核:刘生鹏,张瑞