期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于多视角融合的机器人抓取位姿估计模型
1
作者
杨红玲
代路
解仑
《科学技术与工程》
北大核心
2026年第9期3616-3625,共10页
为解决机械臂抓取时因物体对称性和遮挡等因素引发的位姿估计难题,通过融合多视角RGB-D数据的方法研究了目标物体的六自由度位姿估计问题。该方法基于单视角位姿估计框架,利用三维关键点投票网络对各视角场景中的三维关键点进行独立预测...
为解决机械臂抓取时因物体对称性和遮挡等因素引发的位姿估计难题,通过融合多视角RGB-D数据的方法研究了目标物体的六自由度位姿估计问题。该方法基于单视角位姿估计框架,利用三维关键点投票网络对各视角场景中的三维关键点进行独立预测,并通过置信度评分、加权融合以及均值偏移聚类实现多视角信息的有效整合,最终完成目标物体位姿的精确求解。结果表明:该方法在对称与遮挡场景下能够显著提升位姿估计精度;多视角融合策略有效增强了关键点的预测稳定性与鲁棒性;在桌面环境下的自主抓取实验中显著提高了抓取成功率与执行效果。实验证明,所提出的方法在复杂抓取场景中具有良好的适应性和应用价值,能有效提高在非结构化场景下的作业自主性,还为解决复杂工况下的智能装配作业提供了关键技术支撑,具有广阔的产业应用前景。
展开更多
关键词
场景融合
位姿估计
均值偏移
关键点
多视角
机器人抓取
在线阅读
下载PDF
职称材料
题名
基于多视角融合的机器人抓取位姿估计模型
1
作者
杨红玲
代路
解仑
机构
北京科技大学计算机与通信工程学院
出处
《科学技术与工程》
北大核心
2026年第9期3616-3625,共10页
基金
京津冀基础研究合作专项项目(F2024202118)。
文摘
为解决机械臂抓取时因物体对称性和遮挡等因素引发的位姿估计难题,通过融合多视角RGB-D数据的方法研究了目标物体的六自由度位姿估计问题。该方法基于单视角位姿估计框架,利用三维关键点投票网络对各视角场景中的三维关键点进行独立预测,并通过置信度评分、加权融合以及均值偏移聚类实现多视角信息的有效整合,最终完成目标物体位姿的精确求解。结果表明:该方法在对称与遮挡场景下能够显著提升位姿估计精度;多视角融合策略有效增强了关键点的预测稳定性与鲁棒性;在桌面环境下的自主抓取实验中显著提高了抓取成功率与执行效果。实验证明,所提出的方法在复杂抓取场景中具有良好的适应性和应用价值,能有效提高在非结构化场景下的作业自主性,还为解决复杂工况下的智能装配作业提供了关键技术支撑,具有广阔的产业应用前景。
关键词
场景融合
位姿估计
均值偏移
关键点
多视角
机器人抓取
Keywords
scene fusion
pose estimation
manshift
keypoints
multi-view
robotic grasping
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于多视角融合的机器人抓取位姿估计模型
杨红玲
代路
解仑
《科学技术与工程》
北大核心
2026
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部