期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于生成式对抗网络及自注意力机制的无监督单目深度估计和视觉里程计
被引量:
8
1
作者
叶星余
何元烈
汝少楠
《机器人》
EI
CSCD
北大核心
2021年第2期203-213,共11页
提出了一种基于生成式对抗网络(GAN)和自注意力机制(self-attention mechanism)的单目视觉里程计方法,命名为SAGANVO(SAGAN visual odometry).该方法将生成式对抗网络学习框架应用于深度估计和视觉里程计任务中,通过GAN生成逼真的目标...
提出了一种基于生成式对抗网络(GAN)和自注意力机制(self-attention mechanism)的单目视觉里程计方法,命名为SAGANVO(SAGAN visual odometry).该方法将生成式对抗网络学习框架应用于深度估计和视觉里程计任务中,通过GAN生成逼真的目标帧来准确求解出场景的深度图和6自由度位姿.与此同时,为了提高深度网络对场景细节、边缘轮廓的学习能力,将自注意力机制结合到网络模型中.最后,在公开数据集KITTI上展现了所提出的模型和方法的高质量结果,并与现有方法进行了对比,证明了SAGANVO在深度估计和位姿估计中的性能优于现有的主流方法.
展开更多
关键词
单目视觉里程计
深度估计
生成式对抗网络
无监督深度学习
原文传递
题名
基于生成式对抗网络及自注意力机制的无监督单目深度估计和视觉里程计
被引量:
8
1
作者
叶星余
何元烈
汝少楠
机构
广东工业大学计算机学院
出处
《机器人》
EI
CSCD
北大核心
2021年第2期203-213,共11页
基金
国家自然科学基金(61876043)。
文摘
提出了一种基于生成式对抗网络(GAN)和自注意力机制(self-attention mechanism)的单目视觉里程计方法,命名为SAGANVO(SAGAN visual odometry).该方法将生成式对抗网络学习框架应用于深度估计和视觉里程计任务中,通过GAN生成逼真的目标帧来准确求解出场景的深度图和6自由度位姿.与此同时,为了提高深度网络对场景细节、边缘轮廓的学习能力,将自注意力机制结合到网络模型中.最后,在公开数据集KITTI上展现了所提出的模型和方法的高质量结果,并与现有方法进行了对比,证明了SAGANVO在深度估计和位姿估计中的性能优于现有的主流方法.
关键词
单目视觉里程计
深度估计
生成式对抗网络
无监督深度学习
Keywords
monocular visual odometry
depth estimation
generative adversarial network(GAN)
unsupervised deep learning
分类号
TP239.41 [自动化与计算机技术—检测技术与自动化装置]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于生成式对抗网络及自注意力机制的无监督单目深度估计和视觉里程计
叶星余
何元烈
汝少楠
《机器人》
EI
CSCD
北大核心
2021
8
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部