期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于单目视觉和改进YOLOv8-pose模型的篮筐位姿估计方法
1
作者
陈琳
徐震
+3 位作者
张春燕
吉晓升
成松松
黄嘉俊
《华南农业大学学报》
北大核心
2026年第1期106-117,共12页
【目的】当前设施大棚蔬菜采收装筐后的搬运作业仍以人工为主,存在效率低下、劳动强度大等问题,严重制约了农业生产的规模化与智能化发展。开发具备篮筐自主抓取功能的新型农业机器人,是破解该瓶颈、提升农业生产效率的关键技术路径。其...
【目的】当前设施大棚蔬菜采收装筐后的搬运作业仍以人工为主,存在效率低下、劳动强度大等问题,严重制约了农业生产的规模化与智能化发展。开发具备篮筐自主抓取功能的新型农业机器人,是破解该瓶颈、提升农业生产效率的关键技术路径。其中,基于计算机视觉技术实现对篮筐的精准位姿估计,是保障机器人抓取动作稳定可靠的核心前提与技术基础。然而,现有位姿估计方法的准确性与实时性难以满足复杂大棚环境下的实际作业需求,亟待进一步深入研究与优化。【方法】以YOLOv8-pose为基准模型,通过检测篮筐特征点并融合PnP算法估计篮筐位姿。首先,利用单目相机采集各种复杂背景下的篮筐RGB图像并制作成数据集。其次,在YOLOv8-pose模型基础上引入Biformer模块、GAM注意力机制和Focaler_GIoU损失函数,提升模型在复杂背景和遮挡情况下的关键点检测性能。最后,基于篮筐尺寸参数与检测到的关键点二维坐标,利用PnP算法求解篮筐在三维空间中的位姿参数。【结果】试验结果显示,关键点平均精度均值、准确率分别提升3.73、4.31个百分点,定位平均精准度提高了5.20像素,与手动标识的关键点之间的均方根误差为4.45像素。通过分析相机与篮筐距离对位姿估计精度的影响可知,在相机距离篮筐1.7~1.9 m时,位姿估计算法表现出较高的定位精度,表明相机与篮筐的相对距离对位姿估计精度具有重要影响。【结论】本研究提出的方法可为设施大棚场景下的篮筐位姿估计提供低成本、高精度的解决方案,为农业机器人抓取篮筐提供技术支撑。
展开更多
关键词
视觉识别
关键点检测
位姿估计
YOLOv8
农业机器人
在线阅读
下载PDF
职称材料
基于高动态范围图像中光晕分析的光照方向测算算法
被引量:
5
2
作者
李华
王旭阳
+1 位作者
杨华民
韩成
《计算机应用》
CSCD
北大核心
2016年第5期1387-1393,共7页
针对增强现实(AR)系统中复杂场景的光照一致性问题,运用高动态范围(HDR)图像处理技术对标识物图像进行分析,提出一种基于HDR图像中光晕分析的光照方向测算算法。为了提高虚拟物体的沉浸感和真实性,在研究和分析现有的光照恢复算法的基础...
针对增强现实(AR)系统中复杂场景的光照一致性问题,运用高动态范围(HDR)图像处理技术对标识物图像进行分析,提出一种基于HDR图像中光晕分析的光照方向测算算法。为了提高虚拟物体的沉浸感和真实性,在研究和分析现有的光照恢复算法的基础上,利用二次曲线对的投影不变性原理进行相机标定;为了获得更加详尽的光照信息,使用HDR技术对标识物图像进行处理,提高了测算精确度;参照Lambert光照模型对图像中的光照信息进行分析,将拍摄角度进行分类,实现了对传统测算光源方向算法的改进,可测算出位于摄影球反射范围外的部分光源的方向,扩大了测算范围。设计了针对单一点光源的视角1和视角2测算验证实验,并进行了分析。实验验证表明,所提方法简单易行,具有较强的鲁棒性,能够实现在标识物部分遮挡的情况下,测算出位于摄影球反射范围外部分光源的方向。
展开更多
关键词
增强现实
沉浸感
光照恢复
相机标定
高动态范围
在线阅读
下载PDF
职称材料
基于Transformer残差网络的事件重建算法
被引量:
1
3
作者
王立喜
刘云平
+1 位作者
汤琴琴
李家豪
《电子技术应用》
2024年第11期28-34,共7页
目前的人工视觉系统仍然无法处理一些涉及高速运动场景和高动态范围的真实世界场景。事件相机因其低延迟和高动态范围捕捉高速运动的优势具有消除上述问题的能力。然而,由于事件数据的高度稀疏和变化性质,在保证其快速性的同时将事件重...
目前的人工视觉系统仍然无法处理一些涉及高速运动场景和高动态范围的真实世界场景。事件相机因其低延迟和高动态范围捕捉高速运动的优势具有消除上述问题的能力。然而,由于事件数据的高度稀疏和变化性质,在保证其快速性的同时将事件重建为视频仍然具有挑战性。因此提出了一种基于Transformer残差网络和光流估计的事件流重建算法,通过光流估计和事件重建的联合训练,实现自监督的重建过程,并引入去模糊预处理和亚像素上采样模块来提高重建质量。实验结果表明,在公开数据集上,提出的方法可以有效提高事件流的重建效果。
展开更多
关键词
事件相机
视频重建
深度学习
光流估计
在线阅读
下载PDF
职称材料
题名
基于单目视觉和改进YOLOv8-pose模型的篮筐位姿估计方法
1
作者
陈琳
徐震
张春燕
吉晓升
成松松
黄嘉俊
机构
上海工程技术大学机械与汽车工程学院
上海市农业机械研究所
出处
《华南农业大学学报》
北大核心
2026年第1期106-117,共12页
基金
上海市农业科技创新项目(T2023215)。
文摘
【目的】当前设施大棚蔬菜采收装筐后的搬运作业仍以人工为主,存在效率低下、劳动强度大等问题,严重制约了农业生产的规模化与智能化发展。开发具备篮筐自主抓取功能的新型农业机器人,是破解该瓶颈、提升农业生产效率的关键技术路径。其中,基于计算机视觉技术实现对篮筐的精准位姿估计,是保障机器人抓取动作稳定可靠的核心前提与技术基础。然而,现有位姿估计方法的准确性与实时性难以满足复杂大棚环境下的实际作业需求,亟待进一步深入研究与优化。【方法】以YOLOv8-pose为基准模型,通过检测篮筐特征点并融合PnP算法估计篮筐位姿。首先,利用单目相机采集各种复杂背景下的篮筐RGB图像并制作成数据集。其次,在YOLOv8-pose模型基础上引入Biformer模块、GAM注意力机制和Focaler_GIoU损失函数,提升模型在复杂背景和遮挡情况下的关键点检测性能。最后,基于篮筐尺寸参数与检测到的关键点二维坐标,利用PnP算法求解篮筐在三维空间中的位姿参数。【结果】试验结果显示,关键点平均精度均值、准确率分别提升3.73、4.31个百分点,定位平均精准度提高了5.20像素,与手动标识的关键点之间的均方根误差为4.45像素。通过分析相机与篮筐距离对位姿估计精度的影响可知,在相机距离篮筐1.7~1.9 m时,位姿估计算法表现出较高的定位精度,表明相机与篮筐的相对距离对位姿估计精度具有重要影响。【结论】本研究提出的方法可为设施大棚场景下的篮筐位姿估计提供低成本、高精度的解决方案,为农业机器人抓取篮筐提供技术支撑。
关键词
视觉识别
关键点检测
位姿估计
YOLOv8
农业机器人
Keywords
Visual recognition
Keypoint detection
Pose estimation
YOLOv8
Agricultural robot
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
TP193.41 [自动化与计算机技术—控制理论与控制工程]
S24 [农业科学—农业电气化与自动化]
在线阅读
下载PDF
职称材料
题名
基于高动态范围图像中光晕分析的光照方向测算算法
被引量:
5
2
作者
李华
王旭阳
杨华民
韩成
机构
长春理工大学计算机科学技术学院
出处
《计算机应用》
CSCD
北大核心
2016年第5期1387-1393,共7页
基金
吉林省重大科技攻关项目(2012ZDGG004)~~
文摘
针对增强现实(AR)系统中复杂场景的光照一致性问题,运用高动态范围(HDR)图像处理技术对标识物图像进行分析,提出一种基于HDR图像中光晕分析的光照方向测算算法。为了提高虚拟物体的沉浸感和真实性,在研究和分析现有的光照恢复算法的基础上,利用二次曲线对的投影不变性原理进行相机标定;为了获得更加详尽的光照信息,使用HDR技术对标识物图像进行处理,提高了测算精确度;参照Lambert光照模型对图像中的光照信息进行分析,将拍摄角度进行分类,实现了对传统测算光源方向算法的改进,可测算出位于摄影球反射范围外的部分光源的方向,扩大了测算范围。设计了针对单一点光源的视角1和视角2测算验证实验,并进行了分析。实验验证表明,所提方法简单易行,具有较强的鲁棒性,能够实现在标识物部分遮挡的情况下,测算出位于摄影球反射范围外部分光源的方向。
关键词
增强现实
沉浸感
光照恢复
相机标定
高动态范围
Keywords
Augmented Reality(AR)
immersion
illumination recovering
camera calibration
High-Dynamic Range(HDR)
分类号
TP193.41 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
基于Transformer残差网络的事件重建算法
被引量:
1
3
作者
王立喜
刘云平
汤琴琴
李家豪
机构
南京信息工程大学自动化学院
无锡学院轨道交通学院
出处
《电子技术应用》
2024年第11期28-34,共7页
文摘
目前的人工视觉系统仍然无法处理一些涉及高速运动场景和高动态范围的真实世界场景。事件相机因其低延迟和高动态范围捕捉高速运动的优势具有消除上述问题的能力。然而,由于事件数据的高度稀疏和变化性质,在保证其快速性的同时将事件重建为视频仍然具有挑战性。因此提出了一种基于Transformer残差网络和光流估计的事件流重建算法,通过光流估计和事件重建的联合训练,实现自监督的重建过程,并引入去模糊预处理和亚像素上采样模块来提高重建质量。实验结果表明,在公开数据集上,提出的方法可以有效提高事件流的重建效果。
关键词
事件相机
视频重建
深度学习
光流估计
Keywords
event camera
video reconstruction
deep learning
optical flow estimation
分类号
TP193.41 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于单目视觉和改进YOLOv8-pose模型的篮筐位姿估计方法
陈琳
徐震
张春燕
吉晓升
成松松
黄嘉俊
《华南农业大学学报》
北大核心
2026
0
在线阅读
下载PDF
职称材料
2
基于高动态范围图像中光晕分析的光照方向测算算法
李华
王旭阳
杨华民
韩成
《计算机应用》
CSCD
北大核心
2016
5
在线阅读
下载PDF
职称材料
3
基于Transformer残差网络的事件重建算法
王立喜
刘云平
汤琴琴
李家豪
《电子技术应用》
2024
1
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部