期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
面向自动驾驶的BEV感知算法研究进展 被引量:3
1
作者 时培成 董心龙 +1 位作者 杨爱喜 齐恒 《华中科技大学学报(自然科学版)》 北大核心 2025年第5期104-127,共24页
为进一步促进鸟瞰图(BEV)感知算法研究及性能改善,论述了BEV感知的优势和最新工作,介绍了BEV感知的相关数据集和性能评估指标;总结了近年来的BEV感知处理方法,从BEV感知的传感器输入数据出发,将BEV感知分类为BEV相机、BEV激光雷达和BEV... 为进一步促进鸟瞰图(BEV)感知算法研究及性能改善,论述了BEV感知的优势和最新工作,介绍了BEV感知的相关数据集和性能评估指标;总结了近年来的BEV感知处理方法,从BEV感知的传感器输入数据出发,将BEV感知分类为BEV相机、BEV激光雷达和BEV融合三种,并对三类算法和解决方案展开了深入阐述.其中,BEV相机根据几何变换方法分为显式变换和隐式变换,显式变换又可分为“2D-3D”和“3D-2D”方法,隐式变换可分为基于Transformer和基于多层感知器(MLP)的神经网络模型方法;BEV激光雷达根据点云特征提取的方法可分为基于体素的方法和基于支柱(Pillar)的方法;根据来自多个传感器输入数据形式,BEV融合分为相机-激光雷达融合、时序-空间信息融合和深度-高度信息融合.此外,还指出了该领域未来研究的六大方向,旨在为从事BEV感知算法及相关技术的研究人员提供有益的见解,并期望激发更多学者对BEV感知领域的研究与应用投入更多的关注与探索. 展开更多
关键词 自动驾驶 鸟瞰图(bev) bev相机 bev激光雷达 bev融合
原文传递
BEV空间下实现多传感器感知任务研究
2
作者 杨超杰 白恩军 《内燃机与配件》 2025年第5期14-16,共3页
源于自动驾驶的新需求,开始从先前的高速高架场景延伸到更加复杂的城区场景。不再单单依赖前后传感器检测到的物体,L2+的传感器开始要关注周围的环境了。先前研究方法是在图像中进行三维检测,会存在物体间的遮挡、重叠等问题。将其投影... 源于自动驾驶的新需求,开始从先前的高速高架场景延伸到更加复杂的城区场景。不再单单依赖前后传感器检测到的物体,L2+的传感器开始要关注周围的环境了。先前研究方法是在图像中进行三维检测,会存在物体间的遮挡、重叠等问题。将其投影到BEV空间可以有效地避免这种情况,BEV空间可以提供自车车辆周围360°的鸟瞰图,显示物体间的相对位置关系,可以帮助做出更准确的决策。针对上述情况,本文提出了一种在BEV空间中实现融合鱼眼相机与线性相机的多视角传感器感知任务。 展开更多
关键词 自动驾驶汽车 bev 线性相机 鱼眼相机
在线阅读 下载PDF
基于自动泊车的BEV系统研究
3
作者 黄烁 《现代工程科技》 2024年第12期97-100,共4页
结合自动驾驶鸟瞰图(Bird's Eye View,BEV)项目案例,针对基于自动泊车系统的BEV算法开展研究。BEV是端到端的,由神经网络将图像信息从图像空间转换至BEV空间的技术。与传统图像空间感知相比,BEV感知可将多个传感器采集的数据输入到... 结合自动驾驶鸟瞰图(Bird's Eye View,BEV)项目案例,针对基于自动泊车系统的BEV算法开展研究。BEV是端到端的,由神经网络将图像信息从图像空间转换至BEV空间的技术。与传统图像空间感知相比,BEV感知可将多个传感器采集的数据输入到同一空间进行处理,有效避免误差叠加。系统采用环视鱼眼摄像机,通常用于自动驾驶中的近距离感知,车辆四面的4个鱼眼摄像头足以覆盖车辆周围360°的范围,捕捉整个近距离区域,将摄像头感知画面直接传至人工智能(Artificial Intelligence,AI)算法中,生成鸟瞰视角的3D空间,最终研发完成具有自动泊车、自动驾驶功能的BEV系统。 展开更多
关键词 bev自动驾驶系统 自动泊车 鱼眼相机 AI算法
在线阅读 下载PDF
基于鱼眼相机的交通场景深度增强BEV感知技术研究
4
作者 徐启敏 刘洋 +1 位作者 吕佳轩 张鸷 《中国公路学报》 2026年第3期19-33,共15页
基于鸟瞰图(Bird's Eye View,BEV)的感知能够为自动驾驶提供视角更全面的动态语义地图,鱼眼相机具有视角广的特点,但也存在畸变严重的问题,当其用于BEV感知时,反而导致精度下降。为此,提出一种基于交通场景深度信息增强的鱼眼相机BE... 基于鸟瞰图(Bird's Eye View,BEV)的感知能够为自动驾驶提供视角更全面的动态语义地图,鱼眼相机具有视角广的特点,但也存在畸变严重的问题,当其用于BEV感知时,反而导致精度下降。为此,提出一种基于交通场景深度信息增强的鱼眼相机BEV感知方法。首先,以视觉Transformer模型为基础架构,通过设计球面窗口以及位置嵌入和多头注意力计算等模块后,建立一种更适合鱼眼图像的特征提取网络;接着,提出一种深度估计模型网络架构来提升鱼眼图像的深度估计精度,将图像的语义信息引入深度估计网络的解码层,引导深度预测过程;最后,结合鱼眼图像的深度估计与Transformer模型,通过深度信息增强模块将预测的深度信息用于构造深度查询向量,引导Transformer解码器实现从列特征到BEV特征的映射,最终通过语义分割网络输出BEV语义图。结果表明:在SynWoodscape数据集上,BEV感知的mIoU提升至50.7%,相比于基线模型HFT提升了4.8%,验证了所提方法在鱼眼图像BEV感知任务中的有效性。 展开更多
关键词 交通工程 交通环境感知 bev感知 深度增强 鱼眼相机
原文传递
基于DDL-BEV的自动驾驶雷视融合感知方法研究
5
作者 陈晶晶 上官伟 +2 位作者 陈俊杰 柴琳果 邱威智 《中国公路学报》 2026年第3期62-74,共13页
环境感知作为自动驾驶的核心技术,其性能直接决定了智能汽车的决策水平与行驶安全性,为提升自动驾驶汽车在复杂场景下的三维目标检测精度和鲁棒性,针对当前鸟瞰图(BEV)融合感知存在的图像边缘语义缺失与点云背景噪声干扰问题,提出了一... 环境感知作为自动驾驶的核心技术,其性能直接决定了智能汽车的决策水平与行驶安全性,为提升自动驾驶汽车在复杂场景下的三维目标检测精度和鲁棒性,针对当前鸟瞰图(BEV)融合感知存在的图像边缘语义缺失与点云背景噪声干扰问题,提出了一种基于深度边缘检测、动态查询与激光雷达-相机交叉注意力的多尺度动态融合感知方法(DDL-BEV)。首先,构建深度边缘检测网络,通过双分支特征提取与交互,融合深度信息与边缘语义特征,优化图像BEV空间特征;其次,设计动态体素化查询模块,将激光点云体素化为柱状网格并投影至BEV特征空间,通过前景位置动态感知有效降低背景噪声干扰;最后,设计LiDAR-Camera交叉注意力融合机制,结合多分支空洞卷积特征增强模块构建层次化特征交互架构,融合激光点云和相机图像BEV特征,实现跨模态特征优势互补,将融合后的特征输入到DDL-BEV的目标检测头预测出3D目标检测结果。在nuScenes数据集上的试验表明:提出的DDL-BEV融合算法的平均检测精度mAP和综合检测得分NDS分别达到69.3%和71.9%,相较于基准BEVFusion方法分别提高了1.5%和1.3%;在夜晚、雨天、转弯、交叉口等特殊场景下,DDL-BEV的mAP分别提升了6.7%、5.42%、5.45%、4.65%,场景敏感度由14.11%降低至8.33%。试验结果证明DDL-BEV检测算法在光照不足、遮挡环境与雨雾干扰等场景中具有更强的检测鲁棒性。 展开更多
关键词 汽车工程 自动驾驶感知 DDL-bev 深度边缘检测 雷达-图像交叉融合
原文传递
基于红外与激光雷达融合的鸟瞰图空间三维目标检测算法 被引量:12
6
作者 王五岳 徐召飞 +3 位作者 曲春燕 林颖 陈玉峰 廖键 《光子学报》 EI CAS CSCD 北大核心 2024年第1期66-77,共12页
结合MEMS激光雷达和红外相机的优势,设计了一种简单轻量、易于扩展、易于部署的可分离融合感知系统实现三维目标检测任务,将激光雷达和红外相机分别设置成独立的分支,两者不仅能独立工作也能融合工作,提升了模型的部署能力。模型使用鸟... 结合MEMS激光雷达和红外相机的优势,设计了一种简单轻量、易于扩展、易于部署的可分离融合感知系统实现三维目标检测任务,将激光雷达和红外相机分别设置成独立的分支,两者不仅能独立工作也能融合工作,提升了模型的部署能力。模型使用鸟瞰图空间作为两种不同模态的统一表示,相机分支和雷达分支分别将二维空间和三维空间统一到鸟瞰图空间下,融合分支使用门控注意力融合机制将来自不同分支的特征进行融合。通过实际场景测试验证了算法的有效性。 展开更多
关键词 多传感器融合 激光雷达 红外相机 鸟瞰图 三维目标检测
在线阅读 下载PDF
车路两端纯视觉鸟瞰图感知研究综述 被引量:4
7
作者 周松燃 卢烨昊 +3 位作者 励雪巍 傅本尊 王井东 李玺 《中国图象图形学报》 CSCD 北大核心 2024年第5期1169-1187,共19页
纯视觉鸟瞰图(bird's-eye-view,BEV)感知是国内外自动驾驶领域的前沿方向与研究热点,旨在通过相机2D图像信息,生成3D空间中周围道路环境俯视视角下的特征表示。该领域在单车智能方向上迅速发展,并实现大量落地部署。但由于车端相机... 纯视觉鸟瞰图(bird's-eye-view,BEV)感知是国内外自动驾驶领域的前沿方向与研究热点,旨在通过相机2D图像信息,生成3D空间中周围道路环境俯视视角下的特征表示。该领域在单车智能方向上迅速发展,并实现大量落地部署。但由于车端相机的安装高度受限,不可避免地面临着远距离感知不稳定、存在驾驶盲区等实际问题,单车智能仍存在着一定的安全性风险。路端摄像头部署在红绿灯杆等高处基础设施上,能够有效扩展智能车辆的感知范围,补充盲区视野。因此,车路协同逐渐成为当前自动驾驶的发展趋势。据此,本文从相机部署端和相机视角出发,将纯视觉BEV感知技术划分为车端单视角感知、车端环视视角感知和路端固定视角感知三大方向。在每一方向中,从通用处理流程入手梳理其技术发展脉络,针对主流数据集、BEV映射模型和任务推理输出三大模块展开综述。此外,本文还介绍了相机成像系统的基本原理,并对现有方法从骨干网络使用统计、GPU(graphics processing unit)类型使用统计和模型性能统计等角度进行了定量分析,从可视化对比角度进行了定性分析。最后,从场景多元、尺度多样分布等技术挑战和相机几何参数迁移能力差、计算资源受限等部署挑战两方面揭示了当前纯视觉BEV感知技术亟待解决的问题。并从车路协同、车车协同、虚拟现实交互和统一多任务基座大模型4个方向对本领域的发展进行了全面展望。希望通过对纯视觉BEV感知现有研究以及未来趋势的总结为相关领域研究人员提供一个全面的参考以及探索的方向。 展开更多
关键词 自动驾驶感知 纯视觉bev感知 路端固定视角感知 车端移动视角感知 多视角图像融合
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部