期刊文献+
共找到18篇文章
< 1 >
每页显示 20 50 100
BEV感知学习在自动驾驶中的应用综述 被引量:3
1
作者 黄德启 黄海峰 +1 位作者 黄德意 刘振航 《计算机工程与应用》 北大核心 2025年第6期1-21,共21页
自动驾驶感知模块中作为采集输入的传感器种类不断发展,要使多模态数据统一地表征出来变得愈加困难。BEV感知学习在自动驾驶感知任务模块中可以使多模态数据统一融合到一个特征空间,相比于其他感知学习模型拥有更好的发展潜力。从研究... 自动驾驶感知模块中作为采集输入的传感器种类不断发展,要使多模态数据统一地表征出来变得愈加困难。BEV感知学习在自动驾驶感知任务模块中可以使多模态数据统一融合到一个特征空间,相比于其他感知学习模型拥有更好的发展潜力。从研究意义、空间部署、准备工作、算法发展及评价指标五个方面总结了BEV感知模型具有良好发展潜力的原因。BEV感知模型从框架角度概括为四个系列:Lift-Splat-Lss系列、IPM逆透视转换、MLP视图转换及Transformer视图转换;从输入数据概括为两类:第一类是纯图像特征的输入包括单目摄像头输入和多摄像头输入,第二类在融合数据输入中不仅是简单的点云数据和图像特征的数据融合,还包括了以点云数据为引导或监督的知识蒸馏融合和以引导切片方式去划分高度段的融合。概述了多目标追踪、地图分割、车道线检测及3D目标检测四种自动驾驶任务在BEV感知模型当中的应用,并总结了目前BEV感知学习四个系列框架的缺点。 展开更多
关键词 bev感知学习 视图转换 多模态数据融合 多目标追踪 地图分割 车道线检测及3D目标检测
在线阅读 下载PDF
基于BEV的AGV导航控制技术
2
作者 尹昊 高忱 +3 位作者 张旭堂 陈晓峰 马兴明 金天国 《计算机工程与设计》 北大核心 2025年第9期2562-2569,共8页
针对目前生产车间场景中AGV导航控制技术柔性差、部署成本高等问题,提出一种基于BEV的AGV导航控制技术。引入将多个相机视图转换为全局视图的方法,解决了单相机涵盖场景信息不全的问题;引入YOLO神经网络,对场景中的AGV标识码进行识别定... 针对目前生产车间场景中AGV导航控制技术柔性差、部署成本高等问题,提出一种基于BEV的AGV导航控制技术。引入将多个相机视图转换为全局视图的方法,解决了单相机涵盖场景信息不全的问题;引入YOLO神经网络,对场景中的AGV标识码进行识别定位,确定了全局场景中AGV的位置和姿态;引入改进A*路径规划算法和模糊自适应PID控制器,实现了AGV的路径规划和避障控制。实验结果表明,AGV的定位控制精度能够达到4 mm以内,方向误差达到3°以内,改进后的路径规划算法遍历的节点数量减少了48.65%,运行时间减少了65.81%,实现了高柔性、高精度、高效率的AGV导航控制。 展开更多
关键词 目标检测 神经网络 全局场景 鸟瞰视图 自动引导运输车 导航控制 路径规划
在线阅读 下载PDF
面向自动驾驶的BEV感知算法研究进展
3
作者 时培成 董心龙 +1 位作者 杨爱喜 齐恒 《华中科技大学学报(自然科学版)》 北大核心 2025年第5期104-127,共24页
为进一步促进鸟瞰图(BEV)感知算法研究及性能改善,论述了BEV感知的优势和最新工作,介绍了BEV感知的相关数据集和性能评估指标;总结了近年来的BEV感知处理方法,从BEV感知的传感器输入数据出发,将BEV感知分类为BEV相机、BEV激光雷达和BEV... 为进一步促进鸟瞰图(BEV)感知算法研究及性能改善,论述了BEV感知的优势和最新工作,介绍了BEV感知的相关数据集和性能评估指标;总结了近年来的BEV感知处理方法,从BEV感知的传感器输入数据出发,将BEV感知分类为BEV相机、BEV激光雷达和BEV融合三种,并对三类算法和解决方案展开了深入阐述.其中,BEV相机根据几何变换方法分为显式变换和隐式变换,显式变换又可分为“2D-3D”和“3D-2D”方法,隐式变换可分为基于Transformer和基于多层感知器(MLP)的神经网络模型方法;BEV激光雷达根据点云特征提取的方法可分为基于体素的方法和基于支柱(Pillar)的方法;根据来自多个传感器输入数据形式,BEV融合分为相机-激光雷达融合、时序-空间信息融合和深度-高度信息融合.此外,还指出了该领域未来研究的六大方向,旨在为从事BEV感知算法及相关技术的研究人员提供有益的见解,并期望激发更多学者对BEV感知领域的研究与应用投入更多的关注与探索. 展开更多
关键词 自动驾驶 鸟瞰图(bev) bev相机 bev激光雷达 bev融合
原文传递
基于BEV视角的多传感融合3D目标检测 被引量:1
4
作者 张津 朱冯慧 +1 位作者 王秀丽 朱威 《计算机测量与控制》 2024年第10期77-85,共9页
3D目标检测是自动驾驶在道路环境感知任务中的重要环节,现有主流框架通过搭载多种感知设备获取多模态的数据信息来实现多传感融合检测;传统相机与激光雷达的传感器融合过程中存在几何失真,以及信息优先级不对等,导致传感融合的3D目标检... 3D目标检测是自动驾驶在道路环境感知任务中的重要环节,现有主流框架通过搭载多种感知设备获取多模态的数据信息来实现多传感融合检测;传统相机与激光雷达的传感器融合过程中存在几何失真,以及信息优先级不对等,导致传感融合的3D目标检测性能不足;对此,提出了一种基于鸟瞰视角(BEV)的多传感融合3D目标检测算法;利用提升-展开-投射(LSS)方式,获取图像的潜在深度分布建立图像在BEV空间下的特征;采用PV-RCNN的集合抽象法建立点云在BEV空间下的特征;该算法在统一的BEV共享空间中设计了低复杂度的特征编码网络融合多模态特征实现3D目标检测;实验结果表明,所提出的算法在检测精度上相较于纯激光方法提升4.8%,相较于传统的融合方案减少了47%的参数,并保持了相近的精度,较好地满足了自动驾驶系统道路环境感知任务的检测要求。 展开更多
关键词 3D目标检测 鸟瞰图视角 多传感融合 自动驾驶 道路环境感知
在线阅读 下载PDF
基于多尺度时序采样的多任务感知网络
5
作者 吴绍斌 褚云峰 +2 位作者 李奕萱 姜皓舰 黄宇 《北京理工大学学报》 北大核心 2025年第8期789-797,共9页
针对时序特征融合不充分,遮挡及远距离目标难以可靠感知的问题,提出了一种联合时序多尺度鸟瞰视角特征的多任务感知网络.首先,通过对深度预测概率建模,设计具备遮挡适应性的显式深度估计模块,将图像特征映射为鸟瞰视角特征,并利用深度... 针对时序特征融合不充分,遮挡及远距离目标难以可靠感知的问题,提出了一种联合时序多尺度鸟瞰视角特征的多任务感知网络.首先,通过对深度预测概率建模,设计具备遮挡适应性的显式深度估计模块,将图像特征映射为鸟瞰视角特征,并利用深度图辅助监督;然后,为提升远距离障碍物检测效果,基于可变形注意力机制设计时序鸟瞰视角采样模块,实现时序上多尺度鸟瞰视角特征加权融合;最后,将数据增强策略拓展至多任务,并分别通过检测和分割任务头,实现三维目标检测和车道线分割. nuScenes数据集和实车实验结果证明了该方案在遮挡区域和远距离目标检测方面取得了精度提升,且推理速度可以满足实车应用要求. 展开更多
关键词 鸟瞰图 深度估计 多尺度时序采样 多任务网络
在线阅读 下载PDF
基于时序信息融合的轻量高精地图在线构建方法
6
作者 张逸康 刘平 +2 位作者 周子龙 姚佳玉 祁振良 《汽车技术》 北大核心 2025年第11期49-56,共8页
针对鸟瞰图(BEV)空间中的端到端在线轻量高精地图感知在具有挑战性(如堵塞、遮挡)的环境中的准确性和鲁棒性易受影响的问题,提出一种新的时序信息融合模块,对具有丰富特征的历史预测结果进行格栅编码、存储和转换,与当前特征提取结果进... 针对鸟瞰图(BEV)空间中的端到端在线轻量高精地图感知在具有挑战性(如堵塞、遮挡)的环境中的准确性和鲁棒性易受影响的问题,提出一种新的时序信息融合模块,对具有丰富特征的历史预测结果进行格栅编码、存储和转换,与当前特征提取结果进行融合,从而提高轻量高精地图构建的精度,同时,为更好地捕捉具有明显方向性和结构性的线性特征,改进了特征提取网络,采用自适应蛇形卷积提高车道线等特征的提取能力。在NuScenes数据集上的验证结果表明,模型平均精度均值(mAP)提高了3百分点。 展开更多
关键词 在线建图 轻量高精地图 自动驾驶 时序融合 鸟瞰图
在线阅读 下载PDF
基于时空融合的多模态路面特征提取算法
7
作者 武文轩 孟维亮 张晓鹏 《中国体视学与图像分析》 2025年第1期93-101,共9页
视觉感知作为智能驾驶系统的核心技术,通过融合多模态传感器数据(包括LiDAR点云、视觉和雷达)构建具有几何与语义信息的场景矢量化表征。本文提出一种基于时空融合的多模态道路特征解析框架,其新意在于将transformer架构与鸟瞰图(BEV)... 视觉感知作为智能驾驶系统的核心技术,通过融合多模态传感器数据(包括LiDAR点云、视觉和雷达)构建具有几何与语义信息的场景矢量化表征。本文提出一种基于时空融合的多模态道路特征解析框架,其新意在于将transformer架构与鸟瞰图(BEV)表征学习相结合,设计了道路特征提取系统。该系统通过多尺度特征金字塔提取异构传感器数据,并利用注意力机制实现多视角特征向BEV空间的对齐转换,同时引入时空融合方法实现多帧观测数据的自适应融合,从而提升准确性和召回率。该系统可以广泛的应用于离线自动化标注系统和自动化生成车端感知模型的训练真值。实验结果表明,该框架在自建自动驾驶数据集上的车道线和边缘线检测的准确率和召回率具有明显优势。 展开更多
关键词 多模态感知 路面特征提取 TRANSFORMER 鸟瞰图 多尺度
原文传递
基于鸟瞰图融合表示的端到端自动驾驶系统研究综述
8
作者 汪博文 王亚飞 +2 位作者 罗阿彤 王振豪 孙家铭 《汽车工程学报》 2025年第5期621-637,共17页
端到端自动驾驶因其高度集成化和数据驱动的特性受到学术界和工业界的广泛关注。鸟瞰图(BEV)特征表征方式因其全局视角和几何一致性优势,是目前端到端自动驾驶特征融合及表示的核心技术路线。目前,针对端到端的综述大多聚焦于强化学习... 端到端自动驾驶因其高度集成化和数据驱动的特性受到学术界和工业界的广泛关注。鸟瞰图(BEV)特征表征方式因其全局视角和几何一致性优势,是目前端到端自动驾驶特征融合及表示的核心技术路线。目前,针对端到端的综述大多聚焦于强化学习、模仿学习等端到端数据驱动范式,从端到端系统中的特征表示切入,重点梳理了端到端系统中不同BEV特征表示方法及其对端到端系统整体性能的影响。针对BEV感知范式下的计算效率问题,分析了当前主流的特征轻量化策略,归纳了性能评估指标。对基于BEV融合范式的端到端自动驾驶系统面临的挑战进行总结。 展开更多
关键词 自动驾驶 端到端系统 鸟瞰图 多模态融合 数据驱动
在线阅读 下载PDF
HDMapFusion:用于自动驾驶的多模态融合高清地图生成(特邀)
9
作者 刘洋宏 付杨悠然 董性平 《计算机工程》 北大核心 2025年第10期18-26,共9页
高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义... 高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义地图的生成精度。与传统直接融合原始传感器数据的方法不同,HDMapFusion创新性地将相机图像特征和激光雷达点云特征统一转换为鸟瞰视图(BEV)空间表示,在统一的几何坐标系下实现了多模态信息的物理可解释性融合。具体而言:HDMapFusion首先通过深度学习网络分别提取相机图像的视觉特征和激光雷达的三维(3D)结构特征;然后利用可微分的视角变换模块将前视图像特征转换为BEV空间表示,同时将激光雷达点云特征通过体素化处理投影到相同的BEV空间,在此基础上设计一个基于注意力机制的特征融合模块,自适应地加权整合两种模态;最后通过语义解码器生成包含车道线、人行横道、道路边界线等要素的高精度语义地图。在nuScenes自动驾驶数据集上的实验结果表明,HDMapFusion在高清地图生成精度方面显著优于现有基准方法。这些实验结果验证了HDMapFusion的有效性和优越性,为自动驾驶环境感知中的多模态融合问题提供了新的解决思路。 展开更多
关键词 高清地图生成 多模态融合 鸟瞰视图表示 自动驾驶 深度估计
在线阅读 下载PDF
面向自动驾驶的高效视图转换
10
作者 刘家辉 官敬超 +1 位作者 方鸿清 巢建树 《计算机系统应用》 2025年第2期246-253,共8页
在自动驾驶技术的领域中,利用鸟瞰图(bird’s eye view,BEV)进行3D目标检测任务已经引起了广泛的关注.针对现有相机至鸟瞰视图转换方法,实时性不足、部署复杂度较高的难题,提出了一种简单高效、无需任何特殊工程操作即可部署的视图转换... 在自动驾驶技术的领域中,利用鸟瞰图(bird’s eye view,BEV)进行3D目标检测任务已经引起了广泛的关注.针对现有相机至鸟瞰视图转换方法,实时性不足、部署复杂度较高的难题,提出了一种简单高效、无需任何特殊工程操作即可部署的视图转换方法.首先,针对完整图像特征存在大量冗余信息,引入宽度特征提取器并辅以单目3D检测任务,提炼图像的关键特征,确保过程中信息损失的最小化;其次,提出一种特征引导的极坐标位置编码方法,增强相机视角与鸟瞰图表示之间的映射关系与模型空间理解能力;最后,通过单层交叉注意力机制实现可学习BEV嵌入与宽度图像特征的交互,从而生成高质量的BEV特征.实验结果表明:在nuScenes验证集上该网络架构与LSS(lift,splat,shoot)相比mAP从29.5%提升到32.0%,提升了8.5%,NDS从37.1%提升到38.0%,提升了2.4%,表明该模型在自动驾驶场景下的3D目标检测任务的有效性.同时相比于LSS在延迟上降低了41.12%. 展开更多
关键词 自动驾驶 鸟瞰图 视图转换 目标检测 交叉注意力
在线阅读 下载PDF
Bird’s-Eye View Semantic Segmentation and Voxel Semantic Segmentation Based on Frustum Voxel Modeling and Monocular Camera
11
作者 秦超 王亚飞 +1 位作者 张宇超 殷承良 《Journal of Shanghai Jiaotong university(Science)》 EI 2023年第1期100-113,共14页
The semantic segmentation of a bird’s-eye view(BEV)is crucial for environment perception in autonomous driving,which includes the static elements of the scene,such as drivable areas,and dynamic elements such as cars.... The semantic segmentation of a bird’s-eye view(BEV)is crucial for environment perception in autonomous driving,which includes the static elements of the scene,such as drivable areas,and dynamic elements such as cars.This paper proposes an end-to-end deep learning architecture based on 3D convolution to predict the semantic segmentation of a BEV,as well as voxel semantic segmentation,from monocular images.The voxelization of scenes and feature transformation from the perspective space to camera space are the key approaches of this model to boost the prediction accuracy.The effectiveness of the proposed method was demonstrated by training and evaluating the model on the NuScenes dataset.A comparison with other state-of-the-art methods showed that the proposed approach outperformed other approaches in the semantic segmentation of a BEV.It also implements voxel semantic segmentation,which cannot be achieved by the state-of-the-art methods. 展开更多
关键词 semantic segmentation voxel semantic segmentation deep learning convolution neural network bird’s-eye view(bev)
原文传递
基于鸟瞰图融合的多级旋转等变目标检测网络 被引量:3
12
作者 刘宏纬 邵东恒 +3 位作者 杨剑 魏宪 李科 游雄 《计算机工程》 CAS CSCD 北大核心 2024年第11期246-257,共12页
随着自动驾驶系统的发展,针对道路场景下的3D目标检测受到研究人员的广泛关注。然而,大多数基于单一传感器或者多传感器融合的目标检测方法未考虑实际道路场景中车辆旋转,使得捕获的场景同步旋转,从而导致目标检测性能降低。针对这类问... 随着自动驾驶系统的发展,针对道路场景下的3D目标检测受到研究人员的广泛关注。然而,大多数基于单一传感器或者多传感器融合的目标检测方法未考虑实际道路场景中车辆旋转,使得捕获的场景同步旋转,从而导致目标检测性能降低。针对这类问题,提出一种基于多传感器融合的多级全局旋转等变目标检测网络架构,以缓解场景旋转造成的目标检测困难,从而提高目标检测性能。首先,对体素内部进行各点之间距离编码,增强局部点云几何信息,并提取体素的全局旋转等变特征;其次,引入图像的语义信息并提取全局旋转等变特征,进一步提高网络性能;最后,将具有旋转等变性的点云和图像信息在鸟瞰图上进行融合,并嵌入群等变网络提取融合鸟瞰图级全局旋转等变特征。实验结果表明,该网络架构在nuScenes验证集上达到了68.7%的平均精度均值(mAP)和71.7的nuScenes检测分数(NDS),以及平均角度误差均值(mAOE)降低到0.288,相比主流的目标检测方法,其实现了网络架构本身的旋转等变性并在性能上得到了提升,此外,各个组件对于整体网络架构的目标检测性能提升都起到了重要作用。 展开更多
关键词 多传感器融合 体素 鸟瞰图 旋转等变 3D目标检测
在线阅读 下载PDF
智轨电车激光雷达多任务鸟瞰图感知算法研究 被引量:1
13
作者 姚港 龙腾 +3 位作者 李程 袁希文 李培杰 王彧弋 《控制与信息技术》 2024年第4期96-101,共6页
智轨电车在城市复杂道路场景下的安全运行离不开车载感知系统的支持,相较激光雷达感知,视觉感知算法存在距离检测精度不够、对环境光照敏感的短板。基于此,文章从智轨电车运行场景和感知方案部署成本出发,提出了一种基于激光雷达的多任... 智轨电车在城市复杂道路场景下的安全运行离不开车载感知系统的支持,相较激光雷达感知,视觉感知算法存在距离检测精度不够、对环境光照敏感的短板。基于此,文章从智轨电车运行场景和感知方案部署成本出发,提出了一种基于激光雷达的多任务鸟瞰图(bird's-eye-view,BEV)感知算法。该算法采用深度学习的方法,将点云目标检测和语义分割两个任务统一到一个多任务网络中,相较独立部署两个网络的方法,其不仅节省了计算开销,还能提升网络检测分割性能。此外,该多任务网络采用基于BEV的点云编码方式,将从点云提取的特征通过映射转换到BEV空间,再通过特征金字塔进行多尺度的特征融合,最后分别通过检测模块和分割模块获取对应预测结果。测试结果表明,该算法的3D检测平均准确率达到0.925,分割准确率达到0.984,部署后单帧点云检测分割推理时间约为60ms,能够满足智轨电车实时准确感知周围障碍物和环境的要求。 展开更多
关键词 智轨电车 多任务网络 目标检测 语义分割 鸟瞰图 特征金字塔
在线阅读 下载PDF
车路两端纯视觉鸟瞰图感知研究综述 被引量:3
14
作者 周松燃 卢烨昊 +3 位作者 励雪巍 傅本尊 王井东 李玺 《中国图象图形学报》 CSCD 北大核心 2024年第5期1169-1187,共19页
纯视觉鸟瞰图(bird's-eye-view,BEV)感知是国内外自动驾驶领域的前沿方向与研究热点,旨在通过相机2D图像信息,生成3D空间中周围道路环境俯视视角下的特征表示。该领域在单车智能方向上迅速发展,并实现大量落地部署。但由于车端相机... 纯视觉鸟瞰图(bird's-eye-view,BEV)感知是国内外自动驾驶领域的前沿方向与研究热点,旨在通过相机2D图像信息,生成3D空间中周围道路环境俯视视角下的特征表示。该领域在单车智能方向上迅速发展,并实现大量落地部署。但由于车端相机的安装高度受限,不可避免地面临着远距离感知不稳定、存在驾驶盲区等实际问题,单车智能仍存在着一定的安全性风险。路端摄像头部署在红绿灯杆等高处基础设施上,能够有效扩展智能车辆的感知范围,补充盲区视野。因此,车路协同逐渐成为当前自动驾驶的发展趋势。据此,本文从相机部署端和相机视角出发,将纯视觉BEV感知技术划分为车端单视角感知、车端环视视角感知和路端固定视角感知三大方向。在每一方向中,从通用处理流程入手梳理其技术发展脉络,针对主流数据集、BEV映射模型和任务推理输出三大模块展开综述。此外,本文还介绍了相机成像系统的基本原理,并对现有方法从骨干网络使用统计、GPU(graphics processing unit)类型使用统计和模型性能统计等角度进行了定量分析,从可视化对比角度进行了定性分析。最后,从场景多元、尺度多样分布等技术挑战和相机几何参数迁移能力差、计算资源受限等部署挑战两方面揭示了当前纯视觉BEV感知技术亟待解决的问题。并从车路协同、车车协同、虚拟现实交互和统一多任务基座大模型4个方向对本领域的发展进行了全面展望。希望通过对纯视觉BEV感知现有研究以及未来趋势的总结为相关领域研究人员提供一个全面的参考以及探索的方向。 展开更多
关键词 自动驾驶感知 纯视觉bev感知 路端固定视角感知 车端移动视角感知 多视角图像融合
原文传递
RevFB-BEV: Memory-Efficient Network With Reversible Swin Transformer for 3D BEV Object Detection
15
作者 Leilei Pan Yingnan Guo Yu Zhang 《IET Cyber-Systems and Robotics》 2025年第3期49-61,共13页
The perception of Bird's Eye View(BEV)has become a widely adopted approach in 3D object detection due to its spatial and dimensional consistency.However,the increasing complexity of neural network architectures ha... The perception of Bird's Eye View(BEV)has become a widely adopted approach in 3D object detection due to its spatial and dimensional consistency.However,the increasing complexity of neural network architectures has resulted in higher training memory,thereby limiting the scalability of model training.To address these challenges,we propose a novel model,RevFB-BEV,which is based on the Reversible Swin Transformer(RevSwin)with Forward-Backward View Transformation(FBVT)and LiDAR Guided Back Projection(LGBP).This approach includes the RevSwin backbone network,which employs a reversible architecture to minimise training memory by recomputing intermediate parameters.Moreover,we introduce the FBVT module that refines BEV features extracted from forward projection,yielding denser and more precise camera BEV representations.The LGBP module further utilises LiDAR BEV guidance for back projection to achieve more accurate camera BEV features.Extensive experiments on the nuScenes dataset demonstrate notable performance improvements,with our model achieving over a 4 x reduction in training memory and a more than 12x decrease in single-backbone training memory.These efficiency gains become even more pronounced with deeper network architectures.Additionally,RevFB-BEV achieves 68.1 mAP(mean Average Precision)on the validation set and 68.9 mAP on the test set,which is nearly on par with the baseline BEVFusion,underscoring its effectiveness in resource-constrained scenarios. 展开更多
关键词 3D object detection Bird's Eye view(bev) memory efficiency reversible architecture view transformation
原文传递
基于3维点云鸟瞰图的高精度实时目标检测 被引量:8
16
作者 张易 项志宇 +1 位作者 乔程昱 陈舒雅 《机器人》 EI CSCD 北大核心 2020年第2期148-156,共9页
针对基于3维点云的目标检测问题,提出了一种高精度实时的单阶段深度神经网络,分别在网络特征提取、损失函数设计和训练数据增强等3个方面提出了新的解决方案.首先对点云直接进行体素化来构建鸟瞰图.在特征提取阶段,使用残差结构提取高... 针对基于3维点云的目标检测问题,提出了一种高精度实时的单阶段深度神经网络,分别在网络特征提取、损失函数设计和训练数据增强等3个方面提出了新的解决方案.首先对点云直接进行体素化来构建鸟瞰图.在特征提取阶段,使用残差结构提取高层语义特征,并融合多层次特征输出稠密的特征图.在回归鸟瞰图上的目标框的同时,在损失函数中考虑二次偏移量以实现更高精度的收敛.在网络训练中,使用不同帧3维点云混合的方式进行数据增强,提高网络的泛化性能.基于KITTI鸟瞰图目标检测数据集的实验结果表明,本文提出的网络仅使用雷达点云的位置信息,在性能上不仅优于目前最先进的鸟瞰图目标检测网络,而且优于融合图像和点云的检测方案,且整个网络运行速度达到20帧/秒,满足实时性要求. 展开更多
关键词 3维点云 鸟瞰图 卷积神经网络 单阶段目标检测
原文传递
基于鸟瞰图的空间-通道注意力多传感器融合 被引量:1
17
作者 吉宇哲 陈奕洁 +1 位作者 杨柳青 郑心湖 《模式识别与人工智能》 EI CSCD 北大核心 2023年第11期1029-1040,共12页
基于鸟瞰图(Bird′s-Eye View,BEV)的目标感知算法现正成为研究热点,但少有针对BEV的多传感器融合.因此,文中提出基于空间-通道注意力的多传感器融合模块,对不同模态的特征数据增加局部注意力机制,能有效修正多传感器之间的空间误差.利... 基于鸟瞰图(Bird′s-Eye View,BEV)的目标感知算法现正成为研究热点,但少有针对BEV的多传感器融合.因此,文中提出基于空间-通道注意力的多传感器融合模块,对不同模态的特征数据增加局部注意力机制,能有效修正多传感器之间的空间误差.利用转置注意力操作,充分融合图像和点云数据,消解不同模态语义信息之间的异质性,使融合的BEV特征在不引入空间偏差的同时,有效结合多传感器各自的独特信息,实现更全面准确的感知.在nuScenes数据集上的实验以及大量的消融实验表明,文中融合模块能有效提升目标检测算法的精度,可视化结果展现融合后的特征具有更完整、准确的特征信息,可明显提升对远处物体的检测. 展开更多
关键词 鸟瞰图(bev) 多传感器融合 注意力机制 目标检测
在线阅读 下载PDF
业务影响视图及其在信息系统监管中的应用
18
作者 彭淑芬 《武汉理工大学学报(信息与管理工程版)》 CAS 2015年第1期1-3,20,共4页
为了将网络基础设施的运行状况与应用系统的运行状况关联起来对信息系统进行监管,从关键资源、关键链路和信息安全等级保护安全域3个层次展开研究,提出了一种基于安全域和关键路径的业务影响视图的建立方法和一种基于业务影响视图的业... 为了将网络基础设施的运行状况与应用系统的运行状况关联起来对信息系统进行监管,从关键资源、关键链路和信息安全等级保护安全域3个层次展开研究,提出了一种基于安全域和关键路径的业务影响视图的建立方法和一种基于业务影响视图的业务系统监控架构。业务系统监控架构由统一数据采集层、集中监控管理层和统一展现层构成。业务影响视图位于集中监控管理层,预先定义了故障之间的关联关系。实验结果表明,与传统的信息系统监管方法相比,这种信息系统监控方法能根据预订的业务影响视图判断业务系统数据流向的安全性,对故障源及其关联故障进行报警,准确定位故障源。 展开更多
关键词 业务影响视图 信息系统监管 安全域 关键路径 故障源 关联故障
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部