期刊文献+
共找到638篇文章
< 1 2 32 >
每页显示 20 50 100
Optimum Presentation Featuring the 3D-View of a Composite Solid Model
1
作者 YANG Yong FAN Ning YAO Jian-song Shen Xiao-bin 《Computer Aided Drafting,Design and Manufacturing》 2009年第2期27-30,共4页
A 3D-view is helpful to instantly grasp what is presented in a drawing. There exist a variety of ways to present the same part with 3D-views. To facilitate the choice of an optimum one among them, the work divides com... A 3D-view is helpful to instantly grasp what is presented in a drawing. There exist a variety of ways to present the same part with 3D-views. To facilitate the choice of an optimum one among them, the work divides composite solid models into three categories, so as to convey the originality of design concisely and accurately by using the least " engineering language". 展开更多
关键词 3d-view solid primitives orthogonal projection principal view
在线阅读 下载PDF
无线VR多视角3D视频中基于深度强化学习的主动3C资源分配
2
作者 陈雷 《武汉大学学报(工学版)》 北大核心 2025年第2期334-342,共9页
在基于移动边缘计算(mobile edge computing,MEC)的第5代移动通信网络(5th generation mobile communication network,5G)中,针对无线虚拟现实(virtual reality,VR)用户在小小区间频繁切换而降低业务体验质量(quality of experience,QoE... 在基于移动边缘计算(mobile edge computing,MEC)的第5代移动通信网络(5th generation mobile communication network,5G)中,针对无线虚拟现实(virtual reality,VR)用户在小小区间频繁切换而降低业务体验质量(quality of experience,QoE)的问题。考虑建立多视角3维(3-dimensional,3D)视频的主动缓存、计算和通信(caching,computing and communication,3C)资源分配数学模型,并采用深度强化学习(deep reinforcement learning,DRL)算法进行求解。将多视角3D视频的主动资源分配系统建模为联合视角选择和小基站3C资源分配的马尔科夫决策过程(Markov decision process,MDP),提出了一种基于深度确定性策略梯度(deep deterministic policy gradient,DDPG)算法来寻找有效解。仿真结果表明,与另外2种算法相比,所提算法可以为无线VR用户在小小区间移动时提供更好的业务体验。 展开更多
关键词 无线虚拟现实 多视角3D视频 3C资源分配 深度强化学习
原文传递
基于极坐标的环视视觉稀疏化时序3D目标检测
3
作者 魏超 随淑鑫 李路兴 《汽车工程》 北大核心 2025年第6期1198-1206,共9页
在自动驾驶领域,针对基于环视视觉的3D目标检测方法准确性和实时性之间的矛盾,本文提出了一种极坐标参数化的基于稀疏查询的时序3D目标检测方法 PolarSparse4D,该模型由图像编码器、3D锚框解码器以及辅助训练的质量检测分支组成。首先... 在自动驾驶领域,针对基于环视视觉的3D目标检测方法准确性和实时性之间的矛盾,本文提出了一种极坐标参数化的基于稀疏查询的时序3D目标检测方法 PolarSparse4D,该模型由图像编码器、3D锚框解码器以及辅助训练的质量检测分支组成。首先为避免参数归一化带来的检测距离限制,设计了3D锚框中心距离与方位角参数解耦的特征编码方式。其次,通过设计锚框空间信息交互自注意力模块以及锚框时序信息融合模块,高效高精度地完成了极坐标系下环视相机图像时空信息融合过程。最后,通过设计锚框参数质量检测分支,显著提高了检测精度和模型收敛速度。在nuScenes数据集上进行实验验证,本文模型的mAP和NDS均得到了极大的提升,分别为41.3%和52.5%,模型速度为19.2 FPS,证明了本方法在精度和速度方面的优越性和有效性。 展开更多
关键词 3D目标检测 环视视觉 极坐标参数化 自动驾驶
在线阅读 下载PDF
基于柱透镜光栅的曲面光场3D显示(特邀)
4
作者 唐骏 杨洁 +3 位作者 白玉成 赵崇吉 陈宇昂 邓欢 《红外与激光工程》 北大核心 2025年第7期17-24,共8页
光场3D显示是一种极具潜力的裸眼3D显示技术,传统的平面光场3D显示系统存在3D视角狭窄的问题,曲面光场3D显示系统能明显增大3D视角。文中设计了一种基于柱透镜光栅的曲面光场3D显示系统,针对透镜非整数倍覆盖像素的情况,提出了一种基于... 光场3D显示是一种极具潜力的裸眼3D显示技术,传统的平面光场3D显示系统存在3D视角狭窄的问题,曲面光场3D显示系统能明显增大3D视角。文中设计了一种基于柱透镜光栅的曲面光场3D显示系统,针对透镜非整数倍覆盖像素的情况,提出了一种基于逆向光线跟踪的独立相机拍摄方法。该方法为曲面显示屏上的每个像素设置了一个独立的虚拟相机来确定光线的原点与方向,结合逆向光线跟踪技术,记录碰撞点的RGB信息,可以高效、便捷地生成曲面光场图像。本文建立了以曲面系统中心为原点的空间坐标系,通过独立分析横截面的方式,计算出所有像素及虚拟相机的空间位置,确定了图像渲染所需的所有光线矢量。实验搭建了由分辨率为3 840×2 160的曲面显示屏和柱透镜光栅组成的曲面光场3D显示装置,实验结果表明文中的方法可以为该系统生成正确的曲面光场图像,在左27°到右27°的大视角范围内,呈现出清晰、视差平滑连续、立体感明显的3D图像。该方法也为未来异型显示屏的光场图像生成提供了思路。 展开更多
关键词 光场3D显示 3D视角 独立相机拍摄 曲面光场图像
原文传递
基于跨视角一致性的3D高斯溅射交互式分割方法
5
作者 徐知祥 吕泽均 张严辞 《计算机应用研究》 北大核心 2025年第10期3159-3166,共8页
现有的3D高斯溅射交互式分割方法耗时较长且难以清晰分割出物体边界,无法满足数字资产生成等领域对单个目标物体进行编辑的需求。为此提出一种基于跨视角一致性的3D高斯溅射交互式分割方法,其基本思想是在2D图像中实现跨视角一致性分割... 现有的3D高斯溅射交互式分割方法耗时较长且难以清晰分割出物体边界,无法满足数字资产生成等领域对单个目标物体进行编辑的需求。为此提出一种基于跨视角一致性的3D高斯溅射交互式分割方法,其基本思想是在2D图像中实现跨视角一致性分割,再通过3D高斯溅射对目标物体进行局部重建。具体而言,该方法在视觉外壳的基础上,利用自提示策略迭代完成跨视角一致性分割,同时引入裁剪拒绝机制来应对迭代过程中的分割失效。此外,该方法提出区域限制和后处理策略来执行遮挡场景的分割。实验结果表明,该方法不仅能清晰分割出物体边界,还实现了2~6倍的分割速度提升。这证明在场景编辑等任务中,该方法在质量和效率上具有一定优势。 展开更多
关键词 3D高斯溅射 新视角合成 场景编辑 交互式分割
在线阅读 下载PDF
基于多尺度特征融合和边缘增强的多传感器融合3D目标检测算法
6
作者 刘建国 陈文 +5 位作者 赵奕凡 周琪 颜伏伍 尹智帅 郑灏 吴友华 《重庆大学学报》 北大核心 2025年第8期78-85,共8页
基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(... 基于BEV(bird’s eye view)多传感器融合的自动驾驶感知算法近年来取得重大进展,持续促进自动驾驶的发展。在多传感器融合感知算法研究中,多视角图像向BEV视角的转换和多模态特征融合一直是BEV感知算法的重点和难点。笔者提出MSEPE-CRN(multi-scale feature fusion and edge and point enhancement-camera radar net),一种用于3D目标检测的相机与毫米波雷达融合感知算法,利用边缘特征和点云提高深度预测的精度,实现多视角图像向BEV特征的精确转换。同时,引入多尺度可变形大核注意力机制进行模态融合,解决因不同传感器特征差异过大导致的错位。在nuScenes开源数据集上的实验结果表明,与基准网络相比,mAP提升2.17%、NDS提升1.93%、mATE提升2.58%、mAOE提升8.08%、mAVE提升2.13%,该算法可有效提高车辆对路面上运动障碍物的感知能力,具有实用价值。 展开更多
关键词 3D目标检测 Bird’s eye view 多模态融合 深度预测
在线阅读 下载PDF
基于时空融合的多视角3D感知网络设计
7
作者 李贺 陈品同 +1 位作者 余荣 谭北海 《计算机工程与科学》 北大核心 2025年第11期2019-2028,共10页
感知系统作为自动驾驶的关键组成部分,直接影响车辆对周围环境的理解,是实现安全可靠自动驾驶的基础。相比传统2D图像检测感知技术提供的有限信息,3D感知可以提供更丰富的感知数据,但也存在空间信息融合不充分与时序信息利用不足的关键... 感知系统作为自动驾驶的关键组成部分,直接影响车辆对周围环境的理解,是实现安全可靠自动驾驶的基础。相比传统2D图像检测感知技术提供的有限信息,3D感知可以提供更丰富的感知数据,但也存在空间信息融合不充分与时序信息利用不足的关键问题。提出一种融合时空信息的多视角3D感知网络,该网络包括多视角环视3D感知网络与时空融合网络MVSPNet。多视角环视感知网络可以通过精确的空间视角转换,高效地融合多相机图像数据,以构建统一鸟瞰图空间表征,实现多个相机数据的空间对齐和融合。相较于当前先进的单目基准模型FCOS3D,所提出网络的全类平均精度mAP达到了0.343,相对提升了14.7%。时空融合网络MVSPNet可以实现时序上多视角的图像融合,融合多帧数据,进一步显著提升了网络性能,融合2帧时序数据,mAP进一步提升了10.2%。实验结果充分证明了所设计的网络在有效融合多视角空间信息与时序信息方面的先进性,为提升自动驾驶系统在动态复杂场景下的3D感知提供了有效的解决方案,对推动安全、可靠的自动驾驶技术发展具有重要意义。 展开更多
关键词 自动驾驶感知 多视角感知 目标检测 3D感知
在线阅读 下载PDF
融合多视图一致和互补信息的深度3D模型分类
8
作者 吴晗 胡良臣 +2 位作者 杨影 接标 罗永龙 《中国图象图形学报》 北大核心 2025年第3期811-823,共13页
目的基于深度学习的方法在3D模型分类任务中取得了先进的性能,此类方法需要提取三维模型不同数据表示的特征,例如使用深度学习模型提取多视图特征并将其组合成单一而紧凑的形状描述符。然而,这些方法只考虑了多视图之间的一致信息,而忽... 目的基于深度学习的方法在3D模型分类任务中取得了先进的性能,此类方法需要提取三维模型不同数据表示的特征,例如使用深度学习模型提取多视图特征并将其组合成单一而紧凑的形状描述符。然而,这些方法只考虑了多视图之间的一致信息,而忽视了视图与视图之间存在的差异信息。为了解决这一问题,提出了新的特征网络学习3D模型多视图数据表示的一致信息和互补信息,并将其有效融合,以充分利用多视图数据的特征,提高3D模型分类准确率。方法该方法首先在残差网络的残差结构中引入空洞卷积,扩大卷积操作的感受野。随后,对网络结构调整以进行多视图特征提取。然后,通过设计的视图分类网络划分一致信息和互补信息,充分利用每个视图。为了处理这两类不同的信息,引入了一种结合注意力机制的学习融合策略,将两类特征视图融合,从而得到形状级描述符,实现可靠的3D模型分类。结果该模型的有效性在ModelNet数据集的两个子集上得到验证。在基于ModelNet40数据集的所有对比方法中具有最好的性能表现。为了对比不同的特征提取网络,设置单分类任务实现性能验证,本文方法在分类准确度和平均损失方面表现最好。相较于基准方法—多视图卷积神经网络(multi-view convolutional neural network,MVCNN),在不同视图数下本文方法的性能最高提升了3.6%,整体分类准确度提高了5.43%。实验结果表明,相较于现有相关方法,本文方法展现出一定的优越性。结论本文提出的一种多视图信息融合的深度3D模型分类网络,深度融合多视图的一致信息和互补信息,在3D模型分类任务中获得明显的效果。 展开更多
关键词 多视图学习 3D模型分类 一致性与互补性 改进残差网络 视图融合
原文传递
基于神经辐射场的多人多目3D人体姿态估计
9
作者 邹杰 林皓月 《计算机系统应用》 2025年第10期52-61,共10页
多人多目3D人体姿态估计任务旨在从多目视图中预测多个人体关键点的位置,是计算机视觉中的基本问题.深度的缺失和3D计算的巨大成本,导致从RGB图像中估计多人的姿态变得复杂且不准确,为此研究人员提出了多种有效的解决方法.其中,基于体... 多人多目3D人体姿态估计任务旨在从多目视图中预测多个人体关键点的位置,是计算机视觉中的基本问题.深度的缺失和3D计算的巨大成本,导致从RGB图像中估计多人的姿态变得复杂且不准确,为此研究人员提出了多种有效的解决方法.其中,基于体素表示的方法利用相机参数从多目视图中获取3D体素特征,但因为体素的离散设计,不可避免地带来量化误差.针对这一问题,本文提出了基于神经辐射场(neural radiance field, NeRF)的多人多目3D人体姿态估计方法 PoseNeRF,该方法首次以双分支联合训练的方式,将NeRF结构以端到端可微的形式嵌入到多人多目3D人体姿态估计中. PoseNeRF包含NeRF分支、Pose分支及共享参数机制.具体而言, NeRF分支利用多目图像的增强特征训练NeRF分支网络,使其中的几何多层感知机(geometric multi-layer perceptron,G-MLP)能够表示具体位置的不透明度;Pose分支从3D体素特征中预测出人体中心位置和关键点位置;共享参数机制利用Ne RF分支共享的G-MLP提供不透明度,优化3D体素特征.为了验证方法的有效性,本文在CMU Panoptic、Campus、Shelf数据集上进行了大量实验.结果表明,本方法在CMU Panoptic数据集上, AP25指标相较VoxelPose和Faster VoxelPose有明显提升,分别为2.1%和6.0%;在MPJPE中误差为1.4 mm,小于Faster VoxelPose;在Campus数据集、Shelf数据集上也相较VoxelPose有一定提升. 展开更多
关键词 神经辐射场 多人多目3D人体姿态估计 增强特征 连接 共享参数
在线阅读 下载PDF
基于图卷积网络-3D位置嵌入的多视图3D目标检测算法
10
作者 李睿霖 黎润霖 +4 位作者 阴明旭 刘瑞 文强 刘宇航 左帅 《电脑与信息技术》 2025年第4期16-22,共7页
在多视图3D目标检测面临遮挡和目标密集场景检测精度不足的背景下,提出了一种基于图卷积网络(Graph Convolutional Network,GCN)的多视图3D目标检测方法。该方法通过引入GCN改进3D位置编码,将多视图图像特征与3D空间特征相结合,以提升... 在多视图3D目标检测面临遮挡和目标密集场景检测精度不足的背景下,提出了一种基于图卷积网络(Graph Convolutional Network,GCN)的多视图3D目标检测方法。该方法通过引入GCN改进3D位置编码,将多视图图像特征与3D空间特征相结合,以提升检测精度和鲁棒性。利用GCN的图结构建模能力,更好地捕捉相邻3D点间的空间关系,提供丰富的上下文信息,同时结合Transformer解码器与GCN的架构,有效捕捉物体在3D空间中的复杂相对关系,从而显著提高检测性能。在遮挡和目标密集场景中,模型通过结合多视图和3D位置感知特征,保持较高的检测精度。实验结果表明,该算法在nu Scenes数据集上取得了38.3%的平均精度和43.2%的综合检测得分,相较于基准模型性能显著提升。研究为多视图3D目标检测提供了一种具有广泛应用潜力的新方案,尤其适用于复杂场景和自动驾驶领域。 展开更多
关键词 多视图目标检测 图卷积网络 3D位置嵌入 TRANSFORMER 深度学习
在线阅读 下载PDF
近30年云南暴雨洪涝灾害时空分布特征 被引量:1
11
作者 李宝芬 张坤 +2 位作者 余守龙 王东升 李增国 《水电能源科学》 北大核心 2024年第12期37-40,81,共5页
基于以县为单位收集的云南省1990~2020年3951场次暴雨洪涝灾害资料,采用数理统计、Morlet函数小波变换、ArcGIS平台三维透视图等方法分析近30年暴雨洪涝灾害时空分布特征。结果表明,近30年来云南省暴雨洪涝灾害频次呈线性增加,少灾年组... 基于以县为单位收集的云南省1990~2020年3951场次暴雨洪涝灾害资料,采用数理统计、Morlet函数小波变换、ArcGIS平台三维透视图等方法分析近30年暴雨洪涝灾害时空分布特征。结果表明,近30年来云南省暴雨洪涝灾害频次呈线性增加,少灾年组与多灾年组交替出现;农作物受灾面积、房屋倒塌、死亡人口呈线性减少,直接经济损失呈线性增加,但直接经济损失占当年全省GDP的比例呈线性减少。灾害发生频次周期特征明显;县域尺度空间分布区域性明显;发生频次最多、最少区域与受灾最重、最轻区域具有较高重合度。各项暴雨洪涝灾害指标中州(市)分布趋势为滇东北昭通市均为最高值,滇西北迪庆州均为最低值,表现出人类活动是影响暴雨洪涝灾害程度的重要因素;研究结果可为防灾减灾对策研究、暴雨洪涝灾害风险评估以及区划提供支撑。 展开更多
关键词 暴雨洪涝灾害 线性趋势 MORLET小波分析 三维透视图
原文传递
基于关键视图的文本驱动3D场景编辑方法 被引量:1
12
作者 张冀 崔文帅 +2 位作者 张荣华 王文彬 李亚琦 《图学学报》 CSCD 北大核心 2024年第4期834-844,共11页
基于去噪扩散模型的零样本图像编辑方法取得了瞩目的成就,将之应用于3D场景编辑可实现零样本的文本驱动3D场景编辑。然而,其3D编辑效果容易受扩散模型的3D连续性与过度编辑等问题影响,产生错误的编辑结果。针对这些问题,提出了一种新的... 基于去噪扩散模型的零样本图像编辑方法取得了瞩目的成就,将之应用于3D场景编辑可实现零样本的文本驱动3D场景编辑。然而,其3D编辑效果容易受扩散模型的3D连续性与过度编辑等问题影响,产生错误的编辑结果。针对这些问题,提出了一种新的文本驱动3D编辑方法,该方法从数据端着手,提出了基于关键视图的数据迭代方法与基于像素点的异常数据掩码模块。关键视图数据可以引导一个3D区域的编辑以减少3D不一致数据的影响,而数据掩码模块则可以过滤掉2D输入数据中的异常点。使用该方法,可以实现生动的照片级文本驱动3D场景编辑效果。实验证明,相较于一些目前先进的文本驱动3D场景编辑方法,可以大大减少3D场景中错误的编辑,实现更加生动的、更具真实感的3D编辑效果。此外,使用该方法生成的编辑结果更具多样性、编辑效率也更高。 展开更多
关键词 扩散模型 文本驱动 3D场景编辑 关键视图 数据掩码
在线阅读 下载PDF
基于BEV视角的多传感融合3D目标检测 被引量:1
13
作者 张津 朱冯慧 +1 位作者 王秀丽 朱威 《计算机测量与控制》 2024年第10期77-85,共9页
3D目标检测是自动驾驶在道路环境感知任务中的重要环节,现有主流框架通过搭载多种感知设备获取多模态的数据信息来实现多传感融合检测;传统相机与激光雷达的传感器融合过程中存在几何失真,以及信息优先级不对等,导致传感融合的3D目标检... 3D目标检测是自动驾驶在道路环境感知任务中的重要环节,现有主流框架通过搭载多种感知设备获取多模态的数据信息来实现多传感融合检测;传统相机与激光雷达的传感器融合过程中存在几何失真,以及信息优先级不对等,导致传感融合的3D目标检测性能不足;对此,提出了一种基于鸟瞰视角(BEV)的多传感融合3D目标检测算法;利用提升-展开-投射(LSS)方式,获取图像的潜在深度分布建立图像在BEV空间下的特征;采用PV-RCNN的集合抽象法建立点云在BEV空间下的特征;该算法在统一的BEV共享空间中设计了低复杂度的特征编码网络融合多模态特征实现3D目标检测;实验结果表明,所提出的算法在检测精度上相较于纯激光方法提升4.8%,相较于传统的融合方案减少了47%的参数,并保持了相近的精度,较好地满足了自动驾驶系统道路环境感知任务的检测要求。 展开更多
关键词 3D目标检测 鸟瞰图视角 多传感融合 自动驾驶 道路环境感知
在线阅读 下载PDF
基于多特征提取的3D人体姿态估计算法 被引量:1
14
作者 葛森林 高浩 《微电子学与计算机》 2024年第4期38-46,共9页
作为人工智能计算机视觉领域一项重要的任务,3D人体姿态估计受到了广泛的关注,并成功地应用在人机交互、电影游戏制作等领域。然而,3D人体姿态估计仍然面临着很大的挑战,主要是人体遮挡问题和数据集视角冗余问题,这些问题严重影响了3D... 作为人工智能计算机视觉领域一项重要的任务,3D人体姿态估计受到了广泛的关注,并成功地应用在人机交互、电影游戏制作等领域。然而,3D人体姿态估计仍然面临着很大的挑战,主要是人体遮挡问题和数据集视角冗余问题,这些问题严重影响了3D人体姿态估计结果精度与速度的提升。本文提出了一种基于多特征提取的3D人体姿态估计方法。首先通过采集多个相机视角下的图片数据,将所采图片数据放入2D人体关节点检测网络模型中,得到人体2D关节点。接着将采集到的人体数据输入到关节点置信度计算网络模型,得到视角图片中各个关节点的权重值。随后将2D人体关节点热图通过一个热图权重计算网络计算出热图权重,将各个视角下的权重特征计算融合得到加权后的2D人体关节点热图。最后将所得加权后的2D人体关节点热图和视角图片中各个关节点的权重值输入到三角化算法中,映射得到空间中的3D人体关节点。本文的关键思想是设计一个关节点置信度计算网络从输入图像中学习每个关节的置信度权重,同时提取了反映热图特征质量的权重矩阵,以提高遮挡视图中热图的特征质量。此外,使用感知哈希算法对Occlusion-Person数据集进行去视角实验,在保证结果准确性的同时提高了模型推理速度。本文方法是端到端可微的,可以显著地提高算法效率和鲁棒性。本文在Human3.6M和Occlusion-Person两个公共数据集上使用平均关节位置误差(Mean Per Joint Position Error,MPJPE)指标对该方法进行评估,分别取得27.3 mm和9.7 mm的结果。实验结果表明,该算法与最先进的方法相比,性能有了显著提升。 展开更多
关键词 3D人体姿态估计 多视角 多特征融合 端到端
在线阅读 下载PDF
基于动态视场的深度启发改进3维A*算法 被引量:3
15
作者 黄书峤 伍锡如 黄国明 《机器人》 EI CSCD 北大核心 2024年第5期513-523,共11页
针对A*算法在山地场景下因启发函数建模不准确导致搜索效率低的问题,提出基于动态视场的深度启发改进3维A*算法。该改进A*算法以一种深度启发网络构建启发函数模型,并从泛化能力和建模精度两方面优化模型的性能。在提高泛化能力方面,设... 针对A*算法在山地场景下因启发函数建模不准确导致搜索效率低的问题,提出基于动态视场的深度启发改进3维A*算法。该改进A*算法以一种深度启发网络构建启发函数模型,并从泛化能力和建模精度两方面优化模型的性能。在提高泛化能力方面,设计一种局部动态视场模型,增强深度启发网络对关键地形信息的抓取能力,进而使其适应各种不同地形场景;在提高建模精度方面,设计一种基于距离权重因子的损失函数模型,缩小3维场景下深度启发网络对远距离路径的代价估计偏差。仿真实验表明,所提出的算法相比于现有基于深度学习法改进的A*算法,在3维场景下的路径代价预测精度平均提高45.2%,平均搜索效率提升12.8%,平均路径质量提升1.2%;对比现有基于经验建模法改进的A*算法,搜索效率亦有明显提高。 展开更多
关键词 3维路径规划 A*算法 启发函数 动态视场 山地移动机器人
原文传递
时空信息融合赋能下矿井底板水害透明化防治体系 被引量:2
16
作者 刘再斌 晏俊生 +6 位作者 王江宏 高耀全 杨辉 白宝军 鲁晶津 王宏伟 王刚 《煤田地质与勘探》 北大核心 2025年第5期130-141,共12页
【背景】矿井水害常造成巨大的人员伤亡,严重影响着煤矿安全开采。【方法】在实景三维建设、煤矿智能化不断推进的行业背景下,以内蒙古唐家会煤矿智能地质保障系统研发、底板奥陶系灰岩(简称奥灰)水害防治为例,详细阐述在时空信息赋能下... 【背景】矿井水害常造成巨大的人员伤亡,严重影响着煤矿安全开采。【方法】在实景三维建设、煤矿智能化不断推进的行业背景下,以内蒙古唐家会煤矿智能地质保障系统研发、底板奥陶系灰岩(简称奥灰)水害防治为例,详细阐述在时空信息赋能下,通过透明地质模型提升工作面回采周期内的矿井水害防治能力。【结果和结论】梳理了矿井水害防治过程中的时空信息与时空智能基本概念,并将水害防治过程分为超前预测预报、采前隐患探查、采中水害治理以及治后实时监测4个阶段,总结了各阶段水害时空探测方法、时空配准同步以及时空信息赋能模式,建立了基于透明地质模型的矿井水害全过程防治体系。具体而言,在透明地质模型构建及动态更新的基础上,利用微震监测、随采地震探测等装备提高预测预报频次及准确性,通过定向钻探、三维地震勘探精确圈定工作面底板异常区边界,结合井上定向长钻孔靶向治理,辅以孔中瞬变电磁以及孔间电阻率法对隐患异常区域进行循环注浆工程,治理完成后,随着工作面不断推进,将微震监测以及孔间电阻率法相结合,动态监测工作面底板导水裂隙发育、富水性分布变化情况。研究表明,将各阶段水害时空信息与透明地质模型相融合,能够形成二三维一体化的矿井水害透明化防治体系,从而为唐家会煤矿底板奥灰防治水工作提供有效支撑。 展开更多
关键词 煤矿智能化 实景三维建设 智能地质保障 底板奥灰水害 水害时空探测 内蒙古唐家会煤矿
在线阅读 下载PDF
联合多视图可控融合和关节相关性的三维人体姿态估计
17
作者 董婧 张鸿儒 +4 位作者 方小勇 周东生 杨鑫 张强 魏小鹏 《中国图象图形学报》 北大核心 2025年第1期254-267,共14页
目的多视图三维人体姿态估计能够从多方位的二维图像中估计出各个关节点的深度信息,克服单目三维人体姿态估计中因遮挡和深度模糊导致的不适定性问题,但如果系统性能被二维姿态估计结果的有效性所约束,则难以实现最终三维估计精度的进... 目的多视图三维人体姿态估计能够从多方位的二维图像中估计出各个关节点的深度信息,克服单目三维人体姿态估计中因遮挡和深度模糊导致的不适定性问题,但如果系统性能被二维姿态估计结果的有效性所约束,则难以实现最终三维估计精度的进一步提升。为此,提出了一种联合多视图可控融合和关节相关性的三维人体姿态估计算法CFJCNet(controlled fusion and joint correlation network),包括多视图融合优化模块、二维姿态细化模块和结构化三角剖分模块3部分。方法首先,基于极线几何框架的多视图可控融合优化模块有选择地利用极线几何原理提高二维热图的估计质量,并减少噪声引入;然后,基于图卷积与注意力机制联合学习的二维姿态细化方法以单视图中关节点之间的联系性为约束,更好地学习人体的整体和局部信息,优化二维姿态估计;最后,引入结构化三角剖分以获取人体骨长先验知识,嵌入三维重建过程,改进三维人体姿态的估计性能。结果该算法在两个公共数据集Human3.6M、Total Capture和一个合成数据集Occlusion-Person上进行了评估实验,平均关节误差为17.1 mm、18.7 mm和10.2 mm,明显优于现有的多视图三维人体姿态估计算法。结论本文提出了一个能够构建多视图间人体关节一致性联系以及各自视图中人体骨架内在拓扑约束的多视图三维人体姿态估计算法,优化二维估计结果,修正错误姿态,有效地提高了三维人体姿态估计的精确度,取得了最佳的估计结果。 展开更多
关键词 多视图 三维人体姿态估计 关节相关性 图卷积网络(GCN) 注意力机制 三角剖分
原文传递
基于中心锚困难三元组损失和多视图特征融合的三维模型分类
18
作者 高雪瑶 张澐凯 张春祥 《电子与信息学报》 北大核心 2025年第6期1937-1949,共13页
多视图可以全面表征3维模型的视觉特性以及潜在的空间结构信息,但现有方法容易忽视不同视图间的差异性和互补性。针对上述问题,该文提出一种基于中心锚困难3元组损失和多视图特征融合的3维模型分类方法。首先,以3维模型的多视图集为输入... 多视图可以全面表征3维模型的视觉特性以及潜在的空间结构信息,但现有方法容易忽视不同视图间的差异性和互补性。针对上述问题,该文提出一种基于中心锚困难3元组损失和多视图特征融合的3维模型分类方法。首先,以3维模型的多视图集为输入,利用深度残差收缩网络(DRSN)提取视图特征并融合2维形状分布特征D1,D2和D3得到视图融合特征;其次,根据3维模型视图融合特征,通过香农熵来衡量视图分类的不确定性,并将3维模型的多视图按视图显著性由高到低排序;然后,搭建基于注意力-长短期记忆网络(Att-LSTM)的3元组多视图特征融合网络,利用LSTM学习多视图之间的上下文信息,并融入多头注意力机制充分捕捉多视图间的相关信息;最后,引入度量学习并提出了一种新颖的中心锚困难3元组损失(CAH Triplet Loss),并联合交叉熵损失(CE Loss)来优化多视图特征融合网络,减小同类样本、增大异类样本在特征空间上的距离,加强网络对3维模型区分性特征的学习。实验表明:该方法在3维模型数据集ModelNet10上的分类准确率达到93.83%,分类性能突出。 展开更多
关键词 3维模型分类 多视图特征融合 注意力机制 3元组损失
在线阅读 下载PDF
基于三维结构模型的晚稻杨梅冠层光分布模拟研究
19
作者 华珊 李双伟 +2 位作者 张淑文 戚行江 张真真 《中国农机化学报》 北大核心 2025年第4期80-85,共6页
果树冠层形态结构决定其冠层内部的光分布情况,果园修剪管理通过改变冠层内微环境进而影响果树的生长发育和光截获能力,最终影响果实产量和品质形成。以晚稻杨梅果树自然生长与修剪管理两种树型结构为研究对象,采用多视角图像序列法重... 果树冠层形态结构决定其冠层内部的光分布情况,果园修剪管理通过改变冠层内微环境进而影响果树的生长发育和光截获能力,最终影响果实产量和品质形成。以晚稻杨梅果树自然生长与修剪管理两种树型结构为研究对象,采用多视角图像序列法重建杨梅树冠层三维结构,结合三维辐射模型和光线追踪算法定量模拟冠层内光分布规律。结果表明,多视角图像序列法可以较好地重建杨梅树冠层形态结构,果树主要形态参数模型提取值与人工实测值之间具有较好的一致性,均方根误差RMSE<19.3 cm。自然生长树型结构较为紧凑,叶片相对集中,光截获量大多集中于冠层顶部,中下部由于枝条叶片的遮挡,截获光照较少。修剪后,果树矮化,枝条分布松散均匀,尤其冠层中下部枝条叶片遮挡较少,整体叶面积较自然生长树型增加16.3%,中下部光截获系数高于自然生长树型。修剪管理使得晚稻杨梅的叶片光截获能力提高15.8%。可用于定量分析不同修剪方案形成的树型结构对果树冠层光分布和光截获量的影响,为杨梅果树整形修剪装备智能化决策提供数据参考。 展开更多
关键词 晚稻杨梅 多视角图像 三维重建 冠层结构 光分布 辐射模型
在线阅读 下载PDF
基于低成本多视角立体视觉的辣椒苗三维重建与策略优化
20
作者 朱磊 程瑞英 +3 位作者 丁一民 孙振源 郭政 江伟 《中国农村水利水电》 北大核心 2025年第4期123-129,共7页
基于立体视觉的三维重建技术有效降低了植株表型无损测量中的影像获取成本,但算力消耗较大。开展三维重建策略优化研究,对于提高植株表型信息的采集效率具有重要意义。研究构建了以手机为影像获取手段的多视角成像系统,获取了30株辣椒... 基于立体视觉的三维重建技术有效降低了植株表型无损测量中的影像获取成本,但算力消耗较大。开展三维重建策略优化研究,对于提高植株表型信息的采集效率具有重要意义。研究构建了以手机为影像获取手段的多视角成像系统,获取了30株辣椒苗的影像数据,进一步结合运动恢复结构与多视图立体视觉(SFM-MVS,Structure From Motion-MultiPle View Stereo)算法,在2160个不同分辨率和不同数量影像组合情景下,分别重建了辣椒苗三维点云。通过重建速度、精度、稳定性以及植株表型参数(叶长、叶宽)准确性的评估,优化植株三维点云重建方案。结果表明,当分辨率为480 p,图片数量大于45幅时,重建成功率达到80%,点云间平均距离误差均小于0.05 cm,提取的表型参数值与实测值的R2均到了0.96以上。同时,该情景下单株平均重建时间为344 s,仅为参照情景(分辨率为1080 p、图片数量为120幅)耗时的10%。综上,在辣椒苗的重建中可将分辨率和图像数量分别设置为480 p和45,从而优化表型测量效率。研究结果可为基于三维重建的辣椒苗表型参数快速无损测量提供参考。 展开更多
关键词 三维重建 多视角立体视觉 点云模型 表型参数
在线阅读 下载PDF
上一页 1 2 32 下一页 到第
使用帮助 返回顶部