期刊文献+
共找到371篇文章
< 1 2 19 >
每页显示 20 50 100
The Fusion of Temporal Sequence with Scene Priori Information in Deep Learning Object Recognition
1
作者 Yongkang Cao Fengjun Liu +2 位作者 Xian Wang Wenyun Wang Zhaoxin Peng 《Open Journal of Applied Sciences》 2024年第9期2610-2627,共18页
For some important object recognition applications such as intelligent robots and unmanned driving, images are collected on a consecutive basis and associated among themselves, besides, the scenes have steady prior fe... For some important object recognition applications such as intelligent robots and unmanned driving, images are collected on a consecutive basis and associated among themselves, besides, the scenes have steady prior features. Yet existing technologies do not take full advantage of this information. In order to take object recognition further than existing algorithms in the above application, an object recognition method that fuses temporal sequence with scene priori information is proposed. This method first employs YOLOv3 as the basic algorithm to recognize objects in single-frame images, then the DeepSort algorithm to establish association among potential objects recognized in images of different moments, and finally the confidence fusion method and temporal boundary processing method designed herein to fuse, at the decision level, temporal sequence information with scene priori information. Experiments using public datasets and self-built industrial scene datasets show that due to the expansion of information sources, the quality of single-frame images has less impact on the recognition results, whereby the object recognition is greatly improved. It is presented herein as a widely applicable framework for the fusion of information under multiple classes. All the object recognition algorithms that output object class, location information and recognition confidence at the same time can be integrated into this information fusion framework to improve performance. 展开更多
关键词 Computer Vison Object Recognition Deep Learning Consecutive scene Information fusion
在线阅读 下载PDF
Multi-exposure fusion for high dynamic range scene
2
作者 Shen Xiaohe Liu Jinghong 《High Technology Letters》 EI CAS 2017年第4期343-349,共7页
Due to the existing limited dynamic range a camera cannot reveal all the details in a high-dynamic range scene. In order to solve this problem,this paper presents a multi-exposure fusion method for getting high qualit... Due to the existing limited dynamic range a camera cannot reveal all the details in a high-dynamic range scene. In order to solve this problem,this paper presents a multi-exposure fusion method for getting high quality images in high dynamic range scene. First,a set of multi-exposure images is obtained by multiple exposures in a same scene and their brightness condition is analyzed. Then,multi-exposure images under the same scene are decomposed using dual-tree complex wavelet transform( DT-CWT),and their low and high frequency components are obtained. Weight maps according to the brightness condition are assigned to the low components for fusion. Maximizing the region Sum Modified-Laplacian( SML) is adopted for high-frequency components fusing. Finally,the fused image is acquired by subjecting the low and high frequency coefficients to inverse DT-CWT.Experimental results show that the proposed approach generates high quality results with uniform distributed brightness and rich details. The proposed method is efficient and robust in varies scenes. 展开更多
关键词 multi-exposure fusion high dynamic range scene dual-tree complex wavelet transform(DT-CWT) brightness analysis
在线阅读 下载PDF
照度条件自适应的粒度渐进多模态图像融合方法 被引量:1
3
作者 王传云 孙冬冬 +3 位作者 周明奇 王田 高骞 李照奎 《工程科学学报》 北大核心 2025年第6期1257-1271,共15页
为应对光照条件复杂多变下的多场景视觉感知挑战,本文提出了一种照度条件自适应的粒度渐进多模态图像融合方法.首先,设计了基于大模型的场景信息嵌入模块,通过预训练的图像编码器对输入的可见光图像进行场景建模,并利用不同的线性层对... 为应对光照条件复杂多变下的多场景视觉感知挑战,本文提出了一种照度条件自适应的粒度渐进多模态图像融合方法.首先,设计了基于大模型的场景信息嵌入模块,通过预训练的图像编码器对输入的可见光图像进行场景建模,并利用不同的线性层对场景向量进行处理.随后,利用处理后的场景向量对图像重建阶段的图像特征在通道维度上进行调控,使得融合模型能够根据不同的场景光照生成不同风格的融合图像.其次,为了解决现有特征提取模块在特征表达上的不足,本文设计了基于状态空间方程的特征提取模块,以线性复杂度实现全局特征感知,减少了信息传输过程中的信息丢失,提升了融合图像的视觉效果.最后,设计了粒度渐进融合模块,利用状态空间方程对多模态特征进行全局聚合,并引入跨模态坐标注意力机制对聚合后的特征进行精细调优,从而实现多模态特征从全局到局部的多阶段融合,增强了网络的信息整合能力.在训练过程中,本文采用先验知识生成增强图像作为标签,并根据不同环境构建同源与异构的损失函数,以实现场景自适应的多模态图像融合.实验结果显示,本文方法在暗光场景数据集MSRS和LLVIP、混合光照数据集TNO、连续场景数据集RoadScene以及雾霾场景数据集M3FD上的表现均优于11种先进算法,在定量和定性对比中取得了更好的视觉效果和更高的定量指标.所提出的方法在自动驾驶、军事侦察和环境监控等任务中展现出较大的潜力. 展开更多
关键词 视觉感知优化 图像融合 多模态 场景自适应 状态空间模型 跨模态注意力机制
在线阅读 下载PDF
基于用户情景推断的军事信息Hybrid-CF推荐算法
4
作者 陶飞飞 陈诚 +1 位作者 石敏芳 邓劲柏 《计算机测量与控制》 2025年第4期186-191,共6页
针对当前军事信息推荐方法未对用户所处时间、地理位置和用户场景做区分,以及未考虑军事用户的信息需求与所处场景的关联性,导致推荐结果固定、单一化的问题,设计了基于用户情景推断的军事信息Hybrid-CF(混合协同过滤)推荐方法;融入军... 针对当前军事信息推荐方法未对用户所处时间、地理位置和用户场景做区分,以及未考虑军事用户的信息需求与所处场景的关联性,导致推荐结果固定、单一化的问题,设计了基于用户情景推断的军事信息Hybrid-CF(混合协同过滤)推荐方法;融入军事用户情景要素对传统协同过滤算法进行了改进,通过计算当前情景信息与历史信息的相似度,更加准确地推断出当前军事用户的所处情景,继而给军事用户推荐符合其需求的特定情景下的军事信息;为了解决推荐算法矩阵稀疏、效果单一等问题,引入了加权平衡因子将不同的推荐算法进行动态加权得到融合情景信息的Hybrid-CF推荐算法,并通过控制因子λ对加权平衡因子进行动态调整;实验结果表明,所提出的Hybrid-CF推荐算法在准确率和召回率上均体现了良好的提升效果。 展开更多
关键词 协同过滤 融合情景 情景推断 加权平衡因子 混合推荐
在线阅读 下载PDF
基于归一化流的多模态多尺度工业场景缺陷检测 被引量:1
5
作者 曲海成 林俊杰 《中国图象图形学报》 北大核心 2025年第2期451-466,共16页
目的工业缺陷检测是现代工业质量控制中至关重要的一环,针对工业多模态缺陷检测场景下,捕捉不同形状大小、在RGB图像上感知度低的缺陷,以及减少单模态原始特征空间内存在的噪声对多模态信息交互的干扰的挑战,提出了一种基于归一化流的... 目的工业缺陷检测是现代工业质量控制中至关重要的一环,针对工业多模态缺陷检测场景下,捕捉不同形状大小、在RGB图像上感知度低的缺陷,以及减少单模态原始特征空间内存在的噪声对多模态信息交互的干扰的挑战,提出了一种基于归一化流的多模态多尺度缺陷检测方法。方法首先,使用Vision Transformer和Point Transformer对RGB图像和3D点云两个模态的信息提取第1、3、11块的特征构建特征金字塔,保留低层次特征的空间信息助力缺陷定位任务,并提高模型对不同形状大小缺陷的鲁棒性;其次,为了简化多模态交互,使用过点特征对齐算法将3D点云特征对齐至RGB图像所在平面,通过构建对比学习矩阵的方式实现无监督多模态特征融合,促进不同模态之间信息的交互;此外,通过设计代理任务的方式将信息瓶颈机制扩展至无监督,并在尽可能保留原始信息的同时,减少噪声干扰得到更充分有力的多模态表示;最后,使用多尺度归一化流结构捕捉不同尺度的特征信息,实现不同尺度特征之间的交互。结果本文方法在MVTec-3D AD数据集上进行性能评估,实验结果显示Detection AUCROC(area under the curve of the receiveroperating characteristic)指标达到93.3%,SegmentationAUPRO(area under the precision-recall overlap)指标达到96.1%,Segmentation AUCROC指标达到98.8%,优于大多数现有的多模态缺陷检测方法。结论本文方法对于不同形状大小、在RGB图像上感知度低的缺陷有较好的检测效果,不但减少了原始特征空间内噪声对多模态表示的影响,并且对不同形状大小的缺陷具有一定的泛化能力,较好地满足了现代工业对于缺陷检测的要求。 展开更多
关键词 多模态多尺度工业场景 缺陷检测 无监督特征融合(UFF) 代理任务 归一化流
原文传递
工业场景下人员行为的多模态信息融合决策策略
6
作者 王海泉 于浩玮 +3 位作者 杨岳毅 徐晓滨 卜祥洲 KURKOVA P 《中国安全科学学报》 北大核心 2025年第8期84-92,共9页
为预防工业场景下人员不安全生产行为所导致的安全事故,解决光线不佳、视野受限和遮挡等干扰情况下单一视觉模态动作识别效果不佳的问题,提出一种基于自适应证据推理(S-ER)策略,融合视频信息和惯性测量元件(IMU)信息的人员不安全行为决... 为预防工业场景下人员不安全生产行为所导致的安全事故,解决光线不佳、视野受限和遮挡等干扰情况下单一视觉模态动作识别效果不佳的问题,提出一种基于自适应证据推理(S-ER)策略,融合视频信息和惯性测量元件(IMU)信息的人员不安全行为决策方法。首先,构建基于注意力机制的多任务三维卷积模型(M-C3D),分析视频信息,运用融合注意力机制的一维卷积神经网络(1D-CNN)处理IMU信息;其次,运用证据推理(ER)策略实现决策级融合,并通过萤火虫优化算法构建不同环境条件下证据权重和可靠度的优化集合,确保视频和传感器模态信息的权重能够根据环境情况自适应调整;最后,通过德克萨斯大学达拉斯分校的多模态人员行为数据集(UTD-MHAD)和中原工学院的多模态人员行为数据集(ZUT-MHAD)验证模型的有效性。结果表明:在存在干扰的工业场景中,S-ER方法的识别准确率最高可达98.53%,较传统多模态融合方法及单模态识别方法的最高值提升17.52%。 展开更多
关键词 工业场景 多模态信息 信息融合 行为识别 证据推理(ER)策略
原文传递
基于绿幕抠像与AI智能合成的电视节目场景融合制作技术研究
7
作者 王源 《电视技术》 2025年第7期89-91,共3页
为打破传统拍摄场地的限制,使制作团队能够在虚拟场景中进行创作,提出在电视节目场景融合制作中应用绿幕抠像技术,并结合人工智能(Artificial Intelligence,AI)合成算法,以此提高电视节目制作的质量和效率。实验结果表明,融合后的图像... 为打破传统拍摄场地的限制,使制作团队能够在虚拟场景中进行创作,提出在电视节目场景融合制作中应用绿幕抠像技术,并结合人工智能(Artificial Intelligence,AI)合成算法,以此提高电视节目制作的质量和效率。实验结果表明,融合后的图像峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)提高15.0~26.3 dB,结构相似性(Structural Similarity,SSIM)值提高0.27~0.56,验证了所提方法在提升图像质量、减少噪声干扰、保持结构信息及增强视觉效果方面的有效性和优越性。 展开更多
关键词 绿幕抠像 人工智能(AI) 电视节目 场景融合
在线阅读 下载PDF
具备红外感知的低光场景目标检测
8
作者 张志佳 那惺奇 +2 位作者 肖宇航 房建 赵怀慈 《沈阳工业大学学报》 北大核心 2025年第4期417-424,共8页
【目的】随着人工智能领域的快速发展,基于可见光图像的目标检测技术日益成熟,并在自动驾驶、安防监控、智能交通等领域得到了广泛应用。然而,在低光场景(如黑夜或昏暗灯光环境)下,基于可见光图像的目标检测算法性能显著下降。主要原因... 【目的】随着人工智能领域的快速发展,基于可见光图像的目标检测技术日益成熟,并在自动驾驶、安防监控、智能交通等领域得到了广泛应用。然而,在低光场景(如黑夜或昏暗灯光环境)下,基于可见光图像的目标检测算法性能显著下降。主要原因在于可见光图像在低光条件下信息丢失严重,导致目标特征难以提取。为解决这一问题,提出了基于可见光图像和红外图像的多模态目标检测技术,该技术能够有效改善低光场景下的目标检测性能。然而,多模态检测技术的成本较高,需要对不同模态的图像进行精确配准,计算量较大,从而增加了实现难度和处理负担。基于此,提出了一种具备红外感知的目标检测网络(InSCnet),旨在通过一个可见光相机来预测红外热辐射特征,在不增加模态的情况下提升网络在低光场景下的目标检测能力。【方法】InSCnet以可见光图像为输入,通过红外预测分支(IPB)生成红外图像来预测热辐射特征,从而增强网络对低光场景的感知能力。为了有效融合多尺度视觉和热辐射特征,设计了互补融合滤波(COFF)模块。COFF通过互补融合这两种特征,增强特征间的互补性,避免了网络对单一模态特征的过度依赖。此外,采用混合特征金字塔(HyFP)模块,通过特征金字塔和注意力机制,进一步提升多尺度全局与局部特征的融合与提取能力,确保网络在不同程度的低光条件下均能保持较高的检测准确率。【结果】实验结果表明,InSCnet在LLVIP行人检测数据集上表现优异。具体而言,S mAP50达到了0.830,S mAP50-95达到了0.426。同时在DroneVehicle数据集上进行了实验,S mAP50达到了0.702,证明了InSCnet具备多类别低光检测能力。【结论】InSCnet通过引入红外热辐射特征和特征融合机制,提升了低光场景下的目标检测性能;在低光场景下能够有效检测可见光图像中难以识别的目标,为低光场景下的目标检测提供了一种有效的解决方案。未来的研究可以进一步探索如何优化网络结构。 展开更多
关键词 目标检测 低光场景 红外预测 特征融合 特征金字塔 全局特征 局部特征 人工智能
在线阅读 下载PDF
基于特征增强和多头注意力融合的表情识别 被引量:3
9
作者 于霞 武家逸 +3 位作者 杨畅 杨海波 付琪 孙佳毓 《沈阳大学学报(自然科学版)》 2025年第1期44-52,F0003,共10页
为了解决近年来基于深度学习的人脸表情识别研究主要依赖实验室受控环境,难以反映现实场景中的自发性和无约束性的问题,同时针对人脸表情变化受多个关键区域影响以及表情数据存在显著类间相似性与类内差异性的挑战,提出了一种基于特征... 为了解决近年来基于深度学习的人脸表情识别研究主要依赖实验室受控环境,难以反映现实场景中的自发性和无约束性的问题,同时针对人脸表情变化受多个关键区域影响以及表情数据存在显著类间相似性与类内差异性的挑战,提出了一种基于特征增强和多头注意力融合的人脸表情识别模型。设计改进中心损失函数来增强面部特征的可区分性,增大类间差异,减小类内差异;通过多头注意力学习表情变化的区域相关性;进行注意力融合,提出融合损失函数避免注意力区域重叠,输出表情类别。在基于真实场景的RAF-DB和AffectNet数据集上取得了89.37%和65.31%的准确率,与现有模型相比,有效提高了表情识别精度。 展开更多
关键词 表情识别 真实场景 特征增强 多头注意力 注意力融合
在线阅读 下载PDF
基于Transformer和CNN的非结构化场景语义分割方法
10
作者 杨森 杨长春 +1 位作者 王彭 王宇鹏 《计算机仿真》 2025年第4期244-248,410,共6页
为解决大多数分割算法只适用于结构化道路,在非结构化场景中会遇到错误分割、实时性低等问题,提出了一种用于非结构化场景分割的结合Transformer和卷积神经网络(CNN)的方法—TrCNet。上述方法有效地把Transformer和CNN结合起来,编码器由... 为解决大多数分割算法只适用于结构化道路,在非结构化场景中会遇到错误分割、实时性低等问题,提出了一种用于非结构化场景分割的结合Transformer和卷积神经网络(CNN)的方法—TrCNet。上述方法有效地把Transformer和CNN结合起来,编码器由CNN构成,负责提取多尺度的局部特征。特征被输入到解码器中的Transformer模块,对局部特征进行全局建模和上下文关联,图像中的全局语义信息得到有效编码,同时保留了局部特征的细节。此外还设计了多尺度特征融合模块(MFFM),以在不同层级之间传递和融合特征信息,进一步提高语义分割的准确性和效果。实验结果表明,TrCNet在RUGD和RELLIS测试集中的Mio U分别达到了50.51%和52.29%,同时FLOPs和Params仅为18.24G和23.71M,可以有效解决非结构化场景中的分割不准确、实时性不高的难题。 展开更多
关键词 非结构化环境 语义分割 多尺度特征融合
在线阅读 下载PDF
基于自适应多分支卷积的声学场景分类
11
作者 韦娟 何德华 宁方立 《系统工程与电子技术》 北大核心 2025年第10期3148-3154,共7页
针对声学场景分类任务中模型特征表达能力不充足的问题,提出一种基于自适应多分支卷积优化的网络架构。首先,使用多支路分别提取特征,再引入动态权重自适应改变权值平衡每个支路,提升特征感知能力。其次,考虑现有模型分类时忽略类与类... 针对声学场景分类任务中模型特征表达能力不充足的问题,提出一种基于自适应多分支卷积优化的网络架构。首先,使用多支路分别提取特征,再引入动态权重自适应改变权值平衡每个支路,提升特征感知能力。其次,考虑现有模型分类时忽略类与类之间的关系问题,引入粗粒度分类器辅助训练原分类模型,通过结果融合增强分类过程。在TUT2020移动开发数据集上进行训练与测试。实验结果表明,相较于优化前的算法,所提模型在准确率上提升了6.5%,证明所提方法可以有效提升整体分类效果。 展开更多
关键词 声学场景分类 卷积神经网络 自适应特征融合 层次结构
在线阅读 下载PDF
基于餐饮消费场景的白酒销售对策研究
12
作者 石自彬 刘竟成 赵天惠 《酿酒》 2025年第1期43-47,共5页
白酒在餐饮活动中具有重要的社会交际功能,是有效传递和增加社交情感的载体。餐饮一直都是白酒的重要销售场所,但随着现代餐饮业的发展和白酒新兴销售渠道的多样化,传统销售模式在现有白酒餐饮场所己不能完全满足商家及消费者的需求。... 白酒在餐饮活动中具有重要的社会交际功能,是有效传递和增加社交情感的载体。餐饮一直都是白酒的重要销售场所,但随着现代餐饮业的发展和白酒新兴销售渠道的多样化,传统销售模式在现有白酒餐饮场所己不能完全满足商家及消费者的需求。白酒销售应准确把握餐饮场所在开展白酒营销中具有的优势,把握顾客的餐饮消费心理,通过打造沉浸式餐饮消费场景、举办餐酒融合品鉴活动、餐酒深度融合相互促销等形式培养白酒消费忠诚顾客。 展开更多
关键词 白酒销售 餐饮场景 餐酒融合 白酒庄园 沉浸式消费
在线阅读 下载PDF
基于多语义关联与融合的视觉问答模型
13
作者 周浩 王超 +1 位作者 崔国恒 罗廷金 《计算机应用》 北大核心 2025年第3期739-745,共7页
弥合视觉图像和文本问题之间的语义差异是提高视觉问答(VQA)模型推理准确性的重要方法之一。然而现有的相关模型大多数基于低层图像特征的提取并利用注意力机制推理问题的答案,忽略了高层图像语义特征如关系和属性特征等在视觉推理中的... 弥合视觉图像和文本问题之间的语义差异是提高视觉问答(VQA)模型推理准确性的重要方法之一。然而现有的相关模型大多数基于低层图像特征的提取并利用注意力机制推理问题的答案,忽略了高层图像语义特征如关系和属性特征等在视觉推理中的作用。为解决上述问题,提出一种基于多语义关联与融合的VQA模型以建立问题与图像之间的语义联系。首先,基于场景图生成框架提取图像中的多种语义并把它们进行特征精炼后作为VQA模型的特征输入,从而充分挖掘图像场景中的信息;其次,为提高图像特征的语义价值,设计一个信息过滤器过滤图像特征中的噪声和冗余信息;最后,设计多层注意力融合和推理模块将多种图像语义分别与问题特征进行语义融合,以强化视觉图像重点区域与文本问题之间的语义关联。与BAN(Bilinear Attention Network)和CFR(Coarse-to-Fine Reasoning)模型的对比实验结果表明,所提模型在VQA2.0测试集上的准确率分别提高了2.9和0.4个百分点,在GQA测试集上的准确率分别提高了17.2和0.3个百分点。这表明所提模型能够更好地理解图像场景中的语义并回答组合式视觉问题。 展开更多
关键词 多语义特征融合 视觉问答 场景图 属性注意力 关系注意力
在线阅读 下载PDF
基于AI的多模态融合感知综合决策系统设计实现 被引量:3
14
作者 冯晓辉 艾润 +1 位作者 刘林青 眭臻 《现代电子技术》 北大核心 2025年第1期173-178,共6页
针对传统军事要地安防系统智能化程度较低,各自独立互不关联,缺少顶层数据综合治理等问题,选取外围周界、重要卡口、无人巡更和区域高点四种典型安防业务场景开展建模,通过数据标准化接入、智能研判分析、安防态势显示三个处理环节,构... 针对传统军事要地安防系统智能化程度较低,各自独立互不关联,缺少顶层数据综合治理等问题,选取外围周界、重要卡口、无人巡更和区域高点四种典型安防业务场景开展建模,通过数据标准化接入、智能研判分析、安防态势显示三个处理环节,构建基于AI的多模态融合感知综合决策系统,实现前端感知多维化、中台研判智能化、后端处置多样化,有效支撑了重要军事目标安全防卫,系统后续也具有良好的可扩展性与可维护性。 展开更多
关键词 要地防卫 多模态数据融合 场景建模 规则定制 感知处置决策 智能化安防系统
在线阅读 下载PDF
基于F-CNN的电网工程场景识别系统设计与应用
15
作者 董斌 祝和春 +2 位作者 邹仕富 张剑铧 龚旗帜 《自动化与仪器仪表》 2025年第4期264-268,273,共6页
针对电网工程场景识别准确率和效率不高的问题,设计一种基于卷积神经网络的多源图像融合识别模型(Fusion image convolutional neural network,F-CNN)的电网工程场景识别系统。首先,然后采用改进的YOLOv5s网络进行电网场景图像进行目标... 针对电网工程场景识别准确率和效率不高的问题,设计一种基于卷积神经网络的多源图像融合识别模型(Fusion image convolutional neural network,F-CNN)的电网工程场景识别系统。首先,然后采用改进的YOLOv5s网络进行电网场景图像进行目标检测;然后对红外图像和可见光图像进行多光谱图像融合处理;最后通过F-CNN识别模型实现电网工程场景识别。实验结果表明,本模型的场景识别精确率、召回率和F1值分别取值为95.37%、94.06%和97.59%,明显高于传统的CNN-Transformer识别模型和ResNet-LSTM识别模型,且本模型的识别时长仅为18.52 s,相较于另外两种模型分别低了61.48 s和39.97 s。由此分析可知,本方法可实现电网工程场景快速准确识别,可在系统中进行有效应用,具备有效性。 展开更多
关键词 电网工程 场景识别 目标检测 图像融合 F-CNN
原文传递
基于改进YOLOv7的遥感图像旋转目标检测 被引量:1
16
作者 崔家礼 刘远 《微电子学与计算机》 2025年第4期48-57,共10页
遥感图像目标的高效精确检测是目标检测领域的重要问题。然而,物体有限的外观纹理特征和多样的旋转方向使得遥感图像目标检测变得困难。针对这些问题,提出了一种改进YOLOv7的遥感图像旋转目标检测算法。首先,引入KL(Kullback-Leibler)... 遥感图像目标的高效精确检测是目标检测领域的重要问题。然而,物体有限的外观纹理特征和多样的旋转方向使得遥感图像目标检测变得困难。针对这些问题,提出了一种改进YOLOv7的遥感图像旋转目标检测算法。首先,引入KL(Kullback-Leibler)散度作为回归损失函数将旋转框坐标转换为二维高斯分布,解决了传统水平框检测在计算旋转角度时产生边界不连续的问题。其次,引入选择性大核卷积改造YOLOv7网络的特征提取模块,增强网络对目标形状、类别、尺度等特征信息的感知能力,提高网络模型的精度。最后,针对检测头中分类和回归任务共享特征带来的精度下降问题,采用了TSCODE特征解耦的检测头,提升了网络对分类特征和回归特征的学习能力。在DOTAv1.0和HRSC2016数据集上进行了相关实验,验证了所提方法的有效性和鲁棒性。 展开更多
关键词 遥感图像旋转检测 密集场景 选择性大核卷积 渐进式融合解耦检测头 YOLOv7
在线阅读 下载PDF
一种道路注记与实景三维模型的融合显示方法 被引量:1
17
作者 钟娜娜 周圣川 +2 位作者 赵军 王海银 乔新 《测绘通报》 北大核心 2025年第1期165-169,共5页
为了提高道路注记在三维地理信息系统中的视觉表现和用户体验,本文提出了一种将道路注记与实景三维模型融合显示的方法。通过道路数据显示规则设计、预处理生成路名注记点、查询服务接口封装、实景三维客户端实时分析融合显示的流程方法... 为了提高道路注记在三维地理信息系统中的视觉表现和用户体验,本文提出了一种将道路注记与实景三维模型融合显示的方法。通过道路数据显示规则设计、预处理生成路名注记点、查询服务接口封装、实景三维客户端实时分析融合显示的流程方法,有效地将文字信息嵌入三维场景中,保证了用户在不同视角和缩放级别下的阅读舒适度和信息获取准确性,具有立体美观、计算高效、不压盖、兼容超大范围实景三维应用等特点,为实景三维补充了重要的语义数据,有效提升了实景三维的应用效果。 展开更多
关键词 实景三维 道路 注记 融合可视化 三维场景
原文传递
点云与BIM数据配准在施工进度检测中的应用 被引量:5
18
作者 李文钦 刘峰 《土木建筑工程信息技术》 2025年第2期104-110,共7页
通过倾斜摄影测量和机载LiDAR技术快速获取大范围建筑物施工现场点云数据,与BIM模型转换而来的三角网或三维点云类可读取顶点坐标信息的数据融合配准,比对施工现场的三维场景与BIM模型之间的差异,对施工进度进行检测。在某房屋建筑项目... 通过倾斜摄影测量和机载LiDAR技术快速获取大范围建筑物施工现场点云数据,与BIM模型转换而来的三角网或三维点云类可读取顶点坐标信息的数据融合配准,比对施工现场的三维场景与BIM模型之间的差异,对施工进度进行检测。在某房屋建筑项目施工过程中,使用激光扫描的方式获取施工现场前后共三期的三维点云数据,并以二期和三期数据作为变化检测的焦点,比较两个阶段模型之间的体素变化,分析、识别并提取从二期到三期的新建部件,将变化检测结果清晰地标记在BIM模型上,精确识别施工进度变化。项目实际应用的结果显示,通过该方法检测项目施工的进度有助于项目管理人员做出更为准确及时的决策。 展开更多
关键词 点云数据 建筑信息模型 融合配准 实景检测 施工进度
在线阅读 下载PDF
复杂场景下多光谱特征融合的航拍车辆检测
19
作者 赵子杰 沈诗淇 +3 位作者 应展烽 李科廷 李瑞星 唐世玮 《兵工学报》 北大核心 2025年第S1期271-279,共9页
针对无人机航拍车辆目标检测中存在的多光谱特征失配、复杂场景干扰以及检测精度不足等问题,提出一种基于YOLOv10的多特征空间联合优化网络——多尺度门控融合网络(Multi-Scale Gated Fusion Network,MSGF-Net)。该网络通过双流特征提... 针对无人机航拍车辆目标检测中存在的多光谱特征失配、复杂场景干扰以及检测精度不足等问题,提出一种基于YOLOv10的多特征空间联合优化网络——多尺度门控融合网络(Multi-Scale Gated Fusion Network,MSGF-Net)。该网络通过双流特征提取并在主干引入门控局部-全局融合模块,实现可见光与红外特征在多特征空间中的有效交互与联合优化,缓解特征失配带来的影响并增强特征表达。在特征金字塔网络后,引入跨模态嵌入模块,逐像素加权融合多特征空间信息,进一步提升不同光谱特征间的互补性。在公开数据集DroneVehicle上的实验结果表明:MSGF-Net的mAP 0.5和mAP 0.5:0.95分别达到83.4%和63.9%,相较于单通道模型YOLOv10n有显著提升,且相比于C 2 Former和TSDADet等代表性的多模态融合算法提升超过9个百分点,结果有力地证明了模型在低光、雾天、遮挡等复杂场景下检测具有更优的鲁棒性和准确性。 展开更多
关键词 计算机视觉 多光谱特征融合 YOLOv10 复杂场景 目标检测
在线阅读 下载PDF
多区域融合的全卷积颜色恒常算法
20
作者 刘凯 孙鹏 +2 位作者 倪新龙 赵瑞敏 解梦达 《小型微型计算机系统》 北大核心 2025年第3期655-661,共7页
针对现有颜色恒常性算法在复杂场景下的适用性差,光源估计精度不高的问题,提出一种多区域融合的全卷积颜色恒常算法.首先,利用金字塔场景解析网络(Pyramid Scene Parsing Network,PSPNet)模型对目标图像进行场景语义分割;其次,将本文提... 针对现有颜色恒常性算法在复杂场景下的适用性差,光源估计精度不高的问题,提出一种多区域融合的全卷积颜色恒常算法.首先,利用金字塔场景解析网络(Pyramid Scene Parsing Network,PSPNet)模型对目标图像进行场景语义分割;其次,将本文提出的基于全卷积网络架构的端到端光源估计模型(Full Convolutional Illuminant Estimation Network,FCIEN)用于各语义区域进行光源估计,各区域通过加权融合得到整体图像的光源估计值;最后,根据得到的光源估计值使用Von Kries模型对目标图像进行偏色校正.在Gehler-Shi、NUS-8camera等数据集中的实验结果表明,相较于同类型的算法,本文算法的光源估计角度误差值分别下降20.73%、15.22%.实验结果表明,本文算法针对复杂场景的光源估计有着较强的鲁棒性和准确性. 展开更多
关键词 图像处理 颜色恒常性 语义分割 多区域融合 光源估计 场景语义
在线阅读 下载PDF
上一页 1 2 19 下一页 到第
使用帮助 返回顶部