期刊文献+
共找到322篇文章
< 1 2 17 >
每页显示 20 50 100
HDMapFusion:用于自动驾驶的多模态融合高清地图生成(特邀)
1
作者 刘洋宏 付杨悠然 董性平 《计算机工程》 北大核心 2025年第10期18-26,共9页
高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义... 高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义地图的生成精度。与传统直接融合原始传感器数据的方法不同,HDMapFusion创新性地将相机图像特征和激光雷达点云特征统一转换为鸟瞰视图(BEV)空间表示,在统一的几何坐标系下实现了多模态信息的物理可解释性融合。具体而言:HDMapFusion首先通过深度学习网络分别提取相机图像的视觉特征和激光雷达的三维(3D)结构特征;然后利用可微分的视角变换模块将前视图像特征转换为BEV空间表示,同时将激光雷达点云特征通过体素化处理投影到相同的BEV空间,在此基础上设计一个基于注意力机制的特征融合模块,自适应地加权整合两种模态;最后通过语义解码器生成包含车道线、人行横道、道路边界线等要素的高精度语义地图。在nuScenes自动驾驶数据集上的实验结果表明,HDMapFusion在高清地图生成精度方面显著优于现有基准方法。这些实验结果验证了HDMapFusion的有效性和优越性,为自动驾驶环境感知中的多模态融合问题提供了新的解决思路。 展开更多
关键词 高清地图生成 多模态融合 鸟瞰视图表示 自动驾驶 深度估计
在线阅读 下载PDF
跨模态不一致感知下双视角交互融合的多模态情感分析
2
作者 卜韵阳 齐彬廷 卜凡亮 《计算机科学》 北大核心 2026年第1期187-194,共8页
在社交媒体上,人们的评论通常会描述对应图像中的某一情感区域,图像和文本之间是具有对应信息的。以往的大多数多模态情感分析方法只是从单一视角探索图像和文本的相互影响,捕获图像区域和文本单词的对应关系,导致结果不是最优的。此外... 在社交媒体上,人们的评论通常会描述对应图像中的某一情感区域,图像和文本之间是具有对应信息的。以往的大多数多模态情感分析方法只是从单一视角探索图像和文本的相互影响,捕获图像区域和文本单词的对应关系,导致结果不是最优的。此外,社交媒体上的数据具有强烈的个人主观性,数据中的情感是多维和复杂的,导致出现了图像和文本情感一致性弱的数据。针对上述问题,提出了一种跨模态不一致感知下双视角交互融合的多模态情感分析模型。一方面,从全局和局部两种视角对图文特征进行跨模态交互,提供更全面、准确的情感分析,从而提升模型的表现和应用效果。另一方面,计算图文特征的不一致分数,用于代表图文不一致程度,以此来动态调控单模态表示和多模态表示的最终情感特征的权重,从而提高模型的鲁棒性。在MVSA-Single和MVSA-Multiple两个公共数据集上进行广泛实验,结果证明所提出的多模态情感分析模型与现有基线模型相比F1值分别提高0.59个百分点和0.39个百分点,具有有效性和优越性。 展开更多
关键词 多模态情感分析 跨模态不一致感知 双视角交互融合 动态调控 跨模态交互
在线阅读 下载PDF
利用WorldView-2卫星影像数据生产高分辨率多光谱技术正射影像方法 被引量:1
3
作者 线东升 李德林 《测绘与空间地理信息》 2015年第3期144-145,共2页
阐述了在工作实践中利用WorldView-2卫星影像制作正射影像的基本工艺流程,着重分析卫片的融合、校正、影像镶嵌等处理环节中的方法,坐标的建立及转换,数据格式的转换等,以及此过程中遇到的问题,及在各个环节中的质量控制。
关键词 Worldview-2卫星影像 影像融合 影像纠正 影像镶嵌 正射影像
在线阅读 下载PDF
融合加权不一致性的多视图聚类 被引量:2
4
作者 滕少华 盛文涛 +2 位作者 滕璐瑶 张巍 曾莹 《小型微型计算机系统》 北大核心 2025年第2期381-388,共8页
图学习是一种广泛应用于多视图聚类的技术,它可以从多视图中学习出统一的相似图.现有的图学习方法大多只能发掘多视图的一致性,忽视了不一致的信息,这使得它们可能在学习过程中丢失视图独有的信息.为了解决这个问题,本文提出了一种融合... 图学习是一种广泛应用于多视图聚类的技术,它可以从多视图中学习出统一的相似图.现有的图学习方法大多只能发掘多视图的一致性,忽视了不一致的信息,这使得它们可能在学习过程中丢失视图独有的信息.为了解决这个问题,本文提出了一种融合一致性和不一致性,面向图的多视图低秩聚类框架.该方法首先将多视图分解为一致性和不一致性两个部分,然后利用自适应加权融合多视图的一致性图,并在此过程中防止权重出现平凡解;进而,提出了一种新颖的低秩融合策略,用一个统一的目标函数融合多视图一致性和不一致性,并通过谱聚类获得结果.本文还设计并实现了一种迭代优化方法来求解目标函数.最后,7个多视图数据集的对比实验验证了该方法的有效性. 展开更多
关键词 多视图聚类 融合多视图一致性和不一致性 多视图不一致性 低秩表示
在线阅读 下载PDF
多样性负实例生成的跨域人脸伪造检测 被引量:3
5
作者 张晶 许盼 +2 位作者 刘文君 郭晓萱 孙芳 《中国图象图形学报》 北大核心 2025年第2期421-434,共14页
目的深度伪造检测(deepfake detection)通过训练复杂深度神经网络,挖掘更具辨别性的人脸图像表示,获得高精度的检测结果,其是一项确保人脸信息真实、可靠和安全的重要技术。然而,目前流行的模型存在过度依赖训练数据,使模型仅在相同域... 目的深度伪造检测(deepfake detection)通过训练复杂深度神经网络,挖掘更具辨别性的人脸图像表示,获得高精度的检测结果,其是一项确保人脸信息真实、可靠和安全的重要技术。然而,目前流行的模型存在过度依赖训练数据,使模型仅在相同域内表现出令人满意的检测性能,在跨领域场景中表现出较低泛化性,甚至使模型失效。因此,如何在有限的训练数据下实现跨域环境中的高效伪造人脸检测,成为亟待解决的问题。基于此,本文提出多样性负实例生成的跨域人脸伪造检测模型(negative instance generation-FFD,NIG-FFD)。方法首先,通过构建孪生自编码网络,获得标签一致的潜在多视图融合特征,引入对比约束提高难样本特征可判别性;其次,在高效训练的同时利用构造规则生成更具多样性的负实例融合特征,提高模型泛化性;最后,构建自适应重要性权值矩阵,避免因负实例生成导致类别分布不平衡使正类别样本欠学习。结果在两个流行的跨域数据集上验证本文模型的有效性,与其他先进方法相比,AUC(area under the receiver operating characteristic curve)值提升了10%。同时,在本域检测中ACC(accuracy score,)与AUC值相比其他方法均提升了近10%与5%。结论与对比方法相比,本文方法在跨域和本域的人脸伪造检测上都取得了优越的性能。本文所提的模型代码已开源至:https://github.com/LNNU-computer-research-526/NIG-FFD。 展开更多
关键词 深度伪造检测 跨域人脸伪造检测 多视图特征融合 特征生成 对比约束
原文传递
路基病害雷达图像多视图融合识别方法 被引量:1
6
作者 陈登峰 何拓航 +2 位作者 杨小燕 刘世鹏 孟屯良 《测绘通报》 北大核心 2025年第5期66-73,共8页
三维探地雷达(GPR)技术是道路隐性病害检测的重要手段,利用智能辨识算法分析GPR数据能提升病害检测效率,然而现有算法未充分利用GPR多视图信息,导致辨识准确率较低。为此,本文提出了一种GPR多视图融合的路基病害识别模型。该模型采用双... 三维探地雷达(GPR)技术是道路隐性病害检测的重要手段,利用智能辨识算法分析GPR数据能提升病害检测效率,然而现有算法未充分利用GPR多视图信息,导致辨识准确率较低。为此,本文提出了一种GPR多视图融合的路基病害识别模型。该模型采用双通道并行结构,利用MobileViT网络分别从GPR的B-scan和C-scan图像中提取高维特征,挖掘双视图的互补信息以进行特征学习。为有效整合双视图信息,提出了特征交错加权融合方法,将提取到的双视图高维特征进行近邻排列,并通过动态优化特征通道的权重分配,突出关键特征并抑制无关信息。试验结果表明,该网络模型对测试集的准确率达到90.5%;此外,在高斯白噪声干扰下,相较于基线模型,模型总体退化指数降低了13.51%,展示出优越的稳健性。 展开更多
关键词 路基病害 深度学习 探地雷达 多视图融合
原文传递
基于中心锚困难三元组损失和多视图特征融合的三维模型分类
7
作者 高雪瑶 张澐凯 张春祥 《电子与信息学报》 北大核心 2025年第6期1937-1949,共13页
多视图可以全面表征3维模型的视觉特性以及潜在的空间结构信息,但现有方法容易忽视不同视图间的差异性和互补性。针对上述问题,该文提出一种基于中心锚困难3元组损失和多视图特征融合的3维模型分类方法。首先,以3维模型的多视图集为输入... 多视图可以全面表征3维模型的视觉特性以及潜在的空间结构信息,但现有方法容易忽视不同视图间的差异性和互补性。针对上述问题,该文提出一种基于中心锚困难3元组损失和多视图特征融合的3维模型分类方法。首先,以3维模型的多视图集为输入,利用深度残差收缩网络(DRSN)提取视图特征并融合2维形状分布特征D1,D2和D3得到视图融合特征;其次,根据3维模型视图融合特征,通过香农熵来衡量视图分类的不确定性,并将3维模型的多视图按视图显著性由高到低排序;然后,搭建基于注意力-长短期记忆网络(Att-LSTM)的3元组多视图特征融合网络,利用LSTM学习多视图之间的上下文信息,并融入多头注意力机制充分捕捉多视图间的相关信息;最后,引入度量学习并提出了一种新颖的中心锚困难3元组损失(CAH Triplet Loss),并联合交叉熵损失(CE Loss)来优化多视图特征融合网络,减小同类样本、增大异类样本在特征空间上的距离,加强网络对3维模型区分性特征的学习。实验表明:该方法在3维模型数据集ModelNet10上的分类准确率达到93.83%,分类性能突出。 展开更多
关键词 3维模型分类 多视图特征融合 注意力机制 3元组损失
在线阅读 下载PDF
基于多视点信息融合的图像目标识别
8
作者 郭璠 赵昊亮 +2 位作者 刘卓群 唐琎 刘文韬 《计算机系统应用》 2025年第11期227-241,共15页
针对图像目标识别因遮挡等原因造成的误检、漏检问题,本文提出了一种基于多视点信息融合的图像目标识别算法.该算法首先采用所提EYOLO模型来有效检测图像中的目标对象.然后采用ORB及FLANN算法快速实现特征点的提取及匹配.同时,利用随机... 针对图像目标识别因遮挡等原因造成的误检、漏检问题,本文提出了一种基于多视点信息融合的图像目标识别算法.该算法首先采用所提EYOLO模型来有效检测图像中的目标对象.然后采用ORB及FLANN算法快速实现特征点的提取及匹配.同时,利用随机一致性采样算法进行特征点对的精匹配,并求解出最优的坐标变换矩阵,实现多目标关联.最后对关联结果进行多视点融合,综合目标关联结果调整目标的置信度值,并采用投票决策机制实现对目标所属类别的最终判定.在自建数据集上的实验结果表明,在目标检测平均精度方面,相比于原YOLO模型的81.9%,本文方法的平均精度可提升至88.1%.在此基础上通过多视点目标关联和融合后的目标识别准确率可达98.1%,从而证明了本文方法的有效性. 展开更多
关键词 目标检测 注意力机制 特征匹配 多目标关联 多视点融合
在线阅读 下载PDF
低分辨率激光图像边缘修复视觉传达方法
9
作者 黄起才 《兵工自动化》 北大核心 2025年第6期98-103,共6页
针对低分辨率激光图像边缘容易受到噪声干扰,而导致图像边缘的临界可见偏差较低问题,提出基于多视图融合与双边滤波的低分辨率激光图像边缘修复方法。构建低分辨率激光图像的双边滤波降噪模型,通过深度置信度测量的方法融合多视图,提取... 针对低分辨率激光图像边缘容易受到噪声干扰,而导致图像边缘的临界可见偏差较低问题,提出基于多视图融合与双边滤波的低分辨率激光图像边缘修复方法。构建低分辨率激光图像的双边滤波降噪模型,通过深度置信度测量的方法融合多视图,提取图像边缘特征分布集,采用深度图模型参数融合处理方法构建图像的视觉传达模型,根据先验边缘和纹理信息,实现图像边缘修复,并根据相关性自适应寻优。实验结果表明:采用该方法能有效修复图像边缘,将图像边缘的临界可见偏差均值提高到28.90%,提高了图像边缘人眼可感知点的像素点数量,且结构相似度均值达到0.981,均方根误差仅为0.0049,峰值信噪比达到了49.1 dB,运行时间均值为4.8 s,提高了图像边缘修复效果,减少了运行时间。 展开更多
关键词 视觉传达 低分辨率 激光图像 边缘修复 多视图融合
在线阅读 下载PDF
考虑视图可信度的用户多模态意图识别方法
10
作者 杨颖 杨艳秋 余本功 《电子与信息学报》 北大核心 2025年第6期1966-1975,共10页
在人机交互的闲聊型对话中,准确理解用户多模态意图有助于机器为用户提供智能高效的聊天服务。当前的用户多模态意图识别方法面临着跨模态信息交互性与模型不确定性的挑战。该文提出一种基于Transformer的可信多模态意图识别方法。考虑... 在人机交互的闲聊型对话中,准确理解用户多模态意图有助于机器为用户提供智能高效的聊天服务。当前的用户多模态意图识别方法面临着跨模态信息交互性与模型不确定性的挑战。该文提出一种基于Transformer的可信多模态意图识别方法。考虑用户意图表达时的文本、视频和音频等数据的异质性,通过模块特定编码模块,生成单模态特征视图;为了捕捉跨模态间的互补性和长距离依赖性,通过跨模态交互模块,生成跨模态特征视图;为了降低模型的不确定性,设计一个多视图可信融合模块,考虑每个视图的可信度进行主观意见的动态融合,基于主观意见的Dirichlet分布,设计一种组合优化策略进行模型训练。最后在多模态意图识别数据集MIntRec上进行实验。实验结果表明,与基线模型相比,该文方法在准确率和召回率上分别提升了1.73%和1.1%。该方法不仅能够提升多模态意图识别的效果,而且能够对每个视图预测结果的可信度进行度量,提高模型的可解释性。 展开更多
关键词 意图识别 多模态融合 多视图学习
在线阅读 下载PDF
BEV感知学习在自动驾驶中的应用综述 被引量:3
11
作者 黄德启 黄海峰 +1 位作者 黄德意 刘振航 《计算机工程与应用》 北大核心 2025年第6期1-21,共21页
自动驾驶感知模块中作为采集输入的传感器种类不断发展,要使多模态数据统一地表征出来变得愈加困难。BEV感知学习在自动驾驶感知任务模块中可以使多模态数据统一融合到一个特征空间,相比于其他感知学习模型拥有更好的发展潜力。从研究... 自动驾驶感知模块中作为采集输入的传感器种类不断发展,要使多模态数据统一地表征出来变得愈加困难。BEV感知学习在自动驾驶感知任务模块中可以使多模态数据统一融合到一个特征空间,相比于其他感知学习模型拥有更好的发展潜力。从研究意义、空间部署、准备工作、算法发展及评价指标五个方面总结了BEV感知模型具有良好发展潜力的原因。BEV感知模型从框架角度概括为四个系列:Lift-Splat-Lss系列、IPM逆透视转换、MLP视图转换及Transformer视图转换;从输入数据概括为两类:第一类是纯图像特征的输入包括单目摄像头输入和多摄像头输入,第二类在融合数据输入中不仅是简单的点云数据和图像特征的数据融合,还包括了以点云数据为引导或监督的知识蒸馏融合和以引导切片方式去划分高度段的融合。概述了多目标追踪、地图分割、车道线检测及3D目标检测四种自动驾驶任务在BEV感知模型当中的应用,并总结了目前BEV感知学习四个系列框架的缺点。 展开更多
关键词 BEV感知学习 视图转换 多模态数据融合 多目标追踪 地图分割 车道线检测及3D目标检测
在线阅读 下载PDF
稀疏超图结构下的双视图对比学习
12
作者 郑文萍 袁淑霞 刘美麟 《南京大学学报(自然科学版)》 北大核心 2025年第6期941-952,共12页
超图神经网络在处理复杂数据结构和捕捉节点之间的高阶关系方面已经取得了显著成果,然而,现实中的超图结构通常是稀疏的,即超边间公共节点较少,使超边之间的关联性较弱,进而限制了超图神经网络的消息传播性能.针对此问题,提出一种稀疏... 超图神经网络在处理复杂数据结构和捕捉节点之间的高阶关系方面已经取得了显著成果,然而,现实中的超图结构通常是稀疏的,即超边间公共节点较少,使超边之间的关联性较弱,进而限制了超图神经网络的消息传播性能.针对此问题,提出一种稀疏超图结构下的双视图对比学习算法DCSH(Dual-View Contrastive Learning under Sparse Hypergraph Structure),利用节点丰富的属性信息构造属性超图,补充结构超图在特征空间中缺失的语义相似性连接;设计了基于注意力机制的结构超图增强方法,改善结构超图的稀疏性;同时,考虑超边与目标节点语义的一致性,提出了基于注意力机制的方法计算超边对节点嵌入的影响力,以得到不同视图下的节点嵌入;最后,通过一种自适应融合机制对多视图节点嵌入进行融合,以发现各视图对最终节点表示的影响力.为了保持不同视图下超图结构的一致性,DCSH采用增强结构超图与原结构超图、属性超图之间的对比损失来优化模型.在八个标准数据集上与九种经典算法的实验对比,证实了提出方法的有效性. 展开更多
关键词 超图神经网络 对比学习 自适应融合 多视图 结构稀疏
在线阅读 下载PDF
融合局部和全局特征的深度多视图聚类网络
13
作者 李顺勇 李嘉茗 +1 位作者 曹付元 郑孟蛟 《计算机科学与探索》 北大核心 2025年第8期2085-2098,共14页
多视图聚类是当前数据分析领域的一个重要研究方向,旨在通过整合来自不同视角的数据,提升聚类精度。然而,传统的多视图聚类方法虽然在一定程度上提高了聚类效果,但往往忽略了视图间局部与全局特征的交互与融合。此外,尽管近年提出的多... 多视图聚类是当前数据分析领域的一个重要研究方向,旨在通过整合来自不同视角的数据,提升聚类精度。然而,传统的多视图聚类方法虽然在一定程度上提高了聚类效果,但往往忽略了视图间局部与全局特征的交互与融合。此外,尽管近年提出的多视图深度聚类方法,通过深度神经网络或对比学习增强了表征能力,但大多只关注局部或全局特征,未能在同一框架下对这两类特征进行综合处理。针对这些不足,提出了一种融合卷积神经网络与Transformer的深度多视图聚类模型(DMVCN-ILGF)。该模型设计了并行的卷积分支和Transformer分支,分别用于提取局部特征和全局特征。为了实现特征的有效融合,引入了特征交互机制(FIM)和特征融合模块(FFM),通过充分整合各视图的特征信息,以增强不同特征的交互和融合,最终提升聚类性能。进一步地,还设计了实例级和类别级对比损失,分别计算各视图的局部与全局特征之间的相似性,从而优化模型的表征能力和聚类效果。实验结果表明,提出的DMVCN-ILGF模型在多个多视图数据集上均取得了显著优于现有方法的聚类性能。 展开更多
关键词 多视图聚类 卷积神经网络 TRANSFORMER 特征融合
在线阅读 下载PDF
结合深度梯度与对齐融合策略的目标检测方法
14
作者 彭刚 刘星宇 +1 位作者 刘杰 高强 《华中科技大学学报(自然科学版)》 北大核心 2025年第11期15-20,27,共7页
针对自动驾驶中图像深度突变导致的估计不准和多模态特征错位问题,提出一种融合深度梯度与特征对齐的目标检测方法.首先,设计深度梯度感知的深度估计网络模块(DGS-LSS),利用雷达点云梯度信息构建几何表征,结合深度恢复单元优化像素级深... 针对自动驾驶中图像深度突变导致的估计不准和多模态特征错位问题,提出一种融合深度梯度与特征对齐的目标检测方法.首先,设计深度梯度感知的深度估计网络模块(DGS-LSS),利用雷达点云梯度信息构建几何表征,结合深度恢复单元优化像素级深度估计,显著提升场景突变区域的拟合精度;然后,提出Align-Fusion模块,通过可学习流场实现鸟瞰图(BEV)特征动态对齐,增强多模态信息融合效果.研究结果表明:在nuScenes数据集上,本方法取得了71.2%的平均精度均值和73.1%的nuScenes检测分数,较BEVFusion分别提升了3.3%和2.1%,验证了本方法的有效性. 展开更多
关键词 鸟瞰图 深度估计 3D目标检测 多模态融合 特征融合
原文传递
基于多视角特征融合的多模态虚假新闻检测 被引量:2
15
作者 肖聪 刘璟 +4 位作者 王明文 王菲菲 邵佳兴 黄琪 罗文兵 《中文信息学报》 北大核心 2025年第4期126-137,共12页
随着社交网络的广泛使用,信息分享变得非常便捷,但这同时也加剧了虚假新闻的传播。现有多模态虚假新闻检测方法在融合文本与图像等多种信息源时,未能充分挖掘和利用新闻内容中不同形式的信息,导致语义信息使用不充分;此外,在融合不同层... 随着社交网络的广泛使用,信息分享变得非常便捷,但这同时也加剧了虚假新闻的传播。现有多模态虚假新闻检测方法在融合文本与图像等多种信息源时,未能充分挖掘和利用新闻内容中不同形式的信息,导致语义信息使用不充分;此外,在融合不同层次结构的语义信息时未能充分考虑不同视角和层次间语义信息的关联性,影响了对新闻内容的深入理解。为此,该文提出了一种多视角特征融合的多模态虚假新闻检测方法,该方法从单模态语义、情感信息和多模态语义等多个视角对新闻内容进行挖掘,并设计了一个语义融合模块,有效整合来自不同视角和层次的语义信息,深入分析信息之间的语义关联性,以达到提升虚假新闻的识别准确性。在Weibo、GossipCop和PolitiFact等公开数据集上的实验结果表明,该文所提方法取得了优异的性能,比基准方法分别提升了1.4%、0.8%和4.6%。 展开更多
关键词 虚假新闻检测 多视角 语义融合 多模态
在线阅读 下载PDF
基于二部图和一致图学习的多视图聚类算法
16
作者 李顺勇 刘坤 +1 位作者 曹利娜 赵兴旺 《计算机应用》 北大核心 2025年第11期3583-3592,共10页
目前大多数多视图聚类算法存在融合机制不够完善、对多视图协同关系挖掘不足以及鲁棒性较弱等问题,导致聚类结果一致性偏低,且在噪声和冗余信息下的性能不够稳健。针对上述问题,提出一种基于二部图和一致图学习的多视图聚类算法(BGC-MV... 目前大多数多视图聚类算法存在融合机制不够完善、对多视图协同关系挖掘不足以及鲁棒性较弱等问题,导致聚类结果一致性偏低,且在噪声和冗余信息下的性能不够稳健。针对上述问题,提出一种基于二部图和一致图学习的多视图聚类算法(BGC-MVC),旨在通过融合各视图信息来提升聚类的一致性和互补性。该算法通过构造二部图以捕获不同视图之间的邻域关系,并通过学习一致性图强化视图间的相似性。它将原始多视图数据的嵌入整合进一个统一的框架中,结合了图学习与聚类过程,从而能提高聚类的整体效果。实验结果表明,BGC-MVC在满足收敛性条件下的准确度、F-score、归一化互信息(NMI)和纯度均有明显的提升。其中,在MSRC_v1数据集上的F-score比LMVSC(Large-scale Multi-View Subspace Clustering)算法提高了19.48个百分点,并且表现出更强的鲁棒性与准确度。 展开更多
关键词 多视图聚类 二部图 一致图 图融合 嵌入学习
在线阅读 下载PDF
时序信息引导跨视角特征融合的多无人机多目标跟踪方法 被引量:1
17
作者 伍瀚 孙浩 +1 位作者 计科峰 匡纲要 《电子学报》 北大核心 2025年第3期728-743,共16页
多无人机多目标跟踪旨在从多架无人机同时捕获的视频中预测所有目标的轨迹和身份标识,以解决单个无人机视频受遮挡和杂乱背景等干扰时跟踪性能衰退的问题.然而,不同无人机捕获的图像视角和尺度差异通常较大,导致对齐和融合不同无人机图... 多无人机多目标跟踪旨在从多架无人机同时捕获的视频中预测所有目标的轨迹和身份标识,以解决单个无人机视频受遮挡和杂乱背景等干扰时跟踪性能衰退的问题.然而,不同无人机捕获的图像视角和尺度差异通常较大,导致对齐和融合不同无人机图像特征困难.针对该问题,本文提出一种通过时序信息引导跨视角特征融合的跟踪算法——TCFNet.该算法首先设计一种目标感知的对齐网络(Object-aware Alignment Network,OAN),利用跟踪过程中的目标轨迹先验估计先前时刻不同视角无人机视频帧间的转换关系.其次,构建一种时序感知的对齐网络(Temporal-aware Alignment Network,TAN),探索前后时刻同一架无人机捕获图像的信息对不同视角图像的转换关系进行精调.最后,基于OAN和TAN估计的不同无人机图像间的转换关系,设计一个跨机特征融合网络(Cross-drone Feature Fusion Network,CFFN)对不同无人机捕获的视觉信息进行融合,解决复杂场景下模型跟踪性能衰退的问题.在MDMT数据集上的实验结果表明,所提出的TCFNet相比其他主流的跟踪方法更具竞争力,在跟踪准确率、识别F1值和多机目标关联分数上超出当前的先进算法2.23、1.67和2.15个百分点. 展开更多
关键词 多无人机多目标跟踪 时序信息 轨迹先验 跨视角特征融合 准确跟踪
在线阅读 下载PDF
融合多视图特征的放射学报告生成 被引量:1
18
作者 欧佳乐 昝红英 +2 位作者 张坤丽 师相龙 马玉团 《计算机工程与应用》 北大核心 2025年第10期320-330,共11页
放射学报告生成涉及从多源图像中提取特征并将其转化为文本描述。当前的研究面临着多视图和不同长度报告的挑战,导致生成的临床报告准确性不足和语义不连贯。针对这些问题,提出了一种融合多视图特征的方法,通过从原始图像中进行多次局... 放射学报告生成涉及从多源图像中提取特征并将其转化为文本描述。当前的研究面临着多视图和不同长度报告的挑战,导致生成的临床报告准确性不足和语义不连贯。针对这些问题,提出了一种融合多视图特征的方法,通过从原始图像中进行多次局部特征提取和细粒度融合减少了信息丢失。通过标注工具获得并嵌入全局上下文表示,让模型在训练时使用更具概括性的文本,以获得更为流畅的描述。在IU X-Ray和MIMIC-CXR两个数据集上的实验表明,该方法在R2Gen模型上的应用使生成报告的质量得分平均提升了2.96个百分点。此外在自行构建的中文肺部CT报告数据集上进行了影像报告到诊断结论的生成实验,表现了该方法的通用性。 展开更多
关键词 放射学报告生成 多视图 细粒度融合 全局上下文
在线阅读 下载PDF
基于多视图舌象特征融合的中医证型辨识 被引量:3
19
作者 陈可居 钟利 +1 位作者 张云 刘勇国 《计算机应用研究》 北大核心 2025年第7期2116-2122,共7页
中医舌诊中,临床医师通过观察舌质、舌苔和舌底了解患者健康状态和病理变化。为解决当前中医舌诊辅助辨证模型缺乏对舌面和舌底的综合分析,忽视舌面和舌底特征互补性的问题,提出基于多视图舌象特征融合的中医证型辨识模型(syndrome iden... 中医舌诊中,临床医师通过观察舌质、舌苔和舌底了解患者健康状态和病理变化。为解决当前中医舌诊辅助辨证模型缺乏对舌面和舌底的综合分析,忽视舌面和舌底特征互补性的问题,提出基于多视图舌象特征融合的中医证型辨识模型(syndrome identification based on multi-view tongue feature fusion,SI-MTF)。收集3348张舌面和舌底图像,由中医医师标注证型标签,构建舌象数据集。提出SI-MTF,首先基于Mask R-CNN(mask region-based convolutional neural network)和NanoDet提取舌面和舌底区域,然后构建卷积神经网络和密集连接提取并融合舌面和舌底特征,通过HSV(hue,saturation,value)颜色模型的通道均值、LBP(local binary pattern)算法和Gabor滤波器提取舌象的颜色、形状和纹理特征,并在训练阶段利用教师-学生网络提高模型对舌面和舌底特征的融合能力,最后通过全连接层和softmax函数学习融合特征和证型间关系,实现中医证型辨识。基于舌象数据集进行对比实验、参数讨论、消融实验和鲁棒性实验,该方法达到76.75%的准确度,相对基线方法提高了7.51百分点。实验结果表明,基于多视图的舌面和舌底综合分析,可提高舌诊辅助辨证模型的性能。 展开更多
关键词 舌诊 证型辨识 特征融合 多视图
在线阅读 下载PDF
基于多级特征融合的深度多视图对比学习聚类方法
20
作者 王梅 于源泽 尹传龙 《计算机技术与发展》 2025年第4期86-92,共7页
多视图聚类作为一种无监督的多视图学习方法,无需对大多视图数据进行标记,通过聚类即可从多个视图中挖掘出通用语义。针对传统多视图聚类方法在特征融合和视图信息一致性处理上的不足,该文提出了一种基于多级特征融合的深度多视图对比... 多视图聚类作为一种无监督的多视图学习方法,无需对大多视图数据进行标记,通过聚类即可从多个视图中挖掘出通用语义。针对传统多视图聚类方法在特征融合和视图信息一致性处理上的不足,该文提出了一种基于多级特征融合的深度多视图对比学习聚类方法,以优化聚类性能并增强模型对多视图数据中共同语义的捕获及其在特征空间中的区分度。该方法通过初级与次级编码器独立提取各视图的特征,并采用基于门控机制的多级特征融合模块动态调整特征的融合权重。同时,引入对比学习机制,设计了特征对比损失和语义标签对比损失,以及加权互信息损失函数,进一步平衡视图间的一致性与特征重建目标。在公开的多视图数据集上进行的实验验证了该方法的有效性,相较于对比方法显著提高了聚类的准确性和鲁棒性。 展开更多
关键词 深度多视图聚类 多级特征融合 对比学习 语义一致性学习 鲁棒性
在线阅读 下载PDF
上一页 1 2 17 下一页 到第
使用帮助 返回顶部