期刊文献+
共找到328篇文章
< 1 2 17 >
每页显示 20 50 100
基于视图学习和通道特征拓扑融合的骨架行为识别
1
作者 谭台哲 张泽翰 +3 位作者 胡平川 朱辉果 战荫伟 杨卓 《计算机工程与设计》 北大核心 2026年第1期217-225,共9页
在人体骨架行为识别中,图卷积网络可提取人体骨架拓扑结构来聚合特征信息。但现有方法既未有效关联骨架特征与拓扑关系,也忽略了不同视图下拓扑关系的变化性。为此,提出基于视图学习和通道特征拓扑融合的行为识别方法(VLCTF-GCN)。依据... 在人体骨架行为识别中,图卷积网络可提取人体骨架拓扑结构来聚合特征信息。但现有方法既未有效关联骨架特征与拓扑关系,也忽略了不同视图下拓扑关系的变化性。为此,提出基于视图学习和通道特征拓扑融合的行为识别方法(VLCTF-GCN)。依据骨架的视图特征学习拓扑关系,为每个视图构建具有区分性的共享视图拓扑关系。在不同聚合程度上,结合视图与自适应拓扑关系,融合骨架通道特征与拓扑关系,使得拓扑结构能够自适应关联骨架特征,通过多尺度时间卷积提取不同时间长度的关节变化。在两个大型数据集的实验结果表明,所提方法性能优于现有方法。 展开更多
关键词 行为识别 人体骨架 图卷积 通道特征拓扑融合 视图学习 多尺度时间卷积 共享拓扑
在线阅读 下载PDF
HDMapFusion:用于自动驾驶的多模态融合高清地图生成(特邀)
2
作者 刘洋宏 付杨悠然 董性平 《计算机工程》 北大核心 2025年第10期18-26,共9页
高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义... 高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义地图的生成精度。与传统直接融合原始传感器数据的方法不同,HDMapFusion创新性地将相机图像特征和激光雷达点云特征统一转换为鸟瞰视图(BEV)空间表示,在统一的几何坐标系下实现了多模态信息的物理可解释性融合。具体而言:HDMapFusion首先通过深度学习网络分别提取相机图像的视觉特征和激光雷达的三维(3D)结构特征;然后利用可微分的视角变换模块将前视图像特征转换为BEV空间表示,同时将激光雷达点云特征通过体素化处理投影到相同的BEV空间,在此基础上设计一个基于注意力机制的特征融合模块,自适应地加权整合两种模态;最后通过语义解码器生成包含车道线、人行横道、道路边界线等要素的高精度语义地图。在nuScenes自动驾驶数据集上的实验结果表明,HDMapFusion在高清地图生成精度方面显著优于现有基准方法。这些实验结果验证了HDMapFusion的有效性和优越性,为自动驾驶环境感知中的多模态融合问题提供了新的解决思路。 展开更多
关键词 高清地图生成 多模态融合 鸟瞰视图表示 自动驾驶 深度估计
在线阅读 下载PDF
基于交替方向乘子法的雷达目标多频段多视角融合高分辨成像算法
3
作者 李璇 仲健豪 +2 位作者 何姿 樊振宏 丁大志 《系统工程与电子技术》 北大核心 2026年第1期87-93,共7页
针对综合利用不同频带、不同视角的雷达回波数据实现更高分辨率清晰图像的问题,提出一种基于交替方向乘子法的雷达目标多频段多视角融合高分辨成像算法。首先构建多频段多视角的信号稀疏表示模型,然后利用交替方向乘子法对该信号稀疏表... 针对综合利用不同频带、不同视角的雷达回波数据实现更高分辨率清晰图像的问题,提出一种基于交替方向乘子法的雷达目标多频段多视角融合高分辨成像算法。首先构建多频段多视角的信号稀疏表示模型,然后利用交替方向乘子法对该信号稀疏表示问题进行求解,最后获得超带宽和大相干积累角度的雷达回波信号,从而得到比单雷达系统更高分辨率的雷达图像。交替方向乘子法的稀疏正则化机制通过鼓励解的稀疏性,能够自动忽略背景中的低强度、随机性或分散的杂波信号,从而有效抑制背景杂波,实现成像质量的增强。以简单多球模型及复杂舰船模型为例,从重构精度与抗噪性能两方面出发,分析所提方法与目前常用重构算法对于实现多频段多视角融合高分辨成像的影响。结果表明,所提方法在低信噪比环境下仍可准确重建目标散射点,并保持较高成像分辨率,验证了方法的有效性与抗噪性。 展开更多
关键词 交替方向乘子法 多频段多视角融合 信号稀疏表示 高分辨成像
在线阅读 下载PDF
基于样本互补锚点图的缺失多视图聚类算法
4
作者 刘小兰 徐宇鸿 《华南理工大学学报(自然科学版)》 北大核心 2026年第2期16-24,共9页
随着多视图数据在现实场景中得到广泛应用,如何处理缺失视图下的聚类问题已成为机器学习领域的重要挑战。传统锚点图聚类算法依赖完整实例构建锚点图,这导致其在高缺失率下因锚点不足难以表征数据结构,在低缺失率时又无法发挥锚点的优... 随着多视图数据在现实场景中得到广泛应用,如何处理缺失视图下的聚类问题已成为机器学习领域的重要挑战。传统锚点图聚类算法依赖完整实例构建锚点图,这导致其在高缺失率下因锚点不足难以表征数据结构,在低缺失率时又无法发挥锚点的优势。针对传统锚点图聚类算法中存在的锚点选择受限、权重分配僵化和计算复杂度高的问题,该文提出了一种基于样本互补锚点图的缺失多视图聚类算法(IMVC-SAC)。该算法首先设计跨视图锚点互补机制,通过在共有样本与视图特有样本中自适应选取锚点,以解决高缺失率下数据结构表征不足的问题;然后建立缺失模式感知的权重模型,依据样本的缺失模式与程度调整视图对相似矩阵的贡献度;最后利用双随机非负矩阵可分解特性,将谱聚类的时间复杂度从样本规模的立方阶复杂度优化至线性阶复杂度。在5个公开数据集上的实验结果表明,该算法的聚类性能优于目前主流算法,尤其在高缺失率下仍能保持较好的聚类效果,验证了其鲁棒性与有效性。 展开更多
关键词 缺失多视图聚类 锚点图 样本互补 相似矩阵融合 谱聚类
在线阅读 下载PDF
基于动态细胞图谱和多分辨率图融合的时空聚类算法研究
5
作者 李俊男 张蔚 代琦 《软件工程》 2026年第1期11-17,共7页
空间转录组的聚类分析对解析肿瘤微环境的异质性和细胞互作至关重要。现有的聚类方法依赖单一维度信息,导致空间信息利用不足,空间域识别的准确性也不理想。针对上述问题,提出基于动态细胞图谱和多分辨率图融合的时空聚类算法MRGF。在... 空间转录组的聚类分析对解析肿瘤微环境的异质性和细胞互作至关重要。现有的聚类方法依赖单一维度信息,导致空间信息利用不足,空间域识别的准确性也不理想。针对上述问题,提出基于动态细胞图谱和多分辨率图融合的时空聚类算法MRGF。在人脑背外侧前额叶皮层(DLPFC)和阿尔茨海默病(AD)数据集上的实验结果表明,MRGF的调整兰德指数(ARI)和归一化互信息(NMI)比现有方法平均提升了12.7%和9.3%,验证了MRGF在空间转录组数据分析中具有更高的准确性和鲁棒性。 展开更多
关键词 空间转录组聚类 多视图学习 注意力机制 多视图融合
在线阅读 下载PDF
基于交叉注意力特征融合的安卓恶意软件分类方法研究
6
作者 刘珍 王若愚 张菁菁 《计算机科学与探索》 北大核心 2026年第2期491-509,共19页
安卓恶意软件对用户隐私和安全构成了严重威胁,细粒度识别恶意软件类型是构建精准防御机制的关键。在基于机器学习的恶意软件检测领域,由于单视图特征的表达能力有限,多视图特征融合方法已成为当前研究热点。但是已有工作仍然存在以下不... 安卓恶意软件对用户隐私和安全构成了严重威胁,细粒度识别恶意软件类型是构建精准防御机制的关键。在基于机器学习的恶意软件检测领域,由于单视图特征的表达能力有限,多视图特征融合方法已成为当前研究热点。但是已有工作仍然存在以下不足:一是缺乏对视图特征间互补信息的有效学习,导致融合性能受限;二是视图特征选择的主观性较强,缺乏系统性分析,难以确保融合效果最优。为解决这些问题,提出一种基于交叉注意力融合的安卓恶意软件分类方法CVFDroid。其中,引入多头交叉注意力机制以学习不同视图特征间的互补信息,用于增强融合特征的表达能力;并设计多分支损失函数,优化分类子模块,提升模型在特征缺失场景下的鲁棒性。此外,系统性分析了不同特征组合的多视图特征融合性能。在真实实验数据集上的性能评估结果表明,请求权限与API视图特征组合在实现多视图特征融合上的性能表现最佳;所提方法将困难恶意软件类别的F分数提升了0.27;即使在10%的样本存在特征缺失情况下,模型仍保持96.8%的高分类准确率。 展开更多
关键词 安卓恶意软件分类 多视图特征融合 移动安全
在线阅读 下载PDF
跨模态不一致感知下双视角交互融合的多模态情感分析
7
作者 卜韵阳 齐彬廷 卜凡亮 《计算机科学》 北大核心 2026年第1期187-194,共8页
在社交媒体上,人们的评论通常会描述对应图像中的某一情感区域,图像和文本之间是具有对应信息的。以往的大多数多模态情感分析方法只是从单一视角探索图像和文本的相互影响,捕获图像区域和文本单词的对应关系,导致结果不是最优的。此外... 在社交媒体上,人们的评论通常会描述对应图像中的某一情感区域,图像和文本之间是具有对应信息的。以往的大多数多模态情感分析方法只是从单一视角探索图像和文本的相互影响,捕获图像区域和文本单词的对应关系,导致结果不是最优的。此外,社交媒体上的数据具有强烈的个人主观性,数据中的情感是多维和复杂的,导致出现了图像和文本情感一致性弱的数据。针对上述问题,提出了一种跨模态不一致感知下双视角交互融合的多模态情感分析模型。一方面,从全局和局部两种视角对图文特征进行跨模态交互,提供更全面、准确的情感分析,从而提升模型的表现和应用效果。另一方面,计算图文特征的不一致分数,用于代表图文不一致程度,以此来动态调控单模态表示和多模态表示的最终情感特征的权重,从而提高模型的鲁棒性。在MVSA-Single和MVSA-Multiple两个公共数据集上进行广泛实验,结果证明所提出的多模态情感分析模型与现有基线模型相比F1值分别提高0.59个百分点和0.39个百分点,具有有效性和优越性。 展开更多
关键词 多模态情感分析 跨模态不一致感知 双视角交互融合 动态调控 跨模态交互
在线阅读 下载PDF
基于Mamba模型的分级跨模态融合三维目标检测方法
8
作者 李明光 陶重犇 《计算机应用》 北大核心 2026年第2期572-579,共8页
针对现有基于鸟瞰视图(BEV)的跨模态融合方法在初期融合阶段忽视了对BEV特征局部信息的有效保护,导致浅层跨模态交互不足,进而制约后续深层融合效果并降低三维目标检测精度的问题,提出基于Mamba模型的分级跨模态融合三维目标检测方法。... 针对现有基于鸟瞰视图(BEV)的跨模态融合方法在初期融合阶段忽视了对BEV特征局部信息的有效保护,导致浅层跨模态交互不足,进而制约后续深层融合效果并降低三维目标检测精度的问题,提出基于Mamba模型的分级跨模态融合三维目标检测方法。该方法将Mamba的状态空间建模机制与分级融合机制深度结合,使跨模态特征映射至隐藏状态空间进行交互,以丰富局部信息,降低跨模态特征之间的差异性,并增强融合特征表达的一致性。首先,在浅层融合阶段,设计特征通道交换机制以通过交换不同传感器模态的特征通道提升浅层局部细节的保留能力,并改进Mamba模型的视觉状态空间(VSS)块以强化浅层特征间的交互;然后,在深层融合阶段,引入注意力机制与门控机制构建隐藏的特征转换,从而识别并融合模态间互补的长距离依赖特征;最后,通过通道自适应模块计算归一化原始特征上的通道关注,并自适应地学习模态内的通道关系,增强单个模态的BEV特征表示,从而弥补Mamba模型在建模通道间关系方面的不足。实验结果表明,所提方法在nuScenes和Waymo数据集上取得了优于TransFusion和结合局部-全局建模的多模态融合方法 LoGoNet(Local-to-Global Network)等方法的检测性能,在nuScenes测试集上的平均精度均值(mAP)达到72.4%,nuScenes检测得分(NDS)为73.9%,相较于基线方法 BEVFusion_mit分别提高了2.2和1.0个百分点。 展开更多
关键词 三维目标检测 跨模态融合 Mamba 鸟瞰视图 自动驾驶
在线阅读 下载PDF
时频域差分熵增强的多线图稳定聚类
9
作者 赵启轩 袁景凌 +2 位作者 张鑫 俞洋 李琳 《控制与决策》 北大核心 2026年第2期505-516,共12页
多线图是科学研究的重要数据,常通过聚类分析挖掘其潜在的特征关系.然而,仅从单一特征视角进行处理,容易忽略波形间相关信息,而多视角聚类有望补充单一视角聚类的不足.简单扩充视角存在视角间干扰导致聚类性能下降的风险,因此稳定多视... 多线图是科学研究的重要数据,常通过聚类分析挖掘其潜在的特征关系.然而,仅从单一特征视角进行处理,容易忽略波形间相关信息,而多视角聚类有望补充单一视角聚类的不足.简单扩充视角存在视角间干扰导致聚类性能下降的风险,因此稳定多视角聚类性能是一项新的挑战.针对上述问题,提出面向多线图的时频域差分熵增强的多视角聚类方法(DE-MCC).DE-MCC的核心思想是在不同时序波形构成的多视角基础上,增加时频域差分熵作为特征强化视角,提升模型获取多视角互补信息的能力,并通过权重控制融合不同视角组合得到的软聚类向量,在保证准确度的同时稳定聚类结果.所提出的方法在脑电图与材料学电子能级图两种复杂的非平稳多线图数据集上均获得了理想结果.相较其他先进多视角聚类方法,脑电图数据的聚类准确率达到79.38%,多次独立实验结果的标准差减小47.9%,验证了所提方法的稳定性. 展开更多
关键词 多视角聚类 多线图 差分熵 软聚类 权重融合
原文传递
逐级特征融合的多阶段无人机跨视图匹配方法
10
作者 王曼琳 朱修彬 +2 位作者 杨兰 李志武 胡星辰 《计算机科学与探索》 北大核心 2026年第3期840-852,共13页
为提升无人机在复杂环境中的自主定位能力,开展了面向跨视图图像匹配任务的有效定位方法研究。针对全球导航卫星系统(GNSS)在城市峡谷、密林遮挡等场景下定位易失效的问题,构建了一个多阶段、多特征融合的无人机与卫星图匹配框架。研究... 为提升无人机在复杂环境中的自主定位能力,开展了面向跨视图图像匹配任务的有效定位方法研究。针对全球导航卫星系统(GNSS)在城市峡谷、密林遮挡等场景下定位易失效的问题,构建了一个多阶段、多特征融合的无人机与卫星图匹配框架。研究中采用预训练语义分割网络对无人机图像中的建筑区域进行精确提取,并引入形态学处理策略以提升区域边界的完整性和连贯性。在图像匹配阶段,通过RGB色彩直方图的巴氏距离进行初步筛选,剔除明显不匹配的卫星图;利用SuperPoint提取细粒度特征点,并通过LightGlue完成端到端的局部特征匹配。整个流程设计遵循从一般属性到细节特征的逐级匹配思路,在兼顾效率的同时增强了对视角差异和背景干扰的鲁棒性。实验在University-1652数据集上进行,结果显示该方法在未使用任何训练图对的前提下,依然获得了优于多种传统方法、接近监督模型的匹配精度,并显著降低了计算开销。该研究为无人机在未知区域的实时定位任务提供了可靠支持,具备良好的实用性。 展开更多
关键词 无人机地理定位 跨视图匹配 语义分割 形态学处理 逐级特征融合
在线阅读 下载PDF
监控视频流与三维场景自动快速融合方法
11
作者 刘松 王荟奥 +3 位作者 胡伟路 杨恒 王凯 熊嘉诚 《科技创新与应用》 2026年第5期148-151,共4页
针对当前国内视频监控系统存在的多协议异构性、空间信息缺失及计算资源瓶颈等问题,该研究提出一种基于网页视频流解析与三维材质系统的自动化融合方法。该方法创新性地构建分布式视频处理架构,通过协议适配层实现多源视频流(包括RTSP与... 针对当前国内视频监控系统存在的多协议异构性、空间信息缺失及计算资源瓶颈等问题,该研究提出一种基于网页视频流解析与三维材质系统的自动化融合方法。该方法创新性地构建分布式视频处理架构,通过协议适配层实现多源视频流(包括RTSP与GB/T 28181等)的统一解析,将计算密集型的视频解码任务卸载至边缘节点处理,有效降低主服务器30%以上的负载压力。关键技术突破包括,开发动态帧截取-纹理转换机制,实现视频帧到三维纹理的实时映射;建立基于传感器数据的空间配准模型,通过融合摄像头位姿参数与三维精细模型,降低投影误差。实验表明,相较传统投影方式,该方法在视频流处理中视频流可操作性、清晰度、融合时间与投影效果都有明显改善,为智慧城市、应急指挥等场景提供可靠的实时三维可视化解决方案。 展开更多
关键词 视频流 三维场景 视频投影 视频融合 自动视角
在线阅读 下载PDF
点云虚实融合数据增强的物体识别研究
12
作者 钟世龙 张代聪 +3 位作者 罗宝琪 张伟 曲政 秦志超 《机械与电子》 2026年第1期72-80,共9页
针对仓储环境中物体识别任务面临的三维点云数据采集成本高与标注效率低的问题,提出了一种融合真实与虚拟数据的点云增强方法。该方法首先通过三维建模与STL格式转换构建虚拟物体模型,并基于三角面片顶点生成初始点云;进而通过线性插值... 针对仓储环境中物体识别任务面临的三维点云数据采集成本高与标注效率低的问题,提出了一种融合真实与虚拟数据的点云增强方法。该方法首先通过三维建模与STL格式转换构建虚拟物体模型,并基于三角面片顶点生成初始点云;进而通过线性插值增加点云密度,并基于多视角投影生成不完整虚拟点云;在虚实融合阶段,对真实点云进行中位数高度校正,并删除与虚拟包围盒重叠的区域,以消除“浮空”或“穿透”问题;最后将点云法向量转化为二维高度图与梯度场,生成伪彩色图像以增强特征表达。在煤炭仓储场景中的实验表明,基于融合数据训练的识别模型准确率、召回率和F1分数分别达到99.3%、99.6%和99.4%。该研究为仓储环境下的物体识别提供了一种低成本、高精度的点云增强解决方案。 展开更多
关键词 虚实点云 多视角的不完整点云 点云虚实融合 伪彩色图像
在线阅读 下载PDF
利用WorldView-2卫星影像数据生产高分辨率多光谱技术正射影像方法 被引量:1
13
作者 线东升 李德林 《测绘与空间地理信息》 2015年第3期144-145,共2页
阐述了在工作实践中利用WorldView-2卫星影像制作正射影像的基本工艺流程,着重分析卫片的融合、校正、影像镶嵌等处理环节中的方法,坐标的建立及转换,数据格式的转换等,以及此过程中遇到的问题,及在各个环节中的质量控制。
关键词 Worldview-2卫星影像 影像融合 影像纠正 影像镶嵌 正射影像
在线阅读 下载PDF
融合加权不一致性的多视图聚类 被引量:2
14
作者 滕少华 盛文涛 +2 位作者 滕璐瑶 张巍 曾莹 《小型微型计算机系统》 北大核心 2025年第2期381-388,共8页
图学习是一种广泛应用于多视图聚类的技术,它可以从多视图中学习出统一的相似图.现有的图学习方法大多只能发掘多视图的一致性,忽视了不一致的信息,这使得它们可能在学习过程中丢失视图独有的信息.为了解决这个问题,本文提出了一种融合... 图学习是一种广泛应用于多视图聚类的技术,它可以从多视图中学习出统一的相似图.现有的图学习方法大多只能发掘多视图的一致性,忽视了不一致的信息,这使得它们可能在学习过程中丢失视图独有的信息.为了解决这个问题,本文提出了一种融合一致性和不一致性,面向图的多视图低秩聚类框架.该方法首先将多视图分解为一致性和不一致性两个部分,然后利用自适应加权融合多视图的一致性图,并在此过程中防止权重出现平凡解;进而,提出了一种新颖的低秩融合策略,用一个统一的目标函数融合多视图一致性和不一致性,并通过谱聚类获得结果.本文还设计并实现了一种迭代优化方法来求解目标函数.最后,7个多视图数据集的对比实验验证了该方法的有效性. 展开更多
关键词 多视图聚类 融合多视图一致性和不一致性 多视图不一致性 低秩表示
在线阅读 下载PDF
多样性负实例生成的跨域人脸伪造检测 被引量:3
15
作者 张晶 许盼 +2 位作者 刘文君 郭晓萱 孙芳 《中国图象图形学报》 北大核心 2025年第2期421-434,共14页
目的深度伪造检测(deepfake detection)通过训练复杂深度神经网络,挖掘更具辨别性的人脸图像表示,获得高精度的检测结果,其是一项确保人脸信息真实、可靠和安全的重要技术。然而,目前流行的模型存在过度依赖训练数据,使模型仅在相同域... 目的深度伪造检测(deepfake detection)通过训练复杂深度神经网络,挖掘更具辨别性的人脸图像表示,获得高精度的检测结果,其是一项确保人脸信息真实、可靠和安全的重要技术。然而,目前流行的模型存在过度依赖训练数据,使模型仅在相同域内表现出令人满意的检测性能,在跨领域场景中表现出较低泛化性,甚至使模型失效。因此,如何在有限的训练数据下实现跨域环境中的高效伪造人脸检测,成为亟待解决的问题。基于此,本文提出多样性负实例生成的跨域人脸伪造检测模型(negative instance generation-FFD,NIG-FFD)。方法首先,通过构建孪生自编码网络,获得标签一致的潜在多视图融合特征,引入对比约束提高难样本特征可判别性;其次,在高效训练的同时利用构造规则生成更具多样性的负实例融合特征,提高模型泛化性;最后,构建自适应重要性权值矩阵,避免因负实例生成导致类别分布不平衡使正类别样本欠学习。结果在两个流行的跨域数据集上验证本文模型的有效性,与其他先进方法相比,AUC(area under the receiver operating characteristic curve)值提升了10%。同时,在本域检测中ACC(accuracy score,)与AUC值相比其他方法均提升了近10%与5%。结论与对比方法相比,本文方法在跨域和本域的人脸伪造检测上都取得了优越的性能。本文所提的模型代码已开源至:https://github.com/LNNU-computer-research-526/NIG-FFD。 展开更多
关键词 深度伪造检测 跨域人脸伪造检测 多视图特征融合 特征生成 对比约束
原文传递
路基病害雷达图像多视图融合识别方法 被引量:2
16
作者 陈登峰 何拓航 +2 位作者 杨小燕 刘世鹏 孟屯良 《测绘通报》 北大核心 2025年第5期66-73,共8页
三维探地雷达(GPR)技术是道路隐性病害检测的重要手段,利用智能辨识算法分析GPR数据能提升病害检测效率,然而现有算法未充分利用GPR多视图信息,导致辨识准确率较低。为此,本文提出了一种GPR多视图融合的路基病害识别模型。该模型采用双... 三维探地雷达(GPR)技术是道路隐性病害检测的重要手段,利用智能辨识算法分析GPR数据能提升病害检测效率,然而现有算法未充分利用GPR多视图信息,导致辨识准确率较低。为此,本文提出了一种GPR多视图融合的路基病害识别模型。该模型采用双通道并行结构,利用MobileViT网络分别从GPR的B-scan和C-scan图像中提取高维特征,挖掘双视图的互补信息以进行特征学习。为有效整合双视图信息,提出了特征交错加权融合方法,将提取到的双视图高维特征进行近邻排列,并通过动态优化特征通道的权重分配,突出关键特征并抑制无关信息。试验结果表明,该网络模型对测试集的准确率达到90.5%;此外,在高斯白噪声干扰下,相较于基线模型,模型总体退化指数降低了13.51%,展示出优越的稳健性。 展开更多
关键词 路基病害 深度学习 探地雷达 多视图融合
原文传递
考虑视图可信度的用户多模态意图识别方法 被引量:2
17
作者 杨颖 杨艳秋 余本功 《电子与信息学报》 北大核心 2025年第6期1966-1975,共10页
在人机交互的闲聊型对话中,准确理解用户多模态意图有助于机器为用户提供智能高效的聊天服务。当前的用户多模态意图识别方法面临着跨模态信息交互性与模型不确定性的挑战。该文提出一种基于Transformer的可信多模态意图识别方法。考虑... 在人机交互的闲聊型对话中,准确理解用户多模态意图有助于机器为用户提供智能高效的聊天服务。当前的用户多模态意图识别方法面临着跨模态信息交互性与模型不确定性的挑战。该文提出一种基于Transformer的可信多模态意图识别方法。考虑用户意图表达时的文本、视频和音频等数据的异质性,通过模块特定编码模块,生成单模态特征视图;为了捕捉跨模态间的互补性和长距离依赖性,通过跨模态交互模块,生成跨模态特征视图;为了降低模型的不确定性,设计一个多视图可信融合模块,考虑每个视图的可信度进行主观意见的动态融合,基于主观意见的Dirichlet分布,设计一种组合优化策略进行模型训练。最后在多模态意图识别数据集MIntRec上进行实验。实验结果表明,与基线模型相比,该文方法在准确率和召回率上分别提升了1.73%和1.1%。该方法不仅能够提升多模态意图识别的效果,而且能够对每个视图预测结果的可信度进行度量,提高模型的可解释性。 展开更多
关键词 意图识别 多模态融合 多视图学习
在线阅读 下载PDF
基于中心锚困难三元组损失和多视图特征融合的三维模型分类
18
作者 高雪瑶 张澐凯 张春祥 《电子与信息学报》 北大核心 2025年第6期1937-1949,共13页
多视图可以全面表征3维模型的视觉特性以及潜在的空间结构信息,但现有方法容易忽视不同视图间的差异性和互补性。针对上述问题,该文提出一种基于中心锚困难3元组损失和多视图特征融合的3维模型分类方法。首先,以3维模型的多视图集为输入... 多视图可以全面表征3维模型的视觉特性以及潜在的空间结构信息,但现有方法容易忽视不同视图间的差异性和互补性。针对上述问题,该文提出一种基于中心锚困难3元组损失和多视图特征融合的3维模型分类方法。首先,以3维模型的多视图集为输入,利用深度残差收缩网络(DRSN)提取视图特征并融合2维形状分布特征D1,D2和D3得到视图融合特征;其次,根据3维模型视图融合特征,通过香农熵来衡量视图分类的不确定性,并将3维模型的多视图按视图显著性由高到低排序;然后,搭建基于注意力-长短期记忆网络(Att-LSTM)的3元组多视图特征融合网络,利用LSTM学习多视图之间的上下文信息,并融入多头注意力机制充分捕捉多视图间的相关信息;最后,引入度量学习并提出了一种新颖的中心锚困难3元组损失(CAH Triplet Loss),并联合交叉熵损失(CE Loss)来优化多视图特征融合网络,减小同类样本、增大异类样本在特征空间上的距离,加强网络对3维模型区分性特征的学习。实验表明:该方法在3维模型数据集ModelNet10上的分类准确率达到93.83%,分类性能突出。 展开更多
关键词 3维模型分类 多视图特征融合 注意力机制 3元组损失
在线阅读 下载PDF
基于多视点信息融合的图像目标识别
19
作者 郭璠 赵昊亮 +2 位作者 刘卓群 唐琎 刘文韬 《计算机系统应用》 2025年第11期227-241,共15页
针对图像目标识别因遮挡等原因造成的误检、漏检问题,本文提出了一种基于多视点信息融合的图像目标识别算法.该算法首先采用所提EYOLO模型来有效检测图像中的目标对象.然后采用ORB及FLANN算法快速实现特征点的提取及匹配.同时,利用随机... 针对图像目标识别因遮挡等原因造成的误检、漏检问题,本文提出了一种基于多视点信息融合的图像目标识别算法.该算法首先采用所提EYOLO模型来有效检测图像中的目标对象.然后采用ORB及FLANN算法快速实现特征点的提取及匹配.同时,利用随机一致性采样算法进行特征点对的精匹配,并求解出最优的坐标变换矩阵,实现多目标关联.最后对关联结果进行多视点融合,综合目标关联结果调整目标的置信度值,并采用投票决策机制实现对目标所属类别的最终判定.在自建数据集上的实验结果表明,在目标检测平均精度方面,相比于原YOLO模型的81.9%,本文方法的平均精度可提升至88.1%.在此基础上通过多视点目标关联和融合后的目标识别准确率可达98.1%,从而证明了本文方法的有效性. 展开更多
关键词 目标检测 注意力机制 特征匹配 多目标关联 多视点融合
在线阅读 下载PDF
低分辨率激光图像边缘修复视觉传达方法
20
作者 黄起才 《兵工自动化》 北大核心 2025年第6期98-103,共6页
针对低分辨率激光图像边缘容易受到噪声干扰,而导致图像边缘的临界可见偏差较低问题,提出基于多视图融合与双边滤波的低分辨率激光图像边缘修复方法。构建低分辨率激光图像的双边滤波降噪模型,通过深度置信度测量的方法融合多视图,提取... 针对低分辨率激光图像边缘容易受到噪声干扰,而导致图像边缘的临界可见偏差较低问题,提出基于多视图融合与双边滤波的低分辨率激光图像边缘修复方法。构建低分辨率激光图像的双边滤波降噪模型,通过深度置信度测量的方法融合多视图,提取图像边缘特征分布集,采用深度图模型参数融合处理方法构建图像的视觉传达模型,根据先验边缘和纹理信息,实现图像边缘修复,并根据相关性自适应寻优。实验结果表明:采用该方法能有效修复图像边缘,将图像边缘的临界可见偏差均值提高到28.90%,提高了图像边缘人眼可感知点的像素点数量,且结构相似度均值达到0.981,均方根误差仅为0.0049,峰值信噪比达到了49.1 dB,运行时间均值为4.8 s,提高了图像边缘修复效果,减少了运行时间。 展开更多
关键词 视觉传达 低分辨率 激光图像 边缘修复 多视图融合
在线阅读 下载PDF
上一页 1 2 17 下一页 到第
使用帮助 返回顶部