期刊文献+
共找到16,425篇文章
< 1 2 250 >
每页显示 20 50 100
SFMFusion:基于语义特征映射自编码的红外与可见光图像融合
1
作者 管芳景 汪娟 罗晓清 《红外技术》 北大核心 2026年第2期156-165,共10页
以往的红外与可见光图像融合方法常忽略了语义信息特征的关系,导致红外图像的独特信息挖掘不够充分。为了充分提取挖掘图像的语义信息和细粒度判别特征,本文提出了一种基于语义特征映射自编码的红外与可见光图像融合方法(SFMFusion)。... 以往的红外与可见光图像融合方法常忽略了语义信息特征的关系,导致红外图像的独特信息挖掘不够充分。为了充分提取挖掘图像的语义信息和细粒度判别特征,本文提出了一种基于语义特征映射自编码的红外与可见光图像融合方法(SFMFusion)。该方法针对粗、细粒度关注的信息重点不同,采取了两重融合策略:对于包含图像空间细节纹理的浅层信息,本文设计了基于内容丰富度的融合规则;对于蕴含图像判别性内容的深层语义信息,设计了基于最小二乘法的语义特征映射融合规则,通过寻求最佳特征映射以便最大限度地保留红外图像的独特信息。在此基础上,为了进一步增强语义融合特征的上下文相关性,本文设计了多尺度增强模块。该模块使用多个具有不同扩张率的空洞卷积对特征进行并行处理语义融合特征,以此学习特征不同尺度的信息。最后,在浅层融合细节信息的逐层引导下,从粗到细重构出最终的融合图像。通过在标准图像TNO和RoadScene数据集上进行主客观实验,与传统和近来深度学习融合方法进行比较分析,结果显示本文方法能有效保留并融合红外与可见光图像中的互补信息,在视觉感知和定量指标上均取得较好的效果。 展开更多
关键词 特征映射 语义 最小二乘法 多尺度 红外与可见光 图像融合
在线阅读 下载PDF
基于HyperFusion-Deeplab的结直肠息肉分割
2
作者 王少赛 丁学文 +1 位作者 蒋晓凯 张圆 《天津职业技术师范大学学报》 2026年第1期61-67,共7页
结直肠微小息肉易与肠道褶皱混淆,且与周围黏膜常呈低对比度,导致传统分割方法面临假阳性干扰。基于编解码架构的深度学习网络也因多阶段下采样易丢失微小病灶特征,造成漏检与误分割。为此,搭建了一种多尺度特征融合模型HyperFusion-Dee... 结直肠微小息肉易与肠道褶皱混淆,且与周围黏膜常呈低对比度,导致传统分割方法面临假阳性干扰。基于编解码架构的深度学习网络也因多阶段下采样易丢失微小病灶特征,造成漏检与误分割。为此,搭建了一种多尺度特征融合模型HyperFusion-Deeplab。该模型通过引入自适应特征融合(AFF)模块以增强微小息肉的特征表示,构建双向注意力(BiFA)模块以提高息肉-黏膜边界的分割精度,并采用多尺度上下文聚合机制以协同局部细节与全局上下文信息,从而有效抑制由器械反光及残留粪便等造成的假阳性干扰。在Kvasir-SEG与CVC-ClinicDB数据集上的实验结果表明:该模型相比于基准模型Deeplabv3+,平均戴森系数(mDice)分别提高0.010和0.009,平均交并比(mIoU)分别提高0.010和0.007。研究验证了HyperFusion-Deeplab模型的有效性。 展开更多
关键词 结直肠息肉分割 自适应特征融合 双向注意力机制 多尺度上下文聚合机制 Deeplabv3+
在线阅读 下载PDF
基于YOLO-BioFusion的血细胞检测模型 被引量:1
3
作者 张傲 刘微 +2 位作者 刘阳 杨思瑶 管勇 《电子测量技术》 北大核心 2025年第18期177-188,共12页
血细胞检测是临床诊断中的重要任务,尤其在面对细胞类型多样、尺寸差异显著、目标重叠频繁以及复杂背景时,现有检测模型的精度和鲁棒性仍面临挑战。为解决这些问题,本文提出了一种改进的YOLOv8目标检测模型——YOLO-BioFusion。该模型... 血细胞检测是临床诊断中的重要任务,尤其在面对细胞类型多样、尺寸差异显著、目标重叠频繁以及复杂背景时,现有检测模型的精度和鲁棒性仍面临挑战。为解决这些问题,本文提出了一种改进的YOLOv8目标检测模型——YOLO-BioFusion。该模型通过引入ACFN模块,提高了对细小目标和重叠目标的检测能力;应用C2f-DPE和SPPF-LSK模块增强了多尺度特征的融合与提取,提升了模型的鲁棒性和泛化能力;同时,采用Inner-CIoU损失函数加速了模型收敛并提高了定位精度。实验结果表明,在BCCD数据集上,YOLO-BioFusion的mAP@0.5为94.0%,mAP@0.5:0.95为65.2%,分别较YOLOv8-n提高了1.9%和3.2%。与此同时,计算成本仅为6.8 GFLOPs,展示了其在资源受限环境中的应用潜力。该研究为复杂背景下的血细胞检测提供了一种高效且精确的解决方案。 展开更多
关键词 血细胞检测 多尺度特征融合 损失函数优化 YOLOv8 重叠目标
原文传递
Low-light image enhancement based on multi-illumination estimation and multi-scale fusion 被引量:1
4
作者 ZHANG Xin'ai GAO Jing +1 位作者 NIE Kaiming LUO Tao 《Optoelectronics Letters》 2025年第6期362-369,共8页
To improve image quality under low illumination conditions,a novel low-light image enhancement method is proposed in this paper based on multi-illumination estimation and multi-scale fusion(MIMS).Firstly,the illuminat... To improve image quality under low illumination conditions,a novel low-light image enhancement method is proposed in this paper based on multi-illumination estimation and multi-scale fusion(MIMS).Firstly,the illumination is processed by contrast-limited adaptive histogram equalization(CLAHE),adaptive complementary gamma function(ACG),and adaptive detail preserving S-curve(ADPS),respectively,to obtain three components.Then,the fusion-relevant features,exposure,and color contrast are selected as the weight maps.Subsequently,these components and weight maps are fused through multi-scale to generate enhanced illumination.Finally,the enhanced images are obtained by multiplying the enhanced illumination and reflectance.Compared with existing approaches,this proposed method achieves an average increase of 0.81%and 2.89%in the structural similarity index measurement(SSIM)and peak signal-to-noise ratio(PSNR),and a decrease of 6.17%and 32.61%in the natural image quality evaluator(NIQE)and gradient magnitude similarity deviation(GMSD),respectively. 展开更多
关键词 adaptive detail preserving s curve contrast limited adaptive histogram equalization adaptive complementary gamma function low light image enhancement equalization clahe adaptive complementary gamma function acg multi scale fusion weight maps multi illumination estimation
原文传递
Multi-scale feature fusion optical remote sensing target detection method 被引量:1
5
作者 BAI Liang DING Xuewen +1 位作者 LIU Ying CHANG Limei 《Optoelectronics Letters》 2025年第4期226-233,共8页
An improved model based on you only look once version 8(YOLOv8)is proposed to solve the problem of low detection accuracy due to the diversity of object sizes in optical remote sensing images.Firstly,the feature pyram... An improved model based on you only look once version 8(YOLOv8)is proposed to solve the problem of low detection accuracy due to the diversity of object sizes in optical remote sensing images.Firstly,the feature pyramid network(FPN)structure of the original YOLOv8 mode is replaced by the generalized-FPN(GFPN)structure in GiraffeDet to realize the"cross-layer"and"cross-scale"adaptive feature fusion,to enrich the semantic information and spatial information on the feature map to improve the target detection ability of the model.Secondly,a pyramid-pool module of multi atrous spatial pyramid pooling(MASPP)is designed by using the idea of atrous convolution and feature pyramid structure to extract multi-scale features,so as to improve the processing ability of the model for multi-scale objects.The experimental results show that the detection accuracy of the improved YOLOv8 model on DIOR dataset is 92%and mean average precision(mAP)is 87.9%,respectively 3.5%and 1.7%higher than those of the original model.It is proved the detection and classification ability of the proposed model on multi-dimensional optical remote sensing target has been improved. 展开更多
关键词 multi scale feature fusion optical remote sensing feature map improve target detection ability optical remote sensing imagesfirstlythe target detection feature fusionto enrich semantic information spatial information
原文传递
Multi-Scale Feature Fusion and Advanced Representation Learning for Multi Label Image Classification
6
作者 Naikang Zhong Xiao Lin +1 位作者 Wen Du Jin Shi 《Computers, Materials & Continua》 2025年第3期5285-5306,共22页
Multi-label image classification is a challenging task due to the diverse sizes and complex backgrounds of objects in images.Obtaining class-specific precise representations at different scales is a key aspect of feat... Multi-label image classification is a challenging task due to the diverse sizes and complex backgrounds of objects in images.Obtaining class-specific precise representations at different scales is a key aspect of feature representation.However,existing methods often rely on the single-scale deep feature,neglecting shallow and deeper layer features,which poses challenges when predicting objects of varying scales within the same image.Although some studies have explored multi-scale features,they rarely address the flow of information between scales or efficiently obtain class-specific precise representations for features at different scales.To address these issues,we propose a two-stage,three-branch Transformer-based framework.The first stage incorporates multi-scale image feature extraction and hierarchical scale attention.This design enables the model to consider objects at various scales while enhancing the flow of information across different feature scales,improving the model’s generalization to diverse object scales.The second stage includes a global feature enhancement module and a region selection module.The global feature enhancement module strengthens interconnections between different image regions,mitigating the issue of incomplete represen-tations,while the region selection module models the cross-modal relationships between image features and labels.Together,these components enable the efficient acquisition of class-specific precise feature representations.Extensive experiments on public datasets,including COCO2014,VOC2007,and VOC2012,demonstrate the effectiveness of our proposed method.Our approach achieves consistent performance gains of 0.3%,0.4%,and 0.2%over state-of-the-art methods on the three datasets,respectively.These results validate the reliability and superiority of our approach for multi-label image classification. 展开更多
关键词 Image classification MULTI-LABEL multi scale attention mechanisms feature fusion
在线阅读 下载PDF
Step-by-step to success:Multi-stage learning driven robust audiovisual fusion network for fine-grained bird species classification
7
作者 Shanshan Xie Jiangjian Xie +6 位作者 Yang Liu Lianshuai Sha Ye Tian Jiahua Dong Diwen Liang Kaijun Pan Junguo Zhang 《Avian Research》 2025年第4期818-831,共14页
Bird monitoring and protection are essential for maintaining biodiversity,and fine-grained bird classification has become a key focus in this field.Audio-visual modalities provide critical cues for this task,but robus... Bird monitoring and protection are essential for maintaining biodiversity,and fine-grained bird classification has become a key focus in this field.Audio-visual modalities provide critical cues for this task,but robust feature extraction and efficient fusion remain major challenges.We introduce a multi-stage fine-grained audiovisual fusion network(MSFG-AVFNet) for fine-grained bird species classification,which addresses these challenges through two key components:(1) the audiovisual feature extraction module,which adopts a multi-stage finetuning strategy to provide high-quality unimodal features,laying a solid foundation for modality fusion;(2) the audiovisual feature fusion module,which combines a max pooling aggregation strategy with a novel audiovisual loss function to achieve effective and robust feature fusion.Experiments were conducted on the self-built AVB81and the publicly available SSW60 datasets,which contain data from 81 and 60 bird species,respectively.Comprehensive experiments demonstrate that our approach achieves notable performance gains,outperforming existing state-of-the-art methods.These results highlight its effectiveness in leveraging audiovisual modalities for fine-grained bird classification and its potential to support ecological monitoring and biodiversity research. 展开更多
关键词 Audiovisual modality Bird species classification Feature fusion FINE-GRAINED
在线阅读 下载PDF
HDMapFusion:用于自动驾驶的多模态融合高清地图生成(特邀)
8
作者 刘洋宏 付杨悠然 董性平 《计算机工程》 北大核心 2025年第10期18-26,共9页
高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义... 高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义地图的生成精度。与传统直接融合原始传感器数据的方法不同,HDMapFusion创新性地将相机图像特征和激光雷达点云特征统一转换为鸟瞰视图(BEV)空间表示,在统一的几何坐标系下实现了多模态信息的物理可解释性融合。具体而言:HDMapFusion首先通过深度学习网络分别提取相机图像的视觉特征和激光雷达的三维(3D)结构特征;然后利用可微分的视角变换模块将前视图像特征转换为BEV空间表示,同时将激光雷达点云特征通过体素化处理投影到相同的BEV空间,在此基础上设计一个基于注意力机制的特征融合模块,自适应地加权整合两种模态;最后通过语义解码器生成包含车道线、人行横道、道路边界线等要素的高精度语义地图。在nuScenes自动驾驶数据集上的实验结果表明,HDMapFusion在高清地图生成精度方面显著优于现有基准方法。这些实验结果验证了HDMapFusion的有效性和优越性,为自动驾驶环境感知中的多模态融合问题提供了新的解决思路。 展开更多
关键词 高清地图生成 多模态融合 鸟瞰视图表示 自动驾驶 深度估计
在线阅读 下载PDF
Rolling Bearing Fault Diagnosis Based on Cross-Attention Fusion WDCNN and BILSTM
9
作者 Yingyong Zou Xingkui Zhang +3 位作者 Tao Liu Yu Zhang Long Li Wenzhuo Zhao 《Computers, Materials & Continua》 2025年第6期4699-4723,共25页
High-speed train engine rolling bearings play a crucial role in maintaining engine health and minimizing operational losses during train operation.To solve the problems of low accuracy of the diagnostic model and unst... High-speed train engine rolling bearings play a crucial role in maintaining engine health and minimizing operational losses during train operation.To solve the problems of low accuracy of the diagnostic model and unstable model due to the influence of noise during fault detection,a rolling bearing fault diagnosis model based on cross-attention fusion of WDCNN and BILSTM is proposed.The first layer of the wide convolutional kernel deep convolutional neural network(WDCNN)is used to extract the local features of the signal and suppress the highfrequency noise.A Bidirectional Long Short-Term Memory Network(BILSTM)is used to obtain global time series features of the signal.Cross-attention combines the WDCNN layer and the BILSTM layer so that the model can recognize more comprehensive feature information of the signal.Meanwhile,to improve the accuracy,Variable Modal Decomposition(VMD)is used to decompose the signals and filter and reconstruct the signals using envelope entropy and kurtosis,which enables the pre-processing of the signals so that the data input to the neural network contains richer feature information.The feasibility of the model is tested and experimentally validated using publicly available datasets.The experimental results show that the accuracy of themodel proposed in this paper is significantly improved compared to the traditional WDCNN,BILSTM,and WDCNN-BILSTM models. 展开更多
关键词 High-speed train engine rolling bearings fault diagnosis variational modal decomposition WDCNNBILSTM-cross-attention feature fusion
在线阅读 下载PDF
Lip-Audio Modality Fusion for Deep Forgery Video Detection
10
作者 Yong Liu Zhiyu Wang +3 位作者 Shouling Ji Daofu Gong Lanxin Cheng Ruosi Cheng 《Computers, Materials & Continua》 2025年第2期3499-3515,共17页
In response to the problem of traditional methods ignoring audio modality tampering, this study aims to explore an effective deep forgery video detection technique that improves detection precision and reliability by ... In response to the problem of traditional methods ignoring audio modality tampering, this study aims to explore an effective deep forgery video detection technique that improves detection precision and reliability by fusing lip images and audio signals. The main method used is lip-audio matching detection technology based on the Siamese neural network, combined with MFCC (Mel Frequency Cepstrum Coefficient) feature extraction of band-pass filters, an improved dual-branch Siamese network structure, and a two-stream network structure design. Firstly, the video stream is preprocessed to extract lip images, and the audio stream is preprocessed to extract MFCC features. Then, these features are processed separately through the two branches of the Siamese network. Finally, the model is trained and optimized through fully connected layers and loss functions. The experimental results show that the testing accuracy of the model in this study on the LRW (Lip Reading in the Wild) dataset reaches 92.3%;the recall rate is 94.3%;the F1 score is 93.3%, significantly better than the results of CNN (Convolutional Neural Networks) and LSTM (Long Short-Term Memory) models. In the validation of multi-resolution image streams, the highest accuracy of dual-resolution image streams reaches 94%. Band-pass filters can effectively improve the signal-to-noise ratio of deep forgery video detection when processing different types of audio signals. The real-time processing performance of the model is also excellent, and it achieves an average score of up to 5 in user research. These data demonstrate that the method proposed in this study can effectively fuse visual and audio information in deep forgery video detection, accurately identify inconsistencies between video and audio, and thus verify the effectiveness of lip-audio modality fusion technology in improving detection performance. 展开更多
关键词 Deep forgery video detection lip-audio modality fusion mel frequency cepstrum coefficient siamese neural network band-pass filter
在线阅读 下载PDF
MSL-Net:a lightweight apple leaf disease detection model based on multi-scale feature fusion
11
作者 YANG Kangyi YAN Chunman 《Optoelectronics Letters》 2025年第12期745-752,共8页
Aiming at the problem of low detection accuracy due to the different scale sizes of apple leaf disease spots and their similarity to the background,this paper proposes a multi-scale lightweight network(MSL-Net).Firstl... Aiming at the problem of low detection accuracy due to the different scale sizes of apple leaf disease spots and their similarity to the background,this paper proposes a multi-scale lightweight network(MSL-Net).Firstly,a multiplexed aggregated feature extraction network is proposed using residual bottleneck block(RES-Bottleneck)and middle partial-convolution(MP-Conv)to capture multi-scale spatial features and enhance focus on disease features for better differentiation between disease targets and background information.Secondly,a lightweight feature fusion network is designed using scale-fuse concatenation(SF-Cat)and triple-scale sequence feature fusion(TSSF)module to merge multi-scale feature maps comprehensively.Depthwise convolution(DWConv)and GhostNet lighten the network,while the cross stage partial bottleneck with 3 convolutions ghost-normalization attention module(C3-GN)reduces missed detections by suppressing irrelevant background information.Finally,soft non-maximum suppression(Soft-NMS)is used in the post-processing stage to improve the problem of misdetection of dense disease sites.The results show that the MSL-Net improves mean average precision at intersection over union of 0.5(mAP@0.5)by 2.0%over the baseline you only look once version 5s(YOLOv5s)and reduces parameters by 44%,reducing computation by 27%,outperforming other state-of-the-art(SOTA)models overall.This method also shows excellent performance compared to the latest research. 展开更多
关键词 enhance focus disease features background i multi scale feature fusion apple leaf disease spots residual bottleneck block res bottleneck multiplexed aggregated feature extraction network lightweight network apple leaf disease detection
原文传递
DUIE-YOLO:一种基于图像增强的水下鱿鱼目标检测算法 被引量:1
12
作者 曹莉凌 胡浩宇 曹守启 《上海海洋大学学报》 北大核心 2026年第1期254-269,共16页
为了解决水下图像因模糊和色偏导致的目标检测精度下降问题,提升复杂水下环境中鱿鱼检测的准确性和鲁棒性,本研究提出一种基于图像增强的水下鱿鱼检测算法DUIE-YOLO,采用“先增强后检测”的级联框架,由DUIE-Net增强模块和YOLOv8-HD检测... 为了解决水下图像因模糊和色偏导致的目标检测精度下降问题,提升复杂水下环境中鱿鱼检测的准确性和鲁棒性,本研究提出一种基于图像增强的水下鱿鱼检测算法DUIE-YOLO,采用“先增强后检测”的级联框架,由DUIE-Net增强模块和YOLOv8-HD检测模块组成。DUIE-Net模块通过颜色校正、多尺度特征融合、特征恢复与增强及去雾优化,显著提升图像质量;YOLOv8-HD检测模块结合FasterNet网络、小目标检测头、CoordAttention注意力机制及ShapeIoU损失函数,优化特征提取能力与小目标检测精度。实验结果表明,DUIE-YOLO相比原始YOLOv8n在Precision、Recall、F1-score和mAP等4个关键指标上分别提升4.2%、6.8%、5.7%和5.5%。联合实验结果显示,DUIE-Net与YOLOv8-HD的组合相比基线(Raw+YOLOv8n),mAP提升40.3%,Precision提升10.5%,Recall提升53%,F1-score提升31%,证明该算法具有显著的级联优化效果。研究表明,DUIE-YOLO通过图像增强与检测模块的协同优化,有效解决了水下图像质量差导致的检测性能下降问题。本研究为复杂水下环境中的目标识别提供了高精度的解决方案,对海洋生物监测与资源开发具有重要应用价值。 展开更多
关键词 水下鱿鱼检测 目标检测 图像增强 多尺度特征融合 YOLOv8
原文传递
基于贝叶斯网络的行人穿越不确定性量化研究
13
作者 杨彪 杜梦沄 +2 位作者 朱俊瑞 王海 蔡英凤 《汽车工程》 北大核心 2026年第3期627-637,共11页
随着自动驾驶技术的发展,行人穿越意图预测已成为减少人车冲突的重要手段。然而,传统意图预测方法无法估计预测结果的不确定性,导致车辆在复杂交通环境中的决策行为缺乏可信度。针对上述问题,本文提出了一种基于多模态输入的不确定性行... 随着自动驾驶技术的发展,行人穿越意图预测已成为减少人车冲突的重要手段。然而,传统意图预测方法无法估计预测结果的不确定性,导致车辆在复杂交通环境中的决策行为缺乏可信度。针对上述问题,本文提出了一种基于多模态输入的不确定性行人穿越预测网络(UN-PCPNet),将行人姿态、边界框与车速3种输入分别提取特征后送入特征融合模块进行多模态融合,进而通过贝叶斯多层感知模块输出穿越意图预测结果,并通过结果的方差分析量化预测过程的不确定性。本文方法在JAAD和PIE公共数据集上可以实现92%和89%的AUC得分,并且可以在不影响预测准确性的前提下获得可靠的不确定性估计。实车实验也验证了本文方法在实际交通场景中的有效性,可以为提高自动驾驶安全性提供支持。 展开更多
关键词 贝叶斯神经网络 行人穿越意图预测 多模态融合 不确定性估计
在线阅读 下载PDF
基于自适应超模态学习的音视频情绪识别方法
14
作者 胡峻峰 刘倩 《计算机工程与设计》 北大核心 2026年第2期486-494,共9页
针对多模态情感识别中存在的特征冗余、噪声干扰及模态权重固化问题,提出一种基于自适应超模态学习的音视频情感识别方法。通过EfficientFace网络与一维卷积分别提取视频面部特征和音频特征,采用自适应超模态学习方法评估模态信息质量,... 针对多模态情感识别中存在的特征冗余、噪声干扰及模态权重固化问题,提出一种基于自适应超模态学习的音视频情感识别方法。通过EfficientFace网络与一维卷积分别提取视频面部特征和音频特征,采用自适应超模态学习方法评估模态信息质量,建立跨模态特征交互通道以抑制噪声特征。设计双重特征融合架构,结合残差连接保持原始特征完整性,通过一维卷积层实现跨模态特征自适应拼接。在公开数据集CH-SIMS和RAVDESS上的实验结果表明,所提方法情感识别准确率优于基准模型,F1值同步提升。消融实验验证了自适应超模态学习模块对噪声抑制的有效性。 展开更多
关键词 深度学习 情感分析 跨模态融合 注意力机制 特征提取 情绪分类 多模态
在线阅读 下载PDF
融合多关系异构图和语义特征的核心专利预测方法 被引量:1
15
作者 邓娜 纪媛琳 胡云川 《情报杂志》 北大核心 2026年第1期83-90,共8页
[目的]随着专利数量的爆发式增长,专利间关系日益复杂,现有核心专利预测方法仅依赖单一专利关系网络,难以有效捕捉专利间的多维关联,且未能综合专利的文本信息。因此,实现一种能融合多维度特征的核心专利预测方法具有重要意义。[方法]... [目的]随着专利数量的爆发式增长,专利间关系日益复杂,现有核心专利预测方法仅依赖单一专利关系网络,难以有效捕捉专利间的多维关联,且未能综合专利的文本信息。因此,实现一种能融合多维度特征的核心专利预测方法具有重要意义。[方法]提出一种融合多关系异构图与语义特征的核心专利预测方法。通过构建多关系异构图整合专利间技术共现、共享发明人以及权利要求语义相似多维度关系,并融合XLnet提取的专利摘要语义特征,最终利用MLP分类器实现核心专利预测。[结果/结论]实验结果表明,在通信产业领域的专利数据集上,方法的Precision、Recall、Macro F1以及AUC分数分别达到0.8562、0.8210、0.8059、0.8260,超越了其他4个对比方法,证明了方法的有效性,能为核心专利预测提供新的参考和思路。 展开更多
关键词 核心专利预测 多关系异构图 特征融合 RGCN XLnet
在线阅读 下载PDF
基于多尺度双流网络的深度伪造检测方法
16
作者 蒋翠玲 程梓源 +1 位作者 俞新贵 万永菁 《计算机工程》 北大核心 2026年第1期242-253,共12页
人脸深度伪造技术的滥用给社会和个人带来了极大的安全隐患,因此深度伪造检测技术已成为当今研究的热点。目前基于深度学习的伪造检测技术在高质量(HQ)数据集上效果较好,但在低质量(LQ)数据集和跨数据集上的检测效果不佳。为提升深度伪... 人脸深度伪造技术的滥用给社会和个人带来了极大的安全隐患,因此深度伪造检测技术已成为当今研究的热点。目前基于深度学习的伪造检测技术在高质量(HQ)数据集上效果较好,但在低质量(LQ)数据集和跨数据集上的检测效果不佳。为提升深度伪造检测的泛化性,提出一种基于多尺度双流网络(MSDSnet)的深度伪造检测方法。MSDSnet输入分为空域特征流和高频噪声特征流,首先采用多尺度融合(MSF)模块捕获不同情况下图像在空域被篡改的粗粒度人脸特征和伪造图像的细粒度高频噪声特征信息,然后通过MSF模块将空域流和高频噪声流的双流特征充分融合,由多模态交互注意力(MIA)模块进一步交互以充分学习双流特征信息,最后利用FcaNet(Frequency Channel Attention Network)获取伪造人脸特征的全局信息并完成检测分类。实验结果表明,该方法在HQ数据集Celeb-DF v2上的准确率为98.54%,在LQ数据集FaceForensics++上的准确率为93.11%,同时在跨数据集上的实验效果也优于其他同类方法。 展开更多
关键词 深度伪造检测 双流网络 多尺度融合 多模态交互注意力 高频噪声
在线阅读 下载PDF
基于多模态数据融合的康复机器人关节角度预测方法
17
作者 陈博 王斌 +3 位作者 周袁 周京 王浙明 叶祥明 《控制与决策》 北大核心 2026年第3期604-612,共9页
在人体关节角度预测中,单传感器获取信息太过局限且易受环境干扰影响,而基于多传感器的关节角度的预测研究,由于输入数据维度升高、传统的融合方式存在特征利用率不足的缺陷,导致预测精度下降.为准确获取运动功能障碍患者佩戴外骨骼康... 在人体关节角度预测中,单传感器获取信息太过局限且易受环境干扰影响,而基于多传感器的关节角度的预测研究,由于输入数据维度升高、传统的融合方式存在特征利用率不足的缺陷,导致预测精度下降.为准确获取运动功能障碍患者佩戴外骨骼康复过程中的运动状态,提出基于多模态数据融合的康复机器人关节角度预测方法.首先,设计多通道高分辨率网络结构使其适用于人体3维姿态特征提取任务,同时利用卷积神经网络提取足底压力特征;其次,基于长短期记忆网络获取特征在时域上的关联性;然后,构建带注意力机制的多模态特征融合网络用于人体关节角度预测;最后,通过在低、中、高3组速度下的实验结果表明:所提出算法在自建数据集上的评价指标RMSE为0.039,较传统关节角度预测方法提升38%以上;评价指标R2为0.948,较传统关节角度预测方法提升17%以上. 展开更多
关键词 康复机器人 关节角度预测 人体姿态估计 多通道高分辨率网络 长短期记忆网络 多模态特征融合网络
原文传递
基于多模态特征的暗链标题检测方法
18
作者 印杰 刘家银 +2 位作者 黄肖宇 兰浩良 谢文伟 《信息网络安全》 北大核心 2026年第3期462-470,共9页
随着网页篡改植入暗链现象的愈演愈烈以及自动化检出方法的普及,暗链标题植入已成为危害网络安全的重要因素之一。当前,攻击者常采用形近字、干扰符号、表情文字等手段进行伪装,这对基于单模态自然语言处理的检测技术构成了挑战。针对... 随着网页篡改植入暗链现象的愈演愈烈以及自动化检出方法的普及,暗链标题植入已成为危害网络安全的重要因素之一。当前,攻击者常采用形近字、干扰符号、表情文字等手段进行伪装,这对基于单模态自然语言处理的检测技术构成了挑战。针对这一问题,文章提出基于混合特征的多模态检测方法。该方法首先利用BERT与ResNet分别提取标题文本的语义特征与图像特征,随后通过门函数和多头注意力方法对特征进行深度融合,进而实现对暗链标题的分类。实验结果表明,在评测数据集上,所提方法的识别准确率达到0.966,较基准方法提升了约1个百分点,这表明图像特征可以有效弥补文本特征在应对标题伪装时的不足。 展开更多
关键词 暗链标题检测 BERT ResNet 多模态特征融合
在线阅读 下载PDF
气候适应性城市综合交通系统韧性综述
19
作者 李得伟 张若楠 +3 位作者 邹林翰 戴智丞 李涛 赵禹舒 《北京交通大学学报》 北大核心 2026年第1期1-14,共14页
在全球极端气候事件频发的背景下,城市交通系统正面临结构性脆弱与气候风险双重压力,亟需提升系统的气候适应性与综合韧性.首先,系统梳理了气候变化对城市交通网络结构与居民出行行为的主要影响,揭示了气象灾害导致的网络通达性下降与... 在全球极端气候事件频发的背景下,城市交通系统正面临结构性脆弱与气候风险双重压力,亟需提升系统的气候适应性与综合韧性.首先,系统梳理了气候变化对城市交通网络结构与居民出行行为的主要影响,揭示了气象灾害导致的网络通达性下降与出行需求时空错配等问题.然后,从物理韧性与社会韧性两方面分析了基础设施抗扰与恢复能力、出行者风险响应行为及治理体系适应机制的演化特征.最后,总结了以低碳出行为导向的可持续交通政策、以抗扰恢复为核心的交通韧性政策框架,探讨了两者融合形成的协同治理路径,并综述了城市交通网络在基础设施优化、运力资源协同配置及交通-能源系统耦合方面的最新研究进展,提出构建多模式协同、低碳韧性一体化的交通系统优化思路.研究结果表明:未来城市交通系统的气候适应性提升应以多模式网络优化和科技赋能为核心,强化社会公平性与政策协同,推动交通治理由基础设施韧性向系统韧性、由单一目标向多目标协调转变;需深度融合交通与能源系统耦合发展,建立覆盖抵御、吸收、恢复、适应的全周期韧性评估体系,填补当前评估聚焦气候灾害滞后、忽视长期演化的短板;需完善物理与社会韧性整合建模,融合网络拓扑、出行行为与治理机制分析,为不同气候特征城市提供定制化的设施优化方案与政策支撑. 展开更多
关键词 综合交通 韧性 气候适应性 可持续交通 多模式协同
在线阅读 下载PDF
基于改进YOLOv8的城市火灾检测算法
20
作者 苏连成 贾潇彬 丁伟利 《燕山大学学报》 北大核心 2026年第2期112-120,共9页
针对传统火灾检测算法在面对城市复杂背景时存在检测精度低、误检率高等问题,本文提出了一种基于改进YOLOv8的城市火灾检测算法。首先,以YOLOv8目标检测模型为基础,在颈部网络中引入双向特征金字塔网络结构替换原有的路径聚合网络-特征... 针对传统火灾检测算法在面对城市复杂背景时存在检测精度低、误检率高等问题,本文提出了一种基于改进YOLOv8的城市火灾检测算法。首先,以YOLOv8目标检测模型为基础,在颈部网络中引入双向特征金字塔网络结构替换原有的路径聚合网络-特征金字塔网络特征融合层,融合多尺度特征信息,增强模型特征学习能力;其次,在双向特征金字塔网络中融入高效多尺度注意力机制,提升网络特征提取能力,进一步提高模型烟火检测精度;最后,在主干网络中引入部分卷积模块,将主干网络中的C2f模块替换为C2f-Faster模块,提升模型的检测效率,减少模型冗余计算。在自建的烟火数据集上对改进算法进行实验,实验结果表明,改进后的模型相较于原模型mAP@50达到了73.6%,参数量减少了8.99%,模型的计算量降低至7.7 GFLOPs,在提升检测精度的同时,实现了模型轻量化,能够满足城市复杂背景下的烟火检测需求。 展开更多
关键词 烟火检测 YOLOv8 多尺度融合 EMA 轻量化
在线阅读 下载PDF
上一页 1 2 250 下一页 到第
使用帮助 返回顶部