期刊文献+
共找到1,065篇文章
< 1 2 54 >
每页显示 20 50 100
Explosive Field Visualization Based on Image Fusion
1
作者 张文耀 蒋凌霜 《Journal of Beijing Institute of Technology》 EI CAS 2009年第2期136-140,共5页
The advantages and disadvantages of two existing methods for explosive field visualization are analyzed in this paper. And a new method based on image fusion is proposed to integrate their complementary advantages. Wi... The advantages and disadvantages of two existing methods for explosive field visualization are analyzed in this paper. And a new method based on image fusion is proposed to integrate their complementary advantages. With the method, two source images built by equal mapping and modulus mapping are individually decomposed into two Gauss-Laplacian pyramid sequences. Then, the two individual sequences are used to make a composite one according to the process of fusion. Finally, a new image is reconstructed from the composite sequence. Experimental results show that the new images integrate the advantages of sources, effectively improve the visualization, and disclose more information about explosive field. 展开更多
关键词 explosive field visualIZATION image fusion pyramid transform
在线阅读 下载PDF
基于跨模态多头注意力的交通量音视融合检测方法
2
作者 马庆禄 吴斐斐 +2 位作者 吴跃川 张丽 张埂 《重庆交通大学学报(自然科学版)》 北大核心 2026年第1期95-105,共11页
针对传统视觉或音频信号在交通量检测中均无法充分捕捉时域和频域细节信息的问题,提出了基于跨模态多头注意力的交通量音视融合检测方法。该方法通过构建一种跨音视频模态的交通量检测模型,获取高质量的交通视觉模态表征和声音模态表征... 针对传统视觉或音频信号在交通量检测中均无法充分捕捉时域和频域细节信息的问题,提出了基于跨模态多头注意力的交通量音视融合检测方法。该方法通过构建一种跨音视频模态的交通量检测模型,获取高质量的交通视觉模态表征和声音模态表征并进行高效融合。首先,采用Res2Net网络与DCNv3网络对音视频数据进行特征提取,通过双向长短期记忆网络对时间序列特征处理,分别分析了音视频中复杂行为序列,获取丰富性和连贯性的交通信息描述;其次,在跨模态融合中将交叉注意力与多头注意力结合,利用多个子空间进行合并输出,进行多头注意力跨模态融合;最后,将交叉熵损失和一致性损失联合应用,加强对不同模态信息的协调解析,确保多模态数据在分类和识别任务中的一致性表现。实验结果表明在交通量检测场景下笔者方法分别比单一音频、视频与AVSS(audio-visual speech separation,AVSS)中的融合方法的平均车辆检测准确率提高了2.57%、1.70%、0.95%,车辆平均分类准确率分别提高了4.72%、1.78%、1.62%,总体交通量平均检测准确率分别提高了4.41%、2.96%、1.46%,且在4种不同场景下表现稳定。 展开更多
关键词 交通工程 交通量检测 音视融合 跨模态 注意力机制
在线阅读 下载PDF
复杂病房环境下改进ORB-SLAM3的机器人定位导航研究
3
作者 刘欣达 王家俊 周涛 《传感器与微系统》 北大核心 2026年第1期62-66,共5页
针对医院病房巡视机器人在复杂光照、频繁遮挡、低纹理和动态干扰等条件下自主定位精度下降的问题,提出一种改进型视觉惯导融合ORB-SLAM3的定位与导航方法。该方法在传统ORB-SLAM3框架的基础上,引入了视觉-惯性测量单元(IMU)紧耦合残差... 针对医院病房巡视机器人在复杂光照、频繁遮挡、低纹理和动态干扰等条件下自主定位精度下降的问题,提出一种改进型视觉惯导融合ORB-SLAM3的定位与导航方法。该方法在传统ORB-SLAM3框架的基础上,引入了视觉-惯性测量单元(IMU)紧耦合残差优化模型,通过改进预积分提高了在弱光和遮挡环境下的鲁棒性与建图精度。针对病房布局紧凑、人员与设备频繁移动的特点,结合Navigation2(Nav2)框架,设计了基于A*的全局路径规划与动态窗口法(DWA)的局部避障策略,并引入速度平滑约束的纯跟踪算法,确保机器人在医疗场景中的安全与舒适运行。实验验证表明,该方法在复杂病房环境中有效提升了病房巡视机器人的任务执行的稳定性与精度。 展开更多
关键词 病房巡视机器人 ORB-SLAM3 自主导航 视觉惯导融合
在线阅读 下载PDF
On‐device audio‐visual multi‐person wake word spotting
4
作者 Yidi Li Guoquan Wang +2 位作者 Zhan Chen Hao Tang Hong Liu 《CAAI Transactions on Intelligence Technology》 SCIE EI 2023年第4期1578-1589,共12页
Audio‐visual wake word spotting is a challenging multi‐modal task that exploits visual information of lip motion patterns to supplement acoustic speech to improve overall detection performance.However,most audio‐vi... Audio‐visual wake word spotting is a challenging multi‐modal task that exploits visual information of lip motion patterns to supplement acoustic speech to improve overall detection performance.However,most audio‐visual wake word spotting models are only suitable for simple single‐speaker scenarios and require high computational complexity.Further development is hindered by complex multi‐person scenarios and computational limitations in mobile environments.In this paper,a novel audio‐visual model is proposed for on‐device multi‐person wake word spotting.Firstly,an attention‐based audio‐visual voice activity detection module is presented,which generates an attention score matrix of audio and visual representations to derive active speaker representation.Secondly,the knowledge distillation method is introduced to transfer knowledge from the large model to the on‐device model to control the size of our model.Moreover,a new audio‐visual dataset,PKU‐KWS,is collected for sentence‐level multi‐person wake word spotting.Experimental results on the PKU‐KWS dataset show that this approach outperforms the previous state‐of‐the‐art methods. 展开更多
关键词 audio‐visual fusion human‐computer interfacing speech processing
在线阅读 下载PDF
Audio-visual emotion recognition with multilayer boosted HMM
5
作者 吕坤 贾云得 张欣 《Journal of Beijing Institute of Technology》 EI CAS 2013年第1期89-93,共5页
Emotion recognition has become an important task of modern human-computer interac- tion. A multilayer boosted HMM ( MBHMM ) classifier for automatic audio-visual emotion recognition is presented in this paper. A mod... Emotion recognition has become an important task of modern human-computer interac- tion. A multilayer boosted HMM ( MBHMM ) classifier for automatic audio-visual emotion recognition is presented in this paper. A modified Baum-Welch algorithm is proposed for component HMM learn- ing and adaptive boosting (AdaBoost) is used to train ensemble classifiers for different layers (cues). Except for the first layer, the initial weights of training samples in current layer are decided by recognition results of the ensemble classifier in the upper layer. Thus the training procedure using current cue can focus more on the difficult samples according to the previous cue. Our MBHMM clas- sifier is combined by these ensemble classifiers and takes advantage of the complementary informa- tion from multiple cues and modalities. Experimental results on audio-visual emotion data collected in Wizard of Oz scenarios and labeled under two types of emotion category sets demonstrate that our approach is effective and promising. 展开更多
关键词 emotion recognition audio-visual fusion Baum-Welch algorithm multilayer boostedHMM Wizard of Oz scenario
在线阅读 下载PDF
腰椎滑脱症治疗的文献计量学可视化分析
6
作者 黄海伦 魏亚涛 +4 位作者 刘永皑 吴俊哲 高恒 孙奎 曹振文 《中国组织工程研究》 北大核心 2026年第10期2618-2628,共11页
背景:腰椎滑脱症的治疗策略呈现多元化发展,但现有研究多聚焦单一技术或短期疗效,缺乏对全球研究趋势及核心热点的系统性整合。目的:通过文献计量学与可视化分析工具解析腰椎滑脱症治疗领域的全球研究现状、知识结构、核心热点及未来方... 背景:腰椎滑脱症的治疗策略呈现多元化发展,但现有研究多聚焦单一技术或短期疗效,缺乏对全球研究趋势及核心热点的系统性整合。目的:通过文献计量学与可视化分析工具解析腰椎滑脱症治疗领域的全球研究现状、知识结构、核心热点及未来方向。方法:检索Web of Science核心数据库中2010-2025年腰椎滑脱症治疗相关文献,利用CiteSpace、VOSviewer和Excel进行多维度分析,包括年度发文量、国家贡献、机构合作、作者影响力、期刊分布、参考文献共被引及关键词共现与突现分析。结果与结论:共纳入367篇腰椎滑脱症治疗相关文献,2010-2024年发文量总体呈上升趋势,年均发文26.5篇,2025年初已有5篇新研究;中国以130篇发文量居首,但美国以3072次总被引和H指数32领跑学术影响力主导国际合作网络;加州大学旧金山分校和梅奥诊所为核心研究机构;期刊《World Neurosurgery》拥有最高的发文量与被引用率,期刊《Journal of Neurosurgery-Spine》被引频次最高;美国学者Mummaneni,pv(H指数60)和中国学者Tian Wei(7篇)为高产作者代表;高频关键词包括“脊椎滑脱(128次)”“外科手术(104次)”“融合术(75次)”和“微创手术”,突现词显示研究向微创化、并发症管理及多学科交叉方向迁移。 展开更多
关键词 腰椎滑脱症 微创手术 融合术 文献计量学 可视化分析 CITESPACE VOSviewer
在线阅读 下载PDF
Rapid and robust initialization for monocular visual inertial navigation within multi-state Kalman filter 被引量:10
7
作者 Wei FANG Lianyu ZHENG 《Chinese Journal of Aeronautics》 SCIE EI CAS CSCD 2018年第1期148-160,共13页
Sensor-fusion based navigation attracts significant attentions for its robustness and accuracy in various applications. To achieve a versatile and efficient state estimation both indoor and outdoor, this paper present... Sensor-fusion based navigation attracts significant attentions for its robustness and accuracy in various applications. To achieve a versatile and efficient state estimation both indoor and outdoor, this paper presents an improved monocular visual inertial navigation architecture within the Multi-State Constraint Kalman Filter (MSCKF). In addition, to alleviate the initialization demands by appending enough stable poses in MSCKF, a rapid and robust Initialization MSCKF (I-MSCKF) navigation method is proposed in the paper. Based on the trifocal tensor and sigmapoint filter, the initialization of the integrated navigation can be accomplished within three consecutive visual frames. Thus, the proposed I-MSCKF method can improve the navigation performance when suffered from shocks at the initial stage. Moreover, the sigma-point filter is applied at initial stage to improve the accuracy for state estimation. The state vector generated at initial stage from the proposed method is consistent with MSCKF, and thus a seamless transition can be achieved between the initialization and the subsequent navigation in I-MSCKF. Finally, the experimental results show that the proposed I-MSCKF method can improve the robustness and accuracy for monocular visual inertial navigations. 展开更多
关键词 Estimator initialization NAVIGATION Kalman filter Pose estimation visual inertial fusion
原文传递
Multi-source image fusion algorithm based on fast weighted guided filter 被引量:6
8
作者 WANG Jian YANG Ke +2 位作者 REN Ping QIN Chunxia ZHANG Xiufei 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2019年第5期831-840,共10页
In last few years,guided image fusion algorithms become more and more popular.However,the current algorithms cannot solve the halo artifacts.We propose an image fusion algorithm based on fast weighted guided filter.Fi... In last few years,guided image fusion algorithms become more and more popular.However,the current algorithms cannot solve the halo artifacts.We propose an image fusion algorithm based on fast weighted guided filter.Firstly,the source images are separated into a series of high and low frequency components.Secondly,three visual features of the source image are extracted to construct a decision graph model.Thirdly,a fast weighted guided filter is raised to optimize the result obtained in the previous step and reduce the time complexity by considering the correlation among neighboring pixels.Finally,the image obtained in the previous step is combined with the weight map to realize the image fusion.The proposed algorithm is applied to multi-focus,visible-infrared and multi-modal image respectively and the final results show that the algorithm effectively solves the halo artifacts of the merged images with higher efficiency,and is better than the traditional method considering subjective visual consequent and objective evaluation. 展开更多
关键词 FAST GUIDED FILTER image fusion visual feature DECISION map
在线阅读 下载PDF
Interactive System for Video Summarization Based on Multimodal Fusion 被引量:1
9
作者 Zheng Li Xiaobing Du +2 位作者 Cuixia Ma Yanfeng Li Hongan Wang 《Journal of Beijing Institute of Technology》 EI CAS 2019年第1期27-34,共8页
Biography videos based on life performances of prominent figures in history aim to describe great mens' life.In this paper,a novel interactive video summarization for biography video based on multimodal fusion is ... Biography videos based on life performances of prominent figures in history aim to describe great mens' life.In this paper,a novel interactive video summarization for biography video based on multimodal fusion is proposed,which is a novel approach of visualizing the specific features for biography video and interacting with video content by taking advantage of the ability of multimodality.In general,a story of movie progresses by dialogues of characters and the subtitles are produced with the basis on the dialogues which contains all the information related to the movie.In this paper,JGibbsLDA is applied to extract key words from subtitles because the biography video consists of different aspects to depict the characters' whole life.In terms of fusing keywords and key-frames,affinity propagation is adopted to calculate the similarity between each key-frame cluster and keywords.Through the method mentioned above,a video summarization is presented based on multimodal fusion which describes video content more completely.In order to reduce the time spent on searching the interest video content and get the relationship between main characters,a kind of map is adopted to visualize video content and interact with video summarization.An experiment is conducted to evaluate video summarization and the results demonstrate that this system can formally facilitate the exploration of video content while improving interaction and finding events of interest efficiently. 展开更多
关键词 VIDEO visualIZATION INTERACTION MULTIMODAL fusion VIDEO SUMMARIZATION
在线阅读 下载PDF
Visual attention based model for target detection in large-field images 被引量:1
10
作者 Lining Gao Fukun Bi Jian Yang 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2011年第1期150-156,共7页
It is of great significance to rapidly detect targets in large-field remote sensing images,with limited computation resources.Employing relative achievements of visual attention in perception psychology,this paper pro... It is of great significance to rapidly detect targets in large-field remote sensing images,with limited computation resources.Employing relative achievements of visual attention in perception psychology,this paper proposes a hierarchical attention based model for target detection.Specifically,at the preattention stage,before getting salient regions,a fast computational approach is applied to build a saliency map.After that,the focus of attention(FOA) can be quickly obtained to indicate the salient objects.Then,at the attention stage,under the FOA guidance,the high-level visual features of the region of interest are extracted in parallel.Finally,at the post-attention stage,by integrating these parallel and independent visual attributes,a decision-template based classifier fusion strategy is proposed to discriminate the task-related targets from the other extracted salient objects.For comparison,experiments on ship detection are done for validating the effectiveness and feasibility of the proposed model. 展开更多
关键词 target detection visual attention salient region classifier fusion.
在线阅读 下载PDF
Visual Attention Modeling in Compressed Domain:From Image Saliency Detection to Video Saliency Detection
11
作者 FANG Yuming ZHANG Xiaoqiang 《ZTE Communications》 2019年第1期31-37,共7页
Saliency detection models, which are used to extract salient regions in visual scenes, are widely used in various multimedia processing applications. It has attracted much attention in the area of computer vision over... Saliency detection models, which are used to extract salient regions in visual scenes, are widely used in various multimedia processing applications. It has attracted much attention in the area of computer vision over the past decades. Since most images or videos over the Internet are stored in compressed domains such as images in JPEG format and videos in MPEG2 format, H.264 format, and MPEG4 Visual format, many saliency detection models have been proposed in the compressed domain recently. We provide a review of our works on saliency detection models in the compressed domain in this paper.Besides, we introduce some commonly used fusion strategies to combine spatial saliency map and temporal saliency map to compute the final video saliency map. 展开更多
关键词 SALIENCY detection COMPUTER VISION compressed DOMAIN visual ATTENTION fusion strategy
在线阅读 下载PDF
基于Visual C++编程的高分辨率影像和多光谱影像融合技术算法研究 被引量:1
12
作者 钟丽 李伟秋 孔伟 《广东土地科学》 2016年第1期40-42,共3页
本文采用加权融合算法对高分辨率影像和多光谱影像进行融合,利用Visual C++编程实现数据间的计算,并通过实验数据对融合效果进行验证。结果表明,该项融合计算法实验效果理想,可有效抑制图像噪声,大大提高了图像分辨率和信息量,未来可广... 本文采用加权融合算法对高分辨率影像和多光谱影像进行融合,利用Visual C++编程实现数据间的计算,并通过实验数据对融合效果进行验证。结果表明,该项融合计算法实验效果理想,可有效抑制图像噪声,大大提高了图像分辨率和信息量,未来可广泛应用在土地利用变更调查工作中。 展开更多
关键词 多光谱影像 高分辨率全色影像 visual C++ 融合
在线阅读 下载PDF
基于时空交互网络的人体行为检测方法研究 被引量:1
13
作者 田青 张浩然 +2 位作者 楚柏青 张正 豆飞 《计算机应用与软件》 北大核心 2025年第4期156-165,共10页
针对现有的人体行为检测方法中,存在特征融合能力较差、时序信息相关性不强和行为边界不明确等问题,提出一种基于时空交互网络的人体行为检测方法。重新设计了双流特征提取模块,在空间流和时空流两个网络之间添加连接层;分别在空间流和... 针对现有的人体行为检测方法中,存在特征融合能力较差、时序信息相关性不强和行为边界不明确等问题,提出一种基于时空交互网络的人体行为检测方法。重新设计了双流特征提取模块,在空间流和时空流两个网络之间添加连接层;分别在空间流和时间流网络中引入改进的空间变换网络和视觉注意力模型;设计基于像素筛选器的特征融合模块,用于重点区域时序信息相关性的计算和两类不同维度特征的聚合;对网络的损失函数进行了优化。在AVA数据集上的实验结果表明该方法在检测精度、速度以及泛化能力上具有优越性。 展开更多
关键词 时空交互网络 人体行为检测 视觉注意力 特征融合 损失函数
在线阅读 下载PDF
照度条件自适应的粒度渐进多模态图像融合方法 被引量:2
14
作者 王传云 孙冬冬 +3 位作者 周明奇 王田 高骞 李照奎 《工程科学学报》 北大核心 2025年第6期1257-1271,共15页
为应对光照条件复杂多变下的多场景视觉感知挑战,本文提出了一种照度条件自适应的粒度渐进多模态图像融合方法.首先,设计了基于大模型的场景信息嵌入模块,通过预训练的图像编码器对输入的可见光图像进行场景建模,并利用不同的线性层对... 为应对光照条件复杂多变下的多场景视觉感知挑战,本文提出了一种照度条件自适应的粒度渐进多模态图像融合方法.首先,设计了基于大模型的场景信息嵌入模块,通过预训练的图像编码器对输入的可见光图像进行场景建模,并利用不同的线性层对场景向量进行处理.随后,利用处理后的场景向量对图像重建阶段的图像特征在通道维度上进行调控,使得融合模型能够根据不同的场景光照生成不同风格的融合图像.其次,为了解决现有特征提取模块在特征表达上的不足,本文设计了基于状态空间方程的特征提取模块,以线性复杂度实现全局特征感知,减少了信息传输过程中的信息丢失,提升了融合图像的视觉效果.最后,设计了粒度渐进融合模块,利用状态空间方程对多模态特征进行全局聚合,并引入跨模态坐标注意力机制对聚合后的特征进行精细调优,从而实现多模态特征从全局到局部的多阶段融合,增强了网络的信息整合能力.在训练过程中,本文采用先验知识生成增强图像作为标签,并根据不同环境构建同源与异构的损失函数,以实现场景自适应的多模态图像融合.实验结果显示,本文方法在暗光场景数据集MSRS和LLVIP、混合光照数据集TNO、连续场景数据集RoadScene以及雾霾场景数据集M3FD上的表现均优于11种先进算法,在定量和定性对比中取得了更好的视觉效果和更高的定量指标.所提出的方法在自动驾驶、军事侦察和环境监控等任务中展现出较大的潜力. 展开更多
关键词 视觉感知优化 图像融合 多模态 场景自适应 状态空间模型 跨模态注意力机制
在线阅读 下载PDF
基于特征融合和增强的蚕茧图像分类模型
15
作者 刘莫尘 侯欣 +6 位作者 韦伟 张鑫山 李法德 宋占华 张桂征 梁光健 闫银发 《蚕业科学》 北大核心 2025年第1期59-67,共9页
为对原料茧中的上车茧和下茧进行准确分类,实现蚕茧分拣智能化、机械化,文中提出了一种基于多尺度特征融合和增强的双线性池化分类模型。首先以ResNet41作为特征提取骨干网络构建双线性池化模型,增强网络特征提取能力的同时得到不同维... 为对原料茧中的上车茧和下茧进行准确分类,实现蚕茧分拣智能化、机械化,文中提出了一种基于多尺度特征融合和增强的双线性池化分类模型。首先以ResNet41作为特征提取骨干网络构建双线性池化模型,增强网络特征提取能力的同时得到不同维度语义信息;然后引入自适应空间特征融合模块,融合蚕茧浅层图像信息和深层语义信息,解决ResNet41在特征提取过程中出现的信息丢失问题;最后采用挤压和激发模块抑制冗余信息,降低分类偏差。改进模型B-Res41-ASE在测试集中的分类准确率和F 1值分别为93.7%和94.9%,对上车茧的分类精确率为97.8%,对黄斑茧、柴印茧、烂茧、瘪茧、薄皮茧等下茧的分类精确率分别为96.4%、93.7%、98.6%、94.5%、93.1%,相比于改进前模型和常用的细粒度分类模型均有明显优势,且B-Res41-ASE对蚕茧的可判别区域的聚焦更精准。实验结果表明,文中提出的优化方法在分类准确率、鲁棒性等方面优于其他蚕茧分类模型,可为蚕茧智能分拣提供理论依据。 展开更多
关键词 蚕茧分类 双线性池化 自适应空间特征融合 可视化分析
原文传递
自动驾驶环境下车道级雷视融合SLAM
16
作者 马庆禄 蹇秋伟 +1 位作者 李美强 邹政 《汽车工程》 北大核心 2025年第6期1155-1168,共14页
为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and ma... 为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and mapping,SLAM)。首先,在视觉特征点提取的基础上引入直方图均衡化,并利用激光雷达获取特征点深度信息,通过视觉特征跟踪以提升SLAM系统鲁棒性。其次,利用视觉关键帧信息对激光点云进行运动畸变校正,并将LeGO-LOAM(lightweight and groud-optimized lidar odometry and mapping)融入视觉ORBSLAM2(oriented FAST and rotated BRIEF SLAM2)以增强闭环检测与矫正性能,降低系统累计误差。最后,将视觉图像所获取的位姿进行坐标转换作为激光里程计的位姿初值,辅助激光雷达SLAM进行三维场景重建。实验结果表明:相比于传统的SLAM方法,融合后的LLV-SLAM方法平均定位时延减少了41.61%;在x、y、z方向上的平均定位误差分别减少了34.63%、38.16%、24.09%;在滚转角、俯仰角、偏航角方向上的平均旋转误差减少了40.8%、37.52%、39.5%。LLV-SLAM算法有效抑制了LeGO-LOAM算法的尺度漂移,实时性和鲁棒性有显著提升,能够满足自动驾驶车辆对多车道道路环境的感知需要。 展开更多
关键词 自动驾驶 同步定位与建图 雷视融合 车道级定位
在线阅读 下载PDF
基于距离误差模型的焊接机器人双目视觉融合目标定位方法研究
17
作者 钟利军 甘荣飞 《传感技术学报》 北大核心 2025年第9期1655-1660,共6页
为了提高焊接机器人对焊缝目标的定位精度,提出一种基于距离误差模型的焊接机器人双目视觉融合目标定位方法。基于双目视觉系统左右相机采集的图像,提取目标图像感兴趣区域。利用二值矩阵去除噪点;通过最小二乘法补全焊缝信息,提取焊缝... 为了提高焊接机器人对焊缝目标的定位精度,提出一种基于距离误差模型的焊接机器人双目视觉融合目标定位方法。基于双目视觉系统左右相机采集的图像,提取目标图像感兴趣区域。利用二值矩阵去除噪点;通过最小二乘法补全焊缝信息,提取焊缝直线特征。通过双目视觉融合的方式将焊缝划分为多个直焊缝,通过直线拟合极线得到各个焊点的坐标位置。建立焊接机器人距离误差模型,对测距误差展开补偿,确定焊缝的最终位置。实验结果表明,所提方法应用后,目标定位结果和实际焊点之间距离较近,距离误差补偿后的均方根误差平均值为0.18446,定位目标耗时在60 ms以下,可以准确定位焊缝位置,同时耗时更短。 展开更多
关键词 视觉传感定位 双目视觉融合定位 距离误差模型 焊接机器人
在线阅读 下载PDF
低信噪比下多级特征深度融合的视听语音增强 被引量:1
18
作者 张天骐 沈夕文 +1 位作者 唐娟 谭霜 《通信学报》 北大核心 2025年第5期133-144,共12页
为解决视听语音增强中特征提取受限、模态间的特征融合度低等问题,提出一种在低信噪比下的多级特征深度融合的视听语音增强方法。该方法采用视、听编码网络-视听融合网络-听觉解码网络的结构,在听觉编码网络中设计一种多路协作单元(MCU)... 为解决视听语音增强中特征提取受限、模态间的特征融合度低等问题,提出一种在低信噪比下的多级特征深度融合的视听语音增强方法。该方法采用视、听编码网络-视听融合网络-听觉解码网络的结构,在听觉编码网络中设计一种多路协作单元(MCU);在每层的视觉和听觉编码网络间设计一种视听注意力融合模块(AVAFM);在视听融合网络中设计一种融合加权模块(FWB),将每级输出进行特征优化、动态加权得到更具判别性的特征。最终在TMSV、LGRID视听数据集上的多种低信噪比的实验结果表明,LGRID视听数据集下的平均PESQ、STOI分别提升52.30%~74.06%、46.74%~67.15%,且相比纯音频语音增强,在-5dB、-2dB、1dB低信噪比下的平均PESQ和STOI分别提升38.95%和33.92%,表现出所提网络的高降噪性能和添加视觉信息的有效性。 展开更多
关键词 视听语音增强 低信噪比 多级特征融合 融合加权 视听注意力
在线阅读 下载PDF
成品油管道运行多参数时空模式提取与可视化
19
作者 纪连恩 邢智博 +1 位作者 吴昆 赵伟 《计算机辅助设计与图形学学报》 北大核心 2025年第8期1453-1464,共12页
成品油管道运行过程不仅具有典型的时空特点,且其运行模式需要由多个监测参数综合表征.针对现有的时空模式分析方法难以揭示多参数的综合时空特征的问题,提出一种基于多参数融合的张量分解方法用于成品油管道运行多参数时空模式的提取.... 成品油管道运行过程不仅具有典型的时空特点,且其运行模式需要由多个监测参数综合表征.针对现有的时空模式分析方法难以揭示多参数的综合时空特征的问题,提出一种基于多参数融合的张量分解方法用于成品油管道运行多参数时空模式的提取.首先根据不同分析角度,通过对管道运行的多维监测参数进行信息量及相关性分析实现分组融合;然后将融合后的时空数据建模为张量,使用张量分解及聚类的方法获取数据集的多维时空模式;最后对不同模式下原始多参数变化趋势的对比分析,进一步发现运行模式的时空规律.基于所提方法设计了一套可视化系统MPVis,以支持用户从不同分析角度对多参数表征的综合时空模式进行提取及可视化.通过真实成品油管道数据的案例结果表明,该方法为后续成品油管道数据分析提供了一种新思路. 展开更多
关键词 时空模式可视化 参数融合 成品油管道 张量分解
在线阅读 下载PDF
复杂光照环境下的视觉惯性定位方法 被引量:1
20
作者 程向红 钟志伟 +2 位作者 刘丰宇 吴建峰 吴昕怡 《中国惯性技术学报》 北大核心 2025年第3期229-238,共10页
光流法假设条件严格,对光照条件、载体机动敏感。为了提高光流法特征跟踪和匹配的稳定性,提高视觉惯性定位精度,提出了一种基于精细预积分和自适应特征权重的视觉惯性定位方法。首先,在传统预积分模型的基础上,考虑惯性元件的比例因子... 光流法假设条件严格,对光照条件、载体机动敏感。为了提高光流法特征跟踪和匹配的稳定性,提高视觉惯性定位精度,提出了一种基于精细预积分和自适应特征权重的视觉惯性定位方法。首先,在传统预积分模型的基础上,考虑惯性元件的比例因子和非正交误差,通过精细预积分得到关键帧之间的位姿变化量;其次,用其辅助光流金字塔的跟踪迭代,减少匹配搜索时间并减少特征点误匹配概率。最后,基于特征匹配置信度的差异,利用所设计的特征权重在滑窗内自适应地融合多传感器信息。实验结果表明:在EuRoC数据集中,所提方法能够有效剔除特征错误匹配;在实际实验中,相较于R-VIO、MSCKF和VINS-Mono算法,所提方法的绝对轨迹均方根误差分别平均减小了68.39%、59.06%和29.89%,证明其在各种环境下均具有较强的鲁棒性。 展开更多
关键词 视觉/惯性 光流跟踪 自适应权重 传感器融合
在线阅读 下载PDF
上一页 1 2 54 下一页 到第
使用帮助 返回顶部