期刊文献+
共找到825篇文章
< 1 2 42 >
每页显示 20 50 100
Vision Enhancement Technology of Drivers Based on Image Fusion 被引量:1
1
作者 陈天华 周爱德 +1 位作者 李会希 邢素霞 《Transactions of Nanjing University of Aeronautics and Astronautics》 EI CSCD 2015年第5期495-501,共7页
The rise of urban traffic flow highlights the growing importance of traffic safety.In order to reduce the occurrence rate of traffic accidents,and improve front vision information of vehicle drivers,the method to impr... The rise of urban traffic flow highlights the growing importance of traffic safety.In order to reduce the occurrence rate of traffic accidents,and improve front vision information of vehicle drivers,the method to improve visual information of the vehicle driver in low visibility conditions is put forward based on infrared and visible image fusion technique.The wavelet image confusion algorithm is adopted to decompose the image into low-frequency approximation components and high-frequency detail components.Low-frequency component contains information representing gray value differences.High-frequency component contains the detail information of the image,which is frequently represented by gray standard deviation to assess image quality.To extract feature information of low-frequency component and high-frequency component with different emphases,different fusion operators are used separately by low-frequency and high-frequency components.In the processing of low-frequency component,the fusion rule of weighted regional energy proportion is adopted to improve the brightness of the image,and the fusion rule of weighted regional proportion of standard deviation is used in all the three high-frequency components to enhance the image contrast.The experiments on image fusion of infrared and visible light demonstrate that this image fusion method can effectively improve the image brightness and contrast,and it is suitable for vision enhancement of the low-visibility images. 展开更多
关键词 image fusion vision enhancement infrared image processing wavelet transform(WT)
在线阅读 下载PDF
A Fractal Dimension Based Framework for Night Vision Fusion 被引量:5
2
作者 Gaurav Bhatnagar Q.M.Jonathan Wu 《IEEE/CAA Journal of Automatica Sinica》 EI CSCD 2019年第1期220-227,共8页
In this paper, a novel fusion framework is proposed for night-vision applications such as pedestrian recognition,vehicle navigation and surveillance. The underlying concept is to combine low-light visible and infrared... In this paper, a novel fusion framework is proposed for night-vision applications such as pedestrian recognition,vehicle navigation and surveillance. The underlying concept is to combine low-light visible and infrared imagery into a single output to enhance visual perception. The proposed framework is computationally simple since it is only realized in the spatial domain. The core idea is to obtain an initial fused image by averaging all the source images. The initial fused image is then enhanced by selecting the most salient features guided from the root mean square error(RMSE) and fractal dimension of the visual and infrared images to obtain the final fused image.Extensive experiments on different scene imaginary demonstrate that it is consistently superior to the conventional image fusion methods in terms of visual and quantitative evaluations. 展开更多
关键词 FRACTAL DIMENSION image fusion navigation and SURVEILLANCE NIGHT vision
在线阅读 下载PDF
基于改进Vision Transformer网络的农作物病害识别方法研究
3
作者 罗兴 魏维 《黑龙江科学》 2025年第16期50-53,共4页
农作物病害对粮食生产和质量具有显著的负面影响。针对现有基于深度学习的农作物病害识别模型存在的分类精度不足和模型参数量大的问题提出一种基于Vision Transformer的新型架构,该模型采用多尺度卷积模块捕获不同尺度的特征,以扩展模... 农作物病害对粮食生产和质量具有显著的负面影响。针对现有基于深度学习的农作物病害识别模型存在的分类精度不足和模型参数量大的问题提出一种基于Vision Transformer的新型架构,该模型采用多尺度卷积模块捕获不同尺度的特征,以扩展模型的感受野,融合不同尺度特征进行卷积调制,将卷积调制与Vision Transformer相结合,构建成一个混合网络,该网络能够实现局部和全局特征的深度融合,从而显著增强特征分类能力。在Plant Village数据集上的测试结果表明,所提出的MCMT模型达到了99.5%的识别准确率,相较于传统的Vision Transformer计算量更低,识别准确率更高。 展开更多
关键词 农作物病害识别 卷积调制 特征融合 vision Transformer
在线阅读 下载PDF
多传感器信息处理下智能汽车3D防撞预警目标识别
4
作者 辛光红 林甄 邢洁洁 《传感技术学报》 北大核心 2026年第1期126-131,共6页
为了提高道路驾驶安全性,从视觉传感器和惯性测量传感器两方面进行智能汽车3D防撞预警目标识别方法设计。使用可见光双目相机作为视觉传感器采集3D图像,通过径向和切向畸变因子校正图像,提供高分辨率的道路环境数据;在此基础上,利用立... 为了提高道路驾驶安全性,从视觉传感器和惯性测量传感器两方面进行智能汽车3D防撞预警目标识别方法设计。使用可见光双目相机作为视觉传感器采集3D图像,通过径向和切向畸变因子校正图像,提供高分辨率的道路环境数据;在此基础上,利用立体匹配获得计算双目最小视差值,明确道路上的车辆、行人或其他障碍物与车辆间距离。考虑到城市道路情况复杂多变,从而影响车辆的实时动态控制和导航,使用惯性测量传感器测算车辆的加速度和角速度,提供车辆的运动状态和姿态信息。通过融合两种传感器的数据,判断是否存在潜在的碰撞风险,并提供及时的预警。实验结果表明,所提方法在预警距离设定为0.8 m时,可以在1 s内精准识别目标,实现有效的3D防撞预警。 展开更多
关键词 多传感器 防撞预警 信息融合 视觉传感器 惯性测量传感器 环境感知 车辆运动状态
在线阅读 下载PDF
基于多传感器信息融合的桥式起重机二维摆角测量方法
5
作者 潘爱华 王月新 +2 位作者 王佩君 袁伟 沈捷 《起重运输机械》 2026年第5期31-39,共9页
吊物摆角的精确监测是实现桥式起重机防摇摆与安全作业的重要前提,而二维摆角将一维摆角分解为XY方向投影角,有利于后续的防摇摆解耦控制。然而,现有基于单一传感器的起重机摆角检测方法在日常环境条件下易受干扰,难以保证测量精度与稳... 吊物摆角的精确监测是实现桥式起重机防摇摆与安全作业的重要前提,而二维摆角将一维摆角分解为XY方向投影角,有利于后续的防摇摆解耦控制。然而,现有基于单一传感器的起重机摆角检测方法在日常环境条件下易受干扰,难以保证测量精度与稳定性。为此,文中针对桥式起重机的工作特点,提出了一种融合工业相机与惯性测量单元的二维摆角测量方法。该方法包含2个测量通道,视觉测量通道通过工业相机识别吊具板上的二维码并结合几何约束计算二维摆角;惯性测量单元测量通道结合Z轴转角和加速度数据解算二维摆角,最后根据视觉几何测量方差和惯性测量单元摆角统计方差动态分配融合权重,进而加权计算出最终的二维摆角。该方法以视觉数据校准惯性测量单元数据,当视觉数据被干扰而丢弃时,以惯性测量单元数据作为补充,避免实时控制过程中数据中断,该方法充分利用了视觉数据无累计误差和惯性测量单元数据连续完整的特点。实验结果表明,在复杂环境中,系统能够长时间工作并保持较高的测量准确性与鲁棒性,具备良好的工程应用前景。 展开更多
关键词 桥式起重机 多传感器融合 惯性测量单元 视觉 二维摆角检测
在线阅读 下载PDF
融合HC-FPN与ICRU的机载视觉滑行道线检测方法
6
作者 章涛 付豪 +2 位作者 罗其俊 王壮 谢向镭 《计算机测量与控制》 2026年第1期42-50,共9页
为通过机载视觉传感器获取飞机滑行方向与滑行道线的相对位置关系,增强民航飞机滑行阶段机时机组人员对滑行道线的感知能力,以实现民航飞机视觉辅助驾驶,提出了一种融合HC-FPN与ICRU的机载视觉滑行道线检测方法;通过ResNet进行图像特征... 为通过机载视觉传感器获取飞机滑行方向与滑行道线的相对位置关系,增强民航飞机滑行阶段机时机组人员对滑行道线的感知能力,以实现民航飞机视觉辅助驾驶,提出了一种融合HC-FPN与ICRU的机载视觉滑行道线检测方法;通过ResNet进行图像特征提取,在网络颈部设计了HC-FPN融合多级高层信息;通过实例检测,并采用行锚检测与动态卷积预测滑行道线形状;此外设计了ICRU满足具有复杂拓扑结构的滑行道线检测;在损失中引入了PIoU损失函数;经过实验测试,该网络在自制滑行道线数据集上F1达到85.81%,在CurveLanes数据集和CULane数据集上F1达到86.17%和78.63%,在TuSimple数据集上准确率达到96.45%,实验结果证实了该方法的准确率和有效性,有助于飞机滑行过程中机组人员辅助驾驶。 展开更多
关键词 滑行道线检测 行锚检测 特征融合 拓扑结构 机载视觉
在线阅读 下载PDF
基于CNN-ViT融合与特征增强的金刚石刀头结块缺陷检测
7
作者 赵楠楠 赵文龙 +2 位作者 张海刚 匡国文 何玉林 《深圳大学学报(理工版)》 北大核心 2026年第2期171-178,I0002,共9页
当前基于深度学习的工业品缺陷检测研究大多是针对纹理规则、成像均匀的工件,对表面存在复杂反射与纹理干扰的高反射合金部件的检测挑战关注不足.金刚石刀头结块作为高反射合金工件的典型代表,其表面因含有金刚石颗粒和金属粉末而呈现... 当前基于深度学习的工业品缺陷检测研究大多是针对纹理规则、成像均匀的工件,对表面存在复杂反射与纹理干扰的高反射合金部件的检测挑战关注不足.金刚石刀头结块作为高反射合金工件的典型代表,其表面因含有金刚石颗粒和金属粉末而呈现强烈的镜面反射及随机高光点,导致划痕、孔洞、边缘缺陷等与背景噪声高度混杂,极大地增加了检测难度.为此,提出一种面向复杂高反射复合材质表面缺陷检测的跨模态动态融合框架DCVNet.通过构建局部-全局特征解耦机制,利用多阶段缺陷增强聚类实现背景-缺陷的物理先验分离,并引入渐进式特征融合模块实现卷积神经网络与视觉变换器的跨尺度深度特征融合,突破了传统算法在高反射复合材质缺陷检测上的局限性.构建金刚石刀头结块表面缺陷图像数据集,对模型进行训练,并与GoogLeNet、ResNet50、ResNet101、ViT-L16、MobileNetV2、CRAD、PNI、SuperSimpleNet和MAML模型进行仿真对比实验.结果表明,DCVNet模型检测准确率达到0.841,召回率为0.866,显著优于对比模型.DCVNet模型在复杂高反射复合材质表面缺陷检测中具有较高的检测精度和鲁棒性,为工业缺陷检测提供了新的解决方案. 展开更多
关键词 计算机视觉 工业品缺陷检测 卷积神经网络 视觉变换器 自注意力 特征融合 金刚石刀头结块
在线阅读 下载PDF
用于3D物体检测的端到端雷视融合网络研究
8
作者 陶俊杰 徐鹏 叶坚 《计算机仿真》 2026年第1期511-517,共7页
针对传统3D物体检测方法无法同时实现较高的定位与分类准确率的问题,提出了一种基于雷视融合的端到端的3D物体检测网络。首先将卷积神经网络提取到的图像特征投影到BEV中,将它们与基于雷达检测器的卷积层进行特征融合。其次利用连续卷... 针对传统3D物体检测方法无法同时实现较高的定位与分类准确率的问题,提出了一种基于雷视融合的端到端的3D物体检测网络。首先将卷积神经网络提取到的图像特征投影到BEV中,将它们与基于雷达检测器的卷积层进行特征融合。其次利用连续卷积的方法创建密集的BEV特征图,从BEV空间中每个点对应的最近图像特征中提取信息。最后设计了雷视连续融合层来连接两个通道的多个中间层,实现多个尺度上的雷达与视觉融合。通过在KITTI数据集的实验评估表明,文中提出的基于雷视融合的3D物体检测算法与目前的方法相比在速度和精度上有显著的提升。 展开更多
关键词 雷视融合 三维物体 目标检测 端到端 连续卷积
在线阅读 下载PDF
Dual-Path Vision Transformer用于急性缺血性脑卒中辅助诊断 被引量:3
9
作者 张桃红 郭学强 +4 位作者 郑瀚 罗继昌 王韬 焦力群 唐安莹 《电子科技大学学报》 EI CAS CSCD 北大核心 2024年第2期307-314,共8页
急性缺血性脑卒中是由于脑组织血液供应障碍导致的脑功能障碍,数字减影脑血管造影(DSA)是诊断脑血管疾病的金标准。基于患者的正面和侧面DSA图像,对急性缺血性脑卒中的治疗效果进行分级评估,构建基于Vision Transformer的双路径图像分... 急性缺血性脑卒中是由于脑组织血液供应障碍导致的脑功能障碍,数字减影脑血管造影(DSA)是诊断脑血管疾病的金标准。基于患者的正面和侧面DSA图像,对急性缺血性脑卒中的治疗效果进行分级评估,构建基于Vision Transformer的双路径图像分类智能模型DPVF。为了提高辅助诊断速度,基于EdgeViT的轻量化设计思想进行了模型的构建;为了使模型保持轻量化的同时具有较高的精度,提出空间-通道自注意力模块,促进Transformer模型捕获更全面的特征信息,提高模型的表达能力;此外,对于DPVF的两分支的特征融合,构建交叉注意力模块对两分支输出进行交叉融合,促使模型提取更丰富的特征,从而提高模型表现。实验结果显示DPVF在测试集上的准确率达98.5%,满足实际需求。 展开更多
关键词 急性缺血性脑卒中 视觉Transformer 双分支网络 特征融合
在线阅读 下载PDF
面向自动驾驶的多尺度目标三维检测算法
10
作者 刘嫚 陈晓楠 《现代电子技术》 北大核心 2026年第1期141-147,共7页
在自动驾驶场景中,使用单目相机进行三维目标检测是一项具有挑战性的任务,尤其是在复杂道路环境下,目标的尺度差异和遮挡现象容易导致误检或漏检。针对这一问题,文中提出一种基于特征融合与增强的单目三维目标检测算法。首先,构建Faster... 在自动驾驶场景中,使用单目相机进行三维目标检测是一项具有挑战性的任务,尤其是在复杂道路环境下,目标的尺度差异和遮挡现象容易导致误检或漏检。针对这一问题,文中提出一种基于特征融合与增强的单目三维目标检测算法。首先,构建FasterNet+作为骨干网络,通过优化嵌入层和块结构,增强细节信息的提取,提升网络的整体性能;其次,设计多维特征自适应融合模块,自适应地选择并融合高维与低维特征,解决高维特征丢失小目标信息和低维特征缺乏上下文信息的问题;最后,引入特征增强注意力模块,突出特定目标区域,进一步提升网络在目标定位和分类方面的精度。在nuScenes数据集上的实验结果表明,其mAP和NDS比基准方法分别提高0.038和0.035,可以有效检测出不同类型和尺度的目标,并展现出更强的鲁棒性,为自动驾驶场景中的多维目标检测提供了一种新思路。 展开更多
关键词 自动驾驶 单目相机 三维目标检测 多尺度感知 特征融合 注意力机制 机器视觉
在线阅读 下载PDF
基于欧式聚类的动态场景视觉-雷达融合SLAM算法及其实现
11
作者 杨伟高 王晓栋 《清远职业技术学院学报》 2026年第1期47-58,共12页
目前大多数视觉与激光融合的同步定位与建图(Simultaneous Localization and Mapping,SLAM)算法在进行位姿状态估计时,通常假设其运行环境为静态。然而,当机器人在包含动态对象的环境中移动时,这些对象的出现会改变图像信息,导致数据关... 目前大多数视觉与激光融合的同步定位与建图(Simultaneous Localization and Mapping,SLAM)算法在进行位姿状态估计时,通常假设其运行环境为静态。然而,当机器人在包含动态对象的环境中移动时,这些对象的出现会改变图像信息,导致数据关联错误,从而引发SLAM定位误差。针对此问题,提出一种改进的视觉与激光融合SLAM算法,以提高室内动态环境下的三维建图精度和鲁棒性。该方法结合对极几何约束和欧式聚类,实现对动态对象的精准检测和剔除,减少动态对象对SLAM系统定位和建图的干扰。实验结果表明,相较于传统的融合SLAM方法,改进后的算法在动态环境下的定位精度、地图质量以及鲁棒性方面均有提升,为智能机器人、自动驾驶等领域的动态环境建图提供新的解决方案。 展开更多
关键词 同步定位与建图 动态场景 视觉-激光融合 欧式聚类
在线阅读 下载PDF
融合视觉与惯性测量数据的结构振动鲁棒监测
12
作者 王宪玉 王军营 +2 位作者 朱前坤 杜永峰 薄士威 《振动.测试与诊断》 北大核心 2026年第1期203-211,225,共10页
针对计算机视觉的远距离结构振动识别技术在工程应用中存在的参数调节流程复杂、易受光照与环境干扰、稳定性和鲁棒性不足等问题,提出一种视觉与惯性测量数据融合的结构振动鲁棒监测方法。根据多源测量数据互补融合原理,将计算机视觉位... 针对计算机视觉的远距离结构振动识别技术在工程应用中存在的参数调节流程复杂、易受光照与环境干扰、稳定性和鲁棒性不足等问题,提出一种视觉与惯性测量数据融合的结构振动鲁棒监测方法。根据多源测量数据互补融合原理,将计算机视觉位移识别系统与惯性加速度传感系统集成于树莓派嵌入式计算平台,构建轻量化视觉-惯性联合监测系统。首先,分别获取结构同一测点的视觉位移与惯性加速度响应;其次,基于卡尔曼滤波的预测-更新机制,实现多速率测量数据融合;然后,在不同振动频率条件下,实现结构振动位移的鲁棒估计;最后,通过模型桥试验与现场实桥测试,对提出方法的有效性进行验证。结果表明:模型桥试验中,在行人激励及低频振动条件下,所提方法显著提升了移动端位移测量的稳定性,相较于单一视觉方法,位移误差可控制在3%左右;现场测试中,基于消费级相机的融合方案能够在实际桥梁运营条件下稳定识别结构振动响应。 展开更多
关键词 结构振动 计算机视觉 树莓派 卡尔曼滤波 数据融合
在线阅读 下载PDF
全局-局部特征融合驱动的抑郁症筛查方法研究
13
作者 张嗣勇 邱杰凡 +3 位作者 赵祥云 肖克江 陈晓甫 毛科技 《电子与信息学报》 北大核心 2026年第1期321-334,共14页
目前,基于机器视觉的抑郁症识别筛查的方法往往忽略脸部的局部特征,在实际应用中一旦脸部被部分遮挡,会严重影响筛查的准确性,甚至无法进行有效筛查。为此,该文提出一种边缘视觉的抑郁症筛查方法,该方法通过构建一个全局-局部融合注意... 目前,基于机器视觉的抑郁症识别筛查的方法往往忽略脸部的局部特征,在实际应用中一旦脸部被部分遮挡,会严重影响筛查的准确性,甚至无法进行有效筛查。为此,该文提出一种边缘视觉的抑郁症筛查方法,该方法通过构建一个全局-局部融合注意力网络同步识别被筛查对象的面部表情和眼部局部特征。为了提高对眼部局部特征的提取能力,该文在网络中引入卷积注意力模块,强化对眼动轨迹特征的捕捉能力。实验结果表明,该方法在抑郁症识别上表现优异,在自建数据集上(包含脸部遮挡情况)的精确率、召回率、F1分数分别达0.76,0.78和0.77,较最新方法召回率提升10.76%,在AVEC2013和AVEC2014数据集上,平均绝对误差(MAE)分别低至5.74和5.79,较最新方法提升3.53%和1.2%。此外,通过可视化分析直观展现了模型对面部不同区域的关注度,进一步验证了方法的有效性和合理性。该方法部署于边缘设备后,单帧平均处理时延不超过56.14ms,为抑郁症筛查提供了新方案。 展开更多
关键词 抑郁症筛查 短序窗口划分 全局-局部特征融合 人脸图像 边缘视觉
在线阅读 下载PDF
基于多尺度特征融合的树木检测算法——DDC-YOLO
14
作者 张志杰 王庆 《森林工程》 北大核心 2026年第1期170-183,共14页
针对树木检测存在的遮挡干扰和光照不充分等问题,提出一种基于改进YOLOv10的检测算法——DDC-YOLO,DDC是由dynamic、DAF(dynamic align fusion)与CG-FPN(context guided-feature pyramid network)首字母拼写。首先,设计动态卷积混合模块... 针对树木检测存在的遮挡干扰和光照不充分等问题,提出一种基于改进YOLOv10的检测算法——DDC-YOLO,DDC是由dynamic、DAF(dynamic align fusion)与CG-FPN(context guided-feature pyramid network)首字母拼写。首先,设计动态卷积混合模块(dynamic convolutional mix block,DCMB),通过自适应动态卷积增强多尺度特征融合能力,解决传统卷积核单一性问题;其次,提出双主干动态特征融合网络,结合RT-DETR(real-time detection transformer)和YOLOv10的主干结构,并利用动态对齐融合(dynamic align fusion,DAF)模块调整特征权重,提升模型对不同特征的适应性;进一步引入金字塔上下文特征提取和空间特征重建技术优化颈部网络,实现多层次语义信息的深度融合。试验基于自建数据集TreeImages(包含7475张图像)进行验证,结果表明,DDC-YOLO的mAP50达到46.7%,较原YOLOv10模型提升5.0个百分点,参数量由2.27 M降至2.26 M(减少0.44%),检测速度(FPS)由202帧/s提升至254帧/s(提升25.4%)。改进后的模型在复杂场景下表现出更高的鲁棒性和实时性,为森林资源调查提供了高效解决方案。 展开更多
关键词 YOLOv10 目标检测 计算机视觉 双主干式动态融合 多尺度特征重建
在线阅读 下载PDF
基于脑电信号和音频信号的多模态融合方法
15
作者 张继昂 《价值工程》 2026年第8期160-162,共3页
随着深度学习的发展,越来越多研究开始利用生理特征进行情感和疾病分析,但目前研究较少将EEG与音频信息有效结合,忽略了两者间相关性。本文提出了一种多模态特征融合模型,通过对EEG(Electroencephalogram)和音频数据特征融合来提升深度... 随着深度学习的发展,越来越多研究开始利用生理特征进行情感和疾病分析,但目前研究较少将EEG与音频信息有效结合,忽略了两者间相关性。本文提出了一种多模态特征融合模型,通过对EEG(Electroencephalogram)和音频数据特征融合来提升深度学习方法识别准确率。实验表明,此模型在MODMA数据集上识别准确率为97.30%左右,为生理特征应用开创了新方向。 展开更多
关键词 抑郁症识别 多模态融合 vision Transformer 图神经网络
在线阅读 下载PDF
语义驱动的4D雷达与相机融合目标检测
16
作者 郑联庆 艾文瑾 +6 位作者 马志雄 任洪泽 卢守义 刘瑞 闫晟煜 朱西产 白傑 《汽车工程》 北大核心 2026年第2期342-351,共10页
融合相机与4D雷达实现鲁棒的三维目标检测对于自动驾驶的安全性至关重要。然而,现有的融合方法主要集中在低维度的雷达几何特征与图像像素特征对齐,缺乏对于整个场景级语义信息的利用,导致次优的检测性能。为此,本文首次提出视觉语言模... 融合相机与4D雷达实现鲁棒的三维目标检测对于自动驾驶的安全性至关重要。然而,现有的融合方法主要集中在低维度的雷达几何特征与图像像素特征对齐,缺乏对于整个场景级语义信息的利用,导致次优的检测性能。为此,本文首次提出视觉语言模型(vision-language model,VLM)辅助的4D雷达与相机融合框架RCT-Net,用于三维目标检测。首先,通过精心设计的用户提示来引导VLM生成包含感兴趣目标的场景文本描述,其通过文本编码器生成场景级语义特征。然后,设计了一个TBFusion(Text-BEV Fusion)模块,其通过新颖的跨模态注意力机制,将场景语义特征深度整合到鸟瞰图(Bird's-Eye-View)空间。该模块一方面提供先验知识来引导图像特征视角转换,另一方面在最终的特征融合阶段进一步对多模态BEV特征进行语义增强。最后,由三维检测头对增强后的特征进行解码,实现目标属性预测。在公开的4D雷达数据集TJ4DRadSet和View-of-Delft的大量实验表明,RCT-Net实现了优异的性能,其3D mAP分别达到了41.34%和57.02%,验证了本框架的有效性与先进性。 展开更多
关键词 自动驾驶 多模态融合 三维目标检测 4D毫米波雷达 视觉语言模型
在线阅读 下载PDF
轮轨耦合系统振动特性对钢轨波磨产生的影响
17
作者 汪梦寒 顾晓菡 王安斌 《振动.测试与诊断》 北大核心 2026年第1期188-196,224,225,共11页
针对高铁线路的钢轨波磨问题,基于轨道结构振动理论,提出减缓钢轨波磨发展的方法。首先,通过现场实测某高速铁路线路钢轨波磨与轨道频率响应函数,开展了轮轴模态试验,建立了轮轨三维实体有限元模型,并验证模型准确性;其次,分析轮轨耦合... 针对高铁线路的钢轨波磨问题,基于轨道结构振动理论,提出减缓钢轨波磨发展的方法。首先,通过现场实测某高速铁路线路钢轨波磨与轨道频率响应函数,开展了轮轴模态试验,建立了轮轨三维实体有限元模型,并验证模型准确性;其次,分析轮轨耦合系统动态特性与钢轨波磨的相关性。结果表明:钢轨波磨主要发生在曲线段低轨部分,其波长为165 mm,车速为250 km/h的车辆波磨频率为420 Hz;轮轨耦合条件下轨道系统钢轨横向Pinned-pinned模态频率为418 Hz,与波磨特征频率吻合;轮对在波磨特征频率附近的轴向响应大于径向响应,其车轮在418 Hz左右的一阶轴向弯曲模态与钢轨横向Pinned-pinned模态重叠形成多重共振,对激励和加快钢轨周期性波浪磨损的影响较大;轮轨耦合条件下钢轨横向Pinned-pinned频率随着轮轴质量的减少而增加,但影响较弱,而不同类型钢轨对横向Pinned-pinned共振频率的影响较大;在车轮轴固定情况下,改变钢轨参数可避免钢轨与轮轴系统模态重叠而发生共振现象,从而减缓波磨的发展。 展开更多
关键词 高速铁路 钢轨波磨 轮轨动态特性 轮轨耦合
在线阅读 下载PDF
基于CA机制的ShuffleNetV2-YOLOv5s轻量化模型及雷视融合检测
18
作者 黎恒 黄千栩 +3 位作者 覃浩 徐韶华 覃飞宇 冯子扬 《交通工程》 2026年第1期52-58,68,共8页
针对智能交通系统中嵌入式设备算力受限及复杂环境下检测精度不足的技术瓶颈,本文提出一种基于改进YOLOv5的轻量化车辆检测与多模态融合方法。通过引入ShuffleNetV2替换原始主干网络实现模型轻量化重构,结合协调注意力(CA)机制构建特征... 针对智能交通系统中嵌入式设备算力受限及复杂环境下检测精度不足的技术瓶颈,本文提出一种基于改进YOLOv5的轻量化车辆检测与多模态融合方法。通过引入ShuffleNetV2替换原始主干网络实现模型轻量化重构,结合协调注意力(CA)机制构建特征增强模块以补偿精度损失;设计雷达—视觉时空坐标联合校准算法与多源数据动态关联模型,解决雨雾、夜间等恶劣环境下的单模态检测失效问题。在自制多场景数据集及南宁市典型路段的实测结果表明,改进模型(YOLOv5 s-ShuffleNetV 2-CA)较原始YOLOv5s模型体积压缩40.1%,检测速度提升30%,同时保持92.2%的检测准确率;毫米波雷达与视觉数据融合后,车辆整体检测正确率达94.3%,显著提升复杂环境下的检测鲁棒性与可靠性。本研究为智能交通边缘计算场景提供兼具高效性与环境适应性的多模态车辆检测解决方案。 展开更多
关键词 车辆检测 YOLOv5 轻量化 ShuffleNetV2 雷达视觉融合
在线阅读 下载PDF
计算机视觉在水产养殖中的应用现状及展望
19
作者 彭飞 宋雨龙 +5 位作者 袁华荣 刘宏轩 付庆贺 黄立俊 张丽梅 郑阿钦 《渔业现代化》 北大核心 2026年第1期1-14,共14页
为系统梳理计算机视觉在水产养殖领域的应用现状,深入分析了计算机视觉在养殖全流程中的应用现状与现存挑战,并对未来发展趋势进行展望,以期为水产养殖的智能化转型升级提供理论支持与技术参考。本研究重点围绕卷积神经网络、YOLO系列... 为系统梳理计算机视觉在水产养殖领域的应用现状,深入分析了计算机视觉在养殖全流程中的应用现状与现存挑战,并对未来发展趋势进行展望,以期为水产养殖的智能化转型升级提供理论支持与技术参考。本研究重点围绕卷积神经网络、YOLO系列算法等视觉识别算法在水产养殖中的具体应用路径与性能表现展开探讨,同时详细阐述了多模态融合算法在整合视觉图像、声学信号及水质监测数据等方面的优势与发展潜力。现有研究表明,计算机视觉技术可显著提升水产养殖的精准化管理水平与生产效率;多模态融合算法在鱼类行为识别精度、摄食强度量化分析等关键任务中表现尤为突出。然而,计算机视觉算法在实际应用中仍面临水下成像环境复杂导致图像质量不佳、鱼类行为模式多样增加识别难度等问题。未来,随着深度学习算法的优化、多模态融合技术的深入应用,以及与物联网、养殖机器人等技术的跨领域协同融合,计算机视觉技术将为水产养殖业的高效化、精准化、绿色可持续发展提供关键技术支持,对保障全球水产品供应与粮食安全具有重要意义。 展开更多
关键词 计算机视觉 水产养殖 算法应用 多模态融合 智能化养殖
在线阅读 下载PDF
基于CA-PnPNet的焊接接头类型与漏焊检测
20
作者 陈海丽 郭汉壮 +5 位作者 李江 高天成 刘英 张坤 王立伟 梁志敏 《河北科技大学学报》 北大核心 2026年第1期86-96,共11页
针对传统焊接接头类型与漏焊检测方法在三维结构感知能力与特征识别精度方面的不足,提出了一种结合几何结构建模与注意力机制的三维点云检测网络CA-PnPNet。首先,该方法基于PointNet++架构,在多层特征提取阶段嵌入三维点邻域几何建模模... 针对传统焊接接头类型与漏焊检测方法在三维结构感知能力与特征识别精度方面的不足,提出了一种结合几何结构建模与注意力机制的三维点云检测网络CA-PnPNet。首先,该方法基于PointNet++架构,在多层特征提取阶段嵌入三维点邻域几何建模模块(point neighborhood processing in 3D,PnP3D),以增强网络对局部空间几何关系的表达能力。其次,引入通道注意力模块(channel attention module,CAM),通过建模通道间语义依赖自适应强化关键特征。最终,两类模块在不同特征层的协同作用,使点云局部结构刻画与语义特征增强得以统一,实现更加充分的三维结构表征。为验证方法的有效性,进行了多组模型对比实验。结果表明,CA-PnPNet在焊接点云分类任务中准确率达97.7%,较基线模型提升1.9%,推理速度由33.3 FPS提升至36.1 FPS,表现出优异的精度与实时性。该方法为复杂焊接结构的智能检测与工业质量监测提供了有效的技术参考。 展开更多
关键词 计算机视觉 三维点云 焊接接头分类 漏焊检测 PointNet++ PnP3D
在线阅读 下载PDF
上一页 1 2 42 下一页 到第
使用帮助 返回顶部