This paper advances a three-dimensional space interpolation method of grey / depth image sequence, which breaks free from the limit of original practical photographing route. Pictures can cruise at will in space. By u...This paper advances a three-dimensional space interpolation method of grey / depth image sequence, which breaks free from the limit of original practical photographing route. Pictures can cruise at will in space. By using space sparse sampling, great memorial capacity can be saved and reproduced scenes can be controlled. To solve time consuming and complex computations in three-dimensional interpolation algorithm, we have studied a fast and practical algorithm of scattered space lattice and that of 'Warp' algorithm with proper depth. By several simple aspects of three dimensional space interpolation, we succeed in developing some simple and practical algorithms. Some results of simulated experiments with computers have shown that the new method is absolutely feasible.展开更多
交通标志检测是自动驾驶系统、辅助驾驶系统(DAS)的重要组成部分,对行车安全具有重要意义。针对小目标交通标志检测时受光照、恶劣天气等因素影响而导致的检测精度低、漏检率高等问题,提出一种基于改进YOLOv5的小目标交通标志检测算法...交通标志检测是自动驾驶系统、辅助驾驶系统(DAS)的重要组成部分,对行车安全具有重要意义。针对小目标交通标志检测时受光照、恶劣天气等因素影响而导致的检测精度低、漏检率高等问题,提出一种基于改进YOLOv5的小目标交通标志检测算法。首先,引入空间到深度卷积(SPD-Conv)对特征图进行下采样,有效避免小目标信息丢失,提高小目标敏感度。其次,基于加权双向特征金字塔网络(BiFPN)改进颈部网络,添加跨层连接以融合多尺度特征。之后,增加小目标检测层,增强小目标检测能力。最后,采用SIoU(Shape-aware Intersection over Union)损失函数,关注真实框与预测框的角度信息。实验结果表明,改进后的算法在中国交通标志检测数据集(CCTSDB2021)上的平均精度均值(mAP)达到83.5%,相较于原YOLOv5提升了7.2个百分点,检测速度满足实时性要求。展开更多
煤矿井下弥漫着粉尘和雾气且多数区域为狭长巷道,仅依赖矿灯照明会导致视频监控图像出现细节模糊、局部过曝及目标尺寸多变等问题。这些因素增加了井下安全帽目标检测的难度,现有目标检测算法直接应用于煤矿井下场景时,通常面临精度不...煤矿井下弥漫着粉尘和雾气且多数区域为狭长巷道,仅依赖矿灯照明会导致视频监控图像出现细节模糊、局部过曝及目标尺寸多变等问题。这些因素增加了井下安全帽目标检测的难度,现有目标检测算法直接应用于煤矿井下场景时,通常面临精度不足的挑战。针对这些问题,研究提出一种基于YOLOv8n(You Only Look Once version 8n)的煤矿井下安全帽检测算法。首先,采用空间到深度机制将YOLOv8n主干网络中的Conv模块重新构建为空间到深度卷积(Space-to-Depth Convolutional,SPDConv)模块,以便从特征图中充分提取浅层细节信息,提高模型对细节模糊图像中小目标安全帽的检测精度;其次,引入基于注意力机制的尺度内特征交互模块,减少局部过曝对安全帽特征提取的干扰,增强模型对目标区域的关注能力;最后,借鉴高层次筛选特征融合金字塔对YOLOv8n的颈部网络进行重设计,改善模型对不同尺寸安全帽的检测能力,进一步提升检测精度。试验结果显示,该算法在CUMT-Helme T数据集上的平均精度均值达91.7%,相较于YOLOv8n提升了3.2百分点,同时模型参数量减少了1.9×10^(5)。与单次多边框检测(Single Shot MultiBox Detector,SSD)、快速区域卷积神经网络(Region-based Convolutional Neural Networks,Faster RCNN)、YOLOv5s、YOLOv6n、YOLOv7及YOLOv7-tiny等当前主流目标检测算法相比,该算法的平均精度均值最高,且参数量和浮点运算量较低,在实现较高检测精度的同时还具备一定的轻量化特性。展开更多
针对自动驾驶场景动态目标检测存在检测速度难以满足实时性要求、检测目标小或被遮挡造成的精度不足和误检、漏检率高等问题,提出一种基于改进YOLOv8模型的行人及车辆检测方法。首先,在Backbone骨干网络提取图像特征时使用对图像分辨率...针对自动驾驶场景动态目标检测存在检测速度难以满足实时性要求、检测目标小或被遮挡造成的精度不足和误检、漏检率高等问题,提出一种基于改进YOLOv8模型的行人及车辆检测方法。首先,在Backbone骨干网络提取图像特征时使用对图像分辨率低、小目标检测友好的空间到深度卷积(a Space-to-Depth layer followed by a non-strided Convolution,SPD-Conv)模块;其次,在Neck层融合特征时增加上下文转换自注意力(Contextual Transformer,CoT)模块提高模型特征表达能力;最后,引入SIoU,加快模型的收敛速度并提高准确率。所提方法在KITTI数据集上实验。结果显示:相较于原YOLOv8算法,所提算法的准确率、召回率、平均准确率分别提高0.7%、2.1%、2.1%,浮点运算数、帧率分别提高3.6 GFLOPS、24.64 frame/s,证明所提方法能够有效综合满足自动驾驶车辆行人及车辆检测任务中的实时性、精度提高以及降低漏检率和误检率需求。展开更多
文摘This paper advances a three-dimensional space interpolation method of grey / depth image sequence, which breaks free from the limit of original practical photographing route. Pictures can cruise at will in space. By using space sparse sampling, great memorial capacity can be saved and reproduced scenes can be controlled. To solve time consuming and complex computations in three-dimensional interpolation algorithm, we have studied a fast and practical algorithm of scattered space lattice and that of 'Warp' algorithm with proper depth. By several simple aspects of three dimensional space interpolation, we succeed in developing some simple and practical algorithms. Some results of simulated experiments with computers have shown that the new method is absolutely feasible.
文摘交通标志检测是自动驾驶系统、辅助驾驶系统(DAS)的重要组成部分,对行车安全具有重要意义。针对小目标交通标志检测时受光照、恶劣天气等因素影响而导致的检测精度低、漏检率高等问题,提出一种基于改进YOLOv5的小目标交通标志检测算法。首先,引入空间到深度卷积(SPD-Conv)对特征图进行下采样,有效避免小目标信息丢失,提高小目标敏感度。其次,基于加权双向特征金字塔网络(BiFPN)改进颈部网络,添加跨层连接以融合多尺度特征。之后,增加小目标检测层,增强小目标检测能力。最后,采用SIoU(Shape-aware Intersection over Union)损失函数,关注真实框与预测框的角度信息。实验结果表明,改进后的算法在中国交通标志检测数据集(CCTSDB2021)上的平均精度均值(mAP)达到83.5%,相较于原YOLOv5提升了7.2个百分点,检测速度满足实时性要求。
文摘煤矿井下弥漫着粉尘和雾气且多数区域为狭长巷道,仅依赖矿灯照明会导致视频监控图像出现细节模糊、局部过曝及目标尺寸多变等问题。这些因素增加了井下安全帽目标检测的难度,现有目标检测算法直接应用于煤矿井下场景时,通常面临精度不足的挑战。针对这些问题,研究提出一种基于YOLOv8n(You Only Look Once version 8n)的煤矿井下安全帽检测算法。首先,采用空间到深度机制将YOLOv8n主干网络中的Conv模块重新构建为空间到深度卷积(Space-to-Depth Convolutional,SPDConv)模块,以便从特征图中充分提取浅层细节信息,提高模型对细节模糊图像中小目标安全帽的检测精度;其次,引入基于注意力机制的尺度内特征交互模块,减少局部过曝对安全帽特征提取的干扰,增强模型对目标区域的关注能力;最后,借鉴高层次筛选特征融合金字塔对YOLOv8n的颈部网络进行重设计,改善模型对不同尺寸安全帽的检测能力,进一步提升检测精度。试验结果显示,该算法在CUMT-Helme T数据集上的平均精度均值达91.7%,相较于YOLOv8n提升了3.2百分点,同时模型参数量减少了1.9×10^(5)。与单次多边框检测(Single Shot MultiBox Detector,SSD)、快速区域卷积神经网络(Region-based Convolutional Neural Networks,Faster RCNN)、YOLOv5s、YOLOv6n、YOLOv7及YOLOv7-tiny等当前主流目标检测算法相比,该算法的平均精度均值最高,且参数量和浮点运算量较低,在实现较高检测精度的同时还具备一定的轻量化特性。
文摘针对自动驾驶场景动态目标检测存在检测速度难以满足实时性要求、检测目标小或被遮挡造成的精度不足和误检、漏检率高等问题,提出一种基于改进YOLOv8模型的行人及车辆检测方法。首先,在Backbone骨干网络提取图像特征时使用对图像分辨率低、小目标检测友好的空间到深度卷积(a Space-to-Depth layer followed by a non-strided Convolution,SPD-Conv)模块;其次,在Neck层融合特征时增加上下文转换自注意力(Contextual Transformer,CoT)模块提高模型特征表达能力;最后,引入SIoU,加快模型的收敛速度并提高准确率。所提方法在KITTI数据集上实验。结果显示:相较于原YOLOv8算法,所提算法的准确率、召回率、平均准确率分别提高0.7%、2.1%、2.1%,浮点运算数、帧率分别提高3.6 GFLOPS、24.64 frame/s,证明所提方法能够有效综合满足自动驾驶车辆行人及车辆检测任务中的实时性、精度提高以及降低漏检率和误检率需求。