精准高效的莲蓬质量分级算法是实现莲蓬采后自动化加工的重要一环。针对目前莲蓬果实的采后质量分级研究较少的问题,该研究建立了莲蓬果实质量分级原则,提出了改进YOLOv3-Tiny(you only look once version 3-Tiny)模型的莲蓬质量分级算...精准高效的莲蓬质量分级算法是实现莲蓬采后自动化加工的重要一环。针对目前莲蓬果实的采后质量分级研究较少的问题,该研究建立了莲蓬果实质量分级原则,提出了改进YOLOv3-Tiny(you only look once version 3-Tiny)模型的莲蓬质量分级算法。首先在3种光照条件下架设摄像头垂直采集莲蓬图像并建立试验数据集,通过数据增强技术扩充数据集;接着使用K均值聚类算法重新设计先验锚框尺度,提高先验锚框的回归精度。随后以YOLOv3-Tiny原骨干网络为基础,加入空间金字塔池化模块(spatial pyramid pooling,SPP),提升网络提取特征信息的能力;最后利用YOLOv3-Tiny的参数进化模块为该模型进化出一套合适的超参数。试验结果表明,改进的YOLOv3-Tiny模型对莲子识别的平均精度均值(mean average precision,mAP)和召回率(recall)分别为96.80%和94.60%;与原YOLOv3-Tiny模型相比,mAP提高12.49个百分点,召回率提高11.59个百分点,并且每秒传输帧数达到25帧,是Faster R-CNN网络模型的1.24倍。试验数据说明所提改进算法对于莲蓬果实上的莲子具有更好的识别效果,而且满足实时检测的要求,可以为莲蓬质量分级研究提供技术参考。展开更多
为了给驾驶员提供实时准确的行人信息、减少交通事故的发生,提出一种检测增强型YOLOv3-tiny(detection of enhanced YOLOv3-tiny,DOEYT)行人检测算法.创建鲁棒的特征提取网络,首先使用非对称最大池化进行下采样,防止随着感受野增大行人...为了给驾驶员提供实时准确的行人信息、减少交通事故的发生,提出一种检测增强型YOLOv3-tiny(detection of enhanced YOLOv3-tiny,DOEYT)行人检测算法.创建鲁棒的特征提取网络,首先使用非对称最大池化进行下采样,防止随着感受野增大行人横向特征的丢失;其次使用Hardswish作为卷积层的激活函数优化网络性能;最后使用GC(globe context)自注意力机制获得全文特征信息.在分类回归网络部分,采用三尺度检测策略,提升小尺度行人目标的检测精度;使用k-means++算法重新生成数据集锚框,提高网络收敛速度.构建行人检测数据集并分为训练集和测试集,对DOEYT算法的性能进行试验验证.结果表明,非对称最大池化、Hardswish函数、GC自注意力机制分别使平均准确率AP提高14.4%、7.9%、10.8%;DOEYT算法在测试集上检测的平均准确率高达91.2%,检测速度为103帧/s,可见该算法可快速准确地检测行人,降低交通事故发生的风险.展开更多
为解决现有施工场地中,部署轻量化模型在资源受限的无GPU嵌入式平台面对密度大、目标小、环境复杂时检测安全帽精度低的问题,以YOLOv7-Tiny为基础,提出一种基于改进YOLOv7-Tiny的安全帽检测算法。通过对主干以及对SPPCSPC的改进,并且在...为解决现有施工场地中,部署轻量化模型在资源受限的无GPU嵌入式平台面对密度大、目标小、环境复杂时检测安全帽精度低的问题,以YOLOv7-Tiny为基础,提出一种基于改进YOLOv7-Tiny的安全帽检测算法。通过对主干以及对SPPCSPC的改进,并且在颈部网络的不同位置加入SimAM注意力机制,同时采用WIoUv3为损失函数来改进头部网络。在SHWD安全帽数据集的实验结果表明,与原YOLOv7-Tiny模型相比,该模型的mAP提高了1.32%,证明该模型精确度相较于原模型有较大提升,能有效提高复杂施工场景下的检测精度。In order to solve the problem of low accuracy in detecting safety helmets on resource limited GPU free embedded platforms with high density, small targets, and complex environments in existing construction sites, a safety helmet detection algorithm based on improved YOLOv7-Tiny is proposed. By improving the backbone and SPPCSPC, and adding SimAM attention mechanism at different positions in the neck network, WIoUv3 is used as the loss function to improve the head network. The experimental results on the SHWD safety helmet dataset show that compared with the original YOLOv7-Tiny model, the mAP of this model has increased by 1.32%, proving that the accuracy of this model has been greatly improved compared to the original model and can effectively improve the detection accuracy in complex construction scenarios.展开更多
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。...为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM)与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122 ms,满足实时检测要求。展开更多
文摘精准高效的莲蓬质量分级算法是实现莲蓬采后自动化加工的重要一环。针对目前莲蓬果实的采后质量分级研究较少的问题,该研究建立了莲蓬果实质量分级原则,提出了改进YOLOv3-Tiny(you only look once version 3-Tiny)模型的莲蓬质量分级算法。首先在3种光照条件下架设摄像头垂直采集莲蓬图像并建立试验数据集,通过数据增强技术扩充数据集;接着使用K均值聚类算法重新设计先验锚框尺度,提高先验锚框的回归精度。随后以YOLOv3-Tiny原骨干网络为基础,加入空间金字塔池化模块(spatial pyramid pooling,SPP),提升网络提取特征信息的能力;最后利用YOLOv3-Tiny的参数进化模块为该模型进化出一套合适的超参数。试验结果表明,改进的YOLOv3-Tiny模型对莲子识别的平均精度均值(mean average precision,mAP)和召回率(recall)分别为96.80%和94.60%;与原YOLOv3-Tiny模型相比,mAP提高12.49个百分点,召回率提高11.59个百分点,并且每秒传输帧数达到25帧,是Faster R-CNN网络模型的1.24倍。试验数据说明所提改进算法对于莲蓬果实上的莲子具有更好的识别效果,而且满足实时检测的要求,可以为莲蓬质量分级研究提供技术参考。
文摘为了给驾驶员提供实时准确的行人信息、减少交通事故的发生,提出一种检测增强型YOLOv3-tiny(detection of enhanced YOLOv3-tiny,DOEYT)行人检测算法.创建鲁棒的特征提取网络,首先使用非对称最大池化进行下采样,防止随着感受野增大行人横向特征的丢失;其次使用Hardswish作为卷积层的激活函数优化网络性能;最后使用GC(globe context)自注意力机制获得全文特征信息.在分类回归网络部分,采用三尺度检测策略,提升小尺度行人目标的检测精度;使用k-means++算法重新生成数据集锚框,提高网络收敛速度.构建行人检测数据集并分为训练集和测试集,对DOEYT算法的性能进行试验验证.结果表明,非对称最大池化、Hardswish函数、GC自注意力机制分别使平均准确率AP提高14.4%、7.9%、10.8%;DOEYT算法在测试集上检测的平均准确率高达91.2%,检测速度为103帧/s,可见该算法可快速准确地检测行人,降低交通事故发生的风险.
文摘为解决现有施工场地中,部署轻量化模型在资源受限的无GPU嵌入式平台面对密度大、目标小、环境复杂时检测安全帽精度低的问题,以YOLOv7-Tiny为基础,提出一种基于改进YOLOv7-Tiny的安全帽检测算法。通过对主干以及对SPPCSPC的改进,并且在颈部网络的不同位置加入SimAM注意力机制,同时采用WIoUv3为损失函数来改进头部网络。在SHWD安全帽数据集的实验结果表明,与原YOLOv7-Tiny模型相比,该模型的mAP提高了1.32%,证明该模型精确度相较于原模型有较大提升,能有效提高复杂施工场景下的检测精度。In order to solve the problem of low accuracy in detecting safety helmets on resource limited GPU free embedded platforms with high density, small targets, and complex environments in existing construction sites, a safety helmet detection algorithm based on improved YOLOv7-Tiny is proposed. By improving the backbone and SPPCSPC, and adding SimAM attention mechanism at different positions in the neck network, WIoUv3 is used as the loss function to improve the head network. The experimental results on the SHWD safety helmet dataset show that compared with the original YOLOv7-Tiny model, the mAP of this model has increased by 1.32%, proving that the accuracy of this model has been greatly improved compared to the original model and can effectively improve the detection accuracy in complex construction scenarios.
文摘针对船舶实时性检测中出现的检测精度低、漏检问题,改进一种基于YOLOv3-Tiny的船舶目标检测算法。通过引入深度可分离卷积作为主干网络,提高通道数量,减少模型的参数量和运算量;采用H-Swish和Leaky ReLU激活函数改进卷积结构,提取更多特征信息;利用GIOU(Generalized Intersection Over Union)损失优化边界框,突显目标区域重合度,提高精度。在混合船舶数据集上检测结果表明,改进后YOLOv3-Tiny的检测精度为83.40%,较原算法提高5.33百分点,召回率和检测速度也均优于原算法,适用于船舶实时性检测。
文摘为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM)与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122 ms,满足实时检测要求。