为精准识别与分类不同花期杭白菊,满足自动化采摘要求,该研究提出一种基于改进YOLOv8s的杭白菊检测模型-YOLOv8s-RDL。首先,该研究将颈部网络(neck)的C2f(faster implementation of CSP bottleneck with 2 convolutions)模块替换为RCS-O...为精准识别与分类不同花期杭白菊,满足自动化采摘要求,该研究提出一种基于改进YOLOv8s的杭白菊检测模型-YOLOv8s-RDL。首先,该研究将颈部网络(neck)的C2f(faster implementation of CSP bottleneck with 2 convolutions)模块替换为RCS-OSA(one-shot aggregation of reparameterized convolution based on channel shuffle)模块,以提升骨干网络(backbone)特征融合效率;其次,将检测头更换为DyHead(dynamic head),并融合DCNv3(deformable convolutional networks v3),借助多头自注意力机制增强目标检测头的表达能力;最后,采用LAMP(layer-adaptive magnitude-based pruning)通道剪枝算法减少参数量,降低模型复杂度。试验结果表明,YOLOv8s-RDL模型在菊米和胎菊的花期分类中平均精度分别达到96.3%和97.7%,相较于YOLOv8s模型,分别提升了3.8和1.5个百分点,同时权重文件大小较YOLOv8s减小了6 MB。该研究引入TIDE(toolkit for identifying detection and segmentation errors)评估指标,结果显示,YOLOv8s-RDL模型分类错误和背景检测错误相较YOLOv8s模型分别降低0.55和1.26。该研究为杭白菊分花期自动化采摘提供了理论依据和技术支撑。展开更多
为了提升汽车辅助系统对前方障碍物的检测效果并进一步获取精确的距离信息,文章提出了一种基于改进YOLOv8s的交通场景障碍物检测与双目测距方法。该方法以YOLOv8s(You Only Look Once v8s)网络为基础,首先在Backbone中引入EMA注意力机制...为了提升汽车辅助系统对前方障碍物的检测效果并进一步获取精确的距离信息,文章提出了一种基于改进YOLOv8s的交通场景障碍物检测与双目测距方法。该方法以YOLOv8s(You Only Look Once v8s)网络为基础,首先在Backbone中引入EMA注意力机制,以提高目标检测精度;其次将Neck中的PANFPN网络替换为ASF(Attentional Scale Sequence Fusion)网络,并采用DIoU优化损失函数;在特征匹配算法ORB的基础上,利用RANSAC算法剔除误匹配的点对。通过在KITTI数据集和实际交通场景中的实验,结果表明,在20 m的距离范围内,改进后的YOLOv8s网络对汽车、行人和非机动车3类障碍物的检测mAP(mean average precision)达到了91.1%,提高了4.8%,同时测距的平均误差仅为1.55%。展开更多
文摘为精准识别与分类不同花期杭白菊,满足自动化采摘要求,该研究提出一种基于改进YOLOv8s的杭白菊检测模型-YOLOv8s-RDL。首先,该研究将颈部网络(neck)的C2f(faster implementation of CSP bottleneck with 2 convolutions)模块替换为RCS-OSA(one-shot aggregation of reparameterized convolution based on channel shuffle)模块,以提升骨干网络(backbone)特征融合效率;其次,将检测头更换为DyHead(dynamic head),并融合DCNv3(deformable convolutional networks v3),借助多头自注意力机制增强目标检测头的表达能力;最后,采用LAMP(layer-adaptive magnitude-based pruning)通道剪枝算法减少参数量,降低模型复杂度。试验结果表明,YOLOv8s-RDL模型在菊米和胎菊的花期分类中平均精度分别达到96.3%和97.7%,相较于YOLOv8s模型,分别提升了3.8和1.5个百分点,同时权重文件大小较YOLOv8s减小了6 MB。该研究引入TIDE(toolkit for identifying detection and segmentation errors)评估指标,结果显示,YOLOv8s-RDL模型分类错误和背景检测错误相较YOLOv8s模型分别降低0.55和1.26。该研究为杭白菊分花期自动化采摘提供了理论依据和技术支撑。
文摘为了提升汽车辅助系统对前方障碍物的检测效果并进一步获取精确的距离信息,文章提出了一种基于改进YOLOv8s的交通场景障碍物检测与双目测距方法。该方法以YOLOv8s(You Only Look Once v8s)网络为基础,首先在Backbone中引入EMA注意力机制,以提高目标检测精度;其次将Neck中的PANFPN网络替换为ASF(Attentional Scale Sequence Fusion)网络,并采用DIoU优化损失函数;在特征匹配算法ORB的基础上,利用RANSAC算法剔除误匹配的点对。通过在KITTI数据集和实际交通场景中的实验,结果表明,在20 m的距离范围内,改进后的YOLOv8s网络对汽车、行人和非机动车3类障碍物的检测mAP(mean average precision)达到了91.1%,提高了4.8%,同时测距的平均误差仅为1.55%。