针对背景复杂、尺度变化较大、被遮挡情况下机械外破隐患目标检测精度不高,容易出现错检、漏检的问题,文中提出了一种改进YOLOv7(you only look once version 7)的机械外破隐患目标检测算法。文章在检测头网络中添加Swin Transformer注...针对背景复杂、尺度变化较大、被遮挡情况下机械外破隐患目标检测精度不高,容易出现错检、漏检的问题,文中提出了一种改进YOLOv7(you only look once version 7)的机械外破隐患目标检测算法。文章在检测头网络中添加Swin Transformer注意力机制提高对多尺度特征的提取能力,然后在主干网络中将部分卷积模块替换为深度可分离卷积,降低模型运算成本,采用Focal-EIOU(Focal and enhanced intersection over union)损失函数优化预测框,最后引入Mish激活函数增强网络的泛化能力,提高模型在复杂背景、目标部分被遮挡情况下的检测性能。实验结果表明,改进后的算法较原YOLOv7在准确率、召回率和平均精度均值上分别提高了5.2%、10.6%和5.2%,较其他主流算法在检测精度和模型体积上有着明显的优势,验证了改进方法的有效性,为复杂场景下机械外破隐患目标的边缘识别提供算法支持。展开更多
现有的学生行为识别方法存在识别准确率低等问题,研究提出了基于改进You Only Look Once version 5模型的学生行为识别方法。该方法引入增强交并比和Varifocal Loss函数,半自动标注优化数据集,构建行为识别预测系统。实验表明,改进模型...现有的学生行为识别方法存在识别准确率低等问题,研究提出了基于改进You Only Look Once version 5模型的学生行为识别方法。该方法引入增强交并比和Varifocal Loss函数,半自动标注优化数据集,构建行为识别预测系统。实验表明,改进模型收敛速度最快,最小损失值比其他模型平均低0.018,看黑板行为识别准确率提升4.7%。看手机行为置信度提升3.3%。由此可得,改进模型能够提升行为识别准确率,为教学工作提供帮助。展开更多
无人机由于其成本低廉、敏捷、灵活并且可以搭载高分辨率摄像头和传感器,正在成为各个行业不可或缺的工具。在检测环境中,无人机可以适应复杂地形以及恶劣气候,收集到大气、土壤等各项珍贵数据。在工业探索领域,无人机可以代替人工对于...无人机由于其成本低廉、敏捷、灵活并且可以搭载高分辨率摄像头和传感器,正在成为各个行业不可或缺的工具。在检测环境中,无人机可以适应复杂地形以及恶劣气候,收集到大气、土壤等各项珍贵数据。在工业探索领域,无人机可以代替人工对于危险地域的探查,降低事故的发生率。在海上救援方面,无人机可以快速定位到遇险的船舶,提升救援人员的救援效率。然而,无人机在此情况下的目标检测任务仍然面临不小挑战,如目标被障碍物遮挡、太阳光照的变化等。为了提高无人机在海上救援中的船舶检测性能,本文提出了一种基于改进YOLOv10(You Only Look Once,YOLO)的目标检测算法,加入了CA注意力机制,并采取EIoU损失函数。实验结果表明,相对于原始的YOLOv10模型,实验数据集在ACE-YOLOv10模型中获得了更好的结果。展开更多
针对现有非机动车头盔佩戴检测算法在车流密集场景中存在漏检,对佩戴其他帽子存在误检的问题,提出一种改进YOLOv5s(you only look once version5)的头盔佩戴检测算法YOLOv5s-BC。首先,采用软池化替换特征金字塔池化结构中的最大池化层,...针对现有非机动车头盔佩戴检测算法在车流密集场景中存在漏检,对佩戴其他帽子存在误检的问题,提出一种改进YOLOv5s(you only look once version5)的头盔佩戴检测算法YOLOv5s-BC。首先,采用软池化替换特征金字塔池化结构中的最大池化层,以放大更大强度的特征激活;其次,将坐标注意力机制和加权双向特征金字塔网络结合,搭建一种高效的双向跨尺度连接的加权特征聚合网络,以增强不同层级之间的信息传播;最后,用EIoU损失函数优化边框回归,精确目标定位。实验结果表明:在自制头盔数据集上,改进后的算法的平均精度(mAP)可达98.4%,比原算法提高了6.3%,推理速度达到58.69帧/s,整体性能优于其他主流算法,可满足交通道路环境下头盔佩戴检测的准确率和实时性要求。展开更多
随着食用菌行业由自动化向智能化、信息化发展的趋势越来越明显,为了实现现代化菇房中平菇的准确检测,解决工厂化平菇栽培中收获阶段平菇之间相互遮挡等问题,帮助平菇采收机器人进行准确的自动化采收,该研究提出了一种基于YOLOv5(you on...随着食用菌行业由自动化向智能化、信息化发展的趋势越来越明显,为了实现现代化菇房中平菇的准确检测,解决工厂化平菇栽培中收获阶段平菇之间相互遮挡等问题,帮助平菇采收机器人进行准确的自动化采收,该研究提出了一种基于YOLOv5(you only look once version 5)模型的OMM-YOLO(ostreatus measure modle-YOLO)平菇目标检测与分类模型。通过在YOLOv5模型的Backbone层添加注意力模块,对输入的平菇图像特征进行动态加权,以获得更详细的特征信息,并在Neck层采用加权双向特征金字塔网络,通过与不同的特征层融合,提高算法的平菇目标检测的精度。此外,为了改善算法的准确性和边界框纵横比的收敛速度,该文采用了EIoU(enhanced intersection over union)损失函数替代了原有的损失函数。试验结果表明,与原始模型相比,改进模型OMM-YOLO对成熟平菇、未成熟平菇和未生长平菇的平均精度均值分别提高了0.4个百分点、4.5个百分点和1.1个百分点。与当前主流模型Resnet50、VGG16、YOLOv3、YOLOv4、YOLOv5m和YOLOv7相比,该模型的精确率、召回率和检测精度均处于优势,适用于收集现代化菇房中的平菇信息,有效避免了平菇之间因相互遮挡而产生的误检测现象。菇房平菇目标检测可以自动化地检测平菇的数量、生长状态等信息,帮助菇房工作人员掌握菇房内的菇况,及时调整温湿度等环境条件,提高生产效率,并且对可以对平菇进行质量控制,确保平菇产品的统一性和品质稳定性。同时可以减少对人工的依赖,降低人力成本,实现可持续发展,对智能化现代菇房建设具有积极作用。展开更多
文摘针对背景复杂、尺度变化较大、被遮挡情况下机械外破隐患目标检测精度不高,容易出现错检、漏检的问题,文中提出了一种改进YOLOv7(you only look once version 7)的机械外破隐患目标检测算法。文章在检测头网络中添加Swin Transformer注意力机制提高对多尺度特征的提取能力,然后在主干网络中将部分卷积模块替换为深度可分离卷积,降低模型运算成本,采用Focal-EIOU(Focal and enhanced intersection over union)损失函数优化预测框,最后引入Mish激活函数增强网络的泛化能力,提高模型在复杂背景、目标部分被遮挡情况下的检测性能。实验结果表明,改进后的算法较原YOLOv7在准确率、召回率和平均精度均值上分别提高了5.2%、10.6%和5.2%,较其他主流算法在检测精度和模型体积上有着明显的优势,验证了改进方法的有效性,为复杂场景下机械外破隐患目标的边缘识别提供算法支持。
文摘现有的学生行为识别方法存在识别准确率低等问题,研究提出了基于改进You Only Look Once version 5模型的学生行为识别方法。该方法引入增强交并比和Varifocal Loss函数,半自动标注优化数据集,构建行为识别预测系统。实验表明,改进模型收敛速度最快,最小损失值比其他模型平均低0.018,看黑板行为识别准确率提升4.7%。看手机行为置信度提升3.3%。由此可得,改进模型能够提升行为识别准确率,为教学工作提供帮助。
文摘无人机由于其成本低廉、敏捷、灵活并且可以搭载高分辨率摄像头和传感器,正在成为各个行业不可或缺的工具。在检测环境中,无人机可以适应复杂地形以及恶劣气候,收集到大气、土壤等各项珍贵数据。在工业探索领域,无人机可以代替人工对于危险地域的探查,降低事故的发生率。在海上救援方面,无人机可以快速定位到遇险的船舶,提升救援人员的救援效率。然而,无人机在此情况下的目标检测任务仍然面临不小挑战,如目标被障碍物遮挡、太阳光照的变化等。为了提高无人机在海上救援中的船舶检测性能,本文提出了一种基于改进YOLOv10(You Only Look Once,YOLO)的目标检测算法,加入了CA注意力机制,并采取EIoU损失函数。实验结果表明,相对于原始的YOLOv10模型,实验数据集在ACE-YOLOv10模型中获得了更好的结果。
文摘针对现有非机动车头盔佩戴检测算法在车流密集场景中存在漏检,对佩戴其他帽子存在误检的问题,提出一种改进YOLOv5s(you only look once version5)的头盔佩戴检测算法YOLOv5s-BC。首先,采用软池化替换特征金字塔池化结构中的最大池化层,以放大更大强度的特征激活;其次,将坐标注意力机制和加权双向特征金字塔网络结合,搭建一种高效的双向跨尺度连接的加权特征聚合网络,以增强不同层级之间的信息传播;最后,用EIoU损失函数优化边框回归,精确目标定位。实验结果表明:在自制头盔数据集上,改进后的算法的平均精度(mAP)可达98.4%,比原算法提高了6.3%,推理速度达到58.69帧/s,整体性能优于其他主流算法,可满足交通道路环境下头盔佩戴检测的准确率和实时性要求。
文摘随着食用菌行业由自动化向智能化、信息化发展的趋势越来越明显,为了实现现代化菇房中平菇的准确检测,解决工厂化平菇栽培中收获阶段平菇之间相互遮挡等问题,帮助平菇采收机器人进行准确的自动化采收,该研究提出了一种基于YOLOv5(you only look once version 5)模型的OMM-YOLO(ostreatus measure modle-YOLO)平菇目标检测与分类模型。通过在YOLOv5模型的Backbone层添加注意力模块,对输入的平菇图像特征进行动态加权,以获得更详细的特征信息,并在Neck层采用加权双向特征金字塔网络,通过与不同的特征层融合,提高算法的平菇目标检测的精度。此外,为了改善算法的准确性和边界框纵横比的收敛速度,该文采用了EIoU(enhanced intersection over union)损失函数替代了原有的损失函数。试验结果表明,与原始模型相比,改进模型OMM-YOLO对成熟平菇、未成熟平菇和未生长平菇的平均精度均值分别提高了0.4个百分点、4.5个百分点和1.1个百分点。与当前主流模型Resnet50、VGG16、YOLOv3、YOLOv4、YOLOv5m和YOLOv7相比,该模型的精确率、召回率和检测精度均处于优势,适用于收集现代化菇房中的平菇信息,有效避免了平菇之间因相互遮挡而产生的误检测现象。菇房平菇目标检测可以自动化地检测平菇的数量、生长状态等信息,帮助菇房工作人员掌握菇房内的菇况,及时调整温湿度等环境条件,提高生产效率,并且对可以对平菇进行质量控制,确保平菇产品的统一性和品质稳定性。同时可以减少对人工的依赖,降低人力成本,实现可持续发展,对智能化现代菇房建设具有积极作用。