期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
AlodgeNet:一种基于无人机RGB图像的紫花苜蓿倒伏识别方法
1
作者 葛永琪 唐道统 +2 位作者 刘瑞 朱子欣 李昂 《江苏农业学报》 北大核心 2026年第1期90-98,共9页
针对复杂大田场景中紫花苜蓿倒伏区域边界模糊、形状不规则及小范围倒伏难以准确识别的问题,本研究提出一种基于无人机RGB(R、G、B分别表示红、绿、蓝)图像的紫花苜蓿倒伏识别方法——AlodgeNet模型。为提升模型对不规则形状与小面积倒... 针对复杂大田场景中紫花苜蓿倒伏区域边界模糊、形状不规则及小范围倒伏难以准确识别的问题,本研究提出一种基于无人机RGB(R、G、B分别表示红、绿、蓝)图像的紫花苜蓿倒伏识别方法——AlodgeNet模型。为提升模型对不规则形状与小面积倒伏特征的捕捉能力,并增强空间层次结构学习,在YOLO v8x-seg网络中引入大型可分离卷积核注意力(LSKA)机制和空间深度转化卷积(SPD-Conv),以替换原网络中的部分卷积层。同时在宁夏引黄灌区,通过无人机采集了不同飞行高度(5.0 m、7.5 m、10.0 m)与生育期的紫花苜蓿倒伏RGB图像,并以此构建数据集对模型进行训练。试验结果表明,AlodgeNet模型对飞行高度10.0 m采集图像中紫花苜蓿倒伏区域的识别效果最好,且其对初花期采集图像中紫花苜蓿倒伏区域的识别性能高于分枝期。AlodgeNet模型精确率、召回率、交并比(IoU)阈值为0.50时的平均精度均值(mAP 50)和交并比(IoU)阈值从0.50到0.95(步长0.05)的平均精度均值(mAP 50∶95)分别达到84.9%、79.2%、83.8%和56.7%,整体性能优于YOLO v5x-seg模型、YOLO v10x-seg模型、YOLO v11x-seg模型、YOLO v8x-seg模型、RT-DETR模型和MASK-RCNN模型。相较于原始模型YOLO v8x-seg,AlodgeNet模型mAP 50和mAP 50∶95分别提升5.8个百分点和7.3个百分点。本研究结果为复杂大田环境下紫花苜蓿倒伏的快速识别与面积估算提供了一种高效、便捷的监测手段,有助于实现精准农业中的倒伏灾情评估与管理决策支持。 展开更多
关键词 深度学习 yolo v8x-seg算法 紫花苜蓿倒伏 飞行高度
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部