期刊文献+
共找到5,182篇文章
< 1 2 250 >
每页显示 20 50 100
基于改进YOLOv8n-pose的巨峰葡萄采摘定位方法
1
作者 陈馨 吴子炜 +1 位作者 周素茵 夏芳 《华南农业大学学报》 北大核心 2026年第1期118-127,共10页
【目的】对巨峰葡萄进行精准高效地采摘定位,以有效降低果实损伤。【方法】提出一种基于改进YOLOv8n-pose的葡萄采摘定位方法。首先,利用改进YOLOv8n-pose检测葡萄果梗和顶部易损果粒的关键点,基于关键点的坐标构建果实上界位姿的表征向... 【目的】对巨峰葡萄进行精准高效地采摘定位,以有效降低果实损伤。【方法】提出一种基于改进YOLOv8n-pose的葡萄采摘定位方法。首先,利用改进YOLOv8n-pose检测葡萄果梗和顶部易损果粒的关键点,基于关键点的坐标构建果实上界位姿的表征向量;然后,利用此向量计算出最优采摘角度;最后,通过将采摘点与采摘角协同,确定最佳采摘位置。【结果】试验结果表明,改进后YOLOv8n-pose的P、R、mAP@0.50、mAP@0.50~0.95较原模型分别提升了1.7、0.7、0.9、1.7个百分点,较YOLOv12s-pose分别提升了0.4、0.1、0.6、2.7个百分点,同时模型参数量比YOLOv8n-pose减少了5.8%。应用本文方法的葡萄采摘定位成功率为90.8%,相较于不使用采摘角的定位方法,提升了9.2个百分点。【结论】研究为巨峰葡萄采摘机器人提供了一种低损定位方法。 展开更多
关键词 巨峰葡萄 YOLOv8-pose 关键点检测 采摘定位 采摘角度
在线阅读 下载PDF
ill-posed Boussinesq方程的守恒律及其解的构造
2
作者 刘亚峰 额尔敦布和 刘欣 《内蒙古民族大学学报(自然科学版)》 2026年第2期76-83,共8页
研究了ill-posed Boussinesq方程守恒律的构造、行波解的数值模拟及Lump-Kink解的求解问题。首先,利用对称-共轭对称‘对’方法、递推公式法及乘子法分别构造了该方程的守恒律,并对所得结果进行了比较分析。其次,应用变分迭代法对该方... 研究了ill-posed Boussinesq方程守恒律的构造、行波解的数值模拟及Lump-Kink解的求解问题。首先,利用对称-共轭对称‘对’方法、递推公式法及乘子法分别构造了该方程的守恒律,并对所得结果进行了比较分析。其次,应用变分迭代法对该方程的行波解进行了数值模拟。最后,借助Hirota双线性方法构造了该方程的Lump-Kink解。研究表明,3种方法构造的该方程的守恒律完全一致;变分迭代法能高精度模拟该方程的行波解;Hirota方法可以精确给出该方程Lump-Kink解的具体形式。 展开更多
关键词 ill-posed Boussinesq方程 对称-共轭对称‘对’方法 变分迭代法 HIROTA双线性方法 守恒律
在线阅读 下载PDF
An Attention-Based 6D Pose Estimation Network for Weakly Textured Industrial Parts
3
作者 Song Xu Liang Xuan +1 位作者 Yifeng Li Qiang Zhang 《Computers, Materials & Continua》 2026年第2期2148-2166,共19页
The 6D pose estimation of objects is of great significance for the intelligent assembly and sorting of industrial parts.In the industrial robot production scenarios,the 6D pose estimation of industrial parts mainly fa... The 6D pose estimation of objects is of great significance for the intelligent assembly and sorting of industrial parts.In the industrial robot production scenarios,the 6D pose estimation of industrial parts mainly faces two challenges:one is the loss of information and interference caused by occlusion and stacking in the sorting scenario,the other is the difficulty of feature extraction due to the weak texture of industrial parts.To address the above problems,this paper proposes an attention-based pixel-level voting network for 6D pose estimation of weakly textured industrial parts,namely CB-PVNet.On the one hand,the voting scheme can predict the keypoints of affected pixels,which improves the accuracy of keypoint localization even in scenarios such as weak texture and partial occlusion.On the other hand,the attention mechanism can extract interesting features of the object while suppressing useless features of surroundings.Extensive comparative experiments were conducted on both public datasets(including LINEMOD,Occlusion LINEMOD and T-LESS datasets)and self-made datasets.The experimental results indicate that the proposed network CB-PVNet can achieve accuracy of ADD(-s)comparable to state-of-the-art using only RGB images while ensuring real-time performance.Additionally,we also conducted robot grasping experiments in the real world.The balance between accuracy and computational efficiency makes the method well-suited for applications in industrial automation. 展开更多
关键词 Industrial robots pose estimation industrial parts attention mechanism weak texture
在线阅读 下载PDF
Towards Real-Time Multi-Person Pose Estimation via Feature Selection and Sharpening Mechanisms
4
作者 Chengang Dong Yongkang Ding Jianwei Hu 《Computer Modeling in Engineering & Sciences》 2026年第3期888-908,共21页
Real-time multi-person pose estimation(MPE)built upon neural network architectures aims to simultaneously detect multiple human instances and regress joint coordinates in dynamic scenes.However,due to factors such as ... Real-time multi-person pose estimation(MPE)built upon neural network architectures aims to simultaneously detect multiple human instances and regress joint coordinates in dynamic scenes.However,due to factors such as high model complexity and limited expression of keypoint information,both the efficiency and accuracy of real-time MPE remain to be improved.To mitigate the adverse impacts caused by the aforementioned issues,this work develops FSEM-Pose,a real-time MPE model rooted in the YOLOv10 framework.In detail,first,FSEM-Pose upgrades the backbone module of the baseline network by introducing the Feature Shuffling-Convolution(FS-Conv),which effectively reduces the backbone size while maximizing the retention of spatial information from the input image.Second,FSEM-Pose incorporates a Feature Saliency Enhancement Module(FSEM)to strengthen the feature encoding of human keypoints,thereby improving the accuracy of pose estimation.Finally,FSEM-Pose further enhances inference efficiency via a lightweight optimization of the head using shared convolutional layers.Our method achieves competitive results across multiple accuracy and efficiency metrics on the MS COCO 2017 and CrowdPose datasets.While being lightweight in design,it improves average precision(AP)by 2.1%and 2.5%,respectively. 展开更多
关键词 pose estimation feature sharpening LIGHTWEIGHT YOLOv10
在线阅读 下载PDF
Robust Human Pose Estimation and Action Recognition Utilizing Feature Extraction
5
作者 Sheng Luo Rashid Abbasi +7 位作者 Hao Wang Jinghua Xu Dongyang Lyu Aaron Zhang Farhan Amin Isabel de la Torre Gerardo Mendez Mezquita Henry Fabian Gongora 《Computer Modeling in Engineering & Sciences》 2026年第3期870-887,共18页
Human pose estimation is crucial across diverse applications,from healthcare to human-computer interaction.Integrating inertial measurement units(IMUs)with monocular vision methods holds great potential for leveraging... Human pose estimation is crucial across diverse applications,from healthcare to human-computer interaction.Integrating inertial measurement units(IMUs)with monocular vision methods holds great potential for leveraging complementary modalities;however,existing approaches are often limited by IMU drift,noise,and underutilization of visual information.To address these limitations,we propose a novel dual-stream feature extraction framework that effectively combines temporal IMU data and single-view image features for improved pose estimation.Short-term dependencies in IMU sequences are captured with convolutional layers,while a Transformerbased architecture models long-range temporal dynamics.To mitigate IMU drift and inter-sensor inconsistencies,a complementary filtering module is introduced alongside a cross-channel interaction mechanism.Features from the IMU and image streams are then fused via a dedicated fusion module and further refined utilizing a high-precision regression head for accurate pose prediction.Experimental results on benchmark datasets demonstrate that our method significantly outperforms existing techniques in terms of estimation,accuracy,and robustness,validating the effectiveness of our dual-stream architecture. 展开更多
关键词 Human pose estimation dual-stream network inertial measurement units(IMU)
在线阅读 下载PDF
基于改进YOLOv8-Pose的番茄整枝关键点检测算法
6
作者 游浩涛 赵东杰 《自动化与仪表》 2026年第1期92-96,共5页
为解决番茄整枝机器人作业时,对番茄整枝关键点在与叶片、主茎颜色相近的环境中识别精度低的问题,提出了一种改进的YOLOv8-Pose番茄整枝机器人操作关键点检测算法。通过对YOLOv8-Pose进行优化,引入CSPHet结构替换原有的C2f结构,从而提... 为解决番茄整枝机器人作业时,对番茄整枝关键点在与叶片、主茎颜色相近的环境中识别精度低的问题,提出了一种改进的YOLOv8-Pose番茄整枝机器人操作关键点检测算法。通过对YOLOv8-Pose进行优化,引入CSPHet结构替换原有的C2f结构,从而提升模型的泛化能力,同时在颈部网络中融合ODConv2d动态卷积模块,并在检测头部采用Pose_SA模块,确保在提升识别精度的同时,有效降低模型参数量。试验结果表明,相比于原始模型,改进后的模型准确率P、召回率R和平均精度均值mAP50分别提升了3.2%、3.6%和1.6%,模型参数量Params和总浮点运算量FLOPs分别下降了0.62和2.8。改进后的模型可为番茄整枝机器人提供关键视觉技术支持,用于有效识别侧枝的切割或折断操作点。 展开更多
关键词 YOLOv8-pose 整枝机器人 关键点检测 番茄整枝
在线阅读 下载PDF
基于YOLOv11n-Pose的人体姿态检测方法
7
作者 刘玉成 王甜甜 +1 位作者 刘美 朱一鑫 《广东石油化工学院学报》 2026年第1期68-73,共6页
为了应对复杂场景下人体姿态估计中关键点丢失以及多尺度目标识别难题,提出了一种改进的YOLOv11n-Pose模型架构。通过采用部分卷积(PConv)优化C3k2模块中的Bottleneck,显著增强了网络对多尺度特征的提取与融合能力。此外,采用RepViT Bl... 为了应对复杂场景下人体姿态估计中关键点丢失以及多尺度目标识别难题,提出了一种改进的YOLOv11n-Pose模型架构。通过采用部分卷积(PConv)优化C3k2模块中的Bottleneck,显著增强了网络对多尺度特征的提取与融合能力。此外,采用RepViT Block模块替代传统卷积结构,降低了参数量,同时提高了模型对复杂姿态的识别精度。引入CPAM注意力机制,有效强化对人体关键部位的特征捕获与语义分析能力。结果表明,改进的YOLOv11n-Pose模型在检测精度、召回率和平均精度上均优于原始YOLOv11n-Pose模型,对不同尺度目标识别效果显著提升;同时,参数量和模型大小分别缩减10.1%和8.2%。 展开更多
关键词 YOLOv11n-pose 姿态检测 关键点检测 部分卷积
在线阅读 下载PDF
基于单目视觉和改进YOLOv8-pose模型的篮筐位姿估计方法
8
作者 陈琳 徐震 +3 位作者 张春燕 吉晓升 成松松 黄嘉俊 《华南农业大学学报》 北大核心 2026年第1期106-117,共12页
【目的】当前设施大棚蔬菜采收装筐后的搬运作业仍以人工为主,存在效率低下、劳动强度大等问题,严重制约了农业生产的规模化与智能化发展。开发具备篮筐自主抓取功能的新型农业机器人,是破解该瓶颈、提升农业生产效率的关键技术路径。其... 【目的】当前设施大棚蔬菜采收装筐后的搬运作业仍以人工为主,存在效率低下、劳动强度大等问题,严重制约了农业生产的规模化与智能化发展。开发具备篮筐自主抓取功能的新型农业机器人,是破解该瓶颈、提升农业生产效率的关键技术路径。其中,基于计算机视觉技术实现对篮筐的精准位姿估计,是保障机器人抓取动作稳定可靠的核心前提与技术基础。然而,现有位姿估计方法的准确性与实时性难以满足复杂大棚环境下的实际作业需求,亟待进一步深入研究与优化。【方法】以YOLOv8-pose为基准模型,通过检测篮筐特征点并融合PnP算法估计篮筐位姿。首先,利用单目相机采集各种复杂背景下的篮筐RGB图像并制作成数据集。其次,在YOLOv8-pose模型基础上引入Biformer模块、GAM注意力机制和Focaler_GIoU损失函数,提升模型在复杂背景和遮挡情况下的关键点检测性能。最后,基于篮筐尺寸参数与检测到的关键点二维坐标,利用PnP算法求解篮筐在三维空间中的位姿参数。【结果】试验结果显示,关键点平均精度均值、准确率分别提升3.73、4.31个百分点,定位平均精准度提高了5.20像素,与手动标识的关键点之间的均方根误差为4.45像素。通过分析相机与篮筐距离对位姿估计精度的影响可知,在相机距离篮筐1.7~1.9 m时,位姿估计算法表现出较高的定位精度,表明相机与篮筐的相对距离对位姿估计精度具有重要影响。【结论】本研究提出的方法可为设施大棚场景下的篮筐位姿估计提供低成本、高精度的解决方案,为农业机器人抓取篮筐提供技术支撑。 展开更多
关键词 视觉识别 关键点检测 位姿估计 YOLOv8 农业机器人
在线阅读 下载PDF
ELDMPose-YOLO:健身运动场景下姿态识别方法
9
作者 孟超月 房志斌 +2 位作者 李聪聪 张佳妙 李浩冬 《计算机工程与应用》 北大核心 2026年第7期96-106,共11页
针对目前的姿态识别算法在健身运动场景中存在因视角变化以及在昏暗场景下识别准确率低等问题,提出ELDMPose-YOLO模型。同时建立了8种不同健身动作的数据集。为缓解因视角变化而导致自身部分关键点被相互遮挡的问题,改进了长距离依赖感... 针对目前的姿态识别算法在健身运动场景中存在因视角变化以及在昏暗场景下识别准确率低等问题,提出ELDMPose-YOLO模型。同时建立了8种不同健身动作的数据集。为缓解因视角变化而导致自身部分关键点被相互遮挡的问题,改进了长距离依赖感知注意力(LRSD);构建全新的C2f-DRB模块来提升运动姿态中关键部位的识别,同时减少了模型的参数量。创新一个多级上下文融合模块(MCFF),增强了对上下文信息的捕获,提升昏暗场景下关键点的聚焦能力,使模型更加关注人体姿态细节特征。实验结果表明,ELDMPose-YOLO模型比YOLOv8npose模型的Precision提高了0.046,在实验数据集上的精度达到0.987。改进后的模型取得了令人满意的效果,为后续运动姿态评估奠定重要基础。 展开更多
关键词 运动姿态识别 关键点检测 长距离依赖感知注意力(LRSD)
在线阅读 下载PDF
基于改进YOLO v5-pose的群养生猪体尺自动测量方法 被引量:2
10
作者 刘刚 曾雪婷 +3 位作者 刘晓文 李涛 丁向东 米阳 《农业机械学报》 北大核心 2025年第5期455-465,共11页
针对群养生猪体尺自动测量中体尺测点难以高效和精确提取的问题,提出一种基于改进YOLO v5-pose的群养生猪体尺自动测量方法。在YOLO v5-pose主干网络中融合卷积块注意力模块(Convolutional block attention module,CBAM),更好地捕捉到... 针对群养生猪体尺自动测量中体尺测点难以高效和精确提取的问题,提出一种基于改进YOLO v5-pose的群养生猪体尺自动测量方法。在YOLO v5-pose主干网络中融合卷积块注意力模块(Convolutional block attention module,CBAM),更好地捕捉到测点相关特征;将Neck层的C3传统模块替换为C3Ghost轻量模块,降低模型参数量和内存占用量;在模型Head层引入DyHead(Dynamic head)目标检测头,提升模型对测点位置的表征能力。结果表明,改进模型的测点检测平均精度均值为92.6%,参数量为6.890×10^(6),内存占用量为14.1 MB,与原始YOLO v5-pose模型相比,平均精度均值增加2.1个百分点,参数量和内存占用量分别减少2.380×10^(5)、0.4 MB。与当前经典模型YOLO v7-pose、YOLO v8-pose、RTMPose(Real-time multi-person pose estimation based on mmpose)和CenterNet相比,该模型的召回率和平均精度均值更优且更轻量化。在2400幅群养生猪图像数据集上进行试验,结果表明,该方法测得体长、体宽、臀宽、体高和臀高的平均绝对误差分别为4.61、5.87、6.03、0.49、0.46 cm,平均相对误差分别为2.69%、11.53%、12.29%、0.90%和0.76%。综上所述,本文方法提高了体尺测点检测精度,降低了模型复杂度,取得了更精确的体尺测量结果,为群养环境下生猪体尺自动测量提供了一种有效的技术手段。 展开更多
关键词 群养生猪 体尺测量 改进YOLO v5-pose 关键点检测 坐标变换
在线阅读 下载PDF
基于改进OpenPose网络的交通警察姿态估计 被引量:1
11
作者 伍锡如 陈麒 《计算机应用与软件》 北大核心 2025年第1期90-95,101,共7页
针对交警姿态估计存在的特征提取困难、实时性差等问题,提出一种改进的OpenPose网络交警姿态估计方法。采用MobileNet作为主干网络进行交警姿态的特征提取,解决模型随层次加深导致网络退化的问题,减少网络的参数量,加速主干网络内部特... 针对交警姿态估计存在的特征提取困难、实时性差等问题,提出一种改进的OpenPose网络交警姿态估计方法。采用MobileNet作为主干网络进行交警姿态的特征提取,解决模型随层次加深导致网络退化的问题,减少网络的参数量,加速主干网络内部特征的计算。通过跳跃连接机制将模型并行结构改进为串并同行结构,实现网络内部参数共享,降低模型的复杂度,提高检测实时性。实验结果表明,改进模型在COCO数据集以及公开交警数据集上分别获得78.9%和74.9%的mAP,检测速度可达25帧/s,为交通警察姿态估计问题提供了一种鲁棒性强、实时性高的实际应用方法。 展开更多
关键词 深度学习 交通警察姿态估计 Openpose MobileNet
在线阅读 下载PDF
基于改进YOLOv8n-pose和BoTSORT的鱼苗应激行为监测
12
作者 冯国富 袁林婧 +1 位作者 王文娟 陈明 《渔业现代化》 北大核心 2025年第4期31-43,共13页
准确高效监测鱼苗应激行为不仅有助于在养殖过程中调控应激源以减少产量损失,同时也可为育种阶段的鱼苗活力评估提供有效手段。针对鱼苗体积小、养殖密度高和高速非线性运动的特点,提出一种改进YOLOv8n-pose和BoTSORT的鱼苗应激行为监... 准确高效监测鱼苗应激行为不仅有助于在养殖过程中调控应激源以减少产量损失,同时也可为育种阶段的鱼苗活力评估提供有效手段。针对鱼苗体积小、养殖密度高和高速非线性运动的特点,提出一种改进YOLOv8n-pose和BoTSORT的鱼苗应激行为监测方法。改进YOLOv8n-pose作为检测器,将BMS模块与C2f模块相结合,使模型充分学习不同尺度特征;使用SPPCSPC模块替换原模型的特征融合模块,优化鱼苗相互遮挡情形下的检测精度;最后用NEMASlideLoss替换原模型损失函数,增强模型的稳定性和对小目标的关注度。在跟踪器部分,基于检测器检测出的目标,结合BoTSORT多目标跟踪算法实现了更适合鱼苗应激时非线性运动监测的方法。最后,提取鱼苗的加速度、摆尾角度和聚集度3种特征进行加权融合,根据融合后的特征值判断鱼苗是否处于应激状态。结果显示,改进后的YOLOv8n-pose算法在目标检测和关键点检测的mAP比原模型分别提高了3.6%和4.5%;BoTSORT算法的MOTA为77.628%、MOTP为80.307%、IDF1为79.573%、IDSW为51,优于DeepSORT、ByteTrack、StrongSORT算法。该研究算法基于特征值的应激行为监测准确率为95.24%,为鱼类苗种培育中应激行为监测提供了新的思路和方法。 展开更多
关键词 鱼苗 YOLOv8n-pose BoTSORT 应激行为监测
在线阅读 下载PDF
基于BMR-YOLO 11n-Pose的藠头关键点识别与分类方法
13
作者 刘浩蓬 杨云潇 +3 位作者 康启新 张国忠 张乐妍 卫佳 《农业机械学报》 北大核心 2025年第11期490-498,共9页
针对藠头形态不规则,在检测过程中存在特征表达失真、外形难以提取等问题,本文提出基于深度学习的多尺度关键点识别与分类方法,可通过识别藠头顶点及横径的两端点提取其外形特征,同时基于决策树算法对藠头尺寸和外形等特征进行准确分类... 针对藠头形态不规则,在检测过程中存在特征表达失真、外形难以提取等问题,本文提出基于深度学习的多尺度关键点识别与分类方法,可通过识别藠头顶点及横径的两端点提取其外形特征,同时基于决策树算法对藠头尺寸和外形等特征进行准确分类。首先以YOLO 11n-Pose为基线模型,在颈部引入双层路由注意力机制(BRA)、特征增强层(MobileNet Variants)和通道混洗的重参数化卷积(RCS),构建了BMR-YOLO 11n-Pose模型。相较于基线模型,本文模型的关键点识别精确率(Pose-P)和检测框识别精确率(Box-P)分别提升0.9、1.9个百分点,其平均精度mAP0.5-0.95提升1.9个百分点。进而基于决策树算法对藠头的外形特征分别进行尺寸分类和弯曲程度分类,其分类模型精确率分别为92.87%和84.72%,相比原基线模型分别增加11.19、8.39个百分点,有效提升了藠头外形特征的分类精度。本研究可为藠头位姿识别和分类作业等应用场景提供理论参考和技术支撑。 展开更多
关键词 藠头识别 目标关键点检测 BMR-YOLO 11n-pose 深度学习
在线阅读 下载PDF
基于改进YOLO v9u-pose的肉牛质量估算方法
14
作者 段青玲 杨丽莎 《农业机械学报》 北大核心 2025年第10期596-605,共10页
在肉牛养殖中,肉牛质量对其生长监测和育种改良具有重要意义。传统的称量方法费时费力,且易造成牛只应激反应。然而,现有的非接触方法易受姿态和复杂背景影响,精度较低,鲁棒性差。为此,本文提出了基于改进YOLO v9u-pose的肉牛质量估算方... 在肉牛养殖中,肉牛质量对其生长监测和育种改良具有重要意义。传统的称量方法费时费力,且易造成牛只应激反应。然而,现有的非接触方法易受姿态和复杂背景影响,精度较低,鲁棒性差。为此,本文提出了基于改进YOLO v9u-pose的肉牛质量估算方法,包括关键点检测和质量估算2个阶段。在关键点检测阶段,以YOLO v9u-pose作为基线网络,利用ODConv(Omni-dimensional dynamic convolution)替换主干网络的普通卷积;采用DySample替换颈部网络的上采样模块;并在与检测头连接的RepNCSPELAN4模块中添加EMA注意力机制(Excitation and modulation attention),进而提高肉牛关键点检测算法精度。在质量估算阶段,利用深度图和局部点云聚类等方法提取体尺特征,并构建基于体尺和PSO-XGBoost(Particle swarm optimization-eXtreme gradient boosting, PSO-XGBoost)的肉牛质量估算算法。在自建的数据集上测试,本文提出的关键点检测算法F1值和平均精度均值(mAP@0.75)分别为97.2%和98.2%,质量估算算法平均绝对百分比误差为3.97%。最终将所提方法部署至开发板,为肉牛智能化养殖提供了技术支持。 展开更多
关键词 肉牛 质量估算 关键点检测 YOLO v9u-pose PSO-XGBoost
在线阅读 下载PDF
基于改进YOLOv8n-Pose的羊只围产期行为识别方法 被引量:2
15
作者 孙思晗 孙小华 +2 位作者 王超 袁万哲 王福顺 《农业工程学报》 北大核心 2025年第12期258-268,共11页
在现代畜牧业中,自动化识别羊只围产期行为能及时发现潜在的健康问题和生产异常,从而有效保障羊只健康、降低出生羊羔死亡率、提升繁殖效益。针对羊只围产期部分行为特征的高度相似以及羊只生产环境中存在复杂光照条件和背景干扰等问题... 在现代畜牧业中,自动化识别羊只围产期行为能及时发现潜在的健康问题和生产异常,从而有效保障羊只健康、降低出生羊羔死亡率、提升繁殖效益。针对羊只围产期部分行为特征的高度相似以及羊只生产环境中存在复杂光照条件和背景干扰等问题,该研究提出了一种改进YOLOv8n-Pose关键点检测模型与BP神经网络相结合的羊只围产期行为识别方法。首先,为提升关键点检测的精度,新增P2检测层,显著增强模型对小尺度特征的捕获能力,为复杂行为的关键点定位提供更精细的支持。其次,针对复杂环境中的特征表达问题,引入多尺度注意力模块(multi-scale attention block,MAB),以动态权重机制强化模型对全局与局部特征的交互建模能力,提升在复杂光照环境下的稳健性和泛化性能。此外,考虑到模型参数量较大导致部署困难,采用基于L1范数的剪枝策略,对优化后的模型进行参数压缩与冗余移除,既有效降低了计算复杂度,又保证了高效性与模型性能的平衡。最后,基于改进模型精准提取12个关键点坐标信息后,结合5个关节角度、2对关键点相对位置以及关键点识别个数,构建包含32个行为特征向量的多维数据集,并将其作为输入传递至BP神经网络进行羊只围产期行为分类。试验结果表明,在自建羊只围产期数据集上,改进的YOLOv8n-Pose模型检测羊只关键点较原模型平均精度值mAP50提升4.6个百分点,m AP50:95提升6.7个百分点。BP神经网络对羊只围产期行为进行分类,其F1分数达到95.7%。研究结果验证基于关键点的识别方法在复杂的围产期行为识别中具有明显优势,为畜牧业智能化管理提供有效的技术支持。 展开更多
关键词 行为识别 YOLOv8n-pose 关键点检测 围产期 BP神经网络
在线阅读 下载PDF
Self-Supervised Monocular Depth Estimation with Scene Dynamic Pose
16
作者 Jing He Haonan Zhu +1 位作者 Chenhao Zhao Minrui Zhao 《Computers, Materials & Continua》 2025年第6期4551-4573,共23页
Self-supervised monocular depth estimation has emerged as a major research focus in recent years,primarily due to the elimination of ground-truth depth dependence.However,the prevailing architectures in this domain su... Self-supervised monocular depth estimation has emerged as a major research focus in recent years,primarily due to the elimination of ground-truth depth dependence.However,the prevailing architectures in this domain suffer from inherent limitations:existing pose network branches infer camera ego-motion exclusively under static-scene and Lambertian-surface assumptions.These assumptions are often violated in real-world scenarios due to dynamic objects,non-Lambertian reflectance,and unstructured background elements,leading to pervasive artifacts such as depth discontinuities(“holes”),structural collapse,and ambiguous reconstruction.To address these challenges,we propose a novel framework that integrates scene dynamic pose estimation into the conventional self-supervised depth network,enhancing its ability to model complex scene dynamics.Our contributions are threefold:(1)a pixel-wise dynamic pose estimation module that jointly resolves the pose transformations of moving objects and localized scene perturbations;(2)a physically-informed loss function that couples dynamic pose and depth predictions,designed to mitigate depth errors arising from high-speed distant objects and geometrically inconsistent motion profiles;(3)an efficient SE(3)transformation parameterization that streamlines network complexity and temporal pre-processing.Extensive experiments on the KITTI and NYU-V2 benchmarks show that our framework achieves state-of-the-art performance in both quantitative metrics and qualitative visual fidelity,significantly improving the robustness and generalization of monocular depth estimation under dynamic conditions. 展开更多
关键词 Monocular depth estimation self-supervised learning scene dynamic pose estimation dynamic-depth constraint pixel-wise dynamic pose
在线阅读 下载PDF
Animal Pose Estimation Based on YOLO-POSE
17
作者 Binbin Zhou Lei Liu 《国际计算机前沿大会会议论文集》 2025年第1期234-246,共13页
With the development of computer vision technology,deep learning-based pose estimation and target detection have been widely used in the fields of human behavior analysis and intelligent security.However,owing to the ... With the development of computer vision technology,deep learning-based pose estimation and target detection have been widely used in the fields of human behavior analysis and intelligent security.However,owing to the complexity of animal poses and the diversity of species,the existing pose estimation methods still face many challenges when applied to animal targets.To solve this problem,an improved YOLO-Pose model is proposed to improve the accuracy and efficiency of animal pose estimation.On the basis of the original YOLO-Pose model,a separable kernel attention mechanism is introduced and improved to make it conform to the animal target,and combined with the spatial pyramid pool of YOLO-Pose,the multiscale feature fusion capability of the model is improved.The experimental results show that the improved YOLO-Pose model achieves excellent performance on both the public animal pose dataset and the AP-10K dataset,significantly improving the ability of target detection and pose estimation. 展开更多
关键词 ANIMAL pose estimation LSKA YOLO-pose
原文传递
基于改进YOLOv8n-pose的轻量化牛体尺自动测量方法 被引量:1
18
作者 陈相学 郭小燕 +1 位作者 李艳梅 刘畅 《南京农业大学学报》 北大核心 2025年第6期1464-1475,共12页
[目的]牛体尺测量是牛生长发育评估和育种选择的重要步骤。然而传统的人工测量牛体尺的方法费时费力,且容易引起牛的应激反应。为了准确高效、低成本地测量牛育种所需的体尺数据,本研究设计了一种轻量化牛体尺自动测量方法。[方法]基于... [目的]牛体尺测量是牛生长发育评估和育种选择的重要步骤。然而传统的人工测量牛体尺的方法费时费力,且容易引起牛的应激反应。为了准确高效、低成本地测量牛育种所需的体尺数据,本研究设计了一种轻量化牛体尺自动测量方法。[方法]基于牛侧面体尺数据集,提出了一种基于改进YOLOv8n-pose的关键点检测模型,在原基础上引入空间深度转换卷积(space-to-depth convolution,SPD-Conv)模块、CSPPC(cross-stage partial networks and partial convolution)模块和SPPELAN(spatial pyramid pyramid ensemble for lightweight networks)池化模块。利用改进模型自动获取牛身体的鬐甲最高点、前肢地面点、胸基点、鬐甲后缘点、腹底点、腰椎点、十字部点、肩端前缘点、坐骨结节后缘点、前肢左点和前肢右点11个关键点位置。根据坐标转换与体尺公式自动测量出体高、胸深、腹深、十字部高、尻长、体斜长和管围7项牛体尺数据。[结果]在采集的61头牛体尺数据集上进行试验,试验结果表明本文提出的改进模型测量出的牛体尺数据平均相对误差为6.2%,与原模型相比,参数量降低43.8%,计算量下降34.1%,模型尺寸降低41.3%,在保证模型精度的同时提高了轻量化程度。[结论]本研究满足了准确高效、全面与低成本的自动测量牛体尺要求,为牛选育提供了一种新的有效测量方案。 展开更多
关键词 牛体尺测量 牛选育 关键点检测 轻量化模型 YOLOv8n-pose
在线阅读 下载PDF
改进YOLOv8s-Pose多人姿态估计轻量化模型研究 被引量:3
19
作者 傅裕 高树辉 《计算机科学与探索》 北大核心 2025年第3期682-692,共11页
针对现有人体姿态估计模型计算量大、检测速度慢等问题,提出了一种基于YOLOv8s-Pose模型的轻量化改进算法。在backbone中引入轻量化模块C2f-GhostNetBottleNeckV2替换原先C2f,减少参数量,提高模型速度。引入Non_Local注意力机制捕捉并... 针对现有人体姿态估计模型计算量大、检测速度慢等问题,提出了一种基于YOLOv8s-Pose模型的轻量化改进算法。在backbone中引入轻量化模块C2f-GhostNetBottleNeckV2替换原先C2f,减少参数量,提高模型速度。引入Non_Local注意力机制捕捉并传递人体关键点位置,直接融合全面的信息,为后续的层级提供更为丰富和深入的语义信息,提升整体的信息处理深度和广度,强化特征提取的效能,减少模型轻量化后精度降低问题,再将neck层引入加权双向特征金字塔网络,通过双向融合的理念,对自顶向下和自底向上的信息流动路径进行了重新规划,确保在处理不同尺度的特征信息时达到良好的平衡,给网络增加一个小目标检测头,减少对小目标的漏检情况,将CIOU损失函数更换为Focal-EIOU损失函数,以增强对复杂场景和多目标场景下的鲁棒性。实验结果表明,改进后的实验模型参数量降低了9.3%,在COCO2017人体关键点数据集上,与原模型相比mAP@0.50提升了0.4个百分点,mAP@0.50:0.95提升了0.6个百分点。可见,所提出的轻量化改进算法在减少模型参数量的同时,提升了人体姿态估计的算法精度,尤其对小目标检测有显著改善,为实现实时准确的姿态估计提供了有效手段。 展开更多
关键词 姿态估计 YOLOv8s-pose GhostNetV2网络 加权双向特征金字塔网络 损失函数
在线阅读 下载PDF
基于YOLOv8-pose的人体姿态检测模型 被引量:3
20
作者 方晓柯 黄俊 《激光杂志》 北大核心 2025年第3期50-57,共8页
针对多人人体姿态估计场景下关节点检测丢失以及小目标无法识别等问题,提出了一种改进的YOLOv8-Pose模型。该算法的核心改进在于使用可变性卷积DCNV2替换了C2F模块中的卷积,从而增强了网络的特征提取能力。同时,使用加权双向金字塔BiFP... 针对多人人体姿态估计场景下关节点检测丢失以及小目标无法识别等问题,提出了一种改进的YOLOv8-Pose模型。该算法的核心改进在于使用可变性卷积DCNV2替换了C2F模块中的卷积,从而增强了网络的特征提取能力。同时,使用加权双向金字塔BiFPN模块替换原模型中的特征融合模块,保留小目标信息的同时,融合更多的浅层信息,以提高识别准确度。最后,为了进一步加强对关键部位的捕获和分析能力,引入了SimAM注意力机制,对局部特征进行加权处理。实验结果表明,在CrowdPose数据集上,该算法的检测精度达到了74.5%,比原模型高出了3.3%。与原YOLOv8-pose模型相比,改进后的模型不仅具有更高的检测精度,而且在小目标的识别效果上也有显著的提升。由此可见,改进后的网络能更加精确、有效地应用于多人人体姿态检测。 展开更多
关键词 姿态识别 关节点检测 YOLOv8-pose DCNV2 SimAM
原文传递
上一页 1 2 250 下一页 到第
使用帮助 返回顶部