期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
融合Transformer与卷积神经网络的图像分类算法 被引量:1
1
作者 朱灵龙 王亚刚 陈怡 《电子科技》 2025年第10期96-105,共10页
在传统图像分类网络中,卷积神经网络(Convolutional Neural Network,CNN)的卷积运算需要大量乘法和累加操作,计算成本较高。Transformer模型灵活的自注意力机制使其需要大规模数据以减少过拟合风险,导致其具有较大的参数量与计算复杂度... 在传统图像分类网络中,卷积神经网络(Convolutional Neural Network,CNN)的卷积运算需要大量乘法和累加操作,计算成本较高。Transformer模型灵活的自注意力机制使其需要大规模数据以减少过拟合风险,导致其具有较大的参数量与计算复杂度。针对上述问题,文中提出一种多阶段图像分类模型HTCNet(Hybrid Transformer-Convolution Network)。在模型的浅层阶段使用部分卷积,利用特征图冗余对部分通道进行卷积运算以减少模型的浮点运算次数(Floating Point Operations,FLOPs)。在深层阶段将卷积运算加入自注意力机制,构建一种高效的自注意力机制,有效缓解模型的过拟合风险并降低对数据的依赖性。通过自适应输入分辨率能够获取更多位置信息的卷积位置编码(Convolution Positional Encoding,CPE)。HTCNet在不同规模数据集CIFAR-10和ImageNet-1K上的分类准确率分别达到95.4%和82.6%。实验结果表明与同等规模的卷积神经网络和其他Transformer模型比较,HTCNet性能更好。 展开更多
关键词 图像分类 卷积神经网络 TRANSFORMER 自注意力机制 模型融合 htcnet 深度学习 过拟合
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部