期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
角度余量损失和中心损失联合的深度人脸识别 被引量:2
1
作者 李振东 钟勇 +1 位作者 陈蔓 王理顺 《计算机应用》 CSCD 北大核心 2019年第S02期55-58,共4页
针对当前人脸识别任务和人脸验证任务所面临的人脸识别准确率低、验证有误等安全隐患问题,为进一步增强深度特征的判别能力,提出了一种联合监督信号。首先,将角度余量损失和中心损失联合的损失函数用于人脸识别和人脸验证任务,实现最小... 针对当前人脸识别任务和人脸验证任务所面临的人脸识别准确率低、验证有误等安全隐患问题,为进一步增强深度特征的判别能力,提出了一种联合监督信号。首先,将角度余量损失和中心损失联合的损失函数用于人脸识别和人脸验证任务,实现最小化类内的变化以及最大化类之间的距离,这种深度特征之间的最小化和最大化可以达到人脸面部识别任务的理想选择。所提方法结合深度卷积神经网络在VGGFace2人脸数据集上对网络模型进行训练并在明星人脸数据集(CFS)和LFW人脸数据集上进一步微调网络模型进行人脸识别验证。实验结果表明,所提出的损失函数与传统的Softmax损失函数相比能够正确识别不同的人脸图像,而且进一步实现了不同类别之间的面部特征的最大可分离性。 展开更多
关键词 人脸识别 深度学习 卷积神经网络 角度余量损失 中心损失
在线阅读 下载PDF
应用AAM损失函数的无文本说话人识别 被引量:3
2
作者 肖金壮 李瑞鹏 纪盟盟 《激光杂志》 CAS 北大核心 2021年第11期87-91,共5页
针对无文本说话人识别存在短语音提取特征困难和模型训练效率不高的问题,提出利用附加角裕度的损失函数(Additive angular margin loss,AAM-Softmax)可以在特征表达的角度空间中最大化分类界限的优势,同时结合为提高网络训练效率和稳定... 针对无文本说话人识别存在短语音提取特征困难和模型训练效率不高的问题,提出利用附加角裕度的损失函数(Additive angular margin loss,AAM-Softmax)可以在特征表达的角度空间中最大化分类界限的优势,同时结合为提高网络训练效率和稳定性而改进的残差网络ResNet,来获得更具辨别性的嵌入特征,最终达到提升端到端短语音无文本说话人识别模型的性能。实验表明,在说话人辨认任务中Top-1和Top-5的准确度分别达到90.1%和97.8%,说话人确认任务中的等错误率(EER)降低到3.8%,与基于VoxCeleb1数据集的已有成果相比,三种指标的性能皆有明显提升,证明了所提方法的有效性。 展开更多
关键词 附加角裕度损失函数 说话人识别 无文本语音 深度学习 端到端
原文传递
基于虚拟教师蒸馏模型的说话人确认方法 被引量:1
3
作者 肖金壮 李瑞鹏 纪盟盟 《计算机工程与应用》 CSCD 北大核心 2022年第8期198-203,共6页
无文本说话人确认模型通过复杂的网络结构和多变的特征提取方式来获得必要的性能,然而这会产生巨大的内存消耗和递增的计算成本,导致模型难以在资源有限的硬件设施上部署。针对该问题,利用虚拟教师蒸馏模型(teacher-free knowledge dist... 无文本说话人确认模型通过复杂的网络结构和多变的特征提取方式来获得必要的性能,然而这会产生巨大的内存消耗和递增的计算成本,导致模型难以在资源有限的硬件设施上部署。针对该问题,利用虚拟教师蒸馏模型(teacher-free knowledge distillation,Tf-KD)可以带来百分之百的分类正确率、平滑的输出概率分布的优势,在轻量级残差网络的基础上构建虚拟教师说话人确认模型(teacher-free speaker verification model,Tf-SV)。同时引入空间共享而通道分离的动态激活函数和附加角裕度损失函数,使所提模型在特征表达、训练效率以及模型压缩后性能等方面的水平得到极大提升,最终达到无文本说话人确认模型能够在存储或者计算资源有限设备上部署的目的。基于VoxCeleb1数据集的实验表明,虚拟教师说话人确认模型的等错误率(EER)降低到3.4%。与已有成果相比,指标有明显提升,证明了在说话人确认任务上所提压缩模型的有效性。 展开更多
关键词 虚拟教师知识蒸馏 动态激活函数 附加角裕度损失函数 模型压缩 说话人确认
在线阅读 下载PDF
基于分层注意力特征融合的说话人识别 被引量:1
4
作者 赵宏 高楠 +1 位作者 王伟杰 杨昌东 《计算机工程与设计》 北大核心 2024年第11期3413-3419,共7页
为缓解现有说话人识别模型提取的说话人特征可靠性不强,融合特征时不同尺度特征关联性不高的问题,研究一种基于分层注意力特征融合网络(hierarchical attention feature fusion network,HAFF-Net)的说话人识别算法。利用卷积和池化操作... 为缓解现有说话人识别模型提取的说话人特征可靠性不强,融合特征时不同尺度特征关联性不高的问题,研究一种基于分层注意力特征融合网络(hierarchical attention feature fusion network,HAFF-Net)的说话人识别算法。利用卷积和池化操作对经过预处理的语音特征进行下采样,降低特征的维度;将提取的特征输入到分层注意力特征融合模块(hiera-rchical attention feature fusion block,HAFFB)中,利用平均协调注意力(mean coordinate attention,MCA)增强说话人特征的可靠性,利用注意力特征融合模块(attention feature fusion,AFF)捕获多尺度互补特征;采用统计池化和全连接层提取说话人的嵌入特征,应用附加角裕度损失函数(AAM-Softmax)端到端优化模型。研究结果表明,所提算法可以有效增强特征表达的可靠性,成功捕获了多尺度特征之间的差异,提高了说话人识别的性能。 展开更多
关键词 说话人识别 分层注意力 平均协调注意力 注意力特征融合 多尺度特征 附加角裕度损失函数 端到端
在线阅读 下载PDF
基于注意力和角度间隔损失的高光谱目标跟踪 被引量:4
5
作者 施宗晗 赵海涛 《应用光学》 CAS CSCD 北大核心 2022年第5期893-903,共11页
随着计算机技术的发展,基于深度学习的目标跟踪方法已成为计算机视觉领域中重要的研究方向;但跟踪环境的复杂多变使得跟踪算法在背景干扰、颜色相近等问题上仍面临巨大挑战。相比于传统彩色图像,高光谱图像包含丰富的辐射、空间和光谱信... 随着计算机技术的发展,基于深度学习的目标跟踪方法已成为计算机视觉领域中重要的研究方向;但跟踪环境的复杂多变使得跟踪算法在背景干扰、颜色相近等问题上仍面临巨大挑战。相比于传统彩色图像,高光谱图像包含丰富的辐射、空间和光谱信息,能够有效提升目标跟踪的准确率。提出了将注意力机制(attention mechanism)和加性角度间隔损失(additive angular margin loss, AAML)相结合的方法来进行针对高光谱图像的目标跟踪。通过融合多域神经网络对不同波段组合进行特征提取,同时设计了融合的注意力机制模型,使得来自不同波段组合之间的相似特征进行整合和强化,在目标背景颜色相近的情况下,网络会更多地注意目标物体,使得跟踪结果更为准确。在此基础上为了使目标和背景的区分更具有判别性,网络使用加性角度间隔损失作为损失函数,在训练过程中可以有效减小同类样本的类内距离,增大正负类样本的类间距离,从而提高网络的准确性和稳定性。实验结果表明,本文方法可使两种跟踪精度评价指标精确率和成功率分别提升1.3%和0.3%,相较于其他方法更具优势。 展开更多
关键词 目标跟踪 高光谱图像 注意力机制 图像融合 加性角度间隔损失
在线阅读 下载PDF
增量角度域损失和多特征融合的地标识别 被引量:4
6
作者 毛雪宇 彭艳兵 《中国图象图形学报》 CSCD 北大核心 2020年第8期1567-1577,共11页
目的地标识别是图像和视觉领域一个应用问题,针对地标识别中全局特征对视角变化敏感和局部特征对光线变化敏感等单一特征所存在的问题,提出一种基于增量角度域损失(additive angular margin loss,ArcFace损失)并对多种特征进行融合的弱... 目的地标识别是图像和视觉领域一个应用问题,针对地标识别中全局特征对视角变化敏感和局部特征对光线变化敏感等单一特征所存在的问题,提出一种基于增量角度域损失(additive angular margin loss,ArcFace损失)并对多种特征进行融合的弱监督地标识别模型。方法使用图像检索取Top-1的方法来完成识别任务。首先证明了ArcFace损失参数选取的范围,并于模型训练时使用该范围作为参数选取的依据,接着使用一种有效融合局部特征与全局特征的方法来获取图像特征以用于检索。其中,模型训练过程分为两步,第1步是在谷歌地标数据集上使用ArcFace损失函数微调ImageNet预训练模型权重,第2步是增加注意力机制并训练注意力网络。推理过程分为3个部分:抽取全局特征、获取局部特征和特征融合。具体而言,对输入的查询图像,首先从微调卷积神经网络的特征嵌入层提取全局特征;然后在网络中间层使用注意力机制提取局部特征;最后将两种特征向量横向拼接并用图像检索的方法给出数据库中与当前查询图像最相似的结果。结果实验结果表明,在巴黎、牛津建筑数据集上,特征融合方法可以使浅层网络达到深层预训练网络的效果,融合特征相比于全局特征(mean average precision,mAP)值提升约1%。实验还表明在神经网络嵌入特征上无需再加入特征白化过程。最后在城市级街景图像中本文模型也取得了较为满意的效果。结论本模型使用ArcFace损失进行训练且使多种特征相似性结果进行有效互补,提升了模型在实际应用场景中的抗干扰能力。 展开更多
关键词 地标识别 增量角度域损失函数 注意力机制 多特征融合 卷积神经网络(CNN)
原文传递
融合Transformer和CNN的手掌静脉识别网络 被引量:3
7
作者 吴凯 沈文忠 +1 位作者 贾丁丁 梁娟 《计算机工程与应用》 CSCD 北大核心 2023年第24期98-109,共12页
针对手掌静脉特征提取识别精度不高问题,提出了掌静脉识别网络PVCodeNet。该网络设计了改进的BasicBlock和Transformer Encoder模块结合并运用扩大决策边界的损失函数AAM-Loss(additive angular margin loss)。该网络首次将Transformer ... 针对手掌静脉特征提取识别精度不高问题,提出了掌静脉识别网络PVCodeNet。该网络设计了改进的BasicBlock和Transformer Encoder模块结合并运用扩大决策边界的损失函数AAM-Loss(additive angular margin loss)。该网络首次将Transformer Encoder模块成功用于掌静脉图像全局特征提取,改进的BasicBlock使用深度超参数化卷积Do-Conv取代传统卷积Conv进行特征提取使提取的特征更加具有区分性,该模块还加入规一化的注意力机制NAM模块,通过应用权重稀疏性惩罚项抑制不显著性特征的权值来提取图像在通道和空间域上重要的细节特征。在手掌关键点定位、ROI提取、图像增强方面作了详细描述,在特征向量维度、AAM-Loss参数设置方面做了详细实验,在PolyU数据库和自建库SEPAD-PV数据库上进行消融实验测试,EER均达到了0,成功实现了最高识别率的突破。为了验证该网络的泛化性能,还在具有相似纹理特征的掌纹数据库Tongji和指静脉数据库SDUMLA上进行验证,EER远远优于其他主流算法,充分证明了提出算法的优越性。 展开更多
关键词 手掌静脉识别 Transformer编码模块 深度超参数化卷积(Do-Conv) 规一化注意力机制(NAM) 扩大决策边界的损失函数(AAM-loss)
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部