针对在传统卷积神经网络(Convolutional neural networks,ConvNet)算法中由于提取的静脉特征信息不足而导致指静脉识别准确率不高的问题,提出了一种基于扩展卷积神经网络与度量学习的指静脉识别算法。该算法通过扩展卷积神经网络的宽度...针对在传统卷积神经网络(Convolutional neural networks,ConvNet)算法中由于提取的静脉特征信息不足而导致指静脉识别准确率不高的问题,提出了一种基于扩展卷积神经网络与度量学习的指静脉识别算法。该算法通过扩展卷积神经网络的宽度与深度来提高ConvNet的学习能力,并使用难样本采样三元组(Triplet hard loss with batch hard mining,TriHard)度量学习函数作为网络损失函数训练网络。此外,针对常用距离度量方法不能有效度量静脉特征之间的相似度的问题,在指静脉识别阶段采用了Wasserstein距离度量方法,以提高同源静脉间的相似度,降低异源静脉间的相似度。仿真实验结果表明:在FV-USM数据集上,指静脉识别准确率达98.33%,较使用ConvNet和常用距离度量方法准确率提高了3.56%;在MMCBNU6000数据集上,指静脉识别准确率达98.02%,较使用ConvNet和常用距离度量方法准确率提高了2.01%。展开更多
针对场景分类问题,本文提出一种基于图像局部边缘区域的EILBP(Edge Improved Local Binary Pattern)视觉特征描述结合PLSA模型场景分类方法。EILBP视觉特征通过利用局部边缘区域的梯度、方向分布与特征的局部空间分布等信息对图像进行...针对场景分类问题,本文提出一种基于图像局部边缘区域的EILBP(Edge Improved Local Binary Pattern)视觉特征描述结合PLSA模型场景分类方法。EILBP视觉特征通过利用局部边缘区域的梯度、方向分布与特征的局部空间分布等信息对图像进行充分合理地描述。首先对场景图像边缘轮廓稠密采样,得到以稠密采样点为中心的图像局部边缘区域并提取区域的EILBP特征作为视觉词汇,对视觉词汇聚类形成视觉词汇表(码本);然后,用词袋(BOW,Bag-Of-Words)模型描述图像;最后,利用PLSA模型对图像的词袋模型进行潜在语义挖掘并用判定式KNN分类器进行场景分类,得到测试图像集合的混淆矩阵。在多类场景图像上的实验表明,本文所用的方法不需要对场景内容进行人工标注,具有较高的分类准确率,且对具有边缘轮廓的图像分类精度较高。展开更多
文摘针对在传统卷积神经网络(Convolutional neural networks,ConvNet)算法中由于提取的静脉特征信息不足而导致指静脉识别准确率不高的问题,提出了一种基于扩展卷积神经网络与度量学习的指静脉识别算法。该算法通过扩展卷积神经网络的宽度与深度来提高ConvNet的学习能力,并使用难样本采样三元组(Triplet hard loss with batch hard mining,TriHard)度量学习函数作为网络损失函数训练网络。此外,针对常用距离度量方法不能有效度量静脉特征之间的相似度的问题,在指静脉识别阶段采用了Wasserstein距离度量方法,以提高同源静脉间的相似度,降低异源静脉间的相似度。仿真实验结果表明:在FV-USM数据集上,指静脉识别准确率达98.33%,较使用ConvNet和常用距离度量方法准确率提高了3.56%;在MMCBNU6000数据集上,指静脉识别准确率达98.02%,较使用ConvNet和常用距离度量方法准确率提高了2.01%。
文摘针对场景分类问题,本文提出一种基于图像局部边缘区域的EILBP(Edge Improved Local Binary Pattern)视觉特征描述结合PLSA模型场景分类方法。EILBP视觉特征通过利用局部边缘区域的梯度、方向分布与特征的局部空间分布等信息对图像进行充分合理地描述。首先对场景图像边缘轮廓稠密采样,得到以稠密采样点为中心的图像局部边缘区域并提取区域的EILBP特征作为视觉词汇,对视觉词汇聚类形成视觉词汇表(码本);然后,用词袋(BOW,Bag-Of-Words)模型描述图像;最后,利用PLSA模型对图像的词袋模型进行潜在语义挖掘并用判定式KNN分类器进行场景分类,得到测试图像集合的混淆矩阵。在多类场景图像上的实验表明,本文所用的方法不需要对场景内容进行人工标注,具有较高的分类准确率,且对具有边缘轮廓的图像分类精度较高。