期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Wav2Vec2.0特征融合与联合损失的深度伪造语音检测方法
被引量:
1
1
作者
陈飞飞
郭海燕
+2 位作者
郭延民
葛子瑞
陆华庆
《信号处理》
北大核心
2025年第9期1547-1557,共11页
语音预训练模型Wav2Vec2.0能够通过多个隐藏层提取丰富的多层嵌入特征,在深度伪造语音检测任务中表现出良好的性能。将Wav2Vec2.0各层特征进行融合,是进一步挖掘语音数据深层次表示的有效途径,而改进Wav2Vec2.0各层特征的融合方式则有...
语音预训练模型Wav2Vec2.0能够通过多个隐藏层提取丰富的多层嵌入特征,在深度伪造语音检测任务中表现出良好的性能。将Wav2Vec2.0各层特征进行融合,是进一步挖掘语音数据深层次表示的有效途径,而改进Wav2Vec2.0各层特征的融合方式则有望进一步提升深度伪造语音检测性能。鉴于此,本文基于Wav2Vec2.0深度伪造语音检测架构,提出引入卷积注意力模块(Convolutional Block Attention Module,CBAM)对Wav2Vec2.0各层嵌入特征进行融合,通过结合通道注意力和空间注意力的加权融合方式来自适应地增强关键特征,有效提升模型的特征提取能力。在此基础上,考虑到伪造语音类型复杂多样,不同类型的伪造语音在鉴别难度上可能存在显著差异,为避免模型在处理难鉴别样本时存在的偏倚,同时使得类内特征分布紧凑、类间特征分布疏远。本文提出联合交叉熵损失、中心损失和焦点损失,构造模型的整体损失函数,充分利用各类损失的优势来增强模型在多种伪造语音场景下的判别能力和泛化性能。在ASVspoof 2019 LA、ASVspoof 2021 LA、ASVspoof 2021 DF和CFAD数据集上的实验结果表明,所提出的方法在常用评价指标等错误率(equal error rate,EER)和最小串联检测代价函数(minimum tandem detection cost function,min t-DCF)均表现出色。尤其是在ASVspoof 2021 LA数据集上,相较于AASIST、ECAPA-TDNN、ResNet,以及采用Wav2Vec2.0进行前端特征提取的多种对比方案,本文方法显著优于所有对比方法。
展开更多
关键词
深度伪造语音
检测
Wav2Vec2.0
特征融合
联合损失
在线阅读
下载PDF
职称材料
融合通道-时间注意力和深度可分离卷积的欺骗语音检测
2
作者
冯嘉琪
王华朋
刘天赐
《科学技术与工程》
北大核心
2025年第22期9427-9435,共9页
自动说话人验证系统在应对日益逼真的深度伪造语音时,面临显著的欺骗攻击威胁。现有基于卷积神经网络的反欺骗模型在捕捉全局特征与应对未知类型语音伪造的泛化性能方面存在不足。为提升反欺骗检测效果,提出了一种融合通道-时间注意力...
自动说话人验证系统在应对日益逼真的深度伪造语音时,面临显著的欺骗攻击威胁。现有基于卷积神经网络的反欺骗模型在捕捉全局特征与应对未知类型语音伪造的泛化性能方面存在不足。为提升反欺骗检测效果,提出了一种融合通道-时间注意力机制与深度可分离卷积的网络模型CT-DSCNet。该模型在RawNet2基础上引入通道-时间注意力模块,增强对重要语音特征的关注,减少无关区域的干扰;同时采用深度可分离卷积残差块,优化计算效率与模型实时性。实验在AS-Vspoof2019、ASVspoof2021和FMFCC-A数据集上进行,结果显示CT-DSCNet在ASVspoof2019 LA测试集上的等错误率(equal error rate,EER)达到1.53%,较基线模型降低70.58%。在泛化能力方面相较其他模型也表现出色,在FMFCC-A评估集上的EER,较改进前模型相比提高了25.35%。实验验证了该方法在提升伪造语音检测性能和跨数据集适应性方面的有效性。
展开更多
关键词
深度伪造语音
注意力机制
深度
可分离卷积
语音
反欺骗
在线阅读
下载PDF
职称材料
语音深度伪造及其检测技术研究进展
被引量:
7
3
作者
许裕雄
李斌
+1 位作者
谭舜泉
黄继武
《中国图象图形学报》
CSCD
北大核心
2024年第8期2236-2268,共33页
语音深度伪造技术是利用深度学习方法进行合成或生成语音的技术。人工智能生成内容技术的快速迭代与优化,推动了语音深度伪造技术在伪造语音的自然度、逼真度和多样性等方面取得显著提升,同时也使得语音深度伪造检测技术面临着巨大挑战...
语音深度伪造技术是利用深度学习方法进行合成或生成语音的技术。人工智能生成内容技术的快速迭代与优化,推动了语音深度伪造技术在伪造语音的自然度、逼真度和多样性等方面取得显著提升,同时也使得语音深度伪造检测技术面临着巨大挑战。本文对语音深度伪造及其检测技术的研究进展进行全面梳理回顾。首先,介绍以语音合成(speech synthesis,SS)和语音转换(voice conversion,VC)为代表的伪造技术。然后,介绍语音深度伪造检测领域的常用数据集和相关评价指标。在此基础上,从数据增强、特征提取和优化以及学习机制等处理流程的角度对现有的语音深度伪造检测技术进行分类与深入分析。具体而言,从语音加噪、掩码增强、信道增强和压缩增强等数据增强的角度来分析不同增强方式对伪造检测技术性能的影响,从基于手工特征的伪造检测、基于混合特征的伪造检测、基于端到端的伪造检测和基于特征融合的伪造检测等特征提取和优化的角度对比分析各类方法的优缺点,从自监督学习、对抗训练和多任务学习等学习机制的角度对伪造检测技术的训练方式进行探讨。最后,总结分析语音深度伪造检测技术存在的挑战性问题,并对未来研究进行展望。本文汇总的相关数据集和代码可在https://github.com/media-sec-lab/Audio-Deepfake-Detection访问。
展开更多
关键词
语音
深度
伪造
语音
深度
伪造
检测
语音
合成(SS)
语音
转换(VC)
人工智能生成内容(AIGC)
自监督学习
对抗训练
原文传递
题名
基于Wav2Vec2.0特征融合与联合损失的深度伪造语音检测方法
被引量:
1
1
作者
陈飞飞
郭海燕
郭延民
葛子瑞
陆华庆
机构
南京邮电大学通信与信息工程学院
出处
《信号处理》
北大核心
2025年第9期1547-1557,共11页
基金
国家自然科学基金(62071242)。
文摘
语音预训练模型Wav2Vec2.0能够通过多个隐藏层提取丰富的多层嵌入特征,在深度伪造语音检测任务中表现出良好的性能。将Wav2Vec2.0各层特征进行融合,是进一步挖掘语音数据深层次表示的有效途径,而改进Wav2Vec2.0各层特征的融合方式则有望进一步提升深度伪造语音检测性能。鉴于此,本文基于Wav2Vec2.0深度伪造语音检测架构,提出引入卷积注意力模块(Convolutional Block Attention Module,CBAM)对Wav2Vec2.0各层嵌入特征进行融合,通过结合通道注意力和空间注意力的加权融合方式来自适应地增强关键特征,有效提升模型的特征提取能力。在此基础上,考虑到伪造语音类型复杂多样,不同类型的伪造语音在鉴别难度上可能存在显著差异,为避免模型在处理难鉴别样本时存在的偏倚,同时使得类内特征分布紧凑、类间特征分布疏远。本文提出联合交叉熵损失、中心损失和焦点损失,构造模型的整体损失函数,充分利用各类损失的优势来增强模型在多种伪造语音场景下的判别能力和泛化性能。在ASVspoof 2019 LA、ASVspoof 2021 LA、ASVspoof 2021 DF和CFAD数据集上的实验结果表明,所提出的方法在常用评价指标等错误率(equal error rate,EER)和最小串联检测代价函数(minimum tandem detection cost function,min t-DCF)均表现出色。尤其是在ASVspoof 2021 LA数据集上,相较于AASIST、ECAPA-TDNN、ResNet,以及采用Wav2Vec2.0进行前端特征提取的多种对比方案,本文方法显著优于所有对比方法。
关键词
深度伪造语音
检测
Wav2Vec2.0
特征融合
联合损失
Keywords
deepfake speech detection
Wav2Vec2.0
feature merging
joint loss
分类号
TN912.3 [电子电信—通信与信息系统]
在线阅读
下载PDF
职称材料
题名
融合通道-时间注意力和深度可分离卷积的欺骗语音检测
2
作者
冯嘉琪
王华朋
刘天赐
机构
中国刑事警察学院公安信息技术与情报学院
出处
《科学技术与工程》
北大核心
2025年第22期9427-9435,共9页
基金
国家重点研发计划(2017YFC0821000)
司法部司法鉴定重点实验室(司法鉴定科学研究院,KF202117)
中国刑事警察学院研究生创新能力提升项目(2024YCZD05)。
文摘
自动说话人验证系统在应对日益逼真的深度伪造语音时,面临显著的欺骗攻击威胁。现有基于卷积神经网络的反欺骗模型在捕捉全局特征与应对未知类型语音伪造的泛化性能方面存在不足。为提升反欺骗检测效果,提出了一种融合通道-时间注意力机制与深度可分离卷积的网络模型CT-DSCNet。该模型在RawNet2基础上引入通道-时间注意力模块,增强对重要语音特征的关注,减少无关区域的干扰;同时采用深度可分离卷积残差块,优化计算效率与模型实时性。实验在AS-Vspoof2019、ASVspoof2021和FMFCC-A数据集上进行,结果显示CT-DSCNet在ASVspoof2019 LA测试集上的等错误率(equal error rate,EER)达到1.53%,较基线模型降低70.58%。在泛化能力方面相较其他模型也表现出色,在FMFCC-A评估集上的EER,较改进前模型相比提高了25.35%。实验验证了该方法在提升伪造语音检测性能和跨数据集适应性方面的有效性。
关键词
深度伪造语音
注意力机制
深度
可分离卷积
语音
反欺骗
Keywords
deepfake speech
attention mechanism
depthwise separable convolution
speech anti-spoofing
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
语音深度伪造及其检测技术研究进展
被引量:
7
3
作者
许裕雄
李斌
谭舜泉
黄继武
机构
广东省智能信息处理重点实验室
深圳市媒体信息内容安全重点实验室
深圳大学电子与信息工程学院
深圳大学计算机与软件学院
出处
《中国图象图形学报》
CSCD
北大核心
2024年第8期2236-2268,共33页
基金
国家自然科学基金项目(U23B2022,U22B2047,62272314)
广东省基础与应用基础研究基金项目(2019B151502001)
+1 种基金
深圳市基础研究重点项目(JCYJ20200109105008228)
亚马逊云科技——2022教育部就业育人项目(20221128)。
文摘
语音深度伪造技术是利用深度学习方法进行合成或生成语音的技术。人工智能生成内容技术的快速迭代与优化,推动了语音深度伪造技术在伪造语音的自然度、逼真度和多样性等方面取得显著提升,同时也使得语音深度伪造检测技术面临着巨大挑战。本文对语音深度伪造及其检测技术的研究进展进行全面梳理回顾。首先,介绍以语音合成(speech synthesis,SS)和语音转换(voice conversion,VC)为代表的伪造技术。然后,介绍语音深度伪造检测领域的常用数据集和相关评价指标。在此基础上,从数据增强、特征提取和优化以及学习机制等处理流程的角度对现有的语音深度伪造检测技术进行分类与深入分析。具体而言,从语音加噪、掩码增强、信道增强和压缩增强等数据增强的角度来分析不同增强方式对伪造检测技术性能的影响,从基于手工特征的伪造检测、基于混合特征的伪造检测、基于端到端的伪造检测和基于特征融合的伪造检测等特征提取和优化的角度对比分析各类方法的优缺点,从自监督学习、对抗训练和多任务学习等学习机制的角度对伪造检测技术的训练方式进行探讨。最后,总结分析语音深度伪造检测技术存在的挑战性问题,并对未来研究进行展望。本文汇总的相关数据集和代码可在https://github.com/media-sec-lab/Audio-Deepfake-Detection访问。
关键词
语音
深度
伪造
语音
深度
伪造
检测
语音
合成(SS)
语音
转换(VC)
人工智能生成内容(AIGC)
自监督学习
对抗训练
Keywords
speech deepfake
speech deepfake detection
speech synthesis(SS)
voice conversion(VC)
artificial intelligence-generated content(AIGC)
self-supervised learning
adversarial training
分类号
TN912 [电子电信—通信与信息系统]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于Wav2Vec2.0特征融合与联合损失的深度伪造语音检测方法
陈飞飞
郭海燕
郭延民
葛子瑞
陆华庆
《信号处理》
北大核心
2025
1
在线阅读
下载PDF
职称材料
2
融合通道-时间注意力和深度可分离卷积的欺骗语音检测
冯嘉琪
王华朋
刘天赐
《科学技术与工程》
北大核心
2025
0
在线阅读
下载PDF
职称材料
3
语音深度伪造及其检测技术研究进展
许裕雄
李斌
谭舜泉
黄继武
《中国图象图形学报》
CSCD
北大核心
2024
7
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部