期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
Audio2AB:Audio-driven collaborative generation of virtual character animation
1
作者 Lichao NIU Wenjun XIE +2 位作者 Dong WANG Zhongrui CAO Xiaoping LIU 《虚拟现实与智能硬件(中英文)》 EI 2024年第1期56-70,共15页
Background Considerable research has been conducted in the areas of audio-driven virtual character gestures and facial animation with some degree of success.However,few methods exist for generating full-body animation... Background Considerable research has been conducted in the areas of audio-driven virtual character gestures and facial animation with some degree of success.However,few methods exist for generating full-body animations,and the portability of virtual character gestures and facial animations has not received sufficient attention.Methods Therefore,we propose a deep-learning-based audio-to-animation-and-blendshape(Audio2AB)network that generates gesture animations and ARK it's 52 facial expression parameter blendshape weights based on audio,audio-corresponding text,emotion labels,and semantic relevance labels to generate parametric data for full-body animations.This parameterization method can be used to drive full-body animations of virtual characters and improve their portability.In the experiment,we first downsampled the gesture and facial data to achieve the same temporal resolution for the input,output,and facial data.The Audio2AB network then encoded the audio,audio-corresponding text,emotion labels,and semantic relevance labels,and then fused the text,emotion labels,and semantic relevance labels into the audio to obtain better audio features.Finally,we established links between the body,gestures,and facial decoders and generated the corresponding animation sequences through our proposed GAN-GF loss function.Results By using audio,audio-corresponding text,and emotional and semantic relevance labels as input,the trained Audio2AB network could generate gesture animation data containing blendshape weights.Therefore,different 3D virtual character animations could be created through parameterization.Conclusions The experimental results showed that the proposed method could generate significant gestures and facial animations. 展开更多
关键词 Audio-driven Virtual character Full-body animation Audio2AB blendshape GAN-GF
在线阅读 下载PDF
面向普通用户的3D虚拟人脸动画 被引量:2
2
作者 罗常伟 江辰 +2 位作者 李睿 於俊 汪增福 《计算机辅助设计与图形学学报》 EI CSCD 北大核心 2015年第3期492-498,共7页
为合成真实感人脸动画,提出一种实时的基于单摄像头的3D虚拟人脸动画方法.首先根据用户的单张正面人脸图像重建用户的3D人脸模型,并基于该人脸模型合成姿态、光照和表情变化的人脸图像,利用这些图像训练特定用户的局部纹理模型;然后使... 为合成真实感人脸动画,提出一种实时的基于单摄像头的3D虚拟人脸动画方法.首先根据用户的单张正面人脸图像重建用户的3D人脸模型,并基于该人脸模型合成姿态、光照和表情变化的人脸图像,利用这些图像训练特定用户的局部纹理模型;然后使用摄像头拍摄人脸视频,利用特定用户的局部纹理模型跟踪人脸特征点;最后由跟踪结果和3D关键形状估计Blendshape系数,通过Blendshape模型合成的人脸动画.实验结果表明,该方法能实时合成真实感3D人脸动画,且只需要一个普通的摄像头,非常适合普通用户使用. 展开更多
关键词 人脸动画 人脸特征点跟踪 blendshape模型 表演驱动
在线阅读 下载PDF
利用几何度量的无监督实时面部动画生成算法 被引量:1
3
作者 姜那 刘少龙 +1 位作者 石峰 周忠 《计算机学报》 EI CSCD 北大核心 2017年第11期2478-2491,共14页
目前面部表情动画生成算法普遍具有捕捉设备昂贵、依赖用户表情数据预采集、需要用户具备专业知识等缺点,因此很难在普通用户中进行推广.针对这些不足,文中选择价格适中、操作简单的Kinect作为采集设备,提出了一种无须预处理的面部表情... 目前面部表情动画生成算法普遍具有捕捉设备昂贵、依赖用户表情数据预采集、需要用户具备专业知识等缺点,因此很难在普通用户中进行推广.针对这些不足,文中选择价格适中、操作简单的Kinect作为采集设备,提出了一种无须预处理的面部表情捕捉算法.首先从捕获的面部表情数据中提取面部特征点,利用几何度量建立低层面部特征点与高层表情语义之间的联系,根据权重和补偿策略建立几何度量样本集.然后采用无监督的方式自动分析样本分布,推测各表情单元的变化区间,实现表情参数的实时提取.最后利用表情参数驱动离线生成的通用表情基,生成能反映用户情绪的面部动画.在表情基生成过程中,首次引入控制点影响区域的概念来约束拉普拉斯变形算法,以提高通用Blendshape表情基的精度.实验结果表明,该方法简单易行,无需对每名用户进行表情数据预采集,即可在多人同时出现、部分遮挡等情况下实时、鲁棒地生成与用户近似的面部动画.主观评价中,该方法被证明具备优秀的采集灵活度、方便使用、实时性能良好,在普通用户中更具备推广价值. 展开更多
关键词 KINECT 人脸跟踪 blendshape模型 表情动画 表演驱动
在线阅读 下载PDF
基于样例的面部表情基生成
4
作者 高娅莉 谭光华 +1 位作者 郭松睿 范晓伟 《计算机工程》 CAS CSCD 北大核心 2015年第3期258-261,共4页
针对现有blendshape表情基的生成多依赖手工建模和微调的问题,提出一种基于样例的表情基自动生成方法。以一组通用的面部模型为先验模型,实现每个blendshape的表情语义逐步求精。通过该方法生成的blendshape表情基能够将通用模型的表情... 针对现有blendshape表情基的生成多依赖手工建模和微调的问题,提出一种基于样例的表情基自动生成方法。以一组通用的面部模型为先验模型,实现每个blendshape的表情语义逐步求精。通过该方法生成的blendshape表情基能够将通用模型的表情语义和表情动态映射到目标模型上,从而实现模型在应用上的可扩展性,使用户能够按照自身需求逐步计算出更为丰富的面部表情模型。实验结果表明,在梯度空间建立形变约束,并将其转化为一个关于blendshape的优化问题,能更加有效地控制blendshape表情基的变化趋势,并且计算时间更短,真实感更强。 展开更多
关键词 blendshape表情基 基于样例 迭代优化 梯度空间 真实感 表情动画
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部