期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
MILG:Realistic lip-sync video generation with audio-modulated image inpainting
1
作者 Han Bao Xuhong Zhang +4 位作者 Qinying Wang Kangming Liang Zonghui Wang Shouling Ji Wenzhi Chen 《Visual Informatics》 EI 2024年第3期71-81,共11页
Existing lip synchronization(lip-sync)methods generate accurately synchronized mouths and faces in a generated video.However,they still confront the problem of artifacts in regions of non-interest(RONI),e.g.,backgroun... Existing lip synchronization(lip-sync)methods generate accurately synchronized mouths and faces in a generated video.However,they still confront the problem of artifacts in regions of non-interest(RONI),e.g.,background and other parts of a face,which decreases the overall visual quality.To solve these problems,we innovatively introduce diverse image inpainting to lip-sync generation.We propose Modulated Inpainting Lip-sync GAN(MILG),an audio-constraint inpainting network to predict synchronous mouths.MILG utilizes prior knowledge of RONI and audio sequences to predict lip shape instead of image generation,which can keep the RONI consistent.Specifically,we integrate modulated spatially probabilistic diversity normalization(MSPD Norm)in our inpainting network,which helps the network generate fine-grained diverse mouth movements guided by the continuous audio features.Furthermore,to lower the training overhead,we modify the contrastive loss in lipsync to support small-batch-size and few-sample training.Extensive experiments demonstrate that our approach outperforms the existing state-of-the-art of image quality and authenticity while keeping lip-sync. 展开更多
关键词 lip-sync Image inpainting Face generation Modulated SPD normalization
原文传递
基于图像的个性化卡通系统 被引量:6
2
作者 陈洪 郑南宁 +3 位作者 梁林 李岩 徐迎庆 沈向洋 《软件学报》 EI CSCD 北大核心 2002年第9期1813-1822,共10页
介绍了一个卡通动画系统.该系统可使用户很方便地生成个性化的卡通头像,并通过简单的交互定制各种夸张而生动的表情,还可以实时生成语音驱动的卡通动画.系统主要包括3部分:基于图像的卡通自动生成模块、交互的卡通表情编辑模块和语音驱... 介绍了一个卡通动画系统.该系统可使用户很方便地生成个性化的卡通头像,并通过简单的交互定制各种夸张而生动的表情,还可以实时生成语音驱动的卡通动画.系统主要包括3部分:基于图像的卡通自动生成模块、交互的卡通表情编辑模块和语音驱动的卡通动画模块.卡通自动生成模块采用基于样本学习的方法生成具有特定艺术风格的卡通头像.这里使用了一种非参数化采样算法来学习原始照片和画像间复杂的统计关系.在此基础上,卡通表情编辑器可以通过预先设计的模板生成各种具有生动表情的卡通.同时,用户也可以定制自己的表情模板.卡通动画模块使用了实时的唇形合成算法,可以生成语音驱动的卡通动画.该系统可以使普通用户很方便地生成个性化的卡通头像和动画,在这一点上优于其他动画制作系统. 展开更多
关键词 图像 个性化卡通系统 非照片真实感绘制 非参数化采样 唇形合成动画 动画制作
在线阅读 下载PDF
基于IP的安徽省地震视频会议系统研究 被引量:3
3
作者 丁娟 潘丹 何琳 《华南地震》 2012年第1期93-98,共6页
在中国地震局与各省地震局进行视频会议连通的基础上,安徽省地震局建设了基于IP的视频会议系统,实现了安徽省地震系统内部省局与地市局及台站的异地会商和协同工作,改变了安徽省地震局传统、低效的地震会商、会议、学术交流以及联动方式... 在中国地震局与各省地震局进行视频会议连通的基础上,安徽省地震局建设了基于IP的视频会议系统,实现了安徽省地震系统内部省局与地市局及台站的异地会商和协同工作,改变了安徽省地震局传统、低效的地震会商、会议、学术交流以及联动方式,具有一定的现实意义。 展开更多
关键词 软件视频会议系统 H.323体系 回声抑制技术 唇音同步技术
在线阅读 下载PDF
数字视频对讲系统的全程唇音同步测试方法 被引量:4
4
作者 戎玲 游寒旭 《电视技术》 北大核心 2017年第6期143-146,共4页
全数字视频对讲系统音视频信号的采集、编解码等信号处理是分别进行的,信号在传输过程中将产生不同的延时,这就导致在视频通话过程中出现唇音不同步的现象。提出一种基于非介入式测量技术的全数字视频对讲系统的唇音同步测试方法,适用... 全数字视频对讲系统音视频信号的采集、编解码等信号处理是分别进行的,信号在传输过程中将产生不同的延时,这就导致在视频通话过程中出现唇音不同步的现象。提出一种基于非介入式测量技术的全数字视频对讲系统的唇音同步测试方法,适用于对音视频同步性能要求较高的实时全数字视频对讲系统,且不受通信接口、传输协议、加密通信技术等限制。 展开更多
关键词 全数字视频对讲系统 唇音同步测试 非介入式测量
在线阅读 下载PDF
论营业性演出中假唱的认定及责任免除
5
作者 余锋 《山东科技大学学报(社会科学版)》 2024年第4期57-64,共8页
认定假唱与否的关键,在于是否存在用事先录制好的歌曲代替现场演唱的行为。代替的程度不影响假唱在法律上的构成。我国的假唱法律制度含有“披露即可免除责任”的安排,对披露主体、披露方式、披露对象和披露内容等四个方面进行法律规定... 认定假唱与否的关键,在于是否存在用事先录制好的歌曲代替现场演唱的行为。代替的程度不影响假唱在法律上的构成。我国的假唱法律制度含有“披露即可免除责任”的安排,对披露主体、披露方式、披露对象和披露内容等四个方面进行法律规定上的完善,不但可以使该制度安排得到更好的运行和适用,而且可以使营业性演出相关方充分利用现代科学技术丰富演唱的表演形式和内容,这有利于行政机关针对性地提高监管实效、保障消费者的知悉真情权和自主选择权、营造繁荣健康的演出市场。 展开更多
关键词 营业性演出 假唱 半开麦 知悉真情权 自主选择权
在线阅读 下载PDF
文本驱动的情绪多样化人脸动画生成研究 被引量:1
6
作者 刘增科 殷继彬 《计算机科学》 CSCD 北大核心 2024年第S02期313-320,共8页
文中介绍了一种新型的文本驱动人脸动画合成技术,该技术通过融合情绪模型以增强面部表情的表现力。这一技术主要由两个核心部分构成:面部情感模拟和唇形与语音的一致性。首先,通过对输入文本的深度分析,识别出其中包含的情感类型及其强... 文中介绍了一种新型的文本驱动人脸动画合成技术,该技术通过融合情绪模型以增强面部表情的表现力。这一技术主要由两个核心部分构成:面部情感模拟和唇形与语音的一致性。首先,通过对输入文本的深度分析,识别出其中包含的情感类型及其强度。然后,基于这些情感信息,应用三维自由变形算法(DFFD)来生成相应的面部表情。与此同时,收集人类发音时的语音音素和唇形数据,并利用强制对齐技术,将这些数据与文本中的语音音素在时间上进行精确匹配,从而产生一系列唇部关键点的变化。随后,通过线性插值方法生成中间帧,以进一步细化唇部运动的时间序列。最后,使用DFFD算法根据这些时间序列数据合成相应的唇形动画。通过对面部情感和唇形动画进行细致的权重配比,成功实现了高度逼真的虚拟人脸表情动画。该研究不仅解决了文本驱动面部表情合成中的信息缺失问题,而且克服了表情单一和面部表情与唇形不协调的挑战,为人机交互、游戏开发、影视制作等领域提供了一种创新的应用方案。 展开更多
关键词 文本驱动动画 情绪模型 DFFD 面部动画合成 情绪强度 唇形语音一致性
在线阅读 下载PDF
基于深度学习的蒙古语AI合成主播 被引量:1
7
作者 宝音都古楞 飞龙 +2 位作者 王炜华 张晖 董林坤 《中央民族大学学报(自然科学版)》 2023年第2期31-40,共10页
目前,汉文AI合成主播已被运用于新闻内容生产和传播,为传统新闻媒体行业开辟了新的发展路径,但蒙古语AI合成主播技术的研究仍处于起步阶段。为了研发蒙古语AI合成主播系统,本文采用深度学习技术提出了基于嘴型分类的蒙古语AI合成主播模... 目前,汉文AI合成主播已被运用于新闻内容生产和传播,为传统新闻媒体行业开辟了新的发展路径,但蒙古语AI合成主播技术的研究仍处于起步阶段。为了研发蒙古语AI合成主播系统,本文采用深度学习技术提出了基于嘴型分类的蒙古语AI合成主播模型。首先采用ObamaNet模型构建了蒙古语AI合成主播基线系统,因为基线系统的时间开销大,提出了基于嘴型分类的蒙古语AI合成主播模型,此方法使用9种嘴型标签代表所有的嘴型状态,将得到的语音特征同步到不同的嘴型,根据得到的嘴型选择候选帧,得到AI主播合成视频。文章构建了蒙古语AI合成主播视频语料库,并以此为基础进行了实验比较。结果表明,文中提出的模型可以生成自然度较好的蒙古语AI合成主播视频。 展开更多
关键词 AI合成主播 蒙古语 多模态学习 嘴型同步 人脸重构
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部