期刊文献+
共找到1,030篇文章
< 1 2 52 >
每页显示 20 50 100
Video Frame Prediction by Joint Optimization of Direct Frame Synthesis and Optical-Flow Estimation
1
作者 Navin Ranjan Sovit Bhandari +1 位作者 Yeong-Chan Kim Hoon Kim 《Computers, Materials & Continua》 SCIE EI 2023年第5期2615-2639,共25页
Video prediction is the problem of generating future frames by exploiting the spatiotemporal correlation from the past frame sequence.It is one of the crucial issues in computer vision and has many real-world applicat... Video prediction is the problem of generating future frames by exploiting the spatiotemporal correlation from the past frame sequence.It is one of the crucial issues in computer vision and has many real-world applications,mainly focused on predicting future scenarios to avoid undesirable outcomes.However,modeling future image content and object is challenging due to the dynamic evolution and complexity of the scene,such as occlusions,camera movements,delay and illumination.Direct frame synthesis or optical-flow estimation are common approaches used by researchers.However,researchers mainly focused on video prediction using one of the approaches.Both methods have limitations,such as direct frame synthesis,usually face blurry prediction due to complex pixel distributions in the scene,and optical-flow estimation,usually produce artifacts due to large object displacements or obstructions in the clip.In this paper,we constructed a deep neural network Frame Prediction Network(FPNet-OF)with multiplebranch inputs(optical flow and original frame)to predict the future video frame by adaptively fusing the future object-motion with the future frame generator.The key idea is to jointly optimize direct RGB frame synthesis and dense optical flow estimation to generate a superior video prediction network.Using various real-world datasets,we experimentally verify that our proposed framework can produce high-level video frame compared to other state-ofthe-art framework. 展开更多
关键词 video frame prediction multi-step prediction optical-flow prediction DELAY deep learning
在线阅读 下载PDF
Real-Time Mosaic Method of Aerial Video Based on Two-Stage Key Frame Selection Method
2
作者 Minwen Yuan Yonghong Long Xin Li 《Open Journal of Applied Sciences》 2024年第4期1008-1021,共14页
A two-stage automatic key frame selection method is proposed to enhance stitching speed and quality for UAV aerial videos. In the first stage, to reduce redundancy, the overlapping rate of the UAV aerial video sequenc... A two-stage automatic key frame selection method is proposed to enhance stitching speed and quality for UAV aerial videos. In the first stage, to reduce redundancy, the overlapping rate of the UAV aerial video sequence within the sampling period is calculated. Lagrange interpolation is used to fit the overlapping rate curve of the sequence. An empirical threshold for the overlapping rate is then applied to filter candidate key frames from the sequence. In the second stage, the principle of minimizing remapping spots is used to dynamically adjust and determine the final key frame close to the candidate key frames. Comparative experiments show that the proposed method significantly improves stitching speed and accuracy by more than 40%. 展开更多
关键词 UAV Aerial video Image Stiching Key frame Selection Overlapping Rate Remap Error
在线阅读 下载PDF
Flow-aware synthesis: A generic motion model for video frame interpolation
3
作者 Jinbo Xing Wenbo Hu +1 位作者 Yuechen Zhang Tien-Tsin Wong 《Computational Visual Media》 EI CSCD 2021年第3期393-405,共13页
A popular and challenging task in video research,frame interpolation aims to increase the frame rate of video.Most existing methods employ a fixed motion model,e.g.,linear,quadratic,or cubic,to estimate the intermedia... A popular and challenging task in video research,frame interpolation aims to increase the frame rate of video.Most existing methods employ a fixed motion model,e.g.,linear,quadratic,or cubic,to estimate the intermediate warping field.However,such fixed motion models cannot well represent the complicated non-linear motions in the real world or rendered animations.Instead,we present an adaptive flow prediction module to better approximate the complex motions in video.Furthermore,interpolating just one intermediate frame between consecutive input frames may be insufficient for complicated non-linear motions.To enable multi-frame interpolation,we introduce the time as a control variable when interpolating frames between original ones in our generic adaptive flow prediction module.Qualitative and quantitative experimental results show that our method can produce high-quality results and outperforms the existing stateof-the-art methods on popular public datasets. 展开更多
关键词 flow-aware generic motion model video frame interpolation
原文传递
Rate-distortion optimized frame dropping and scheduling for multi-user conversational and streaming video 被引量:1
4
作者 CHAKARESKI Jacob STEINBACH Eckehard 《Journal of Zhejiang University-Science A(Applied Physics & Engineering)》 SCIE EI CAS CSCD 2006年第5期864-872,共9页
We propose a Rate-Distortion (RD) optimized strategy for frame-dropping and scheduling of multi-user conversa- tional and streaming videos. We consider a scenario where conversational and streaming videos share the fo... We propose a Rate-Distortion (RD) optimized strategy for frame-dropping and scheduling of multi-user conversa- tional and streaming videos. We consider a scenario where conversational and streaming videos share the forwarding resources at a network node. Two buffers are setup on the node to temporarily store the packets for these two types of video applications. For streaming video, a big buffer is used as the associated delay constraint of the application is moderate and a very small buffer is used for conversational video to ensure that the forwarding delay of every packet is limited. A scheduler is located behind these two buffers that dynamically assigns transmission slots on the outgoing link to the two buffers. Rate-distortion side information is used to perform RD-optimized frame dropping in case of node overload. Sharing the data rate on the outgoing link between the con- versational and the streaming videos is done either based on the fullness of the two associated buffers or on the mean incoming rates of the respective videos. Simulation results showed that our proposed RD-optimized frame dropping and scheduling ap- proach provides significant improvements in performance over the popular priority-based random dropping (PRD) technique. 展开更多
关键词 RATE-DISTORTION optimization video frame dropping CONVERSATIONAL video Streaming video Distortion matrix Hinttracks Scheduling Resource assignment
在线阅读 下载PDF
Video Inter-Frame Forgery Identification Based on Consistency of Correlation Coefficients of Gray Values 被引量:4
5
作者 Qi Wang Zhaohong Li +1 位作者 Zhenzhen Zhang Qinglong Ma 《Journal of Computer and Communications》 2014年第4期51-57,共7页
Identifying inter-frame forgery is a hot topic in video forensics. In this paper, we propose a method based on the assumption that the correlation coefficients of gray values is consistent in an original video, while ... Identifying inter-frame forgery is a hot topic in video forensics. In this paper, we propose a method based on the assumption that the correlation coefficients of gray values is consistent in an original video, while in forgeries the consistency will be destroyed. We first extract the consistency of correlation coefficients of gray values (CCCoGV for short) after normalization and quantization as distinguishing feature to identify interframe forgeries. Then we test the CCCoGV in a large database with the help of SVM (Support Vector Machine). Experimental results show that the proposed method is efficient in classifying original videos and forgeries. Furthermore, the proposed method performs also pretty well in classifying frame insertion and frame deletion forgeries. 展开更多
关键词 INTER-frame Forgeries CONTENT CONSISTENCY video FORENSICS
在线阅读 下载PDF
基于关键帧的频域多特征融合的Deepfake视频检测
6
作者 王金伟 张玫瑰 +2 位作者 张家伟 罗向阳 马宾 《应用科学学报》 北大核心 2025年第3期451-462,共12页
现有的Deepfake视频检测方法为节约计算资源,避免数据冗余,大多随机选取视频的多帧或部分段作为检测对象,因而会降低检测对象的表征能力以及限制检测的性能。此外,现有算法在单一数据集上的检测效果良好,但在跨数据集检测时性能下降严重... 现有的Deepfake视频检测方法为节约计算资源,避免数据冗余,大多随机选取视频的多帧或部分段作为检测对象,因而会降低检测对象的表征能力以及限制检测的性能。此外,现有算法在单一数据集上的检测效果良好,但在跨数据集检测时性能下降严重,泛化能力有待进一步提升。为此,提出了一种基于关键帧的频域多特征融合的Deepfake视频检测算法。利用频域的均方误差提取关键帧作为检测对象,并将频域学习主帧的伪影特征和关键帧间的时间不一致性进行融合后输入到全连接层中,从而获得最终的检测结果。实验结果表明,所提算法在跨数据集检测任务中的性能优于现有算法,具有较强的泛化性。 展开更多
关键词 Deepfake视频检测 关键帧 频域 多特征融合
在线阅读 下载PDF
结构与纹理分解的多尺度3D解耦卷积视频预测
7
作者 郑明魁 吴孔贤 +2 位作者 邱鑫涛 郑海峰 赵铁松 《计算机学报》 北大核心 2025年第8期1832-1847,共16页
视频预测旨在利用历史帧预测未来图像帧,是一项逐像素的密集预测任务。目前的非自回归模型采用多帧输入多帧输出的架构,有效避免了误差累积。针对现有方法在对视频数据降维处理时使用跨步卷积进行下采样而导致局部细节丢失的问题,本文... 视频预测旨在利用历史帧预测未来图像帧,是一项逐像素的密集预测任务。目前的非自回归模型采用多帧输入多帧输出的架构,有效避免了误差累积。针对现有方法在对视频数据降维处理时使用跨步卷积进行下采样而导致局部细节丢失的问题,本文采用了特征域结构与纹理分离学习的思路,去除细节后的低频结构信息具有更强的时间相关性,有利于局部区域结构像素时空相关性的预测,而高频细节特征则采用一个独立的增强模块进行学习。在此基础上,本文设计了一种多尺度的3D解耦卷积模块,将3D卷积解耦为2D卷积和1D卷积来专注学习低频结构的空间和时间特性,这种解耦方式在提高对象形态预测性能的同时还减少了模型参数和内存消耗。最后采用一种高频细节小尺度增强模块,用来学习分解后的高频信息并预测图像的纹理,提升视频预测的细节质量。在合成数据以及真实场景数据集上的实验结果表明,本文所设计的算法兼顾了时空一致性和细节表现力,在视频中运动物体的整体结构与局部细节预测方面展现出更高的准确性,其中在Moving MNIST数据集上的MSE为15.7,分别比现有算法如SimVP、TAU、SwinLSTM、VMRNN等降低了34.0%、20.7%、11.3%、4.8%,在其他数据集上的实验结果也表现出一定的优越性。 展开更多
关键词 视频预测 多帧输入多帧输出 结构与纹理分离 3D解耦卷积
在线阅读 下载PDF
人工智能算法在智能信息监控系统中的应用
8
作者 刘树林 邹惠秀 《移动信息》 2025年第10期337-339,共3页
文中探讨了图像处理技术在智能信息监控画质增强中的应用,旨在快速传播新闻信息。首先,分析了新闻短视频数据来源与清晰度预处理。其次,提出了基于SwinCBAM模型的新闻短视频图像画质增强方法。结果表明,该方法在图像清晰化方面具有优越... 文中探讨了图像处理技术在智能信息监控画质增强中的应用,旨在快速传播新闻信息。首先,分析了新闻短视频数据来源与清晰度预处理。其次,提出了基于SwinCBAM模型的新闻短视频图像画质增强方法。结果表明,该方法在图像清晰化方面具有优越性,能提高处理后图像的清晰度与逼真度。 展开更多
关键词 人工智能算法 智能信息监控系统 视频帧提取 SwinCBAM模型
在线阅读 下载PDF
基于三维自组织映射的视频帧间预测编码算法
9
作者 覃远年 陈超群 《中国高新科技》 2025年第1期126-127,133,共3页
文章针对视频帧间编码中运动估计和运动补偿(ME+MC)算法的不足,提出一种基于三维自组织映射的帧间预测编码方法。该方法将FS-3DSOM算法用于运动模式库的训练,通过运动模式库和运动估计算法分别获取最佳匹配块,选择率失真代价最低的匹配... 文章针对视频帧间编码中运动估计和运动补偿(ME+MC)算法的不足,提出一种基于三维自组织映射的帧间预测编码方法。该方法将FS-3DSOM算法用于运动模式库的训练,通过运动模式库和运动估计算法分别获取最佳匹配块,选择率失真代价最低的匹配块作为预测块,从而提高帧间预测准确度。同时,为了减小运动模式库的匹配误差,采用了基于聚类的运动模式库构造方法。实验结果表明,在相同码率的情况下,基于三维自组织映射的帧间预测编码方法比传统方法具有更好的编码性能。 展开更多
关键词 自组织映射 视频编码 帧间预测 运动估计 运动补偿
在线阅读 下载PDF
低码率生成式无人机视频编码算法
10
作者 刘美琴 陈虹宇 +1 位作者 周一鸣 倪文昊 《数据采集与处理》 北大核心 2025年第2期320-333,共14页
空天地海复杂环境下海量的视频数据给有限的传输带宽和存储设备带来了巨大的压力,因此如何提高视频编码技术在低码率条件下的编码效率显得尤为关键。近年来,基于深度学习的视频编码算法取得了良好的进展,却因优化目标与感知质量失配、... 空天地海复杂环境下海量的视频数据给有限的传输带宽和存储设备带来了巨大的压力,因此如何提高视频编码技术在低码率条件下的编码效率显得尤为关键。近年来,基于深度学习的视频编码算法取得了良好的进展,却因优化目标与感知质量失配、训练数据分布偏差等问题,降低了极低码率下的视觉感知质量。生成式编码通过学习数据分布有效提升了低码率下的纹理与结构复原能力,缓解了深度视频压缩的模糊伪影问题。然而,现有研究仍存在两大瓶颈:一是时域相关性建模不足,帧间关联缺失;二是动态比特分配机制欠缺,难以实现关键信息的自适应提取。为此,提出一种基于条件引导扩散模型的视频编码算法(Conditional guided diffusion modelvideo compression,CGDMVC),旨在改善低码率条件下视频感知质量的同时,加强帧间特征建模能力和保留关键信息。具体地,该算法设计了隐式帧间对齐策略,利用扩散模型捕获帧间潜在特征,降低估计显式运动信息的计算复杂度。同时,设计的自适应时空重要性编码器可动态分配码率优化关键区域的生成质量。此外,引入感知损失函数,结合感知图像块相似度(Learned perceptual image patch similarity,LPIPS)约束,以提高重建帧的视觉保真度。实验结果表明,与DCVC(Deep contextual video compression)等算法相比,该算法在低码率(<0.1 BPP)情况下,LPIPS值平均降低了36.49%,展现出更丰富的纹理细节和更自然的视觉效果。 展开更多
关键词 视频编码 扩散模型 感知质量 帧间对齐 低码率
在线阅读 下载PDF
基于扩散模型加速和感知优化的高效姿态驱动人体动作生成技术
11
作者 王家松 周雷 张博 《计算机应用研究》 北大核心 2025年第10期2964-2971,共8页
现有姿势条件驱动的数字人视频生成技术主要聚焦于提升生成结果的质量,如视觉逼真度和动作流畅性。然而往往忽视了生成速度较慢的问题,从而限制了其在实时性应用中的有效部署。为此,针对基于扩散模型的数字人生成技术推理延迟高、计算... 现有姿势条件驱动的数字人视频生成技术主要聚焦于提升生成结果的质量,如视觉逼真度和动作流畅性。然而往往忽视了生成速度较慢的问题,从而限制了其在实时性应用中的有效部署。为此,针对基于扩散模型的数字人生成技术推理延迟高、计算成本大的问题,提出了一种基于扩散模型加速和感知优化的加速框架(DAF-DH)。该方法采用三级加速策略来提高效率并优化生成质量。首先,通过TensorRT优化扩散模型的推理效率;其次,利用基于TensorRT加速的扩散模型,结合降低输入分辨率和抽帧生成的方式,快速生成低分辨率、低帧率的初始视频;最后,设计一个轻量化后处理模块,通过超分辨率和插帧算法提升视频的分辨率和流畅度,从而优化最终生成质量。同时,为了提升主观质量,引入语义特征对齐损失函数,进一步优化视觉感知效果。此外,构建了包含1705个动作序列的DH-Motion数据集,为研究提供基准。实验结果表明,该框架在MimicMotion基础上实现5倍加速比,生成质量有所提升,LPIPS指标降低0.033,FVD指标减少82.9。这些结果证明DAF-DH有效降低了推理延迟,提升了生成质量,适用于实时数字人视频生成应用。 展开更多
关键词 视频生成 扩散模型 加速技术 图像超分 视频插帧 数字人 感知质量
在线阅读 下载PDF
融合注意力的卷积自编码器视频异常检测方法
12
作者 宋雪桦 车雷 +2 位作者 张星 茆玉欣 张海侠 《江苏大学学报(自然科学版)》 北大核心 2025年第6期677-684,共8页
针对目前视频异常检测方法未充分利用视频序列中的上下文语义信息的问题,提出一种融合注意力的卷积自编码器视频异常检测方法.首先,模型采用抽取帧预测的方式,并利用基于Inception模块的卷积自编码器提取输入视频序列中不同尺度的特征信... 针对目前视频异常检测方法未充分利用视频序列中的上下文语义信息的问题,提出一种融合注意力的卷积自编码器视频异常检测方法.首先,模型采用抽取帧预测的方式,并利用基于Inception模块的卷积自编码器提取输入视频序列中不同尺度的特征信息.其次,为学习视频帧中运动对象和静止背景的交互信息,引入位置注意力和通道注意力.最后,在卷积自编码器中加入记忆增强模块来限制模型泛化性,并引入潜在损失函数来进一步增大异常事件的重构误差.推导了异常得分计算,给出了异常检测数据集.为验证所提出方法的有效性,进行了异常行为定性分析、模型性能比较试验、记忆项更新阈值试验以及消融试验.结果表明:该方法能有效检测视频中的异常事件,并具有较高的检测精度,在UCSD Ped2、CUHK Avenue和ShanghaiTech数据集上的AUC值分别为97.7%、88.9%和73.8%. 展开更多
关键词 视频异常检测 深度学习 卷积自编码器 注意力机制 记忆增强 抽取帧预测
在线阅读 下载PDF
基于Transformer和增强可变形可分离卷积的多视频插帧方法
13
作者 石昌通 单鸿涛 《计算机工程》 北大核心 2025年第10期346-356,共11页
现有的多视频插帧(VFI)方法通常采用光流或卷积神经网络(CNN)来实现,而受光流和CNN固有限制的影响难以有效处理大运动场景。针对该问题,提出一种基于Transformer和增强可变形可分离卷积的多VFI方法,该方法融合了移位窗口和跨尺度窗口的... 现有的多视频插帧(VFI)方法通常采用光流或卷积神经网络(CNN)来实现,而受光流和CNN固有限制的影响难以有效处理大运动场景。针对该问题,提出一种基于Transformer和增强可变形可分离卷积的多VFI方法,该方法融合了移位窗口和跨尺度窗口的注意力,扩大注意力的感受野,并在合成帧时将时间步作为一个关键控制变量输入帧合成网络,从而能够在任意时间位置插帧。具体而言,首先使用嵌入层提取浅层特征;随后使用编码器-解码器架构提取多尺度的深层特征;最后使用以增强可变形可分离卷积为核心的多尺度多帧合成网络,将多尺度特征、原视频帧和时间步信息共同输入帧合成网络,利用多尺度信息合成任意时间位置对应的中间帧。实验结果表明,该方法在多个视频插帧常用的数据集上实现了较高的插帧性能。其中,多VFI方法在Vimeo90K septuplet数据集上的峰值信噪比(PSNR)值和结构相似性(SSIM)值分别达到了27.98 dB和0.912,单VFI方法的插帧性能也达到了主流水平。同时可视化结果表明,相较于其他方法,该方法在大运动和大规模运动场景下能产生较为清晰合理的中间帧。 展开更多
关键词 多视频插帧 增强可变形可分离卷积 任意时间位置插帧 基于跨尺度窗口的注意力 大运动
在线阅读 下载PDF
面向运动前景区域的视频异常检测
14
作者 潘理虎 彭守信 +2 位作者 张睿 薛之洋 毛旭珍 《计算机应用》 北大核心 2025年第4期1300-1309,共10页
静态背景信息和运动前景对象的数据分布不平衡通常会引起发生异常的前景区域信息学习不充分问题,进而影响视频异常检测(VAD)的精度。为了解决上述问题,提出一种用于VAD的嵌套U型帧预测生成对抗网络(NUFP-GAN)方法。所提方法使用具有突... 静态背景信息和运动前景对象的数据分布不平衡通常会引起发生异常的前景区域信息学习不充分问题,进而影响视频异常检测(VAD)的精度。为了解决上述问题,提出一种用于VAD的嵌套U型帧预测生成对抗网络(NUFP-GAN)方法。所提方法使用具有突出视频帧中显著目标能力的嵌套U型帧预测网络架构作为帧预测模块,并在判别阶段设计一个自注意力补丁判别器,应用不同大小的感受野提取视频帧中更重要的外观和运动特征,以提升异常检测的准确性。此外,为保证预测帧和真实帧在高级语义信息上的多尺度特征一致性,引入多尺度一致性损失,以进一步提升方法的异常检测效果。实验结果表明,所提方法在CUHK Avenue、UCSD Ped1、UCSD Ped2和ShanghaiTech数据集上的曲线下面积(AUC)值分别达到了87.6%、85.2%、96.0%和73.3%;与MAMC(Memoryenhanced Appearance-Motion Consistency)方法相比,所提方法在ShanghaiTech数据集上的AUC值提升了1.8个百分点。可见,所提方法能够有效应对VAD中数据分布不平衡带来的挑战。 展开更多
关键词 深度学习 视频异常检测 生成对抗网络 未来帧预测 无监督学习
在线阅读 下载PDF
基于时空可变形卷积的多帧视频质量增强方法研究
15
作者 李娟 何月顺 +4 位作者 何璘琳 庞振宇 戴天峦 邓钰嫣 许亚男 《现代电子技术》 北大核心 2025年第9期36-42,共7页
现有的多帧视频质量增强方法通常依赖单一的相邻帧或峰值帧,未能充分利用视频流的时域特性。针对上述问题,文中提出一种基于时空可变形卷积的多帧视频质量增强方法。通过时空可变形卷积聚合时间信息,提高运动估计的精度;分别采用时空可... 现有的多帧视频质量增强方法通常依赖单一的相邻帧或峰值帧,未能充分利用视频流的时域特性。针对上述问题,文中提出一种基于时空可变形卷积的多帧视频质量增强方法。通过时空可变形卷积聚合时间信息,提高运动估计的精度;分别采用时空可变形融合和时空特征融合从峰值帧和相邻帧提取时空特征,将提取的两组特征图融合后经过特征精炼模块,输出增强特征图与待增强帧残差相加,获得最终增强帧。结果表明,文中方法在公开测试集上的性能优于对比方法,在峰值信噪比(PSNR)上取得了0.76 dB的增益,与MFQE2.0和STDF-R1相比,文中方法分别提升了0.20 dB和0.11 dB。 展开更多
关键词 时空可变形卷积 多帧视频 时空特征 视频质量增强 运动估计 特征融合
在线阅读 下载PDF
动态运动约束下的视频异常检测
16
作者 石瑞年 何强 +1 位作者 王恒友 陈琳琳 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第1期110-120,共11页
现有的基于帧预测的方法精度低的原因大多是不紧凑的正常分布学习,导致了异常事件的强泛化。对此,提出了动态运动约束下的视频异常检测(dynamic motion constraints for video anomaly detection,DMC-VAD)框架。提出了时空约束模块,使... 现有的基于帧预测的方法精度低的原因大多是不紧凑的正常分布学习,导致了异常事件的强泛化。对此,提出了动态运动约束下的视频异常检测(dynamic motion constraints for video anomaly detection,DMC-VAD)框架。提出了时空约束模块,使得模型能够基于光流显著目标和运动信息,对正常运动施加时空约束。设计了时空对齐融合模块,用校正对齐模块抑制光流中低质量的特征响应,增强正常帧的全局外观与运动上下文约束。这些动态约束能够使模型学习到更紧凑的正常分布,异常帧因为偏离这些约束从而产生高误差。引入光流重构以更好地训练运动编码器,融合光流平均误差和视频帧峰值信噪比作为异常分数。在UCSD Ped2和Shanghaitech上获得了最优的受试者操作特性(receiver operating characteristic,ROC)曲线下面积(area under curve,AUC):99.42%(+1.19%),74.50%(+0.28%)。在CUHK Avenue上获得了与AMSTE相当的结果(88.07%),但提出模型的参数量仅是AMSTE的16%。 展开更多
关键词 视频异常检测 帧预测 无监督学习 动态约束 时空注意力
在线阅读 下载PDF
改进注意力混合自动编码器视频异常检测研究 被引量:1
17
作者 陈兆波 张琳 马晓轩 《计算机工程与科学》 北大核心 2025年第1期130-139,共10页
视频异常检测是计算机视觉领域的重要研究内容之一,广泛应用于交通、公共安全等领域。然而,目前视频异常检测领域存在单个预测模型易受噪声干扰、单个重构模型存在泛化异常等问题。为了解决这些问题,提出了一种结合重构和预测模型的视... 视频异常检测是计算机视觉领域的重要研究内容之一,广泛应用于交通、公共安全等领域。然而,目前视频异常检测领域存在单个预测模型易受噪声干扰、单个重构模型存在泛化异常等问题。为了解决这些问题,提出了一种结合重构和预测模型的视频异常检测方法。在正常光流数据上训练具有注意力机制和内存增强模块的重构网络,再将重构后的光流和原始视频帧同时输入未来帧预测网络中,以重构光流为条件辅助帧预测网络更好地生成未来帧。为了提取更有效的特征,提出了一种残差卷积注意力模块SRCAM以促进重构和预测网络在全局和局部层面有效学习潜在空间的特征表示,从而增强模型对视频中异常事件的检测能力,提高模型的鲁棒性。通过在UCSD Ped2和CUHK Avenue这2个常用的视频异常检测数据集上进行的广泛的实验评估,表明了所提方法的有效性。 展开更多
关键词 视频异常检测 注意力机制 流重构 帧预测 自动编码器
在线阅读 下载PDF
集成学习与显示功能的仿生神经形态器件及其视频帧预测应用 被引量:1
18
作者 林振源 谢伟东 《电视技术》 2025年第5期22-26,共5页
在显示技术领域,视频帧预测是实现更流畅、高效的视频播放和交互体验的关键技术挑战。这一挑战要求显示系统能够准确地预估未来画面的内容。受到人脑时空预测能力的启发,人工神经形态显示器件(Artificial Neuromorphic Display Device,A... 在显示技术领域,视频帧预测是实现更流畅、高效的视频播放和交互体验的关键技术挑战。这一挑战要求显示系统能够准确地预估未来画面的内容。受到人脑时空预测能力的启发,人工神经形态显示器件(Artificial Neuromorphic Display Device,ANDD)为这一问题提供了创新性的解决方案。制备一种ANDD器件,通过模拟生物突触的功能,特别是其突触可塑性和记忆转换机制,利用介电材料作为俘获层,成功再现从短期到长期的记忆学习过程。在对视频帧的预测中,该器件可以增强视频内容预测的准确性,并提升预测的速度与效率。 展开更多
关键词 智能显示 视频帧预测 量子点发光二极管 人工发光突触装置
在线阅读 下载PDF
Multiresolution Video Watermarking Algorithm Exploiting the Block-Based Motion Estimation 被引量:2
19
作者 Salwa A. K. Mostafa Abdelrahman Ali 《Journal of Information Security》 2016年第4期260-268,共9页
This paper presents a novel technique for embedding a digital watermark into video frames based on motion vectors and discrete wavelet transform (DWT). In the proposed scheme, the binary image watermark is divided int... This paper presents a novel technique for embedding a digital watermark into video frames based on motion vectors and discrete wavelet transform (DWT). In the proposed scheme, the binary image watermark is divided into blocks and each watermark block is embedded several times in each selected video frame at different locations. The block-based motion estimation algorithm is used to select the video frame blocks having the greatest motion vectors magnitude. The DWT is applied to the selected frame blocks, and then, the watermark block is hidden into these blocks by modifying the coefficients of the Horizontal sub-bands (HL). Adding the watermark at different locations in the same video frame makes the scheme more robust against different types of attacks. The method was tested on different types of videos. The average peak signal to noise ratio (PSNR) and the normalized correlation (NC) are used to measure the performance of the proposed method. Experimental results show that the proposed algorithm does not affect the visual quality of video frames and the scheme is robust against a variety of attacks. 展开更多
关键词 Digital video Watermarking Wavelet Transform Motion Vector Motion Estimation video frame
在线阅读 下载PDF
基于深度学习的视频插帧研究进展
20
作者 吴晨阳 张勇 +3 位作者 韩树豪 郭春乐 李重仪 程明明 《自动化学报》 北大核心 2025年第8期1760-1776,共17页
视频插帧技术是视频处理领域的研究热点问题.它通过生成中间帧来提高视频的帧率,从而使视频播放更加流畅,在老视频修复、电影后期制作和慢动作生成等领域发挥着重要的作用.随着深度学习技术的迅猛发展,基于深度学习的视频插帧技术已经... 视频插帧技术是视频处理领域的研究热点问题.它通过生成中间帧来提高视频的帧率,从而使视频播放更加流畅,在老视频修复、电影后期制作和慢动作生成等领域发挥着重要的作用.随着深度学习技术的迅猛发展,基于深度学习的视频插帧技术已经成为主流.本文全面综述现有的基于深度学习的视频插帧工作,并且深入分析这些方法的优点与不足.随后,详细介绍视频插帧领域的常用数据集,这些数据集为视频插帧相关研究和算法训练提供重要支撑.最后,对当前视频插帧研究中仍然存在的挑战进行深入思考,并且从多个角度展望未来的研究方向,旨在为该领域后续的发展提供参考. 展开更多
关键词 视频插帧 深度神经网络 卷积神经网络
在线阅读 下载PDF
上一页 1 2 52 下一页 到第
使用帮助 返回顶部