TRISO-Model(tridimensional integrated software development model)是为处理软件开发的复杂性和动态性而提出的三维集成软件开发方法学,其中,多维模型之间的语义一致性维护以及对模型应用中公共操作部分的重用,提出了基于一致语义进...TRISO-Model(tridimensional integrated software development model)是为处理软件开发的复杂性和动态性而提出的三维集成软件开发方法学,其中,多维模型之间的语义一致性维护以及对模型应用中公共操作部分的重用,提出了基于一致语义进行模型管理的需求.给出了基于MDA(model driven architecture)进行模型管理的方法MDA-MMMethod(MDA based model management method),应用MDA的4层模型管理结构,基于MDA核心标准MOF(meta object facility)所提供的公共语义基础管理模型和元模型,MDA-MMMethod支持各种MDA模型操作标准实现在TRSIO-model应用中的重用.开发了相应的支持系统MDA-MMSystem(MDA based model management system),应用于SoftPM的项目实践中.与传统方法相比,模型应用的开发效率得到了显著提高,同时降低了开发成本.最后,给出了模型融合的应用实例介绍.展开更多
In this paper we have proposed an object tracking method using Dual Tree Complex Wavelet Transform (DTCxWT). The proposed method is capable of tracking the moving object in video sequences. The object is assumed to be...In this paper we have proposed an object tracking method using Dual Tree Complex Wavelet Transform (DTCxWT). The proposed method is capable of tracking the moving object in video sequences. The object is assumed to be deform-able under limit i.e. it may change its shape from one frame to another. The basic idea in the proposed method is to decompose the image into two components: a two dimensional motion and a two dimensional shape change. The motion component is factored out while the shape is explicitly represented by storing a sequence of two dimensional models. Each model corresponds to each image frame. The proposed method performs well when the change in the shape in the consecutive frames is small however the 2-D motion in consecutive frames may be large. The proposed algorithm is capable of handling the partial as well as full occlusion of the object.展开更多
目的无人机小目标检测受运动模糊等因素影响,导致目标细节在成像过程中丢失。尽管超分辨技术能够还原目标细节,但全图处理会造成大量计算资源浪费。此外,现有模型通过顺序堆叠卷积和Transformer,因固有的范式冲突导致局部空间特征和全...目的无人机小目标检测受运动模糊等因素影响,导致目标细节在成像过程中丢失。尽管超分辨技术能够还原目标细节,但全图处理会造成大量计算资源浪费。此外,现有模型通过顺序堆叠卷积和Transformer,因固有的范式冲突导致局部空间特征和全局特征存在分离性。方法本文提出融合前景细化和多维归纳偏置自注意力的无人机小目标检测。前景细化通过多层协同显著性映射方法筛选前景,并利用扩散模型仅对前景进行超分辨处理,从而在减少背景计算负担的同时提高检测精度。多维归纳偏置自注意力网络包括多维自注意力模块、混合增强前馈模块、尺度耦合模块和邻域特征交互模块。多维自注意力将自注意力分解到水平和垂直两个维度,强化对空间信息的感知,同时引入并行的归纳偏置感知路径,实现局部与全局特征的协同表征,避免特征分离。混合增强前馈模块和尺度耦合模块分别通过动态卷积和多重卷积与自注意力交互,能够最大限度保留局部与全局特征。最后,邻域特征交互模块通过逐层聚合邻域特征,确保预测特征图中包含充分的小目标信息。结果在3个数据集上与先进检测方法进行对比实验,精确率、召回率、平均检测精度和交并比(intersection of union,IoU)阈值为0.5的平均准确率均有显著提高,IoU阈值为0.5的平均准确率在3个数据集上分别达到53.2%、38.7%和93.9%,相较于基线方法分别提高9.7%、9.5%和1.2%。结论实验结果表明,所提方法在无人机场景下具有处理复杂背景和小目标检测的强大能力。代码开源链接https://github.com/CUMT-GMSC/MIBSN。展开更多
文摘TRISO-Model(tridimensional integrated software development model)是为处理软件开发的复杂性和动态性而提出的三维集成软件开发方法学,其中,多维模型之间的语义一致性维护以及对模型应用中公共操作部分的重用,提出了基于一致语义进行模型管理的需求.给出了基于MDA(model driven architecture)进行模型管理的方法MDA-MMMethod(MDA based model management method),应用MDA的4层模型管理结构,基于MDA核心标准MOF(meta object facility)所提供的公共语义基础管理模型和元模型,MDA-MMMethod支持各种MDA模型操作标准实现在TRSIO-model应用中的重用.开发了相应的支持系统MDA-MMSystem(MDA based model management system),应用于SoftPM的项目实践中.与传统方法相比,模型应用的开发效率得到了显著提高,同时降低了开发成本.最后,给出了模型融合的应用实例介绍.
文摘目的基于深度模型的跟踪算法往往需要大规模的高质量标注训练数据集,而人工逐帧标注视频数据会耗费大量的人力及时间成本。本文提出一个基于Transformer模型的轻量化视频标注算法(Transformer-based label network,TLNet),实现对大规模稀疏标注视频数据集的高效逐帧标注。方法该算法通过Transformer模型来处理时序的目标外观和运动信息,并融合前反向的跟踪结果。其中质量评估子网络用于筛选跟踪失败帧,进行人工标注;回归子网络则对剩余帧的初始标注进行优化,输出更精确的目标框标注。该算法具有强泛化性,能够与具体跟踪算法解耦,应用现有的任意轻量化跟踪算法,实现高效的视频自动标注。结果在2个大规模跟踪数据集上生成标注。对于LaSOT(large-scale single object tracking)数据集,自动标注过程仅需约43 h,与真实标注的平均重叠率(mean intersection over union,mIoU)由0.824提升至0.871。对于TrackingNet数据集,本文使用自动标注重新训练3种跟踪算法,并在3个数据集上测试跟踪性能,使用本文标注训练的模型在跟踪性能上超过使用TrackingNet原始标注训练的模型。结论本文算法TLNet能够挖掘时序的目标外观和运动信息,对前反向跟踪结果进行帧级的质量评估并进一步优化目标框。该方法与具体跟踪算法解耦,具有强泛化性,并能节省超过90%的人工标注成本,高效地生成高质量的视频标注。
文摘In this paper we have proposed an object tracking method using Dual Tree Complex Wavelet Transform (DTCxWT). The proposed method is capable of tracking the moving object in video sequences. The object is assumed to be deform-able under limit i.e. it may change its shape from one frame to another. The basic idea in the proposed method is to decompose the image into two components: a two dimensional motion and a two dimensional shape change. The motion component is factored out while the shape is explicitly represented by storing a sequence of two dimensional models. Each model corresponds to each image frame. The proposed method performs well when the change in the shape in the consecutive frames is small however the 2-D motion in consecutive frames may be large. The proposed algorithm is capable of handling the partial as well as full occlusion of the object.
文摘目的无人机小目标检测受运动模糊等因素影响,导致目标细节在成像过程中丢失。尽管超分辨技术能够还原目标细节,但全图处理会造成大量计算资源浪费。此外,现有模型通过顺序堆叠卷积和Transformer,因固有的范式冲突导致局部空间特征和全局特征存在分离性。方法本文提出融合前景细化和多维归纳偏置自注意力的无人机小目标检测。前景细化通过多层协同显著性映射方法筛选前景,并利用扩散模型仅对前景进行超分辨处理,从而在减少背景计算负担的同时提高检测精度。多维归纳偏置自注意力网络包括多维自注意力模块、混合增强前馈模块、尺度耦合模块和邻域特征交互模块。多维自注意力将自注意力分解到水平和垂直两个维度,强化对空间信息的感知,同时引入并行的归纳偏置感知路径,实现局部与全局特征的协同表征,避免特征分离。混合增强前馈模块和尺度耦合模块分别通过动态卷积和多重卷积与自注意力交互,能够最大限度保留局部与全局特征。最后,邻域特征交互模块通过逐层聚合邻域特征,确保预测特征图中包含充分的小目标信息。结果在3个数据集上与先进检测方法进行对比实验,精确率、召回率、平均检测精度和交并比(intersection of union,IoU)阈值为0.5的平均准确率均有显著提高,IoU阈值为0.5的平均准确率在3个数据集上分别达到53.2%、38.7%和93.9%,相较于基线方法分别提高9.7%、9.5%和1.2%。结论实验结果表明,所提方法在无人机场景下具有处理复杂背景和小目标检测的强大能力。代码开源链接https://github.com/CUMT-GMSC/MIBSN。