期刊文献+
共找到6篇文章
< 1 >
每页显示 20 50 100
Enhanced vision-transformer integrating with semi-supervised transfer learning for state of health and remaining useful life estimation of lithium-ion batteries 被引量:1
1
作者 Ya-Xiong Wang Shangyu Zhao +2 位作者 Shiquan Wang Kai Ou Jiujun Zhang 《Energy and AI》 EI 2024年第3期380-396,共17页
The state of health(SOH)and remaining useful life(RUL)of lithium-ion batteries are crucial for health management and diagnosis.However,most data-driven estimation methods heavily rely on scarce labeled data,while trad... The state of health(SOH)and remaining useful life(RUL)of lithium-ion batteries are crucial for health management and diagnosis.However,most data-driven estimation methods heavily rely on scarce labeled data,while traditional transfer learning faces challenges in handling domain shifts across various battery types.This paper proposes an enhanced vision-transformer integrating with semi-supervised transfer learning for SOH and RUL estimation of lithium-ion batteries.A depth-wise separable convolutional vision-transformer is developed to extract local aging details with depth-wise convolutions and establishes global dependencies between aging information using multi-head attention.Maximum mean discrepancy is employed to initially reduce the distribution difference between the source and target domains,providing a superior starting point for fine-tuning the target domain model.Subsequently,the abundant aging data of the same type as the target battery are labeled through semi-supervised learning,compensating for the source model's limitations in capturing target battery aging characteristics.Consistency regularization incorporates the cross-entropy between predictions with and without adversarial perturbations into the gradient backpropagation of the overall model.In particular,across the experimental groups 13–15 for different types of batteries,the root mean square error of SOH estimation was less than 0.66%,and the mean relative error of RUL estimation was 3.86%.Leveraging extensive unlabeled aging data,the proposed method could achieve accurate estimation of SOH and RUL. 展开更多
关键词 State of health(S0H) Remaining useful life(RUL) Depth-wise separable convolutional vision-transformer Transfer learning Maximum mean discrepancy Semi supervised learning
在线阅读 下载PDF
基于多源数据融合的城市细分 地类识别与可解释性分析
2
作者 胡伟 刘嘉宇 周琛 《地理与地理信息科学》 北大核心 2025年第6期26-32,共7页
结合多源地理空间数据进行城市细分地类的识别是城市用地监测的重要手段,对提升城市管理的智慧化水平具有重要意义。该文以武汉市中心城区为例,基于Vision-Transformer模型和多源数据融合策略对城市地类进行识别,在此基础上,引入注意力... 结合多源地理空间数据进行城市细分地类的识别是城市用地监测的重要手段,对提升城市管理的智慧化水平具有重要意义。该文以武汉市中心城区为例,基于Vision-Transformer模型和多源数据融合策略对城市地类进行识别,在此基础上,引入注意力归因得分方法计算兴趣点(POI)对模型识别结果的贡献度,并采用核密度分析探究城市细分地类与人类活动间的关系。结果表明:POI的空间分异与类别组合差异所提供的不同维度特征能将城市地类识别精度提高至93.0%;不同地类中包含的POI组合与地类的功能关联较强,高集聚度的餐饮、购物类POI代表商业/服务业用地性质,孤立、稀疏的居民楼代表居住用地性质,医疗、科教类建筑及周边较低集聚度的餐饮、购物类POI代表公共服务用地性质。 展开更多
关键词 vision-transformer 城市用地 可解释性分析 核密度分析 数据融合
在线阅读 下载PDF
姿态引导与特征增强结合的遮挡行人重识别
3
作者 杜浩宇 苟刚 《计算机工程与设计》 北大核心 2024年第6期1843-1849,共7页
为解决现有遮挡行人重识别方法只注重于引入外部信息而忽略特征增强的问题,提出一种姿态引导与特征增强结合的遮挡行人重识别方法。将小步幅的滑动窗口引入VIT(Vision-Transformer),使网络获取局部的细微特征,将特征经过遮挡消除模块,... 为解决现有遮挡行人重识别方法只注重于引入外部信息而忽略特征增强的问题,提出一种姿态引导与特征增强结合的遮挡行人重识别方法。将小步幅的滑动窗口引入VIT(Vision-Transformer),使网络获取局部的细微特征,将特征经过遮挡消除模块,消除遮挡带来的干扰;在模型中融入人体姿态估计网络,辅助模型解决遮挡带来的语义信息缺失问题;通过CBN模块提高模型的学习能力,使模型学习到更多高级语义信息。在遮挡行人重识别主流数据集Occluded-DukeMTMC上达到69.8%的Rank-1准确率以及63.2%的mAP,优于现有的其它方法,在整体行人重识别数据集上也取得了具有竞争力的结果。 展开更多
关键词 遮挡行人重识别 姿态引导 特征增强 vision-transformer模型 小步幅滑动窗口 CBN模块 遮挡消除模块
在线阅读 下载PDF
基于图像去噪和图像生成的对抗样本检测方法 被引量:5
4
作者 杨宏宇 杨帆 《湖南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2023年第8期72-81,共10页
针对现有对抗样本检测方法存在检测准确率低和训练收敛速度慢等问题,提出一种基于图像去噪技术和图像生成技术实现的对抗样本检测方法 .该检测方法将对抗样本检测问题转换为图像分类问题,无须事先得知被攻击模型的结构和参数,仅使用图... 针对现有对抗样本检测方法存在检测准确率低和训练收敛速度慢等问题,提出一种基于图像去噪技术和图像生成技术实现的对抗样本检测方法 .该检测方法将对抗样本检测问题转换为图像分类问题,无须事先得知被攻击模型的结构和参数,仅使用图像的语义信息和分类标签信息即可判定图像是否为对抗样本.首先,采用基于swin-transformer和vision-transformer实现的移动窗口式掩码自编码器去除图像中的对抗性噪声,还原图像的语义信息.然后,使用基于带有梯度惩罚的条件生成式对抗网络实现的图像生成部分根据图像分类标签信息生成图像.最后,将前两阶段输出的图像输入卷积神经网络进行分类,通过对比完成去噪的图像和生成图像的分类结果一致性判定检测图像是否为对抗样本.在MNIST、GTSRB和CIAFAR-10数据集上的实验结果表明,相比于传统检测方法,本文提出的对抗样本检测方法的平均检测准确率提高6%~36%,F1分数提高6%~37%,训练收敛耗时缩减27%~83%,存在一定优势. 展开更多
关键词 对抗攻击 对抗样本 vision-transformer swin-transformer 卷积神经网络 深度学习
在线阅读 下载PDF
基于自注意力模型的图像去雾算法
5
作者 周欣 谢耀华 +1 位作者 王润民 郑兵兵 《现代电子技术》 2022年第19期37-43,共7页
为了提高路侧相机在雾天气象环境下的图像对比度和清晰度,基于自注意力模型建立了一种图像去雾算法。通过视觉感知实时获取道路交通目标信息,是实现道路数字化与智慧化的基础,而雾天环境会使感知算法出现性能衰退。文中在生成式对抗神... 为了提高路侧相机在雾天气象环境下的图像对比度和清晰度,基于自注意力模型建立了一种图像去雾算法。通过视觉感知实时获取道路交通目标信息,是实现道路数字化与智慧化的基础,而雾天环境会使感知算法出现性能衰退。文中在生成式对抗神经网络框架下建立了基于自注意力模型的图像去雾算法,能够有效建模图像中不同区域间的关系,同时解决实际环境中难以建立无雾-有雾图像对训练集问题。利用Vision-Transformer网络提取图像中雾层特征,通过U-Net网络对图像雾层进行估计;采用卷积神经网络对去雾图像进行评估,通过对抗训练方式对网络参数进行优化;基于实际高速公路路侧相机采集了自然雾天环境下的道路交通图像数据,并结合Foggy Driving和O-HAZE开源数据集对提出的图像去雾算法进行了验证,结合主观和量化指标对算法的去雾效果进行了验证评估,表明该算法能够有效提高图像质量。 展开更多
关键词 图像去雾算法 自注意力模型 道路数字化 vision-transformer网络 卷积神经网络 量化指标
在线阅读 下载PDF
基于Multi-View Vision Transformer的多视图分类模型 被引量:1
6
作者 王聪 王淑燕 《信息技术与信息化》 2021年第11期175-177,共3页
针对图像分类中的三维物体分类任务,提出了融合图像特征和位置向量的多角度注意分类模型(multi-view vision transformer,MLVIT)。通过在多个角度架设相机获取三维物体的多角度视图,然后根据图像特征编码模块获得图像特征向量,再根据位... 针对图像分类中的三维物体分类任务,提出了融合图像特征和位置向量的多角度注意分类模型(multi-view vision transformer,MLVIT)。通过在多个角度架设相机获取三维物体的多角度视图,然后根据图像特征编码模块获得图像特征向量,再根据位置特征编码模块获得位置特征向量,将图像特征向量与位置特征向量进行显示融合并且输入到多头自注意模型中,最后采用Adam算法训练模型参数,并在玉米粒瑕疵分类数据集上进行评测,结果表明该方案优于传统的多视图卷积网络结果。 展开更多
关键词 vision-transformer 位置编码 多视图分类
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部