期刊文献+
共找到2,384篇文章
< 1 2 120 >
每页显示 20 50 100
Visioneer Strobe XP 100
1
《公共支出与采购》 2003年第5期22-22,共1页
关键词 visioneer Strobe XP 100 扫描仪 产品功能 自动倾斜校正工作
在线阅读 下载PDF
扫描仪 HP ScanJet 4S和Visioneer PaperPort Vx:性格迥异的双胞胎
2
作者 Alfred Poor 黄国胜 《个人电脑》 1996年第4期33-34,共2页
Danny DeVito和Arnold Sch-warzenegger在电影Twins中扮演了一对性格各异的双胞胎。
关键词 扫描仪 HP ScanJet 4S 传感器 visioneer PaperPort Vx 灰度级 双胞胎 性格 个性心理特征
在线阅读 下载PDF
基于SCViT的图像重构对抗样本防御方法
3
作者 张新君 郭继发 《计算机工程与科学》 北大核心 2026年第3期500-511,共12页
随着人工智能的日益发展,它给人们的生活带来极大便利的同时也逐渐引发人类对其安全性的思考。图像分类是计算机视觉领域的重要研究工作,但深度神经网络的脆弱性使其易受对抗样本的攻击。对抗样本是人工智能安全领域的一个重要研究方向... 随着人工智能的日益发展,它给人们的生活带来极大便利的同时也逐渐引发人类对其安全性的思考。图像分类是计算机视觉领域的重要研究工作,但深度神经网络的脆弱性使其易受对抗样本的攻击。对抗样本是人工智能安全领域的一个重要研究方向,关于对抗样本的生成和防御技术层出不穷。以ViT为基础进行改动,提出了可用于图像块相似度比较的新模型——SCViT。SCViT中,图像块经线性投射层和Transformer Encoder得到对应的表示向量,将这些向量进行余弦相似度比较即可判断图像块的相似程度。为了降低位置编码对相似度计算的影响,在SCViT的位置编码前添加了微小系数α。利用SCViT进行图像块相似度比较,使用干净样本的图像块逐块取代对抗样本的图像块,最后将所有取代完成的干净样本的图像块拼接成新的图像用于分类。在CIFAR-10数据集上的实验结果表明,对参数α进行恰当取值,可提升方法的防御效果;在Inception_v3和Inception_v4分类模型上的实验结果表明,所提方法在不同分类网络上具有良好的迁移性;与几种常用的图像重构防御方法进行对比,所提方法在取得优异防御效果的同时鲁棒性也更好,对4种攻击方法下的图像分类正确率均达到了80%以上;在CIFAR-100和ImageNet数据集上进行实验,对抗样本的分类准确率分别提高了54个百分点以上和46个百分点以上,体现了所提方法的通用性。 展开更多
关键词 图像分类 对抗样本 图像拼接 vision Transformer 泊松融合
在线阅读 下载PDF
基于毫米波感知的皮革瑕疵分类方法
4
作者 张健 关灏文 《小型微型计算机系统》 北大核心 2026年第2期257-264,共8页
皮革瑕疵分类是确保皮革产品质量的关键环节.传统的人工检测和图像处理方法受限于光照等环境因素,难以满足高效检测需求.近年来,深度学习特别是卷积神经网络(CNN)的应用提高了瑕疵检测的准确性和效率,但仍受到环境影响.毫米波雷达技术... 皮革瑕疵分类是确保皮革产品质量的关键环节.传统的人工检测和图像处理方法受限于光照等环境因素,难以满足高效检测需求.近年来,深度学习特别是卷积神经网络(CNN)的应用提高了瑕疵检测的准确性和效率,但仍受到环境影响.毫米波雷达技术作为一种新兴的无损检测方法,因其强穿透性和不受光照等因素影响的特性而逐渐受到关注.文中提出了一种结合毫米波雷达与改进Vision Transformer模型的皮革瑕疵分类方法,利用毫米波雷达信号提取皮革瑕疵的时频特征,并通过深度学习模型进行分类,在自建数据集上达到了95.62%的准确率,相比经典的分类模型优势显著. 展开更多
关键词 毫米波雷达 皮革瑕疵分类 Vision Transformer模型 迁移学习
在线阅读 下载PDF
基于Vision Transformer的肠镜图像识别模型在结肠疾病中的诊断作用研究
5
作者 张婷 徐伟超 +6 位作者 许亚培 王子康 夏悦桐 刘秋华 杜姚 才艳茹 杨倩 《时珍国医国药》 北大核心 2026年第5期987-992,共6页
目的 探究人工智能诊断系统视觉Transformer(ViT)通过分析临床内镜成像数据对结肠疾病的诊断作用。方法 回顾性收集1082例组织学证实患有结肠疾病(包括结肠息肉、结肠炎、结肠癌)患者的3000张标准白光结肠镜图像。对这三类疾病处理后的... 目的 探究人工智能诊断系统视觉Transformer(ViT)通过分析临床内镜成像数据对结肠疾病的诊断作用。方法 回顾性收集1082例组织学证实患有结肠疾病(包括结肠息肉、结肠炎、结肠癌)患者的3000张标准白光结肠镜图像。对这三类疾病处理后的数据集按照7∶2∶1的比例划分,在每类疾病图像中随机选取70%作为训练集(Train),20%作为测试集(Test),10%作为验证集(Predict),最后通过使用ViT模型对图像进行识别分类。结果 在测试集中,该模型对于结肠息肉、结肠炎、结肠癌的肠镜图像分类准确率为:结肠息肉99.61%、结肠炎99.67%、结肠癌100.00%。结论 ViT在检测结肠疾病方面具有较高的诊断准确率,该模型可协助基层医院提高结肠疾病诊断的准确率,也可帮助初级内镜医师提高识别结肠疾病的能力,具有较为可靠的临床应用价值。 展开更多
关键词 结肠疾病 Vision Transformer 分类识别 临床应用
原文传递
“智”“镜”联合——探索慢性胃炎的中西医诊断与辨证
6
作者 段雨萌 于倩茹 +5 位作者 张柳盟 康丽洁 张坤 支政 杨倩 徐伟超 《时珍国医国药》 北大核心 2026年第5期993-1000,共8页
目的 探索多种机器学习模型基于胃镜下胃黏膜状态预测慢性胃炎(CG)的分类诊断与分型辨证,为中西医诊断理论创新提供价值。方法 回顾性收集诊断为慢性胃炎的2052张胃镜图像,进行数据预处理后,建立3种机器学习模型,评估机器学习算法辅助... 目的 探索多种机器学习模型基于胃镜下胃黏膜状态预测慢性胃炎(CG)的分类诊断与分型辨证,为中西医诊断理论创新提供价值。方法 回顾性收集诊断为慢性胃炎的2052张胃镜图像,进行数据预处理后,建立3种机器学习模型,评估机器学习算法辅助下胃镜在慢性胃炎诊断中的价值。胃镜作为中医望诊的延伸,在原有数据中筛选2016张胃镜图像作为新的数据集,基于机器学习进行虚实辨证,探索胃镜在慢性胃炎中医辨证分型中的作用。结果 训练的3种基于胃镜的模型(ViT、ResNet50、VGG16)对慢性萎缩性胃炎(CAG)的准确率分别98.60%、95.16%、95.81%,识别慢性非萎缩性胃炎(CNAG)准确率依次为99.16%、99.58%、99.16%;进一步实验的4种机器学习模型(ViT、ResNet50、VGG16、Mobilenet)识别CG实证组准确率依次为95.09%、88.24%、90.20%、87.25%;CG虚证组准确率为:89.10%、88.11%、89.14%、91.09%。结论机器学习可以作为辅助CG胃镜下诊断的稳定方法,且将课题组开发的基于胃镜的机器学习诊断模型可用于CG的中医虚实辨证。机器学习可辅助医师对该病进行识分类、辨证等任务,为人机共同决策提供临床应用价值。 展开更多
关键词 慢性胃炎 机器学习 胃镜下辨证 Vision Transformer ResNet50
原文传递
基于Vision Mamba模型的渔业监测物种分类性能比较
7
作者 张泽海 黄小双 +2 位作者 孔祥洪 刘必林 陈新军 《上海海洋大学学报》 北大核心 2026年第2期508-519,共12页
渔业电子观察员(Electronic monitoring)是实施渔业智能化监管的重要手段,图像识别是其支撑的关键技术之一,如何解决边缘计算场景下部署高性能、轻量化模型是目前面临的挑战。本研究引入深度学习领域的Vision Mamba(ViM)模型,该模型利... 渔业电子观察员(Electronic monitoring)是实施渔业智能化监管的重要手段,图像识别是其支撑的关键技术之一,如何解决边缘计算场景下部署高性能、轻量化模型是目前面临的挑战。本研究引入深度学习领域的Vision Mamba(ViM)模型,该模型利用选择性状态空间机制(State space model,SSM)构建双向编码器,在保持线性计算复杂度的同时实现了对图像长距离依赖关系的全局建模。研究以自然保护协会渔业监测数据集为基础,与ResNet、EfficientNet、DeiT等主流模型开展了系统性的性能对比研究。结果显示,ViM模型在效率与精度上均表现出卓越性能。在轻量级模型中,ViM-Tiny在比ResNet-18基线模型少44.28%参数量的情况下,准确率提升了1.12%,F1分数提升了2.19%。在中量级模型中,ViM-Small在参数量相较ResNet-101基线模型减少44.65%的情况下,仍能实现与之接近持平的准确率(0.960 3)与F1分数(0.964 5)。研究表明,ViM模型能够在显著降低模型复杂度的同时,仍保持强大的渔业物种分类能力,在轻量化与高精度之间取得了很好的平衡。研究为构建高效、智能的渔业监管系统提供了新的技术路径。 展开更多
关键词 渔业电子观察员 图像分类 Vision Mamba模型 深度学习 渔业监测数据集
原文传递
空间特征和高频特征融合的轻量级人脸伪造检测
8
作者 杜利莎 杨高明 +1 位作者 苏树智 刘惠临 《计算机应用研究》 北大核心 2026年第2期610-616,共7页
现有基于vision Transformer(ViT)的人脸伪造检测方法计算复杂度高,轻量化的算法很难捕捉到细微的伪造痕迹导致检测精度低。针对轻量化模型检测效率低的问题,设计高频分量提取模块和空频交叉融合模块,并与轻量级的卷积加法自注意ViT结... 现有基于vision Transformer(ViT)的人脸伪造检测方法计算复杂度高,轻量化的算法很难捕捉到细微的伪造痕迹导致检测精度低。针对轻量化模型检测效率低的问题,设计高频分量提取模块和空频交叉融合模块,并与轻量级的卷积加法自注意ViT结合。其中,高频分量提取模块提取图像中包含细微伪造痕迹的高频分量,空频交叉融合模块采用交叉注意力实现高频特征和空间特征的交互。与骨干网络比较,提出的方法在FaceForensics++数据集上的AUC提升了12.29个百分点,在DFDC上的跨数据集AUC提升了7.18个百分点。实验结果表明该方法在减少计算资源消耗的同时提升检测效率,在效率和性能之间取得平衡。 展开更多
关键词 人脸伪造检测 vision Transformer 轻量化 特征融合 高频特征
在线阅读 下载PDF
结合RFECV与HNDF的青光眼自动检测
9
作者 尚丽楠 池越 +3 位作者 周亚同 单春艳 肖志涛 金可震 《中国医学物理学杂志》 2026年第3期411-420,共10页
提出一种结合递归特征消除交叉验证(RFECV)与混合神经决策森林(HNDF)的青光眼自动检测模型VITRCH模型。首先,为了更好地学习到眼底图像的全局视觉信息,使用Vision Transformer(ViT)模型对视网膜眼底图像进行分类。接着,将原ViT模型特征... 提出一种结合递归特征消除交叉验证(RFECV)与混合神经决策森林(HNDF)的青光眼自动检测模型VITRCH模型。首先,为了更好地学习到眼底图像的全局视觉信息,使用Vision Transformer(ViT)模型对视网膜眼底图像进行分类。接着,将原ViT模型特征分类部分的多层感知机(MLP)分类器替换为一种结合神经网络和决策森林的HNDF分类器,该分类器通过结合神经网络在特征表示方面的优势与决策森林的可解释性和鲁棒性,能更高效地完成青光眼图像的分类任务。然后,在原ViT模型的特征提取部分之后融入RFECV特征选择模块,通过剔除掉对分类任务贡献率低的冗余特征,降低预测模型训练难度,减少训练时间。各改进模型在ACRIMA数据集上进行实验评估,实验结果表明,相较于原ViT模型,VITRCH模型有效发挥各改进模块的优势,为青光眼的自动化检测提供一种更稳健的解决方案。 展开更多
关键词 青光眼 Vision Transformer 混合神经决策森林 递归特征消除交叉验证
暂未订购
卷积神经网络与Vision Transformer在胶质瘤中的研究进展
10
作者 杨浩辉 徐涛 +3 位作者 王伟 安良良 敖用芳 朱家宝 《磁共振成像》 北大核心 2026年第1期168-174,共7页
胶质瘤因高度异质性、强侵袭性及预后差,传统诊疗面临巨大挑战。深度学习技术的引入为其精准诊疗提供了新路径,其中卷积神经网络(convolutional neural network,CNN)与Vision Transformer(ViT)是核心工具。CNN凭借层级化卷积操作在局部... 胶质瘤因高度异质性、强侵袭性及预后差,传统诊疗面临巨大挑战。深度学习技术的引入为其精准诊疗提供了新路径,其中卷积神经网络(convolutional neural network,CNN)与Vision Transformer(ViT)是核心工具。CNN凭借层级化卷积操作在局部特征提取(如肿瘤边缘、纹理细节)上具有天然优势,而ViT基于自注意力机制在全局上下文建模(如肿瘤跨区域异质性、多模态关联)方面表现突出,二者的融合策略通过整合局部精细特征与全局关联信息,在应对胶质瘤边界模糊、跨模态数据异构性等临床难题中展现出显著优势。本文综述了二者在胶质瘤检测与分割、病理分级、分子分型、预后评估等关键临床任务中的研究进展,阐述了原理、单独应用及融合策略。同时,本文也探讨了当前研究中存在的挑战,诸如对数据标注的强依赖性、模型可解释性不足等问题,并展望了未来的发展方向,例如构建轻量化架构、发展自监督学习以及推进多组学融合等前沿,以期为胶质瘤智能诊断提供系统性参考。 展开更多
关键词 胶质瘤 深度学习 卷积神经网络 Vision Transformer 磁共振成像
暂未订购
融合Transformer与SAC算法的无人车视觉导航模型
11
作者 张益敏 刘磊 《计算技术与自动化》 2026年第1期1-8,共8页
为应对真实环境中自主导航任务面临的高感知力和安全性需求,提出了一种融合Transformer与SAC算法的无人车视觉导航模型。该模型利用Vision Transformer(ViT)网络提取图像特征,作为强化学习算法的状态输入,以此来提高无人车在动态环境中... 为应对真实环境中自主导航任务面临的高感知力和安全性需求,提出了一种融合Transformer与SAC算法的无人车视觉导航模型。该模型利用Vision Transformer(ViT)网络提取图像特征,作为强化学习算法的状态输入,以此来提高无人车在动态环境中的感知能力。为应对视觉传感器故障导致的安全性问题,预训练雷达策略作为决策过程中的低计算成本应急备选方案。在Gazebo中进行仿真实验,结果表明,融合Vision Transformer训练的视觉导航策略收敛速度更快且成功率更高;在传感器突发故障时,各模态策略能够协调配合,保证导航的鲁棒性;所训练的模型能在不同环境中展现出良好的适应性。 展开更多
关键词 深度强化学习 Vision Transformer 自主导航 Gazebo仿真
在线阅读 下载PDF
基于条件生成对抗网络和Vision Transformer的胎儿颅脑超声标准切面识别方法
12
作者 李惠莲 林艺榕 +1 位作者 刘中华 柳培忠 《临床超声医学杂志》 2026年第2期164-169,共6页
胎儿颅脑超声检查是产前常规筛查中至关重要的一环,准确识别标准切面对于评估胎儿大脑发育状况具有重要意义。然而,由于超声图像质量差异和切面获取的复杂性,准确识别标准切面具有较大的挑战性。本文提出了一种基于条件对抗生成网络(CG... 胎儿颅脑超声检查是产前常规筛查中至关重要的一环,准确识别标准切面对于评估胎儿大脑发育状况具有重要意义。然而,由于超声图像质量差异和切面获取的复杂性,准确识别标准切面具有较大的挑战性。本文提出了一种基于条件对抗生成网络(CGAN)和Vision Transformer的胎儿颅脑超声标准切面识别方法,利用CGAN对原始数据进行增强,生成额外的标准切面和非标准切面图像,解决数据不足的问题;同时采用YOLOv9模型对超声图像中的颅骨区域进行自动裁剪,去除无关信息,确保模型专注于关键区域。在分类模型中采用Vision Transformer对所有输入图像进行归一化和尺寸调整,使用了数据增强技术如随机水平或垂直翻转、调整图像对比度、中心裁剪和调整图像饱和度等。结果显示,相较于现有最优模型CSwin Transformer的方法,本文提出的方法在胎儿颅脑超声标准切面识别任务中表现出色,其精确率、召回率、F1分数及准确率分别为92.5%、92.3%、92.4%和93.3%。该方法在提升识别精度方面具有显著优势,为临床超声检查提供了有效技术支持。 展开更多
关键词 条件生成对抗网络 Vision Transformer 颅脑超声 胎儿 标准切面识别方法
暂未订购
基于自适应局部划分Vision Transformer的车辆重识别方法
13
作者 徐萌兮 陈海鑫 徐焕宇 《汽车技术》 北大核心 2026年第4期17-25,共9页
针对复杂场景下因摄像头视角变化、遮挡及车辆外观相似性导致模型的特征表达不充分和鲁棒性不足等问题,提出一种基于自适应局部划分Vision Transformer的车辆重识别方法。结合卷积和注意力设计自适应局部划分(ALP)模块;通过层次化注意... 针对复杂场景下因摄像头视角变化、遮挡及车辆外观相似性导致模型的特征表达不充分和鲁棒性不足等问题,提出一种基于自适应局部划分Vision Transformer的车辆重识别方法。结合卷积和注意力设计自适应局部划分(ALP)模块;通过层次化注意力融合(HAF)模块整合低层视觉细节与高层全局语义,为自适应区域划分提供特征引导;引入多重特征嵌入(MFE)模块,基于相机和视角的动态加权机制提升多视角、多相机环境下的特征区分能力。试验结果表明:在车辆重识别任务中,所提出方法在VeRi-776数据集上的mAP和Rank-1分别达到81.0%、97.1%,在VehicleID数据集上的Rank-1达到80.2%,显著提升了模型的识别精度和鲁棒性。 展开更多
关键词 车辆重识别 VISION TRANSFORMER 局部划分 注意力融合
在线阅读 下载PDF
基于Vision Transformer的高炉风口智能监测模型及应用
14
作者 王浩男 韩明博 +1 位作者 但家云 李强 《钢铁研究学报》 北大核心 2026年第1期25-37,共13页
高炉下部风口窥视孔可以实时监测高炉回旋区的燃烧特征与喷煤状态等关键冶炼状态信息,进而判断煤气流分布和炉缸活跃程度等重要参数。为解决风口监测过程中存在的主观性与时滞性问题,本工作基于风口图像非结构大数据与Vision Transforme... 高炉下部风口窥视孔可以实时监测高炉回旋区的燃烧特征与喷煤状态等关键冶炼状态信息,进而判断煤气流分布和炉缸活跃程度等重要参数。为解决风口监测过程中存在的主观性与时滞性问题,本工作基于风口图像非结构大数据与Vision Transformer架构,建立了高炉风口智能监测模型TI-ViT。首先,对采集到的风口图像进行预处理,通过特征辨析与标签标定形成典型炉况数据集;进而,基于Vision Transformer架构构建了TI-ViT风口图像识别模型;最后,对TI-ViT模型进行性能评估,重点探究了模型深度对准确率、参数量、训练时间与运行时间的影响,并与传统卷积神经网络模型进行比较。经验证,TI-ViT模型的准确率达到97.7%,相比基于卷积神经网络的模型提升了9.1%,单张图像的推理时间仅为15.75 ms。将基于本研究模型所开发的“智慧眼”系统应用于现场实践,其识别准确率可达95.2%,表明该系统实现了对高炉风口的实时监测、识别与预警,有助于降低钢铁企业对风口异常状态的监测与诊断成本,为高炉炼铁智能化提供了新的发展方向。 展开更多
关键词 高炉风口 计算机视觉 Vision Transformer 图像识别 高炉炼铁
原文传递
Gait-ViT:基于Vision Transformer的跨视角步态识别方法
15
作者 沈澍 王森 +1 位作者 黄苏岩 张秉睿 《小型微型计算机系统》 北大核心 2026年第3期646-652,共7页
步态识别作为一种远程生物特征识别技术,在医疗康复、刑侦侦查及社会治安等领域展现出广泛的应用前景.近年来,随着深度学习的快速发展,步态识别方法逐渐从传统的卷积神经网络(Convolutional Neural Network,CNN)转向更为先进的Transfor... 步态识别作为一种远程生物特征识别技术,在医疗康复、刑侦侦查及社会治安等领域展现出广泛的应用前景.近年来,随着深度学习的快速发展,步态识别方法逐渐从传统的卷积神经网络(Convolutional Neural Network,CNN)转向更为先进的Transformer架构.尽管CNN在图像处理任务中表现优异,但其对图像关键区域的关注能力有限,而注意力机制则能够通过聚焦图像局部区域来学习更具判别性的特征.为此,本文提出了一种融合注意力机制的Vision Transformer模型(Gait-ViT)用于步态识别,该方法首先将步态轮廓划分成多个小块并转化成块序列;然后通过位置嵌入和类嵌入对序列中的位置信息进行重新排列和编码;最后,将向量序列反馈给Vision Transformer进行预测.Gait-ViT模型在CASIA-B和OU-MVLP两个公开步态数据集上分别取得了98.1%和91.2%的识别准确率,验证了所提模型的有效性. 展开更多
关键词 步态识别 Vision Transformer 卷积神经网络 特征提取
在线阅读 下载PDF
有效诊断Vision Transformer网络的滚动轴承故障诊断方法
16
作者 罗志勇 李明周 董鑫 《重庆邮电大学学报(自然科学版)》 北大核心 2026年第1期146-155,共10页
针对滚动轴承故障诊断中特征提取不完整和诊断效率低的问题,提出了有效诊断Vision Transformer(EDViT)网络。采用基于峰度的加权融合策略,合并传感器信息;利用短时傅里叶变换,将融合后的信号转换为时频图像;依次应用EDViT的双重注意卷... 针对滚动轴承故障诊断中特征提取不完整和诊断效率低的问题,提出了有效诊断Vision Transformer(EDViT)网络。采用基于峰度的加权融合策略,合并传感器信息;利用短时傅里叶变换,将融合后的信号转换为时频图像;依次应用EDViT的双重注意卷积模块和双分支补丁视觉变换模块来提取局部和全局特征,使用分类器进行故障分类。实验验证在凯斯西储大学轴承数据集上进行。结果表明,EDViT模型具有出色的特征提取能力、快速的收敛速度和较高的诊断准确性。与其他方法的对比表明,EDViT模型具有很强的泛化能力和鲁棒性。 展开更多
关键词 有效诊断Vision Transformer网络 滚动轴承 故障诊断
在线阅读 下载PDF
Total score of the computer vision syndrome questionnaire predicts refractive errors and binocular vision anomalies
17
作者 Mosaad Alhassan Tasneem Samman +5 位作者 Hatoun Badukhen Muhamad Alrashed Balsam Alabdulkader Essam Almutleb Tahani Alqahtani Ali Almustanyir 《International Journal of Ophthalmology(English edition)》 2026年第1期90-96,共7页
AIM:To evaluate the efficacy of the total computer vision syndrome questionnaire(CVS-Q)score as a predictive tool for identifying individuals with symptomatic binocular vision anomalies and refractive errors.METHODS:A... AIM:To evaluate the efficacy of the total computer vision syndrome questionnaire(CVS-Q)score as a predictive tool for identifying individuals with symptomatic binocular vision anomalies and refractive errors.METHODS:A total of 141 healthy computer users underwent comprehensive clinical visual function assessments,including evaluations of refractive errors,accommodation(amplitude of accommodation,positive relative accommodation,negative relative accommodation,accommodative accuracy,and accommodative facility),and vergence(phoria,positive and negative fusional vergence,near point of convergence,and vergence facility).Total CVS-Q scores were recorded to explore potential associations between symptom scores and the aforementioned clinical visual function parameters.RESULTS:The cohort included 54 males(38.3%)with a mean age of 23.9±0.58y and 87 age-matched females(61.7%)with a mean age of 23.9±0.53y.The multiple regression model was statistically significant[R²=0.60,F=13.28,degrees of freedom(DF=17122,P<0.001].This indicates that 60%of the variance in total CVS-Q scores(reflecting reported symptoms)could be explained by four clinical measurements:amplitude of accommodation,positive relative accommodation,exophoria at distance and near,and positive fusional vergence at near.CONCLUSION:The total CVS-Q score is a valid and reliable tool for predicting the presence of various nonstrabismic binocular vision anomalies and refractive errors in symptomatic computer users. 展开更多
关键词 computer vision syndrome refractive errors ACCOMMODATION VERGENCE binocular vision SYMPTOMS
原文传递
CAFE-GAN: CLIP-Projected GAN with Attention-Aware Generation and Multi-Scale Discrimination
18
作者 Xuanhong Wang Hongyu Guo +3 位作者 Jiazhen Li Mingchen Wang Xian Wang Yijun Zhang 《Computers, Materials & Continua》 2026年第1期1742-1760,共19页
Over the past decade,large-scale pre-trained autoregressive and diffusion models rejuvenated the field of text-guided image generation.However,these models require enormous datasets and parameters,and their multi-step... Over the past decade,large-scale pre-trained autoregressive and diffusion models rejuvenated the field of text-guided image generation.However,these models require enormous datasets and parameters,and their multi-step generation processes are often inefficient and difficult to control.To address these challenges,we propose CAFE-GAN,a CLIP-Projected GAN with Attention-Aware Generation and Multi-Scale Discrimination,which incorporates a pretrained CLIP model along with several key architectural innovations.First,we embed a coordinate attention mechanism into the generator to capture long-range dependencies and enhance feature representation.Second,we introduce a trainable linear projection layer after the CLIP text encoder,which aligns textual embeddings with the generator’s semantic space.Third,we design a multi-scale discriminator that leverages pre-trained visual features and integrates a feature regularization strategy,thereby improving training stability and discrimination performance.Experiments on the CUB and COCO datasets demonstrate that CAFE-GAN outperforms existing text-to-image generation methods,achieving lower Fréchet Inception Distance(FID)scores and generating images with superior visual quality and semantic fidelity,with FID scores of 9.84 and 5.62 on the CUB and COCO datasets,respectively,surpassing current state-of-the-art text-to-image models by varying degrees.These findings offer valuable insights for future research on efficient,controllable text-to-image synthesis. 展开更多
关键词 Large vision language models deep learning computer vision text-to-image generation
在线阅读 下载PDF
Prevalence of heterophoria,tropia,and near point of convergence abnormality in a high school student population in Erbil city center
19
作者 Morad Amir Ahmad 《International Journal of Ophthalmology(English edition)》 2026年第3期556-563,共8页
AIM:To determine the prevalence of tropia,phoria,and abnormality of near point of convergence(NPC),along with associated ocular symptoms,in high school students.METHODS:This cross-sectional study was conducted in Erbi... AIM:To determine the prevalence of tropia,phoria,and abnormality of near point of convergence(NPC),along with associated ocular symptoms,in high school students.METHODS:This cross-sectional study was conducted in Erbil,Iraq.The target population consisted of high school students selected through a multi-stage cluster sampling method.Comprehensive visual examinations were performed for all students,including measurement of uncorrected and corrected visual acuity,objective and subjective refraction,and distance and near cover tests.NPC was evaluated using a single 6/12 visual target mounted on a centrally positioned Gulden fixation stick.Ocular symptoms were investigated through interviews.RESULTS:Of the 996 selected students,921 participated in the study.Of them,543(58.96%)were female,and their ages ranged from 13 to 22y.The prevalence of tropia was 3.58%[95%confidence interval(CI):2.38%-4.78%],observed in 3.44%of males and 3.68%of females.Exotropia(1.95%,95%CI:1.06%-2.85%)was more common than esotropia(1.52%,95%CI:0.73%-2.31%).The 15.42%(95%CI:13.09%-17.75%)of students had phoria.Exophoria(13.79%,95%CI:11.56%-16.02%)was significantly more prevalent than esophoria(1.63%,95%CI:0.81%-2.45%).The prevalence of NPC abnormality in the total study population was 24.97%(95%CI:22.18%-27.77%).It was 26.72%(95%CI:22.26%-31.18%)in males and 23.76%(95%CI:20.18%-27.34%)in females(P=0.307).The most common symptom in phoria was headache(86.62%,95%CI:81.02%-92.22%),followed by tired or sore eyes(61.97%,95%CI:53.99%-69.96%).The most common symptoms in tropia were blurry vision(93.94%,95%CI:79.77%-99.26%)and difficulty concentrating(87.88%,95%CI:76.74%-99.01%).CONCLUSION:Among Erbil’s high school students,the prevalence of strabismus,particularly the exodeviation type,is relatively high,and a significant percentage of students have NPC abnormalities.Addressing and correcting these binocular vision problems,due to their associated visual symptoms,can lead to an improvement in students’quality of life and academic performance. 展开更多
关键词 tropia PHORIA binocular vision crosssectional study STUDENT
原文传递
A Hybrid Vision Transformer with Attention Architecture for Efficient Lung Cancer Diagnosis
20
作者 Abdu Salam Fahd M.Aldosari +4 位作者 Donia Y.Badawood Farhan Amin Isabel de la Torre Gerardo Mendez Mezquita Henry Fabian Gongora 《Computers, Materials & Continua》 2026年第4期1129-1147,共19页
Lung cancer remains a major global health challenge,with early diagnosis crucial for improved patient survival.Traditional diagnostic techniques,including manual histopathology and radiological assessments,are prone t... Lung cancer remains a major global health challenge,with early diagnosis crucial for improved patient survival.Traditional diagnostic techniques,including manual histopathology and radiological assessments,are prone to errors and variability.Deep learning methods,particularly Vision Transformers(ViT),have shown promise for improving diagnostic accuracy by effectively extracting global features.However,ViT-based approaches face challenges related to computational complexity and limited generalizability.This research proposes the DualSet ViT-PSO-SVM framework,integrating aViTwith dual attentionmechanisms,Particle Swarm Optimization(PSO),and SupportVector Machines(SVM),aiming for efficient and robust lung cancer classification acrossmultiple medical image datasets.The study utilized three publicly available datasets:LIDC-IDRI,LUNA16,and TCIA,encompassing computed tomography(CT)scans and histopathological images.Data preprocessing included normalization,augmentation,and segmentation.Dual attention mechanisms enhanced ViT’s feature extraction capabilities.PSO optimized feature selection,and SVM performed classification.Model performance was evaluated on individual and combined datasets,benchmarked against CNN-based and standard ViT approaches.The DualSet ViT-PSO-SVM significantly outperformed existing methods,achieving superior accuracy rates of 97.85%(LIDC-IDRI),98.32%(LUNA16),and 96.75%(TCIA).Crossdataset evaluations demonstrated strong generalization capabilities and stability across similar imagingmodalities.The proposed framework effectively bridges advanced deep learning techniques with clinical applicability,offering a robust diagnostic tool for lung cancer detection,reducing complexity,and improving diagnostic reliability and interpretability. 展开更多
关键词 Deep learning artificial intelligence healthcare medical imaging vision transformer
在线阅读 下载PDF
上一页 1 2 120 下一页 到第
使用帮助 返回顶部