期刊文献+
共找到256篇文章
< 1 2 13 >
每页显示 20 50 100
Fusion Prototypical Network for 3D Scene Graph Prediction
1
作者 Jiho Bae Bogyu Choi +1 位作者 Sumin Yeon Suwon Lee 《Computer Modeling in Engineering & Sciences》 2025年第6期2991-3003,共13页
Scene graph prediction has emerged as a critical task in computer vision,focusing on transforming complex visual scenes into structured representations by identifying objects,their attributes,and the relationships amo... Scene graph prediction has emerged as a critical task in computer vision,focusing on transforming complex visual scenes into structured representations by identifying objects,their attributes,and the relationships among them.Extending this to 3D semantic scene graph(3DSSG)prediction introduces an additional layer of complexity because it requires the processing of point-cloud data to accurately capture the spatial and volumetric characteristics of a scene.A significant challenge in 3DSSG is the long-tailed distribution of object and relationship labels,causing certain classes to be severely underrepresented and suboptimal performance in these rare categories.To address this,we proposed a fusion prototypical network(FPN),which combines the strengths of conventional neural networks for 3DSSG with a Prototypical Network.The former are known for their ability to handle complex scene graph predictions while the latter excels in few-shot learning scenarios.By leveraging this fusion,our approach enhances the overall prediction accuracy and substantially improves the handling of underrepresented labels.Through extensive experiments using the 3DSSG dataset,we demonstrated that the FPN achieves state-of-the-art performance in 3D scene graph prediction as a single model and effectively mitigates the impact of the long-tailed distribution,providing a more balanced and comprehensive understanding of complex 3D environments. 展开更多
关键词 3D scene graph prediction prototypical network 3D scene understanding
在线阅读 下载PDF
High-extensible scene graph framework based on component techniques
2
作者 LI Qi-cheng WANG Guo-ping ZHOU Feng 《Journal of Zhejiang University-Science A(Applied Physics & Engineering)》 SCIE EI CAS CSCD 2006年第7期1247-1252,共6页
In this paper, a novel component-based scene graph is proposed, in which all objects in the scene are classified to different entities, and a scene can be represented as a hierarchical graph composed of the instances ... In this paper, a novel component-based scene graph is proposed, in which all objects in the scene are classified to different entities, and a scene can be represented as a hierarchical graph composed of the instances of entities. Each entity contains basic data and its operations which are encapsulated into the entity component. The entity possesses certain behaviours which are responses to rules and interaction defined by the high-level application. Such behaviours can be described by script or behaviours model. The component-based scene graph in the paper is more abstractive and high-level than traditional scene graphs. The contents of a scene could be extended flexibly by adding new entities and new entity components, and behaviour modification can be obtained by modifying the model components or behaviour scripts. Its robustness and efficiency are verified by many examples implemented in the Virtual Scenario developed by Peking University. 展开更多
关键词 scene graph ENTITY Entity component Behaviour script Behaviour model
在线阅读 下载PDF
3D scene graph prediction from point clouds
3
作者 Fanfan WU Feihu YAN +1 位作者 Weimin SHI Zhong ZHOU 《Virtual Reality & Intelligent Hardware》 EI 2022年第1期76-88,共13页
Background In this study,we propose a novel 3D scene graph prediction approach for scene understanding from point clouds.Methods It can automatically organize the entities of a scene in a graph,where objects are nodes... Background In this study,we propose a novel 3D scene graph prediction approach for scene understanding from point clouds.Methods It can automatically organize the entities of a scene in a graph,where objects are nodes and their relationships are modeled as edges.More specifically,we employ the DGCNN to capture the features of objects and their relationships in the scene.A Graph Attention Network(GAT)is introduced to exploit latent features obtained from the initial estimation to further refine the object arrangement in the graph structure.A one loss function modified from cross entropy with a variable weight is proposed to solve the multi-category problem in the prediction of object and predicate.Results Experiments reveal that the proposed approach performs favorably against the state-of-the-art methods in terms of predicate classification and relationship prediction and achieves comparable performance on object classification prediction.Conclusions The 3D scene graph prediction approach can form an abstract description of the scene space from point clouds. 展开更多
关键词 scene understanding 3D scene graph Point cloud DGCNN GAT
在线阅读 下载PDF
Constructing Multiple Scene Graphs in Distributed Environment
4
作者 XIA Rui WANG Guo-ping +1 位作者 LI Sheng WANG Heng 《Computer Aided Drafting,Design and Manufacturing》 2015年第1期16-21,共6页
Scene graph is a infrastructure of the virtual reality system to organize the virtual scene with abstraction, it can provide facility for the rendering engine and should be integrated effectively on demand into a real... Scene graph is a infrastructure of the virtual reality system to organize the virtual scene with abstraction, it can provide facility for the rendering engine and should be integrated effectively on demand into a real-time system, where a large quantities of scene objects and resources can be manipulated and managed with high flexibility and reliability. We present a new scheme of multiple scene graphs to accommodate the features of rendering engine and distributed systems. Based upon that, some other functions, e.g. block query, interactive editing, permission management, instance response, "redo" and "undo", are implemented to satisfy various requirements. At the same time, our design has compatibility to popular C/S architecture with good concurrent performance. Above all, it is convenient to be used for further development. The results of experiments including responding time demonstrate its good performance. 展开更多
关键词 multiple scene graphs AUTHORITY scene editing distributed systems
在线阅读 下载PDF
Dynamic Scene Graph Generation of Point Clouds with Structural Representation Learning 被引量:1
5
作者 Chao Qi Jianqin Yin +1 位作者 Zhicheng Zhang Jin Tang 《Tsinghua Science and Technology》 SCIE EI CAS CSCD 2024年第1期232-243,共12页
Scene graphs of point clouds help to understand object-level relationships in the 3D space.Most graph generation methods work on 2D structured data,which cannot be used for the 3D unstructured point cloud data.Existin... Scene graphs of point clouds help to understand object-level relationships in the 3D space.Most graph generation methods work on 2D structured data,which cannot be used for the 3D unstructured point cloud data.Existing point-cloud-based methods generate the scene graph with an additional graph structure that needs labor-intensive manual annotation.To address these problems,we explore a method to convert the point clouds into structured data and generate graphs without given structures.Specifically,we cluster points with similar augmented features into groups and establish their relationships,resulting in an initial structural representation of the point cloud.Besides,we propose a Dynamic Graph Generation Network(DGGN)to judge the semantic labels of targets of different granularity.It dynamically splits and merges point groups,resulting in a scene graph with high precision.Experiments show that our methods outperform other baseline methods.They output reliable graphs describing the object-level relationships without additional manual labeled data. 展开更多
关键词 scene graph generation structural representation point cloud
原文传递
ViWoSG:A distributed scene graph of ultra-massive distributed virtual environments 被引量:3
6
作者 WANG GuoPing, LI Sheng, WANG ShaoRong, LU Bin & LI WenHang Key Lab of Machine Perception and Intelligent, MOE Department of Computer Science, Peking University, Beijing 100871, China 《Science in China(Series F)》 2009年第3期457-469,共13页
An ultra-massive distributed virtual environment generally consists of ultra-massive terrain data and a large quantity of objects and their attribute data, such as 2D/3D geometric models, audio/video, images, vectors,... An ultra-massive distributed virtual environment generally consists of ultra-massive terrain data and a large quantity of objects and their attribute data, such as 2D/3D geometric models, audio/video, images, vectors, characteristics, etc. In this paper, we propose a novel method for constructing distributed scene graphs with high extensibility. This method can support high concurrent interaction of clients and implement various tasks such as editing, querying, accessing and motion controlling. Some application experiments are performed to demonstrate its efficiency and soundness. 展开更多
关键词 VR distributed system scene graph ultra-massive distributed scene graph
原文传递
基于OpenSceneGraph的大场景三维浏览系统设计与实现 被引量:4
7
作者 洪洲 徐颖 张正鹏 《矿山测量》 2019年第2期116-119,共4页
文中主要研究了基于OpenSceneGraph的大场景三维模型的建立、三维浏览系统设计与实现。首先在3DMax中建立场景中的独立模型,利用VirtualPlanetBuilder建立场景DEM模型,最后利用Visual Stidio和OpenSceneGraph设计并开发了大场景三维浏... 文中主要研究了基于OpenSceneGraph的大场景三维模型的建立、三维浏览系统设计与实现。首先在3DMax中建立场景中的独立模型,利用VirtualPlanetBuilder建立场景DEM模型,最后利用Visual Stidio和OpenSceneGraph设计并开发了大场景三维浏览系统,实现了三维场景模型的加载、浏览和漫游功能。 展开更多
关键词 三维建模 Openscenegraph VirtualPlanetBuilder
在线阅读 下载PDF
基于多语义关联与融合的视觉问答模型
8
作者 周浩 王超 +1 位作者 崔国恒 罗廷金 《计算机应用》 北大核心 2025年第3期739-745,共7页
弥合视觉图像和文本问题之间的语义差异是提高视觉问答(VQA)模型推理准确性的重要方法之一。然而现有的相关模型大多数基于低层图像特征的提取并利用注意力机制推理问题的答案,忽略了高层图像语义特征如关系和属性特征等在视觉推理中的... 弥合视觉图像和文本问题之间的语义差异是提高视觉问答(VQA)模型推理准确性的重要方法之一。然而现有的相关模型大多数基于低层图像特征的提取并利用注意力机制推理问题的答案,忽略了高层图像语义特征如关系和属性特征等在视觉推理中的作用。为解决上述问题,提出一种基于多语义关联与融合的VQA模型以建立问题与图像之间的语义联系。首先,基于场景图生成框架提取图像中的多种语义并把它们进行特征精炼后作为VQA模型的特征输入,从而充分挖掘图像场景中的信息;其次,为提高图像特征的语义价值,设计一个信息过滤器过滤图像特征中的噪声和冗余信息;最后,设计多层注意力融合和推理模块将多种图像语义分别与问题特征进行语义融合,以强化视觉图像重点区域与文本问题之间的语义关联。与BAN(Bilinear Attention Network)和CFR(Coarse-to-Fine Reasoning)模型的对比实验结果表明,所提模型在VQA2.0测试集上的准确率分别提高了2.9和0.4个百分点,在GQA测试集上的准确率分别提高了17.2和0.3个百分点。这表明所提模型能够更好地理解图像场景中的语义并回答组合式视觉问题。 展开更多
关键词 多语义特征融合 视觉问答 场景图 属性注意力 关系注意力
在线阅读 下载PDF
面向复杂自然场景的遥感地学分区智能解译框架及初探 被引量:1
9
作者 王志华 杨晓梅 +4 位作者 张俊瑶 刘晓亮 李连发 董文 贺伟 《地球信息科学学报》 北大核心 2025年第2期305-330,共26页
【目的】当下,面向多圈层耦合、人类干扰强烈的复杂自然场景遥感智能解译在地学研究和实际业务中常存在不好用的问题。为此,本文从遥感地学认知原理角度出发,在明晰遥感智能解译的使命是依托遥感大数据更好地辅助建立数字地球之后,认为... 【目的】当下,面向多圈层耦合、人类干扰强烈的复杂自然场景遥感智能解译在地学研究和实际业务中常存在不好用的问题。为此,本文从遥感地学认知原理角度出发,在明晰遥感智能解译的使命是依托遥感大数据更好地辅助建立数字地球之后,认为达成一致的知识表征模型是解决问题的关键,进而提出遥感解译与地学认知应该耦合为一个系统,以实现“数据获取知识”与“知识引导数据”的双向驱动。【分析】在此基础上,提出以遥感地学分区为纽带的智能解译框架,以打通已有地学知识向遥感智能解译过程的输入与引导,增加解译结果与已有地学知识体系的匹配度。该框架主要依靠定量化的场景复杂性度量和地理分区知识耦合,形成面向遥感智能解译的地学分区方法以及分区样本抽样与规范,从而实现面向大区域的知识耦合下分区解译策略。【展望】通过复杂度与优化抽样实验、影像分区分割尺度优选、耕地类型细分等实验,初步揭示了本框架思路在优选样本、影像分割、耕地精细类型识别等遥感智能解译多方面均存在巨大潜力。 展开更多
关键词 遥感大数据 数字地球 遥感智能解译 信息提取 地理分区/区划 土地利用/覆被分类 复杂自然场景 场景分类 地学知识图谱
原文传递
面向交通场景的强鲁棒性场景图生成网络
10
作者 周玮 闵卫东 《计算机工程》 北大核心 2025年第9期231-241,共11页
交通场景图是对交通场景进行结构化表示,在智能交通领域中发挥着重要作用。当前场景图生成方法通过预测实体对之间的关系以生成无偏场景图。然而,由于数据集的长尾分布与实体关系的模糊特征表示,因此现有方法生成的交通场景图无法为下... 交通场景图是对交通场景进行结构化表示,在智能交通领域中发挥着重要作用。当前场景图生成方法通过预测实体对之间的关系以生成无偏场景图。然而,由于数据集的长尾分布与实体关系的模糊特征表示,因此现有方法生成的交通场景图无法为下游任务提供准确且具有丰富含义的交通场景信息。为了解决上述问题,提出1个上下文语义嵌入(CSE)和粗细粒度混合(CFGB)的交通场景图生成网络CSE-CFGB。使用CSE模块建立实体与谓词的独特语义表示,使用CFGB网络对实体间关系谓词进行强鲁棒性预测,主干分支(MB)使用CSE表示对实体之间的关系进行直接预测,粗粒度分支(CB)使用重加权机制负责学习头部谓词的鲁棒特征,而细粒度分支(FB)使用Logit调整方法负责细化对尾部谓词的学习,再配备分支权重表,使2个辅助分支能很好地合作以帮助MB平衡头部和尾部谓词的预测结果。在Visual Genome数据集上的实验结果表明,所提的场景图生成网络在PredCls任务中取得了平均性能指标Mean@50和Mean@100分别为49.5%和51.7%,能有效解决模型训练中实体关系表示模糊和数据集长尾分布的问题。 展开更多
关键词 场景图生成 长尾分布 特征表示 上下文语义嵌入 粗细粒度混合
在线阅读 下载PDF
基于权重偏置图注意网络的复杂场景中物体位置关系推理方法
11
作者 左国玉 王子豪 +1 位作者 赵敏 于双悦 《计算机学报》 北大核心 2025年第3期572-585,共14页
在复杂环境中安全抓取目标物体对于机器人技术至关重要,这要求机器人能够准确理解目标物体与周围其他物体之间的空间位置关系。尽管卷积神经网络在关系推理方面展现出一定的潜力,但由于其主要关注像素级信息提取,导致对全局信息的理解不... 在复杂环境中安全抓取目标物体对于机器人技术至关重要,这要求机器人能够准确理解目标物体与周围其他物体之间的空间位置关系。尽管卷积神经网络在关系推理方面展现出一定的潜力,但由于其主要关注像素级信息提取,导致对全局信息的理解不足,并忽略了关键的物体关系,从而限制了推理的准确性。为了解决这一问题,本文提出了一种基于端到端图注意网络的关系推理模型,旨在提升推理物体位置关系的准确性。该模型首先采用EfficientNet-B0与双向特征金字塔网络(BiFPN)进行RGB特征提取。其次,在构建图结构时,通过过滤缺乏上下位置关系的物体对,使图结构更加稀疏,从而降低计算负担。随后,利用带权重偏置的图注意网络来预测物体之间的位置关系。在视觉操纵关系数据集(VMRD)上对所提模型进行了训练和评估。结果显示,该模型在关系推理的图像准确率(IA)指标上达到了71.1%。此外,采用梯度加权类激活映射(Grad-CAM)进行了注意力可视化,进一步验证了模型在多物体无序堆叠场景中推断空间位置关系的有效性,使其适用于真实的机械臂抓取应用。最后,通过在实验室环境中对常见物体进行测试,成功地将模型应用于真实世界的机械臂抓取场景,证明了该模型在实际环境中的通用性和实用性。 展开更多
关键词 复杂场景 关系推理 BiFPN 图注意网络 抓取顺序
在线阅读 下载PDF
基于关联信息增强与关系平衡的场景图生成方法 被引量:1
12
作者 李林昊 韩冬 +2 位作者 董永峰 李英双 王振 《计算机应用》 北大核心 2025年第3期953-962,共10页
利用场景图的上下文信息可以帮助模型理解目标之间的关联作用;然而,大量不相关的目标可能带来额外噪声,进而影响信息交互,造成预测偏差。在嘈杂且多样的场景中,即使几个简单的关联目标,也足够推断目标所处的环境信息,并消除其他目标的... 利用场景图的上下文信息可以帮助模型理解目标之间的关联作用;然而,大量不相关的目标可能带来额外噪声,进而影响信息交互,造成预测偏差。在嘈杂且多样的场景中,即使几个简单的关联目标,也足够推断目标所处的环境信息,并消除其他目标的歧义信息。此外,在面对真实场景中的长尾偏差数据时,场景图生成(SGG)的性能难以令人满意。针对上下文信息增强和预测偏差的问题,提出一种基于关联信息增强与关系平衡的SGG(IERB)方法。IERB方法采用一种二次推理结构,即根据有偏场景图的预测结果重新构建不同预测视角下的关联信息并平衡预测偏差。首先,聚焦不同视角下的强相关目标以构建上下文关联信息;其次,利用树型结构的平衡策略增强尾部关系的预测能力;最后,采用一种预测引导方式在已有场景图的基础上预测优化。在通用的数据集Visual Genome上的实验结果表明,与3类基线模型VTransE(Visual Translation Embedding network)、Motif和VCTree(Visual Context Tree)相比,所提方法在谓词分类(PredCls)任务下的均值召回率mR@100分别提高了11.66、13.77和13.62个百分点,验证了所提方法的有效性。 展开更多
关键词 场景图生成 信息增强 有偏预测 关系平衡 预测优化
在线阅读 下载PDF
GT-4S:基于图Transformer的场景草图语义分割 被引量:2
13
作者 张拯明 郭燕 +2 位作者 马翠霞 邓小明 王宏安 《软件学报》 北大核心 2025年第3期1375-1389,共15页
场景草图由多个前、背景物体组成,能够直观、概括地表达复杂的语义信息,在现实生活中有着广泛的实际应用,逐渐成为计算机视觉和人机交互领域的研究热点之一.作为场景草图语义理解的基础任务,场景草图语义分割的相关研究相对较少,现有的... 场景草图由多个前、背景物体组成,能够直观、概括地表达复杂的语义信息,在现实生活中有着广泛的实际应用,逐渐成为计算机视觉和人机交互领域的研究热点之一.作为场景草图语义理解的基础任务,场景草图语义分割的相关研究相对较少,现有的方法多是对自然图像语义分割的方法进行改进,不能克服草图自身的稀疏性和抽象性等特点.针对以上问题,直接从草图笔画入手,提出一种图Transformer模型结合草图笔画的时空信息来解决自由手绘场景草图语义分割任务.首先将矢量场景草图构建成图结构,笔画表示为图的节点,笔画在时序和空间上的关联表示为图的边.然后通过边增强的Transformer模块捕获笔画的时空全局上下文信息.最后将编码后的时空特征进行多分类优化学习.在SFSD场景草图数据集上的实验结果表明,所提方法可以利用笔画时空信息对场景草图进行有效的语义分割,实现优秀的性能. 展开更多
关键词 场景草图 语义分割 TRANSFORMER
在线阅读 下载PDF
基于场景图谱的石化化工行业数字化转型路径研究 被引量:1
14
作者 王凯 刘暄 +3 位作者 李钰嘉 刘洋 宋美琦 王程安 《信息技术与标准化》 2025年第4期21-25,共5页
为了加快推动石化化工行业数字化转型,提升智能化水平,分析了我国石化化工行业数字化转型的基本现状,重点阐述了生产计划调度、工艺参数优化、设备健康管理、本质安全生产、节能环保低碳等五类数字化转型的典型场景,针对石化化工行业特... 为了加快推动石化化工行业数字化转型,提升智能化水平,分析了我国石化化工行业数字化转型的基本现状,重点阐述了生产计划调度、工艺参数优化、设备健康管理、本质安全生产、节能环保低碳等五类数字化转型的典型场景,针对石化化工行业特点提出了在实施层面以标准为引领系统性、模块化、场景化、图谱化推进行业数字化转型的关键路径和政策建议。 展开更多
关键词 石化化工 数字化转型 场景图谱
在线阅读 下载PDF
区域敏感的场景图生成方法
15
作者 王立春 付芳玉 +2 位作者 徐凯 徐洪波 尹宝才 《北京工业大学学报》 CAS 北大核心 2025年第1期51-58,共8页
针对基于关系边界框提取的谓词特征粒度相对较粗的问题,提出区域敏感的场景图生成(region-sensitive scene graph generation,RS-SGG)方法。谓词特征提取模块将关系边界框分为4个区域,基于自注意力机制抑制关系边界框中与关系分类无关... 针对基于关系边界框提取的谓词特征粒度相对较粗的问题,提出区域敏感的场景图生成(region-sensitive scene graph generation,RS-SGG)方法。谓词特征提取模块将关系边界框分为4个区域,基于自注意力机制抑制关系边界框中与关系分类无关的背景区域。关系特征解码器在进行关系预测时不仅考虑了物体对的视觉特征和语义特征,也考虑了物体对的位置特征。在视觉基因组(visual genome,VG)数据集上分别计算了RS-SGG方法针对场景图生成、场景图分类和谓词分类3个子任务的图约束召回率和无图约束召回率,并与主流的场景图生成方法进行了比较。实验结果表明,RS-SGG的图约束召回率和无图约束召回率均优于主流方法。此外,可视化实验结果也进一步证明了所提出方法的有效性。 展开更多
关键词 图像理解 场景图生成 物体分类 关系分类 区域感知 自注意力机制
在线阅读 下载PDF
融合外部知识与证据的场景图注意力网络多模态谣言检测
16
作者 黄学坚 马廷淮 +3 位作者 荣欢 王根生 廖国琼 刘德喜 《计算机学报》 北大核心 2025年第9期2159-2180,共22页
社交媒体上谣言的泛滥对社会造成了严重的负面影响。随着多模态内容在社交媒体中的迅速增长,多模态谣言检测受到了越来越多的关注。目前,大多数方法主要聚焦于学习各个模态的特征,并通过特征融合实现不同模态信息的互补。然而,这些方法... 社交媒体上谣言的泛滥对社会造成了严重的负面影响。随着多模态内容在社交媒体中的迅速增长,多模态谣言检测受到了越来越多的关注。目前,大多数方法主要聚焦于学习各个模态的特征,并通过特征融合实现不同模态信息的互补。然而,这些方法存在两个关键问题:(1)不同特征空间之间的跨模态关联难以有效捕捉图文细粒度语义的一致性;(2)单纯依赖图文内容难以识别一些造谣者精心设计的深层语义不匹配的谣言。为此,本文提出了融合证据与知识的场景图注意力网络的多模态谣言检测方法。首先,基于预训练的语言和视觉模型,分别提取文本语义和图像视觉特征,并通过误差级别分析提取图像篡改特征;其次,构建了一种基于反事实推理的无偏场景图生成方法和微调的Flan-T5模型,分别将图像和文本转化为视觉场景图和文本场景图,并利用知识蒸馏从知识库中提取场景图实体的相关知识,以增强模型对场景图的深层语义理解;接着,设计了一种融合场景关系特征的场景图注意力网络,以挖掘图文间的细粒度语义匹配特征;最后,从互联网中筛选与待检验帖子相关的文本和图片证据,并通过交叉注意力机制实现证据与待检验帖子的交互对齐,提升模型对深层语义不匹配谣言的识别能力。实验表明,在Weibo和Twitter两个真实社交网络数据集上,本文提出的方法在宏准确率上比最佳基线方法分别提高了1.6%和2.2%,而在谣言类别的F1值上,分别提高了2.6%和3.0%。实验数据和代码已在GitHub上开源共享(https://github.com/xuejianhuang/SGKE)。 展开更多
关键词 多模态谣言检测 场景图注意力网络 图文语义匹配 多模态证据对齐 知识增强
在线阅读 下载PDF
基于关系特征强化的全景场景图生成方法
17
作者 李林昊 王逸泽 +2 位作者 李英双 董永峰 王振 《计算机应用》 北大核心 2025年第2期584-593,共10页
全景场景图生成(PSGG)旨在识别图像中所有对象并自动地捕获所有对象间的语义关联关系。语义关联关系建模依赖目标对象及对象对(subject-object pair)的特征描述,然而现行工作中存在以下不足:采用边界框提取方式获取的对象特征较模糊;仅... 全景场景图生成(PSGG)旨在识别图像中所有对象并自动地捕获所有对象间的语义关联关系。语义关联关系建模依赖目标对象及对象对(subject-object pair)的特征描述,然而现行工作中存在以下不足:采用边界框提取方式获取的对象特征较模糊;仅关注对象的语义和空间位置特征,忽略了对关系预测同样重要的对象对的语义联合特征和相对位置特征;未能针对不同类型的对象对(如前景-前景、前景-背景、背景-背景)进行差异化特征提取,进而忽略了它们之间的差异性。针对上述问题,提出一种基于关系特征强化的全景场景图生成方法(RFE)。首先,通过引入像素级掩码区域特征,丰富对象特征的细节信息,同时有效地融合对象对的联合视觉特征、语义联合特征和相对位置特征;其次,根据对象对的不同类型,自适应地选择最适合本类型对象对的特征提取方式;最后,获得强化后更精确的关系特征用于关系预测。在PSG数据集上的实验结果表明,以VCTree(Visual Contexts Tree)、Motifs、IMP(Iterative Message Passing)和GPSNet为基线方法,ResNet-101为骨干网络,RFE在具有挑战性的SGGen任务上召回率(R@20)指标分别提高了4.37、3.68、2.08和1.80个百分点,验证了所提方法在PSGG的有效性。 展开更多
关键词 全景场景图生成 对象对联合特征 关系特征强化 语义关联关系 自适应选择
在线阅读 下载PDF
数字孪生黄河知识平台建设初探 被引量:1
18
作者 祝宾皓 夏润亮 +3 位作者 李涛 吴丹 丁昱凯 李冰 《人民黄河》 北大核心 2025年第8期32-38,共7页
为提升黄河流域水利业务决策效率与智能化水平,引入大语言模型(LLM)与知识图谱技术,构建数字孪生黄河知识平台。针对传统知识图谱在动态业务场景中存在的知识存储静态化、非结构化数据处理能力不足等问题,提出基于LLM的水利知识问答机... 为提升黄河流域水利业务决策效率与智能化水平,引入大语言模型(LLM)与知识图谱技术,构建数字孪生黄河知识平台。针对传统知识图谱在动态业务场景中存在的知识存储静态化、非结构化数据处理能力不足等问题,提出基于LLM的水利知识问答机制与模型调用机制,研发文档办公助手、防洪“四预”助手、历史场景匹配、知识检索等功能;提出加权统计自适应距离计算方法,减少多属性相似度匹配中量纲差异与极值干扰问题。实际应用情况表明,该平台显著提升了防洪决策响应速度与历史场景匹配精度,水文模型调用准确率由43%提升至72%,距离域由500.00~4 100.00减小至0.48~0.72,可为黄河流域水利业务决策提供高效、可靠的知识服务支撑。 展开更多
关键词 知识平台 大语言模型 知识图谱 历史场景匹配 数字孪生黄河
在线阅读 下载PDF
基于场景图的遥感场景检索方法
19
作者 唐佳怡 童晓冲 +3 位作者 邱春平 雷亚现 雷毅 宋好帅 《测绘学报》 北大核心 2025年第1期123-135,共13页
当前,大部分的遥感场景检索都是基于遥感图像的深度特征的相似度匹配实现的,难以直接表征场景实体之间的关系信息,并且缺乏直接表达空间结构和语义的方式,因此无法满足对遥感场景的更加复杂的检索需求。本文提出了一种基于场景图的遥感... 当前,大部分的遥感场景检索都是基于遥感图像的深度特征的相似度匹配实现的,难以直接表征场景实体之间的关系信息,并且缺乏直接表达空间结构和语义的方式,因此无法满足对遥感场景的更加复杂的检索需求。本文提出了一种基于场景图的遥感场景检索方法,利用图神经网络将遥感场景对应的场景图数据映射为图级别的特征向量,利用图特征向量匹配结果逆推遥感场景检索结果。针对场景图的学习,本文制作了一套包含2380对遥感场景图的数据集,包含24类实体,8类拓扑空间关系,9类方位关系,具备空间关系结构化的表征,空间拓扑信息和方位信息齐全等优势。试验表明:基于场景图的遥感场景检索结果,在实体类别、拓扑关系、方位关系的检索准确性高,特别是与国际上具有代表性的几类遥感场景检索方法相比,本文方法在拓扑关系和方位关系的检索精度指标上有较大提升。 展开更多
关键词 场景图 遥感场景检索 知识图谱 图神经网络
在线阅读 下载PDF
无迭代图胶囊网络的遥感场景分类
20
作者 杨顺 边小勇 陈希 《计算机应用》 北大核心 2025年第1期247-252,共6页
目前大多数胶囊网络方法通过改进迭代路由的方式提高分类精度,而忽略了迭代路由本身复杂的计算量带来的负担。虽然有方法采用无迭代的路由训练胶囊网络,但是精度不佳。针对以上问题,提出无迭代路由图胶囊网络的场景分类模型。首先,利用... 目前大多数胶囊网络方法通过改进迭代路由的方式提高分类精度,而忽略了迭代路由本身复杂的计算量带来的负担。虽然有方法采用无迭代的路由训练胶囊网络,但是精度不佳。针对以上问题,提出无迭代路由图胶囊网络的场景分类模型。首先,利用简单卷积层提取输入图像的初始特征;接着,提出通道和胶囊间双融合的全局注意力模块,通过依次进行通道和胶囊之间的注意力生成全局权重系数来加权高级胶囊特征,使加权后的高级胶囊特征更具判别性,以突出重要的胶囊,从而提高分类性能;同时,引入能计算图像间相似性的等变正则化项,以建模胶囊网络的显式等变性,从而潜在地提升网络性能;最后,基于边界损失和等变损失的组合损失函数训练整个网络,以得到富于判别性的分类模型。在多个基准场景数据集上的实验结果验证了所提方法的有效性和效率。实验结果表明,所提方法在加拿大高级研究所的10类图像数据集(CIFAR-10)上的分类准确率达到90.38%,与动态路由胶囊网络(DRCaps)方法相比,提高了15.74个百分点;并且在仿射手写数字图像(AffNIST)数据集和航空影像数据集(AID)上,分别取得了98.21%和86.96%的分类准确率。可见,所提方法有效提高了场景分类性能。 展开更多
关键词 遥感场景分类 图胶囊网络 无迭代路由 等变正则化
在线阅读 下载PDF
上一页 1 2 13 下一页 到第
使用帮助 返回顶部