期刊文献+
共找到17篇文章
< 1 >
每页显示 20 50 100
Improving Targeted Multimodal Sentiment Classification with Semantic Description of Images 被引量:1
1
作者 Jieyu An Wan Mohd Nazmee Wan Zainon Zhang Hao 《Computers, Materials & Continua》 SCIE EI 2023年第6期5801-5815,共15页
Targeted multimodal sentiment classification(TMSC)aims to identify the sentiment polarity of a target mentioned in a multimodal post.The majority of current studies on this task focus on mapping the image and the text... Targeted multimodal sentiment classification(TMSC)aims to identify the sentiment polarity of a target mentioned in a multimodal post.The majority of current studies on this task focus on mapping the image and the text to a high-dimensional space in order to obtain and fuse implicit representations,ignoring the rich semantic information contained in the images and not taking into account the contribution of the visual modality in the multimodal fusion representation,which can potentially influence the results of TMSC tasks.This paper proposes a general model for Improving Targeted Multimodal Sentiment Classification with Semantic Description of Images(ITMSC)as a way to tackle these issues and improve the accu-racy of multimodal sentiment analysis.Specifically,the ITMSC model can automatically adjust the contribution of images in the fusion representation through the exploitation of semantic descriptions of images and text similarity relations.Further,we propose a target-based attention module to capture the target-text relevance,an image-based attention module to capture the image-text relevance,and a target-image matching module based on the former two modules to properly align the target with the image so that fine-grained semantic information can be extracted.Our experimental results demonstrate that our model achieves comparable performance with several state-of-the-art approaches on two multimodal sentiment datasets.Our findings indicate that incorporating semantic descriptions of images can enhance our understanding of multimodal content and lead to improved sentiment analysis performance. 展开更多
关键词 Targeted sentiment analysis multimodal sentiment classification visual sentiment textual sentiment social media
在线阅读 下载PDF
GLAMSNet:A Gated-Linear Aspect-Aware Multimodal Sentiment Network with Alignment Supervision and External Knowledge Guidance
2
作者 Dan Wang Zhoubin Li +1 位作者 Yuze Xia Zhenhua Yu 《Computers, Materials & Continua》 2025年第12期5823-5845,共23页
Multimodal Aspect-Based Sentiment Analysis(MABSA)aims to detect sentiment polarity toward specific aspects by leveraging both textual and visual inputs.However,existing models suffer from weak aspectimage alignment,mo... Multimodal Aspect-Based Sentiment Analysis(MABSA)aims to detect sentiment polarity toward specific aspects by leveraging both textual and visual inputs.However,existing models suffer from weak aspectimage alignment,modality imbalance dominated by textual signals,and limited reasoning for implicit or ambiguous sentiments requiring external knowledge.To address these issues,we propose a unified framework named Gated-Linear Aspect-Aware Multimodal Sentiment Network(GLAMSNet).First of all,an input encoding module is employed to construct modality-specific and aspect-aware representations.Subsequently,we introduce an image–aspect correlation matching module to provide hierarchical supervision for visual-textual alignment.Building upon these components,we further design a Gated-Linear Aspect-Aware Fusion(GLAF)module to enhance aspect-aware representation learning by adaptively filtering irrelevant textual information and refining semantic alignment under aspect guidance.Additionally,an External Language Model Knowledge-Guided mechanism is integrated to incorporate sentimentaware prior knowledge from GPT-4o,enabling robust semantic reasoning especially under noisy or ambiguous inputs.Experimental studies conducted based on Twitter-15 and Twitter-17 datasets demonstrate that the proposed model outperforms most state-of-the-art methods,achieving 79.36%accuracy and 74.72%F1-score,and 74.31%accuracy and 72.01%F1-score,respectively. 展开更多
关键词 sentiment analysis multimodal aspect-based sentiment analysis cross-modal alignment multimodal sentiment classification large language model
在线阅读 下载PDF
Research on Emotion Classification Supported by Multimodal Adversarial Autoencoder
3
作者 Jing Yu 《Journal of Electronic Research and Application》 2025年第1期270-275,共6页
In this paper,the sentiment classification method of multimodal adversarial autoencoder is studied.This paper includes the introduction of the multimodal adversarial autoencoder emotion classification method and the e... In this paper,the sentiment classification method of multimodal adversarial autoencoder is studied.This paper includes the introduction of the multimodal adversarial autoencoder emotion classification method and the experiment of the emotion classification method based on the encoder.The experimental analysis shows that the encoder has higher precision than other encoders in emotion classification.It is hoped that this analysis can provide some reference for the emotion classification under the current intelligent algorithm mode. 展开更多
关键词 Artificial intelligence Multimode adversarial encoder sentiment classification Evaluation criteria Modal Settings
在线阅读 下载PDF
Multi-Model Fusion Framework Using Deep Learning for Visual-Textual Sentiment Classification
4
作者 Israa K.Salman Al-Tameemi Mohammad-Reza Feizi-Derakhshi +1 位作者 Saeed Pashazadeh Mohammad Asadpour 《Computers, Materials & Continua》 SCIE EI 2023年第8期2145-2177,共33页
Multimodal Sentiment Analysis(SA)is gaining popularity due to its broad application potential.The existing studies have focused on the SA of single modalities,such as texts or photos,posing challenges in effectively h... Multimodal Sentiment Analysis(SA)is gaining popularity due to its broad application potential.The existing studies have focused on the SA of single modalities,such as texts or photos,posing challenges in effectively handling social media data with multiple modalities.Moreover,most multimodal research has concentrated on merely combining the two modalities rather than exploring their complex correlations,leading to unsatisfactory sentiment classification results.Motivated by this,we propose a new visualtextual sentiment classification model named Multi-Model Fusion(MMF),which uses a mixed fusion framework for SA to effectively capture the essential information and the intrinsic relationship between the visual and textual content.The proposed model comprises three deep neural networks.Two different neural networks are proposed to extract the most emotionally relevant aspects of image and text data.Thus,more discriminative features are gathered for accurate sentiment classification.Then,a multichannel joint fusion modelwith a self-attention technique is proposed to exploit the intrinsic correlation between visual and textual characteristics and obtain emotionally rich information for joint sentiment classification.Finally,the results of the three classifiers are integrated using a decision fusion scheme to improve the robustness and generalizability of the proposed model.An interpretable visual-textual sentiment classification model is further developed using the Local Interpretable Model-agnostic Explanation model(LIME)to ensure the model’s explainability and resilience.The proposed MMF model has been tested on four real-world sentiment datasets,achieving(99.78%)accuracy on Binary_Getty(BG),(99.12%)on Binary_iStock(BIS),(95.70%)on Twitter,and(79.06%)on the Multi-View Sentiment Analysis(MVSA)dataset.These results demonstrate the superior performance of our MMF model compared to single-model approaches and current state-of-the-art techniques based on model evaluation criteria. 展开更多
关键词 sentiment analysis multimodal classification deep learning joint fusion decision fusion INTERPRETABILITY
在线阅读 下载PDF
Leveraging Vision-Language Pre-Trained Model and Contrastive Learning for Enhanced Multimodal Sentiment Analysis
5
作者 Jieyu An Wan Mohd Nazmee Wan Zainon Binfen Ding 《Intelligent Automation & Soft Computing》 SCIE 2023年第8期1673-1689,共17页
Multimodal sentiment analysis is an essential area of research in artificial intelligence that combines multiple modes,such as text and image,to accurately assess sentiment.However,conventional approaches that rely on... Multimodal sentiment analysis is an essential area of research in artificial intelligence that combines multiple modes,such as text and image,to accurately assess sentiment.However,conventional approaches that rely on unimodal pre-trained models for feature extraction from each modality often overlook the intrinsic connections of semantic information between modalities.This limitation is attributed to their training on unimodal data,and necessitates the use of complex fusion mechanisms for sentiment analysis.In this study,we present a novel approach that combines a vision-language pre-trained model with a proposed multimodal contrastive learning method.Our approach harnesses the power of transfer learning by utilizing a vision-language pre-trained model to extract both visual and textual representations in a unified framework.We employ a Transformer architecture to integrate these representations,thereby enabling the capture of rich semantic infor-mation in image-text pairs.To further enhance the representation learning of these pairs,we introduce our proposed multimodal contrastive learning method,which leads to improved performance in sentiment analysis tasks.Our approach is evaluated through extensive experiments on two publicly accessible datasets,where we demonstrate its effectiveness.We achieve a significant improvement in sentiment analysis accuracy,indicating the supe-riority of our approach over existing techniques.These results highlight the potential of multimodal sentiment analysis and underscore the importance of considering the intrinsic semantic connections between modalities for accurate sentiment assessment. 展开更多
关键词 multimodal sentiment analysis vision–language pre-trained model contrastive learning sentiment classification
在线阅读 下载PDF
针对图文模态间实体对齐的目标实体情感分类
6
作者 张添植 周刚 +3 位作者 张爽 陈静 黄宁博 吴皓 《计算机工程》 北大核心 2026年第3期222-233,共12页
随着社交媒体在人们生活中的普及,多模态情感分类(MSC)研究近年来受到了广泛的关注。多模态目标实体情感分类(TMSC)是MSC研究领域的一项重要任务,旨在结合文本和图像等多种模态信息预测所指代实体的情感极性。尽管当前已有众多学者针对... 随着社交媒体在人们生活中的普及,多模态情感分类(MSC)研究近年来受到了广泛的关注。多模态目标实体情感分类(TMSC)是MSC研究领域的一项重要任务,旨在结合文本和图像等多种模态信息预测所指代实体的情感极性。尽管当前已有众多学者针对该任务提出了一系列的建模方法,但是这些方法还无法做到文本和图像模态间实体的精准对齐,从而直接影响了模型在目标任务上的准确性。为了解决这一问题,提出针对图文模态间实体对齐的目标实体情感分类模型(ITMEA)。该模型采用从图像中所提取的形容词-名词对(ANPs)设计情感辅助信息,使得图像中目标实体的关键情感信息获得更直观的表达,同时也采用多模态大语言模型(LLM)LLaMA-Adapter V2设计了特征描述信息,进一步实现模态间目标实体的精准对齐。此外,模型在模态间特征融合阶段构建一种门控机制,通过动态控制文本以外信息的输入防止与文本语义不相关的信息引入额外干扰。在Twitter基准数据集Twitter-2015和Twitter-2017上的实验结果表明,ITMEA模型相较于对比基线中的最优方法准确率分别提升了约1.00和0.57百分点,验证了所提方法的有效性和优越性。 展开更多
关键词 多模态情感分类 目标实体情感分类 形容词-名词对 多模态大语言模型 门控机制
在线阅读 下载PDF
基于元优化特征解耦的多模态跨域情感分析算法 被引量:1
7
作者 贾熹滨 李宸 +4 位作者 王珞 张沐晨 刘潇健 张旸旸 温家凯 《计算机研究与发展》 北大核心 2025年第11期2697-2709,共13页
多模态情感分析旨在利用多模态点评等数据识别用户情感倾向.为实现存在域偏移的跨域应用,常用无监督领域自适应方法.然而,该类方法着重于领域不变特征提取,忽略了目标领域特定特征的重要作用.为此,提出基于元优化的领域不变及领域特定... 多模态情感分析旨在利用多模态点评等数据识别用户情感倾向.为实现存在域偏移的跨域应用,常用无监督领域自适应方法.然而,该类方法着重于领域不变特征提取,忽略了目标领域特定特征的重要作用.为此,提出基于元优化的领域不变及领域特定特征解耦网络.首先,通过嵌入情感适配器对预训练大模型微调,建立图文融合情感特征编码器.进而,构建基于因子分解的特征解耦模块,分别利用领域对抗及领域分类、协同独立性约束,实现知识可传递的领域不变特征编码的同时,提取领域特定特征以增强目标域情感分类性能.为保证特征解耦与情感分类的总体优化方向一致性,提出基于元学习的元优化训练策略,实现情感分析网络的协同优化.基于MVSA和Yelp数据集构建的双向情感迁移任务的对比实验表明,较之其他先进的图文情感迁移算法,所提算法于双向情感迁移任务的精确率、召回率和F1值3项评价指标均取得了优异的性能. 展开更多
关键词 多模态情感分析 无监督领域自适应 跨领域情感分类 特征解耦 元优化
在线阅读 下载PDF
多模态分级特征映射与融合表征方法研究 被引量:1
8
作者 郭小宇 马静 陈杰 《计算机工程与应用》 北大核心 2025年第6期171-182,共12页
多模态特征表征是多模态任务的基础。为解决多模态特征表征方法融合层次单一、未能充分映射不同模态间的关联关系的问题,提出了一种多模态分级特征映射与融合表征方法。该方法在文本模型RoBERTa与图像模型DenseNet的基础上,从两个模型... 多模态特征表征是多模态任务的基础。为解决多模态特征表征方法融合层次单一、未能充分映射不同模态间的关联关系的问题,提出了一种多模态分级特征映射与融合表征方法。该方法在文本模型RoBERTa与图像模型DenseNet的基础上,从两个模型的中间层抽取由低级别到高级别的特征,基于特征重用的思想映射与融合文本与图像模态不同级别的特征,捕捉文本与图像模态之间的内部关联,充分融合两种模态之间的特征。将分级特征映射与融合表征馈入分类器,应用于多模态舆情的情感分类中,同时将构建的表征方法与基线表征方法进行对比分析。实验结果表明,提出的表征方法在微博舆情和MVSA-Multiple数据集上的情感分类性能均超越了所有基线模型,其中在微博数据集上F1值提升了0.0137,在MVSA-Multiple数据集上F1值提升了0.0222。图像特征能够提升文本单模态特征下的情感分类准确率,但是其提升程度与融合策略密切相关;多模态分级特征映射与融合表征方法能够有效映射文本与图像特征之间的关系,提升多模态舆情的情感分类效果。 展开更多
关键词 多模态特征融合 分级特征 映射与融合 情感分类 特征表示
在线阅读 下载PDF
基于视觉特征增强与双向交互融合的图文情绪分类
9
作者 王露瑶 胡慧君 刘茂福 《计算机工程与科学》 北大核心 2025年第11期2056-2066,共11页
多模态情感分析日益受到广泛关注,其目的是利用文本和图像等多模态信息实现情感预测。相较于文本,视觉模态作为辅助模态,可能包含更多与情感无关的混淆或者冗余信息,同时现有研究未充分考虑多个感知模态间的交互作用和互补性。针对上述... 多模态情感分析日益受到广泛关注,其目的是利用文本和图像等多模态信息实现情感预测。相较于文本,视觉模态作为辅助模态,可能包含更多与情感无关的混淆或者冗余信息,同时现有研究未充分考虑多个感知模态间的交互作用和互补性。针对上述问题,提出了基于视觉特征增强与双向交互融合的图文情绪分类VFEBIF模型。其中,细粒度视觉特征增强模块利用场景图的结构化知识和基于CLIP的筛选技术,提取出与视觉语义相关的文本关键词,从而增强视觉局部特征。此外,双向交互融合模块并行实现模态间交互,并融合多模态特征以深入挖掘模态间的互补信息,进而实现情绪分类。在TumEmo和MVSA-Single这2个公共数据集上的实验表明,VFEBIF模型优于多数现有模型,能够有效提升情绪分类性能。 展开更多
关键词 多模态情感分析 图文情绪分类 视觉特征增强 双向交互融合
在线阅读 下载PDF
结合多模态字形信息的中文情感分类
10
作者 刘濠葳 王中卿 《中文信息学报》 北大核心 2025年第8期128-138,共11页
近年来,中文属性级情感分类的研究受到广泛关注。中文使用的汉字是一种象形文字,其字符本身蕴含着丰富的字形信息。然而,目前已有的研究大部分都是只利用单一的文本模态,忽略了图像模态下汉字字形信息的作用。为了解决这一问题,该文提... 近年来,中文属性级情感分类的研究受到广泛关注。中文使用的汉字是一种象形文字,其字符本身蕴含着丰富的字形信息。然而,目前已有的研究大部分都是只利用单一的文本模态,忽略了图像模态下汉字字形信息的作用。为了解决这一问题,该文提出了一种结合多模态字形信息的中文情感分类方法。该方法首先将汉字序列转换为图片,并使用三种不同的多模态融合模型,分别利用特征相加、特征拼接和基于注意力机制的特征融合方式对文本与多种不同字体的汉字的字形信息进行融合,从而帮助模型学习到更多的多模态特征,增强模型的表达能力。在一份淘宝商品评论数据集上的实验结果表明,相较于基准模型,该文提出的结合字形信息的模型能有效提高属性级情感分类的准确率和F1值。 展开更多
关键词 情感分类 多模态 字形信息 特征融合
在线阅读 下载PDF
基于置信度引导提示学习的多模态方面级情感分析
11
作者 李懋林 林嘉杰 杨振国 《计算机科学》 北大核心 2025年第7期241-247,共7页
面对日益增加的社交平台数据,多模态方面级情感分析对于理解用户的潜在情感至关重要。现有研究工作集中于通过跨模态融合图像和文本来完成情感分析任务,无法有效地捕获图像和文本中的隐含情感。此外,传统方法受限于模型具有的黑箱性质... 面对日益增加的社交平台数据,多模态方面级情感分析对于理解用户的潜在情感至关重要。现有研究工作集中于通过跨模态融合图像和文本来完成情感分析任务,无法有效地捕获图像和文本中的隐含情感。此外,传统方法受限于模型具有的黑箱性质而缺乏可解释性。为应对上述问题,提出了基于置信度引导的提示学习(CPL)的多模态方面级情感分类模型。该模型由多模态特征处理模块(MF)、基于置信度的门控模块(CG)、提示构建模块(PC)和多模态分类模块(MC)组成。多模态特征提取模块用以提取多模态数据的特征;基于置信度的门控模块旨在通过自注意力网络的置信度评估样本的分类难度,对不同难易程度的样本进行自适应性处理;提示构建模块根据难易样本,采取不同的适应性模板提示,以引导T5大语言模型生成辅助情感线索;多模态分类模块用以预测结果。在公开数据集Twitter-2015和Twitter-2017的实验结果表明,与现有基线方法相比,所提出的多模态方面级情感分类模型具有显著性能优势,准确率分别提高了0.48%和1.06%。 展开更多
关键词 多模态数据 大语言模型 情感分类 提示学习 分类置信度
在线阅读 下载PDF
基于多视角学习的时序多模态情感分类研究 被引量:4
12
作者 陶全桧 安俊秀 +2 位作者 戴宇睿 陈宏松 黄萍 《计算机应用研究》 CSCD 北大核心 2023年第1期102-106,共5页
针对多模态融合效果不佳,不能充分挖掘特定时间段,多视角关键情感信息的问题,提出了一种基于多视角的时序多模态情感分类模型,用于提取特定时间段,多视角下的关键情感信息。首先,对文本标题及文本内容两种视角下的数据进行低维空间词嵌... 针对多模态融合效果不佳,不能充分挖掘特定时间段,多视角关键情感信息的问题,提出了一种基于多视角的时序多模态情感分类模型,用于提取特定时间段,多视角下的关键情感信息。首先,对文本标题及文本内容两种视角下的数据进行低维空间词嵌入和序列表达,提取不同视角的多模态时序特征,对图片截取,水平镜像两种视角下的数据进行特征提取;其次,采用循环神经网络构建多模态数据的时序序列交互特征,增大互信息;最后,基于对比学习进行联合训练,完成情感分类。该模型在两个多模态情感分类基准数据集Yelp和Mutli-Zol上评估,准确度分别为73.92%、69.15%。综合实验表明,多视角的特定时间段多模态语句序列可提升模型性能。 展开更多
关键词 情感分类 多模态 多视角 时序特征 对比学习
在线阅读 下载PDF
多模态情感分析研究综述 被引量:41
13
作者 张亚洲 戎璐 +1 位作者 宋大为 张鹏 《模式识别与人工智能》 EI CSCD 北大核心 2020年第5期426-438,共13页
多模态情感分析现已成为自然语言处理领域的核心研究课题之一.文中首先介绍多模态情感分析的研究背景,归纳该领域最新的两类子课题,即叙述式多模态情感分析与交互式多模态情感分析.再分别以这两类子课题为出发点,梳理概括相应的发展脉络... 多模态情感分析现已成为自然语言处理领域的核心研究课题之一.文中首先介绍多模态情感分析的研究背景,归纳该领域最新的两类子课题,即叙述式多模态情感分析与交互式多模态情感分析.再分别以这两类子课题为出发点,梳理概括相应的发展脉络,最后,总结目前该领域中存在的交互建模的科学问题,探讨未来发展方向. 展开更多
关键词 多模态情感分析 情感分类 自然语言处理
在线阅读 下载PDF
基于双向注意力机制的多模态情感分类方法 被引量:5
14
作者 黄宏展 蒙祖强 《计算机工程与应用》 CSCD 北大核心 2021年第11期119-127,共9页
社交网络的发展为情感分析研究提供了大量的多模态数据。结合多模态内容进行情感分类可以利用模态间数据的关联信息,从而避免单一模态对总体情感把握不全面的情况。使用简单的共享表征学习方法无法充分挖掘模态间的互补特征,因此提出多... 社交网络的发展为情感分析研究提供了大量的多模态数据。结合多模态内容进行情感分类可以利用模态间数据的关联信息,从而避免单一模态对总体情感把握不全面的情况。使用简单的共享表征学习方法无法充分挖掘模态间的互补特征,因此提出多模态双向注意力融合(Multimodal Bidirectional Attention Hybrid, MBAH)模型,在深度模型提取的图像和文本特征基础上,利用双向注意力机制在一个模态下引入另一个模态信息,将该模态的底层特征与另一模态语义特征通过注意力计算学习模态间的关联信息,然后联结两种模态的高层特征形成跨模态共享表征并输入多层感知器得到分类结果。此外MBAH模型应用后期融合技术结合图文单模态自注意力模型搜寻最优决策权值,形成最终决策。实验结果表明,MBAH模型情感分类结果相较于其他方法具有明显的提升。 展开更多
关键词 情感分类 多模态数据 双向注意力机制 后期融合
在线阅读 下载PDF
基于注意力融合网络的方面级多模态情感分类 被引量:2
15
作者 冼广铭 招志锋 阳先平 《计算机系统应用》 2024年第2期94-104,共11页
方面级多模态情感分类任务的一个关键是从文本和视觉两种不同模态中准确地提取和融合互补信息,以检测文本中提及的方面词的情感倾向.现有的方法大多数只利用单一的上下文信息结合图片信息来分析,存在对方面和上下文信息、视觉信息的相... 方面级多模态情感分类任务的一个关键是从文本和视觉两种不同模态中准确地提取和融合互补信息,以检测文本中提及的方面词的情感倾向.现有的方法大多数只利用单一的上下文信息结合图片信息来分析,存在对方面和上下文信息、视觉信息的相关性的识别不敏感,对视觉中的方面相关信息的局部提取不够精准等问题,此外,在进行特征融合时,部分模态信息不全会导致融合效果一般.针对上述问题,本文提出一种注意力融合网络AF-Net模型去进行方面级多模态情感分类,利用空间变换网络STN学习图像中目标的位置信息来帮助提取重要的局部特征;利用基于Transformer的交互网络对方面和文本以及图像之间的关系进行建模,实现多模态交互;同时补充了不同模态特征间的相似信息以及使用多头注意力机制融合多特征信息,表征出多模态信息,最后通过Softmax层取得情感分类的结果.在两个基准数据集上进行实验和对比,结果表明AF-Net能获得较好的性能,提升方面级多模态情感分类的效果. 展开更多
关键词 多模态 情感分类 空间变换网络 交互网络 相似信息 注意力融合网络
在线阅读 下载PDF
基于TomBERT的local-global社交平台多模态情感分类
16
作者 戴可玉 严华 《现代计算机》 2024年第11期50-54,共5页
随着自媒体时代的兴起,社交媒体上用户表达的情感和态度成为反映社会公众情感的重要信息源。然而,现有多模态情感分类方法在处理文字和图片融合时往往忽略了目标外的场景因素,影响了情感分类的准确性。针对此问题,提出基于TomBERT的loca... 随着自媒体时代的兴起,社交媒体上用户表达的情感和态度成为反映社会公众情感的重要信息源。然而,现有多模态情感分类方法在处理文字和图片融合时往往忽略了目标外的场景因素,影响了情感分类的准确性。针对此问题,提出基于TomBERT的local-global社交平台多模态情感分类模型,该模型以TomBERT模型为基础架构,将输入信息分为主体(local)和场景(global)两部分,分别进行图文匹配,通过多模态编码器获得最终的多模态隐藏表示后进行分类,充分考虑了主体信息与场景信息的关联,使用场景因素对主体进行特征增强,辅助情感分类。实验证明,基于TomBERT的local-global社交平台多模态情感分类模型较于传统方法,在捕捉模态间关系的同时,更全面地考虑了主体与场景的影响,提高了情感分类的准确性。 展开更多
关键词 情感分类 多模态 主体信息 场景信息 BERT
在线阅读 下载PDF
基于上下文交互与增强语义信息的情感分析系统
17
作者 郭超鹏 王瑞 朱贤训 《计量与测试技术》 2026年第3期93-96,共4页
本文设计开发了一种整合上下文交互机制与增强语义信息处理能力的情感分析系统,由多模态信息采集模块、核心算法运算单元和终端应用接口组成。其中,多模态信息采集模块整合语音、文本与表情信息;核心算法运算单元融合上下文交互机制与... 本文设计开发了一种整合上下文交互机制与增强语义信息处理能力的情感分析系统,由多模态信息采集模块、核心算法运算单元和终端应用接口组成。其中,多模态信息采集模块整合语音、文本与表情信息;核心算法运算单元融合上下文交互机制与语义增强技术,以实现多模态情感分类;系统在服务端完成数据存储与分析流程,支持Web端交互应用,并输出精准的情感判断。实验表明,该系统的多模态信息耦合机制与语义动态增强算法具有显著的技术优势。 展开更多
关键词 情感分类 上下文交互 增强语义信息 多模态数据
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部