期刊文献+
共找到23篇文章
< 1 2 >
每页显示 20 50 100
Word Embeddings and Semantic Spaces in Natural Language Processing 被引量:2
1
作者 Peter J. Worth 《International Journal of Intelligence Science》 2023年第1期1-21,共21页
One of the critical hurdles, and breakthroughs, in the field of Natural Language Processing (NLP) in the last two decades has been the development of techniques for text representation that solves the so-called curse ... One of the critical hurdles, and breakthroughs, in the field of Natural Language Processing (NLP) in the last two decades has been the development of techniques for text representation that solves the so-called curse of dimensionality, a problem which plagues NLP in general given that the feature set for learning starts as a function of the size of the language in question, upwards of hundreds of thousands of terms typically. As such, much of the research and development in NLP in the last two decades has been in finding and optimizing solutions to this problem, to feature selection in NLP effectively. This paper looks at the development of these various techniques, leveraging a variety of statistical methods which rest on linguistic theories that were advanced in the middle of the last century, namely the distributional hypothesis which suggests that words that are found in similar contexts generally have similar meanings. In this survey paper we look at the development of some of the most popular of these techniques from a mathematical as well as data structure perspective, from Latent Semantic Analysis to Vector Space Models to their more modern variants which are typically referred to as word embeddings. In this review of algoriths such as Word2Vec, GloVe, ELMo and BERT, we explore the idea of semantic spaces more generally beyond applicability to NLP. 展开更多
关键词 Natural Language Processing Vector Space Models Semantic Spaces word embeddings representation learning Text Vectorization Machine learning Deep learning
在线阅读 下载PDF
How Do Pronouns Affect Word Embedding
2
作者 Tonglee Chung Bin Xu +2 位作者 Yongbin Liu Juanzi Li Chunping Ouyang 《Tsinghua Science and Technology》 SCIE EI CAS CSCD 2017年第6期586-594,共9页
Word embedding has drawn a lot of attention due to its usefulness in many NLP tasks. So far a handful of neural-network based word embedding algorithms have been proposed without considering the effects of pronouns in... Word embedding has drawn a lot of attention due to its usefulness in many NLP tasks. So far a handful of neural-network based word embedding algorithms have been proposed without considering the effects of pronouns in the training corpus. In this paper, we propose using co-reference resolution to improve the word embedding by extracting better context. We evaluate four word embeddings with considerations of co-reference resolution and compare the quality of word embedding on the task of word analogy and word similarity on multiple data sets.Experiments show that by using co-reference resolution, the word embedding performance in the word analogy task can be improved by around 1.88%. We find that the words that are names of countries are affected the most,which is as expected. 展开更多
关键词 word embedding co-reference resolution representation learning
原文传递
Syntactic word embedding based on dependency syntax and polysemous analysis
3
作者 Zhong-lin YE Hai-xing ZHAO 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2018年第4期524-535,共12页
Most word embedding models have the following problems:(1)In the models based on bag-of-words contexts,the structural relations of sentences are completely neglected;(2)Each word uses a single embedding,which makes th... Most word embedding models have the following problems:(1)In the models based on bag-of-words contexts,the structural relations of sentences are completely neglected;(2)Each word uses a single embedding,which makes the model indiscriminative for polysemous words;(3)Word embedding easily tends to contextual structure similarity of sentences.To solve these problems,we propose an easy-to-use representation algorithm of syntactic word embedding(SWE).The main procedures are:(1)A polysemous tagging algorithm is used for polysemous representation by the latent Dirichlet allocation(LDA)algorithm;(2)Symbols‘+’and‘-’are adopted to indicate the directions of the dependency syntax;(3)Stopwords and their dependencies are deleted;(4)Dependency skip is applied to connect indirect dependencies;(5)Dependency-based contexts are inputted to a word2vec model.Experimental results show that our model generates desirable word embedding in similarity evaluation tasks.Besides,semantic and syntactic features can be captured from dependency-based syntactic contexts,exhibiting less topical and more syntactic similarity.We conclude that SWE outperforms single embedding learning models. 展开更多
关键词 Dependency-based context Polysemous word representation representation learning Syntactic word embedding
原文传递
基于深度学习的维吾尔语名词短语指代消解 被引量:7
4
作者 李敏 禹龙 +2 位作者 田生伟 吐尔根.依布拉音 赵建国 《自动化学报》 EI CSCD 北大核心 2017年第11期1984-1992,共9页
针对维吾尔语名词短语指代现象,提出了一种利用栈式自编码深度学习算法进行基于语义特征的指代消解方法.通过对维吾尔语名词短语指称性的研究,提取出利于消解任务的13项特征.为提高特征对文本语义的表达,在特征集中引入富含词汇语义及... 针对维吾尔语名词短语指代现象,提出了一种利用栈式自编码深度学习算法进行基于语义特征的指代消解方法.通过对维吾尔语名词短语指称性的研究,提取出利于消解任务的13项特征.为提高特征对文本语义的表达,在特征集中引入富含词汇语义及上下文位置关系的Word embedding.利用深度学习机制无监督的提取隐含的深层语义特征,训练Softmax分类器进而完成指代消解任务.该方法在维吾尔语指代消解任务中的准确率为74.5%,召回率为70.6%,F值为72.4%.实验结果证明,深度学习模型较浅层的支持向量机更合适于本文的指代消解任务,对Word embedding特征项的引入,有效地提高了指代消解模型的性能. 展开更多
关键词 深度学习 栈式自编码神经网络 指代消解 word embedding 维吾尔语
在线阅读 下载PDF
基于Bi-LSTM的维吾尔语人称代词指代消解 被引量:3
5
作者 田生伟 秦越 +2 位作者 禹龙 吐尔根.依布拉音 冯冠军 《电子学报》 EI CAS CSCD 北大核心 2018年第7期1691-1699,共9页
针对维吾尔语人称代词指代现象,提出利用双向长短时记忆网络(Bi-directional long short term memory,Bi-LSTM)的深度学习机制进行基于深层语义信息的维吾尔语人称代词指代消解.首先将富含语义和句法信息的word embedding向量作为Bi-LST... 针对维吾尔语人称代词指代现象,提出利用双向长短时记忆网络(Bi-directional long short term memory,Bi-LSTM)的深度学习机制进行基于深层语义信息的维吾尔语人称代词指代消解.首先将富含语义和句法信息的word embedding向量作为Bi-LSTM的输入,挖掘维吾尔语隐含的上下文语义层面特征;其次对维吾尔语人称代词指代现象进行探索,提取针对人称代词指代研究的24个hand-crafted特征;然后利用多层感知器(multilayer perception,MLP)融合Bi-LSTM学习到的上下文语义层面特征与hand-crafted特征;最后使用融合的两类特征训练softmax分类器完成维吾尔语人称代词指代消解任务.实验结果表明,充分利用两类特征的优势,维吾尔语人称代词指代消解的F1值达到76.86%.实验验证了Bi-LSTM与单向LSTM、浅层机器学习算法的SVM和ANN相比更具备挖掘隐含上下文深层语义信息的能力,而hand-crafted层面特征的引入,则有效提高指代消解性能. 展开更多
关键词 指代消解 双向长短时记忆网络 词向量 深度学习 维吾尔语 自然语言处理
在线阅读 下载PDF
词向量语义表示研究进展 被引量:14
6
作者 李枫林 柯佳 《情报科学》 CSSCI 北大核心 2019年第5期155-165,共11页
【目的/意义】词是语言的最小单元,词的向量表示决定了机器学习模型的构建方法。深度学习的神经网络训练得到的词向量,通过无监督的机器学习方法从海量数据中自动学习词汇的语义特征,无需人工标注和复杂繁琐的特征工程,端到端的完成各... 【目的/意义】词是语言的最小单元,词的向量表示决定了机器学习模型的构建方法。深度学习的神经网络训练得到的词向量,通过无监督的机器学习方法从海量数据中自动学习词汇的语义特征,无需人工标注和复杂繁琐的特征工程,端到端的完成各种自然语言处理任务,带来了一种新的研究范式,成为学术界的研究热点。【方法/过程】介绍了词向量语义表示及优化方法,存在的问题及解决方法,最后指出了词向量未来的研究方向。【结果/结论】将句法特征、词形特征、(知识库)先验语义知识融入到神经网络模型能增强词向量的语义表示能力,针对词向量存在的一词多义、解释性差等问题,总结了最新的研究成果。 展开更多
关键词 词向量 分布式表示 深度学习 神经网络
原文传递
基于多源信息融合的分布式词表示学习 被引量:4
7
作者 冶忠林 赵海兴 +1 位作者 张科 朱宇 《中文信息学报》 CSCD 北大核心 2019年第10期18-30,共13页
分布式词表示学习旨在用神经网络框架训练得到低维、压缩、稠密的词语表示向量。然而,这类基于神经网络的词表示模型有以下不足:(1)罕见词由于缺乏充分上下文训练数据,训练所得的罕见词向量表示不能充分地反映其在语料中的语义信息;(2)... 分布式词表示学习旨在用神经网络框架训练得到低维、压缩、稠密的词语表示向量。然而,这类基于神经网络的词表示模型有以下不足:(1)罕见词由于缺乏充分上下文训练数据,训练所得的罕见词向量表示不能充分地反映其在语料中的语义信息;(2)中心词语的反义词出现于上下文时,会使意义完全相反的词却赋予更近的空间向量表示;(3)互为同义词的词语均未出现于对方的上下文中,致使该类同义词学习得到的表示在向量空间中距离较远。基于以上三点,该文提出了一种基于多源信息融合的分布式词表示学习算法(MSWE),主要做了4个方面的改进:(1)通过显式地构建词语的上下文特征矩阵,保留了罕见词及其上下文词语在语言训练模型中的共现信息可以较准确地反映出词语结构所投影出的结构语义关联;(2)通过词语的描述或解释文本,构建词语的属性语义特征矩阵,可有效地弥补因为上下文结构特征稀疏而导致的训练不充分;(3)通过使用同义词与反义词信息,构建了词语的同义词与反义词特征矩阵,使得同义词在词向量空间中具有较近的空间距离,而反义词则在词向量空间中具有较远的空间距离;(4)通过诱导矩阵补全算法融合多源特征矩阵,训练得到词语低维度的表示向量。实验结果表明,该文提出的MSWE算法能够有效地从多源词语特征矩阵中学习到有效的特征因子,在6个词语相似度评测数据集上表现出了优异的性能。 展开更多
关键词 词表示学习 词表示 词嵌入 词向量 词特征学习
在线阅读 下载PDF
基于深度强化学习的维吾尔语人称代词指代消解 被引量:3
8
作者 杨启萌 禹龙 +1 位作者 田生伟 艾山·吾买尔 《电子学报》 EI CAS CSCD 北大核心 2020年第6期1077-1083,共7页
针对深度神经网络模型仅学习当前指代链语义信息忽略了单个指代链识别结果的长期影响问题,提出一种结合深度强化学习(deep reinforcement learning)的维吾尔语人称代词指代消解方法.该方法将指代消解任务定义为强化学习环境下顺序决策过... 针对深度神经网络模型仅学习当前指代链语义信息忽略了单个指代链识别结果的长期影响问题,提出一种结合深度强化学习(deep reinforcement learning)的维吾尔语人称代词指代消解方法.该方法将指代消解任务定义为强化学习环境下顺序决策过程,有效利用之前状态中先行语信息判定当前指代链指代关系.同时,采用基于整体奖励信号优化策略,相比于使用损失函数启发式优化特定的单个决策,该方法直接优化整体评估指标更加高效.最后在维吾尔语数据集进行实验,实验结果显示,该方法在维吾尔语人称代词指代消解任务中的F值为85.80%.实验结果表明,深度强化学习模型能显著提升维吾尔语人称代词指代消解性能. 展开更多
关键词 强化学习 指代消解 维吾尔语 词向量 深度学习 自然语言处理
在线阅读 下载PDF
基于描述约束的词表示学习 被引量:3
9
作者 冶忠林 赵海兴 +1 位作者 张科 朱宇 《中文信息学报》 CSCD 北大核心 2019年第4期29-36,共8页
词语作为语言模型中的基本语义单元,在整个语义空间中与其上下文词语具有很强的关联性。同样,在语言模型中,通过上下文词可判断出当前词的含义。词表示学习是通过一类浅层的神经网络模型将词语和上下文词之间的关联关系映射到低维度的... 词语作为语言模型中的基本语义单元,在整个语义空间中与其上下文词语具有很强的关联性。同样,在语言模型中,通过上下文词可判断出当前词的含义。词表示学习是通过一类浅层的神经网络模型将词语和上下文词之间的关联关系映射到低维度的向量空间中。然而,现有的词表示学习方法往往仅考虑了词语与上下文词之间的结构关联,词语本身所蕴含的内在语义信息却被忽略。因此,该文提出了DEWE词表示学习算法,该算法可在词表示学习的过程中不仅考量词语与上下文之间的结构关联,同时也将词语本身的语义信息融入词表示学习模型,使得训练得到的词表示既有结构共性也有语义共性。实验结果表明,DEWE算法是一种切实可行的词表示学习方法,相较于该文使用的对比算法,DEWE在6类相似度评测数据集上具有优异的词表示学习性能。 展开更多
关键词 词表示学习 语义嵌入 词表示联合模型 词嵌入 词语结构矩阵
在线阅读 下载PDF
基于表示学习的告警数据流压缩算法 被引量:2
10
作者 阴振生 陈佳 +1 位作者 王鹏 汪卫 《计算机应用与软件》 北大核心 2024年第7期34-41,共8页
大型在线服务系统的告警数量巨大且关联关系复杂,运维人员进行故障诊断的难度较大。为此,提出一种基于表示学习的告警数据流压缩算法。该算法包含离线学习和在线压缩阶段:离线学习阶段,采用嵌入技术对告警内容的语义信息及服务组件的拓... 大型在线服务系统的告警数量巨大且关联关系复杂,运维人员进行故障诊断的难度较大。为此,提出一种基于表示学习的告警数据流压缩算法。该算法包含离线学习和在线压缩阶段:离线学习阶段,采用嵌入技术对告警内容的语义信息及服务组件的拓扑信息进行表示学习;在线压缩阶段,采用流式聚类方法对表示学习得到的告警向量进行聚合并生成告警事件。在合成数据集与真实数据集上的实验表明,该算法的各项评价指标均优于已有算法,更能满足告警数据流压缩的实时性和有效性要求。 展开更多
关键词 在线服务系统 告警数据流压缩 表示学习 词嵌入 图嵌入 流式聚类
在线阅读 下载PDF
基于图神经网络与表示学习的文本情感分析 被引量:5
11
作者 尹帮治 徐健 唐超尘 《南京师大学报(自然科学版)》 CAS 北大核心 2024年第3期97-103,共7页
近年来,情感分析是近年来自然语言处理领域备受学者关注的核心研究方向,传统文本情感分析模型只能捕捉文本的表面特征,在不同领域或语境下缺乏泛化能力,难以处理长文本以及语义歧义等问题.针对上述问题,本文设计了基于图神经网络与表示... 近年来,情感分析是近年来自然语言处理领域备受学者关注的核心研究方向,传统文本情感分析模型只能捕捉文本的表面特征,在不同领域或语境下缺乏泛化能力,难以处理长文本以及语义歧义等问题.针对上述问题,本文设计了基于图神经网络与表示学习的文本情感分析模型(a text sentiment analysis model based on graph neural networks and representation learning,GNNRL).利用Spacy生成句子的语法依赖树,利用图卷积神经网络进行编码,以捕捉句子中词语之间更复杂的关系;采用动态k-max池化进一步筛选特征,保留文本相对位置的序列特征,避免部分特征损失的问题,从而提高模型的特征提取能力.最后将情感特征向量输送到分类器SoftMax中,根据归一化后的值来判断情感分类.为验证本文所提GNNRL模型的有效性,采用OS10和SMP2020两个文本情感分析数据集进行测试,与HyperGAT、IBHC、BERT_CNN、BERT_GCN、TextGCN模型比较,结果表明,综合accuracy、precision、recall、f14个指标,本文改进的AM_DNN模型均优于其他模型,在文本情感中具有较好的分类性能,并探究了不同优化器的选择对本模型的影响. 展开更多
关键词 文本情感分析 图神经网络 表示学习 词嵌入
在线阅读 下载PDF
图像超分辨重建算法综述 被引量:13
12
作者 史振威 雷森 《数据采集与处理》 CSCD 北大核心 2020年第1期1-20,共20页
图像超分辨重建是一种提升图像分辨率的图像处理技术,而超分辨问题是一个难解的欠定问题,近些年来研究人员主要采用基于学习的方法,从大量数据中学习图像先验信息,以实现对解空间的约束。本文介绍了近20年来主流的图像超分辨重建算法,... 图像超分辨重建是一种提升图像分辨率的图像处理技术,而超分辨问题是一个难解的欠定问题,近些年来研究人员主要采用基于学习的方法,从大量数据中学习图像先验信息,以实现对解空间的约束。本文介绍了近20年来主流的图像超分辨重建算法,主要分为基于传统特征的方法和基于深度学习的方法。对于传统的超分辨重建算法,阐述了基于邻域嵌入的方法、基于稀疏表示的方法以及基于局部线性回归的方法。对于基于深度学习的超分辨重建算法,详细总结了网络模型结构设计、上采样方式、损失函数形式以及复杂条件下的算法设计4个方面。此外,本文简要分析了超分辨重建技术在视频超分辨、遥感图像超分辨以及在视觉高层任务方面的应用。最后,本文展望了图像超分辨重建技术的未来发展方向。 展开更多
关键词 图像超分辨 邻域嵌入 稀疏表示 局部线性回归 深度学习
在线阅读 下载PDF
融合邻域回归和稀疏表示的图像超分辨率重构 被引量:7
13
作者 丁玉祥 卞维新 +1 位作者 接标 赵俊 《计算机工程与应用》 CSCD 北大核心 2021年第2期230-236,共7页
对于图像超分辨率重建而言,通常会将图像的整体信息作为研究对象。然而图像本身含有的大量结构信息并没有得到充分利用。为了提高超分辨率重建的效果,实现对不同特征信息的利用,提出了一种融合邻域回归和稀疏表示的图像超分辨率重构算... 对于图像超分辨率重建而言,通常会将图像的整体信息作为研究对象。然而图像本身含有的大量结构信息并没有得到充分利用。为了提高超分辨率重建的效果,实现对不同特征信息的利用,提出了一种融合邻域回归和稀疏表示的图像超分辨率重构算法。依据图像所具有的低秩性对高分辨率图像进行分解,获得高分辨率图像的低秩部分和稀疏部分;将对应的低分辨率图像与高分辨率图像的低秩部分和稀疏部分进行训练,学习得到对应的特征字典;基于高分辨率图像的低秩部分和稀疏部分分别基于稀疏表示和邻域嵌入进行高分辨率重构;基于低秩矩阵恢复理论,融合邻域回归和稀疏表示重构的高分辨率图像,得到最终的高分辨率图像。在测试集Set5和Set14上将提出的算法与几种经典算法进行对比实验,可视化和量化结果均表明,相比传统超分辨率算法,提出的算法在PSNR和SSIM都有很好的提升。 展开更多
关键词 超分辨率 低秩矩阵恢复 字典学习 稀疏表示 邻域嵌入
在线阅读 下载PDF
融合多维特征的医学知识图谱分步实体对齐方法
14
作者 娄培 胡佳慧 +2 位作者 赵琬清 陈凌云 方安 《中华医学图书情报杂志》 CAS 2022年第3期40-47,共8页
目的:提出一种融合多维特征的医学知识图谱分步实体对齐方法,从电子病历和网络资源中抽取垂体瘤相关疾病、症状数据,进行实证研究。方法:首先进行尾实体对齐,通过训练Word2Vec和BERT模型获得实体的语义特征,使用三元组训练翻译模型得到... 目的:提出一种融合多维特征的医学知识图谱分步实体对齐方法,从电子病历和网络资源中抽取垂体瘤相关疾病、症状数据,进行实证研究。方法:首先进行尾实体对齐,通过训练Word2Vec和BERT模型获得实体的语义特征,使用三元组训练翻译模型得到实体结构特征,利用Jaccard相似度计算字符特征,利用分类模型进行特征学习和预测;然后进行头实体对齐,利用实体的属性相似性和结构相似性构建头实体对齐模型。结果:尾实体对齐模型的F1值为99.58%,头实体对齐模型的F1值为97.32%,说明所选择的特征可以很好地表示实体,模型具有良好的对齐效果。结论:目前关于医学知识图谱的实体对齐模型研究仍处于起步阶段,融合多维特征的医学知识图谱分步实体对齐方法是对现有医学知识图谱构建方法的重要补充。 展开更多
关键词 知识图谱 实体对齐 相似度计算 表示学习 词嵌入
在线阅读 下载PDF
基于层级注意力模型的无监督文档表示学习 被引量:4
15
作者 欧阳文俊 徐林莉 《计算机系统应用》 2018年第9期40-46,共7页
许多自然语言应用需要将输入的文本表示成一个固定长度的向量,现有的技术如词嵌入(Word Embeddings)和文档表示(Document Representation)为自然语言任务提供特征表示,但是它们没有考虑句子中每个单词的重要性差别,同时也忽略一个句子... 许多自然语言应用需要将输入的文本表示成一个固定长度的向量,现有的技术如词嵌入(Word Embeddings)和文档表示(Document Representation)为自然语言任务提供特征表示,但是它们没有考虑句子中每个单词的重要性差别,同时也忽略一个句子在一篇文档中的重要性差别.本文提出一个基于层级注意力机制的文档表示模型(HADR),而且考虑文档中重要的句子和句子中重要的单词因素.实验结果表明,在考虑了单词的重要和句子重要性的文档表示具有更好的性能.该模型在文档(IMBD)的情感分类上的正确率高于Doc2Vec和Word2Vec模型. 展开更多
关键词 文档表示 词嵌入 注意力 层级 无监督学习 文档分类
在线阅读 下载PDF
基于表示学习的情感分析研究 被引量:1
16
作者 厉小军 施寒潇 +2 位作者 陈南南 柳虹 邹轶 《北京大学学报(自然科学版)》 EI CAS CSCD 北大核心 2019年第1期105-112,共8页
提出一个基于表示学习的文本情感分析模型C&W-SP。首先基于C&W模型的词表示改进训练模型,实现在词表示训练过程中融入情感信息和词性信息的不同模型设计;然后利用NLP&CC’2013中的评测数据集,进行多种模型的实验对比。实验... 提出一个基于表示学习的文本情感分析模型C&W-SP。首先基于C&W模型的词表示改进训练模型,实现在词表示训练过程中融入情感信息和词性信息的不同模型设计;然后利用NLP&CC’2013中的评测数据集,进行多种模型的实验对比。实验结果表明,融入情感信息和词性信息的C&W-SP模型性能效果最优,验证了所提方法的有效性。 展开更多
关键词 情感分析 表示学习 深度学习 词表示
在线阅读 下载PDF
引入外部词向量的文本信息网络表示学习 被引量:1
17
作者 张潇鲲 刘琰 陈静 《智能系统学报》 CSCD 北大核心 2019年第5期1056-1063,共8页
针对信息网络(text-based information network)现有研究多基于网络自身信息建模,受限于任务语料规模,只使用任务相关文本进行建模容易产生语义漂移或语义残缺的问题,本文将外部语料引入建模过程中,利用外部语料得到的词向量对建模过程... 针对信息网络(text-based information network)现有研究多基于网络自身信息建模,受限于任务语料规模,只使用任务相关文本进行建模容易产生语义漂移或语义残缺的问题,本文将外部语料引入建模过程中,利用外部语料得到的词向量对建模过程进行优化,提出基于外部词向量的网络表示模型NE-EWV(network embeddingbased on external word vectors),从语义特征空间以及结构特征空间两个角度学习特征融合的网络表示。通过实验,在现实网络数据集中对模型有效性进行了验证。实验结果表明,在链接预测任务中的AUC指标,相比只考虑结构特征的模型提升7%~19%,相比考虑结构与文本特征的模型在大部分情况下有1%~12%提升;在节点分类任务中,与基线方法中性能最好的CANE性能相当。证明引入外部词向量作为外部知识能够有效提升网络表示能力。 展开更多
关键词 网络表示学习 文本信息网络 自编码器 外部词向量 节点分类 词向量 分布式表示 表示学习
在线阅读 下载PDF
基于网络嵌入的农产品销售推荐系统 被引量:1
18
作者 臧玑珣 徐鑫航 《计算机技术与发展》 2022年第10期209-214,共6页
建立精准的农产品销售途径对于农产品的生产流通有非常大的指导意义,但农产品由于产地与保质期等因素的限制,导致多数农产品在电商平台上的流通能力较差。此外,农产品相关的推荐工作主要集中在以买家为目标的商品推荐上,鲜少有以卖家为... 建立精准的农产品销售途径对于农产品的生产流通有非常大的指导意义,但农产品由于产地与保质期等因素的限制,导致多数农产品在电商平台上的流通能力较差。此外,农产品相关的推荐工作主要集中在以买家为目标的商品推荐上,鲜少有以卖家为目标用户,为其预售产品提供销售途径推荐的系统。提出了一种基于网络表示学习的农产品销售途径推荐方法,它使用基于词嵌入的AP-GloVe(Global Word Vector Representation for Agricultural Products)方法进行农产品销售地与销售商推荐,并基于影响力的图神经网络模型IAGNN(Influence-Aware Graph Neural Networks)进行潜在的买家推荐,实现了农产品销售中对于销售区域、销售商与产品买家的推荐。相关模型在词的相似性检测、节点分类与链路预测等实验中取得了优于现有模型的效果。 展开更多
关键词 推荐系统 词嵌入 网络表示学习 农产品销售 社交网络
在线阅读 下载PDF
基于主题模型和词嵌入的知识表示学习的研究
19
作者 肖宝 韩开旭 《北部湾大学学报》 2020年第4期40-47,共8页
基于主题模型和词嵌入的知识表示模型,引入LDA主题模型,将词嵌入向量和主题向量结合作为模型的输入;引入双向LSTM以及Attention机制捕捉影响知识表示学习的最为有效的信息,使得模型具有更强、更精确的知识表示能力,最后在数据集FB15K和W... 基于主题模型和词嵌入的知识表示模型,引入LDA主题模型,将词嵌入向量和主题向量结合作为模型的输入;引入双向LSTM以及Attention机制捕捉影响知识表示学习的最为有效的信息,使得模型具有更强、更精确的知识表示能力,最后在数据集FB15K和WN18上进行算法的测试和评估。结果表明:该模型在链接预测和元组分类的任务上比没有利用主题信息的模型更加有效。 展开更多
关键词 主题模型 词嵌入 知识表示 知识图谱 注意力机制
在线阅读 下载PDF
文本语义表征技术研究综述
20
作者 赵小娟 《无线互联科技》 2024年第12期112-114,共3页
文本语义表征是自然语言处理领域的核心任务之一,将文本信息转化为计算机可理解的数值表示能够实现对文本深层含义的挖掘和应用。文章通过对传统文本语义表征方法的梳理,剖析了这些方法的优势与局限,并重点探讨了深度学习在文本语义表... 文本语义表征是自然语言处理领域的核心任务之一,将文本信息转化为计算机可理解的数值表示能够实现对文本深层含义的挖掘和应用。文章通过对传统文本语义表征方法的梳理,剖析了这些方法的优势与局限,并重点探讨了深度学习在文本语义表征领域的突破性进展和发展趋势,旨在全面综述文本语义表征技术的研究现状与发展趋势,为相关领域的研究提供有益的参考和启示。 展开更多
关键词 文本语义表征 词嵌入 深度学习模型 语义向量
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部