期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于Transformer的AMR-to-Text生成 被引量:3
1
作者 朱杰 李军辉 《中文信息学报》 CSCD 北大核心 2020年第10期10-18,共9页
抽象语义表示到文本(AMR-to-Text)的生成任务是给定AMR图,生成相同意义表示的文本。可以把此任务当成一个从源端AMR图到目标端句子的翻译任务。然而,传统的序列到序列(seq2seq,S2S)方法使用循环递归网络进行编码,并不能很好地解决长距... 抽象语义表示到文本(AMR-to-Text)的生成任务是给定AMR图,生成相同意义表示的文本。可以把此任务当成一个从源端AMR图到目标端句子的翻译任务。然而,传统的序列到序列(seq2seq,S2S)方法使用循环递归网络进行编码,并不能很好地解决长距离依赖的问题。当前最好的性能是图到序列(graph2seq,G2S)的模型,使用了图模型直接对AMR图结构进行编码,但是,该方法对于非直接相连的节点依然会损失大量的结构信息。针对上述问题,基于seq2seq框架,该文提出了一种直接而有效的AMR-to-Text生成方法。在这项工作中,引入了当前最优的seq2seq模型Transformer作为基准模型,并且使用字节对编码(BPE)和共享词表的方法来联合处理未登录词(OOV)的问题。在现有的两份英文标准数据集上,实验结果都得到了显著的提升,达到了新的最高性能。 展开更多
关键词 amr-to-text生成 序列到序列模型 字节对编码 共享词表 未登录词
在线阅读 下载PDF
融合目标端句法的AMR-to-Text生成
2
作者 朱杰 李军辉 《中文信息学报》 CSCD 北大核心 2022年第1期31-38,共8页
抽象语义表示到文本(AMR-to-Text)生成的任务是给定AMR图,生成相同语义表示的文本。可以把此任务当作一个从源端AMR图到目标端句子的机器翻译任务。目前存在的一些方法都在探索如何更好地对图结构进行建模。然而,它们都存在一个未限定... 抽象语义表示到文本(AMR-to-Text)生成的任务是给定AMR图,生成相同语义表示的文本。可以把此任务当作一个从源端AMR图到目标端句子的机器翻译任务。目前存在的一些方法都在探索如何更好地对图结构进行建模。然而,它们都存在一个未限定的问题,因为在生成阶段许多句法的决策并不受语义图的约束,从而忽略了句子内部潜藏的句法信息。为了明确考虑这一不足,该文提出一种直接而有效的方法,显式地在AMR-to-Text生成的任务中融入句法信息,并在Transformer和目前该任务最优性能的模型上进行了实验。实验结果表明,在现存的两份标准英文数据集LDC2015E86和LDC2017T10上,该方法取得了显著的性能提升。 展开更多
关键词 amr-to-text生成 句法决策 语义约束 融入句法信息
在线阅读 下载PDF
Recent advances of neural text generation:Core tasks,datasets,models and challenges 被引量:3
3
作者 JIN HanQi CAO Yue +2 位作者 WANG TianMing XING XinYu WAN XiaoJun 《Science China(Technological Sciences)》 SCIE EI CAS CSCD 2020年第10期1990-2010,共21页
In recent years,deep neural network has achieved great success in solving many natural language processing tasks.Particularly,substantial progress has been made on neural text generation,which takes the linguistic and... In recent years,deep neural network has achieved great success in solving many natural language processing tasks.Particularly,substantial progress has been made on neural text generation,which takes the linguistic and non-linguistic input,and generates natural language text.This survey aims to provide an up-to-date synthesis of core tasks in neural text generation and the architectures adopted to handle these tasks,and draw attention to the challenges in neural text generation.We first outline the mainstream neural text generation frameworks,and then introduce datasets,advanced models and challenges of four core text generation tasks in detail,including AMR-to-text generation,data-to-text generation,and two text-to-text generation tasks(i.e.,text summarization and paraphrase generation).Finally,we present future research directions for neural text generation.This survey can be used as a guide and reference for researchers and practitioners in this area. 展开更多
关键词 natural language generation neural text generation amr-to-text data-to-text text summarization paraphrase generation
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部