期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于BERT-SUMOPN模型的抽取-生成式文本自动摘要
被引量:
13
1
作者
谭金源
刁宇峰
+2 位作者
杨亮
祁瑞华
林鸿飞
《山东大学学报(理学版)》
CAS
CSCD
北大核心
2021年第7期82-90,共9页
可读性、准确性较差,生成式摘要存在连贯性、逻辑性的不足,此外2种摘要方法的传统模型对文本的向量表示往往不够充分、准确。针对以上问题,该文提出了一种基于BERT-SUMOPN模型的抽取-生成式摘要方法。模型通过BERT预训练语言模型获取文...
可读性、准确性较差,生成式摘要存在连贯性、逻辑性的不足,此外2种摘要方法的传统模型对文本的向量表示往往不够充分、准确。针对以上问题,该文提出了一种基于BERT-SUMOPN模型的抽取-生成式摘要方法。模型通过BERT预训练语言模型获取文本向量,然后利用抽取式结构化摘要模型抽取文本中的关键句子,最后将得到的关键句子输入到生成式指针生成网络中,通过EAC损失函数对模型进行端到端训练,结合coverage机制减少生成重复,获取摘要结果。实验结果表明,BERT-SUMOPN模型在BIGPATENT专利数据集上取得了很好的效果,ROUGE-1和ROUGE-2指标分别提升了3.3%和2.5%。
展开更多
关键词
BERT预训练语言模型
结构化模型
指针生成网络
eac
损失函数
原文传递
题名
基于BERT-SUMOPN模型的抽取-生成式文本自动摘要
被引量:
13
1
作者
谭金源
刁宇峰
杨亮
祁瑞华
林鸿飞
机构
大连理工大学信息检索实验室
大连外国语大学语言智能研究中心
出处
《山东大学学报(理学版)》
CAS
CSCD
北大核心
2021年第7期82-90,共9页
基金
国家重点研发计划资助项目(2019YFC1200302)
国家自然科学基金重点资助项目(61632011)。
文摘
可读性、准确性较差,生成式摘要存在连贯性、逻辑性的不足,此外2种摘要方法的传统模型对文本的向量表示往往不够充分、准确。针对以上问题,该文提出了一种基于BERT-SUMOPN模型的抽取-生成式摘要方法。模型通过BERT预训练语言模型获取文本向量,然后利用抽取式结构化摘要模型抽取文本中的关键句子,最后将得到的关键句子输入到生成式指针生成网络中,通过EAC损失函数对模型进行端到端训练,结合coverage机制减少生成重复,获取摘要结果。实验结果表明,BERT-SUMOPN模型在BIGPATENT专利数据集上取得了很好的效果,ROUGE-1和ROUGE-2指标分别提升了3.3%和2.5%。
关键词
BERT预训练语言模型
结构化模型
指针生成网络
eac
损失函数
Keywords
BERT pre-trained language model
Structured summary model
Pointer-generator network
eac loss function
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于BERT-SUMOPN模型的抽取-生成式文本自动摘要
谭金源
刁宇峰
杨亮
祁瑞华
林鸿飞
《山东大学学报(理学版)》
CAS
CSCD
北大核心
2021
13
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部