期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Deberta和语篇图神经网络的机器阅读理解
1
作者
吴明礼
王壮壮
段建勇
《计算机应用与软件》
北大核心
2026年第2期175-181,270,共8页
机器阅读理解多项选择式任务在自然语言处理领域广受关注,但是现有的预训练模型在逻辑推理型多项选择式任务中效果还有待提升。基于Deberta和语篇图神经网络提出一种改进的Deberta-DGNN(Deberta-Discourse Graph Neural Network)模型。...
机器阅读理解多项选择式任务在自然语言处理领域广受关注,但是现有的预训练模型在逻辑推理型多项选择式任务中效果还有待提升。基于Deberta和语篇图神经网络提出一种改进的Deberta-DGNN(Deberta-Discourse Graph Neural Network)模型。使用Deberta模型进行词向量的特征提取;通过构建图的形式来完成句子间隐藏关系的提取,将Deberta模型输出的序列特征进行切割作为语篇单元来构建逻辑图。为保持原文原意,在逻辑图中对语篇单元补入位置信息。对于逻辑图长距离依赖节点难以进行有效交互的问题,将节点引入多头自注意力机制中来缓解该问题。该模型在Reclor数据集上测试准确率达到68.40%,效果提升显著。
展开更多
关键词
机器阅读理解
Deberta
图神经网络
多头自注意力机制
reclor
在线阅读
下载PDF
职称材料
题名
基于Deberta和语篇图神经网络的机器阅读理解
1
作者
吴明礼
王壮壮
段建勇
机构
北方工业大学信息学院
出处
《计算机应用与软件》
北大核心
2026年第2期175-181,270,共8页
基金
国家自然科学基金项目(61972003)
教育部人文社科基金项目(21YJA740052)。
文摘
机器阅读理解多项选择式任务在自然语言处理领域广受关注,但是现有的预训练模型在逻辑推理型多项选择式任务中效果还有待提升。基于Deberta和语篇图神经网络提出一种改进的Deberta-DGNN(Deberta-Discourse Graph Neural Network)模型。使用Deberta模型进行词向量的特征提取;通过构建图的形式来完成句子间隐藏关系的提取,将Deberta模型输出的序列特征进行切割作为语篇单元来构建逻辑图。为保持原文原意,在逻辑图中对语篇单元补入位置信息。对于逻辑图长距离依赖节点难以进行有效交互的问题,将节点引入多头自注意力机制中来缓解该问题。该模型在Reclor数据集上测试准确率达到68.40%,效果提升显著。
关键词
机器阅读理解
Deberta
图神经网络
多头自注意力机制
reclor
Keywords
Machine reading comprehension
Deberta
Graph Neural Network
Multi-head self-attention mechanism
reclor
分类号
TP391 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于Deberta和语篇图神经网络的机器阅读理解
吴明礼
王壮壮
段建勇
《计算机应用与软件》
北大核心
2026
0
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部