期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于BERT-Encoder和数据增强的语法纠错模型 被引量:1
1
作者 黄国栋 徐久珺 马传香 《湖北大学学报(自然科学版)》 CAS 2023年第5期719-725,共7页
语法纠错是自然语言处理领域的重要任务之一,中文由于语法规则灵活复杂,中文语法纠错一直是一项具有挑战性的任务.本研究将中文语法纠错视为机器翻译问题,将错误的语句作为源语句翻译成正确的目标语句.使用Transformer模型作为基线纠错... 语法纠错是自然语言处理领域的重要任务之一,中文由于语法规则灵活复杂,中文语法纠错一直是一项具有挑战性的任务.本研究将中文语法纠错视为机器翻译问题,将错误的语句作为源语句翻译成正确的目标语句.使用Transformer模型作为基线纠错模型,首先,利用BERT学习到的参数初始化编码器(BERT-Encoder)使模型更好的收敛,然后,利用动态掩蔽作为数据增强方法,解决训练所需的带错误标注的平行语料不足的问题.使用MaxMatch Scorer作为评价指标,F0.5相比基线模型提升了9.94%,实验结果表明该方法对模型纠错性能的提升具有有效性. 展开更多
关键词 中文语法纠错 机器翻译 bert-encoder 数据增强
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部