期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
Measuring Causal Effect with ARDL-BART: A Macroeconomic Application
1
作者 Pegah Mahdavi Mohammad Ali Ehsani +1 位作者 Daniel Felix Ahelegbey Mehrnaz Mohammadpour 《Applied Mathematics》 2024年第4期292-312,共21页
Modeling dynamic systems with linear parametric models usually suffer limitation which affects forecasting performance and policy implications. This paper advances a non-parametric autoregressive distributed lag model... Modeling dynamic systems with linear parametric models usually suffer limitation which affects forecasting performance and policy implications. This paper advances a non-parametric autoregressive distributed lag model that employs a Bayesian additive regression tree (BART). The performance of the BART model is compared with selection models like Lasso, Elastic Net, and Bayesian networks in simulation experiments with linear and non-linear data generating processes (DGP), and on US macroeconomic time series data. The results show that the BART model is quite competitive against the linear parametric methods when the DGP is linear, and outperforms the competing methods when the DGP is non-linear. The empirical results suggest that the BART estimators are generally more efficient than the traditional linear methods when modeling and forecasting macroeconomic time series. 展开更多
关键词 bart model Non Parametric modeling Machine Learning Regression Trees Bayesian Network VAR
暂未订购
PLSGA:阶段式长文本摘要生成方法
2
作者 方缙 李宝安 +1 位作者 游新冬 吕学强 《计算机工程与应用》 北大核心 2025年第2期170-178,共9页
针对现有方法在处理长文本时,存在冗余信息处理困难和无法筛选出最高质量摘要的问题,提出了一种阶段式长文本摘要生成方法(PLSGA)。将样本数据的文本和参考摘要分割,利用Sentence-BERT获取语义向量并进行相似度比对,从中抽取文本的关键... 针对现有方法在处理长文本时,存在冗余信息处理困难和无法筛选出最高质量摘要的问题,提出了一种阶段式长文本摘要生成方法(PLSGA)。将样本数据的文本和参考摘要分割,利用Sentence-BERT获取语义向量并进行相似度比对,从中抽取文本的关键信息;通过关键信息和非关键信息训练抽取模型,以尽可能地保留原文本的语义信息;将抽取的关键信息和参考摘要作为样本输入骨干模型BART进行生成模型训练;通过生成模型生成多条候选摘要,并使用无参考摘要评分模型筛选出质量最好的摘要。提出的阶段式长文本摘要生成方法在多个中文长文本数据集上进行实验,结果表明相对于目前主流的方法以及ChatGPT,其效果均有提升,具有领域优势,生成的摘要质量更好,更具可读性。 展开更多
关键词 文本摘要 Sentence-BERT 关键信息 bart 无参考摘要评分模型
在线阅读 下载PDF
基于改进Teitz-Bart算法的移动网络物流配送系统
3
作者 宋金萍 侯英姿 王方雄 《软件》 2017年第6期142-145,共4页
为了提高配送效率,缩减物流配送成本,本文基于Super Map iClient的network Analyst接口开发了一套移动网络物流配送系统。此配送系统是基于路网数据模型,改进后的Teitz-Bart算法,进行多旅行商分析,择出最优配送路线,是一款非常方便快捷... 为了提高配送效率,缩减物流配送成本,本文基于Super Map iClient的network Analyst接口开发了一套移动网络物流配送系统。此配送系统是基于路网数据模型,改进后的Teitz-Bart算法,进行多旅行商分析,择出最优配送路线,是一款非常方便快捷实用的软件工具。 展开更多
关键词 物流配送 路网数据模型 Teitz-bart算法 多旅行商分析
在线阅读 下载PDF
基于BART噪声器的中文语法纠错模型 被引量:11
4
作者 孙邱杰 梁景贵 李思 《计算机应用》 CSCD 北大核心 2022年第3期860-866,共7页
在中文语法纠错中,基于神经机器翻译的方法被广泛应用,该方法在训练过程中需要大量的标注数据才能保障性能,但中文语法纠错的标注数据较难获取。针对标注数据有限导致中文语法纠错系统性能不佳问题,提出一种基于BART噪声器的中文语法纠... 在中文语法纠错中,基于神经机器翻译的方法被广泛应用,该方法在训练过程中需要大量的标注数据才能保障性能,但中文语法纠错的标注数据较难获取。针对标注数据有限导致中文语法纠错系统性能不佳问题,提出一种基于BART噪声器的中文语法纠错模型——BN-CGECM。首先,为了加快模型的收敛,使用基于BERT的中文预训练语言模型对BN-CGECM的编码器参数进行初始化;其次,在训练过程中,通过BART噪声器对输入样本引入文本噪声,自动生成更多样的含噪文本用于模型训练,从而缓解标注数据有限的问题。在NLPCC 2018数据集上的实验结果表明,所提模型的F0.5值比有道开发的中文语法纠错系统(YouDao)提高7.14个百分点,比北京语言大学开发的集成中文语法纠错系统(BLCU_ensemble)提高6.48个百分点;同时,所提模型不增加额外的训练数据量,增强了原始数据的多样性,且具有更快的收敛速度。 展开更多
关键词 数据增强 中文语法纠错 文本噪声 深度学习 序列到序列模型 bart噪声器
在线阅读 下载PDF
基于序列到序列模型的观点核心信息抽取 被引量:2
5
作者 罗雨蒙 林煜明 《桂林电子科技大学学报》 2022年第5期405-411,共7页
方面项和观点项的成对抽取是基于方面的情感分析中的一个子任务,旨在从评论句中提取出观点核心信息。现有的方法需要对数据进行大量复杂的标注或者会产生大量的负样本,耗费大量人力且计算代价过大,为解决该问题,将方面-观点项对的抽取... 方面项和观点项的成对抽取是基于方面的情感分析中的一个子任务,旨在从评论句中提取出观点核心信息。现有的方法需要对数据进行大量复杂的标注或者会产生大量的负样本,耗费大量人力且计算代价过大,为解决该问题,将方面-观点项对的抽取任务转换为文本生成任务,提出了一种基于序列到序列模型(Seq2Seq)的端到端生成框架来生成方面-观点项对的方法,在所提出的框架中将大型预训练模型BART的编码器和解码器作为Seq2Seq模型的编码器和解码器,在解码时结合指针机制直接生成方面-观点词对序列。提出的模型在15res数据集上的F1值为77.31%,比最佳的基线模型提升了3.74%。实验结果表明,提出的模型在3个数据集上均优于其他基线模型。 展开更多
关键词 方面项和观点项的成对抽取 序列到序列模型 bart模型 指针机制 观点核心信息抽取
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部