期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于CNN和自注意力神经网络的代码补全方法
1
作者 陈伟 何成万 +2 位作者 余秋惠 贺正源 罗蝶 《计算机工程与设计》 北大核心 2025年第10期2919-2926,共8页
由于基于抽象语法树的代码补全模型在提取代码序列细粒度的局部特征方面能力较差,并且难以应用于实际开发场景,提出一种基于卷积神经网络(convolutional neural network,CNN)和自注意力神经网络Transformer的代码补全方法。采用基于代... 由于基于抽象语法树的代码补全模型在提取代码序列细粒度的局部特征方面能力较差,并且难以应用于实际开发场景,提出一种基于卷积神经网络(convolutional neural network,CNN)和自注意力神经网络Transformer的代码补全方法。采用基于代码轻量级语法信息的预处理方法,并提出将CNN与Transformer网络以参数有效的方式结合,对代码序列的全局和局部依赖关系进行全面性建模。模型采用多任务学习机制(multi-task learning,MTL)共享代码token值和类型信息,提取代码序列中的语法和语义特征完成代码token级补全任务。实验结果表明,所提出的代码补全方法在ETH 150K Python数据集上准确率达到74.85%,显著优于基线方法。 展开更多
关键词 代码补全 多任务学习 Transformer 卷积神经网络 抽象语法树 轻量级语法 深度学习
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部