期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
利用RNNLM面向主题的特征定位方法 被引量:2
1
作者 尹春林 王炜 +3 位作者 李彤 何云 熊文军 周小煊 《计算机科学与探索》 CSCD 北大核心 2017年第10期1599-1608,共10页
软件特征定位是软件演化活动顺利展开的保证。基于文本的特征定位方法是目前特征定位研究的一个重要组成部分。当前基于文本的特征定位方法将代码关键词视为独立同分布的个体,忽略了代码间的语境。针对上述问题,基于深度学习语言模型RNN... 软件特征定位是软件演化活动顺利展开的保证。基于文本的特征定位方法是目前特征定位研究的一个重要组成部分。当前基于文本的特征定位方法将代码关键词视为独立同分布的个体,忽略了代码间的语境。针对上述问题,基于深度学习语言模型RNNLM(recurrent neural networks language model)提出了一种源代码主题建模方法,并在此基础上实现了特征定位。实验结果表明,与基于LDA(latent Dirichlet allocation)和LSI(latent semantic indexing)的文本特征定位相比较,查准率提高8.61%和2.61%,表明该方法具有较优的查准率。 展开更多
关键词 软件特征定位 软件演化 rnnlm 主题建模
在线阅读 下载PDF
Multi-GPU Based Recurrent Neural Network Language Model Training
2
作者 Xiaoci Zhang Naijie Gu Hong Ye 《国际计算机前沿大会会议论文集》 2016年第1期124-126,共3页
Recurrent neural network language models (RNNLMs) have been applied in a wide range of research fields, including nature language processing and speech recognition. One challenge in training RNNLMs is the heavy comput... Recurrent neural network language models (RNNLMs) have been applied in a wide range of research fields, including nature language processing and speech recognition. One challenge in training RNNLMs is the heavy computational cost of the crucial back-propagation (BP) algorithm. This paper presents an effective approach to train recurrent neural network on multiple GPUs, where parallelized stochastic gradient descent (SGD) is applied. Results on text-based experiments show that the proposed approach achieves 3.4× speedup on 4 GPUs than the single one, without any performance loss in language model perplexity. 展开更多
关键词 RECURRENT NEURAL network LANGUAGE MODELS (rnnlms)
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部