目的现有的基于图神经网络(GNN)的推荐方法忽略了会话中有价值用户在项目上的时间驻留信息,无法解决用户无意识点击带来的影响,同时忽略图神经网络中隐藏因素的表达能力,针对以上问题,提出一种融合时间驻留信息的图神经网络会话推荐模型...目的现有的基于图神经网络(GNN)的推荐方法忽略了会话中有价值用户在项目上的时间驻留信息,无法解决用户无意识点击带来的影响,同时忽略图神经网络中隐藏因素的表达能力,针对以上问题,提出一种融合时间驻留信息的图神经网络会话推荐模型(Graph Neural Network Session-based Recommendation Based on Fusion of Time Resident Information,TRGNN)。方法首先,对用户在各个项目上的驻留时间信息进行处理,通过时间图神经网络得到时间特征;其次,应用多头注意力机制增强因素的表达能力更好地提取项目特征,TRGNN将时间特征与项目特征进行融合得到最终特征,通过注意力网络得到全局上下文和局部上下文;最后,通过预测层得到最终推荐结果。结果在Diginetica和Yoochoose两个真实数据集上进行对比实验,实验结果表明:相较于最优基线模型,本模型在Mrr@20评价指标下分别提升了1.57%和3.30%,在Recall@20指标下分别提升了1.10%和0.66%。结论本模型实现了更好的推荐效果,能更好地挖掘隐藏信息,充分应用时间特征和项目隐藏特征来提高推荐准确率,降低用户误触对推荐准确率的影响。展开更多
针对会话推荐中忽略全局与局部信息协同问题,设计全局-局部信息协同会话推荐算法(global-local information collaboration for session-based recommendation,GLIC-SR)。该算法构建全局项目图和局部会话图,并使用图神经网络(graph neur...针对会话推荐中忽略全局与局部信息协同问题,设计全局-局部信息协同会话推荐算法(global-local information collaboration for session-based recommendation,GLIC-SR)。该算法构建全局项目图和局部会话图,并使用图神经网络(graph neural network,GNN)进行学习;在学习到的项目嵌入中融入位置因子,更好感知用户意图;分别计算全局和局部候选项目推荐得分;将2个通道得分相加计算最终推荐概率。在2个数据集上实验结果表明,相较于最优基线模型,GLIC-SR在Diginetica数据集上P@20(precision@20)和MRR@20(mean reciprocal rank@20)分别提高5.03%和3.87%、在Retailrocket数据集上分别提升6.42%和7.07%,证明所提模型的有效性。展开更多
文摘目的现有的基于图神经网络(GNN)的推荐方法忽略了会话中有价值用户在项目上的时间驻留信息,无法解决用户无意识点击带来的影响,同时忽略图神经网络中隐藏因素的表达能力,针对以上问题,提出一种融合时间驻留信息的图神经网络会话推荐模型(Graph Neural Network Session-based Recommendation Based on Fusion of Time Resident Information,TRGNN)。方法首先,对用户在各个项目上的驻留时间信息进行处理,通过时间图神经网络得到时间特征;其次,应用多头注意力机制增强因素的表达能力更好地提取项目特征,TRGNN将时间特征与项目特征进行融合得到最终特征,通过注意力网络得到全局上下文和局部上下文;最后,通过预测层得到最终推荐结果。结果在Diginetica和Yoochoose两个真实数据集上进行对比实验,实验结果表明:相较于最优基线模型,本模型在Mrr@20评价指标下分别提升了1.57%和3.30%,在Recall@20指标下分别提升了1.10%和0.66%。结论本模型实现了更好的推荐效果,能更好地挖掘隐藏信息,充分应用时间特征和项目隐藏特征来提高推荐准确率,降低用户误触对推荐准确率的影响。
文摘针对会话推荐中忽略全局与局部信息协同问题,设计全局-局部信息协同会话推荐算法(global-local information collaboration for session-based recommendation,GLIC-SR)。该算法构建全局项目图和局部会话图,并使用图神经网络(graph neural network,GNN)进行学习;在学习到的项目嵌入中融入位置因子,更好感知用户意图;分别计算全局和局部候选项目推荐得分;将2个通道得分相加计算最终推荐概率。在2个数据集上实验结果表明,相较于最优基线模型,GLIC-SR在Diginetica数据集上P@20(precision@20)和MRR@20(mean reciprocal rank@20)分别提高5.03%和3.87%、在Retailrocket数据集上分别提升6.42%和7.07%,证明所提模型的有效性。