基于神经网络的会话型推荐算法研究
发布时间:2021-10-23 22:17
近年来随着计算机硬件、互联网、大数据等技术的快速发展,用户被海量的信息包围。对用户来说,如何在日益增长的信息库中找到自己需要的信息是一件非常困难的事情。为了让用户花费少量的时间在系统中找到自己需要的物品或者信息,推荐系统应运而生。推荐系统的出现很大程度地解决了“信息过载”的问题,是一种非常有效的信息过滤方法,可以根据用户的相关信息或者历史浏览记录,去学习了解用户的兴趣偏好,从而为用户推荐需要的信息或物品。本文主要针对用户与系统交互的会话信息推荐展开相关研究,主要工作如下:(1)基于会话的推荐是推荐领域中一个新兴话题,并且近年来引起了学术界和工业界的极大关注。基于会话的推荐最大的优点是不需要挖掘用户本身信息,只需要处理用户与系统交互过程中的物品点击事件序列信息。针对传统的基于会话的推荐算法没有利用物品的特征信息的问题,本文提出一种新的基于会话的推荐算法——SR-I2V(Session-based Recommendation with Item2Vec),首先通过该算法学习出物品的嵌入向量,接着由意图递进公式对已发生的物品点击提取出意图特征向量,最后通过计算向量相似度进行推荐。SR-I2...
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
前馈神经网络示意图
RNN结构及其展开
第二章会话型推荐算法理论基础9长短期记忆主要是解决长序列训练过程中的梯度爆炸和梯度消失等问题,因此它是一种特殊的RNN。简单来说,相比于普通的RNN,LSTM往往在更长的序列中具有更好的表现。如果把LSTM当成黑盒子看待,可以分为以下关键变量:输入是t1h(t-1时刻的隐藏层)和xt(t时刻的特征向量);输出是th(加softmax即可作为最终理论输出,否则作为隐藏层的中间输出);主线记忆是1ct和tc。如图2.3橙色部分,t1h和tx联合起来控制了三个门,并且是输入的唯一来源,所以划分为输入部分。图中的th不是真正的输出,它与真正的输出只隔了一层softmax,是输出的直接来源,所以划分为输出部分。它同时又是下一个LSTM单元的输入,但是在当前单元,它仅与输出相关。如图2.3黄色部分,1ct和tc始终与外界隔离开来,显然是作为LSTM记忆或者保存了当前单元的主要信息。主线进来后,首先受到遗忘门的衰减作用,接着输入门控制“补给大斜给主线补充能量生成全新的主线。这一衰一补的过程完成了主线的更新。接着在输出门的控制下生成新的输出ht。图2.3LSTM网络模型结构Fig2.3LSTMnetworkmodelstructureLSTM的三个门均采用sigmoid函数,所以并不是只取0和1的门,而是近似。激励函数采用tanh,为奇函数,所以均值为0。下面将公式分为三部分进行梳理,其中⊙代表点乘。每个括号里面虽然参数不一样,但本质均为输入部分,当作“输入”看即可。遗忘门部分:t1()ftftfUhWx(2.4)t1kttcf(2.5)其中,公式2.4表示遗忘门,公式2.5表示主线遗忘。输入门部分:
【参考文献】:
期刊论文
[1]基于循环神经网络的推荐算法[J]. 高茂庭,徐彬源. 计算机工程. 2019(08)
[2]信息过载问题研究述评[J]. 蔺丰奇,刘益. 情报理论与实践. 2007(05)
本文编号:3454017
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
前馈神经网络示意图
RNN结构及其展开
第二章会话型推荐算法理论基础9长短期记忆主要是解决长序列训练过程中的梯度爆炸和梯度消失等问题,因此它是一种特殊的RNN。简单来说,相比于普通的RNN,LSTM往往在更长的序列中具有更好的表现。如果把LSTM当成黑盒子看待,可以分为以下关键变量:输入是t1h(t-1时刻的隐藏层)和xt(t时刻的特征向量);输出是th(加softmax即可作为最终理论输出,否则作为隐藏层的中间输出);主线记忆是1ct和tc。如图2.3橙色部分,t1h和tx联合起来控制了三个门,并且是输入的唯一来源,所以划分为输入部分。图中的th不是真正的输出,它与真正的输出只隔了一层softmax,是输出的直接来源,所以划分为输出部分。它同时又是下一个LSTM单元的输入,但是在当前单元,它仅与输出相关。如图2.3黄色部分,1ct和tc始终与外界隔离开来,显然是作为LSTM记忆或者保存了当前单元的主要信息。主线进来后,首先受到遗忘门的衰减作用,接着输入门控制“补给大斜给主线补充能量生成全新的主线。这一衰一补的过程完成了主线的更新。接着在输出门的控制下生成新的输出ht。图2.3LSTM网络模型结构Fig2.3LSTMnetworkmodelstructureLSTM的三个门均采用sigmoid函数,所以并不是只取0和1的门,而是近似。激励函数采用tanh,为奇函数,所以均值为0。下面将公式分为三部分进行梳理,其中⊙代表点乘。每个括号里面虽然参数不一样,但本质均为输入部分,当作“输入”看即可。遗忘门部分:t1()ftftfUhWx(2.4)t1kttcf(2.5)其中,公式2.4表示遗忘门,公式2.5表示主线遗忘。输入门部分:
【参考文献】:
期刊论文
[1]基于循环神经网络的推荐算法[J]. 高茂庭,徐彬源. 计算机工程. 2019(08)
[2]信息过载问题研究述评[J]. 蔺丰奇,刘益. 情报理论与实践. 2007(05)
本文编号:3454017
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3454017.html
最近更新
教材专著