基于时空上下文信息的POI推荐模型研究

发布时间:2021-01-20 00:46
  随着可穿戴设备的快速发展,基于位置的社交网络(LBSN,Location-based Social Network)越来越受到人们的重视。POI推荐作为LBSN的一个研究热点,它通过对海量签到数据的分析和挖掘,给用户提供个性化的服务。这不仅让平台更加了解目标受众,还为用户带来了极大的便利,也因此在各个领域被广泛应用。与传统的推荐系统相比,POI推荐更具有技术挑战。一方面,用户签到的频率过少导致数据过于稀疏,不能体现用户的动态移动行为,因此大多数关联分析算法效果不佳。另一方面,用户的偏好受到不同因素的影响,具有复杂性和差异性等特点,能否综合全面的考虑用户偏好的多样性则成为了POI推荐的关键所在。为了更好的实现POI个性化推荐,本文采用了深度神经网络的方式将POI推荐看做序列关联的推荐问题,来较好地捕获不同用户行为的时序关系。首先,通过分析时间、空间和上下文信息对用户行为的影响,将用户历史签到的异构数据通过其潜在向量的低维表示,以序列的方式融合嵌入进编码的GRU网络中。然后,在序列到序列的框架下,将GRU应用在POI个性化推荐模型中。在此框架下,由于输入序列长度的可变性容易导致信息丢失,为... 

【文章来源】:江西师范大学江西省

【文章页数】:54 页

【学位级别】:硕士

【部分图文】:

基于时空上下文信息的POI推荐模型研究


单个神经元模型

神经网络模型,神经元


工程硕士专业学位论文8神经元作为神经网络最简单的单元,其实质是对一些输入用函数的方式进行逻辑处理并输出的过程。图2-1展示了单个神经元模型的结构,描述了单个神经元进行信息处理的过程,神经元接收到m个输入特征后,并给每一个特征ix赋予一个权重iw,再将带有不同权重的特征相加得到一个合适的值,随后添加一个全局偏置b并一同通过激活函数F处理以产生神经元的输出y。整个信息处理的过程可以用公式2-1进行描述:miiiybxwF1(2-1)图2-2多隐层神经网络模型单个神经元只能解决简单的问题,通过大量神经元相连,则会形成复杂的网络模型,则能解决复杂的任务。一个典型的神经网络系统如图2-2所示,神经网络一般主要由输入层、隐藏层和输出层构成。特征的输入则是通过输入层的神经元进行,该层只进行输入而不包括处理。隐藏层作为网络的主要功能神经元,则可根据任务的需要确定隐藏的数量,往往多个隐层的神经网络比单隐层的网络更为复杂,但对于输入特征的信息挖掘却更充分,学习能力更强。通过隐层训练后的结果放入输出层,输出层进行处理后的结果则为神经网络的最终输出结果。对于图中输入层、隐层、输出层之间,则通过全连接的方式进行交互连通。2.1.1循环神经网络传统的前馈神经网络思想都是假设元素之间相互独立,包括输入与输出也是独立的。但是对于现实世界来说,大多数元素之间是相互关联的,并且部分关联属性与时间先后顺序有关,例如:飞机票价随时间的变化,景点人数随季节的变化等。前馈神经网络不同时刻的预测完全是独立的的,其输出都是只考虑前一个输入的影响,而并不考虑其他时刻输入的影响,所以如果用前馈神经网络来做时序信号预测,这样的算法在解决该类问题时就不尽如人意。因此,循环神经网络

结构图,结构图,神经网络


基于时空上下文信息的POI推荐模型研究9(RecurrentNeuralNetwork,RNN)被应运而生,它不仅考虑了前一时刻的输入,还将人对于事物认知基于经验与记忆这一理念融入该网络模型,使网络拥有“记忆”功能一般能够考虑前面内容的影响。RNN在序列上的操作可以看成一个在时间上传递的神经网络,且它的深度就是时间的长度。由于RNN能够考虑时间先后顺序体现网络的序列性,因此在自然语言处理领域对于视频处理、文本生成、语言模型方面,以及机器翻译、语音识别、推荐系统等新领域中被广泛应用。RNN的原理并不十分复杂,相较于卷积神经网络等其他深度神经网络它主要由输入层、隐层、输出层组成。其中隐层主要通过数据的循环更新来实现RNN的“记忆”功能。图2-3,RNN的结构图将具体介绍其原理与内部结构。图2-3RNN结构图如图2-3所示,一个典型的RNN网络包括输入样本X,神经网络单元A和输出h。和一般的网络不同,RNN的神经网络单元A不仅仅与输入、输出有着联系,其自身也存在一个循环重复的回路,这也是RNN与其他网络不同的核心所在。从上图中可以看见,神经元tA为隐层的状态,它是网络的记忆单元,可以根据当前t时刻网络接收的输入tx和上一层隐层状态带入公式2.2来进行计算。这里的U代表输入样本的权重,W代表输入的权重,其中隐层的计算均为激活函数,图中以tanh激活函数为例。1tantttWAUxA(2-2)t时刻的网络状态tA不仅作为下一个时刻网络状态t1A的输入,还要对该时刻的网络进行输出。为了方便比较和应用结果所以需要对输出进行归一化处理,这里我们主要用到softmax函数进行归一化处理,其中,V作为输出状态的权重。因此,对于t时刻的输出,可以用公式2.3进行表示。ttVAsofthmax(2-3)


本文编号:2988018

资料下载
论文发表

本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/2988018.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户070a5***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com