基于移动轨迹的社交关系推断
发布时间:2022-01-22 14:12
随着蜂巢式网络和无线通信技术的快速发展,各种可以实现定位功能的移动设备和基于位置信息的社交网络(Location-based Social Network,LBSN)相继出现并得到了广泛的使用,与此同时,它们也产生了大量与当前位置相关的数据,例如:照片、推特和签到信息等。这些地理数据为我们实现从用户的移动数据中挖掘其潜在的隐含信息提供了一个前所未有的机会,而挖掘用户的移动模式这一任务对兴趣点推荐、运动轨迹识别和个性化出行规划等下游应用而言都是极为重要的。最近,一项称为基于移动数据实现社交关系推理(Social Circle Inference from Mobility data,SCIM)的任务引起了研究学者的广泛关注,该任务的应用场景为:在没有给出任何明确的结构化网络信息的情况下,仅仅依据用户的移动数据推断用户之间的社交关系。现有的推断方法要么需要已知部分社交关系,要么无法对用户之间的隐含关系进行建模,故而存在一定的推理误差。本文针对SCIM任务提出了基于自注意力的社交关系推理模型(SCIMA,SCIM via self-Attention),该模型主要包含用户移动模式挖掘和社交关...
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:90 页
【学位级别】:硕士
【部分图文】:
机器学习与人类思维模式对比
第二章相关原理及技术19长短期记忆网络(LongShortTermMemoryNetwork,LSTM)是一种广泛应用的循环神经网络的变体,在循环神经网络的基础上,该网络分别引入遗忘门tf、输入门ti、输出门to这三个门来实现让部分信息有选择性的通过。所谓门控机制即选择性地遗忘部分历史信息以及选择性地保留新的输入信息,数字电路中,“门”的取值为1或0,1代表允许所有信号通过,反之,0代表不允许任何信号通过。ht+1xt-1xtxt+1×+σσtanhσ××tanhht-1ht图2-9LSTM内部结构遗忘门tf主要负责控制从上一时刻的细胞(Cell)状态中丢失多少信息,其计算方式如公式(2-5):1([,])tfttffhxbW(2-5)其中,()代表Sigmoid函数,tf的取值区间为(0,1),t1h为前一步隐含状态的输出,tx代表当前时刻的输入,fW为参数矩阵,fb为偏差向量。图2-10Sigmoid函数图像此处选择Sigmoid函数(其函数图如图2-10所示)作为激活函数的主要原因如下:Sigmoid函数走向单调且连续递增,其输出范围在(0,1)之间,而且对该函数
第二章相关原理及技术21当前序列的特征表示(如图2-11),并将其传递给分类器g(),该序列对应的标签分类结果可由公式(2-11)求得:()Tygh(2-11)其中,g()可为softmax等简单的线性函数,亦或是多层前馈神经网络等复杂的分类器。h1x1h2x2hTxT......y图2-11序列到类别模式模型图softmax函数又称归一化指数函数,该函数可以将任意一个k维的实数向量压缩到另一个k维的向量中,使得压缩后的向量其每一维的取值范围都在(0,1)之间,且该向量中所有元素的值加起来恒等于1,其函数图像如图2-12所示。图2-12softmax函数图像相较于sigmoid函数这种二分类问题中的激活函数,softmax函数的本质是对概率分布向量中各个维度对应的梯度对数做一个归一化,故softmax函数在深度学习领域被广泛应用于多项式线性分析,多项逻辑回归等多种多类别回归问题。在多
【参考文献】:
硕士论文
[1]基于社交媒体的短文本数据挖掘研究[D]. 杜娜娜.天津理工大学 2018
本文编号:3602339
【文章来源】:电子科技大学四川省 211工程院校 985工程院校 教育部直属院校
【文章页数】:90 页
【学位级别】:硕士
【部分图文】:
机器学习与人类思维模式对比
第二章相关原理及技术19长短期记忆网络(LongShortTermMemoryNetwork,LSTM)是一种广泛应用的循环神经网络的变体,在循环神经网络的基础上,该网络分别引入遗忘门tf、输入门ti、输出门to这三个门来实现让部分信息有选择性的通过。所谓门控机制即选择性地遗忘部分历史信息以及选择性地保留新的输入信息,数字电路中,“门”的取值为1或0,1代表允许所有信号通过,反之,0代表不允许任何信号通过。ht+1xt-1xtxt+1×+σσtanhσ××tanhht-1ht图2-9LSTM内部结构遗忘门tf主要负责控制从上一时刻的细胞(Cell)状态中丢失多少信息,其计算方式如公式(2-5):1([,])tfttffhxbW(2-5)其中,()代表Sigmoid函数,tf的取值区间为(0,1),t1h为前一步隐含状态的输出,tx代表当前时刻的输入,fW为参数矩阵,fb为偏差向量。图2-10Sigmoid函数图像此处选择Sigmoid函数(其函数图如图2-10所示)作为激活函数的主要原因如下:Sigmoid函数走向单调且连续递增,其输出范围在(0,1)之间,而且对该函数
第二章相关原理及技术21当前序列的特征表示(如图2-11),并将其传递给分类器g(),该序列对应的标签分类结果可由公式(2-11)求得:()Tygh(2-11)其中,g()可为softmax等简单的线性函数,亦或是多层前馈神经网络等复杂的分类器。h1x1h2x2hTxT......y图2-11序列到类别模式模型图softmax函数又称归一化指数函数,该函数可以将任意一个k维的实数向量压缩到另一个k维的向量中,使得压缩后的向量其每一维的取值范围都在(0,1)之间,且该向量中所有元素的值加起来恒等于1,其函数图像如图2-12所示。图2-12softmax函数图像相较于sigmoid函数这种二分类问题中的激活函数,softmax函数的本质是对概率分布向量中各个维度对应的梯度对数做一个归一化,故softmax函数在深度学习领域被广泛应用于多项式线性分析,多项逻辑回归等多种多类别回归问题。在多
【参考文献】:
硕士论文
[1]基于社交媒体的短文本数据挖掘研究[D]. 杜娜娜.天津理工大学 2018
本文编号:3602339
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3602339.html
最近更新
教材专著