融合时域网络与蒙特卡洛树搜索的知识图谱补全模型研究
发布时间:2021-12-18 19:06
社交网络,知识图谱等在大数据时代都变得至关重要,然而,与图片和视频等欧几里得式数据不同,交错复杂的非欧几里得式结构数据面始终具有特征提取困难的问题,复杂的数据交互形式和庞大的数据体量,使得对网络结构数据的挖掘和分析变得相对困难。传统的网络结构数据挖掘通常采用表示学习方法,即将网络中的节点和关系获得嵌入向量,向量的方向和模长均具有表示意义。另外,随着强化学习方法的兴起,出现了将强化学习模型应用于网络结构数据处理数据挖掘任务。本文面向知识图谱以强化学习视角对数据分析与挖掘,其中一个主要问题是知识图谱实体补全问题。因此,本文以知识图谱补全任务入手,其任务表述为给定初始实体和该实体相关的关系,补全出关系对应的目标实体,构成完整的(头实体,关系,尾实体)三元组。该任务可应用于知识图谱补全,问答系统,推荐等诸多下游任务。本文将补全任务过程形式化定义为马尔科夫过程,采用强化学习思想学习解决补全问题,其中的网络特征提取与策略学习方法能够适应多种任务。首先,本文详细定义了知识图谱补全任务的马尔科夫过程,明确了过程四要素即状态空间、动作空间、转移函数和回报函数,进而使得该过程能够以强化学习方式对任务目标学...
【文章来源】:吉林大学吉林省 211工程院校 985工程院校 教育部直属院校
【文章页数】:50 页
【学位级别】:硕士
【部分图文】:
应用强化学习算法的AlphaGo在围棋上与人类顶尖棋手对抗
第2章相关工作11图2.2循环神经网络RNN和长短期记忆模型LSTM内部结构循环神经网络(RecurrentNeuralNetwork,RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursiveneuralnetwork),不同于传统神经网络的层结构,循环神经网络中不包含隐藏层,其基本结构可以称为循环细胞或循环单元,序列化的输入将在不同的时间步输入该循环单元,可以形象表示为链式结构,每一步的输入和前一步的循环单元输出共同组成下一步的输入。因此循环神经网络具有处理先前输入的功能,并且通过每一时间步的筛选和记忆,保留重要信息传递给下一个时间步。RNN模型通过隐状态来实现对序列中已经出现的历史信息的记忆,然而循环的梯度累积容易产生梯度消失的问题。长短期记忆模型(LSTM)[45]则在一定程度上解决了梯度消失问题,其具有更加复杂的循环细胞单元,增加了贯穿整个时间步的细胞状态,并且能更好的实现长期记忆。随后GRU[46]的提出简化了LSTM模型,提升了训练速度,使得循环模型在序列问题的处理上占了绝对的主导地位。然而,随后也涌现利用卷积网络用于序列相关工作,比如Wavenet[47]模型采用空洞因果卷积处理序列化的音频数据,GatedCNN[48]模型提出一种新的门控机制,结合CNN做自然语言语言处理等。输出输出输入中间隐藏层中间隐藏层中间隐藏层图2.3因果卷积结构
第6章实验结果31图7.1Policy-UCT搜索在各个数据集上的正回报率(c=1.96)图7.2Policy-UCT搜索在各个数据集上的平均耗时(c=1.96)6.3.2任务实验结果表7.1NELL995中十个关系的预测结果(采用MAP方法,括号中为标准差)任务(MAP)GAM-walkMINERVADeepPathPRATransETransRAthletePlaysForTeam85.2(0.8)84.7(1.3)82.7(0.8)72.1(1.2)54.762.767.3AthletePlaysInLeague97.9(0.4)97.8(0.2)95.2(0.8)92.7(5.3)84.177.391.2AthleteHomeStadium91.7(0.1)91.9(0.1)92.8(0.1)84.6(0.8)85.971.872.2AthletePlaysSport96.4(0.2)98.3(0.1)98.6(0.1)91.7(4.1)47.487.696.3TeamPlaySports87.5(0.2)88.4(1.8)87.5(0.5)69.6(6.7)79.176.181.4OrgHeadquaterCity95.4(0.3)95.0(0.7)94.5(0.3)79.0(0.0)81.162.065.7BornLocation82.5(0.1)81.2(0.0)78.2(0.0)75.5(0.5)66.871.281.2WorksFor83.8(0.4)84.2(0.6)82.7(0.5)69.9(0.3)68.167.769.2PersonLeadsOrg88.2(1.3)88.8(0.5)83.0(2.6)79.0(1.0)70.075.177.2OrgHiredPerson90.1(0.7)88.8(0.6)87.0(0.3)73.8(1.9)59.971.973.7Overall89.989.987.678.869.772.377.5
本文编号:3543011
【文章来源】:吉林大学吉林省 211工程院校 985工程院校 教育部直属院校
【文章页数】:50 页
【学位级别】:硕士
【部分图文】:
应用强化学习算法的AlphaGo在围棋上与人类顶尖棋手对抗
第2章相关工作11图2.2循环神经网络RNN和长短期记忆模型LSTM内部结构循环神经网络(RecurrentNeuralNetwork,RNN)是一类以序列(sequence)数据为输入,在序列的演进方向进行递归(recursion)且所有节点(循环单元)按链式连接的递归神经网络(recursiveneuralnetwork),不同于传统神经网络的层结构,循环神经网络中不包含隐藏层,其基本结构可以称为循环细胞或循环单元,序列化的输入将在不同的时间步输入该循环单元,可以形象表示为链式结构,每一步的输入和前一步的循环单元输出共同组成下一步的输入。因此循环神经网络具有处理先前输入的功能,并且通过每一时间步的筛选和记忆,保留重要信息传递给下一个时间步。RNN模型通过隐状态来实现对序列中已经出现的历史信息的记忆,然而循环的梯度累积容易产生梯度消失的问题。长短期记忆模型(LSTM)[45]则在一定程度上解决了梯度消失问题,其具有更加复杂的循环细胞单元,增加了贯穿整个时间步的细胞状态,并且能更好的实现长期记忆。随后GRU[46]的提出简化了LSTM模型,提升了训练速度,使得循环模型在序列问题的处理上占了绝对的主导地位。然而,随后也涌现利用卷积网络用于序列相关工作,比如Wavenet[47]模型采用空洞因果卷积处理序列化的音频数据,GatedCNN[48]模型提出一种新的门控机制,结合CNN做自然语言语言处理等。输出输出输入中间隐藏层中间隐藏层中间隐藏层图2.3因果卷积结构
第6章实验结果31图7.1Policy-UCT搜索在各个数据集上的正回报率(c=1.96)图7.2Policy-UCT搜索在各个数据集上的平均耗时(c=1.96)6.3.2任务实验结果表7.1NELL995中十个关系的预测结果(采用MAP方法,括号中为标准差)任务(MAP)GAM-walkMINERVADeepPathPRATransETransRAthletePlaysForTeam85.2(0.8)84.7(1.3)82.7(0.8)72.1(1.2)54.762.767.3AthletePlaysInLeague97.9(0.4)97.8(0.2)95.2(0.8)92.7(5.3)84.177.391.2AthleteHomeStadium91.7(0.1)91.9(0.1)92.8(0.1)84.6(0.8)85.971.872.2AthletePlaysSport96.4(0.2)98.3(0.1)98.6(0.1)91.7(4.1)47.487.696.3TeamPlaySports87.5(0.2)88.4(1.8)87.5(0.5)69.6(6.7)79.176.181.4OrgHeadquaterCity95.4(0.3)95.0(0.7)94.5(0.3)79.0(0.0)81.162.065.7BornLocation82.5(0.1)81.2(0.0)78.2(0.0)75.5(0.5)66.871.281.2WorksFor83.8(0.4)84.2(0.6)82.7(0.5)69.9(0.3)68.167.769.2PersonLeadsOrg88.2(1.3)88.8(0.5)83.0(2.6)79.0(1.0)70.075.177.2OrgHiredPerson90.1(0.7)88.8(0.6)87.0(0.3)73.8(1.9)59.971.973.7Overall89.989.987.678.869.772.377.5
本文编号:3543011
本文链接:https://www.wllwen.com/kejilunwen/sousuoyinqinglunwen/3543011.html