面向问答的知识图谱推理技术和合并技术研究
发布时间:2021-04-01 13:08
知识图谱是一种图结构数据,其中每个节点通常表示某个具体事物,这些节点相互连接构成了一个大型图。知识图谱自提出之后,就吸引了广泛关注。知识图谱问答在检索、个人助手等应用中起着重要的作用。在大型知识图谱上的问答通常分步进行。本文主要在开放领域的知识图谱上,对问答系统的相关技术进行了研究。主要研究内容包括以下三个方面:1.基于特征融合的主题实体词提取方法。主题实体词指的是问题句所咨询的主要事物,主题实体词提取即确定这一主要事物的过程。本文把问题句的序列表示成向量编码,用长短时记忆网络构建的语言模型抽取候选实体词的语法特性。本文还融合了词法和上下文等信息,对所有候选实体词进行评价和排序,以此得到正确的主题实体词。2.基于关系匹配的知识图谱推理方法研究。在确定了主要事物后,从知识图谱中能得到以它为中心节点的知识子图。关系匹配是从子图上的候选关系路径中,找出与问题句匹配的正确路径的过程。本文用深度学习方法,分别学习了问题句和关系路径的语义向量。同时使用了编辑距离等字符串相似评价指标以及词袋式的词向量相似度,综合对问题句和候选关系路径进行了匹配。本文还使用注意力机制加强了问题句和关系路径文字序列中关...
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:81 页
【学位级别】:硕士
【部分图文】:
RNN神经网络结构
图 2-1 RNN 神经网络结构 RNN 网络时,通常使用的是反向传播算法。在计算当在前面时刻梯度上累乘。如果在前面的迭代中梯度较会越来越接近 0;反之,如果前面的梯度较大,累乘种问题被称作“梯度消失”和“梯度爆炸”,导致的结果失去效果。为了解决这种问题,Hochreiter 等人提出了Long Short Term Memory Network)[51]。 对循环神经网络中的结构做了改进,通过增加输入门法构建了 LSTM 细胞单元[51],并以此对每次迭代的输部结构如图 2-2 所示。ct-1、ht-1分别是前一时刻的 C 和 tanh 就是分别表示在门中应用到的激活函数。 是ll 状态。遗忘门 ft的作用是选择性遗忘信息;输入门 it门 ot用于选择进入隐层的信息。
同的隐层单元数目,来检验对模型效果的影响。如果是单向 LSTM 实需将隐层单元的输出直接送入下一层即可。) Softmax。先通过线性变换,使用参数矩阵把它转化为和词表大小度的向量。然后再通过 Softmax 将其归一化,凸显权值较高的词向型的输出向量。) 交叉熵损失。我们把输入的词向量向右平移一位(即下一个单词)作为网络的预测值,构建 bigram 的语言模型。其中 pad 指的是补向量。将前一层的输出与平移后的预测词向量之间的交叉熵作为损并以此来训练模型。训练时,我们设置网络最大时序长度为固定长度 20。然而实际输入往不等于设置的长度,所以预测时仅取输入实际长度的网络单元的进行计算。如果输入序列越符合模型,则计算的值越小。所以本文算得到的值取负对数,则最终得分越高,越符合语言模型。比较所的候选序列的得分,得分最高者对应的候选实体词为模型预测的主。
本文编号:3113387
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:81 页
【学位级别】:硕士
【部分图文】:
RNN神经网络结构
图 2-1 RNN 神经网络结构 RNN 网络时,通常使用的是反向传播算法。在计算当在前面时刻梯度上累乘。如果在前面的迭代中梯度较会越来越接近 0;反之,如果前面的梯度较大,累乘种问题被称作“梯度消失”和“梯度爆炸”,导致的结果失去效果。为了解决这种问题,Hochreiter 等人提出了Long Short Term Memory Network)[51]。 对循环神经网络中的结构做了改进,通过增加输入门法构建了 LSTM 细胞单元[51],并以此对每次迭代的输部结构如图 2-2 所示。ct-1、ht-1分别是前一时刻的 C 和 tanh 就是分别表示在门中应用到的激活函数。 是ll 状态。遗忘门 ft的作用是选择性遗忘信息;输入门 it门 ot用于选择进入隐层的信息。
同的隐层单元数目,来检验对模型效果的影响。如果是单向 LSTM 实需将隐层单元的输出直接送入下一层即可。) Softmax。先通过线性变换,使用参数矩阵把它转化为和词表大小度的向量。然后再通过 Softmax 将其归一化,凸显权值较高的词向型的输出向量。) 交叉熵损失。我们把输入的词向量向右平移一位(即下一个单词)作为网络的预测值,构建 bigram 的语言模型。其中 pad 指的是补向量。将前一层的输出与平移后的预测词向量之间的交叉熵作为损并以此来训练模型。训练时,我们设置网络最大时序长度为固定长度 20。然而实际输入往不等于设置的长度,所以预测时仅取输入实际长度的网络单元的进行计算。如果输入序列越符合模型,则计算的值越小。所以本文算得到的值取负对数,则最终得分越高,越符合语言模型。比较所的候选序列的得分,得分最高者对应的候选实体词为模型预测的主。
本文编号:3113387
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3113387.html