基于自动生成模板的知识库问答方法研究
发布时间:2021-08-04 13:18
知识库问答是自然语言处理领域中的一项重要任务,其目的是对自然语言描述的问题,从知识库中查找或推断出问题答案,关于知识库问答的研究具有重要的价值和意义。使用手工模板实现知识库问答是一种经典的方法,但是面对复杂的自然语言,以及与日俱增的用户问题数量,传统的手工模板暴露出模板构建难度高、构建出的模板数量少的问题。本文提出了一种基于自动生成模板的知识库问答方法。使用现有的训练问题答案对,在关系词典基础上,自动地生成模板,并使用生成出的模板回答测试问题。其次,对于没有模板匹配或者模板返回答案集合为空的测试问题,本文提出了一种计算问题之间相似度,使用相似问题协助进行问答的方法,补充完善模板问答方法。本文的主要研究内容如下:(1)提出了自动的模板生成方法。本文通过远监督的方法构建了关系词典,搭建自然语言与知识库之间的映射。使用训练问题与答案的组合,借助关系词典,抽取问题的词性和依存句法组成的树结构问题模板,从问题查询图中抽取查询图结构组成的图结构查询模板,问题模板和查询模板的组合构成本文模板。(2)使用自动生成的模板回答问题。对于测试问题,将模板库与问题进行匹配,匹配成功的模板会生成候选查询。本文使...
【文章来源】:东南大学江苏省 211工程院校 985工程院校 教育部直属院校
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
sigmoid函数
东南大学硕士学位论文36通道输出一个长度为kernel_num的向量,将这4个向量将输入在下一层中,通过向量操作计算得出问题的语义相似度。4.3.5输出层在上一层通过卷积操作,得到了4个长度为kernel_num的向量1、2、3、4。在本层中,首先将四个向量进行横向拼接,得到维度为一个4*kernel_num的向量,使用这个向量作为问题的低维语义向量v=[1,2,3,4]。两个问题q1和q2的语义相似度,就可以通过如下公式进行计算:sim(1,2)=cos(1,2)(43)选择cos函数作为计算两个向量之间的距离,可以控制结果在(0,1)之间。本文参考经典的HingeLoss,将模型的损失函数设置为:(,+,)=(((+,)(,)))(44)损失函数的目的是最大化正样本和负样本之间的距离,即最大化语义相似问题与语义不相似问题之间的距离。(+,)(,)是正样本与负样本之间的距离,若正负样本距离大于margin,则在激活函数relu的作用下损失为0;若正负样本距离小于margin,正负样本间距离太小,则产生损失,反向传播损失值,迭代更新模型网络参数。图4-4激活函数relu问题“wherearethe<e>headquarterslocated”在这一层就被嵌入式表达成为向量,候选问题“whereisthe<e>headquarters”使用同一个网络,得到候选问题的嵌入表达,计算与之间的余弦值,这个值就是两个问题之间的语义相似度。4.4模型训练在4.3小节中,本文介绍了问题语义相似度计算的模型,在这一节中,本文将介绍模型训练集构造和模型参数的选择。
【参考文献】:
期刊论文
[1]基于注意力机制的句子排序方法[J]. 栾克鑫,杜新凯,孙承杰,刘秉权,王晓龙. 中文信息学报. 2018(01)
[2]基于主题敏感的重启随机游走实体链接方法[J]. 李茂林. 北京大学学报(自然科学版). 2016(01)
[3]面向微博搜索的时间敏感的排序学习方法[J]. 王书鑫,卫冰洁,鲁骁,王斌. 中文信息学报. 2015(04)
[4]改进的基于句模匹配算法的问句理解方法[J]. 马莉,唐素勤,陈立娜,蒋运承. 计算机工程. 2009(20)
[5]问答系统中复杂类问题的分析方法研究[J]. 刘磊,郭丽,白宇,蔡东风. 沈阳航空工业学院学报. 2009(03)
[6]基于本体的受限领域问答系统研究[J]. 刘杰,樊孝忠,王涛. 广西师范大学学报(自然科学版). 2009(01)
本文编号:3321769
【文章来源】:东南大学江苏省 211工程院校 985工程院校 教育部直属院校
【文章页数】:61 页
【学位级别】:硕士
【部分图文】:
sigmoid函数
东南大学硕士学位论文36通道输出一个长度为kernel_num的向量,将这4个向量将输入在下一层中,通过向量操作计算得出问题的语义相似度。4.3.5输出层在上一层通过卷积操作,得到了4个长度为kernel_num的向量1、2、3、4。在本层中,首先将四个向量进行横向拼接,得到维度为一个4*kernel_num的向量,使用这个向量作为问题的低维语义向量v=[1,2,3,4]。两个问题q1和q2的语义相似度,就可以通过如下公式进行计算:sim(1,2)=cos(1,2)(43)选择cos函数作为计算两个向量之间的距离,可以控制结果在(0,1)之间。本文参考经典的HingeLoss,将模型的损失函数设置为:(,+,)=(((+,)(,)))(44)损失函数的目的是最大化正样本和负样本之间的距离,即最大化语义相似问题与语义不相似问题之间的距离。(+,)(,)是正样本与负样本之间的距离,若正负样本距离大于margin,则在激活函数relu的作用下损失为0;若正负样本距离小于margin,正负样本间距离太小,则产生损失,反向传播损失值,迭代更新模型网络参数。图4-4激活函数relu问题“wherearethe<e>headquarterslocated”在这一层就被嵌入式表达成为向量,候选问题“whereisthe<e>headquarters”使用同一个网络,得到候选问题的嵌入表达,计算与之间的余弦值,这个值就是两个问题之间的语义相似度。4.4模型训练在4.3小节中,本文介绍了问题语义相似度计算的模型,在这一节中,本文将介绍模型训练集构造和模型参数的选择。
【参考文献】:
期刊论文
[1]基于注意力机制的句子排序方法[J]. 栾克鑫,杜新凯,孙承杰,刘秉权,王晓龙. 中文信息学报. 2018(01)
[2]基于主题敏感的重启随机游走实体链接方法[J]. 李茂林. 北京大学学报(自然科学版). 2016(01)
[3]面向微博搜索的时间敏感的排序学习方法[J]. 王书鑫,卫冰洁,鲁骁,王斌. 中文信息学报. 2015(04)
[4]改进的基于句模匹配算法的问句理解方法[J]. 马莉,唐素勤,陈立娜,蒋运承. 计算机工程. 2009(20)
[5]问答系统中复杂类问题的分析方法研究[J]. 刘磊,郭丽,白宇,蔡东风. 沈阳航空工业学院学报. 2009(03)
[6]基于本体的受限领域问答系统研究[J]. 刘杰,樊孝忠,王涛. 广西师范大学学报(自然科学版). 2009(01)
本文编号:3321769
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3321769.html