基于本体的行业知识图谱构建技术的研究与实现
发布时间:2020-12-07 11:27
正是因为有获取和形成知识的能力,人类才可以不断进步。而知识对于人工智能的重要价值就是在于让机器具备认知能力,去理解这个世界,理解应用的行业或者领域。知识图谱的结构类似于人类大脑组织知识的结构,有助于机器模拟以人的思维模式和知识结构来进行语言理解、视觉场景解析和决策分析。因此,知识图谱作为人工智能的支撑基础,是实现真正的类人智能的必经之路。近年来,不少企业愈加重视行业+知识图谱。行业知识图谱在金融、农业、医疗、电商等领域已经有了很好的应用。对于企业来说,行业知识图谱可以帮助行业人员解答关于行业的任务型需求,辅助各种复杂的分析应用或决策支持,构建行业壁垒。一个行之有效的行业知识图谱构建系统可以保证知识库的质量与规模、可扩张性和推理能力。但是不同行业数据模式不同,业务需求差异化使得目前没有统一的行业知识图谱构建系统。本文针对特定的行业数据,但是旨在搭建一个通用型的行业知识图谱构建系统。首先,本文研究了知识图谱的相关技术,包括知识图谱架构、知识表示、知识抽取、知识存储和基于知识图谱的问答系统五部分。针对每一部分,详细介绍了其定义、关键技术与难点。为本课题算法设计和实现部分打下理论基础。其次,本...
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
图2-1三元组表示??主语->谓语->宾语的格式能够使主语通过谓语和任何宾语联系起来,其中的??
??鉍??图2-2?TransE示意图??受到该现象的启发,Bordes等人[7]提出了?TmnsE模型。如图2-2所示,对??于三元组(h,r,t),?TransE将实体&和尾实体^之间的平移向量作为关系r的向量??Zr,即:??lh?+?lr?^?lt?(2-4)??TransE希望M?+?^和^越接近越好,因此损失函数如下:??=?\lh?+?lr?—?lt\?(2-5)??7??
人工标注的大量的语料库产生的特征进行训练。Guillaume?Lample等人提出了??LSTM-CRF?(Long?Short-Term?Memory-Conditional?Random?Field)模型来解决??这个问题[1()]。图2-4为模型整体的框架。??图2-4?LSTM-CRF模型结构图[1W??该模型为端到端的判别式模型,输入为单词,输出为识别出的实体标签。图??2-4中的字嵌入层(word?embedding),是按照语句顺序,依次输入每个单词的??向量表示。双向的LSTM,正向读入(图中的菱形I),获得每个单词及其左面的??上下文信息,反向读入(图中的菱形r),获得单词及其右面上下文信息,两个??模型参数不同。之后,将正向和反向的信息组合起来构成某个单词上下文单词(图??中的菱形c),此时的输出为...,xn),其中&表示语句中第i个单??词所包含的上下文信息的向量表示。最顶层的CRF,输入为X,输出为Y?=??(yi
【参考文献】:
期刊论文
[1]知识图谱技术综述[J]. 徐增林,盛泳潘,贺丽荣,王雅芳. 电子科技大学学报. 2016(04)
[2]垂直知识图谱的构建与应用研究[J]. 阮彤,王梦婕,王昊奋,胡芳槐. 知识管理论坛. 2016(03)
[3]知识图谱构建技术综述[J]. 刘峤,李杨,段宏,刘瑶,秦志光. 计算机研究与发展. 2016(03)
[4]知识表示学习研究进展[J]. 刘知远,孙茂松,林衍凯,谢若冰. 计算机研究与发展. 2016(02)
[5]知识表示方法比较[J]. 刘建炜,燕路峰. 计算机系统应用. 2011(03)
本文编号:2903162
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:65 页
【学位级别】:硕士
【部分图文】:
图2-1三元组表示??主语->谓语->宾语的格式能够使主语通过谓语和任何宾语联系起来,其中的??
??鉍??图2-2?TransE示意图??受到该现象的启发,Bordes等人[7]提出了?TmnsE模型。如图2-2所示,对??于三元组(h,r,t),?TransE将实体&和尾实体^之间的平移向量作为关系r的向量??Zr,即:??lh?+?lr?^?lt?(2-4)??TransE希望M?+?^和^越接近越好,因此损失函数如下:??=?\lh?+?lr?—?lt\?(2-5)??7??
人工标注的大量的语料库产生的特征进行训练。Guillaume?Lample等人提出了??LSTM-CRF?(Long?Short-Term?Memory-Conditional?Random?Field)模型来解决??这个问题[1()]。图2-4为模型整体的框架。??图2-4?LSTM-CRF模型结构图[1W??该模型为端到端的判别式模型,输入为单词,输出为识别出的实体标签。图??2-4中的字嵌入层(word?embedding),是按照语句顺序,依次输入每个单词的??向量表示。双向的LSTM,正向读入(图中的菱形I),获得每个单词及其左面的??上下文信息,反向读入(图中的菱形r),获得单词及其右面上下文信息,两个??模型参数不同。之后,将正向和反向的信息组合起来构成某个单词上下文单词(图??中的菱形c),此时的输出为...,xn),其中&表示语句中第i个单??词所包含的上下文信息的向量表示。最顶层的CRF,输入为X,输出为Y?=??(yi
【参考文献】:
期刊论文
[1]知识图谱技术综述[J]. 徐增林,盛泳潘,贺丽荣,王雅芳. 电子科技大学学报. 2016(04)
[2]垂直知识图谱的构建与应用研究[J]. 阮彤,王梦婕,王昊奋,胡芳槐. 知识管理论坛. 2016(03)
[3]知识图谱构建技术综述[J]. 刘峤,李杨,段宏,刘瑶,秦志光. 计算机研究与发展. 2016(03)
[4]知识表示学习研究进展[J]. 刘知远,孙茂松,林衍凯,谢若冰. 计算机研究与发展. 2016(02)
[5]知识表示方法比较[J]. 刘建炜,燕路峰. 计算机系统应用. 2011(03)
本文编号:2903162
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2903162.html