威胁情报知识图谱构建技术的研究与实现
发布时间:2021-11-13 06:37
近年来,随着互联网快速发展,网络威胁日益增多,传统的网络防御体系已经无法对威胁做出有效的判断。因此,威胁情报技术孕育而生,该技术正处于一个飞速发展的阶段。目前为止碎片化的情报无法准确溯源出攻击组织以便及时采取有效的防御手段,本课题提出了一种威胁情报的知识图谱构建技术,可以很好的解决情报关联性差的问题,利用知识图谱可视化技术,直观地展现威胁情报的要素和关系。论文剖析了目前国内外对威胁情报知识图谱技术的相关现状,调研了本体工程、深度学习理论、实体消歧和知识推理等相关技术。通过研究和分析,将这些技术应用到整个威胁情报知识图谱构建的过程中。首先,本文提出一套威胁情报本体模型。按照构建标准,利用深度学习框架,完成实体和实体关系自动化提取。接着对抽取的实体进行实体消歧。构建好的威胁情报知识库,采用知识推理技术获取潜在的关系。将完整的威胁情报知识库的数据利用知识图谱可视化技术展示。其次,针对海量威胁情报数据查询速度慢的情况,本文采用了全文检索技术对知识库进行搜索。最后基于论文的研究,构建了一套原型系统,描述了系统框架和系统部署环境,并对最终知识图谱进行清晰的展示。通过该论文的研究,设计并实现了威胁情...
【文章来源】:中国电子科技集团公司电子科学研究院北京市
【文章页数】:54 页
【学位级别】:硕士
【部分图文】:
图2.1攻击模式关系图??指标信息的可信自动化交换Trusted?Automated?exchange?of?Indicator??
RNN中神经元的下一个时间戳将直接作用到自身。第n层神经元的m时刻的输??入,不仅包括(n-1)层在m时刻的输入,还包括自身在(m-1)时刻的输出,其??结构图如图2.2所示??6??A?4?4?A??s〇C)??Unfold^?f?W?f?W?f?W??U?U?U?U??X?X^l?Xt?XM??图2.?2?RM网络结构图??如图2.3所示,展示了一个典型按时间展开的RNN结构。其中x是输入??层,s是隐藏层,〇是输出层,U为上一层输入的偏置矩阵,W为该隐藏层h??一次的值指作为这一次的偏置矩阵。每个圆圈为一个神经单元,每个神经单元??做相同的事情。右半图为左半图的展开,简单解释RNN,其实是一个单元结构??重复使用正因为RNN是一个序列到序列的深度学习模型,我们作出如下定??义:Xt表示t时刻的输入,St表示为t时刻的记忆。〇t表示为t时刻的输出。上文??提到当前时刻的输出等于此前记忆和当前时刻输入共同作用,因此St的值如下??所示:??st=f?CU?*?X?t+W?*S?t_2)??output?Layer?
RNN中神经元的下一个时间戳将直接作用到自身。第n层神经元的m时刻的输??入,不仅包括(n-1)层在m时刻的输入,还包括自身在(m-1)时刻的输出,其??结构图如图2.2所示??6??A?4?4?A??s〇C)??Unfold^?f?W?f?W?f?W??U?U?U?U??X?X^l?Xt?XM??图2.?2?RM网络结构图??如图2.3所示,展示了一个典型按时间展开的RNN结构。其中x是输入??层,s是隐藏层,〇是输出层,U为上一层输入的偏置矩阵,W为该隐藏层h??一次的值指作为这一次的偏置矩阵。每个圆圈为一个神经单元,每个神经单元??做相同的事情。右半图为左半图的展开,简单解释RNN,其实是一个单元结构??重复使用正因为RNN是一个序列到序列的深度学习模型,我们作出如下定??义:Xt表示t时刻的输入,St表示为t时刻的记忆。〇t表示为t时刻的输出。上文??提到当前时刻的输出等于此前记忆和当前时刻输入共同作用,因此St的值如下??所示:??st=f?CU?*?X?t+W?*S?t_2)??output?Layer?
本文编号:3492523
【文章来源】:中国电子科技集团公司电子科学研究院北京市
【文章页数】:54 页
【学位级别】:硕士
【部分图文】:
图2.1攻击模式关系图??指标信息的可信自动化交换Trusted?Automated?exchange?of?Indicator??
RNN中神经元的下一个时间戳将直接作用到自身。第n层神经元的m时刻的输??入,不仅包括(n-1)层在m时刻的输入,还包括自身在(m-1)时刻的输出,其??结构图如图2.2所示??6??A?4?4?A??s〇C)??Unfold^?f?W?f?W?f?W??U?U?U?U??X?X^l?Xt?XM??图2.?2?RM网络结构图??如图2.3所示,展示了一个典型按时间展开的RNN结构。其中x是输入??层,s是隐藏层,〇是输出层,U为上一层输入的偏置矩阵,W为该隐藏层h??一次的值指作为这一次的偏置矩阵。每个圆圈为一个神经单元,每个神经单元??做相同的事情。右半图为左半图的展开,简单解释RNN,其实是一个单元结构??重复使用正因为RNN是一个序列到序列的深度学习模型,我们作出如下定??义:Xt表示t时刻的输入,St表示为t时刻的记忆。〇t表示为t时刻的输出。上文??提到当前时刻的输出等于此前记忆和当前时刻输入共同作用,因此St的值如下??所示:??st=f?CU?*?X?t+W?*S?t_2)??output?Layer?
RNN中神经元的下一个时间戳将直接作用到自身。第n层神经元的m时刻的输??入,不仅包括(n-1)层在m时刻的输入,还包括自身在(m-1)时刻的输出,其??结构图如图2.2所示??6??A?4?4?A??s〇C)??Unfold^?f?W?f?W?f?W??U?U?U?U??X?X^l?Xt?XM??图2.?2?RM网络结构图??如图2.3所示,展示了一个典型按时间展开的RNN结构。其中x是输入??层,s是隐藏层,〇是输出层,U为上一层输入的偏置矩阵,W为该隐藏层h??一次的值指作为这一次的偏置矩阵。每个圆圈为一个神经单元,每个神经单元??做相同的事情。右半图为左半图的展开,简单解释RNN,其实是一个单元结构??重复使用正因为RNN是一个序列到序列的深度学习模型,我们作出如下定??义:Xt表示t时刻的输入,St表示为t时刻的记忆。〇t表示为t时刻的输出。上文??提到当前时刻的输出等于此前记忆和当前时刻输入共同作用,因此St的值如下??所示:??st=f?CU?*?X?t+W?*S?t_2)??output?Layer?
本文编号:3492523
本文链接:https://www.wllwen.com/shekelunwen/guojiguanxi/3492523.html