当前位置:主页 > 科技论文 > 软件论文 >

基于神经网络联合学习的文本摘要模型

发布时间:2021-01-28 12:07
  随着互联网的发展,人们接触的信息开始爆炸式增长,如何高效的获取知识变得尤为重要。为了更好的处理在不同领域的信息膨胀问题,研究者们提出了文本摘要的自动生成。文本自动摘要技术通过对文章的压缩和提炼,为更快更准确的获取知识提供了很大的帮助,从而节省了大量的阅读时间。经过十几年的研究,文本摘要从方法层面上可分为抽取式摘要和生成式摘要两种。近些年,由于深度学习的发展以及基于注意力的端到端模型的提出,使得文本摘要的自动生成达到很好的效果。然而,现有的这些端到端模型其实是一个黑盒,我们只需要输入文本,在生成过程中很难被控制。除此之外,这些模型识别关键信息能力不足,使得生成的摘要缺少关键信息,而关键信息是摘要最不可或缺的部分。针对这一问题,我们提出了一种结合了文本摘要生成式模型和抽取式模型的关键信息指导神经网络,并提出了联合学习进一步改进模型。主要工作和贡献如下:1.提出了一种新的关键信息指导网络(KIGN),该网络将抽取式摘要和生成式摘要成功融合在一起。首先,我们通过一个抽取式模型从输入文本中获取关键词。然后,我们介绍关键信息指导网络(KIGN),这个网络对关键词进行编码并指导生成过程。由于上述的模... 

【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校

【文章页数】:63 页

【学位级别】:硕士

【部分图文】:

基于神经网络联合学习的文本摘要模型


图2-1循环神经网络结构图??图2-1是循环神经网络结构图,图的左右两边分别是简单的循环神经网络结??

网络结构图,网络结构,循环神经网络,隐层


到当前的隐层状态输出。??2.1.3双向LSTM模型??在上文中,描述了循环神经网络从RNN发展到LSTM,图2-1中描述的是??单向的循环神经网络。从图中可以看出每个编码后输出的隐层状态〇t由上文传来??的状态向量和当前时刻输入计算得出,也就是说输出的隐层状态只包含了上文的??信息,没有包含下文的信息会导致当前时刻编码输出不准确。在本文中所用??LSTM模型对输入文本进行编码,由于同时需要上下文的信息,所以采用前向和??10??

正向,网络结构,状态向量,隐藏层


(x〇)?(Xi)?(Xz)?...?(x?)??图2-3双向LSTM网络结构??如图2-3所示,下面是网络的输入,然后输入分别到正向和反向两个LSTM??网络中。首先看正向网络,其中s是初始的状态向量,然后状态向量随着输入顺??序的往右移动,在每个输入时刻更新,同时和输入一起获取正向的隐层状态输出??至IJ;同理反向网络也有个初始的状态向量,然后输入是倒序输入的,先从文本的??最后一个词开始,然后往左移动状态向量,并输出每个时刻的隐层状态。双向??LSTM的输出来自于正向网络和反向网络的拼接,即双向LSTM在中间隐藏层??保留了两个值,而且可以看出正向LSTM网络和反向的是相互独立的,包括输入??和信息传导过程,只在隐藏层的时候保留两个。除此之外,可以看出模型中间的??每一个是一个LSTM的单元


本文编号:3004968

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3004968.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户cb931***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com