当前位置:主页 > 科技论文 > 自动化论文 >

基于记忆建模的深度学习模型及其在问答系统中的应用

发布时间:2020-10-17 11:06
   随着深度学习的发展,越来越多的基于深度学习的问答系统被提出。这些系统能够接受用户以自然语言提出的问题,并能从大量异构数据中查询或者推理得到用户所需答案,但是大部分模型都无法解释其推理能力。受人类记忆方式的启发,近年来研究者提出了许多基于记忆建模的深度学习模型。这些基于记忆建模的深度学习模型具有较强的推理能力,并可以从模型结构上解释其推理能力。本文对现有的记忆网络模型进行了研究,分析其存在的问题和不足,提出了相应的改进方法,并将改进的记忆网络模型应用在问答系统中。本文的研究主要包括以下两个方面:(1)提出了稠密连接记忆神经网络。通过对传统端到端记忆神经网络和关系推理模型进行深入研究。本文认为传统端到端记忆神经网络无法在关系推理任务取得较好效果的原因是其多跳机制造成信息损失,缺少获取关系特征的结构。为此本文提出了稠密连接记忆神经网络,希望在传统端到端记忆神经网络模型的多跳机制中加入稠密连接,门控机制和多层感知机。通过使用稠密连接,可以更全面的考虑已有的事实,结合门控机制过滤信息,并使用多层感知机就可以获取已有事实的关系特征,从而提升了模型的关系特征表示能力,最终提升了模型的关系推理能力。本文在问答数据集上测试了已有的记忆神经网络模型,实验结果表明,稠密连接记忆神经网络有较强的关系推理能力。(2)提出了稠密多头注意力记忆神经网络。为了让模型能完成多个文本推理任务,对工作记忆网络进行了深入的研究。由于推理模块破坏了递进式推理的推理链,工作记忆网络无法很好的解决递进式推理任务。为此本文使用多头注意力机制提升模型的特征表示能力,使用稠密连接和线性变换结构代替工作记忆网络的推理模块。多头注意力机制将词嵌入矩阵的训练与注意力的获取分离,模型可以获取更复杂的注意模式,提升模型同时完成多个文本推理任务的能力。稠密连接能够更好的考虑各层输出的信息,通过不同的输入保留了推理过程的推理序列信息。线性变换则能用最简单的结构去获取关系特征。面对问答数据集上的问题,稠密多头注意力记忆神经网络具有更好的稳定性,更快的收敛速度以及更快的训练速度。本文还将稠密多头注意力记忆神经网络与工作记忆网络在递进式推理的任务上进行了对比,实验结果也表明,稠密多头注意力记忆神经网络模型在递进式推理上更具优势。此外,本文将提出的模型应用到视觉问答,实验结果表明稠密多头注意力网络结合关系推理模块的模型取得了更好的效果。
【学位单位】:南宁师范大学
【学位级别】:硕士
【学位年份】:2019
【中图分类】:TP18;TP391.1
【部分图文】:

注意力机制,例子,缺陷,对象


基于记忆建模的深度学习模型及其在问答系统中的应用在各类实践中,注意力机制有着非常广泛的作用。注意力机制最成功的就是神经机器翻译[31](Neural Machine Translation, NMT)。NMT 是一个典型的码器-解码器”结构,其首先保留源语言中每个位置的信息,在解码过程中每一个目标语言词,都需要通过注意力机制从源语言保留的信息中选择需要的以此得到了更好的效果。在图像描述任务中,Xu[32]等人提出的基于注意力型不仅在图像描述上取得了非常优秀的结果,还通过可视化的方式为使用注机制的可解释性做了进一步论证。其结果表明,当图像描述的匹配程度较高注意力往往都会集中在描述正确的物体上,如图 2-2 所示。在自然语言问答有许多用到注意力机制的神经网络模型,例如各类记忆神经网络的变种,基识库问答的深度学习模型[33],还有 R-Net,QANet 这类基于文本阅读的深度问答模型。

单层结构,多层结构


南宁师范大学硕士学位论文 k+1 跳的输入 uk+1,即第 k 跳的输出为:k 1k ku u o+= + (2-12过式(2-12),MemN2N 实现了自然语言理解的多级计算,将上下文关联的信计算中联系了起来。多层的 MemN2N 通过将上一跳的输入与输出之和作为跳的输入,下一跳再通过求相似度的方式找到与上一跳有关的记忆。这个过质上就是一个联想回忆的过程。本文提出的模型都是基于 MemN2N 架构构端到端模型。

工作记忆,网络架构


基于记忆建模的深度学习模型及其在问答系统中的应用合训练下的 bAbI 数据集。但 WMemNN 的结构由于使用 RN 作为关系推理结构,导致其网络结构过杂。而 WMemNN 推理模块通过两两配对获取关系特征的方式,也破坏了递推理的信息,导致其在递进式推理上的表现不理想。
【参考文献】

相关期刊论文 前1条

1 吴友政,赵军,段湘煜,徐波;问答式检索技术及评测研究综述[J];中文信息学报;2005年03期



本文编号:2844694

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2844694.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户d6174***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com