基于序列到序列模型的答案生成方法研究
发布时间:2023-06-23 19:30
问答系统是目前人工智能和自然语言处理领域中一个备受关注并具有广泛发展前景的研究方向,同时也是最困难的研究方向之一,其涉及了自然语言处理,知识推理等诸多知识。随着深度学习技术的兴起,问答系统成为了科技媒体和研究者社区讨论的焦点,并且越来越多的研究者都热衷于将循环神经网络应用于问答系统中用以实现答案的生成。答案生成的研究对象是文本。文本的长度不一,并且文本中各元素之间具有顺序关系,由此可见文本数据属于变长序列数据,所以答案生成问题可以看成序列到序列问题。序列到序列问题的特性就是输入和输出是不定长的,而且输入和输出元素之间是具有顺序关系的。因此,针对此类问题,本文选择了序列到序列模型。序列到序列模型的优点就是对于不同长度的输入序列可以得到不同长度的输出序列,符合文本的变长特性,并且考虑了文本元素之间的顺序关系。本文研究中文限定域的答案生成问题,问答系统的实现分为检索式和生成式。因此,本文基于这两种方式对答案进行生成。其中,检索式是基于检索融合的答案生成方法,首先基于关键字,使用向量空间模型实现文本的匹配,然后根据匹配结果返回答案候选列表,最后基于同义词词林,实现文本的语义相似度,并对候选列表...
【文章页数】:57 页
【学位级别】:硕士
【文章目录】:
摘要
Abstract
第1章 绪论
1.1 研究背景及意义
1.2 国内外研究现状
1.3 本文的主要工作
1.4 论文结构
第2章 基于检索融合的答案生成方法
2.1 候选答案的选取
2.1.1 关键字的提取
2.1.2 候选答案选取
2.2 候选答案的融合生成方法
2.2.1 同义词词林
2.2.2 基于同义词词林的词语相似度
2.2.3 基于词语相似度的句子语义相似度
2.2.4 多句子的融合方法
2.3 本章小结
第3章 基于序列到序列模型的答案生成方法
3.1 序列到序列模型
3.1.1 序列到序列模型核心思想
3.1.2 融入注意力的序列到序列模型
3.2 循环神经网络
3.2.1 标准循环神经网络
3.2.2 长短时记忆神经网络
3.2.3 双向长短时记忆神经网络
3.3 中文词向量
3.4 答案生成方法
3.4.1 基于多层LSTM的生成方法
3.4.2 基于多层LSTM与注意力的生成方法
3.4.3 基于双向LSTM与注意力的生成方法
3.5 本章小结
第4章 基于自注意力的答案生成方法
4.1 自注意力机制
4.2 基于自注意力的生成方法
4.2.1 基于自注意力句子嵌入表示的生成方法
4.2.2 基于自注意力的生成方法
4.3 本章小结
第5章 实验结果与分析
5.1 实验数据描述
5.2 实验结果分析
5.3 本章小结
第6章 总结与展望
6.1 总结
6.2 展望
致谢
参考文献
附录1 攻读学位期间的研究成果
附录2 攻读学位期间参加的科研项目
中文详细摘要
本文编号:3835182
【文章页数】:57 页
【学位级别】:硕士
【文章目录】:
摘要
Abstract
第1章 绪论
1.1 研究背景及意义
1.2 国内外研究现状
1.3 本文的主要工作
1.4 论文结构
第2章 基于检索融合的答案生成方法
2.1 候选答案的选取
2.1.1 关键字的提取
2.1.2 候选答案选取
2.2 候选答案的融合生成方法
2.2.1 同义词词林
2.2.2 基于同义词词林的词语相似度
2.2.3 基于词语相似度的句子语义相似度
2.2.4 多句子的融合方法
2.3 本章小结
第3章 基于序列到序列模型的答案生成方法
3.1 序列到序列模型
3.1.1 序列到序列模型核心思想
3.1.2 融入注意力的序列到序列模型
3.2 循环神经网络
3.2.1 标准循环神经网络
3.2.2 长短时记忆神经网络
3.2.3 双向长短时记忆神经网络
3.3 中文词向量
3.4 答案生成方法
3.4.1 基于多层LSTM的生成方法
3.4.2 基于多层LSTM与注意力的生成方法
3.4.3 基于双向LSTM与注意力的生成方法
3.5 本章小结
第4章 基于自注意力的答案生成方法
4.1 自注意力机制
4.2 基于自注意力的生成方法
4.2.1 基于自注意力句子嵌入表示的生成方法
4.2.2 基于自注意力的生成方法
4.3 本章小结
第5章 实验结果与分析
5.1 实验数据描述
5.2 实验结果分析
5.3 本章小结
第6章 总结与展望
6.1 总结
6.2 展望
致谢
参考文献
附录1 攻读学位期间的研究成果
附录2 攻读学位期间参加的科研项目
中文详细摘要
本文编号:3835182
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3835182.html
最近更新
教材专著