任务型对话系统的自然语言生成研究
发布时间:2023-05-21 19:25
随着人工智能技术的快速发展以及信息数据的不断增长,以数据驱动为核心的深度学习技术在不断更新发展,与人们生活息息相关的交互方式在不断的变化。为人们提供便捷、快速的服务成为了时代的趋势,对话系统应运而生。越来越多的智能产品通过对话的交互方式在改变人们的生活,比如通过语音预订机票、预订餐厅、规划行车路线、智能客服等。通过和系统进行交流获取到自己想要的服务。在这些便捷的产品背后需要一个包含自然语言生成的对话系统支撑。在这些针对特定领域设定出来的对话系统中,自然语言生成模块需要将特定的语义信息转换成用户习惯的自然语言形式的句子。传统的基于规则模板的生成方式由于迁移性差、回复单一死板正在慢慢被取代,而基于神经网络的生成方式由于其灵活性和通用性好受到了越来越多的重视。针对任务型对话系统中系统询问的问题单一死板的问题,我们探索一种基于模板的序列到序列(Seq2Seq)生成模型来生成多样的问题。针对目前一些基于神经网络的生成模型语义对齐能力差、多轮对话过程中语义表达不准确的问题,本论文提出一种基于LSTM和Seq2Seq的多层次注意力机制自然语言生成模型,设计一个上下文编码器对上下文信息进行编码建模,提...
【文章页数】:60 页
【学位级别】:硕士
【文章目录】:
摘要
Abstract
第一章 绪论
1.1 研究背景及意义
1.2 研究现状
1.2.1 对话系统研究现状
1.2.2 面向任务的自然语言生成研究现状
1.3 本文的主要研究内容
1.4 论文的组织结构
第二章 相关理论和技术
2.1 引言
2.2 循环神经网络
2.3 长短期记忆网络(LSTM)
2.4 基于编码-解码的序列到序列架构
2.5 注意力机制
2.6 本章小结
第三章 基于模板的Seq2Seq问题生成
3.1 问题生成任务描述
3.2 基于模板的问题生成
3.2.1 问题模板收集
3.2.2 选择生成
3.3 基于模板的Seq2Seq问题生成方法
3.3.1 DA编码器
3.3.2 基于模板的解码器
3.4 实验结果及分析
3.5 本章小结
第四章 基于LSTM和 Seq2Seq的多层次注意力机制自然语言生成模型
4.1 自然语言生成任务描述
4.2 基于LSTM的 Seq2Seq生成模型
4.3 使用上下文信息和层级注意力机制的生成模型
4.3.1 模型结构
4.3.2 编码过程(encoder)
4.3.3 层次的注意力机制
4.3.4 解码过程(decoder)
4.4 实验及结果分析
4.4.1 实验数据
4.4.2 实验方案和参数设计
4.4.3 评价标准
4.4.4 实验结果及分析
4.5 本章小结
第五章 总结与展望
5.1 本文的工作总结
5.2 未来研究工作展望
参考文献
攻读硕士学位期间取得的研究成果
致谢
附件
本文编号:3821306
【文章页数】:60 页
【学位级别】:硕士
【文章目录】:
摘要
Abstract
第一章 绪论
1.1 研究背景及意义
1.2 研究现状
1.2.1 对话系统研究现状
1.2.2 面向任务的自然语言生成研究现状
1.3 本文的主要研究内容
1.4 论文的组织结构
第二章 相关理论和技术
2.1 引言
2.2 循环神经网络
2.3 长短期记忆网络(LSTM)
2.4 基于编码-解码的序列到序列架构
2.5 注意力机制
2.6 本章小结
第三章 基于模板的Seq2Seq问题生成
3.1 问题生成任务描述
3.2 基于模板的问题生成
3.2.1 问题模板收集
3.2.2 选择生成
3.3 基于模板的Seq2Seq问题生成方法
3.3.1 DA编码器
3.3.2 基于模板的解码器
3.4 实验结果及分析
3.5 本章小结
第四章 基于LSTM和 Seq2Seq的多层次注意力机制自然语言生成模型
4.1 自然语言生成任务描述
4.2 基于LSTM的 Seq2Seq生成模型
4.3 使用上下文信息和层级注意力机制的生成模型
4.3.1 模型结构
4.3.2 编码过程(encoder)
4.3.3 层次的注意力机制
4.3.4 解码过程(decoder)
4.4 实验及结果分析
4.4.1 实验数据
4.4.2 实验方案和参数设计
4.4.3 评价标准
4.4.4 实验结果及分析
4.5 本章小结
第五章 总结与展望
5.1 本文的工作总结
5.2 未来研究工作展望
参考文献
攻读硕士学位期间取得的研究成果
致谢
附件
本文编号:3821306
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3821306.html
最近更新
教材专著