面向交通信息服务的对话生成方法研究
发布时间:2021-08-22 00:53
城市交通发展带来了大量的交通路况查询、报警处理等信息服务需求,传统的人工服务已不能满足实际的应用需求,人机对话技术逐步应用于交通信息服务领域。在人机信息交互过程中意图识别和对话文本生成是人机对话系统的核心,但人机对话技术在交通信息服务领域的应用还存在以下问题:一是用户的对话内容口语性强,不能有效提取用户的对话意图;二是当用户对话内容无明显对话意图时,往往出现答非所问的情况。针对上述问题,本文将基于深度学习的文本分类技术和文本生成技术应用于人机对话系统,通过文本分类识别用户的对话意图,根据对话意图类别调整对话策略,并针对用户对话意图不明确的对话内容,采用基于深度学习的文本生成技术进行应答,提高了面向交通信息服务人机对话系统的用户体验和智能性,具有重要的研究意义。具体研究内容如下:(1)针对交通信息服务领域用户对话文本较短、口语性强的特点,采用融合卷积神经网络和长短记忆模型的方法,构建了基于双向长短记忆模型与卷积神经网络的用户意图识别模型。实验表明,该模型可以有效抽取用户对话文本的文本特征,提高用户意图识别的准确率。(2)针对交通信息服务领域某些应用场景语料相对较少且获取困难,无法满足深度...
【文章来源】:北方工业大学北京市
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
图2-1卷积神经网络的意图识别模型示意图??2.2基于长短记忆模型的的文本特征抽取与意图识别??
?最大池化层?_出层??图2-1卷积神经网络的意图识别模型示意图??2.2基于长短记忆模型的的文本特征抽取与意图识别??虽然卷积神经网络(CNN)能够抽取文本的空间特征且在用户意图识别方面??上取得了不错的效果,却无法有效的抽取对话文本的序列信息。面对上述问题,??研宄者逐步将长短记忆模型(LSTM)应用于用户对话意图识别。长短记忆模型??(LSTM)是一种特殊形式的循环神经网络(RNN),该模型的提出主要是为了解??决传统循环神经网络(RNN)存在梯度爆炸和梯度消失的问题。由于LSTM在??文本序列信息抽取和解决长期依赖问题的优异表现,在自然语言处理领域得到了??广泛应用。虽然LSTM模型的变体很多,本章LSTM模型主要采用基于Graves??的提出的LSTM的变体,结构如下图2-2所示。??LSTM模型由一系列重复的记忆单元组成,每个时间步t上的记忆单元由输??9??
本的序列信息。同时通过采用双向长短记忆模型,每个时间步的输出都可以包含??完整的上下文信息,相比于单向的长短记忆模型可以更好的对文本进行表示。其??模型结构如下图2-3所示。??该模型由文本输入层,长短记忆层,卷积层,池化层以及Softmax层组成。??长短记忆层接收对话文本的词向量,并生成新的编码,随后将长短记忆层的输出??输入到卷积层,通过卷积层提取文本的局部特征。卷积层的输出汇集成一个低维??的向量,最终通过Softmax层输出对话文本的意图类别。??意图类别??输出层?|??Softmax??--P?—??Max?pooling??卷积网络层?丨-鬥一鬥鬥鬥’?^门鬥^丨??8888888888??1〇1?1〇1?1〇1?1〇1?|〇|?1〇1?1〇1?1〇1?1〇1?1〇|??LSTM?|?LSTM???)?LSTM??-*\?I5TM??长短记忆层????????LSTM?卜——LSTM?,??LSTM????LSTM??'?I??句向量I??输入层?词向量?|词向量|?|词向量|???|词量|??分词后句卞??图2
本文编号:3356671
【文章来源】:北方工业大学北京市
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
图2-1卷积神经网络的意图识别模型示意图??2.2基于长短记忆模型的的文本特征抽取与意图识别??
?最大池化层?_出层??图2-1卷积神经网络的意图识别模型示意图??2.2基于长短记忆模型的的文本特征抽取与意图识别??虽然卷积神经网络(CNN)能够抽取文本的空间特征且在用户意图识别方面??上取得了不错的效果,却无法有效的抽取对话文本的序列信息。面对上述问题,??研宄者逐步将长短记忆模型(LSTM)应用于用户对话意图识别。长短记忆模型??(LSTM)是一种特殊形式的循环神经网络(RNN),该模型的提出主要是为了解??决传统循环神经网络(RNN)存在梯度爆炸和梯度消失的问题。由于LSTM在??文本序列信息抽取和解决长期依赖问题的优异表现,在自然语言处理领域得到了??广泛应用。虽然LSTM模型的变体很多,本章LSTM模型主要采用基于Graves??的提出的LSTM的变体,结构如下图2-2所示。??LSTM模型由一系列重复的记忆单元组成,每个时间步t上的记忆单元由输??9??
本的序列信息。同时通过采用双向长短记忆模型,每个时间步的输出都可以包含??完整的上下文信息,相比于单向的长短记忆模型可以更好的对文本进行表示。其??模型结构如下图2-3所示。??该模型由文本输入层,长短记忆层,卷积层,池化层以及Softmax层组成。??长短记忆层接收对话文本的词向量,并生成新的编码,随后将长短记忆层的输出??输入到卷积层,通过卷积层提取文本的局部特征。卷积层的输出汇集成一个低维??的向量,最终通过Softmax层输出对话文本的意图类别。??意图类别??输出层?|??Softmax??--P?—??Max?pooling??卷积网络层?丨-鬥一鬥鬥鬥’?^门鬥^丨??8888888888??1〇1?1〇1?1〇1?1〇1?|〇|?1〇1?1〇1?1〇1?1〇1?1〇|??LSTM?|?LSTM???)?LSTM??-*\?I5TM??长短记忆层????????LSTM?卜——LSTM?,??LSTM????LSTM??'?I??句向量I??输入层?词向量?|词向量|?|词向量|???|词量|??分词后句卞??图2
本文编号:3356671
本文链接:https://www.wllwen.com/kejilunwen/daoluqiaoliang/3356671.html