背景信息辅助SEQ2SEQ导医台自动问答系统
发布时间:2024-02-22 01:44
随着现代医疗体系的日益成熟,越来越多的新兴技术应用于医疗系统中。其中,自动问答技术就给医患沟通带来很大帮助。基于深度学习的生成式问答系统一般使用序列到序列(Sequence to Sequence,Seq2Seq)框架搭建问答模型,但是该模型无法充分利用相关情景下的文本信息,生成的一些回答较为简单。为使模型生成的回复更加丰富,本文采用一种将医疗背景信息与Seq2Seq问答模型相结合的新型导医台问答模型。论文首先研究了中文语料预处理技术以及中文词向量表达形式与训练方法,采用了word2vec训练工具训练分布式词向量,相比稀疏词向量表示方法降低了词向量维度,减少了网络的计算量。其次,对结合Attention机制的Seq2Seq问答模型进行研究,模型中分别使用多种循环神经网络作为编码器与解码器,对比多组实验,选择模型训练效果最好的网络作为问答模型的编解码器。然后,为了提高问答模型生成回复的准确率与多样性,在Seq2Seq问答模型的基础上增加了医学背景信息模型。将Seq2Seq问答模型作为预训练模型,增加背景信息后进行再训练,使得模型不仅与问答语句有关也充分学习了背景信息的特征,生成的回复更加...
【文章页数】:75 页
【学位级别】:硕士
【部分图文】:
本文编号:3906209
【文章页数】:75 页
【学位级别】:硕士
【部分图文】:
图3.3LSTM结构示意图
3基于RNN和SEQ2SEQ自动问答模型27图3.3LSTM结构示意图在图3.3中tc为细胞状态,内部存放t时刻的网络记忆信息,tx为t时刻输入信息,th表示t时刻输出传入下一时刻的信息。LSTM结构的核心思想是引入细胞状态连接,该细胞状态用于存储需要的记忆信息,同时其内部的门控....
图3.8基于Attention的Seq2Seq模型详细解图
西安科技大学硕士学位论文32图3.8基于Attention的Seq2Seq模型详细解图图3.8中Encoder的输入为每一个词语的词嵌入(wordembedding)向量和上一个时间点LSTM的隐藏状态t1h,输出的是这个时间点的隐藏状th。Decoder接收的是目标序列词语的词....
图3.9词向量生成图
西安科技大学硕士学位论文34图3.9词向量生成图图3.9词向量生成图中,共加载了约6000词语,把每个词语训练成了100维的向量,图中只截取了部分向量。模型构建:使用Tensorflow框架构建模型,首先需要设置参数,初始化模型。然后调用Tensorflow中封装好的带有注意力机....
图3.10检查点文件图片
西安科技大学硕士学位论文36图3.10检查点文件图片其中seq2seqtest.ckpt-457900.data-000文件为数据文件,保存的是网络的权值、偏置等参数。seq2seqtest.ckpt-457900.index是一个不可变的字符串表,表中每一个键都是张量的名称。s....
本文编号:3906209
本文链接:https://www.wllwen.com/shoufeilunwen/boshibiyelunwen/3906209.html