融合句法知识的神经机器翻译研究
【学位单位】:哈尔滨工业大学
【学位级别】:博士
【学位年份】:2019
【中图分类】:TP391.2;TP183
【部分图文】:
第 1 章 绪论机制的 Transformer 模型。.3.1 序列到序列模型序列到序列模型[35,40]由编码器和解码器两部分组成。编码器负责读入源语子,并将其压缩为语义空间中的一个向量,同时期望该向量能够包含源语言句上下文信息;解码器则基于编码器产生的源语言句子向量,生成在语义上等价标语言句子。一般来说,编码器和解码器可由循环神经网络组成(RNN)。图出了序列到序列模型的一个简单样例,该图源于 Sutskever 等人的工作[35]。输语言句子“A B C”,模型逐词的读入每一个单词,并以句子结束符“<EOS>”尾,然后逐词的生成目标语言句子“W X Y Z”,同样以符号“<EOS>”结束。本节将依次介绍编码器和解码器的构造。
图 1-4 基于循环神经网络的编码器解码器框架在不同长度句子上的翻译性能[36]g.1-4 The translation performance for different sentence length of the neural machine translatio,并生成反向的隐状态。最终得到的隐状态序列为 H = h1,h2,h3,...,hn,其中 i, hi],hi和 hi分别是由正向和反向 RNN 生成的隐状态。注意力机制通过当前器隐状态 st和编码器的每一个隐状态计算权重,然后使用该权重将编码器的隐含状态按位加权相加得到该时刻的源语言句子的最终向量表示 cj,计算过下所示,ct=mk=1atkhk(1-atk=exp(etk)mi=1exp(eti)(1-etk=match(st, hk)(1-atch 是匹配函数。注意力机制可以直观理解为,为每一个目标语言单词寻找一恰当的源语言单词,动态的构建了每个时刻的源语言向量表示,翻译过程中
图 1-7 Transformer 模型的结构[38]Fig.1-7 The model structure of the Transformer[38]将自关注网络生成的源语言句子内的上下文向量同当生成考虑了整个句子上下文的当前时刻的隐含状态。差链接(Residual Connection)和层规范化(Layer No网络层,即图中的 AddNorm 层,定义为 LayerNorm(络的输入,SubLayer 为该子网络的处理函数,LayerNo N 个这样的网络层堆叠可以对信息进一步地进行抽象,同构网络中每个子网络的输出,以及词向量和位置编需要保持同样的长度。样包含堆叠的 N 个同构网络层,每个网络层包含三个同编码器的第一个子网络层类似,是一个分组自关注言句子里的其它词的信息考虑进来生成一个目标语言于编码器的自关注注意力网络,解码器在解码的时候
【相似文献】
相关期刊论文 前10条
1 杨渊;冯莉娜;;巧用句法知识突破英语阅读理解难关[J];济南职业学院学报;2006年04期
2 王璞;宁婧思;;法语句法知识扭曲对写作教学的负迁移影响及其对策[J];东西南北;2019年20期
3 秦琴;;巧用句法知识突破英语阅读理解的难关[J];考试周刊;2007年41期
4 王璞;;句法知识缺失对法语学习的负迁移影响[J];才智;2014年06期
5 杨光正;;句法知识系统的推理方法[J];自动化学报;1993年05期
6 魏玉宝;吴爽;;基于高考的句法课课例分析[J];教学考试;2019年30期
7 张焕芹;;浅谈英语论说文的句法知识[J];校园英语;2015年35期
8 陈小芳;;自动写作评分系统对作文句法复杂度的影响[J];黑龙江工业学院学报(综合版);2017年11期
9 范文静;陈艳丽;;英语阅读中句法分析的应用[J];科技信息;2006年S3期
10 姜敬军;;提高解答英语主观题能力的途径——一句多义[J];语数外学习(高考英语);2011年06期
相关博士学位论文 前1条
1 吴双志;融合句法知识的神经机器翻译研究[D];哈尔滨工业大学;2019年
相关硕士学位论文 前7条
1 吴晶晶;句法知识对大学生英语阅读能力影响研究[D];燕山大学;2012年
2 廖如莺;词汇量、句法知识和阅读策略对学生英语阅读能力影响的调查研究[D];南京师范大学;2012年
3 徐晴;[D];电子科技大学;2009年
4 胡琼;信息结构对中国英语学习者句法加工的影响[D];广东外语外贸大学;2017年
5 邓静;句法知识、词汇广度和词汇深度对阅读理解的影响[D];福建师范大学;2014年
6 蒋荣;句法知识对母语者与第二语言学习者阅读模式的影响[D];北京语言文化大学;2001年
7 吴敏;基于句法知识的代词消解研究[D];清华大学;2005年
本文编号:2842002
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2842002.html