基于多分支树的学术论文神经机器翻译研究
发布时间:2020-04-02 06:42
【摘要】:基于计算机技术快速发展,特别是近些年来图像处理单元(GPU)的投入使用,神经网络已经不再像刚被提出时那样遥不可及。神经机器翻译(NMT)就是将神经网络应用到传统的机器翻译领域来,利用神经网络的特性实现机器自主学习翻译规则,代替人类执行语言翻译任务。在深度学习技术浪潮的冲击之下,机器翻译的研究者们开始思考以新的角度来推进以前尚未解决的问题。本研究课题就是在这样的背景下,尝试使用多分支的树形深度学习网络来研究学术论文的机器翻译问题。本课题的研究是一次探索尝试过程,希望能对后期其他的研究以启发。通过对传统神经机器翻译网络的研究,以及对树形深度学习网络的应用分析。本研究意在构建一个结合传统神经网络和树形深度学习网络的多分支树形神经机器翻译机网络(MbTbNMT),通过对神经网络的重新建模来捕捉学术论文语句中的语法、语义信息。首先,本文在最开始对传统的神经机器翻译和树形深度学习网络进行了介绍,介绍主要以树形长短期记忆网络(Tree-LSTM)为重点,详细说明了它的原理和构建过程。针对需要的用到的算法只作了简单的介绍。然后,详细介绍了所研究的MbTbNMT模型实现方法,通过对LSTM编码器的隐状态节点进行树形建模,使得上级节点含有更多子节点信息。结合Attention机制使模型能够提取到学术论文的语法信息。接下来,介绍了一种新的基于网络爬虫的训练语料构建方法。本研究在Tensorflow深度学习平台上搭建并实现,利用新的训练语料对搭建模型进行训练。检测该模型对学术论文语料的翻译性能,实验结果表明其翻译性能有所提升。训练时,为了加快收敛过程,我们采用了随机梯度下降(SGD)对模型进行了优化。最后,同一语料上对比分析了MbTbNMT与两种经典机器翻译模型的翻译结果。相比于经典模型,MbTbNMT不仅能更多地提取到学术论文语法信息,而且系统困惑度更低,更好地实现了学术论文的机器翻译。
【图文】:
图 2-8 LSTM 内部原理STM 神经网络核心思想是通过在网络单元中添加“门阀”,,控制当前息,从而传递到下一单元。每个 LSTM 神经网络单元内共有 3 个门阀记门和输出门。输入门是决定什么样的信息将被保存在单元状态中。
待爬取的网页截图
【学位授予单位】:华中科技大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:H085;TP391.1
本文编号:2611605
【图文】:
图 2-8 LSTM 内部原理STM 神经网络核心思想是通过在网络单元中添加“门阀”,,控制当前息,从而传递到下一单元。每个 LSTM 神经网络单元内共有 3 个门阀记门和输出门。输入门是决定什么样的信息将被保存在单元状态中。
待爬取的网页截图
【学位授予单位】:华中科技大学
【学位级别】:硕士
【学位授予年份】:2018
【分类号】:H085;TP391.1
【参考文献】
相关期刊论文 前1条
1 熊忠阳;蔺显强;张玉芳;牙漫;;结合网页结构与文本特征的正文提取方法[J];计算机工程;2013年12期
相关硕士学位论文 前1条
1 杜健;融合统计机器翻译特征的蒙汉神经网络机器翻译技术[D];内蒙古大学;2017年
本文编号:2611605
本文链接:https://www.wllwen.com/wenyilunwen/hanyulw/2611605.html