当前位置:主页 > 科技论文 > 网络通信论文 >

通过标点恢复提高机器同传效果

发布时间:2021-02-28 06:27
  在机器同传(MSI)流水线系统中,将自动语音识别(ASR)的输出直接输入神经机器翻译(NMT)中会产生语义不完整问题,为解决该问题,提出基于BERT(Bidirectional Encoder Representation from Transformers)和Focal Loss的模型。首先,将ASR系统生成的几个片段缓存并组成一个词串;然后,使用基于BERT的序列标注模型恢复该词串的标点符号,并利用Focal Loss作为模型训练过程中的损失函数来缓解无标点样本比有标点样本多的类别不平衡问题;最后,将标点恢复后的词串输入NMT中。在英-德和汉-英翻译上的实验结果表明,在翻译质量上,使用提出的标点恢复模型的MSI,比将ASR输出直接输入NMT的MSI分别提高了8. 19 BLEU和4. 24 BLEU,比使用基于注意力机制的双向循环神经网络标点恢复模型的MSI分别提高了2. 28 BLEU和3. 66 BLEU。因此所提模型可以有效应用于MSI中。 

【文章来源】:计算机应用. 2020,40(04)北大核心

【文章页数】:6 页

【部分图文】:

通过标点恢复提高机器同传效果


包含语义不完整、不流利和ASR错误问题的例子及其对应的机器翻译

框架图,水线,系统整体,框架


从上述的分析可以看出,语义不完整问题是影响MSI流水线系统性能最普遍的问题,本文主要解决句子中所存在的语义不完整问题。在ASR和NMT之间引入标点恢复层,为NMT提供完整的句子单元以提高MSI流水线系统的性能。整体框架如图2所示。2 标点恢复层

编码器,注意力,语言模型,多头


BERT是一种基于自注意力机制(self-attention)的预训练语言模型,使用多层Transformer编码器框架,并利用屏蔽语言模型(Masked Language Model,MLM)任务(屏蔽一些词让BERT进行预测)实现深层双向,利用下一句预测(Next Sentence Prediction,NSP)任务学习句子间关系,具有较强的表达能力。BERT包含多层Transformer编码器组件,如图3[6]所示,每层由多头自注意力层和前馈网络全连接层组成。Transformer编码器先将词转化为词嵌入,并加入相对位置信息,然后输入多头自注意力层。自注意力机制可以为:

【参考文献】:
期刊论文
[1]基于改进的多层BLSTM的中文分词和标点预测[J]. 李雅昆,潘晴,Everett X.WANG.  计算机应用. 2018(05)



本文编号:3055462

资料下载
论文发表

本文链接:https://www.wllwen.com/kejilunwen/wltx/3055462.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户97864***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com