基于多任务学习的属性级情感分析方法研究
发布时间:2021-01-30 06:34
人们经常在博客、论坛、在线评论、电子商务平台等社会媒体中对于某些事物表达个人观点、态度和情感,这些评论是准消费者决断的重要资源,也是产品或服务提供者汲取意见的重要依据。本文针对大规模产品评论文本进行细粒度的情感分析研究,旨在有效抽取出评论文本中的显式和隐式的评价对象、观点词并进一步判断出用户表达的情感,本文提出一种基于多任务联合学习方式捕获不同任务间的语义关联信息,有效地提高了系统识别地准确率。这种细粒度的属性级情感分析研究对情感分析任务具有重要的学术价值和应用价值。本文主要研究工作如下:1.基于改进记忆网络的属性级情感极性分类方法。记忆网络在解决面向评价对象的情感分类时,只关注了词级简单语义,且忽略了序列自身语义信息。本文提出使用卷积多头自注意模块提取记忆,再用评价对象的向量表示做多跳注意力计算,从而弥补了记忆网络存在的缺陷。在Sem Eval-2014 Restaurant(AT)、Sem Eval-2014 Laptop、Sem Eval-2014 Restaurant(AC)、Sem Eval-2016 Tweet四个数据集上超过所有基线方法达到最优,准确率分别提高了3.10%...
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:64 页
【学位级别】:硕士
【部分图文】:
一个关于ABSA各项子任务的例子本文对多任务的研究,包括属性词属性类同时识别(ATE-ACD)、属性词及其
哈尔滨工业大学工学硕士学位论文-8-图1-2本课题关于ABSA任务的研究概况在第四章中,本文引入观点词信息,对三个重要情感要素:观点词、属性词、属性词情感进行了一站式抽取研究。本文使用Bi-GRU提供不同的三种底层特征,使用增加了位置感知的Transformer编码器提取高层特征交互,并提出异化学习和预感知学习来提高特征交互效率,本部分还基于ABSA任务对位置感知的注意力机制进行了讨论,希望为后续研究提供有用的结论。此外,本文还对ATE-OTE联合任务进行了研究,可提供用于比较的基线方法。
助网络正确识别属性词,及几种大规模预训练语言模型的效果验证,包括BERT[62]、ERNIE2.0[63]、XLNet[64]。对于ACD的研究,本课题尝试了多个分类模型(one-vs-all)建模方式、概率回归任务建模方式、多标签分类建模方式,使用CNN、RNN、Transformer三种编码器进行了实验。ATE、ACD的研究希望为后续多任务研究提供比较基础和多任务有效性验证依据。2.2研究方法2.2.1基于多标签分类联合学习模型的属性类识别因为一段文本中可能提及到多个属性类,所以目前大部分研究将属性类识别(ACD)任务作为多标签分类来完成。如图2-1所示,本课题探究三种建模方法。第一种方法是训练一组one-vs-all的分类器,这些分类器各自学习某一个属性类别的信息而不关注其它属性类,即每个分类器完成一个二分类任务,考虑是否把这个属性类分配给这个文本。第二种方法是训练一个回归任务模型,即将最后的高层特征表示映射为一个维度为属性类别个数的向量,这个向量每个维度上的数值表示这段文本提及对应属性类的概率,我们只需要设置一个概率阈值来判断是否将这个属性类分配给这段文本。第三种方法是建立一个联合学习模型,对于每个属性类别,我们使其底层特征表示和特征提取组件共享,而用不同的全连接层映射到不同属性类,然后将他们的损失值加在一起共同优化。(a)one-vs-all方式(b)回归任务方式(c)联合学习方式图2-1例如属性类别数为4时,完成ACD任务的三种建模方式输入句子={1,2,…,}包含个单词,Embedding层将所有单词映射为低维稠密向量,设为维,则Embedding输出为∈×。经过编码层提取特征后,用全连接层进行线性变换:=(,)(2-1)=(+)(2-2)
本文编号:3008439
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:64 页
【学位级别】:硕士
【部分图文】:
一个关于ABSA各项子任务的例子本文对多任务的研究,包括属性词属性类同时识别(ATE-ACD)、属性词及其
哈尔滨工业大学工学硕士学位论文-8-图1-2本课题关于ABSA任务的研究概况在第四章中,本文引入观点词信息,对三个重要情感要素:观点词、属性词、属性词情感进行了一站式抽取研究。本文使用Bi-GRU提供不同的三种底层特征,使用增加了位置感知的Transformer编码器提取高层特征交互,并提出异化学习和预感知学习来提高特征交互效率,本部分还基于ABSA任务对位置感知的注意力机制进行了讨论,希望为后续研究提供有用的结论。此外,本文还对ATE-OTE联合任务进行了研究,可提供用于比较的基线方法。
助网络正确识别属性词,及几种大规模预训练语言模型的效果验证,包括BERT[62]、ERNIE2.0[63]、XLNet[64]。对于ACD的研究,本课题尝试了多个分类模型(one-vs-all)建模方式、概率回归任务建模方式、多标签分类建模方式,使用CNN、RNN、Transformer三种编码器进行了实验。ATE、ACD的研究希望为后续多任务研究提供比较基础和多任务有效性验证依据。2.2研究方法2.2.1基于多标签分类联合学习模型的属性类识别因为一段文本中可能提及到多个属性类,所以目前大部分研究将属性类识别(ACD)任务作为多标签分类来完成。如图2-1所示,本课题探究三种建模方法。第一种方法是训练一组one-vs-all的分类器,这些分类器各自学习某一个属性类别的信息而不关注其它属性类,即每个分类器完成一个二分类任务,考虑是否把这个属性类分配给这个文本。第二种方法是训练一个回归任务模型,即将最后的高层特征表示映射为一个维度为属性类别个数的向量,这个向量每个维度上的数值表示这段文本提及对应属性类的概率,我们只需要设置一个概率阈值来判断是否将这个属性类分配给这段文本。第三种方法是建立一个联合学习模型,对于每个属性类别,我们使其底层特征表示和特征提取组件共享,而用不同的全连接层映射到不同属性类,然后将他们的损失值加在一起共同优化。(a)one-vs-all方式(b)回归任务方式(c)联合学习方式图2-1例如属性类别数为4时,完成ACD任务的三种建模方式输入句子={1,2,…,}包含个单词,Embedding层将所有单词映射为低维稠密向量,设为维,则Embedding输出为∈×。经过编码层提取特征后,用全连接层进行线性变换:=(,)(2-1)=(+)(2-2)
本文编号:3008439
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3008439.html
最近更新
教材专著