基于深度学习的方面级情感分析研究
发布时间:2021-01-20 03:32
随着社交网络与电商平台的兴起与发展,越来越多的人乐于在线上发表有关于购物、旅游、服务等领域的评论,这些带有个人主观情感态度的文本十分具有挖掘价值。在情感分析领域,文档级和句子级的情感分析只能挖掘整体的情感极性信息,但无法分析用户对于文本中各个实体或属性的情感及意见,因此方面级情感分析应运而生,其中方面可为实体或属性。近几年深度学习的发展与广泛运用,也为方面级情感分析任务提供了新的解决方法。本文主要关注基于深度学习的方面级情感分析问题,针对该研究内容现存的一些问题,尝试提出高效的解决方案。首先,目前的方面级情感分类模型大都基于整个句子进行预测,而这会引入与方面情感无关的上下文噪音信息。针对这一问题,本文提出了一个基于强化学习的神经网络模型来自适应地抽取与方面相关的描述片段,并基于该片段完成后续的情感分类任务。实验结果表明,本文所提方法可以有效地提取描述该方面的片段,从而实现情感分类性能的提高。此外,通过案例分析,可以直观地解释为什么本文所提模型会适用于方面级情感分类。其次,针对目前的方面级情感分析模型在建模过程中没有很好地利用方面抽取、情感词抽取和方面级情感分类三个子任务之间的关系这一问...
【文章来源】:华东师范大学上海市 211工程院校 985工程院校 教育部直属院校
【文章页数】:95 页
【学位级别】:硕士
【部分图文】:
图2.2双层感知器结构
按时序展开的RNN结构
华东师范大学硕士学位论文图2.4RNN和LSTM结构细节ot表示输入门、遗忘门和输出门,ct为当前细胞状态,⊙为点乘运算。it=σ(Wi·[ht1,xt]+bi)ft=σ(Wf·[ht1,xt]+bf)ot=σ(Wo·[ht1,xt]+bo)gt=tanh(Wr·[ht1,xt]+br)ct=it⊙gt+ft⊙ct1ht=ot⊙tanh(ct)(2.9)为了编码从后往前的信息,Graves等人[48]又提出了双向长短时记忆网络Bi-LSTM(Bi-directionalLSTM)。Bi-LSTM通过拼接位置t的前向隐状态→ht和后向隐状态←ht来表示该位置的信息表征,即ht=[→ht;←ht]。相较LSTM,Bi-LSTM能够更好地捕获双向的语义依赖。本文主要关注基于深度学习的方面级情感分析算法,因此所提的算法模型都将以神经网络结构为基础,在学习序列表示时主要采用循环神经网络,进行分类时采用全连接神经网络。16
本文编号:2988285
【文章来源】:华东师范大学上海市 211工程院校 985工程院校 教育部直属院校
【文章页数】:95 页
【学位级别】:硕士
【部分图文】:
图2.2双层感知器结构
按时序展开的RNN结构
华东师范大学硕士学位论文图2.4RNN和LSTM结构细节ot表示输入门、遗忘门和输出门,ct为当前细胞状态,⊙为点乘运算。it=σ(Wi·[ht1,xt]+bi)ft=σ(Wf·[ht1,xt]+bf)ot=σ(Wo·[ht1,xt]+bo)gt=tanh(Wr·[ht1,xt]+br)ct=it⊙gt+ft⊙ct1ht=ot⊙tanh(ct)(2.9)为了编码从后往前的信息,Graves等人[48]又提出了双向长短时记忆网络Bi-LSTM(Bi-directionalLSTM)。Bi-LSTM通过拼接位置t的前向隐状态→ht和后向隐状态←ht来表示该位置的信息表征,即ht=[→ht;←ht]。相较LSTM,Bi-LSTM能够更好地捕获双向的语义依赖。本文主要关注基于深度学习的方面级情感分析算法,因此所提的算法模型都将以神经网络结构为基础,在学习序列表示时主要采用循环神经网络,进行分类时采用全连接神经网络。16
本文编号:2988285
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/2988285.html
最近更新
教材专著