基于神经网络和注意力机制的细粒度情感分析
发布时间:2021-07-10 23:18
信息化高度发展的今天,互联网平台已经成为人们发表观点,表达意见,交流信息的重要渠道。用户在使用微博、电商平台时会针对某些事件或某些产品发表评论,这就产生了大量包含用户情感的文本信息。如果能对这些数据加以利用,分析其中潜在的用户情感信息,可以为消费者和商家提供决策支持,同时可以帮助政府部门制定政策,正确引导舆情传播。传统句子级的情感分析工作通常是对句子给出一个整体上的情感判断结果,无法针对商品的某一方面或属性(有的文献也称之为目标)做出判断,在如今商品信息多元化发展的今天已经不能满足实际需要,所以方面级的细粒度情感分析工作应运而生,该项技术可以从多个维度分析用户数据。例如,这句话“这款手机的电池非常耐用但是处理速度有点慢。”,我们从电池的角度可以看出用户对这款手机表达出积极的情感,而从处理速度的角度可以看出用户对这款手机表达了消极的情感。近年来,随着深度学习的迅速发展,细粒度情感分析工作也在蓬勃兴起。因此,本文以深度学习中的神经网络和注意力机制两方面为切入点对细粒度情感分析问题进行研究:(1)本文提出了一种上下文语义信息保存机制(Context-Retention Transformat...
【文章来源】:山东师范大学山东省
【文章页数】:75 页
【学位级别】:硕士
【部分图文】:
卷积操作示意图
山东师范大学硕士论文15=[+12](2-3)其中l为句子向量的长度,fs为卷积窗口的大校图2-4池化操作示意图因为将卷积核数量设置为150个,池化后生成的句子表示矩阵为∈×150。池化操作后,每个卷积核提取的特征向量明显减少,并且保留了句子核心的语义信息。CNN卷积层和池化层分别通过卷积运算和池化运算提取短文本句子的局部特征,得到广义的n-gram特征向量。在全连接层将多类特征向量连接起来用于情感分类。2.3.2长短期记忆网络循环神经网络(RecurrentNeuralNetwork,RNN)是一种序列化模型,适用于序列数据建模,广泛应用于自然语言处理、语音识别、机器翻译等领域。RNN与其他的神经网络层与层之间通过权值连接,彼此独立的方式不同,其隐藏层之间的神经元是有连接的,前一个神经元的输出是下一个神经元的部分输入。这样的特性可以使之前神经元的信息传递下去,所以RNN可以记住历史信息,在处理序列信息的任务中受到广大研究者的青睐。但是,标准的RNN通过一个
山东师范大学硕士论文16重复的只有简单tanh函数的模块来连接文本序列中的每一个词,容易产生梯度消失和梯度爆炸的问题,如图2-5所示,于是研究者对其进行了改进,提出了长短期记忆网络(Long-ShortTermMemory,LSTM)。图2-5RNN结构图LSTM是由RNN衍变而来,不同的是LSTM引入了门控机制,门控机制能通过一种被称为门的结构对细胞状态进行删除或者添加信息,门能够有选择性的决定让哪些信息通过,有效解决了梯度消失和梯度爆炸问题。每一个LSTM单元由输入门、输出门、遗忘门和细胞状态构成,如图2-6所示。图2-6LSTM结构图LSTM的第一步就是决定细胞状态需要丢弃哪些信息,这部分操作是通过一个称为遗忘门的sigmoid单元来处理的,细胞在接收到上层的输出ht-1和本层输
【参考文献】:
期刊论文
[1]一种面向聚类的文本建模方法[J]. 唐晓丽,白宇,张桂平,蔡东风. 山西大学学报(自然科学版). 2014(04)
[2]中文微博情感分析研究综述[J]. 周胜臣,瞿文婷,石英子,施询之,孙韵辰. 计算机应用与软件. 2013(03)
硕士论文
[1]情感语境中的微博舆情分析研究[D]. 王倩.南京邮电大学 2018
本文编号:3276841
【文章来源】:山东师范大学山东省
【文章页数】:75 页
【学位级别】:硕士
【部分图文】:
卷积操作示意图
山东师范大学硕士论文15=[+12](2-3)其中l为句子向量的长度,fs为卷积窗口的大校图2-4池化操作示意图因为将卷积核数量设置为150个,池化后生成的句子表示矩阵为∈×150。池化操作后,每个卷积核提取的特征向量明显减少,并且保留了句子核心的语义信息。CNN卷积层和池化层分别通过卷积运算和池化运算提取短文本句子的局部特征,得到广义的n-gram特征向量。在全连接层将多类特征向量连接起来用于情感分类。2.3.2长短期记忆网络循环神经网络(RecurrentNeuralNetwork,RNN)是一种序列化模型,适用于序列数据建模,广泛应用于自然语言处理、语音识别、机器翻译等领域。RNN与其他的神经网络层与层之间通过权值连接,彼此独立的方式不同,其隐藏层之间的神经元是有连接的,前一个神经元的输出是下一个神经元的部分输入。这样的特性可以使之前神经元的信息传递下去,所以RNN可以记住历史信息,在处理序列信息的任务中受到广大研究者的青睐。但是,标准的RNN通过一个
山东师范大学硕士论文16重复的只有简单tanh函数的模块来连接文本序列中的每一个词,容易产生梯度消失和梯度爆炸的问题,如图2-5所示,于是研究者对其进行了改进,提出了长短期记忆网络(Long-ShortTermMemory,LSTM)。图2-5RNN结构图LSTM是由RNN衍变而来,不同的是LSTM引入了门控机制,门控机制能通过一种被称为门的结构对细胞状态进行删除或者添加信息,门能够有选择性的决定让哪些信息通过,有效解决了梯度消失和梯度爆炸问题。每一个LSTM单元由输入门、输出门、遗忘门和细胞状态构成,如图2-6所示。图2-6LSTM结构图LSTM的第一步就是决定细胞状态需要丢弃哪些信息,这部分操作是通过一个称为遗忘门的sigmoid单元来处理的,细胞在接收到上层的输出ht-1和本层输
【参考文献】:
期刊论文
[1]一种面向聚类的文本建模方法[J]. 唐晓丽,白宇,张桂平,蔡东风. 山西大学学报(自然科学版). 2014(04)
[2]中文微博情感分析研究综述[J]. 周胜臣,瞿文婷,石英子,施询之,孙韵辰. 计算机应用与软件. 2013(03)
硕士论文
[1]情感语境中的微博舆情分析研究[D]. 王倩.南京邮电大学 2018
本文编号:3276841
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3276841.html
最近更新
教材专著