基于深度学习的文本情感分析研究及应用
发布时间:2020-08-26 14:44
【摘要】:情感分析是自然语言处理领域经典的研究方向之一,随着互联网以及电子商务的成熟,人们已经习惯在各种线上平台上消费。在线上平台消费之后,用户会对此次消费进行评论,这些评论信息日益增长,拥有很高的研究价值。对这些评价信息进行分析和挖掘,可以把握用户的喜好和消费需求,同时能对其他的消费者的消费行为提供参考意见,商家也可以根据消费者的消费需求,对产品不断进行改进和更新。传统的情感分析方法主要有基于规则和基于机器学习的方法。基于规则的方法需要构建情感词典,其情感极性分类效果取决于情感词典的质量,并且想要构建一个通用跨领域的情感词典很困难。而基于机器学习的方法需要构建特征和提取特征,这类特征通常无法表征文本的语义信息。因此,本文主要研究了深度学习方法在情感极性分类中的应用。本文的主要工作内容如下:(1)针对句子级的粗粒度情感分析任务,本文提出了一个多角度(全局最大池化、全局平均池化和注意力机制)增强句子表征能力的模型。只使用最大池化能提取出句子中重要的信息,但同时也会损失一部分有价值的信息。因此本文将全局最大池化、全局平均池化和注意力机制结合起来增强句子表征能力。该模型在Movie Review数据集上Accuracy值为82.41%,F1 score值为0.822。该模型在Customer Review数据集上Accuracy值为86.59%,F1 score值为0.862。均取得了不错的效果,在两个数据集上均优于其它基线模型。(2)针对方面级细粒度情感分析任务,本文提出了一个基于自注意力机制的模型。该模型使用两个基于自注意力机制的模块来进行句子表征,逐步获取20个特定方面的信息,最终一次性输出20个方面的情感倾向值标签。该模型在2018年AI Challenger细粒度情感分析数据集上取得了不错的效果,平均F1值为0.7084,平均Accuracy值为88.65%,优于其它基线模型。(3)将本文提出的模型应用到线上餐饮评论情感分析中,主要包括了数据抓取、粗粒度情感分析和方面级细粒度情感分析三个功能,验证了本文提出的模型的有效性和实用性。
【学位授予单位】:电子科技大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:F713.36;F27;TP391.1;TP18
【图文】:
图 2-1 CBOW 模型图oftmax 函数计算条件概率 ( 太多,因此 CBOW 通常采用 Hierachical Softmax 来进uffuman 树所构成,树的叶子节点对应词典中的每一个存在着一条从根节点到叶子节点的路径。而 Huffuma过树的每个分支时都是一个二分类问题,把路径上所有目标出现的概率,通过 Huffuman 树的性质来减少计算树分支数,这样便极大的提升了效率。除了 Hierachic Sampling 这种优化机制。ram 语言模型[38]与 CBOW 恰恰相反,Skip-gram 它是通过一个词 ,其窗口大小为 n。例如,familymemberissix”,假如把“family”作为训练输入
图 2-2 Skip-Gram 模型图m 模型实际上包括建立模型和通过模型获取词向量两训练数据构建一个神经网络,当这个模型训练好以后,处理新的任务,真正需要的是这个模型通过训练数据所上常见于无监督学习(Unsupervised Learning),最常见层将输入进行编码压缩,继而在输出层将数据解码恢复下来会将输出层“砍掉”,仅保留隐层。神经网络基于概率分布,这个概率代表着词典中的每个词是输出词的中每个词有多大可能性跟输入词同时出现。例如,如果单词“School”,那么最终模型的输出概率中,像“Studen概率将远高于像“Apple”,“Orange”非相关词的概率。因文本中更大可能在“School”的窗口中共同出现。m 模型的 Loss Function 如式(2-2)所示,该表达式的含下文各 n 个词的总体概率:
活函数(ActivationFunction)是神经网络重要的一个组成部分,它学习复杂的非线性函数,使模型具有更强的拟合能力。一个没有激络就是一个线性回归模型,拥有激活函数的神经网络它可以逼近任,这就提高了神经网络模型的拟合能力。接下来将重点介绍以下四1)Sigmoid:Sigmoid 激活函数的输出值在 0 和 1 之间,其函数表 = ( ) = 式(2-6)所示,Sigmoid 函数表达式中包含除法,因此,带有 Sigm神经网络在进行反向传播时,求偏导计算量大。并且 Sigmoid 函数 0,很容易出现梯度消失的现象,因此不适合在深度神经网络中使用数,可以看出它的函数值非负,不是以 0 为均值,产生的一个结果反向传播时对参数 w 求偏导数时都为正,这样会导致在反向传播个方向更新(正方向或者负方向),这样收敛速度便会十分缓慢,但数经常用于二分类,其函数图如图 2-3 所示:
本文编号:2805308
【学位授予单位】:电子科技大学
【学位级别】:硕士
【学位授予年份】:2019
【分类号】:F713.36;F27;TP391.1;TP18
【图文】:
图 2-1 CBOW 模型图oftmax 函数计算条件概率 ( 太多,因此 CBOW 通常采用 Hierachical Softmax 来进uffuman 树所构成,树的叶子节点对应词典中的每一个存在着一条从根节点到叶子节点的路径。而 Huffuma过树的每个分支时都是一个二分类问题,把路径上所有目标出现的概率,通过 Huffuman 树的性质来减少计算树分支数,这样便极大的提升了效率。除了 Hierachic Sampling 这种优化机制。ram 语言模型[38]与 CBOW 恰恰相反,Skip-gram 它是通过一个词 ,其窗口大小为 n。例如,familymemberissix”,假如把“family”作为训练输入
图 2-2 Skip-Gram 模型图m 模型实际上包括建立模型和通过模型获取词向量两训练数据构建一个神经网络,当这个模型训练好以后,处理新的任务,真正需要的是这个模型通过训练数据所上常见于无监督学习(Unsupervised Learning),最常见层将输入进行编码压缩,继而在输出层将数据解码恢复下来会将输出层“砍掉”,仅保留隐层。神经网络基于概率分布,这个概率代表着词典中的每个词是输出词的中每个词有多大可能性跟输入词同时出现。例如,如果单词“School”,那么最终模型的输出概率中,像“Studen概率将远高于像“Apple”,“Orange”非相关词的概率。因文本中更大可能在“School”的窗口中共同出现。m 模型的 Loss Function 如式(2-2)所示,该表达式的含下文各 n 个词的总体概率:
活函数(ActivationFunction)是神经网络重要的一个组成部分,它学习复杂的非线性函数,使模型具有更强的拟合能力。一个没有激络就是一个线性回归模型,拥有激活函数的神经网络它可以逼近任,这就提高了神经网络模型的拟合能力。接下来将重点介绍以下四1)Sigmoid:Sigmoid 激活函数的输出值在 0 和 1 之间,其函数表 = ( ) = 式(2-6)所示,Sigmoid 函数表达式中包含除法,因此,带有 Sigm神经网络在进行反向传播时,求偏导计算量大。并且 Sigmoid 函数 0,很容易出现梯度消失的现象,因此不适合在深度神经网络中使用数,可以看出它的函数值非负,不是以 0 为均值,产生的一个结果反向传播时对参数 w 求偏导数时都为正,这样会导致在反向传播个方向更新(正方向或者负方向),这样收敛速度便会十分缓慢,但数经常用于二分类,其函数图如图 2-3 所示:
【参考文献】
相关期刊论文 前2条
1 赵妍妍;秦兵;刘挺;;文本情感分析[J];软件学报;2010年08期
2 薛为民;陆玉昌;;文本挖掘技术研究[J];北京联合大学学报(自然科学版);2005年04期
本文编号:2805308
本文链接:https://www.wllwen.com/jingjilunwen/guojimaoyilunwen/2805308.html