基于句型结构信息的文本情感分类研究
发布时间:2021-07-01 13:24
随着深度学习与人工智能的发展,各种自动评分系统层出不穷。在主观题自动评分中,尤其是在辨析题中,答题者需要对人物或者事件从各个角度各个层次进行分析与解答,分析其产生的影响和评价。这种答题方式与基于目标方面的情感分析十分相像。基于目标方面的情感分析是自然语言处理的一个子任务,对目标词汇在特定语句中产生的情感倾向进行分类,评定为积极,中立还是消极。因此,在主观题自动评分中,可以将对辨析题答案的评分人物,转变为对辨析题答案基于各种不同的方面进行情感分类得分的判断。本文提出了一种使用句型结构辅助信息对方面级别的情感分类任务的神经网络模型。在现有的方面级别的情感分析任务中,传统的基于情感词典和机器学习的分类模型的处理方法已经不能满足人们对结果精度的要求。而在深度学习中,常用的做法是将语句送入编码器进行编码表示成语义信息向量,再通过相关技术(如:注意力机制)提取语义向量与目标词汇(方面)的特征关系,最后使用分类器将提取到的关系特征进行分类。但是,这些常用的方式往往重视文本语义上的信息,从而忽视了文本语句结构所包含的信息(比如特征词的修饰词往往带有情感信息)。因此,本文提出了一种基于句型结构信息的网络...
【文章来源】:湘潭大学湖南省
【文章页数】:50 页
【学位级别】:硕士
【部分图文】:
Skip-Gram模型
7图2.1CBOW模型结构图与CBOW模型不同,Skip-Gram模型预测的是后验概率,Skip-Gram模型任务为通过输入中心词,进行预测上下文的词向量,模型结构如图2.2所示错误!未找到引用源。。图2.2Skip-Gram模型CBOW和Skip-Gram产生的word2Vec词向量都是只考虑了局部信息,没有考虑全局信息。如CBOW中是使用设置的窗口大小内的单词去预测中心词,则
10最大池化,即选择池化范围内最大的值替换周围的值,和平均池化,即池化范围内所有值的平均值替换池化范围内的值。在卷积神经网络中,卷积操作往往不止一次,卷积核所提取的特征由低级特征到由低级特征组成的高级特征也变得越来越复杂,最终使得使用卷积操作所提取到的高级特征可以代表事物从而进行最终的分类或者回归的操作。循环神经网络是一类专门处理序列的神经网络,与其他网络不相同的是,循环神经网络具有反馈层,即在层与层之间也具有权重连接。循环神经网络结构如图所示。由图可知,每一个时间步的输入都会影响下一个时间步的输出,循环神经网络具有参数共享的优点,图中所有的权重系数W都是相同的。但是标准的循环神经网络具有梯度消失和梯度爆炸的缺点,从而导致标准的循环神经网络使用并不广泛。神经网络大多使用梯度下降的方法更新权重寻找最优解,梯度消失的情况导致靠近输入层的隐藏层的权重系数几乎不在更新,而梯度爆炸则恰恰相反,梯度的值会变得巨大以至于网络找不到最优点,甚至网络模型直接崩溃。图2.3RNN网络结构图长短期记忆神经网络,简称LSTM,是RNN网络的一个变种,解决了RNN网络长期困扰的梯度消失和梯度爆炸的问题[26]。LSTM与RNN网络一样擅长处理时间序列的数据,此外,相比RNN网络还更容易学习到序列数据中长期依赖的信息,这些优点都导致LSTM比标准RNN具有更广的应用场景。LSTM通过设置遗忘门,输入门,输出门客服了梯度消失和梯度爆炸的问题。门是由一个sigmoid函数和一个逐元素乘积组成的。LSTM结构如图所示:
【参考文献】:
期刊论文
[1]基于融合算法的短文本评论情感分析[J]. 高祥,赵京胜,宋梦雪. 信息技术与信息化. 2019(11)
[2]基于深度学习的微博情感分析[J]. 梁军,柴玉梅,原慧斌,昝红英,刘铭. 中文信息学报. 2014(05)
[3]文本情感分析综述[J]. 杨立公,朱俭,汤世平. 计算机应用. 2013(06)
[4]基于短语模式的文本情感分类研究[J]. 李钝,曹付元,曹元大,万月亮. 计算机科学. 2008(04)
[5]基于类别特征向量表示的中文文本分类算法[J]. 何建英,陈蓉,徐淼,刘佳,于中华. 计算机应用研究. 2008(02)
[6]使用KNN算法的文本分类[J]. 张宁,贾自艳,史忠植. 计算机工程. 2005(08)
[7]中文文本分类中特征抽取方法的比较研究[J]. 代六玲,黄河燕,陈肇雄. 中文信息学报. 2004(01)
[8]自然语言处理中词语上下文有效范围的定量描述[J]. 鲁松,白硕. 计算机学报. 2001(07)
硕士论文
[1]面向电子商务的评论文本情感分析研究[D]. 刘贤友.中国科学技术大学 2015
[2]基于条件随机场的中文分词研究与应用[D]. 颜军.武汉理工大学 2009
本文编号:3259214
【文章来源】:湘潭大学湖南省
【文章页数】:50 页
【学位级别】:硕士
【部分图文】:
Skip-Gram模型
7图2.1CBOW模型结构图与CBOW模型不同,Skip-Gram模型预测的是后验概率,Skip-Gram模型任务为通过输入中心词,进行预测上下文的词向量,模型结构如图2.2所示错误!未找到引用源。。图2.2Skip-Gram模型CBOW和Skip-Gram产生的word2Vec词向量都是只考虑了局部信息,没有考虑全局信息。如CBOW中是使用设置的窗口大小内的单词去预测中心词,则
10最大池化,即选择池化范围内最大的值替换周围的值,和平均池化,即池化范围内所有值的平均值替换池化范围内的值。在卷积神经网络中,卷积操作往往不止一次,卷积核所提取的特征由低级特征到由低级特征组成的高级特征也变得越来越复杂,最终使得使用卷积操作所提取到的高级特征可以代表事物从而进行最终的分类或者回归的操作。循环神经网络是一类专门处理序列的神经网络,与其他网络不相同的是,循环神经网络具有反馈层,即在层与层之间也具有权重连接。循环神经网络结构如图所示。由图可知,每一个时间步的输入都会影响下一个时间步的输出,循环神经网络具有参数共享的优点,图中所有的权重系数W都是相同的。但是标准的循环神经网络具有梯度消失和梯度爆炸的缺点,从而导致标准的循环神经网络使用并不广泛。神经网络大多使用梯度下降的方法更新权重寻找最优解,梯度消失的情况导致靠近输入层的隐藏层的权重系数几乎不在更新,而梯度爆炸则恰恰相反,梯度的值会变得巨大以至于网络找不到最优点,甚至网络模型直接崩溃。图2.3RNN网络结构图长短期记忆神经网络,简称LSTM,是RNN网络的一个变种,解决了RNN网络长期困扰的梯度消失和梯度爆炸的问题[26]。LSTM与RNN网络一样擅长处理时间序列的数据,此外,相比RNN网络还更容易学习到序列数据中长期依赖的信息,这些优点都导致LSTM比标准RNN具有更广的应用场景。LSTM通过设置遗忘门,输入门,输出门客服了梯度消失和梯度爆炸的问题。门是由一个sigmoid函数和一个逐元素乘积组成的。LSTM结构如图所示:
【参考文献】:
期刊论文
[1]基于融合算法的短文本评论情感分析[J]. 高祥,赵京胜,宋梦雪. 信息技术与信息化. 2019(11)
[2]基于深度学习的微博情感分析[J]. 梁军,柴玉梅,原慧斌,昝红英,刘铭. 中文信息学报. 2014(05)
[3]文本情感分析综述[J]. 杨立公,朱俭,汤世平. 计算机应用. 2013(06)
[4]基于短语模式的文本情感分类研究[J]. 李钝,曹付元,曹元大,万月亮. 计算机科学. 2008(04)
[5]基于类别特征向量表示的中文文本分类算法[J]. 何建英,陈蓉,徐淼,刘佳,于中华. 计算机应用研究. 2008(02)
[6]使用KNN算法的文本分类[J]. 张宁,贾自艳,史忠植. 计算机工程. 2005(08)
[7]中文文本分类中特征抽取方法的比较研究[J]. 代六玲,黄河燕,陈肇雄. 中文信息学报. 2004(01)
[8]自然语言处理中词语上下文有效范围的定量描述[J]. 鲁松,白硕. 计算机学报. 2001(07)
硕士论文
[1]面向电子商务的评论文本情感分析研究[D]. 刘贤友.中国科学技术大学 2015
[2]基于条件随机场的中文分词研究与应用[D]. 颜军.武汉理工大学 2009
本文编号:3259214
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3259214.html
最近更新
教材专著