多维度用户评论情感分析系统的研究与实现
发布时间:2021-11-26 04:58
互联网的蓬勃发展促进了社交网络和电子商务的发展,致使互联网产生了大量关于用户评论信息的数据,这些文本数据中包含着许多有意义和价值的信息。情感分析任务主要是辨别给定文本的情感极性,从而进一步提取和分析文本中所包含的信息。维度级的情感分类作为情感分类的细化任务,主要目的是从文本中提取特定维度的情感极性,该任务近年来已经取得了良好的研究进展。本文设计出一套多维度用户评论情感分析系统,适用于电商平台的用户和商家,帮助其直观、快速、精准地获取商品信息并进行决策。本系统的最核心部分为多维度用户评论情感分析模型,本文通过对维度级情感分析方法的研究,设计出一套准确高效的多维度情感分析模型。综合考虑了维度级情感分析现有研究的优势和缺陷,维度级情感分类任务的关键可归纳为三个因素:维度词语义信息、维度词和它们上下文文本间的语义相关性,以及相对于维度词的上下文词语的位置信息。因此,针对维度级情感分类,本文提出了一种新的算法——AELA-DLSTMs(基于注意力机制和位置信息的DLSTMs模型,Attention-Enabled and Location-Aware DLSTMs)来进行维度级情感分析。AELA...
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:89 页
【学位级别】:硕士
【部分图文】:
图2-7标准循环神经网络的重复模块结构示意图??
2-7所示。??G??图2-8?LSTM门结构示意图??LSTM中提出了一个新的结构叫做记忆细胞(memory?cell),每一个时刻细??胞都会有一个对应的状态,用来存储当前时刻的信息。LSTM通过三个门结构(输??入门,忘记门和输出门)来保护和控制细胞状态。门结构是一种选择式通过信息??的方法。如图2-8所示,门结构包含两部分,神经网络层sigmoid和点乘操作。??Sigmoid函数的输出范围是[0,1],用来描述每个部分有多少信息允许通过。数值??0代表不许任何信息通过,数值1表示着允许任意信息通过。从各个神经元中舍??弃的信息量取决于忘记门,输入门决定细胞状态中什么值将会被更新。基于细胞??状态
?(2-14)??其中代表输入门,/t表示忘记门,代表输出门,办为细胞状态的候选值,??ct为更新后的t时刻的细胞状态,心为t时刻隐藏状态的值。如图2-9所示,为上??述所说的LSTM重复模块的内部结构。??2.3.2.4?门控循环单兀(Gated?Recurrent?Unit)??上节介绍了?LSTM,GRU作为LSTM的变种,既保持了?LSTM的效果又简??化了模型的结构,所以GRU也得到了广泛的应用[6()]。GRU利用一个更新门将??LSTM中的输入门和忘记门组合在一起。同样的,GRU还混合了隐藏状态和细??胞状态。??GRU模型结构如图2-10所示,GRU包括更新门zt和重置门^。更新门的值??的大小决定了前一时刻进入当前时刻的信息量,更新门的值越大,进入当前时刻??的量越大。重置门的值的大小决定了前一状态的信息被当前状态忽略的程度,重??置门的值越大,表示被忽略得越少。GRU计算公式如式(2-15)到式(2-19)所??示:??rt?=?a(Wr?■?xt])?(2-15)??zt?=?a(Wz?■?[rt?*?ht_!;?xt])?(2-16)??ht?=?tanh(Wj[?■?+?b〇)?(2-17)??=?(1?—?zt)?*?ht_x?+?zt*ht?(2-18)??yt?=?a(W0?■?ht)?(2-19)??^?"t??}
【参考文献】:
期刊论文
[1]基于HowNet的词汇语义倾向计算[J]. 朱嫣岚,闵锦,周雅倩,黄萱菁,吴立德. 中文信息学报. 2006(01)
本文编号:3519444
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:89 页
【学位级别】:硕士
【部分图文】:
图2-7标准循环神经网络的重复模块结构示意图??
2-7所示。??G??图2-8?LSTM门结构示意图??LSTM中提出了一个新的结构叫做记忆细胞(memory?cell),每一个时刻细??胞都会有一个对应的状态,用来存储当前时刻的信息。LSTM通过三个门结构(输??入门,忘记门和输出门)来保护和控制细胞状态。门结构是一种选择式通过信息??的方法。如图2-8所示,门结构包含两部分,神经网络层sigmoid和点乘操作。??Sigmoid函数的输出范围是[0,1],用来描述每个部分有多少信息允许通过。数值??0代表不许任何信息通过,数值1表示着允许任意信息通过。从各个神经元中舍??弃的信息量取决于忘记门,输入门决定细胞状态中什么值将会被更新。基于细胞??状态
?(2-14)??其中代表输入门,/t表示忘记门,代表输出门,办为细胞状态的候选值,??ct为更新后的t时刻的细胞状态,心为t时刻隐藏状态的值。如图2-9所示,为上??述所说的LSTM重复模块的内部结构。??2.3.2.4?门控循环单兀(Gated?Recurrent?Unit)??上节介绍了?LSTM,GRU作为LSTM的变种,既保持了?LSTM的效果又简??化了模型的结构,所以GRU也得到了广泛的应用[6()]。GRU利用一个更新门将??LSTM中的输入门和忘记门组合在一起。同样的,GRU还混合了隐藏状态和细??胞状态。??GRU模型结构如图2-10所示,GRU包括更新门zt和重置门^。更新门的值??的大小决定了前一时刻进入当前时刻的信息量,更新门的值越大,进入当前时刻??的量越大。重置门的值的大小决定了前一状态的信息被当前状态忽略的程度,重??置门的值越大,表示被忽略得越少。GRU计算公式如式(2-15)到式(2-19)所??示:??rt?=?a(Wr?■?xt])?(2-15)??zt?=?a(Wz?■?[rt?*?ht_!;?xt])?(2-16)??ht?=?tanh(Wj[?■?+?b〇)?(2-17)??=?(1?—?zt)?*?ht_x?+?zt*ht?(2-18)??yt?=?a(W0?■?ht)?(2-19)??^?"t??}
【参考文献】:
期刊论文
[1]基于HowNet的词汇语义倾向计算[J]. 朱嫣岚,闵锦,周雅倩,黄萱菁,吴立德. 中文信息学报. 2006(01)
本文编号:3519444
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3519444.html
最近更新
教材专著