基于深度学习的用户评论情感分析系统设计与实现
发布时间:2021-03-10 07:58
随着网络视频媒体的兴起,各大视频网站购买影视剧版权在其平台上播放,影视剧的播放量直接影响视频平台的收入,如何估计影视剧的市场价值成为一个重要的问题。通过对影视剧的用户评论数据进行情感分析,可以清晰地了解用户对影视剧的喜好和影响用户喜好的因素,辅助购片人了解市场情绪。因此本论文设计并实现了用户评论情感分析系统,购片者通过本系统可以查询影视剧整体的用户情感,指定剧集的用户情感和用户情感趋势变化等情感信息。本论文以影评的情感分类和情感关键词提取为主要研究内容,具体使用深度学习模型来解决文本情感分析问题。论文主要完成了以下3方面的工作:(1)为了提高情感分类的准确率,本论文探究了深度学习中的注意力机制,循环神经网络和卷积神经网络三者的融合方式,提出了一种融合模型ARC及其变型MARC,融合模型能够在双向时序的特征上进一步提取n-gram特征。并在公开的情感数据集twitter,yelp和本文构建的影评语料库上进行情感三分类评估,实验论证了本文融合方式的有效性。(2)Attention机制可以学习词在句子中的重要分布,为了提高情感分类的可解释性,本文利用融合模型ARC中的注...
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:84 页
【学位级别】:硕士
【部分图文】:
图2-〗CBOW和Skip_gram模型??
时增加输入门、输出门、遗忘门三种门来控制之前信息和当前信息的记忆和遗忘??程度,从而使LSTM网络具有了长期记忆功能,避免了标准RNN中梯度消失的问??题。LSTM单元结构如图2-3所示,和RNN比起来,LSTM隐藏层神经单元更??复杂,多了顶部的记忆细胞状态&和三个控制门。?????????,个、,?言、,?1??r?^?^?、?f?a??j?丨丨丨|丨丨丨___<§>■——??今??A?I?c^rc^t?A??本本申年i?_?+??、?J?rj、奮?.■?j?????????图2-3?LSTM单元结构??LSTM中的遗忘门以一定的概率控制是否遗忘上一层的隐藏细胞状态。遗忘??门的输出由序列上一刻的隐藏状态Zltj和此刻的输入&决定,具体实现是通过一??个激活函数得到遗忘门的输出/t。激活函数通常是sigmoid函数,由于sigmoid的??输出广在[0,1]之间,正好代表了遗忘上一层隐藏细胞状态的概率。遗忘门的公式??如2-2所示。??A?=a(Wfht.x?+?Ufxt?+?bf)?(2-2)??输入门决定什么样的新信息被存放在细胞状态中
加简化实用的门循环单元结构,该结构将输入门和遗忘门进行了合并,也将记忆??单元和输出单元进行了合并。GRU模型中只有更新门和重置门:^这两个门,??GRU具体结构如图2-4所示。??/以牛??1?f%??1?I?O?1?O?|?|?tanh?|??l???I?J??OZZZ———/??IK??图2-4门循环单元结构??更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的??值越大说明前一时刻的状态信息带入越多,更新门A的计算如公式2-9。??zt?=?a(Wzxt?+?t/z/it-i)?(2-9)??重置门用于控制忽略前一时刻的状态信息的程度,重置门的值越小说明忽略??得越多,重置门4的计算如公式2-10。??rt?=?cr(Wrxt?+?Urht^)?(2-10)??计算新的记忆内容需要使用重置门储存过去相关的信息,过程如公式2-11。??ht?=?tanh(Wxt?+?(2-11)??计算GRU单元的输出/it,需要依赖更新门的输出,更新门以门控的形式决??定了需要从新的记忆内容/rt流入什么新的信息,需要从前一时序的隐藏层输出??保留什么信息
本文编号:3074339
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:84 页
【学位级别】:硕士
【部分图文】:
图2-〗CBOW和Skip_gram模型??
时增加输入门、输出门、遗忘门三种门来控制之前信息和当前信息的记忆和遗忘??程度,从而使LSTM网络具有了长期记忆功能,避免了标准RNN中梯度消失的问??题。LSTM单元结构如图2-3所示,和RNN比起来,LSTM隐藏层神经单元更??复杂,多了顶部的记忆细胞状态&和三个控制门。?????????,个、,?言、,?1??r?^?^?、?f?a??j?丨丨丨|丨丨丨___<§>■——??今??A?I?c^rc^t?A??本本申年i?_?+??、?J?rj、奮?.■?j?????????图2-3?LSTM单元结构??LSTM中的遗忘门以一定的概率控制是否遗忘上一层的隐藏细胞状态。遗忘??门的输出由序列上一刻的隐藏状态Zltj和此刻的输入&决定,具体实现是通过一??个激活函数得到遗忘门的输出/t。激活函数通常是sigmoid函数,由于sigmoid的??输出广在[0,1]之间,正好代表了遗忘上一层隐藏细胞状态的概率。遗忘门的公式??如2-2所示。??A?=a(Wfht.x?+?Ufxt?+?bf)?(2-2)??输入门决定什么样的新信息被存放在细胞状态中
加简化实用的门循环单元结构,该结构将输入门和遗忘门进行了合并,也将记忆??单元和输出单元进行了合并。GRU模型中只有更新门和重置门:^这两个门,??GRU具体结构如图2-4所示。??/以牛??1?f%??1?I?O?1?O?|?|?tanh?|??l???I?J??OZZZ———/??IK??图2-4门循环单元结构??更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的??值越大说明前一时刻的状态信息带入越多,更新门A的计算如公式2-9。??zt?=?a(Wzxt?+?t/z/it-i)?(2-9)??重置门用于控制忽略前一时刻的状态信息的程度,重置门的值越小说明忽略??得越多,重置门4的计算如公式2-10。??rt?=?cr(Wrxt?+?Urht^)?(2-10)??计算新的记忆内容需要使用重置门储存过去相关的信息,过程如公式2-11。??ht?=?tanh(Wxt?+?(2-11)??计算GRU单元的输出/it,需要依赖更新门的输出,更新门以门控的形式决??定了需要从新的记忆内容/rt流入什么新的信息,需要从前一时序的隐藏层输出??保留什么信息
本文编号:3074339
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3074339.html
最近更新
教材专著