基于LSTM的文档级别情感分析方法研究
发布时间:2023-06-03 01:30
随着以人为中心的Web2.0时代的蓬勃发展,互联网中产生了大量关于人物,事件,产品等包含用户情感的有价值的评论信息,文本情感分析技术能有效挖掘其价值,因此越来越受到关注。对于短文本的词语级别以及句子级别的情感分析已经开展了多年研究并取得较好成绩,但是对于文档级别情感分析,尤其是长文本的建模仍然是一个巨大的难题,虽然LSTM神经网络在长文本建模上取得了巨大的成功,但LSTM依然会存在对长序列学习不完整的问题,因此亟待研究新的篇章级情感分析方法。针对以上问题,本文设计并实现了一个基于的LSTM的分层神经网络结构并且尝试提出了多种改进的方法。首先,本文提出了一种双层LSTM的模型,第一层对文档中每个句子进行词到句子的建模,第二层是对文档中的所有句子到文档进行建模。其次,为了提高模型的训练效果,本文提出了一种基于情感词典的方法,来过滤掉一些客观性句子,减少模型训练的噪声。最后,为了考虑句子中词语间的空间结构,本文用Tree-LSTM代替传统的序列LSTM对词语到句子进行建模,来得到更好的句子向量。实验结果表明基于的LSTM的分层神经网络结构及其改进的方法在三个公开的大规模的文档级别数据集上都具...
【文章页数】:57 页
【学位级别】:硕士
【文章目录】:
摘要
abstract
第1章 绪论
1.1 研究背景和意义
1.2 研究内容和主要贡献
1.3 论文组织结构
第2章 相关研究综述
2.1 文档级情感分析方法综述
2.1.1 情感分析方法的发展
2.1.2 文档级情感分析
2.2 循环神经网络
2.2.1 LSTM(长短期记忆神经网络)
2.2.2 Tree-LSTM(树形长短期记忆神经网络)
第3章 基于分层的LSTM的文档级情感分析
3.1 整体框架
3.2 数据预处理
3.2.1 情感词典
3.2.2 基于情感词典的句子级别情感分析方法
3.3 本章小结
第4章 基于分层的Tree-LSTM的文档级情感分析方法研究
4.1 整体框架
4.2 词到句子的建模
4.2.1 句法语义树
4.3 句子到文档的建模
4.3.1 卷积神经网络(CNN)
4.3.2 注意力模型(attention)
4.3.3 Bi-GRU与 attention结合
4.3.4 CNN与 attention结合
4.4 stacking集成
4.5 本章总结
第5章 实验结果及分析
5.1 基于分层LSTM的相关实验
5.1.1 实验数据集和超参数的设置
5.1.2 Baseline模型
5.1.3 实验结果和分析
5.1.4 词向量和最大句子数量Maxn的选择
5.2 基于分层的Tree-LSTM的相关实验
5.2.1 实验结果
5.2.2 CNN与 LSTM的实验对比分析
5.2.3 集成学习实验结果以及分析
5.2.4 实验结论
第6章 总结和展望
参考文献
发表论文和参加科研情况说明
致谢
本文编号:3828405
【文章页数】:57 页
【学位级别】:硕士
【文章目录】:
摘要
abstract
第1章 绪论
1.1 研究背景和意义
1.2 研究内容和主要贡献
1.3 论文组织结构
第2章 相关研究综述
2.1 文档级情感分析方法综述
2.1.1 情感分析方法的发展
2.1.2 文档级情感分析
2.2 循环神经网络
2.2.1 LSTM(长短期记忆神经网络)
2.2.2 Tree-LSTM(树形长短期记忆神经网络)
第3章 基于分层的LSTM的文档级情感分析
3.1 整体框架
3.2 数据预处理
3.2.1 情感词典
3.2.2 基于情感词典的句子级别情感分析方法
3.3 本章小结
第4章 基于分层的Tree-LSTM的文档级情感分析方法研究
4.1 整体框架
4.2 词到句子的建模
4.2.1 句法语义树
4.3 句子到文档的建模
4.3.1 卷积神经网络(CNN)
4.3.2 注意力模型(attention)
4.3.3 Bi-GRU与 attention结合
4.3.4 CNN与 attention结合
4.4 stacking集成
4.5 本章总结
第5章 实验结果及分析
5.1 基于分层LSTM的相关实验
5.1.1 实验数据集和超参数的设置
5.1.2 Baseline模型
5.1.3 实验结果和分析
5.1.4 词向量和最大句子数量Maxn的选择
5.2 基于分层的Tree-LSTM的相关实验
5.2.1 实验结果
5.2.2 CNN与 LSTM的实验对比分析
5.2.3 集成学习实验结果以及分析
5.2.4 实验结论
第6章 总结和展望
参考文献
发表论文和参加科研情况说明
致谢
本文编号:3828405
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3828405.html