基于深度学习算法的评论情感分析研究
发布时间:2021-08-28 12:01
随着互联网技术的进步,社交媒体、电子商务蓬勃发展,越来越多的商品交易评论和社交评论出现在互联网中。因此,网络中的各种评论文本迅速膨胀。若依靠人工的方法难以对网上海量的信息进行收集和处理,因此需要进行文本分析从而帮助用户快速从数以亿计的评论中获取重要信息,情感分析技术应运而生。基于词典法构建一个高质量词典需要大量的人力,机器学习方法过分依赖语句向量的特征,这些特征来自于人工选择导致选择不同的特征就会有不同分析结果。深度学习方法作为一种自主学习的分类方法,在不需要人工过多干预的条件下就可以在情感分析任务上取得较好结果。因此基于深度学习的自然语言分析成为了当前的研究热点。针对传统文本情感分析方法正确率低,深度学习方法在训练、测试与分析效率低的缺陷,本文深入研究了基于深度学习的评论情感分析技术,把主成分分析法(PCA)的高效文本分类(Fasttext)方法作为文本向量生成算法,提高生成文本向量的质量。把门控循环神经网络(GRU)和卷积神经网络(CNN)结合,建立了Attention-CNN-GRU评论文本情感分析模型,提高情感分析结果的正确率和模型训练效率。具体研究内容如下。为了提高文字转换后...
【文章来源】:南京信息工程大学江苏省
【文章页数】:83 页
【学位级别】:硕士
【部分图文】:
训练测试时间比较柱状图
高效达到最低点权重值(wi)0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.90.1图 5.1 梯度下降算法学习率原理学习率的选择是纯粹的超参问题,实际上本质也就是不断尝试,不过你如果函数的梯度较小,你可以放心的试着采用更大的学习速率,已补偿较小的梯更大的步长。根据数据集的大小来选择合适的学习率,当使用平方误差和作数时,随着数据量的增多,学习率应该被设置为相应更小的值。另一种方法不受数据集大小影响的成本函数-均值平方差函数。所选用数据量比较大所应更小的值,从一般常用值:0.00001,0.0001,0.0003,0.001,0.003,,0.1,0.3,1,3,10 中选取最小的 3 个进行试验对比的选择。学习率对比选择试验通过选择 JD01 数据作为交叉验证的数据集,通过学习换得出每一次正确率的结果,最终分析出最适合的学习率。
图 5.4 CNN-GRU(Fasttext)模型弃权系数对比选择图在保持其它确定参数不变的情况下,通过不同弃权系数对比实验结果如图。模型弃权系数取 0.5 时深度学习模型正确率达到最大值,其中弃权系数取确率最低,说明保留神经单元如果过少的话会对训练结果产生负面影响。最模型弃权系数取 0.5。.2 批尺寸系数比较LSTM 类及 GRU 神经网络单元而言由于 LSTM 类及 GRU 神经网络模型的输入是的样本数目窗口,批尺寸就代表这个窗口的输入样本数。首先选取批尺寸个一个 Batch 作为输入,得到输出结果后与样本标签利用损失函数计算损失,算法更新权重和偏向,这个过程就是神经网络训练的一次迭代每次迭代得到作为下次迭代的初始值。如训练集有样本 1000 条,Batchsize 设为 10,每练 10 条样本。LSTM 类及 GRU 神经网络模型在获取前后依赖信息特征的处理
【参考文献】:
期刊论文
[1]一种基于Word2Vec的训练效果优化策略研究[J]. 王飞,谭新. 计算机应用与软件. 2018(01)
[2]基于卷积神经网络的网络攻击检测方法研究[J]. 夏玉明,胡绍勇,朱少民,刘丽丽. 信息网络安全. 2017(11)
[3]基于语义相似度的情感特征向量提取方法[J]. 林江豪,周咏梅,阳爱民,陈锦. 计算机科学. 2017(10)
[4]基于趋势特征表示的shapelet分类方法[J]. 闫欣鸣,孟凡荣,闫秋艳. 计算机应用. 2017(08)
[5]基于改进邻域粒的模糊熵特征选择算法[J]. 姚晟,徐风,赵鹏,刘政怡,陈菊. 南京大学学报(自然科学). 2017(04)
[6]用于文本分类的局部化双向长短时记忆[J]. 万圣贤,兰艳艳,郭嘉丰,徐君,庞亮,程学旗. 中文信息学报. 2017(03)
[7]基于门循环单元神经网络的中文分词法[J]. 李雪莲,段鸿,许牧. 厦门大学学报(自然科学版). 2017(02)
[8]基于深度表示学习和高斯过程迁移学习的情感分析方法[J]. 吴冬茵,桂林,陈钊,徐睿峰. 中文信息学报. 2017(01)
[9]基于卷积神经网络的中文微博观点分类[J]. 廖祥文,张丽瑶,宋志刚,程学旗,陈国龙. 模式识别与人工智能. 2016(12)
[10]融合词向量的多特征句子相似度计算方法研究[J]. 李峰,侯加英,曾荣仁,凌晨. 计算机科学与探索. 2017(04)
本文编号:3368475
【文章来源】:南京信息工程大学江苏省
【文章页数】:83 页
【学位级别】:硕士
【部分图文】:
训练测试时间比较柱状图
高效达到最低点权重值(wi)0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.90.1图 5.1 梯度下降算法学习率原理学习率的选择是纯粹的超参问题,实际上本质也就是不断尝试,不过你如果函数的梯度较小,你可以放心的试着采用更大的学习速率,已补偿较小的梯更大的步长。根据数据集的大小来选择合适的学习率,当使用平方误差和作数时,随着数据量的增多,学习率应该被设置为相应更小的值。另一种方法不受数据集大小影响的成本函数-均值平方差函数。所选用数据量比较大所应更小的值,从一般常用值:0.00001,0.0001,0.0003,0.001,0.003,,0.1,0.3,1,3,10 中选取最小的 3 个进行试验对比的选择。学习率对比选择试验通过选择 JD01 数据作为交叉验证的数据集,通过学习换得出每一次正确率的结果,最终分析出最适合的学习率。
图 5.4 CNN-GRU(Fasttext)模型弃权系数对比选择图在保持其它确定参数不变的情况下,通过不同弃权系数对比实验结果如图。模型弃权系数取 0.5 时深度学习模型正确率达到最大值,其中弃权系数取确率最低,说明保留神经单元如果过少的话会对训练结果产生负面影响。最模型弃权系数取 0.5。.2 批尺寸系数比较LSTM 类及 GRU 神经网络单元而言由于 LSTM 类及 GRU 神经网络模型的输入是的样本数目窗口,批尺寸就代表这个窗口的输入样本数。首先选取批尺寸个一个 Batch 作为输入,得到输出结果后与样本标签利用损失函数计算损失,算法更新权重和偏向,这个过程就是神经网络训练的一次迭代每次迭代得到作为下次迭代的初始值。如训练集有样本 1000 条,Batchsize 设为 10,每练 10 条样本。LSTM 类及 GRU 神经网络模型在获取前后依赖信息特征的处理
【参考文献】:
期刊论文
[1]一种基于Word2Vec的训练效果优化策略研究[J]. 王飞,谭新. 计算机应用与软件. 2018(01)
[2]基于卷积神经网络的网络攻击检测方法研究[J]. 夏玉明,胡绍勇,朱少民,刘丽丽. 信息网络安全. 2017(11)
[3]基于语义相似度的情感特征向量提取方法[J]. 林江豪,周咏梅,阳爱民,陈锦. 计算机科学. 2017(10)
[4]基于趋势特征表示的shapelet分类方法[J]. 闫欣鸣,孟凡荣,闫秋艳. 计算机应用. 2017(08)
[5]基于改进邻域粒的模糊熵特征选择算法[J]. 姚晟,徐风,赵鹏,刘政怡,陈菊. 南京大学学报(自然科学). 2017(04)
[6]用于文本分类的局部化双向长短时记忆[J]. 万圣贤,兰艳艳,郭嘉丰,徐君,庞亮,程学旗. 中文信息学报. 2017(03)
[7]基于门循环单元神经网络的中文分词法[J]. 李雪莲,段鸿,许牧. 厦门大学学报(自然科学版). 2017(02)
[8]基于深度表示学习和高斯过程迁移学习的情感分析方法[J]. 吴冬茵,桂林,陈钊,徐睿峰. 中文信息学报. 2017(01)
[9]基于卷积神经网络的中文微博观点分类[J]. 廖祥文,张丽瑶,宋志刚,程学旗,陈国龙. 模式识别与人工智能. 2016(12)
[10]融合词向量的多特征句子相似度计算方法研究[J]. 李峰,侯加英,曾荣仁,凌晨. 计算机科学与探索. 2017(04)
本文编号:3368475
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3368475.html