基于长短时记忆网络的电力故障维修效果情感分析
发布时间:2020-12-26 05:40
基于电力行业的服务特性,需要对用户各种自然语言评论和主观体验等进行情感分析,这样可以改进服务,提高服务质量,提高用户满意度.从电力故障维修数据中,利用基于深度学习的自然语言处理方法对维修结果记录进行情感分析,针对循环神经网络记忆性短的缺点,采用长短时记忆网络进行处理,克服了现在浅层学习不能自主提取特征、自主抽象,因而处理复杂事物能力有限,泛化能力差的缺点.本文在90 000多条电力故障维修记录语料上进行了实验,与循环神经网络、卷积神经网络、径向基函数神经网络进行对比,证明本文基于长短时记忆网络的情感分析模型准确率更高,效果更好.
【文章来源】:云南大学学报(自然科学版). 2020年S2期 北大核心
【文章页数】:5 页
【部分图文】:
LSTM模型结构
文本数据向量化后是稀疏数据,用于训练的是一个有反馈的LSTM神经网络,这里,选取几种自适应优化函数Adam、Adadelta、Adagrad、RMSprop进行比较,从中选择出准确率最高的函数.由图2可以看出,Adagrad的效果最好,所以选择它作为优化函数.学习速率开始时因为一般距离最优解较远,可以采用较大的学习速率,经过一段时间后,学习速率应该逐渐减小,避免产生振荡而收敛不到最优解.经过实验测试,开始12次采用0.5的学习速率,以后每迭代一次,速率减小0.02.这样,可以尽量避免在最优解附近振荡,而不达到最优解,减少迭代次数.
这里,使用Keras作为深度学习的模型框架,超参数的优化函数设为Adagrad;学习速率开始12次设为0.5,以后每迭代一次,速率减小0.02,如果已经减为0.1,则每次减少0.002;迭代次数设为40次;损失函数设为msle.这里,采用六折法将云南电网公司的维修数据分为训练对象和测试对象进行交叉训练测试,然后,再用测试集合进行验证,同时可以测试其泛化能力.采用六折法训练模型的准确率和损失率如图4、5所示,可见LSTM模型准确率已经到达97.1%,损失率也已经达到0.09%,接近于零损失.然后,用训练后的模型对剩余的30 000多条维修数据进行情感分析测试其泛化能力,其准确率也达到了92.3%,结果较好.图4 电力故障维修情感分析LSTM模型准确率
【参考文献】:
期刊论文
[1]一种从无“aba”模式的日志中挖掘2度循环的方法[J]. 林雷蕾,周华,代飞,朱锐,李彤. 软件学报. 2018(11)
[2]BPMN 2.0编排的形式语义和分析[J]. 代飞,赵文卓,杨云,莫启,李彤,周华. 软件学报. 2018(04)
[3]Minimal Gated Unit for Recurrent Neural Networks[J]. Guo-Bing Zhou,Jianxin Wu,Chen-Lin Zhang,Zhi-Hua Zhou. International Journal of Automation and Computing. 2016(03)
本文编号:2939142
【文章来源】:云南大学学报(自然科学版). 2020年S2期 北大核心
【文章页数】:5 页
【部分图文】:
LSTM模型结构
文本数据向量化后是稀疏数据,用于训练的是一个有反馈的LSTM神经网络,这里,选取几种自适应优化函数Adam、Adadelta、Adagrad、RMSprop进行比较,从中选择出准确率最高的函数.由图2可以看出,Adagrad的效果最好,所以选择它作为优化函数.学习速率开始时因为一般距离最优解较远,可以采用较大的学习速率,经过一段时间后,学习速率应该逐渐减小,避免产生振荡而收敛不到最优解.经过实验测试,开始12次采用0.5的学习速率,以后每迭代一次,速率减小0.02.这样,可以尽量避免在最优解附近振荡,而不达到最优解,减少迭代次数.
这里,使用Keras作为深度学习的模型框架,超参数的优化函数设为Adagrad;学习速率开始12次设为0.5,以后每迭代一次,速率减小0.02,如果已经减为0.1,则每次减少0.002;迭代次数设为40次;损失函数设为msle.这里,采用六折法将云南电网公司的维修数据分为训练对象和测试对象进行交叉训练测试,然后,再用测试集合进行验证,同时可以测试其泛化能力.采用六折法训练模型的准确率和损失率如图4、5所示,可见LSTM模型准确率已经到达97.1%,损失率也已经达到0.09%,接近于零损失.然后,用训练后的模型对剩余的30 000多条维修数据进行情感分析测试其泛化能力,其准确率也达到了92.3%,结果较好.图4 电力故障维修情感分析LSTM模型准确率
【参考文献】:
期刊论文
[1]一种从无“aba”模式的日志中挖掘2度循环的方法[J]. 林雷蕾,周华,代飞,朱锐,李彤. 软件学报. 2018(11)
[2]BPMN 2.0编排的形式语义和分析[J]. 代飞,赵文卓,杨云,莫启,李彤,周华. 软件学报. 2018(04)
[3]Minimal Gated Unit for Recurrent Neural Networks[J]. Guo-Bing Zhou,Jianxin Wu,Chen-Lin Zhang,Zhi-Hua Zhou. International Journal of Automation and Computing. 2016(03)
本文编号:2939142
本文链接:https://www.wllwen.com/kejilunwen/dianlilw/2939142.html
教材专著