基于层次神经网络和多元特征的虚假评论识别研究
发布时间:2021-09-29 00:19
近年来,越来越多的消费者倾向于在网络上发表评论分享自己的消费体验并在作出消费决策时参考他人的评论意见。然而,一些不良商家通过伪造评论内容以达到夸大自身品牌或诋毁竞争对手的目的。虚假评论不仅会对用户的消费决策产生影响,还会导致商业竞争环境的不良发展。为了有效识别虚假评论,本文利用评论数据提取到丰富的语言特征和非语言特征,使用基于层次神经网络和多元特征的识别模型MFNN(Neural Networks Merging Multivariate Features)开展虚假评论识别研究。本文的研究内容归纳为以下三点:(1)构建多元特征指标。本文将虚假评论识别的潜在线索划分为语言特征信息和非语言特征信息,利用评论文本及多种数据信息提取了一组多元特征指标集,可以同时适用于基于不同数据集开展的虚假评论检测实验。(2)进行特征选择。利用随机森林和序列后向选择策略按照特征对于模型性能的重要程度对特征进行修剪,选取具有最佳识别性能的特征子集开展实验,减少噪声干扰,提高模型的简洁性。(3)基于神经网络构建虚假评论识别模型。本文提出融合注意力机制的层次神经网络模型以挖掘深层的语义信息从而实现虚假评论检测。同时...
【文章来源】:内蒙古大学内蒙古自治区 211工程院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
循环神经网络结构
基于层次神经网络和多元特征的虚假评论识别研究16图2.7循环神经网络内部结构Figure2.7InternalStructureofRNNtx表示t时刻的输入,to表示t时刻的输出,ts表示t时刻的记忆,则有:1()tttsfUxWs=+(2-5)其中f是非线性的函数,一般使用Relu函数或是tanh函数来代替。假设输出层to是t时刻的输出,则有:1()ttoSoftmaxVs=(2-6)2.3.3长短期记忆网络长短期记忆网络(LongShort-TermMemory,LSTM)[51]是为了处理循环神经网络在梯度回传时由于连续的乘积而导致的梯度弥散和梯度爆炸的缺陷,利用记忆单元(MemoryCell)结构来选择循环神经网络中历史信息,能够在更长的序列中有很好的表现,成功解决长期依赖的问题。长短期记忆单元通过特殊的“门”结构来选择性的去除、保留或增加历史信息,这三种门结构为输入门、输出门和遗忘门,其记忆单元构如图2.8所示。图2.8长短期记忆单元结构Figure2.8StructureofMemoryCellofLSTM假设tx表示LSTM在t时刻输入信息,则可以t时刻输入门ti,输出门to和遗忘门tf的更新值:
基于层次神经网络和多元特征的虚假评论识别研究16图2.7循环神经网络内部结构Figure2.7InternalStructureofRNNtx表示t时刻的输入,to表示t时刻的输出,ts表示t时刻的记忆,则有:1()tttsfUxWs=+(2-5)其中f是非线性的函数,一般使用Relu函数或是tanh函数来代替。假设输出层to是t时刻的输出,则有:1()ttoSoftmaxVs=(2-6)2.3.3长短期记忆网络长短期记忆网络(LongShort-TermMemory,LSTM)[51]是为了处理循环神经网络在梯度回传时由于连续的乘积而导致的梯度弥散和梯度爆炸的缺陷,利用记忆单元(MemoryCell)结构来选择循环神经网络中历史信息,能够在更长的序列中有很好的表现,成功解决长期依赖的问题。长短期记忆单元通过特殊的“门”结构来选择性的去除、保留或增加历史信息,这三种门结构为输入门、输出门和遗忘门,其记忆单元构如图2.8所示。图2.8长短期记忆单元结构Figure2.8StructureofMemoryCellofLSTM假设tx表示LSTM在t时刻输入信息,则可以t时刻输入门ti,输出门to和遗忘门tf的更新值:
本文编号:3412822
【文章来源】:内蒙古大学内蒙古自治区 211工程院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
循环神经网络结构
基于层次神经网络和多元特征的虚假评论识别研究16图2.7循环神经网络内部结构Figure2.7InternalStructureofRNNtx表示t时刻的输入,to表示t时刻的输出,ts表示t时刻的记忆,则有:1()tttsfUxWs=+(2-5)其中f是非线性的函数,一般使用Relu函数或是tanh函数来代替。假设输出层to是t时刻的输出,则有:1()ttoSoftmaxVs=(2-6)2.3.3长短期记忆网络长短期记忆网络(LongShort-TermMemory,LSTM)[51]是为了处理循环神经网络在梯度回传时由于连续的乘积而导致的梯度弥散和梯度爆炸的缺陷,利用记忆单元(MemoryCell)结构来选择循环神经网络中历史信息,能够在更长的序列中有很好的表现,成功解决长期依赖的问题。长短期记忆单元通过特殊的“门”结构来选择性的去除、保留或增加历史信息,这三种门结构为输入门、输出门和遗忘门,其记忆单元构如图2.8所示。图2.8长短期记忆单元结构Figure2.8StructureofMemoryCellofLSTM假设tx表示LSTM在t时刻输入信息,则可以t时刻输入门ti,输出门to和遗忘门tf的更新值:
基于层次神经网络和多元特征的虚假评论识别研究16图2.7循环神经网络内部结构Figure2.7InternalStructureofRNNtx表示t时刻的输入,to表示t时刻的输出,ts表示t时刻的记忆,则有:1()tttsfUxWs=+(2-5)其中f是非线性的函数,一般使用Relu函数或是tanh函数来代替。假设输出层to是t时刻的输出,则有:1()ttoSoftmaxVs=(2-6)2.3.3长短期记忆网络长短期记忆网络(LongShort-TermMemory,LSTM)[51]是为了处理循环神经网络在梯度回传时由于连续的乘积而导致的梯度弥散和梯度爆炸的缺陷,利用记忆单元(MemoryCell)结构来选择循环神经网络中历史信息,能够在更长的序列中有很好的表现,成功解决长期依赖的问题。长短期记忆单元通过特殊的“门”结构来选择性的去除、保留或增加历史信息,这三种门结构为输入门、输出门和遗忘门,其记忆单元构如图2.8所示。图2.8长短期记忆单元结构Figure2.8StructureofMemoryCellofLSTM假设tx表示LSTM在t时刻输入信息,则可以t时刻输入门ti,输出门to和遗忘门tf的更新值:
本文编号:3412822
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3412822.html