基于深度自编码的局部增强网络表示学习研究及应用
发布时间:2021-06-11 10:03
社交网络是信息的一种载体,不仅节点的链接关系中蕴藏着丰富的信息,而且节点本身也具有多样的信息。因此,对社交网络进行数据挖掘具有重要意义。随着互联网的普及,社交网络的节点个数逐渐增多,网络结构也变的越发复杂,给现有的网络挖掘技术带来了前所未有的挑战。如何将稀疏且高维的网络数据,映射为稠密而低维的特征向量成为解决问题的关键,因此网络表示学习模型一度成为研究热点。网络表示学习是指使用某种方法将稀疏、高维的原始输入数据表示为稠密、低维的向量,同时保留网络信息,发现数据内在规律。随着深度学习技术的出现,出现了一些基于深度模型的表示学习模型,SDNE(Structural Deep Network Embedding)模型是其中一种基于深度自编码的网络表示学习模型。SDNE模型使用一阶和二阶近邻关系保持网络结构,采用深度自编码学习网络结构信息的低维特征向量。但它只利用了网络的结构信息,忽略了网络节点自身具有的属性信息,同时没有充分利用网络中的成对约束信息。针对上述问题,采用的改进方法为:在SDNE模型的基础上,融入了网络属性信息,利用深度自编码器学习融合网络结构和属性信息的特征表示,同时充分利用网...
【文章来源】:河北地质大学河北省
【文章页数】:71 页
【学位级别】:硕士
【部分图文】:
神经元结构
河北地质大学硕士学位论文9第二章相关知识介绍本章将对深度自编码器及其基础模型进行介绍,同时阐述了网络表示学习及相关模型基于深度自编码器的网络表示学习等相关知识。2.1深度自编码器2.1.1人工神经网络人工神经网络又称神经网络,是按照生物神经网络的结构和工作原理构建的一种模型。该模型的基本结构是神经元,神经元结构如图2.1所示:图2.1神经元结构神经元模型包括多个输入(321,,xxx),这些输入分别于各自的权值(321,,www)相乘,神经元接收到的总输入(321xxx)与其阈值进行相减,然后作为激活函数(Sigmoid函数)的输入,利用激活函数进行计算得到最终的输出(y),即:)(31iiixwfy(2.1)20世纪60年代,计算科学家Rosenblatt创造性的建造了单层神经网络模型,即由两层神经元组成的“感知器(Perceptron)”模型。感知机模型如图2.2所示:图2.2感知机模型
基于深度自编码的局部增强网络表示学习研究及应用10感知机模型包含两层,分别是输入层和输出层。输入层里的神经元只负责接收数据,不做任何计算。输出层的神经元需要对输入层输入的数据利用激活函数进行计算,利用感知机能解决‘与’‘或’‘非’这类的线性分类问题,但不能够解决‘异或’这类非线性分类问题[54]。2.1.2两层及多层神经网络两层神经网络的提出解决了非线性分类问题,两层神经网络模型如图2.3所示:图2.3两层神经网络模型两层神经网络模型可分为三层,即输入层,隐藏层,输出层。每层神经元只与下一层神经元以全相连的方式连接。同层神经元之间互不连接,跨层神经元之间也互不连接。其中输入层神经元只负责接收数据,不做任何计算。隐藏层和输出层对数据进行计算。增加一个隐层得到的两层神经网络可以解决非线性分类问题。更一般的,常见的神经网络如图2.4所示,该模型也称为单隐层前馈神经网络。图2.4单隐层前馈神经网络单隐层前馈神经网络的“前辣指的是网络链接结构中不存在环或回路。单隐层前馈神经网络模型要求输入层和输出层神经元个数相同,而对隐藏层神经元个数无任何要求。并且该模型具有更好的非线性分类效果。顾名思义,多层前馈神经网络指的是具有多个隐层的前馈神经网络。图2.5是一种代表性的多层前馈神经网络模型。
【参考文献】:
期刊论文
[1]集成相空间重构与稀疏自编码的振动信号分解方法[J]. 杜灿谊,林祖胜,喻菲菲,张绍辉. 机械设计与制造. 2019(08)
[2]基于栈式稀疏自编码多特征融合的快速手势识别方法[J]. 强彦,董林佳,赵涓涓,张婷. 北京理工大学学报. 2019(06)
[3]网络表示学习算法的分析与验证[J]. 王岩,唐杰. 中文信息学报. 2019(02)
[4]一种基于深度学习的混合推荐算法[J]. 曾旭禹,杨燕,王淑营,何太军,陈剑波. 计算机科学. 2019(01)
[5]基于卷积稀疏自编码的图像超分辨率重建[J]. 张秀,周巍,段哲民,魏恒璐. 红外与激光工程. 2019(01)
[6]保持Motif结构的网络表示学习[J]. 许磊,黄玲,王昌栋. 计算机科学与探索. 2019(08)
[7]一种融合节点文本属性信息的网络表示学习算法[J]. 刘正铭,马宏,刘树新,杨奕卓,李星. 计算机工程. 2018(11)
[8]基于深度收缩自编码网络的飞行员疲劳状态识别[J]. 韩霜,吴奇,孙礼兵,裘旭益,任和,卢钊. 生物医学工程学杂志. 2018(03)
[9]基于降噪自编码的电能质量扰动识别[J]. 肖露欣,李增祥,马建,陈克绪,吴建华. 南昌大学学报(理科版). 2017(06)
[10]一种融合节点先验信息的图表示学习方法[J]. 温雯,黄家明,蔡瑞初,郝志峰,王丽娟. 软件学报. 2018(03)
博士论文
[1]属性网络的半监督学习方法研究[D]. 王绍凯.哈尔滨工业大学 2018
硕士论文
[1]基于深度自编码的多癌症分子分型建模与分析[D]. 余淼.华中科技大学 2016
[2]神经网络控制的FPGA研究与应用[D]. 韩少锋.大连海事大学 2005
本文编号:3224321
【文章来源】:河北地质大学河北省
【文章页数】:71 页
【学位级别】:硕士
【部分图文】:
神经元结构
河北地质大学硕士学位论文9第二章相关知识介绍本章将对深度自编码器及其基础模型进行介绍,同时阐述了网络表示学习及相关模型基于深度自编码器的网络表示学习等相关知识。2.1深度自编码器2.1.1人工神经网络人工神经网络又称神经网络,是按照生物神经网络的结构和工作原理构建的一种模型。该模型的基本结构是神经元,神经元结构如图2.1所示:图2.1神经元结构神经元模型包括多个输入(321,,xxx),这些输入分别于各自的权值(321,,www)相乘,神经元接收到的总输入(321xxx)与其阈值进行相减,然后作为激活函数(Sigmoid函数)的输入,利用激活函数进行计算得到最终的输出(y),即:)(31iiixwfy(2.1)20世纪60年代,计算科学家Rosenblatt创造性的建造了单层神经网络模型,即由两层神经元组成的“感知器(Perceptron)”模型。感知机模型如图2.2所示:图2.2感知机模型
基于深度自编码的局部增强网络表示学习研究及应用10感知机模型包含两层,分别是输入层和输出层。输入层里的神经元只负责接收数据,不做任何计算。输出层的神经元需要对输入层输入的数据利用激活函数进行计算,利用感知机能解决‘与’‘或’‘非’这类的线性分类问题,但不能够解决‘异或’这类非线性分类问题[54]。2.1.2两层及多层神经网络两层神经网络的提出解决了非线性分类问题,两层神经网络模型如图2.3所示:图2.3两层神经网络模型两层神经网络模型可分为三层,即输入层,隐藏层,输出层。每层神经元只与下一层神经元以全相连的方式连接。同层神经元之间互不连接,跨层神经元之间也互不连接。其中输入层神经元只负责接收数据,不做任何计算。隐藏层和输出层对数据进行计算。增加一个隐层得到的两层神经网络可以解决非线性分类问题。更一般的,常见的神经网络如图2.4所示,该模型也称为单隐层前馈神经网络。图2.4单隐层前馈神经网络单隐层前馈神经网络的“前辣指的是网络链接结构中不存在环或回路。单隐层前馈神经网络模型要求输入层和输出层神经元个数相同,而对隐藏层神经元个数无任何要求。并且该模型具有更好的非线性分类效果。顾名思义,多层前馈神经网络指的是具有多个隐层的前馈神经网络。图2.5是一种代表性的多层前馈神经网络模型。
【参考文献】:
期刊论文
[1]集成相空间重构与稀疏自编码的振动信号分解方法[J]. 杜灿谊,林祖胜,喻菲菲,张绍辉. 机械设计与制造. 2019(08)
[2]基于栈式稀疏自编码多特征融合的快速手势识别方法[J]. 强彦,董林佳,赵涓涓,张婷. 北京理工大学学报. 2019(06)
[3]网络表示学习算法的分析与验证[J]. 王岩,唐杰. 中文信息学报. 2019(02)
[4]一种基于深度学习的混合推荐算法[J]. 曾旭禹,杨燕,王淑营,何太军,陈剑波. 计算机科学. 2019(01)
[5]基于卷积稀疏自编码的图像超分辨率重建[J]. 张秀,周巍,段哲民,魏恒璐. 红外与激光工程. 2019(01)
[6]保持Motif结构的网络表示学习[J]. 许磊,黄玲,王昌栋. 计算机科学与探索. 2019(08)
[7]一种融合节点文本属性信息的网络表示学习算法[J]. 刘正铭,马宏,刘树新,杨奕卓,李星. 计算机工程. 2018(11)
[8]基于深度收缩自编码网络的飞行员疲劳状态识别[J]. 韩霜,吴奇,孙礼兵,裘旭益,任和,卢钊. 生物医学工程学杂志. 2018(03)
[9]基于降噪自编码的电能质量扰动识别[J]. 肖露欣,李增祥,马建,陈克绪,吴建华. 南昌大学学报(理科版). 2017(06)
[10]一种融合节点先验信息的图表示学习方法[J]. 温雯,黄家明,蔡瑞初,郝志峰,王丽娟. 软件学报. 2018(03)
博士论文
[1]属性网络的半监督学习方法研究[D]. 王绍凯.哈尔滨工业大学 2018
硕士论文
[1]基于深度自编码的多癌症分子分型建模与分析[D]. 余淼.华中科技大学 2016
[2]神经网络控制的FPGA研究与应用[D]. 韩少锋.大连海事大学 2005
本文编号:3224321
本文链接:https://www.wllwen.com/kejilunwen/ruanjiangongchenglunwen/3224321.html