基于λ-递增函数的样本学习
发布时间:2018-04-14 01:00
本文选题:神经网络 + 网络结构 ; 参考:《数学理论与应用》2016年04期
【摘要】:在理论研究和实际应用中,神经网络的结构问题一直是个难点.本文利用Vugar E.Ismailov近期的研究成果,讨论了神经网络对样本点的学习问题.结果表明,利用λ-严格递增函数,只需两个隐层节点,就可以学会任意给定的样本集.同时讨论了在隐层节点中使用通常的Sigmoid函数与使用λ-严格递增函数作为活化函数的差别.
[Abstract]:In theoretical research and practical application, the structure of neural network has been a difficult problem.In this paper, using the recent research results of Vugar E.Ismailov, we discuss the learning problem of neural networks for sample points.The results show that any given sample set can be learned by using 位-strictly incremental function with only two hidden layer nodes.At the same time, the difference between the usual Sigmoid function and 位 -strict increment function as activation function in hidden layer node is discussed.
【作者单位】: 上海理工大学管理学院;
【分类号】:TP183
【参考文献】
相关期刊论文 前2条
1 赵娣;田大钢;;三元XOR问题的神经网络学习[J];数学理论与应用;2015年03期
2 田大钢;前馈神经网络的学习能力[J];系统工程理论与实践;2004年11期
【共引文献】
相关期刊论文 前4条
1 李晶晶;田大钢;;基于λ-递增函数的样本学习[J];数学理论与应用;2016年04期
2 谢秋菊;苏中滨;刘佳荟;郑萍;马铁民;王雪;;基于L-M优化算法的猪舍氨气浓度预测模型研究[J];东北农业大学学报;2014年10期
3 田大钢;;关于多层前馈神经网络学习能力的一个注记[J];数学的实践与认识;2009年23期
4 朱青;刘宇辉;;一种面向领域的组件质量度量算法[J];北京工业大学学报;2007年01期
【二级参考文献】
相关期刊论文 前2条
1 田大钢;;关于多层前馈神经网络学习能力的一个注记[J];数学的实践与认识;2009年23期
2 田大钢,费奇;多元插值、多模式现象和无关信息的认定[J];系统工程与电子技术;1998年06期
,本文编号:1746981
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/1746981.html