求解大规模机器学习问题的优化方法
发布时间:2020-12-20 07:51
科学技术的飞速发展为数据采集带来了便利,各行各业都产生了大量的高维数据.但是,这些数据往往包含大量的冗杂信息,如何处理这些数据,将数据信息进行有效分类,并剔除冗余,进一步从中提取有用的信息已成为机器学习中最基本也是最重要的问题.而机器学习中很多问题的求解最终都归结为求解大规模优化问题.本文基于机器学习这一热点话题,研究“正则化项+损失函数”的机器学习算法框架.我们将上述问题分两类情况进行讨论,即光滑经验损失问题和结构风险最小化问题两种情形.对这两类问题的求解,本文主要使用随机优化方法,具体安排如下:对于光滑的经验损失函数问题,我们在已有随机梯度法的基础上进行改进.由于随机梯度法受噪声梯度估计的影响,当使用固定步长时,它无法收敛到最优解,即使取递减步长,它也只能满足缓慢的次线性收敛.对此,我们探讨了两种方法.其一,我们探究了一种随机梯度降噪法随机受控的随机梯度法(SCSG).该方法在随机方差减少梯度(SVRG)方法的基础上使用自动参数调整系统.其收敛性与SVRG方法相似,但其计算复杂度较SVRG大大降低,而且所需的存储空间也大大减少.其二,我们探究了一种修正的随机L-BFGS方法,该方法...
【文章来源】:贵州大学贵州省 211工程院校
【文章页数】:51 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
第一章 绪论
1.1 研究背景
1.2 研究目的及意义
1.3 国内外研究现状
1.4 内容结构安排
第二章 预备知识
2.1 大规模机器学习问题的基本模型
2.2 相关概念
2.3 基本方法简述
2.3.1 批梯度与随机梯度下降法
2.3.2 随机牛顿法
第三章 光滑经验损失问题的优化方法
3.1 随机梯度法的降噪方法
3.1.1 SVRG方法的基本思想
3.1.2 随机受控的随机梯度(SCSG)方法的导出
3.2 修正的随机L-BFGS方法
3.2.1 拟牛顿法的基本原理
3.2.2 随机L-BFGS方法的导出
3.2.3 随机L-BFGS方法的收敛性分析
3.3 数值分析及分析
3.3.1 SCSG方法的数值实验比较与分析
3.3.2 SL-BFGS方法的数值实验比较与分析
第四章 结构风险最小化问题的优化方法
4.1 邻近随机L-BFGS方法
4.1.1 邻近随机L-BFGS算法的基本思想
4.1.2 邻近随机L-BFGS算法的收敛性分析
4.1.3 小结
4.2 随机次梯度镜面下降方法
4.2.1 镜面下降算法的基本原理
4.2.2 随机镜面下降算法的基本思想
4.2.3 算法的收敛性分析
4.2.4 小结
第五章 总结与展望
5.1 工作总结
5.2 展望
参考文献
致谢
附录 :攻读硕士学位期间的研究成果
【参考文献】:
期刊论文
[1]使用Nesterov步长策略投影次梯度方法的个体收敛性[J]. 陶蔚,潘志松,储德军,陶卿. 计算机学报. 2018(01)
[2]稀疏学习优化问题的求解综述[J]. 陶卿,高乾坤,姜纪远,储德军. 软件学报. 2013(11)
[3]求解大规模优化问题的有限内存SR-1方法[J]. 吴淦洲. 茂名学院学报. 2010(06)
本文编号:2927503
【文章来源】:贵州大学贵州省 211工程院校
【文章页数】:51 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
第一章 绪论
1.1 研究背景
1.2 研究目的及意义
1.3 国内外研究现状
1.4 内容结构安排
第二章 预备知识
2.1 大规模机器学习问题的基本模型
2.2 相关概念
2.3 基本方法简述
2.3.1 批梯度与随机梯度下降法
2.3.2 随机牛顿法
第三章 光滑经验损失问题的优化方法
3.1 随机梯度法的降噪方法
3.1.1 SVRG方法的基本思想
3.1.2 随机受控的随机梯度(SCSG)方法的导出
3.2 修正的随机L-BFGS方法
3.2.1 拟牛顿法的基本原理
3.2.2 随机L-BFGS方法的导出
3.2.3 随机L-BFGS方法的收敛性分析
3.3 数值分析及分析
3.3.1 SCSG方法的数值实验比较与分析
3.3.2 SL-BFGS方法的数值实验比较与分析
第四章 结构风险最小化问题的优化方法
4.1 邻近随机L-BFGS方法
4.1.1 邻近随机L-BFGS算法的基本思想
4.1.2 邻近随机L-BFGS算法的收敛性分析
4.1.3 小结
4.2 随机次梯度镜面下降方法
4.2.1 镜面下降算法的基本原理
4.2.2 随机镜面下降算法的基本思想
4.2.3 算法的收敛性分析
4.2.4 小结
第五章 总结与展望
5.1 工作总结
5.2 展望
参考文献
致谢
附录 :攻读硕士学位期间的研究成果
【参考文献】:
期刊论文
[1]使用Nesterov步长策略投影次梯度方法的个体收敛性[J]. 陶蔚,潘志松,储德军,陶卿. 计算机学报. 2018(01)
[2]稀疏学习优化问题的求解综述[J]. 陶卿,高乾坤,姜纪远,储德军. 软件学报. 2013(11)
[3]求解大规模优化问题的有限内存SR-1方法[J]. 吴淦洲. 茂名学院学报. 2010(06)
本文编号:2927503
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2927503.html