基于一致性的分布式鲁棒凸优化问题研究
发布时间:2022-10-18 18:06
本文对基于一致性的分布式鲁棒凸优化问题进行了学习研究.对于鲁棒凸优化问题,由于其约束中的不确定性,使其难以进行数值上的求解,而SA(Scenario Approach)的提出解决了这一问题.SA通过从原问题的约束中独立同分布地抽取有限个约束的方法得到原问题的概率近似问题SP(Scenario Problem),且SP是标准的可求解的凸优化问题.显然,SA采样数量越多,SP越能概率近似鲁棒凸优化,而采样数量的增加对单一处理器的性能要求也增加.分布式学习就能解决大规模样本的问题,将采集的大规模样本分配到多个节点上进行处理,分配到各个节点间的样本不存在交互,在处理的过程中通过节点构成的网络进行信息的交互从而达到一致.基于上述背景的调查和分析,本文针对基于一致性的分布式鲁棒凸优化问题展开了研究与讨论,研究内容包括基于DAC(Distributed Average Consensus)的分布式鲁棒凸优化,基于主节点的ADMM(Alternating Direction Method of Multipliers)求解分布式鲁棒凸优化和基于从节点的ADMM求解分布式鲁棒凸优化,具体如下:1.基于D...
【文章页数】:61 页
【学位级别】:硕士
【文章目录】:
致谢
摘要
abstract
1 绪论
1.1 研究背景及意义
1.1.1 鲁棒凸优化
1.1.2 分布式学习
1.2 国内外研究现状
1.2.1 鲁棒凸优化
1.2.2 分布式学习
1.3 本文内容和结构
2 基于SA(Scenario Approach)的鲁棒凸优化
2.1 引言
2.2 鲁棒凸优化模型
2.3 SA
2.4 分布式鲁棒凸优化
2.5 本章小结
3 分布式学习算法
3.1 引言
3.2 分布式一致平均
3.3 交替方向乘子法
3.3.1 对偶上升法
3.3.2 增广拉格朗日乘子法
3.3.3 交替方向乘子法
3.4 本章小结
4 基于DAC的分布式鲁棒凸优化
4.1 引言
4.2 基于DAC的分布式学习
4.2.1 原始对偶次梯度算法
4.2.2 算法总体流程
4.3 基于EDAC的分布式学习
4.4 收敛性分析
4.5 实验结果与分析
4.5.1 实验数据
4.5.2 实验结果
4.6 本章小结
5 基于主节点的ADMM求解分布式鲁棒凸优化
5.1 引言
5.2 基于ADMM的分布式学习
5.3 算法总体流程
5.4 本章小结
6 基于从节点的ADMM求解分布式鲁棒凸优化
6.1 引言
6.2 基于ADMM的分布式学习
6.3 算法总体流程
6.4 收敛性分析
6.5 实验结果与分析
6.5.1 实验数据
6.5.2 实验结果
6.6 本章小结
7 结论与展望
7.1 研究总结
7.2 进一步需要开展的工作
参考文献
作者简历
本文编号:3692797
【文章页数】:61 页
【学位级别】:硕士
【文章目录】:
致谢
摘要
abstract
1 绪论
1.1 研究背景及意义
1.1.1 鲁棒凸优化
1.1.2 分布式学习
1.2 国内外研究现状
1.2.1 鲁棒凸优化
1.2.2 分布式学习
1.3 本文内容和结构
2 基于SA(Scenario Approach)的鲁棒凸优化
2.1 引言
2.2 鲁棒凸优化模型
2.3 SA
2.4 分布式鲁棒凸优化
2.5 本章小结
3 分布式学习算法
3.1 引言
3.2 分布式一致平均
3.3 交替方向乘子法
3.3.1 对偶上升法
3.3.2 增广拉格朗日乘子法
3.3.3 交替方向乘子法
3.4 本章小结
4 基于DAC的分布式鲁棒凸优化
4.1 引言
4.2 基于DAC的分布式学习
4.2.1 原始对偶次梯度算法
4.2.2 算法总体流程
4.3 基于EDAC的分布式学习
4.4 收敛性分析
4.5 实验结果与分析
4.5.1 实验数据
4.5.2 实验结果
4.6 本章小结
5 基于主节点的ADMM求解分布式鲁棒凸优化
5.1 引言
5.2 基于ADMM的分布式学习
5.3 算法总体流程
5.4 本章小结
6 基于从节点的ADMM求解分布式鲁棒凸优化
6.1 引言
6.2 基于ADMM的分布式学习
6.3 算法总体流程
6.4 收敛性分析
6.5 实验结果与分析
6.5.1 实验数据
6.5.2 实验结果
6.6 本章小结
7 结论与展望
7.1 研究总结
7.2 进一步需要开展的工作
参考文献
作者简历
本文编号:3692797
本文链接:https://www.wllwen.com/kejilunwen/yysx/3692797.html