矩阵分解相关模型的优化算法研究
发布时间:2024-07-08 20:16
矩阵分解的原理是将原始数据矩阵分解成多个矩阵的乘积,其作用是数据降维或者超完备基的学习。然而,传统的矩阵分解算法存在很多不足,第一,容易陷入局部解,而无法搜素到全局最优解;第二,对于各个子问题优化存在收敛慢、计算量大和精度差等问题。因此,本文提出收敛快、计算量小、精度高以及能搜索到全局解的多个算法,理论和实验证实了这些算法的可行性和有效性。除了对矩阵分解问题的优化算法进行研究以外,本文还要研究如何将矩阵分解有效地应用到实际问题。基于矩阵分解的思想,本文提出了监督性学习方法,该方法可以很好应用于图像识别。我们的创新点如下:·提出基于惯性神经网络求解非负矩阵分解的一类算法,通过Lyapunov泛函知识证明惯性神经网络系统的稳定性,且收敛到全局最优解。相对于传统算法而言,该算法的优势在于通过调节神经网络的惯性项,从而搜索到全局最优解。·提出基于估计序列优化来理论求解非负矩阵分解的一类算法:即通过Nesterov的凸优理论对两个带约束凸二次规划问题进行交替优化。相对于传统算法而言,该类算法的优势在于各子问题的算法收敛率为O(1/k2),且拥有收敛快,计算量小和精度高的特点...
【文章页数】:103 页
【学位级别】:博士
【部分图文】:
本文编号:4003818
【文章页数】:103 页
【学位级别】:博士
【部分图文】:
图1.1本文研究的内容和应用范围用一个惯性神经网络系统直接优化非负矩阵分解,第二,采用两个惯性神经网络系统交替优化非负矩阵分解
图1.1本文研究的内容和应用范围性神经网络系统直接优化非负矩阵分解,第二,采交替优化非负矩阵分解。通过信号处理实验证明,,我们提出的算法在盲源分离中可以获得更好分离化算法求解非负矩阵分解各子问题存在收敛慢、计,本文将Nesterov的估计序列理论应用于求解非,使其各个子问....
图5.1LDA示意图:红点表示0类,蓝点表示1类,图中分类直线为y=wTx
即每行减少对应行的均值C=1mˉXˉXT,并计算出其对应的特征对应的特征值大小,从大到小排列,,其降维后的数据为Y=PZ。LDA)(LinearDiscriminantAnalysis,LD法,其有关的理论最开始由Fish提,试着将样本集投影到直线上,使投影位置....
本文编号:4003818
本文链接:https://www.wllwen.com/kejilunwen/yysx/4003818.html