基于多尺度核加权融合的支持向量机核函数优化方法的研究
本文选题:支持向量机 + 核函数 ; 参考:《杭州电子科技大学》2017年硕士论文
【摘要】:支持向量机是以统计学习理论作为其基础并且以结构风险最小化作为其遵循的准则,它通过结构风险最小化来同时控制学习机器的复杂度以及学习机器的学习能力。支持向量机在解决高维非线性的小样本的机器学习的问题具有非常大的优势,它没有传统机器学习方法存在的很多的问题,比如局部极值、过拟合等。支持向量机从提出到现在得到了广泛的应用与发展,但是,它依然存在一些问题,对于如何优化选择核函数以及优化选择相关的参数、如何利用多尺度核学习方法等,还没有完善统一的模式去遵循。因此,从SVM核函数的优化选择、SVM的参数优化选择、多尺度核学习等方面进行研究是非常必要而且有意义的。所以,本文从以上三个方面进行详细深入的研究,在核函数度量方法的基础上做出了一些改进,在不增加原有算法复杂度的情况下,选择出性能最好的核函数,来提高SVM算法的泛化性能和推广能力。本文做了以下四个方面的工作:(1)研究了机器学习理论、统计学习理论、支持向量机理论等,详细叙述了由最优超平面的最小间分隔得到SVM的算法的数学模型。再由算法的数学模型推导出线性SVM的具体算法,以及通过核函数将线性SVM推广到非线性SVM。(2)重点研究了核函优化选择的方法,特别是独立于SVM算法的核度量方法,分析了常用的核函数度量方法如核度量准则、核极化准则、推广的多类核极化准则,这些方法独立于具体的算法不需要训练支持向量机,算法简单复杂度低,并且能很好的选择出核函数,是一种很有效的核函数选择方法。(3)介绍多核学习的方法,可以发现多核学习方法比单核学习方法性能好,多尺度核学习方法是多核学习方法的一种,灵活性好。在借鉴了核度量方法和多尺度核学习方法的优点之后,提出了一种多尺度核加权融合优化的学习方法,给出了理论的分析和证明。(4)将本文提出的方法在六种经典的图像数据集上进行实验。首先,验证了加权融合的多尺度核优化学习的方法可以很好的选择出泛化性能好的加权融合的多尺度核。然后,将选择出来的加权融合的多尺度核结合支持向量机算法和选择高斯核函数的标准支持向量机、直推式支持向量机、拉普拉斯支持向量机、最近邻算法做比较,发现本文提出的方法识别率和稳定性都比较高,具有较大的优越性。
[Abstract]:Support vector machine (SVM) is based on statistical learning theory and followed by structural risk minimization. It controls the complexity of learning machine and learning ability of learning machine simultaneously through structural risk minimization. Support vector machine (SVM) has a great advantage in solving the problem of high dimensional nonlinear small sample machine learning. It does not have many problems existing in traditional machine learning methods such as local extremum over-fitting and so on. Support vector machine (SVM) has been widely used and developed since it was put forward. However, it still has some problems, such as how to optimize the selection of kernel functions and parameters, how to use multi-scale kernel learning methods, etc. There is no perfect and unified model to follow. Therefore, it is necessary and meaningful to study the optimization of SVM kernel function and the optimization of SVM parameters and multi-scale kernel learning. Therefore, this paper makes a detailed and in-depth study from the above three aspects, makes some improvements on the basis of the kernel function measurement method, and selects the kernel function with the best performance without increasing the complexity of the original algorithm. To improve the generalization performance and generalization ability of SVM algorithm. In this paper, the following four aspects have been done: (1) the machine learning theory, statistical learning theory, support vector machine theory and so on are studied, and the mathematical model of the SVM algorithm obtained from the minimum separation of the optimal hyperplane is described in detail. Then the specific algorithm of linear SVM is derived from the mathematical model of the algorithm, and the linear SVM is extended to nonlinear SVMby kernel function. (2) the kernel function optimization method, especially the kernel metric independent of SVM algorithm, is studied emphatically. The kernel function metrics such as kernel metrics, kernel polarization criteria and generalized multi-class kernel polarization criteria are analyzed. These methods are independent of specific algorithms and do not require training support vector machines (SVM). It is a very effective method to select kernel function. (3) introducing the method of multi-kernel learning, we can find that the performance of multi-kernel learning method is better than that of single core learning method. Multi-scale kernel learning method is one of multi-kernel learning methods, which has good flexibility. After learning from the advantages of kernel metric and multi-scale kernel learning, a learning method of multi-scale kernel weighted fusion optimization is proposed. The theoretical analysis and proof are given. (4) the proposed method is tested on six classical image data sets. First of all, it is verified that the weighted fusion multi-scale kernel optimization learning method can select the weighted fusion multi-scale kernel with good generalization performance. Then, the weighted fusion multi-scale kernel is combined with the support vector machine algorithm and the standard support vector machine, the direct push support vector machine, the Laplace support vector machine and the nearest neighbor algorithm are compared with the standard support vector machine, the direct support vector machine, the Laplace support vector machine and the nearest neighbor algorithm. It is found that the method proposed in this paper has higher recognition rate and higher stability.
【学位授予单位】:杭州电子科技大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP181
【相似文献】
相关期刊论文 前10条
1 邹斌,李落清;支持向量机回归与v-支持向量机分类解的关系[J];湖北大学学报(自然科学版);2004年01期
2 吴娟;范玉妹;王丽;;关于改进的支持向量机的研究[J];攀枝花学院学报;2006年05期
3 刘硕明;刘佳;杨海滨;;一种新的多类支持向量机算法[J];计算机应用;2008年S2期
4 尹传环;牟少敏;田盛丰;黄厚宽;;单类支持向量机的研究进展[J];计算机工程与应用;2012年12期
5 王云英;阎满富;;C-支持向量机及其改进[J];唐山师范学院学报;2012年05期
6 李逢焕;;试述不确定支持向量机应用分析及改进思路[J];中国证券期货;2012年12期
7 邵惠鹤;支持向量机理论及其应用[J];自动化博览;2003年S1期
8 曾嵘,蒋新华,刘建成;基于支持向量机的异常值检测的两种方法[J];信息技术;2004年05期
9 张凡,贺苏宁;模糊判决支持向量机在自动语种辨识中的研究[J];计算机工程与应用;2004年21期
10 魏玲,张文修;基于支持向量机集成的分类[J];计算机工程;2004年13期
相关会议论文 前10条
1 余乐安;姚潇;;基于中心化支持向量机的信用风险评估模型[A];第六届(2011)中国管理学年会——商务智能分会场论文集[C];2011年
2 刘希玉;徐志敏;段会川;;基于支持向量机的创新分类器[A];山东省计算机学会2005年信息技术与信息化研讨会论文集(一)[C];2005年
3 史晓涛;刘建丽;骆玉荣;;一种抗噪音的支持向量机学习方法[A];全国第19届计算机技术与应用(CACIS)学术会议论文集(下册)[C];2008年
4 何琴淑;刘信恩;肖世富;;基于支持向量机的系统辨识方法研究及应用[A];中国力学大会——2013论文摘要集[C];2013年
5 刘骏;;基于支持向量机方法的衢州降雪模型[A];第五届长三角气象科技论坛论文集[C];2008年
6 王婷;胡秀珍;;基于组合向量的支持向量机方法预测膜蛋白类型[A];第十一次中国生物物理学术大会暨第九届全国会员代表大会摘要集[C];2009年
7 赵晶;高隽;张旭东;谢昭;;支持向量机综述[A];全国第十五届计算机科学与技术应用学术会议论文集[C];2003年
8 周星宇;王思元;;智能数学与支持向量机[A];2005年中国智能自动化会议论文集[C];2005年
9 颜根廷;马广富;朱良宽;宋斌;;一种鲁棒支持向量机算法[A];2006中国控制与决策学术年会论文集[C];2006年
10 侯澍e,
本文编号:2051452
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2051452.html