高维线性回归的变量选择和成对化筛选
【文章页数】:66 页
【学位级别】:硕士
【部分图文】:
图2.?2岭回归的几何解释??瓜为OLS估计,札和/?2分别是取不同的;I值时所得到的解
?变量选择方法研宄现状???=?\\(XtX?+?AI)-\XtX)P〇ls\\??=||(XTX?+?Aiy^X^?+?A/?-?U)P〇LS\\??=?\\i-?i(<xTx+xirip0LS\\??<?IIW.??从几何角度理解岭回归会更加直观,由凸优化的知识,岭回归的目标....
图2.?3三种不同方法应用坐标下降法的迭代函数图像??在LARS法中,各个协变量最多使用一次,并且给出了每一步的步长,因此??
现过程,具体来说,一开始由于未选入变量,残差就为y,第一??步会选择与相应变量相关性最高(夹角最小)的协变量方向在该方向上移动??步长&,使得新的残差向量y?-?与&和除七之外相关性最大的协变量的相关??性相等,再以上述残差向量方向为新的搜索方向进行移动,直到残差向量y-??满足....
图2.?4?LASSO、岭回归和桥回归的几何表现??总结上述三种方法,LASSO在很大程度上可以进行变量选择(凡=0或馬=??
??黑色的点即为轮廓线和约束线“相切”的点,也就是正则估计。注意到在LASSO??和桥回归中,约束线在0处不是连续可导的,在坐标轴上有尖点,而岭回归的圆??形没有尖点。当椭圆形移动时,有尖点的图形更容易被碰到,此时对应的参数估??计即为0,从而达到了变量选择的目的;而与圆形相切与....
图2.?5五种正则化方法的罚函数??关于贝叶斯变量选择方法有大量的文献
?变量选择方法研宄现状???图2.?5展示了三种凸函数正则法和两种非凸函数正则法的罚项,可以清晰地??表示出它们的区别。除了这些方法,还有Dantzig选择器如7_;等,全面??概述参见[Fan?and?Li.?20?JOJ。??在变量选择这一范畴中还有许多不同的方法。例如贝叶斯....
本文编号:3933264
本文链接:https://www.wllwen.com/shoufeilunwen/benkebiyelunwen/3933264.html