当前位置:主页 > 经济论文 > 银行论文 >

基于机器学习算法的巨灾债券风险息差定价

发布时间:2021-03-09 01:02
  巨灾债券风险息差的实证研究目前已经相对成熟,但具体模型形式和变量选择依然存在一定的争议.将采用地震巨灾债券发行数据,建立巨灾债券的风险息差定价模型,分析风险息差的主要影响因素.首先,构建广义线性模型,发现本文提出的Logit风险附加值效果优异.然后,将广义线性模型的估计结果嵌入深度神经网络,提高广义线性模型的预测能力,同时提高神经网络的迭代效率.最后,比较了深度神经网络、嵌入广义线性模型的深度神经网络、随机森林、XGBoost以及支持向量回归等机器学习算法的定价效果,结果表明支持向量回归对巨灾债券风险息差的预测效果最佳.实证结果表明基于机器学习算法的巨灾债券定价模型明显优于传统回归模型,建议采用支持向量回归算法对巨灾债券风险息差进行定价. 

【文章来源】:数学的实践与认识. 2020,50(20)北大核心

【文章页数】:11 页


本文编号:3071973

资料下载
论文发表

本文链接:https://www.wllwen.com/jingjilunwen/huobiyinxinglunwen/3071973.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户fbc99***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com