当前位置:主页 > 文艺论文 > 广告艺术论文 >

非凸规划全局优化问题的填充函数法及其应用

发布时间:2021-01-22 02:40
  最优化在实际生活中应用十分广泛,故对全局优化问题的相关理论和方法的研究受到了高度的重视.其中非凸规划全局优化问题的局部极小点一般是多个,即求解全局极小点是一个十分困难的问题,而填充函数法是一类有效求解全局优化问题的确定性算法,它是在局部极小化算法的基础上结合填充函数进行改造的,故近些年填充函数法深受学者们的欢迎.本文主体内容分为六个部分,重点研究了一类特殊非凸规划问题的全局最优性条件和无约束全局优化问题的填充函数法及其应用.第一章,首先对全局优化问题的研究背景、以及全局优化填充函数法和非凸规划问题的全局最优性条件的研究现状进行介绍,最后阐述本文整体的研究目的和工作.第二章,针对带箱子约束的凸函数与多项式函数的差的这种特殊形式的规划问题,对其最优性条件进行研究,主要思想是先刻画出该规划问题的-次微分形式,结合-次微分和-正则锥的方法给出两种不同形式的全局最优充分性条件,并推导出其全局最优必要性条件.将其用来求解相应的数值算例,其中这些算例的全局极小点由随机算法先得到,最后通过计算证明该最优性条件是可行的.第三章,针对无约束全局极小化问题,本章重新构造一个单参数填充函数,其形式不含有指数和... 

【文章来源】:浙江师范大学浙江省

【文章页数】:63 页

【学位级别】:硕士

【部分图文】:

非凸规划全局优化问题的填充函数法及其应用


算例

函数图像,激活函数,函数


36激活函数和交叉熵损失函数,内容如下:激活函数[60]在神经网络模型的学习中,激活函数被用来理解复杂非线性函数时有十分重要的作用,引进激活函数可以将激活函数的非线性特征引入到神经网络中,使得神经网络学会对原始数据做非线性变换.如果不引入激活函数,那么即使是深层的神经网络,最终也只有一层的效果,因此使用激活函数使神经网络可以任意逼近任何的非线性函数.激活函数的种类有多种,如Sigmoid函数、Tanh函数、Softmax函数和Relu函数等.这两年在深层复杂的卷积神经网络中常用到Relu函数,如下图5.1(a)所示,其中函数形式为::()=(0,),(5.1)该函数在自变量小于0时函数值为0,自变量大于0时,呈线性关系,且无论是神经网络的正向传播还是反向传播,Relu函数运行速度都要快很多.而本节要引入的激活函数为简单的Sigmoid函数,如图5.1(b)所示,其中函数形式为::()=11+,(5.2)如图5.1(b)可知其函数图像及其反函数为单增函数,常被用作为阈值函数,其取值范围为(0,1),可以将实数映射到(0,1)区间,Sigmoid函数更适合用来做二分类问题.(a)Relu函数(b)Sigmoid函数图5.1:激活函数交叉熵损失函数[61]交叉熵损失函数常被用来计算预测结果与真实结果之间的差别,其函数表达形式为:=1∑=1[(())+(1)(1())],(5.3)其中()为上述激活函数的输出结果,即0-1之间的概率值;代表第个分量的真实值.由交叉熵损失函数可以看出,当=0时,=1(1()),此时该函数为单调增函数,即预测输出值()越接近0,损失函数越小,则预测值与真实值之间的差距越小.

关系图,函数关系,销售量,广告费


第五章全局优化填充函数法的应用41(a)售价与预期销售量关系图(b)销售增长因子与广告费关系图图5.2:函数关系图其中系数,,是待定参数.投入广告费后,我们从表5.4中可以看出,投入5万元的广告费用后,销售增长因子为2,也就是说当加入广告后,彩漆的销售量是未加广告时销售量的2倍,可以得知实际销售量=预期销售量×销售增长因子,即=·.则所得到:利润=总收入-成本-广告费,因此得=2=(2)=(2)=(2)(+)(2++),我们希望该公司利润达到最大化,即该问题转化为求解以下模型:(1)=(2)(+)(2++)..>0,>0,(5.11)在求解全局优化模型中,我们的优化算法都是针对极小化模型进行求解,因此这里将模型(1)转化为以下极小化模型,令=,则得(2)=(2)(+)(2++)..>0,>0.(5.12)由上述图5.2(a),我们通过SPSS软件对表1中的数据进行拟合以后,可以得出预期销售量与售价之间的函数关系:=0.51+5.04,(5.13)


本文编号:2992385

资料下载
论文发表

本文链接:https://www.wllwen.com/wenyilunwen/guanggaoshejilunwen/2992385.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户7d4a1***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com