基于深度神经网络的无袖带血压建模方法研究
发布时间:2021-07-06 21:15
连续血压的监测对于高血压人群的诊断和管理具有重要的意义,进而对于某些特定人群如心律失常患者的重大疾病风险也具有调控和预警作用。袖带式血压计间歇式测量的方式,无法满足血压连续和长期监测的需要。现存的无创血压方法需要人工提取特征,由于个体化差异过大往往导致模型的精度不足或适用范围有限,难以满足不同人群血压监测的需求。已有的少量文章显示了深度学习在这一领域的潜力和可行性,凭借其自动化的特征学习和表达能力,有望实现对更广泛人群血压的精准估计,还可为可穿戴设备的血压测量功能提供理论基础和原型;DNN(Deep Neural Network,深度神经网络)不同维度的特征表达,也从模型的角度为揭示体表生理信号与人体内部有创血压之间的内在联系提供了新的可能。针对上述问题,本文研究基于深度神经网络的血压估计方法,分别针对MIMIC-III公共数据库(Medical Information Mart for Intensive Care III,重症监护医学信息数据库III)和阜外医院心律失常患者手术前采集的数据建立了血压估计模型。本论文主要内容包括以下几方面:1.提出了基于深度神经网络的穿戴式连续血压建...
【文章来源】:中国科学院大学(中国科学院深圳先进技术研究院)广东省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
CNAP连续血压测量装置
PTT与PWV的测量[9]
基于深度神经网络的无袖带血压建模方法研究10ReLU(x)=max(0,)...........................................................(2.3)Sigmoid函数对于0附近的数值变化敏感,值域在[0,1]区间。Tanh函数与Sigmoid函数类似,但其值域扩展到了[-1,1]区间,易知Tanh(x)=2·Sigmoid(x)1............................................(2.4)ReLU函数(RectifierLinearFunction)意为整流器线性函数,公式(2.3)中的max意为取两者之间的最大值。当输入值小于等于0时,输出值为0,当输入值大于0时,输出值等于输入值,导数恒等于1。相比前两者,ReLU函数计算简单,便于求导,广泛用于各类深度网络。2.1.2反向传播与优化算法在前馈(FeedForward)网络中,信息由输入层开始,层层向前传递至输出层,直至输出预测值与目标的偏差,获得损失函数(LossFunction)的值。模型训练的目的即是使损失函数的值减小,直至逼近其最小值,而使模型的输出无限接近目标。其梯度下降的方向,即是损失函数减小的方向,而直接对其求导只能获得损失函数相对于输出层权重的梯度,需要通过链式求导法则一步一步求出之前每一层权重的梯度,直至求出损失函数相对于网络所有权重的梯度,这个过程称为反向传播(Backpropagation)[25]。在反向传播的基础上,以一定的学习率(LearningRate)不断更新模型的权重,使其梯度不断下降,损失函数的值不断减小,称为模型的优化(Optimization)。常见的优化算法包括SGD(StochasticGradientDescent,随机梯度下降算法)[26],AdaGrad(AdaptiveGradient,自适应梯度算法)[27],+221133+激活函数图2.2神经元Figure2.2Neuron
本文编号:3268984
【文章来源】:中国科学院大学(中国科学院深圳先进技术研究院)广东省
【文章页数】:63 页
【学位级别】:硕士
【部分图文】:
CNAP连续血压测量装置
PTT与PWV的测量[9]
基于深度神经网络的无袖带血压建模方法研究10ReLU(x)=max(0,)...........................................................(2.3)Sigmoid函数对于0附近的数值变化敏感,值域在[0,1]区间。Tanh函数与Sigmoid函数类似,但其值域扩展到了[-1,1]区间,易知Tanh(x)=2·Sigmoid(x)1............................................(2.4)ReLU函数(RectifierLinearFunction)意为整流器线性函数,公式(2.3)中的max意为取两者之间的最大值。当输入值小于等于0时,输出值为0,当输入值大于0时,输出值等于输入值,导数恒等于1。相比前两者,ReLU函数计算简单,便于求导,广泛用于各类深度网络。2.1.2反向传播与优化算法在前馈(FeedForward)网络中,信息由输入层开始,层层向前传递至输出层,直至输出预测值与目标的偏差,获得损失函数(LossFunction)的值。模型训练的目的即是使损失函数的值减小,直至逼近其最小值,而使模型的输出无限接近目标。其梯度下降的方向,即是损失函数减小的方向,而直接对其求导只能获得损失函数相对于输出层权重的梯度,需要通过链式求导法则一步一步求出之前每一层权重的梯度,直至求出损失函数相对于网络所有权重的梯度,这个过程称为反向传播(Backpropagation)[25]。在反向传播的基础上,以一定的学习率(LearningRate)不断更新模型的权重,使其梯度不断下降,损失函数的值不断减小,称为模型的优化(Optimization)。常见的优化算法包括SGD(StochasticGradientDescent,随机梯度下降算法)[26],AdaGrad(AdaptiveGradient,自适应梯度算法)[27],+221133+激活函数图2.2神经元Figure2.2Neuron
本文编号:3268984
本文链接:https://www.wllwen.com/shoufeilunwen/mpalunwen/3268984.html