基于深度学习的潜在抗HIV活性分子生成新方法研究
发布时间:2021-01-03 09:22
艾滋病是对人类危害最大的疾病之一,由感染HIV引起。现阶段在全球范围内仍然缺乏有效治愈艾滋病的方法,抗HIV药物是防治艾滋病最有效的手段之一。HIV具有耐药性,因此需要不断发现新的抗HIV活性分子,以研制更多的抗HIV药物。本文对现有的新型药物设计方法进行改进,并采用两种不同的方法生成潜在抗HIV活性分子,以扩增潜在抗HIV活性分子库。本文为发现新的抗HIV活性分子提供了新思路,主要创新及工作内容包含以下几个方面:(1)搭建深度分子生成模型DGMM,旨在生成结构有效、新颖且性质无偏的分子。DGMM基于MLSTM、SRU、QRNN三种循环单元进行构造,采用源自ChEMBL的大型分子数据集进行训练。经过训练,基于MLSTM搭建的DGMM取得最优效果,其生成分子的平均有效性为98.31%,唯一性为99.93%,新颖性为89.33%,综合优于现有的化学语言模型。随后将最优DGMM生成的分子与训练集分子进行性质对比,实验结果表明DGMM生成的分子能够还原训练集分子的性质分布,验证了DGMM生成分子的性质无偏性。(2)搭建深度迁移分子生成模型T-DGMM,旨在生成潜在抗HIV活性分子,扩增潜在抗H...
【文章来源】:兰州大学甘肃省 211工程院校 985工程院校 教育部直属院校
【文章页数】:87 页
【学位级别】:硕士
【部分图文】:
Sigmoid函数及其导数图像
兰州大学硕士学位论文基于深度学习的潜在抗HIV活性分子生成新方法研究14()=+(2-2)tanh函数将输入映射为-1到1之间的输出,若输入为很大的正数,则输出为1;若输入为绝对值很大的负数,则输出为0。tanh函数和导数图像如图2-4所示。图2-4tanh函数及其导数图像tanh函数的输出是零中心的,在实际应用中效果比Sigmoid函数要好一些,并且收敛速度稍快;然而tanh函数也没有解决梯度消失问题;tanh函数可以在RNN单元内部作为门控使用。(3)Relu函数Relu函数在近年来广受欢迎,其定义如式(2-3)所示:()=max(0,)(2-3)Relu本质上是一个取最大值函数,其并不是全区间可导,但可以用次梯度(sub-gradient)方法进行解决。其函数和导数图像如图2-5所示。图2-5Relu函数及其导数图像Relu函数可以解决梯度消失问题,在正区间内神经元不会饱和;并且Relu非指数计算,在前向传播与反向传播中计算速度比Sigmoid和tanh快得多。但Relu函数同样不是零中心,并且学习率设置不当有可能会导致神经元死亡的情况,即权重无法更新。
兰州大学硕士学位论文基于深度学习的潜在抗HIV活性分子生成新方法研究14()=+(2-2)tanh函数将输入映射为-1到1之间的输出,若输入为很大的正数,则输出为1;若输入为绝对值很大的负数,则输出为0。tanh函数和导数图像如图2-4所示。图2-4tanh函数及其导数图像tanh函数的输出是零中心的,在实际应用中效果比Sigmoid函数要好一些,并且收敛速度稍快;然而tanh函数也没有解决梯度消失问题;tanh函数可以在RNN单元内部作为门控使用。(3)Relu函数Relu函数在近年来广受欢迎,其定义如式(2-3)所示:()=max(0,)(2-3)Relu本质上是一个取最大值函数,其并不是全区间可导,但可以用次梯度(sub-gradient)方法进行解决。其函数和导数图像如图2-5所示。图2-5Relu函数及其导数图像Relu函数可以解决梯度消失问题,在正区间内神经元不会饱和;并且Relu非指数计算,在前向传播与反向传播中计算速度比Sigmoid和tanh快得多。但Relu函数同样不是零中心,并且学习率设置不当有可能会导致神经元死亡的情况,即权重无法更新。
本文编号:2954733
【文章来源】:兰州大学甘肃省 211工程院校 985工程院校 教育部直属院校
【文章页数】:87 页
【学位级别】:硕士
【部分图文】:
Sigmoid函数及其导数图像
兰州大学硕士学位论文基于深度学习的潜在抗HIV活性分子生成新方法研究14()=+(2-2)tanh函数将输入映射为-1到1之间的输出,若输入为很大的正数,则输出为1;若输入为绝对值很大的负数,则输出为0。tanh函数和导数图像如图2-4所示。图2-4tanh函数及其导数图像tanh函数的输出是零中心的,在实际应用中效果比Sigmoid函数要好一些,并且收敛速度稍快;然而tanh函数也没有解决梯度消失问题;tanh函数可以在RNN单元内部作为门控使用。(3)Relu函数Relu函数在近年来广受欢迎,其定义如式(2-3)所示:()=max(0,)(2-3)Relu本质上是一个取最大值函数,其并不是全区间可导,但可以用次梯度(sub-gradient)方法进行解决。其函数和导数图像如图2-5所示。图2-5Relu函数及其导数图像Relu函数可以解决梯度消失问题,在正区间内神经元不会饱和;并且Relu非指数计算,在前向传播与反向传播中计算速度比Sigmoid和tanh快得多。但Relu函数同样不是零中心,并且学习率设置不当有可能会导致神经元死亡的情况,即权重无法更新。
兰州大学硕士学位论文基于深度学习的潜在抗HIV活性分子生成新方法研究14()=+(2-2)tanh函数将输入映射为-1到1之间的输出,若输入为很大的正数,则输出为1;若输入为绝对值很大的负数,则输出为0。tanh函数和导数图像如图2-4所示。图2-4tanh函数及其导数图像tanh函数的输出是零中心的,在实际应用中效果比Sigmoid函数要好一些,并且收敛速度稍快;然而tanh函数也没有解决梯度消失问题;tanh函数可以在RNN单元内部作为门控使用。(3)Relu函数Relu函数在近年来广受欢迎,其定义如式(2-3)所示:()=max(0,)(2-3)Relu本质上是一个取最大值函数,其并不是全区间可导,但可以用次梯度(sub-gradient)方法进行解决。其函数和导数图像如图2-5所示。图2-5Relu函数及其导数图像Relu函数可以解决梯度消失问题,在正区间内神经元不会饱和;并且Relu非指数计算,在前向传播与反向传播中计算速度比Sigmoid和tanh快得多。但Relu函数同样不是零中心,并且学习率设置不当有可能会导致神经元死亡的情况,即权重无法更新。
本文编号:2954733
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/2954733.html