生物医学文献中的因果关系识别研究
发布时间:2021-03-04 20:16
因果图在确定因果关系中起着至关重要的作用,当前已应用于包括生物学和医学等许多领域。传统的因果图构造方法通常是数据驱动的,因此可能无法提供所需的图精度。考虑到大量出版物中含有大量的因果关系知识,从文献中提取因果关系以帮助建立因果图成为可能。为了提高因果关系的提取准确率,本文从两个方面提出了提取因果关系的算法。1)集成基于规则的方法和无监督的学习模型的因果关系提取算法:该方法包括数据预处理,句法模式匹配和因果关系确定三个模块。在数据预处理中,在提取和简化句子之前,将基于属性名称对摘要进行爬取。在句法模式匹配模块中,算法通过解析句子以获得词性标签,基于这些标签得到三元组,然后进行句法模式的匹配。在因果关系确定中,初始化四个动词种子集,并通过应用无监督机器学习模型为种子集和三元组中的动词构造单词向量。通过比较每个三元组中的动词与每个种子集中的动词之间的相似性,来克服因果关系的局限性,从而确定因果关系。与Alashri和Bui的算法相比,实验结果表明本章算法的F值分别提高了8.29%和5.37%。2)基于循环神经网络的因果关系提取算法:该方法提出了一种新的数据处理方式,能够提升循环神经网络在小语...
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:66 页
【学位级别】:硕士
【部分图文】:
Word2vec的两种训练模式
循环神经网络折叠图和展开图
肥工业大学学位硕士研究生学位论文17忘门(forgetgate),也称保留门(keepgate)。在2000年,Gers和Schmidhuber和Cummins将窥孔连接(从单元到门的连接)添加到体系结构中,进而可以观测当前输入状态[62]。另外,省略了输出激活功能。[61]2014年,Zaremba等人成功在RNN上应用了Dropout,解决了RNN网络过拟合的问题[63]。LSTM单元有若干种体系结构。其中最常见的体系结构是由一个单元(LSTM单元的存储部分)和三个“调节器”(通常称为门)组成,它们构成LSTM单元内部信息流:输入门,输出门和遗忘门。整个循环结构如图2.3所示,其中和⊕均为矩阵的点操作(pointwiseoperation),矩形框表示学习的神经网络层,线的合并表示并列,线的分叉表示复制并输出到不同的位置。比较图2.2与图2.3,可以得出LSTM网络与基本RNN网络在隐藏层状态方面的不同点就是:基本RNN网络只含有一个状态,而它只对短期输入较为敏感,而LSTM则同时存在一个对短期输入敏感的状态以及一个能保持长期状态的,称为单元状态(cellstate)。图2.3向我们详细展示了每个LSTM单元的输入输出,不难得出在时刻,LSTM单元包含三个输入,分别是:时刻的输入向量,1时刻LSTM单元的输出向量,.$和1时刻LSTM的单元状态,.$以及两个输出,时刻LSTM单元的输出向量,和单元状态,。不难理解LSTM的核心思想就是通过控制长期状态来解决基本RNN网络的长期依赖问题。LSTM网络的做法则是通过使用三个控制“阀门”调节输入和输出以达到解决梯度消失的问题。在LSTM网络里,第一个“阀门”主要负责的任务则是是否保持长期状态;第二个“阀门”的目标则是控制是否利用当前的即时状态更新长期的单元状态;第三个开关则负责控制长期的状态是否影响当前时刻的输出。而这三个“阀门”就是上文中提
【参考文献】:
期刊论文
[1]基于关系触发词与单层GRU模型的关系抽取方法[J]. 王磊,刘露,牛亮,胡封晔,彭涛. 吉林大学学报(理学版). 2020(01)
[2]2013-2018年云南省被SCI-E、EI及CPCI-S等收录的科技论文情况分析[J]. 黄鸿,钟翔,甘敏,安华轩,贺新华. 云南科技管理. 2019(06)
本文编号:3063847
【文章来源】:合肥工业大学安徽省 211工程院校 教育部直属院校
【文章页数】:66 页
【学位级别】:硕士
【部分图文】:
Word2vec的两种训练模式
循环神经网络折叠图和展开图
肥工业大学学位硕士研究生学位论文17忘门(forgetgate),也称保留门(keepgate)。在2000年,Gers和Schmidhuber和Cummins将窥孔连接(从单元到门的连接)添加到体系结构中,进而可以观测当前输入状态[62]。另外,省略了输出激活功能。[61]2014年,Zaremba等人成功在RNN上应用了Dropout,解决了RNN网络过拟合的问题[63]。LSTM单元有若干种体系结构。其中最常见的体系结构是由一个单元(LSTM单元的存储部分)和三个“调节器”(通常称为门)组成,它们构成LSTM单元内部信息流:输入门,输出门和遗忘门。整个循环结构如图2.3所示,其中和⊕均为矩阵的点操作(pointwiseoperation),矩形框表示学习的神经网络层,线的合并表示并列,线的分叉表示复制并输出到不同的位置。比较图2.2与图2.3,可以得出LSTM网络与基本RNN网络在隐藏层状态方面的不同点就是:基本RNN网络只含有一个状态,而它只对短期输入较为敏感,而LSTM则同时存在一个对短期输入敏感的状态以及一个能保持长期状态的,称为单元状态(cellstate)。图2.3向我们详细展示了每个LSTM单元的输入输出,不难得出在时刻,LSTM单元包含三个输入,分别是:时刻的输入向量,1时刻LSTM单元的输出向量,.$和1时刻LSTM的单元状态,.$以及两个输出,时刻LSTM单元的输出向量,和单元状态,。不难理解LSTM的核心思想就是通过控制长期状态来解决基本RNN网络的长期依赖问题。LSTM网络的做法则是通过使用三个控制“阀门”调节输入和输出以达到解决梯度消失的问题。在LSTM网络里,第一个“阀门”主要负责的任务则是是否保持长期状态;第二个“阀门”的目标则是控制是否利用当前的即时状态更新长期的单元状态;第三个开关则负责控制长期的状态是否影响当前时刻的输出。而这三个“阀门”就是上文中提
【参考文献】:
期刊论文
[1]基于关系触发词与单层GRU模型的关系抽取方法[J]. 王磊,刘露,牛亮,胡封晔,彭涛. 吉林大学学报(理学版). 2020(01)
[2]2013-2018年云南省被SCI-E、EI及CPCI-S等收录的科技论文情况分析[J]. 黄鸿,钟翔,甘敏,安华轩,贺新华. 云南科技管理. 2019(06)
本文编号:3063847
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/3063847.html
最近更新
教材专著