基于sentence2vec的疾病提前诊断和风险预测
发布时间:2021-01-20 11:17
在这个信息化的时代,随着医疗技术以及科学技术的迅猛发展,智慧医疗、互联网医疗等新概念随之被提出,利用数据驱动来对医疗数据进行分析方法也应运而生。因此,建立完整的电子健康记录(Electronic Healthcare Records,EHR)系统显得越来越重要。人们通过对获取到的医疗数据进行合理的分析,可以对其进行预测建模,从而实现对于疾病的提前诊断。或者通过对病人的EHR数据来对其身体健康状况进行分析,从而预测该患者在将来患有某种疾病的风险。电子健康记录(EHR)系统和其他的健康数字化系统一样,可以使医疗保健变得更为高效、安全、智能。电子健康记录与自然语言处理相结合,可以减少人类去做常规、耗时、高重复型的工作,腾出来的人员可以被重新部署,以便于支持更为高端的工作,大大推动了医疗保健事业的发展。但是也有很多原因使得我们在EHR数据集上进行疾病风险预测仍然面临很多的挑战。比如说EHR数据集中相关字段的缺失,可能导致我们提取到特征不完整。另外,由于人工失误,错记、漏记、甚至多记可能给我们分析数据造成噪声,影响我们对特征的提取。因此,能够高效分析电子医疗健康记录对于提升医疗卫生水平至关重要。...
【文章来源】:华中科技大学湖北省 211工程院校 985工程院校 教育部直属院校
【文章页数】:53 页
【学位级别】:硕士
【部分图文】:
EHR原始数据集
2.1.1 word2vec 之 CBOWCBOW 的思想其实非常的简单,我们会先设定一个上下文窗口的大小,然后根据已经选定的上下文单词对中心词进行预测 就比如说图 2.3 所示:white cat jumping in theP(wt-3|wt) P(wt-2|wt)P(wt-1|wt)P(wt+1|wt)P(wt+2|wt)amudP(wt+3|wt)图 2.3 word2vec 之 CBOW 实例图我们设定上下文窗口大小为 3,将{ a , white , cat , in , the , mud }这些词作为上下文,预测出中心词 jumping 但是需要注意的一点就是,中心词与被上下文单词的距离远近是不考虑的,它们是被同等对待
华 中 科 技 大 学 硕 士 学 位 论 文大小,最后根据选定的中间词来预测窗口大小内上下文单词 我们还是介绍基于multi-word context 的 skip-gram 模型,此时的模型结构如下图 2.5 所示,我们假设输入的单词为 X,设置的上下文窗口大小为 C,对此对应的输出为 y1,y2,…yc,,值得注意的是,这个时候 y1,y2,…yc彼此之间仍然是相互独立的
本文编号:2988946
【文章来源】:华中科技大学湖北省 211工程院校 985工程院校 教育部直属院校
【文章页数】:53 页
【学位级别】:硕士
【部分图文】:
EHR原始数据集
2.1.1 word2vec 之 CBOWCBOW 的思想其实非常的简单,我们会先设定一个上下文窗口的大小,然后根据已经选定的上下文单词对中心词进行预测 就比如说图 2.3 所示:white cat jumping in theP(wt-3|wt) P(wt-2|wt)P(wt-1|wt)P(wt+1|wt)P(wt+2|wt)amudP(wt+3|wt)图 2.3 word2vec 之 CBOW 实例图我们设定上下文窗口大小为 3,将{ a , white , cat , in , the , mud }这些词作为上下文,预测出中心词 jumping 但是需要注意的一点就是,中心词与被上下文单词的距离远近是不考虑的,它们是被同等对待
华 中 科 技 大 学 硕 士 学 位 论 文大小,最后根据选定的中间词来预测窗口大小内上下文单词 我们还是介绍基于multi-word context 的 skip-gram 模型,此时的模型结构如下图 2.5 所示,我们假设输入的单词为 X,设置的上下文窗口大小为 C,对此对应的输出为 y1,y2,…yc,,值得注意的是,这个时候 y1,y2,…yc彼此之间仍然是相互独立的
本文编号:2988946
本文链接:https://www.wllwen.com/yixuelunwen/yiyuanguanlilunwen/2988946.html