基于深度学习的短文本分类及信息抽取研究
本文选题:深度学习 切入点:信息抽取 出处:《郑州大学》2017年硕士论文 论文类型:学位论文
【摘要】:互联网的发展和网络信息的爆炸式增长,给人们带来更全面、及时信息的同时,也使得用户快速、精准地找到所需要的信息变得更加困难。信息抽取可从海量的数据中检索并返回给用户更加准确、简洁的信息,可以更好地满足用户的需求。文本分类可减少信息抽取的选择空间,并可针对不同的信息类型,制定不同的策略,是信息抽取不可或缺的前提步骤。现阶段,自然语言的句法和语义充分理解是文本分类和信息抽取的关键。人工提取自然语言的句法语义特征难度大、主观性较强,深度学习可自我学习特征,对自然语言理解具有可行性。利用深度学习的思想,可以主动学习文本的句法语义特征,进而学习到所抽取信息的深度特征,降低人工特征的制定的难度,并有较好的客观性。本文在文本分类和信息抽取问题上,借助CNN模型、LSTM模型以及传统句法树的优势,构造深度神经网络模型,挖掘文本的深度特征。本文主要工作有:在文本分类上,改进传统卷积神经网络模型(CNN),提出多粒度卷积核的方法,并联合长短时记忆人工神经网络模型(LSTM),借助两个模型的优势,提出一种新的学习模型(L-MFCNN),较好的对词序语义学习和深度特征挖掘。实验结果表明,该方法在没有制定繁琐的人工特征规则的条件下,仍然有较好的性能。在信息抽取上,本文用词向量表示问题句和候选信息句,并利用长短时记忆神经网络(LSTM)学习问题句和候选信息句的语义相关特征,再利用依存句法树分析选择句法结构特征,联合表层特征构造深度神经网络,学习问题、候选信息句和候选信息三者的内在关联信息。实验结果表明,该方法可自主学习到句子的句法语义特征,有较好的信息抽取性能。最后本文设计并实现了信息抽取的应用实例问答系统,将文中提出的深度神经网络的方法运用到问答系统中,通过实践验证,没有制定较复杂句法语义特征,问答系统具有较好的答案抽取性能。
[Abstract]:The development of the Internet and the explosive growth of network information bring more comprehensive and timely information to people, but also make users quick. Finding exactly what information is needed becomes more difficult. Information extraction can be retrieved from vast amounts of data and returned to users with more accurate and concise information. Text classification can reduce the selection space of information extraction, and can make different strategies for different information types, which is an indispensable prerequisite step for information extraction. The syntactic and semantic understanding of natural language is the key of text classification and information extraction. It is feasible to understand natural language. By using the idea of deep learning, we can learn the syntactic and semantic features of the text actively, and then learn the depth features of the extracted information, and reduce the difficulty of making artificial features. In this paper, based on the advantages of CNN model and traditional syntactic tree, a depth neural network model is constructed for text classification and information extraction. The main work of this paper is to improve the traditional convolution neural network model in text classification, to propose a multi-granularity convolution kernel method, and to combine the LSTM model with long and short memory artificial neural network model to make use of the advantages of the two models. A new learning model, L-MFCNN, is proposed to study word order semantics and deep feature mining. The experimental results show that this method still has good performance without making complicated artificial feature rules. In this paper, the lexical vector is used to represent the question sentence and candidate information sentence, and the long and short memory neural network (LSTM) is used to study the semantic correlation features of the question sentence and candidate information sentence, and then the dependency syntax tree is used to analyze and select the syntactic structure features. The results of experiments show that this method can learn syntactic and semantic features of sentences independently, and combine surface features to construct the internal correlation information of depth neural network, learning problem, candidate information sentence and candidate information, and the experimental results show that the proposed method can learn syntactic and semantic features of sentences independently. Finally, this paper designs and implements the application case answering system of information extraction, and applies the method of depth neural network in this paper to the question and answer system, which is verified by practice. Without complex syntactic and semantic features, the question answering system has better performance of answer extraction.
【学位授予单位】:郑州大学
【学位级别】:硕士
【学位授予年份】:2017
【分类号】:TP391.1
【相似文献】
相关期刊论文 前10条
1 杨晓帅 ,付玫;神经网络技术让管理更轻松[J];软件世界;2000年11期
2 云中客;新的神经网络来自于仿生学[J];物理;2001年10期
3 唐春明,高协平;进化神经网络的研究进展[J];系统工程与电子技术;2001年10期
4 李智;一种基于神经网络的煤炭调运优化方法[J];长沙铁道学院学报;2003年02期
5 程科,王士同,杨静宇;新型模糊形态神经网络及其应用研究[J];计算机工程与应用;2004年21期
6 王凡,孟立凡;关于使用神经网络推定操作者疲劳的研究[J];人类工效学;2004年03期
7 周丽晖;从统计角度看神经网络[J];统计教育;2005年06期
8 赵奇 ,刘开第 ,庞彦军;灰色补偿神经网络及其应用研究[J];微计算机信息;2005年14期
9 袁婷;;神经网络在股票市场预测中的应用[J];软件导刊;2006年05期
10 尚晋;杨有;;从神经网络的过去谈科学发展观[J];重庆三峡学院学报;2006年03期
相关会议论文 前10条
1 徐春玉;;基于泛集的神经网络的混沌性[A];1996中国控制与决策学术年会论文集[C];1996年
2 周树德;王岩;孙增圻;孙富春;;量子神经网络[A];2003年中国智能自动化会议论文集(上册)[C];2003年
3 罗山;张琳;范文新;;基于神经网络和简单规划的识别融合算法[A];2009系统仿真技术及其应用学术会议论文集[C];2009年
4 郭爱克;马尽文;丁康;;序言(二)[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
5 钟义信;;知识论:神经网络的新机遇——纪念中国神经网络10周年[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
6 许进;保铮;;神经网络与图论[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
7 金龙;朱诗武;赵成志;陈宁;;数值预报产品的神经网络释用预报应用[A];1999年中国神经网络与信号处理学术会议论文集[C];1999年
8 田金亭;;神经网络在中学生创造力评估中的应用[A];第十二届全国心理学学术大会论文摘要集[C];2009年
9 唐墨;王科俊;;自发展神经网络的混沌特性研究[A];2009年中国智能自动化会议论文集(第七分册)[南京理工大学学报(增刊)][C];2009年
10 张广远;万强;曹海源;田方涛;;基于遗传算法优化神经网络的故障诊断方法研究[A];第十二届全国设备故障诊断学术会议论文集[C];2010年
相关重要报纸文章 前10条
1 美国明尼苏达大学社会学博士 密西西比州立大学国家战略规划与分析研究中心资深助理研究员 陈心想;维护好创新的“神经网络硬件”[N];中国教师报;2014年
2 卢业忠;脑控电脑 惊世骇俗[N];计算机世界;2001年
3 葛一鸣 路边文;人工神经网络将大显身手[N];中国纺织报;2003年
4 中国科技大学计算机系 邢方亮;神经网络挑战人类大脑[N];计算机世界;2003年
5 记者 孙刚;“神经网络”:打开复杂工艺“黑箱”[N];解放日报;2007年
6 本报记者 刘霞;美用DNA制造出首个人造神经网络[N];科技日报;2011年
7 戴洪玲;向Excel中快速输入相同文本[N];中国电脑教育报;2004年
8 健康时报特约记者 张献怀;干细胞移植:修复受损的神经网络[N];健康时报;2006年
9 刘力;我半导体神经网络技术及应用研究达国际先进水平[N];中国电子报;2001年
10 ;神经网络和模糊逻辑[N];世界金属导报;2002年
相关博士学位论文 前10条
1 杨旭华;神经网络及其在控制中的应用研究[D];浙江大学;2004年
2 李素芳;基于神经网络的无线通信算法研究[D];山东大学;2015年
3 宋歌;基于聚类森林的文本流分类方法研究[D];哈尔滨工业大学;2014年
4 石艳超;忆阻神经网络的混沌性及几类时滞神经网络的同步研究[D];电子科技大学;2014年
5 王新迎;基于随机映射神经网络的多元时间序列预测方法研究[D];大连理工大学;2015年
6 付爱民;极速学习机的训练残差、稳定性及泛化能力研究[D];中国农业大学;2015年
7 李辉;基于粒计算的神经网络及集成方法研究[D];中国矿业大学;2015年
8 王卫苹;复杂网络几类同步控制策略研究及稳定性分析[D];北京邮电大学;2015年
9 张海军;基于云计算的神经网络并行实现及其学习方法研究[D];华南理工大学;2015年
10 韩开旭;基于支持向量机的文本情感分析研究[D];东北石油大学;2014年
相关硕士学位论文 前10条
1 李超;基于深度学习的短文本分类及信息抽取研究[D];郑州大学;2017年
2 章颖;混合不确定性模块化神经网络与高校效益预测的研究[D];华南理工大学;2015年
3 贾文静;基于改进型神经网络的风力发电系统预测及控制研究[D];燕山大学;2015年
4 李慧芳;基于忆阻器的涡卷混沌系统及其电路仿真[D];西南大学;2015年
5 陈彦至;神经网络降维算法研究与应用[D];华南理工大学;2015年
6 董哲康;基于忆阻器的组合电路及神经网络研究[D];西南大学;2015年
7 武创举;基于神经网络的遥感图像分类研究[D];昆明理工大学;2015年
8 王轶霞;基于半监督递归自编码的情感分类研究[D];内蒙古大学;2015年
9 李志杰;基于神经网络的上证指数预测研究[D];华南理工大学;2015年
10 陈少吉;基于神经网络血压预测研究与系统实现[D];华南理工大学;2015年
,本文编号:1609418
本文链接:https://www.wllwen.com/shoufeilunwen/xixikjs/1609418.html