基于深度学习的新闻自动摘要技术
发布时间:2021-06-15 23:55
随着当前互联网和移动互联网的迅猛发展,网络信息呈现出爆炸式增长,如何有效自动化地获取所需信息成为当前情报科学的研究热点。自动摘要技术可以对文本信息进行压缩和提炼,是解决该问题的重要手段之一。现有的抽取式自动摘要技术是从原文中抓取关键词或句子重组后形成摘要。这种技术易于实现,但摘要句往往前后逻辑性不强,不够流畅,且使用的词都是在原文中出现的词,语言不够丰富。生成式自动摘要技术运用智能算法理解文本内容进而生成逻辑性强表达流畅的摘要。目前通用模型还存在摘要不准确语义不够丰富的问题值得研究。本文在对现有的词向量化方法和深度学习模型深入分析研究的基础上,提出了基于BTWPS自动编码器的生成式自动摘要模型。自动编码器包括编码器和解码器两个部分,本文主要从词向量化、编码器和解码器三个方面做出如下工作:(1)词向量化部分。本文引入词的关键性和词性两个语义特征,并提出了一种TF-IDF值和词性标注的向量化方法,将TF-IDF值和词性标注信息融入基础词向量中形成新的词向量。与原本词向量相比,该方法重点突出了词的关键性和词性特征,提升了词义理解能力,并最终提高摘要质量。(2)编码器部分。本文分析了三种循环神...
【文章来源】:西安电子科技大学陕西省 211工程院校 教育部直属院校
【文章页数】:78 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
1.1 课题背景及意义
1.2 国内外研究现状
1.3 研究内容
1.4 论文的组织结构
第二章 基于BTWP&S自动编码器的生成式自动摘要模型
2.1 引言
2.2 通用模型
2.3 基于BTWP&S自动编码器的生成式自动摘要模型
2.3.1 预处理模块
2.3.2 预处理模块
2.3.3 编码器模块
2.4 本章小结
第三章 文本预处理
3.1 引言
3.2 文本分词
3.3 词向量模型
3.4 词向量优化
3.4.1 词向量的生成与优化架构
3.4.2 词的关键性的向量化
3.4.3 词性标注的向量化
3.5 实验与分析
3.6 本章小结
第四章 BTWPS模型编码器的构建
4.1 引言
4.2 循环神经网络
4.3 循环神经网络门结构分析
4.3.1 长短时记忆Long Short-Term Memory(LSTM)
4.3.2 门循环单元Gated Recurrent Unit(GRU)
4.3.3 比较与分析
4.4 双向循环神经网络编码器
4.5 注意力机制
4.6 本章小结
第五章 BTWPS模型解码器的构建
5.1 引言
5.2 基于状态层的解码器
5.3 解码器词汇表重组
5.4 实验与分析
5.5 本章小结
第六章 验证与分析
6.1 引言
6.2 数据集
6.3 实验测评方法
6.4 实验设置与结果分析
6.5 本章小结
第七章 总结与展望
7.1 论文的主要工作总结
7.2 展望
参考文献
致谢
作者简介
本文编号:3231949
【文章来源】:西安电子科技大学陕西省 211工程院校 教育部直属院校
【文章页数】:78 页
【学位级别】:硕士
【文章目录】:
摘要
ABSTRACT
符号对照表
缩略语对照表
第一章 绪论
1.1 课题背景及意义
1.2 国内外研究现状
1.3 研究内容
1.4 论文的组织结构
第二章 基于BTWP&S自动编码器的生成式自动摘要模型
2.1 引言
2.2 通用模型
2.3 基于BTWP&S自动编码器的生成式自动摘要模型
2.3.1 预处理模块
2.3.2 预处理模块
2.3.3 编码器模块
2.4 本章小结
第三章 文本预处理
3.1 引言
3.2 文本分词
3.3 词向量模型
3.4 词向量优化
3.4.1 词向量的生成与优化架构
3.4.2 词的关键性的向量化
3.4.3 词性标注的向量化
3.5 实验与分析
3.6 本章小结
第四章 BTWPS模型编码器的构建
4.1 引言
4.2 循环神经网络
4.3 循环神经网络门结构分析
4.3.1 长短时记忆Long Short-Term Memory(LSTM)
4.3.2 门循环单元Gated Recurrent Unit(GRU)
4.3.3 比较与分析
4.4 双向循环神经网络编码器
4.5 注意力机制
4.6 本章小结
第五章 BTWPS模型解码器的构建
5.1 引言
5.2 基于状态层的解码器
5.3 解码器词汇表重组
5.4 实验与分析
5.5 本章小结
第六章 验证与分析
6.1 引言
6.2 数据集
6.3 实验测评方法
6.4 实验设置与结果分析
6.5 本章小结
第七章 总结与展望
7.1 论文的主要工作总结
7.2 展望
参考文献
致谢
作者简介
本文编号:3231949
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3231949.html