基于网络爬虫的XSS漏洞检测技术
发布时间:2021-04-20 19:04
随着科学技术的发展,互联网已成为我们生活密不可分的一部分,它为我们的生活提供了极大的便利,推动了社会的发展和进步,带给我们一个全新的时代,它广泛应用于商业、教育、娱乐等领域。但是,因特网中信息的互联性、开放性、交互性给社会带来信息共享的极大便利的同时,也带来了许多的安全隐患。袭击Internet是非常容易的,这是因为Internet的安全隐患主要源于计算机网络的脆弱性、网络通信协议本身固有的缺陷、网络软件与网络服务存在漏洞、网络结构和网络硬件存在安全缺陷。Web应用程序便存在很多的漏洞,在众多的Web应用程序安全漏洞中,跨站脚本攻击(XSS)所占比例位居榜首,如何高效的检测出XSS漏洞是当前我们研究的热点。 本文主要工作有以下几个方面: 1、详细阐述了跨站脚本攻击的基本原理、分类及危害,同时介绍了跨站脚本攻击的防范策略。 2、详细阐述了网络爬虫的概念、爬虫策略和爬虫分类,讨论分析了网络页面分析、爬虫队列设计、DNS缓存策略等技术。 3、设计实现了基于网络爬虫的XSS漏洞检测系统,详细介绍了爬虫模块、漏洞检测模块。在爬虫模块中使用Gzip对数据进行压缩后再传送,页面下载时采用I/O完成端口模型,页面解析时采用正则表达式匹配,,URL去重时提出M-Interval-Hash新算法;在漏洞检测模块采用特征库匹配技术。 4、通过将M-Interval-Hash算法和MD5算法进行比较得出本文提出的算法在URL去重效果上更佳;在漏洞检测时,通过和另外两种XSS漏洞检测工具Acunetix WVS和XSSer进行比较得出本文技术能够检测出更多的XSS漏洞,并且在检测时所花的时间更少。
【学位授予单位】:江西师范大学
【学位级别】:硕士
【学位授予年份】:2014
【分类号】:TP393.08
本文编号:1709147
【学位授予单位】:江西师范大学
【学位级别】:硕士
【学位授予年份】:2014
【分类号】:TP393.08
文章目录
摘要
Abstract
第1章 引言
1.1 研究背景
1.2 研究意义
1.3 国内外研究现状
1.4 本文结构
1.5 本章小结
第2章 跨站脚本攻击
2.1 超文本传输协议(HTTP)
2.1.1 超文本传输协议的概念
2.1.2 Cookie
2.1.3 Session
2.2 超文本标记语言
2.2.1 超文本标记语言概念
2.2.2 JavaScript 语言
2.3 XSS 攻击
2.3.1 XSS 攻击概述
2.3.2 跨站脚本攻击类型
2.3.3 跨站脚本攻击的危害
2.3.4 XSS 攻击的防御策略
2.4 本章小结
第3章 网络爬虫
3.1 网络爬虫概述
3.2 网络爬虫类型
3.3 网络爬虫相关技术
3.3.1 页面采集
3.3.2 网络爬虫策略
3.3.3 爬虫队列设计
3.3.4 DNS 缓存策略
3.4 本章小结
第4章 基于网络爬虫的 XSS 漏洞检测系统的设计与实现
4.1 系统结构设计
4.1.1 系统架构
4.1.2 软件模块划分
4.2 网络爬虫模块
4.2.1 网络爬虫算法流程
4.2.2 页面下载策略
4.2.3 页面解析
4.2.4 URL 去重
4.3 漏洞检测模块
4.4 本章小结
第5章 系统测试与分析
5.1 测试的目的和内容
5.2 URL 去重算法测试
5.2.1 实验环境
5.2.2 M-Interval-Hash 去重算法测试
5.3 XSS 漏洞检测测试
5.3.1 实验环境
5.3.2 Acunetix WVS、XSSer、本文 XSS 漏洞检测能力比较
5.4 本章小结
第6章 总结与展望
6.1 总结
6.2 展望
致谢
参考文献
在读期间公开发表论文及科研情况
【参考文献】
相关期刊论文 前1条
1 周德懋;李舟军;;高性能网络爬虫:研究综述[J];计算机科学;2009年08期
本文编号:1709147
本文链接:https://www.wllwen.com/guanlilunwen/ydhl/1709147.html