当前位置:主页 > 管理论文 > 移动网络论文 >

基于全局性能测试模型的Web应用系统性能测试研究与应用

发布时间:2021-07-15 21:08
  随着企业信息化程度的提高,企业级Web应用系统的用户访问量日益增加,巨大的访问量可能会使得系统页面的响应时间变慢,甚至导致系统崩溃,这将直接影响企业的正常运营,给企业造成极大的损失,因此,企业对应用系统的性能提出越来越高的要求。如何高效地开展性能测试便成为了急需研究的课题。Web应用系统架构具有复杂性,用户的操作行为存在许多不可预见性,加之许多企业没有专业的性能测试团队,导致了性能测试过程中存在许多问题,他们的测试过程往往混乱无序,操作行为也较为随意,这些问题都反映出Web性能测试工作需要遵循一定的测试规则和测试模型。但是传统性能测试模型存在许多问题如:缺乏性能需求分析的能力,缺少对系统部署环境和性能需求指标的分析;不具备普遍指导性,没有关注系统的实际业务特性,无法广泛应用于不同领域的测试;不具备全面性,测试过程中缺少性能调优和回归测试环节,无法充分指导性能测试全过程。针对以上问题和现状,本文提出了一种用于指导Web应用系统性能测试全过程的全局性能测试模型(Global Performance Testing Model,简称GPTM)。文中深入研究了Web系统性能测试相关的理论、技术... 

【文章来源】:华南理工大学广东省 211工程院校 985工程院校 教育部直属院校

【文章页数】:75 页

【学位级别】:硕士

【部分图文】:

基于全局性能测试模型的Web应用系统性能测试研究与应用


Web应用系统的页面响应时间分解

响应时间,特征曲线


华南理工大学硕士学位论文8(ConcurrentUsers)、吞吐量(Throughput)、思考时间(ThinkTime)、资源利用率(Utilization)、每秒点击数(HitsPerSecond)等,详细的性能指标研究阐述如下。(1)响应时间。响应时间是指用户从客户端发起请求,到客户端接收到服务器返回结果的整个过程所消耗的时间[30],响应时间是性能测试中的一个重要指标。页面响应时间=网络传输时间+Web应用服务器处理时间+Web数据库服务器处理时间。为了能够更好的理解响应时间并精准定位系统性能的瓶颈,常常将响应时间进行分解,例如定义“网络传输时间”为(N1+N2+N3+N4),“服务器处理时间”为(S1+S2+S3),“服务器处理时间”又可划分“Web应用服务器处理时间”(S1+S3)和“Web数据库服务器处理时间”(S2),其中NX表示网络等待时间,SX表示服务器等待时间。Web应用系统的页面响应时间分解如图2-1所示。图2-1Web应用系统的页面响应时间分解一般在系统运行的前期,系统的响应时间随着用户并发数(负载)呈缓慢增加,随着用户的持续增长,系统的资源被耗尽,资源达到最大利用率时,系统的响应时间就会突然增加[31]。响应时间和用户并发数的特征曲线如图2-2所示。图2-2响应时间和用户并发数的特征曲线(2)并发用户数。并发是指多个同时发生的业务操作,而并发用户数是指在给定场景下同一时刻与服务器进行了交互的在线用户数量[32]。系统的并发用户数增加,则系统的资源利用率也随之增加。在系统性能测试前,需要对并发用户数进行评估,以便合理模拟真实的用户场景。

吞吐量,特征曲线,用户数


第二章Web性能测试技术分析9常用的估算并发用户的计算公式,见式(2-1):(2-1)其中C是平均并发用户数,n是登录系统的用户数量,L是用户从登陆系统到退出系统的间隔时间,T是被考察的时间长度。并发用户数峰值的计算公式,见式(2-2):(2-2)其中是并发用户数峰值,C是平均并发用户数。(3)吞吐量。吞吐量体现一个系统的承载能力,常指在一定的单位时间内系统处理的客户端请求数。通常情况下,吞吐量越大,系统单位时间内处理数越多,则说明系统负载能力就越强。吞吐量是衡量系统服务器承受能力和自身负载能力的一个非常重要的指标[33]。Empirix公司在报告中声称,在他们发现的性能问题里有80%是由于吞吐量的限制而引起的。吞吐量往往和服务器的软件架构、硬件配置、网络结构、网络传输介质以及并发用户数有关。因此,吞吐量数据指标对系统性能的优化改造有着极其重要的参考价值。系统吞吐量指标是TPS=并发数/平均响应时间。系统的吞吐量与用户并发数在运行阶段的前期是呈正比增长,但由于系统资源有限,吞吐量的指标并不会呈持续上升的状态,而是当吞吐量达到一定的峰值之后,数据反之会随着负载的增加而降低,系统所达到的最大吞吐量即峰值,是系统能够并发处理的最大请求数。吞吐量和用户并发数的特征曲线如图2-3所示。图2-3吞吐量和用户并发数的特征曲线(4)思考时间。思考时间是脚本中每个请求之间的时间间隔。在真实场景中,用

【参考文献】:
期刊论文
[1]LoadRunner性能测试分析[J]. 马凌.  电子测试. 2019(13)
[2]基于国产操作系统的软件测试方法研究[J]. 梅磊,刘娜.  航天标准化. 2019(01)
[3]LoadRunner性能测试设计的实践——以《全国报刊索引》二次文献共建共享网络服务平台为例[J]. 吴海洲.  信息化建设. 2016(04)
[4]一种Web应用系统性能测试流程及其应用研究[J]. 宋士涛.  山东科学. 2015(04)
[5]基于LoadRunner的Web服务器性能测试研究[J]. 王煜林.  广东技术师范学院学报. 2014(07)
[6]软件测试方法及重要性分析[J]. 陈雅茹.  黑龙江科技信息. 2011(07)
[7]软件可靠性综合模型的分析和研究[J]. 朱经纷,徐拾义.  计算机科学. 2009(04)
[8]一种基于事件的Web程序测试模型[J]. 傅鹤岗,陆艳军,曾刚.  计算机应用. 2009(03)
[9]利用LoadRunner实现Web负载测试的自动化[J]. 杨萍,李杰.  计算机技术与发展. 2007(01)
[10]一种用于Web应用程序测试的对象模型[J]. 刘智勇,陶克.  科学技术与工程. 2005(13)

博士论文
[1]软件测试及评价的复用策略研究及其实现[D]. 夏启明.武汉大学 2010

硕士论文
[1]一种人像识别系统的性能测试方案设计与实施[D]. 李松.厦门理工学院 2018
[2]基于LoadRunner的Web软件性能瓶颈分析调优研究与实践[D]. 郑润萍.华南农业大学 2016
[3]基于I-PTGM的Web应用系统性能测试技术研究与应用[D]. 郭书华.北京交通大学 2015
[4]基于在线注册Web系统的性能测试及优化[D]. 袁琳.西安电子科技大学 2015
[5]基于WebSocket协议的Web应用性能测试[D]. 赵晗.中国科学院大学(工程管理与信息技术学院) 2014
[6]基于Loadrunner技术的Web性能测试的研究与实现[D]. 姚昕.哈尔滨商业大学 2013
[7]WEB系统前端性能优化方法研究[D]. 李雨晨.湖南大学 2013
[8]Web系统性能测试过程模型研究[D]. 连志刚.西北大学 2012
[9]分布式软件测试管理工具的研究与实现[D]. 沈旻园.华东理工大学 2012
[10]移动互联网中基于会话的Web负载测试研究[D]. 全秀霞.华南理工大学 2011



本文编号:3286467

资料下载
论文发表

本文链接:https://www.wllwen.com/guanlilunwen/ydhl/3286467.html


Copyright(c)文论论文网All Rights Reserved | 网站地图 |

版权申明:资料由用户0d0bf***提供,本站仅收录摘要或目录,作者需要删除请E-mail邮箱bigeng88@qq.com