虚拟化环境中资源管理机制的优化研究
发布时间:2022-01-01 18:11
在云计算等虚拟化环境中,资源管理机制负责资源的分配、调度与管理,为多租户之间的高效资源共享提供了基础。高效的资源管理机制不仅可以通过提升资源利用率来大幅降低成本,还可以通过满足用户资源需求来保证服务质量。但是软硬件技术的快速发展和用户需求的多样化,使得现有的虚拟资源管理技术一方面不能充分利用日渐增强的硬件资源,另一方面也不能满足日益复杂的用户需求。因此如何针对上述问题,结合新硬件、新需求和新场景特点,优化虚拟化环境中的资源管理机制已经成为一个亟待解决的问题。本文主要从虚拟化环境中最重要的三种虚拟资源(内存资源、计算资源、存储I/O资源)出发,研究了虚拟资源的管理优化问题,具体包括面向混合页虚拟化系统的内存重删机制研究、面向虚拟GPU的在线任务调度机制研究和面向容器的I/O去重和缓存管理机制研究。主要研究内容和贡献如下:(1)面向混合页虚拟化系统的内存重删机制研究现有的虚拟化系统大多采用混合页(即大页加小页)的内存管理方式,其中大页可以显著提升TLB(Translation Look-aside Buffer)命中率并提升内存访问性能。但是在混合页虚拟化系统中使用现有的内存重删技术会导致...
【文章来源】:中国科学技术大学安徽省 211工程院校 985工程院校
【文章页数】:107 页
【学位级别】:博士
【部分图文】:
图1.1虚拟化技术??
效地管理客户机内存,在虚拟机中引入了客户机物理地址的概念(Guest?Physical??Address,简称为GPA),GPA实际上也是宿主机上的虚拟地址,它们被映射到宿??主机物理地址(Host?Physical?Address,简称为HPA)。如图1.2所示,当客户机应??用程序使用客户机虚拟地址(Guest?Virtual?Address,简称为GVA)访问内存时,最??原始的做法是客户机操作系统先将GVA转换成GPA,?Hypervisor再将GPA转换??成HVA(Host?Virtual?Address,简称为HVA),最后宿主机操作系统再将HVA转??换成HPA。为了加速地址转换流程(GVA->HPA),最新的处理器都通过引入扩展??页表(Extended?Page?Tables,简称为EPT[21])来支持将GPA直接转换成HPA,这??3??
虚拟化方案具有更好的兼容性、可共享性和可扩展性,使得它在细粒度GPU虚??拟化和GPU共享场景下备受欢迎,并且赢得了国内外学者的广泛关注基??于API转发的GPU虚拟化方案的原理如图1.3所示,它是由前后端的方式进行??工作的,前端在客户机(或容器)内拦截应用的GPU指令并将指令转发给后端。??后端运行在宿主机上,接收前端发送的GPU指令后通过一些调度机制将指令分??发给不同的GPU。基于API转发的GPU虚拟化方案通过前后端分离的方式就可??以实现用户应用和GPU之间的解耦,甚至可以支持用户在没有GPU的机器上??运行GPU应用,同时它还支持将多个用户的应用灵活地合并到单个GPU上运??行来实现GPU的高效共享。??GPU任务调度:在GPU虚拟化与共享的场景中,通常会存在资源竞争和资??源利用不充分等现象,进而造成应用性能下降和资源浪费等问题。为了解决该问??题,国内外学者提出了一系列GPU任务调度机制,主要分为两类:单GPU上??的多任务调度和多GPU之间的负载均衡调度
【参考文献】:
期刊论文
[1]基于容器虚拟化技术研究[J]. 汪恺,张功萱,周秀敏. 计算机技术与发展. 2015(08)
[2]云数据中心虚拟资源管理研究综述[J]. 钱琼芬,李春林,张小庆,李腊元. 计算机应用研究. 2012(07)
[3]面向虚拟资源的云计算资源管理机制[J]. 袁文成,朱怡安,陆伟. 西北工业大学学报. 2010(05)
本文编号:3562570
【文章来源】:中国科学技术大学安徽省 211工程院校 985工程院校
【文章页数】:107 页
【学位级别】:博士
【部分图文】:
图1.1虚拟化技术??
效地管理客户机内存,在虚拟机中引入了客户机物理地址的概念(Guest?Physical??Address,简称为GPA),GPA实际上也是宿主机上的虚拟地址,它们被映射到宿??主机物理地址(Host?Physical?Address,简称为HPA)。如图1.2所示,当客户机应??用程序使用客户机虚拟地址(Guest?Virtual?Address,简称为GVA)访问内存时,最??原始的做法是客户机操作系统先将GVA转换成GPA,?Hypervisor再将GPA转换??成HVA(Host?Virtual?Address,简称为HVA),最后宿主机操作系统再将HVA转??换成HPA。为了加速地址转换流程(GVA->HPA),最新的处理器都通过引入扩展??页表(Extended?Page?Tables,简称为EPT[21])来支持将GPA直接转换成HPA,这??3??
虚拟化方案具有更好的兼容性、可共享性和可扩展性,使得它在细粒度GPU虚??拟化和GPU共享场景下备受欢迎,并且赢得了国内外学者的广泛关注基??于API转发的GPU虚拟化方案的原理如图1.3所示,它是由前后端的方式进行??工作的,前端在客户机(或容器)内拦截应用的GPU指令并将指令转发给后端。??后端运行在宿主机上,接收前端发送的GPU指令后通过一些调度机制将指令分??发给不同的GPU。基于API转发的GPU虚拟化方案通过前后端分离的方式就可??以实现用户应用和GPU之间的解耦,甚至可以支持用户在没有GPU的机器上??运行GPU应用,同时它还支持将多个用户的应用灵活地合并到单个GPU上运??行来实现GPU的高效共享。??GPU任务调度:在GPU虚拟化与共享的场景中,通常会存在资源竞争和资??源利用不充分等现象,进而造成应用性能下降和资源浪费等问题。为了解决该问??题,国内外学者提出了一系列GPU任务调度机制,主要分为两类:单GPU上??的多任务调度和多GPU之间的负载均衡调度
【参考文献】:
期刊论文
[1]基于容器虚拟化技术研究[J]. 汪恺,张功萱,周秀敏. 计算机技术与发展. 2015(08)
[2]云数据中心虚拟资源管理研究综述[J]. 钱琼芬,李春林,张小庆,李腊元. 计算机应用研究. 2012(07)
[3]面向虚拟资源的云计算资源管理机制[J]. 袁文成,朱怡安,陆伟. 西北工业大学学报. 2010(05)
本文编号:3562570
本文链接:https://www.wllwen.com/shoufeilunwen/xxkjbs/3562570.html