第1章:系统考虑

Prentice Hall.

例如,一个客户希望对其低利用率机器的虚拟化使用20:1的压缩比。然而,他们同时也有网络目标来压缩他们的网络需求。另一个限制因素是他们可以选择的硬件,因为它们被限制在特定的集合中,适配器也受到了严格的限制。规格说明说,他们可以用硬件做他们想做的事情,所以他们沿着这条路走下去。然而,硬件规范所描述的并不一定是ESX的最佳实践,这在他们处理所选环境的问题时导致了相当大的困难。通过更好地理解ESX对各种硬件的影响以及硬件对ESX的影响,他们可以在早期缓解某些困难。(虽然大多数(如果不是全部的话)图表和注释使用的是惠普的硬件,但这些只是例子;戴尔、IBM、Sun和许多其他供应商也提供类似的硬件。)

基本的硬件问题

对基本硬件方面的理解及其对ESX的影响可以大大增加虚拟化成功的机会。首先,让我们看看构成现代系统的组件。

在为企业设计时,其中一个关键注意事项是处理器,特别是类型,可用的缓存和内存配置;所有这些因素会影响ESX如何以主要方式工作。错误的选择可能会使系统似乎缓慢,并将减少可以运行的虚拟机(VM)的数量,因此最好在设计虚拟环境时密切关注处理器和系统架构。

在采摘任何硬件之前,请始终引用VMware硬件兼容性列表(HCLS),您可以找到四个卷http://www.vmware.com/support/pubs/vi_pubs.html:

  • ESX Server 3.x Systems兼容性指南

  • ESX Server 3.x I / O兼容性指南

  • ESX服务器3。x存储/SAN兼容性指南

  • ESX Server 3.x备份软件兼容性指南

处理器考虑因素

处理器家庭,这不是事物方案中的巨大考虑,是为企业挑选多台机器时的考虑因素,因为不同类型的处理器架构会影响ESX功能的可用性。具体地,不匹配的处理器类型将防止使用vMotion。vMotion允许通过使用专用网络连接来移动从主机到主机的运行VM的移动。vMotion瞬间冻结了VM,同时将内存复制并将VM的寄存器寄存在主机到主机上。之后,旧主机上的VM干净地关闭,新的主机将开始。如果一切顺利,VM不会注意到任何可以吸收没有问题的轻微打嗝。但是,由于VMotion将寄存器和内存足迹复制到主机,因此使用的处理器架构和芯片组需要匹配。如果没有适当的屏蔽处理器功能,从Xeon到AMD处理器或从单核处理器到双核处理器的处理器功能,即使是ESX版本2.5中引入的处理器系列也是不可能的。2。如果要移动的虚拟机是64位VM,则处理器必须完全匹配,因为没有可用的方法来屏蔽处理器功能。因此,处理器架构和芯片组(或指令集)非常重要,因为这可以从代代生成到机器的生成中,最好同时将两台机器介绍到虚拟企业中,以确保vMotion实际工作。 When introducing new hardware into the mix of ESX hosts, test to confirm that VMotion will work.


最佳实践,标准化单个处理器和芯片组架构。如果由于现有机器的年龄是不可能的,则测试以确保vMotion仍然有效,或成对引入主机以保证成功的vMotion。不同的固件修订也会影响vMotion功能。

确保系统中的所有处理器速度或步进参数也匹配。


请注意,许多公司支持不匹配的处理器速度或进入系统。ESX更希望所有处理器都具有相同的速度和步长。在处理器的步进不同的情况下,每个供应商提供不同的处理器放置指令。例如,惠普(Hewlett-Packard)将要求最慢的处理器放在第一个处理器插槽中,其他处理器放在任何剩余的插槽中。为了减轻任何类型的问题,最好的做法是在系统中匹配处理器速度或步进。

在进行下一阶段之前,有助于对双核(DC)的简要评论是有效的。ESX Server不会在DC和SC处理器之间的许可方案中区分,因此它们之间的差异成为处理器的成本与性能增益的问题。DC处理器将处理比SC更多的VM,但也花费更多,只有在后来的ESX版本中支持。在某些情况下,可以从SC处理器开始,并使ESX服务器的第一次升级为DC处理器,以保护硬件投资。如果性能是问题,DC就是去的方式。然而,现在,选择是成本与性能的平衡。由于目前的DC共享缓存机制,八核或四处理器服务器具有相同的处理能力,好像有七个物理处理器,并且一旦共享缓存消失,就会有很好的偶然的效率将匹配。真正的八方机器。

缓存考虑因素

与匹配处理器架构和芯片组不同,在多个主机之间匹配L2缓存并不重要。不匹配不会阻止VMotion工作。然而,L2缓存在性能方面可能更重要,因为它控制访问主存的频率。L2缓存越大,ESX服务器运行得越好。考虑图1.1在VMS方面是一个完整的进程和存储器的访问路径。虽然ESX尝试尽可能地限制内存使用,但对于40 VM来说,这是不可能的,因此L2缓存效果在VMS执行方面发挥重要部分。

图1.1

内存访问路径

随着更多的虚拟机被添加到同一个操作系统类型和版本的主机上,ESX将开始在虚拟机之间共享代码段。代码段是在虚拟机和包含虚拟机内存的数据段。VM之间的代码段共享不会违反任何VM的安全性,因为代码永远不会改变,如果改变了,代码段共享将不再对VM可用。除了这个,让我们看看图1.1一次。当一个处理器需要向系统请求内存时,它首先进入L1缓存(通常最多1兆字节),并查看请求的内存区域是否已经在处理器上。这个操作非常快,尽管与大多数处理器不同,但我们可以假设它是一条或两条指令(以纳秒为单位)。然而,如果内存区域不在L1缓存中,那么下一步是通过一个通常以处理器速度运行的非常快的通道(绿色箭头)进入L2缓存。然而,这比L1 Cache访问需要更多的时间和指令,并且增加了访问内存的总时间。如果你想要的内存区域不在L2 Cache中,它在主存(黄色箭头)的某个地方,并且必须被访问和加载到L2 Cache中,这样处理器才能访问内存,这需要另一个数量级的时间来访问。通常,缓存线是从主存复制的,主存是需要的内存区域和一些邻近的数据,以加快未来的内存访问。当我们在处理非统一内存访问(NUMA)体系结构时,如果需要的内存位于系统其他地方的处理器板上,那么内存访问还有一个步骤。距离越远,访问时间越慢(红色和黑色箭头),通过CPU互连的访问将增加另一个数量级的内存访问时间,这在处理器时间中是相当慢的。

好的,但是这是什么意思在实时意味着什么?假设我们正在使用3.06GHz处理器,时间可能如下:

  • L1缓存,1个周期(~0.33ns)

  • L2 Cache,两个周期,第一个从L1 Cache获得Cache miss,另一个访问L2 Cache (~0.66ns),它以CPU速度运行(绿色箭头)

  • 主内存以333MHz运行,速度慢于L2缓存(〜3.0ns接入时间)(黄色箭头)

  • 访问另一个处理器板(NUMA)上的主存比访问同一处理器板上的主存慢一个数量级(约30-45ns访问时间,取决于距离)(红色或黑色箭头)

这意味着大小的L2高速缓存大小将使系统多于小L2高速缓存大小;所以,越大越好,使得处理器可以访问更大的连续内存块,因为要交换的存储器将在较大的尺寸上,这将有利于VM的性能。此讨论不会说明基于NUMA的体系结构本质上慢于常规架构,因为运行ESX Server的大多数基于NUMA的架构不需要通常经常向其他处理器板外出,以便访问他们的内存。


最佳实践,投资于可用于所选架构的最大L2缓存量。


内存方面的考虑

在L2缓存中来到内存的速度之后,正如前面的项目符号列表所暗示的那样。提出了更高速度的记忆,并且很多!内存量和处理器的数量管理管理数量可以同时运行有多少VM,而不会覆盖此重要资源。在许多情况下,最高速度的内存通常具有较低的内存损失。这是一个例子是HP DL585,它可以托管32GB的最高速度存储器,但它可以托管64GB的较低速度存储器。因此,显然,VM的数量和填充内存的数量有权衡,但通常最好的做法是高速和高量。考虑到每个核心的最大VCPU数是八个。在4处理器框中,可以为32 VM。如果这些VM中的每一个是1GB,我们需要33GB内存以运行VM。为什么33GB? Because 33GB gives both the console OS (COS, the service console) and the VMkernel up to 1GB of memory to run the VMs. Because 33GB of memory is a weird number for most computers these days, we would need to overcommit memory. When we start overcommitting memory in this way, the performance of ESX can degrade. In this case, it might be better to move to 64GB of memory instead. However, that same box with DC processors can, theoretically, run up to 64 VMs, which implies that we take the VM load to the logical conclusion, and we are once more overcommitting memory. However, eight VMs per processor is a theoretical limit, and it's hard to achieve. (It is not possible to run VMs with more vCPUs than available physical cores, but there is still a theoretical limit of eight vCPUs per core.) There are rumors that it has been done. Unfortunately, that pushes the machine to its limits and is not recommended. Recommended memory utilization differs significantly for each configuration.


最佳实践,高速记忆和很多!但是,请注意选择最高速度存储器的可能折衷。更多VM可能需要使用稍微慢的内存。


推荐的内存配置是什么?当我们详细介绍vm时就会涉及到这个主题,因为它确实与这个问题有关;但是,强烈建议将硬件支持的最大内存设置为不超过ESX设置的64GB限制(因为过度提交内存会造成太多的性能打击,应该只在极端情况下做)。然而,这是一个相当主要的成本效益解决方案,因为在任何ESX实现中都需要考虑冗余;因此,为了提供冗余系统,减少每台机器的内存需求是有益的。

I / O卡上的考虑

下一个考虑是支持哪种I / O卡。与其他操作系统不同,有一个有限的I / O卡列表。廉价驱动器(RAID)阵列的冗余阵列,外部设备的小型计算机系统接口(SCSI)适配器存在局限性,包括磁带库,网络接口卡(NIC)和光纤通道主机总线适配器。虽然列表经常更改,但它归结为由作为ESX的一部分的设备驱动程序集中的一些支持的设备。表1.1涵盖了设备和相关驱动程序。

表1.1:设备和驱动程序

有关的:
123.4.5. 4.
第1页,共5页
2021年IT薪资调查:结果是