第1章:系统思考

普伦蒂斯霍尔

123.45 页3.
第3页,共5页

磁盘驱动器空间注意事项

讨论的下一个项目是驱动空间所需的内容。实质上,分配给系统的磁盘子系统需要大到足以包含COS和ESX。用于灾难恢复原因的虚拟交换文件的COS,虚拟交换文件的存储空间(用于在ESX中的内存),VM磁盘文件,本地ISO映像(VMDK)文件的备份。如果光纤通道或iSCSI可用,则很明显您应该将VM磁盘文件卸载到这些系统。当我们从SAN启动时,我们必须在3.0版之前为ESX共享Service Console和ESX之间的光纤通道适配器。光纤通道适配器端口的共享不是最好的练习,并以方便起见提供,而且没有真正建议使用。(第3章“安装”)中完全覆盖了SAN的启动。将临时存储(COS交换)放在昂贵的SAN或iSCSI存储上也不是最好的实践;该建议是存在某种形式的本地磁盘空间来托管OS和COS交换文件。它是ESX版本3中的vMotion的要求,即每个VM VMkernel交换在远程存储设备上实现。 The general recommendation is roughly 72GB in a RAID 1 or mirrored configuration for the operating system and its necessary file systems, and for local storage of ISO files and other items as necessary.

对于版本3之前的ESX版本,VMkernel交换文件空间应该是机器内存量的两倍。但是,如果机器中两倍于64GB的内存量大于64GB,则应该使用另一个VMkernel交换文件。每个VMkernel交换文件应该位于它自己的VMFS中。vm可以在创建的VMFS上大于64GB,然后一些vm可以使用虚拟交换文件。但是,如果这些VMFS分区上没有虚拟机,分区可以正好是64GB,并使用RAID 0或无保护的RAID存储。在这种情况下需要注意的是,如果你丢失了这个RAID设备的一个驱动器,可能ESX服务器将不再能够过度使用内存,而那些当前过度使用的虚拟机将会失败。使用最快的RAID级别,并将VMFS上的虚拟交换文件放在自己的RAID集中。还可以将VMkernel交换与操作系统放在推荐的RAID 1设备上。对于VMkernel交换来说,RAID 5确实是一种浪费。对于ESX版本3之前的版本,最好选择RAID 1或包含VMkernel交换文件的VMFS分区。

对于ESX版本3,无需具有单个vmkernel交换文件。这些现在与每个VM独立包含。

任何包含虚拟机的VMFS都应该使用RAID 5配置,以便更好地保护数据。第12章“灾难恢复和备份”更详细地介绍了磁盘配置,它从灾难恢复(DR)的角度研究了本地磁盘的需求。一般的容灾观点是有足够的本地空间从主机上运行关键的虚拟机,而不需要SAN或iSCSI设备。


磁盘的最佳实践 -对于版本3之前的ESX版本,使用尽可能多的本地磁盘来保存VMkernel交换文件(对于低内存系统,内存为2倍,对于大内存系统,内存为相等)。

有必要保持OS,本地ISO映像,关键虚拟机的本地备份多少本地磁盘,也许有些地方的虚拟机。


基本硬件注意事项

表1.2方便总结本节中讨论的硬件考虑因素。

表1.2:硬件的最佳实践

物品

ESX版本3.

早于版本3的ESX版本

更多信息请访问本章

光纤端口

两个2 gb

两个2 gb

第五章

网络端口

六1 gb

二为COS

两个用于VM

两个用于vMotion.

四个1 gb

一个因为

两个用于VM

一个用于vMotion.

第八章

本地磁盘

SCSI RAID足以保留最重要的虚拟机的副本

SCSI RAID足以保留最重要的VM和本地vSWAP文件的副本

iSCSI

通过VMkernel或iSCSI HBA卡提供2个1GB网口

N / A.

第八章

企业级

企业级

第五章

磁带

偏僻的

偏僻的

第十一章

基于nfs NAS

通过VMkernel的两个1GB网口

通过COS

第八章

内存

多达64 gb

多达64 gb

网络

三四个

管理/ iSCSI网络

VM网络

VMotion网络

VMkernel网络

管理网络

VM网络

VMotion网络

第八章

特定的硬件问题

现在我们需要看看目前可用的硬件,并决定如何最好地利用它来满足前面列出的最佳实践。所有的硬件都会有一些问题需要考虑,并应用从本章第一节的意见将有助于显示好的,坏的和丑陋的关于当前用作虚拟基础设施节点的可能的硬件。主要目标是帮助选择各种形式的硬件当一个企业级ESX服务器农场读者了解必要的设计选择。需要注意的是虚拟机的数量提到的基于平均的机器,没有做非常多的网络,磁盘或其他I / O和具有平均处理器利用率上。这一数量太多基于目前的基础设施的利用率,这些数字是什么每个服务器能够衡量和不打算作为最大值或最小值。一个适当的分析将产生你的ESX服务器的最佳利用,是设计用于任何虚拟化基础架构的一部分。

刀片服务器系统

因为刀片系统(见图1.2)虚拟化硬件,它是ESX的逻辑选择,其进一步通过在每个刀片上运行更多服务器来虚拟化刀片投资。但是,在选择刀片时存在一些严重的设计考虑因素。这些考虑因素的大部分都处于港口密度的领域和储存的可用性。请记住,我们希望拥有至少四个NIC,两个光纤通道端口和本地磁盘:许多刀片都没有这些基本要求。例如,采用IBM HS20。该刀片有两个板载NIC和两个光纤通道端口。虽然有很多光纤通道,但这种配置有很少的NIC。这并不是说没有使用HS20,但其使用中的权衡是缺乏冗余,或安全性和性能权衡。其他刀片也有类似的权衡。另一个例子是HP BL3 P刀片。 Although it has enough NIC ports, the two Fibre Channel ports share the same port on the fabric, which in essence removes Fibre redundancy from the picture. On top of that restriction, the BL3 p uses an IDE/ATA drive and not a SCSI drive, which implies that a SAN or iSCSI server is also required to run VMs. There are also no Peripheral Component Interconnect (PCI) slots in most blades, which makes it impossible to add in an additional NIC, Fibre, or SCSI adapter. In addition to the possible redundancy issue, there is a limitation on the amount of memory that you can put into a blade. With a blade, there is no PCI card redundancy because all NIC and Fibre ports are part of the system or some form of dual-port mezzanine card. If more than one network will be available to the VMs, 802.1q VLAN tagging would be the recommendation, because there is no way to add more NIC ports and splitting the NIC team for the VMs would remove redundancy. Even with these trade-offs, blades make very nice commonly used ESX Servers. It is common for two processor blades to run between four and ten VMs. This limitation depends on the amount of memory available. On four-processor blades, where you can add quite bit more memory, the loads can approach those of comparable nonblade systems.

图1.2

刀片框的前后


刀片的最佳实践-选择提供全网卡和光纤冗余的刀片。


1 u服务器系统

下一个感兴趣的设备是1U服务器(参见图1.3),它在大多数情况下提供两个板载网卡,通常不提供板载光纤,可能提供两个PCI插槽,可能提供2到4个SCSI/SAS磁盘。这是完美的添加四端口NIC和双端口光纤控制器;但是,如果您需要本地磁带设备的SCSI卡(这有时是必要的,但从不推荐),除非有办法获得更多的板上网卡或光纤端口,否则不可能放入SCSI卡。除了需要在这些单元中添加更多的硬件之外,还可能丢失PCI卡冗余。考虑将HP DL360作为一个可能的ESX服务器,它是一个1U设备,带有两个SCSI或SATA驱动器,两个板载网卡,可能还有一个夹层光纤通道适配器。在本例中,如果我们使用的是ESX版本2.5。x或更早的版本,我们只需要选择SCSI驱动器,而且对于任何版本,我们都希望至少增加一个四端口网卡卡,以达到6个网卡,这构成了最佳实践,并为ESX版本3获得更多的冗余。在某些情况下,在设备的背面有一个SCSI端口,因此访问磁盘阵列将极大地增加空间,但驱动程序的缺陷经常影响它在磁带设备上的使用。

图1.3

1U服务器的前后

在SAN冗余的情况下,如果没有夹层光纤通道适配器,第二个PCI插槽将举办一个双端口光纤通道适配器,这将轮出和填补所有可用插槽。随着四端口NIC支持的出现,增加一个额外的一对为另一个网络NIC端口的需要与新的PCI卡更换附加双端口NIC的。还有,再次权衡了相当多的选择这个平台时,其低的内存量意味着更少的虚拟机每台服务器,也许在虚拟机的四至十个不等,视内存磁盘的数量和大小箱子里头。比肩胛骨稍更多的功能,在1U机箱使一个很好的备份服务器,但在需要的时候可以是主力。


1u盒子的最佳练习 -选择一个有板载光纤通道适配器的盒子,以便有更多的空闲插槽用于更多的网络和任何其他必要的I/O卡。此外,如果可能的话,请选择大型磁盘驱动器。至少有两个板载网络端口。根据需要增加四端口网络和双端口光纤通道卡,以获得端口密度。


2U服务器系统

下一个考虑的服务器是2U服务器(见图1.4),类似于HP DL380。这种类型的服务器通常有两个板载以太网端口,可能有一个板载光纤通道端口,通常还有一个用于外部驱动器阵列的外部SCSI端口。除此之外,至少有3个PCI插槽,多达6个SCSI驱动器,内存至少是1U机器的两倍。额外的PCI插槽增加了相当多的功能,因为它可以托管Adaptec SCSI卡来支持本地磁带驱动器或库(这有时是必要的,但从不推荐),或者它可以托管更多的网络功能。至少需要两个以上的NIC端口,如果服务器中还没有一对端口,可能还需要一个双端口光纤通道适配器。因为这类服务器可以承载6个SCSI磁盘,它们可以用超过1TB的空间加载,这使2U服务器成为出色的独立ESX服务器。引入双核处理器,这台机器有能力运行许多vm。这类服务器的主要限制是可能缺乏网卡空间和内存限制。即使有这些限制,它仍然是一流的服务器,并提供了制作优秀ESX服务器所需的所有组件。

图1.4

接待和2U服务器的背面

将带有小磁带库的2U服务器配对,成为一个框中的办公室,即船舶到远程位置不需要SAN或其他形式的远程存储,因为它具有大量的本地磁盘空间,另一个磁盘阵列轻松连接到哪个磁盘空间。然而,在许多情况下,2U具有与1U盒相同的特征。额外的内存和PCI插槽非常重要吗?它可以是,并且根据服务器类型,可能需要双端端口NIC,双端口主机总线适配器(HBA)和磁带库的SCSI适配器。额外的插槽,额外的内存和大量的本地磁盘使这类服务器成为ESX非常好的工作主控。可以根据可用存储器在这些类型的服务器上运行6至24个VMS,以及是否正在使用DC处理器。


2U服务器的最佳实践选择至少有两个板载网卡端口、两个板载fc端口、足够的磁盘和尽可能多的内存的服务器。增加一个四端口网卡来增加端口密度,如果有必要,可以增加两个单端口光纤通道适配器来增加冗余


大型服务器级系统

下一个讨论结合了多种类型的服务器(参见图1.5).该类结合了4,8和16个处理器机器。独立于处理器计数,所有这些服务器都有许多相同的硬件功能。一般情况下,他们有四个SCSI驱动器,至少六个PCI插槽,两个板载网卡,RAID内存,和非常大的内存空间从32GB到128GB。RAID存储器只是一种技术,允许在机器仍在运行时更换各种组件,这可以缓解基于硬件的停机时间,除非它是关键组件之一。RAID内存非常好,但它只是服务器中总内存的一小部分,并且不计为服务器的可用内存。例如,可以将全80GB的存储器放入HP DL760中,但操作系统只会看到64GB的内存。缺少的16GB成为RAID内存池,只有在硬件发现的错误记忆棒时才使用。通常,较大的机器具有比2U服务器更少的磁盘,但它通过丰富的PCI总线和插槽来组成,使多个光纤通道适配器和双端口NIC用于最高级别的冗余。在这些服务器中,一般最佳实践所建议的多个光纤通道端口将每个都放置在不同的PCI总线上,因为NIC卡可以在PCI卡,SAN结构和网络中获得更好的性能和冗余。 These types of servers can host a huge number of VMs. The minimum number of VMs is usually in the range of 20, but it can grow to as high as 50 depending on processor count, utilization, and load.

图1.5

大型服务器类机器的前后

外部存储的影响

有许多不同的外部存储设备,从简单的外部驱动器,到磁盘阵列,共享磁盘阵列,活动/被动SAN,Active / Active San,SCSI磁带驱动器,到库,光纤磁带库....列表实际上是无止境的,但我们将看待今天使用的最常见的设备,最有可能在未来使用的设备。我们将以最简单的设备开头并继续移动到更复杂的设备。正如我们使用服务器所做的那样,该讨论指出了该技术中的限制或益处,以便在启动或修改虚拟基础架构架构时可用的所有事实。

对于本地磁盘,强烈建议您使用SCSI / SAS RAID设备;虽然IDE支持运行ESX,它没有举办一个VMFS,因此将需要某种形式的外部存储的能力。ESX版本3个支持本地SATA设备,但它们共享相同的限制IDE。此外,如果你正在运行的任何形式的共享磁盘集群,如微软集群服务器,本地VMFS是必需的引导驱动器,但需要使用原始磁盘映射所有共享卷的远程存储。如果一个不可用,共享磁盘集群将失败,主要锁定的问题。


当地磁盘的最佳实践 -使用SCSI或SAS类型的硬盘。


在本地磁盘外,外部磁盘托盘或磁盘阵列(参见图1.6)是一种常见的附件,通常不需要磁盘阵列之外的更多硬件和适当的SCSI电缆。但是,与独立服务器一样,本地磁盘阵列不支持使用VMotion热迁移虚拟机。但是,当不需要VMotion时,这是一种将更多存储附加到服务器的简单方法。如果磁盘阵列是SATA阵列,最好改用SCSI,因为尽管你可以在SATA中添加更多的空间,SCSI更快,而且所有版本的ESX都支持SCSI。

图1.6

外部磁盘柜的前后面板

下一种类型的设备是共享磁盘阵列(见图1.7),它具有自己的控制器,可以附加到一对服务器而不是一个服务器。板载控制器允许将逻辑单元编号(LUN)进行雕刻,并将其呈现给适当的服务器或在服务器之间共享。可以使用此类设备仅在大多数四个ESX主机之间共享VMFS格式的LUN,因为这通常是每个共享磁盘阵列上可用的SCSI接口的限制。它是一种创建多机冗余的一种非常便宜的方法。但是,使用此方法将ESX服务器的群集限制为完全可用的SCSI端口的数量,并限制从VM内访问原始LUN的方法。

图1.7

共享SCSI阵列的前面和后面


本地存储的最佳实践使用本地或本地连接的基于SCSI的存储系统。


SAN是允许使用VMotion的设备之一,通常是入门级的(参见图1.8)和企业级(参见图1.9)样式。每个人都有其与ESX用途和所有允许数据的多个ESX主机之间的共享,这对于使用VMotion的主要成分。SAN信息中详细介绍在第5章,“存储与ESX。”

图1.8

正面和入门级SAN与SATA驱动器的背面

图1.9

正面和企业级SAN的背

虽然ESX早于3.5版不支持SATA驱动器,但是当直接连接到主机,除非使用SADA Bridge适配器时,如果SAN的一部分(参见图1.8).但是,它们比使用SCSI驱动器慢,因此它们可能不是首选VMDK存储的好选择,但可以作为一个很好的临时备份位置;最好的解决方案是尽量避免使用非scsi驱动器。尽管入门级SAN非常适合小型安装,但企业级安装确实需要企业级SAN(请参阅图1.9).企业级SAN提供更高程度的冗余,存储和ESX的灵活性而不是入门级版本。两者都有可能的架构。例如,如果您将ESX部署到带有一对服务器的小型Office,则使用Enterpress级SAN部署比全尺寸的企业类SAN部署昂贵。


圣存储最佳练习 -使用基于SCSI的SAN存储系统。对于小型安装,入门级系统可能是最好的;但是,对于其他任何内容,最好使用企业SAN系统来增加冗余。


在存储领域中的最后一项是NAS设备(见图1.10),提供使用各种协议的文件系统,包括网络文件系统(NFS)、Internet SCSI (iSCSI)和公共Internet文件系统(CIFS)。特别有趣的是iSCSI协议,它是基于Internet协议(IP)的SCSI。在ESX 3.0之前的版本中,不支持将此协议作为虚拟机磁盘文件的存储位置,但在更高版本中支持。使用NAS时,不需要光纤通道适配器,只需要更多的网卡来支持iSCSI和NFS协议,同时提供冗余。一般来说,iSCSI和NAS的运行速度要比光纤通道慢一些。

图1.10

NAS设备


iSCSI的最佳实践在ESX 3.0之前版本不支持NAS或iSCSI;在升级可用之前不要使用该设备。同时,要有足够的COS NIC端口来提供冗余和带宽。


例子

现在是时候回顾一下客户关系所做的在前面的章节中的注释。以下六个例子都来自于真实的客户,而不是从我们的想象。该方案建议使用前面讨论过的最佳实践和一点点想象力。

例1:现有的数据中心

一位顾客是在硬件升级周期之中,并决定采取替代购买相当多的硬件;客户希望避免以高昂的代价购买300+系统。他们决定继续ESX服务器。此外,客户进行详尽的内部流程,以确定是否需要升级300+系统,相信所有的人都可以迁移到ESX,因为他们达到或超过记录限制。他们现有的机组合包括从最后一台机器刷新(大约20)几个新的机器,但主要是由那些至少2到3代的旧机器,在处理器上运行的不超过900MHz的速度更快。换新范围从1.4GHz的3.06GHz的到2U机(见图1.4).客户也想要么利用他们现有的硬件莫名其妙或购买很少的机器进行了必要的差别,因为价格对于ESX运行300+机接近其完整的硬件预算。此外,还提供了信息的最后一位,它真的抛出猴子扳手插入一个很好的解决方案:他们有五个数据中心,用自己的SAN基础设施。

根据最佳实践,我们可以立即声明我们可以使用3.06GHz主机。然后我们就能确定是否有足够的能量来运行所有的东西。然而,这个示例表明,要运行300多个虚拟机,需要一些比硬件更基本的东西。它表明需要对运行环境进行适当的分析,首先确定300多个服务器是否适合进行迁移,然后确定哪些服务器最适合作为300多个vm的主机。执行此分析最常用的工具是AOG Capacity Planner。该工具将收集每台服务器在一到两个月期间的各种利用率和性能数据。然后使用该信息确定哪些服务器适合作为vm运行。


最佳实践 -使用容量规划或类似,以获取有关服务器的利用率和性能信息的东西。


相关:
123.45 页3.
第3页,共5页
IT薪水调查:结果在