我们如何测试iSCSI SAN服务器

我们测试了iSCSI服务器通过安装和配置它们,让它们完成一系列典型任务,并运行性能测试。

我们的测试平台是基于Enterasys C2G124-48千兆以太网交换机提供的专用数据网络,以及使用Enterasys C2G124-48交换机的专用控制网络。这两个网络通过诺基亚防火墙相互连接,并连接到我们的生产实验室网络。

每个iSCSI SAN服务器使用供应商为每个服务器提供的许多以太网端口直接连接到Enterasys网络。如果有可能分离控制和数据流量,我们将控制端口连接到控制网络。在某些情况下,不可能将控制和数据网络分开,所以我们在同一个网络上同时运行控制和数据。

许多存储服务器支持“巨型”数据报,这是对以太网的非标准扩展,允许更大的以太网帧(最多9000字节是常见的)。根据设备的不同,这可以通过减少包头和每个包处理的开销来增加系统总吞吐量。Enterasys开关支持“jumbograms”,所以我们为每个支持它的服务器打开了jumbograms。

另一个常用的性能增强是链接聚合(有时称为“绑定”或“团队”),它将多个以太网端口组合成一个虚拟端口,该虚拟端口可以容纳组件端口的吞吐量并提供高可用性。在支持链接聚合的地方,我们利用了它。

在某些情况下,我们必须在Enterasys交换机上手动配置链路聚合;在其他情况下,存储服务器支持链路聚合控制协议(LACP),该协议自动将端口聚合在一起。在这种情况下,我们只需验证Enterasys交换机和设备是否同意链路聚合配置。

我们将四个相同的服务器连接到数据网络,每个服务器都有一个1Gbps的专用连接。每个服务器还与控制网络有100Mbps的连接。我们使用Avocent AMX5100 KVM来控制服务器。服务器都是双xeon系统,cpu 3.0GHz,内存至少2GB。每个都是从本地连接的SCSI驱动器启动的。

其中两台服务器使用专用的QLOGIC QLA4050C iSCSI适配器。这些适配器用TCP/IP连接到数据网络,并直接在适配器上处理所有的iSCSI协议。这减少了主机上的负载,并使某些操作(如直接从iSCSI虚拟磁盘引导)变得更加简单。另外两台服务器使用Intel提供的Intel Pro/1000MT适配器连接数据网络。QLA4050C和Pro/1000MT适配器都是64位宽PCI-X 133mhz适配器,具有单个千兆以太网连接。

最初,我们配置了两台使用Windows 2008的服务器(其中一台使用QLogic和Intel适配器)和两台使用Centos 5 Linux的服务器。我们使用英特尔适配器和本地iSCSI启动器,这是微软在Windows 2008和Centos 5上的Open-iSCSI启动器。然而,当我们进行性能测试时,Linux服务器被证明是非常有问题的。尽管我们得到了Reldata技术支持团队的大力支持,我们还是无法用Linux和Iometer完成测试。我们发现我们的基准测试工具Iometer的结果在使用Qlogic或Intel适配器的Centos 5 Linux平台上是不可信的。这表明Iometer和操作系统之间存在一些交互作用。两家iSCSI服务器供应商确认了Centos 5 Linux和Iometer之间的已知问题,所以我们放弃了Centos 5的性能测试,用更多的Windows 2008服务器替换了它。然而,我们确实继续使用Centos 5 Linux和Open-iSCSI启动器作为互操作性和可用性测试的一部分。

对于iSCSI服务器,我们使用RAID6(如果可用)或RAID5(如果不可用)配置提供到阵列中的物理磁盘。在每个iSCSI磁盘服务器上,我们总共配置了8个RAID6/5阵列的虚拟磁盘,每个被测试的服务器都有2个。在可能的情况下,我们在iSCSI磁盘服务器的多个控制器上平衡了8个服务器磁盘。

我们的性能测试是基于模拟工作负载设计的,模拟四个不同的应用程序:Exchange 2003、Exchange 2007、Windows文件服务器和Linux web服务器。我们使用了在其他基准测试中发现的Exchange的通用度量。对于文件服务器和web服务器,我们使用Opus One上运行多个操作系统的现有服务器来提供工作负载特性。

我们在所有4个服务器上使用流行的Iometer磁盘基准测试工具,然后将它们连接到单个Iometer控制台,该控制台启动和停止所有服务器上的每个测试,并聚合结果。这些结果是使用Iometer版本2006.07.27获得的,版权为Intel Corporation 1996-1999。英特尔不认可任何Iometer的结果。

我们的Iometer工作负载总结如下表。每个工作进程都有一个32项的I/O队列,确保Iometer系统保持足够的I/O准备运行。我们相信,在我们配置的级别上,这种工作负载远远超过了典型的服务器所能提供的工作负载。

负载虚拟磁盘1负载虚拟磁盘2负载

Exchange 2003 3 workers, 4K I/ o, 67%/33% Read/Write, 95%/5% random/sequential 1 worker, 64K I/ o, 5%/95% Read/Write, 5%/95% random/sequential

Exchange 2007 3 workers, 8K I/ o, 50%/50% Read/Write, 95%/5% random/sequential 1 worker, 64K I/ o, 5%/95% Read/Write, 5%/95% random/sequential

File Server 2 workers, 10% 4K, 10% 8K, 40% 32K, 40% 64K I/ o, 80%/20% Read/Write, 5%/95% random/sequential 2 workers, 10% 4K, 10% 8K, 40% 32K, 40% 64K I/ o, 80%/20% Read/Write, 5%/95% random/sequential

Web Server 2 workers, 10% 8K, 20% 32K, 20% 64K, 20% 256K, 30% 512K I/ o, 95%/5% Read/Write, 5%/95% random/sequential 2 workers, 10% 8K, 20% 32K, 20% 64K, 20% 256K, 30% 512K I/ o, 95%/5% Read/Write, 5%/95% random/sequential

我们对每个工作负载运行15分钟,并对每个工作负载测试重复三次,计算结果的平均值以获得我们的性能数据。在系统无法完成工作负载的少数情况下,我们放弃那些结果并重新运行测试。

因为我们没有特别比较专用的iSCSI主机总线适配器(如QLogic 4050C)和标准的以太网适配器(如Intel Pro/1000MT),所以我们没有针对我们测试的每个服务器分别列出性能结果。

了解更多关于这个主题的信息

加入网络世界社区有个足球雷竞技app脸谱网LinkedIn对自己最关心的话题发表评论。

版权所有©2008 IDG ComRaybet2munications, Inc.

SD-WAN买家指南:向供应商(和您自己)提出的关键问题