思科FabricPath支持更快、更简单、更平坦的数据中心网络雷竞技电脑网站
在独家测试中,思科基于trill的预标准技术在生成树协议(STP)上提供了可测量的改进。
思科有三个文字寻求发展数据中心的网络架构师:更快。雷竞技电脑网站奉承。更简单。
该供应商表示,他们的FabricPath技术体现了这三种品质,它比古老的生成树协议(STP)更好地利用了数据中心交换机之间的连接。
在这个独家测试中,我们评估了FabricPath提高带宽、绕过麻烦重新路由和简化的能力网络管理.在所有三个领域,FabricPath交付:思科的预先标准接管IETF即将到来的颤音规格显示出基于STP的设计实际改善。
抓住:思科Nexus 7000的最新1/10千兆以太网线卡是第一个,到目前为止,仅限产品来实现FabricPath。这可能会随着思科扩展FabricPath支持(它在最近宣布的Nexus 5500的支持)和更多供应商释放颤音实现。
测试结果,结合未来几个月内更具Trill解决方案的外观,建议数据中心网络设计的平坦未来。雷竞技电脑网站(查看平面数据中心网络的终极指南。雷竞技电脑网站)
对颤音的看法
发展数据中心意味着至少要雷竞技电脑网站应对三个网络挑战:更多的带宽、更多的灵活性和更简单的管理。思科宣称其“多链路透明互联”(颤音)协议,解决所有三个需求。(TRILL的部分内容在IETF中仍处于草案状态,所以目前的任何实现都是标准前的。)
从本质上讲,FabricPath是一种链路层路由形式。启用FabricPath的交换机与传统的以太网交换机有两个不同之处:它们使用通过路由协议IS-IS携带的控制消息计算二层路径,并使用FabricPath报头封装进入的以太网帧。此报头包含可路由的源和目的交换机地址,以及用于防止环路的生存时间字段。
FabricPath只涉及最小的额外配置,而且不需要IS-IS的知识。在交换机配置中启用FabricPath需要两行代码;另一个强制性要求是区分fabric端口和edge端口(每个面向fabric的接口上有一个命令)。在测试中,我们还使用可选命令来分配交换机id和设置流量使用的哈希算法;这些要求每人一行。
FabricPath相对于STP的最大优势是在带宽和设计多功能性方面。STP提供冗余和防止环路,但它使用一个主/备模型来做到这一点。因此,STP网络为任何流提供了两条潜在路径,其中只有一条可以转发流量。生成树设计要求路由器在广播域之间移动流量,从而进一步限制带宽并增加复杂性。路由器又会增加延迟,并需要额外的连接来实现冗余。
相比之下,FabricPath在所有参与的交换机上创建一个单一的交换机结构,增加了单层2域内的可用带宽。FabricPath使用等价多径(ECMP)路由在所有可用链路上分配流量,使其成为一种主动/主动技术。
扩展的第2层域还需要较少的第3层路由跳跃,减少延迟,并使其更简单地迁移VMware vMotion等服务。并且更大的第2层域简化了变化管理,因为移动附加的主机不再需要IP地址和/或VLAN配置更改。
FabricPath还减少了广播洪水和媒体访问控制(MAC)地址表大小,既有大型三层网络的众所周知的问题。FabricPath切换使用组播而不是泛洪到发送到未知目的地的转发帧,以及计算路由表,其中包含从每个边缘交换机上学到的Fabric和Source MAC地址的信息的路由表。
此外,使用一种叫做“会话学习”的方法,交换机只对实际涉及会话的端口填充MAC地址表。这与传统的交换不同,在传统交换中,交换机在广播域中看到所有被淹没的流量,并将每个地址放入它们的MAC表中。相比之下,FabricPath交换机不需要庞大的MAC地址表,即使在二层域包含数万台主机时也是如此。
思科声称FabricPath可扩展到256条活动路径,每条路径使用链路聚合(Cisco术语为EtherChannel)由多达16条链路组成。我们没有证实这一说法;这样做将需要将近10,000个测试端口。然而,我们确实验证了用于作出这一声明的两个构建块——一个交换机支持16个并发活动路径的能力,以及每个路径最多支持16个链接的能力。(请参阅我们的测试方法。)
与FabricPath的最大缺点是其有限的可用性:在9月的测试时间仅适用于此思科Nexus 7000仅当配置F1 32端口1/ 10gb以太网线路卡时。思科表示,最近发布的Nexus 5500将在2011年的软件发布中支持FabricPath。除此之外,还不可能将FabricPath扩展到其他思科交换机,更不用说其他供应商的交换机了。
此外,虽然FabricPath在第一次测试中表现非常好,但它并不是评估数据中心切换的唯一指标。雷竞技电脑网站因为我们在这个测试中只关注FabricPath的功能,所以我们没有涉及其他关键问题,比如可伸缩性和延迟。我们已经注意到这些问题在过去的测试中有所改变,并计划在即将到来的Nexus评估中回到这些领域,包括一个更大的测试平台。我们还计划在其他TRILL实现可用时测试它们。
另一个问题是定价,尽管这未必是一个负面因素。乍一看,150万美元的标价让人瞠目结舌。但这涵盖了一个非常大的设置(6个Nexus 7010机箱和384个带光学的10G以太网端口),以展示可伸缩性。现有的Nexus 7000客户可以以3.5万美元的价格添加支持F1 fabricpath的线路卡(当然,很少有买家会按标价购买)。
令人印象深刻的表现
我们的测试以五种方式检查了FabricPath的功能。所有这些都涉及6个Nexus 7010机箱,连接到一个FabricPath网络,连接12800个模拟主机。Spirent TestCenter流量生成器/分析仪每个端口模拟100台主机,为6个交换机中的两个上的128个10G以太网端口提供流量。
在第一个测试中,我们试图验证FabricPath在交换机之间支持16条冗余路径。在将两个边缘交换机配置为16个EtherChannel接口(每个接口有4条链路)后,我们使用Spirent TestCenter在所有模拟主机之间发送流量,时间为5分钟。
在这个测试中,交换机以零帧丢失转发所有流量,验证了FabricPath在16个冗余连接上分担负载的能力。
虽然EtherChannel组的数量很重要,但每个组的链接数量也很重要。涉及主机之间的大量数据传输的应用需要胖子,因此这里的重点是。我们使用相同的物理拓扑,如第一次测试,但这时间配置了具有四个EtherChannels的每个边缘开关,每个边缘开关包括16个10g以太网链路。同样,该系统在没有损失的情况下提供所有帧。
在同一个测试中,我们还检查了FabricPath处理主机MAC地址的公平性。在之前的测试中,我们已经看到交换机的哈希算法导致测试流量在多个链路上分布非常不均匀的问题。由于FabricPath使用了ECMP,我们发现EtherChannels之间的差异不超过0.07%。然后我们使用一组完全不同的伪随机MAC地址重复测试,并获得了几乎相同的结果。这将验证ECMP中的“equal”;交换机应该能够哈希任何模式的MAC地址,并将它们均匀地分布在所有核心链接。
没有多播性能惩罚
思科还声称,与STP网络中形成的单一树相比,FabricPath跨多个主干交换机分担多播源接收树。我们用一个非常大的多播设置来测试这个声明。Spirent TestCenter在两个边缘交换机的每个端口上表示100个组播源(共128个端口);每个边缘交换机上的每个端口也加入了来自另一个边缘交换机上所有端口的50个组。这相当于64万个多播路由(128个边缘端口乘以50个组乘以每组100个源)。
为了确定FabricPath是否会分担多播流量,我们在每次测试后检查每个EtherChannel接口的包计数。与单播流量相比,差异更大,但只是很小;在不同的EtherChannels中,包计数最多相差2.5%左右。
然后,我们重复了单播和组播流量的组合相同的测试;同样,FabricPath在交换机之间的链路中或多或少地分布了所有帧。事实上,单播和组播数据包计数中的差异在混合类测试中完全相同,好像我们只提供单播或仅提供多播。这表明将多播添加到携带单播的FabricPath网络(或反之亦然)不会对负载共享产生不利影响。
快结构故障转移
对于一般和数据中心的网络,尤其是比高性能更重要的考虑。雷竞技电脑网站使用FaSt FabricPath和STP,关键问题是网络在故障链接或交换机周围运行流量的快速。网络在使用快速生成树故障之后收敛到左右1至3秒,或使用标准生成树45至60秒。那么,自然的后续问题是,Fast FabricPath在失败后的汇集。
为了找到答案,我们提供了与上面描述的四路16链路测试相同的流量,但会使一个主干交换机断电,并从帧丢失中获得故障转移时间。我们重复了四次测试,每次关闭一个脊椎开关。
结果表明,FabricPath的收敛速度远远快于生成树。平均而言,系统在162毫秒内将发送到故障主干交换机的流量重新路由,这比快速生成树1到3秒的收敛时间有了很大的改进。
我们还测试了在FabricPath网络中添加交换机时的收敛时间,方法是每次增加一个下行脊柱交换机的电源。在这个测试中,收敛时间为零。IS-IS协议识别出每一条新的路径,并开始在其上路由流量,但是在每次路由重新计算期间或之后,系统都没有丢弃任何帧。
雷竞技电脑网站数据中心网络管理器
我们的最后一组测试测试了思科数据中心网络管理器(DCNM)软件配置和监控FabricPath网络的能力。雷竞技电脑网站DCNM使用简单对象访问协议(Simple Object Access Protocol, SOAP),这是一种基于xml的表示数据的方法,它允许任何第三方Web服务应用程序调用它。思科通过XML输入和输出到DCNM服务器的功能测试演示了这一点。
在我们的测试中,我们专注于DCNM执行常见的FabricPath管理任务的能力。所有测试的任务都包含在DCNM的基本版本中,DCNM免费提供用于管理Nexus交换机。一些额外的功能(如配置历史管理)也需要额外的成本,但我们没有对这些功能进行测试。另外,DCNM主要用于Nexus交换机管理;虽然它可以使用思科发现协议(Cisco Discovery Protocol, CDP)发现非nexus交换机,但它管理的信息仅限于CDP提供的信息。使用Nexus设备时,管理工具包要广泛得多。
在我们的第一次测试中,我们配置了DCNM来发现六个Nexus交换机并填充其数据库。其次,当FabricPath链路的流量超过80%时,我们将DCNM配置为发送文本和电子邮件。第三,我们配置DCNM在链路故障上显示警报(通过物理地卸下边缘和脊柱开关之间的电缆)。最后,我们配置DCNM将加权随机早期检测排队应用于所有开关配置,然后删除所有交换机配置的WRED部分。DCNM成功完成了所有这些任务。
虽然我们希望看到在多个交换机上实现FabricPath,但毫无疑问,它代表了网络技术的重大进步。这些测试表明,FabricPath简化了网络设计,同时提高了可伸缩性和弹性。对于想要扩展数据中心的网络架构师来说,使用FabricPath来扁平化网络现在是一个切实可行的雷竞技电脑网站选择。
纽曼是网络世界实验室联盟的成员,也是独立测试实验室和有个足球雷竞技app工程服务咨询公司Network Test的总裁。可以和他联系dnewman@networktest.com..
谢谢
有个足球雷竞技app网络世界感谢斯博伦特通信公司的支持,该公司为这个项目提供了工程和后勤援助。
版权所有©2010 IDG ComRaybet2munications, Inc.