第九章:流量控制和服务质量

思科出版社

思科出版社本书章节从新的和经典思科出版社的书。

你最喜欢的思科出版社的书。

在完成这一章,你将能够:

  • 列出所有的流量控制和QoS机制与现代存储网络

  • 描述每一个流量控制的一般特征和QoS机制与现代存储网络

第一部分章节,“存储网络的环境,”和第二部分,“OSI层,”介绍了流量控制和QoS机制用于现代存储网络。建筑在这些章节,本章提供了一个全面的库存流量控制和QoS机制所使用的以太网、IP、TCP、互联网SCSI (iSCSI),光纤通道(FC),光纤通道协议(FCP)和光纤通道通过TCP / IP (FCIP)。鼓励读者评论流控制和QoS讨论第五章的开头,“OSI物理和数据链路层,”前阅读本章。此外,鼓励读者评论的框架/数据包格式描述和传递机制的讨论在第二部分的章节,“OSI层,”前阅读本章。最后,鼓励读者评论数据传输优化在第8章的讨论中,“OSI会话、表示和应用程序层,“之前阅读这一章。

流控制和服务质量的概念基础

要完全理解的目的和操作流控制和QoS机制,首先,读者需要了解几个相关的概念。这些包括以下几点:

  • 半双工上层协议的工作原理对全双工网络协议(就ulp进行)

  • 半双工的区别时间机制和流控制机制

  • 流控制和服务质量(QoS)

  • 这两种类型的QoS算法之间的差异

  • 交付确认流控制之间的关系

  • 流控制处理延迟的关系

  • 网络延迟的关系流控制

  • 传输流控制之间的关系

  • 为端到端延时的因素

如前所述,SCSI是一种半双工命令/响应协议。对于任何给定的I / O操作,发起者或目标可能在给定的时间点上传输。SCSI通信模型不允许同时传输的发起者和目标的上下文中一个I / O操作。然而,SCSI跨多个I / O操作支持全双工通信。例如,发起者可能有多个I / O操作与给定的目标和突出的同时可能会传播一些I / O操作在接受别人。这增加的影响每一对发起者/目标之间的总吞吐量。会发生这样的情况,每个发起人之间的端到端网络路径/目标对必须支持全双工通信在OSI模型的所有层。

读者应该注意不要混淆了半双工传输信号机制和流控制机制。沟通铸造设备使用序列倡议在FC头信号设备可以发送在任何给定的时间点上。同样,iSCSI设备使用F在iSCSI基本头段(黑洞)信号设备可能在双向传输的命令。(iSCSI不明确信号设备可能在单向传送命令。)这些机制不限制的数据流。他们仅仅控制数据传输的时间相对于另一个。

流控制和QoS机制密切相关,相辅相成,提高网络的效率和应用程序的性能。流控制涉及踱步帧或数据包传送的速度。所有流控制机制的终极目标是避免接收缓冲区溢出,提高交货的可靠性子系统。相比之下,QoS涉及治疗帧或包收到后一个网络设备或结束节点。当拥塞发生时在一个出口在网络设备端口,帧或包需要传输端口必须排队,直到可用带宽。排队等候而帧或包,其他帧或包进入网络设备可能排队在同一出口港口。QoS策略支持每端口使用多个队列和确定的顺序队列服务当带宽可用。没有QoS策略,帧或包在一个队列必须传播根据一个简单的算法,如先进先出(FIFO)或后进先出(LIFO)。QoS机制使网络管理员定义高级策略的传输顺序帧或包。QoS策略影响的延迟和吞吐量一帧或包。 The QoS concept also applies to frames or packets queued within an end node. Within an end node, QoS policies determine the order in which queued frames or packets are processed when CPU cycles and other processing resources become available.

所有的QoS算法可分为两类:队列管理和队列调度。队列管理算法负责管理帧或包在一个队列的数量。一般来说,一个框架或包不受被删除后承认一个队列。因此,队列管理算法主要处理队列录取政策。相比之下,队列调度算法负责选择下一个帧或包传输从一个队列。因此,队列调度算法主要处理带宽分配。

端到端流量控制密切相关交付确认。要理解这一点,考虑下面的场景。设备广告10可用的缓冲区设备B设备B然后传送10包设备,但所有10个数据包网络中透明地下降。设备B不能发送任何数据包,直到设备一个宣称它有免费的缓冲区。然而,设备不知道它需要发送另一个缓冲广告设备B .结果是死锁条件阻止设备B传送附加帧或包设备答:如果网络通知设备B的下降,设备B可以增加它的传输缓冲区设备A .然而,液滴构成消极的确认通知。设备可以发送一个数据包设备B包含标题表明10缓冲区可用在设备A。尽管这并不构成一个承认10包通过设备B被设备接收和处理,它提供表明设备B可能传送额外的包设备如果设备B假设第一个10包送到设备,结果是一个不可靠的交付子系统(类似于UDP / IP和FC 3班),如果设备B不承担任何死锁条件依然存在。其他突发事件存在,在所有情况下,死锁条件或一个不可靠的交付子系统是结果。因为流量控制的目的是为了避免丢包情况由于缓冲区溢出,动机存在不可靠的交付子系统实现端到端流量控制。因此,端到端流量控制通常只在可靠传递子系统实现。此外,端到端流控制信号通常是与交货确认机制集成。

端到端流量控制也密切相关帧内/数据包处理接收节点。当一个节点接收到帧或包,帧或包消耗一个接收缓冲区,直到节点处理帧或包拷贝到另一个缓冲区进行后续处理。帧的接收节点不能收到数据包,直到帧或包被处理或复制到不同的缓冲,因为确认增加传输节点的传输窗口(TCP)或EE_Credit计数器(FC)。换句话说,/包确认意味着帧或包被承认被处理。因此,在接收节点处理延迟影响吞吐量以同样的方式作为网络延迟。对否定对吞吐量的影响,接收缓冲区资源必须增加处理延迟的接收节点内增加。另一个潜在的影响是不必要的重传帧或包如果发射机的重新传输计时器到期之前确认。

被动和主动的流控制机制都是敏感的网络延迟。网络延迟的增加潜在的收益率增加了框架在使用被动的流控制。这是因为拥堵必须发生在接收机信号发射器停止传输。而暂停信号是在飞行中,任何帧或包已经在飞行中,和任何额外的框架或数据包传送接收前暂停信号,有可能超过接收方的缓冲区。随着网络延迟增加,帧或包的数量也会增加风险。主动流动控制排除了这个场景,但延迟仍是个问题。增加网络延迟产生缓冲需求的增加或减少的吞吐量。因为所有设备有有限的内存资源,退化的吞吐量是不可避免的,如果网络延迟随着时间继续增加。一些设备支持动态重新分配内存或基于实时波动从接收缓冲区池网络延迟(称为抖动),所以最大预期RTT,包括抖动,必须用于计算缓冲区需求维持最佳的吞吐量。更多的缓冲增加设备成本。 So, more network latency and more jitter results in higher equipment cost if optimal throughput is to be sustained.

支持传输也增加设备成本。除了研究与开发(R&D)与更高级的软件相关的费用,设备支持传输必须缓冲传输帧或包,直到他们承认接收设备。这是有利的,因为它避免了依赖就ulp进行检测和重新发送帧或包。然而,传输缓冲区消耗内存资源,否则会接收缓冲区可用(从而影响流量控制和降低吞吐量)或增加一个设备的总内存要求。后者通常是设计选择由设备供应商,从而增加设备成本。

端到端延迟的因素包括传输延迟、序列化延迟,传播延迟和处理延迟。传输延迟的时间帧或包之前必须等待队列中被序列化到一线。QoS策略影响传输延迟。序列化的时间需要延迟传输一个信号到电线。帧或包必须传输一个比特的时候使用串行通信技术。因此,带宽决定了串行化延迟。传播延迟是有点传播所需的时间从传输端口接收端口。光的速度通过一个光纤是5微秒每公里。处理延迟包括,但不限于,所需的时间:

  • 分类一帧或包根据QoS策略

  • 一帧或包复制到正确的队列

  • 比赛为安全和路由配置的政策对帧或包和采取必要的行动

  • 加密或解密一帧或包

  • 压缩或解压缩帧或包

  • 执行会计更新端口统计信息等功能

  • 确认帧或包有一个有效的CRC校验和

  • 做出一个转发决定

  • 提出一个框架或一个包从入口端口到出口港

处理步骤的顺序取决于网络设备的结构及其配置。处理延迟变化取决于网络设备的架构和哪些步骤。

以太网流量控制和QoS

本节总结了以太网支持的流控制和QoS机制。

以太网流量控制

详见第五章,“OSI物理和数据链路层,以太网支持反应通过暂停操作码流控制(暂停操作码)。所有10 gbps以太网实现本质上支持流量控制和不需要谈判。1000 x协商使用暂停比特流控制在配置命令集。Twisted-pair-based以太网实现使用的技术能力领域谈判流控制。除了10 gbps以太网实现,三个选项可能是谈判:对称,不对称,或没有。对称显示设备能够发送和接收暂停操作码。不对称表明设备能够接收或发送暂停操作码。没有表示不支持暂停操作码。所有10 gbps以太网实现都支持对称操作。暂停操作码可能发送队列溢出发生之前,但许多以太网交换机不以这种方式。

相关:
123 第1页
第1页3
2021年它的薪水调查:结果是在