
Infiniband网络架构解析(四)
5星
- 浏览量: 0
- 大小:None
- 文件类型:DOCX
简介:
本文为《InfiniBand网络架构解析》系列文章第四部分,深入探讨了InfiniBand技术在网络通信中的高级应用和优化策略。
InfiniBand是一种专为高性能计算和数据中心环境设计的通信标准,其核心优势在于高带宽、低延迟以及出色的系统扩展性。它不仅用于服务器之间的连接,还涉及服务器与存储系统及网络设备间的互连。InfiniBand协议支持远程直接内存访问(RDMA),允许直接访问远程系统的内存,从而提高效率和灵活性。
InfiniBand的带宽极高,从早期4xDDR 20Gbps到QDR技术下的4xQDR 40Gbps,延迟极低,如交换机延迟仅为140ns,应用延迟可以低至1μs。这种技术设计不是为了普通的网络连接,而是为了解决服务器端的高性能需求问题,例如在服务器复制、分布式工作负载、存储区域网络(SAN)和直接存储附件等场景中的高效连接。
InfiniBand架构与传统的IO子系统不同,它被视作一个完整的IO网络,并采用了类似于交换机的工作模型。信息通过控制校正信息确定传输路径。InfiniBand利用IPv6的128位地址空间提供几乎无限的设备扩展性。数据传输以数据包形式进行,经由主机通道适配器(HCA)和目标通道适配器(TCA),确保在指定的服务质量等级下可靠地传递信息。
对于基于Intel架构的处理器而言,InfiniBand解决了PCI或PCI-X总线带宽限制的问题。它可以被直接集成到系统主板中,并与CPU及内存子系统进行交互。然而,在初期阶段可能仍需依赖于PCI或PCI-X适配器。从长远来看,InfiniBand将广泛整合进服务器设计之中。
InfiniBand具有极强的扩展性:一个子网可以支持数千个节点,多个子网可以通过路由器连接形成复杂的网络结构。子网管理器负责路由分组、网络拓扑映射、链路管理和性能监控,并提供带宽保证及不同优先级的数据流服务。这种智能组件通常内置在交换机内。
InfiniBand架构设计比TCP更为轻量,它在更低的链路层提供了有序数据包交付,在传输层仅需检查包序列并实现基于信用的流控制机制以避免发送方过度填充接收方缓冲区。这样的设计降低了处理开销,并提高了整体性能,尤其适合大数据量和低延迟要求的应用场景。
全部评论 (0)


