服务支持

共享竞争优势,寻求互利双赢

创新和可靠性使光纤通道成为数据中心 SAN 的选择

2023-06-30浏览:来源:深圳拓普龙科技有限公司

大型数据中心挤满了服务器、存储、交换机和各种其他硬件,试图跟上最新的技术趋势。 在数据中心内发生的所有变化中,有一种技术仍然是存储连接的首选。 基于可靠性和安全性,光纤通道多年来一直是数据中心的支柱。 然而,它不仅仅是企业市场的首轮选择。 许多硬件和软件供应商都将他们的测试重点放在光纤通道上,以确保产品在客户发货前做好准备。

光纤通道 vmware - Dell PowerStore

带光纤通道的 Dell PowerStore

存储和交换机供应商继续为光纤通道添加新功能和增强功能,软件开发人员在向大众发布软件更新之前测试光纤通道功能。 光纤通道仍然是大型数据中心的主要 SAN 技术。 大多数 VMware 客户使用光纤通道来利用当今持续的创新和现有的可靠性、弹性、安全性和速度。

VMware 致力于光纤通道,Marvell 引领潮流

如果对光纤通道技术的重要性和重要性有任何疑问,VMware 通过优先使用光纤通道进行新版本测试来解决这个问题。 在 VMware Explore 的所有最新公告中,vSphere 8 是最有趣的。 VMware 继续关注 vVols 存储工程,并在 NVMe-oF 中添加了 vVols 支持。

服务器 FC-NVMe 中的光纤通道 vmware Marvell 32gfc

Marvell QLogic QLE2772 双端口 32Gb FC 适配器

正如 VMware 网站上所述,“最初,我们将仅支持 FC,但将继续验证和支持 vSphere NVMe-oF 支持的其他协议。” VMware 的共识是,客户可能正在转向 NVMe-oF、iSCSI 和 100G 以太网,但在高性能和关键任务应用程序方面,FC 是首选。 因此,光纤通道将继续处于 vSphere 技术进步的前沿。 尽管正在转向其他技术,但 VMware 并未发现对光纤通道的需求有所下降。

不仅仅是 VMware。 随着自动化、机器学习和 DevOps 的热议,光纤通道仍然是大多数 IT 专业人员的首要考虑。 由于其固有的可靠性、安全性和低延迟性,SAN 结构对于医疗保健、金融、制造、保险和政府等行业至关重要。 当然,光纤通道技术不会停滞不前,它会随着今天出货的 64G 结构以及渐进式交换机和 HBA 供应商的 128G 路线图而不断发展。 Marvell QLogic 在光纤通道技术方面继续展现出无与伦比的领导地位和创新能力。

光纤通道成为存储区域网络的首选技术是有原因的:它确实有效。 供应商社区坚定地承诺共同努力推进规范以满足行业不断变化的需求。 软件供应商的测试侧重于互操作性以及安全性和可靠性,这在 VMware vSphere 8 中很明显。供应商承诺在向数据中心发布新更新或硬件之前确保与光纤通道的互操作性。

FC 在 vSphere 8 中得到提升,支持 FC-NVMe 实施

VMware 在 vSphere 8 中引入了多项核心功能,包括对 NVMe over Fabrics (NVMe-oF) 的增强。 当然,NVMe-oF 越来越受欢迎有几个原因。 与传统 SCSI 和 NFS 相比,客户主要享受与 NVMe-oF 相关的高性能和吞吐量。 存储供应商正在转向 NVMe 阵列,并在其产品线中增加了对 FC-NVMe 的支持。

VMware 接受了这一提示,并对特定于 NVMe-oF 的 vSphere 8 进行了重大增强,包括:

  • 增加了 NVMe-TCP 和 FC-NVMe 支持的命名空间和路径的数量。 vSphere 8 现在通过 NVMe-TCP 和 FC-NVMe 支持 256 个命名空间和 2K 路径。
  • 它为使用 Microsoft Windows Server 故障转移集群 (WSFC) 支持应用程序级磁盘锁定的客户扩展了对 NVMe 设备的预留支持。 最初,仅针对 FC,这允许客户将集群 VMDK 功能与带有 NVMe-oF 数据存储的 Microsoft WSFC 结合使用。
  • ESXi 中的高级 NVMe/TCP 发现服务支持可帮助客户在以太网环境中进行 NVMe-oF 设置。 添加了对 NVMe Advance Discovery 的支持,使 vSphere 能够查询网络以获取支持的 NVMe 阵列控制器,从而简化设置。 NVMe/TCP 利用了光纤通道自诞生以来就支持的自动发现功能。

光纤通道推动数字化转型的四大支柱

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图3)

自治 SAN

围绕自主一切的嗡嗡声变得相当响亮。 由于我们谈论的是 SAN,特别是光纤通道 SAN,因此这是一个很好的地方来突出自治 SAN 的工作原理,而不至于陷入困境。

自治 SAN 必不可少,因为它们支持医疗保健、金融、政府和保险等主要行业。 光纤通道 SAN 因其固有的可靠性和安全性而在这些行业中得到大量部署。

这些关键行业的中断或停机可能是灾难性的。 根据持续时间的不同,中断可能会导致数十万或数百万美元的收入损失。 在医疗保健领域,中断可能会导致程序延迟或无法执行紧急服务。 考虑到这一点,光纤通道行业标准机构继续追求提高可靠性和可用性。

为了满足现代数据中心和高级应用程序的需求,各行业正在配置设备以执行原本不打算执行的任务。 拥有智能设备是不够的。 今天,有必要拥有一个了解周围一切的安装基础。 这被称为“协作智能”,其中设备不仅知道正在发生的活动,而且能够在必要时采取行动。

自治 SAN 工作的第一阶段是开发称为结构性能影响通知 (FPIN) 的架构元素。 Fabric Notifications 创建了一种机制来通知网络中的设备有关结构中发生的事件,这将有助于做出弹性决策。 可能会出现两种类型的错误情况。 逻辑错误通常可以通过重试或逻辑重置来恢复,并且对系统的破坏相对较小。 另一方面,物理错误通常需要相同类型的干预才能完成修复。 间歇性错误更难解决,而且可能很耗时。

使用结构通知,结构(或终端设备)检测间歇性物理问题,监控错误是否持续存在,如果是,则生成一条消息发送到受事件影响的设备。 有了这些信息,多路径解决方案就知道物理错误的位置和性质,并可以“绕过”它。 IT 管理员无需参与识别、隔离或启动恢复命令来清除错误。

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图4)

所有这些机制都由终端设备通过功能交换和操作注册来控制。 结构中的光纤通道交换机具有其他结构组件的可见性,使它们能够收集有关存储网络、连接设备和整体基础设施的信息。 这些交换机在整个结构中交换该信息,从而创建了自主 SAN 的真实愿景,以实现自我学习、自我优化和自我修复。

结构通知最终向结构中的设备提供智能,以消除浪费的能源故障排除、分析和解决问题,这些问题由设备自动解决,以纠正影响性能和故障的问题。

VMware 已经奠定了交付智能和自驱动 SAN 的基础,该 SAN 具有使用行业标准技术结构性能影响通知 (FPIN) 接收、显示和启用 FC 结构事件警报的过程。

FPIN 是由交换矩阵端口传输的通知帧,用于通知终端设备其区域中另一个端口的情况。 条件包括:

  • 降低性能的链接完整性问题
  • 掉帧通知
  • 拥堵问题

借助主动通知机制,可以快速解决端口问题,并且可以设置恢复操作以减少停机时间。

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图5)

 

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图6)

图 1:带有 Marvell QLogic FC 的 vSphere 8.0 注册并接收结构通知,指示 SAN 中的超额订阅

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图7)

图 2:带有 Marvell QLogic FC 的 vSphere 8.0 注册并接收指示链路完整性恶化的架构通知。

Marvell QLogic Enhanced 16GFC、Enhanced 32GFC 和 64GFC HBA 已完全集成到 vSphere 8.0 中,并支持充当自主 SAN 构建块的结构通知技术。

使用 vVol 提高生产力

VMware 在最近的几个 vSphere 版本中专注于 vVol。 在 vSphere 8.0 中,核心存储添加了对 NVMe-oF 的 vVols 支持,仅在初始版本中支持 FC-NVMe。 但是,VMware 将继续验证和支持 vSphere NVMe-oF 支持的其他协议。 可以找到新的 vVols 规范、VASA/VC 框架 此处.

随着行业和许多阵列供应商添加 NVMe-oF 支持以提高性能和降低延迟,VMware 希望确保 vVols 与最新的存储技术保持同步。

除了提高性能外,还简化了 NVMe-oF vVols 设置。 注册 VASA 后,底层设置在后台完成,唯一需要创建的就是数据存储。 VASA 处理所有虚拟协议端点 (vPE) 连接。 客户现在可以通过以下方式管理 vVols 数据存储中的 NVMe-oF 存储阵列 基于存储策略的管理 在 vCenter 中。 vSphere 8 还添加了对其他命名空间和路径的支持,并改进了 vMotion 性能。

使用 VM-ID 技术跟踪虚拟机

服务器虚拟化一直是增加链接共享的催化剂,光纤通道就是明证。 随着数据中心内虚拟机 (VM) 数量的增加,共享链路利用最大可用带宽传输与 CPU 内核、内存和其他系统资源相关的数据。 从任何 VM 和其他物理系统发送的数据变得混合在一起。 该数据沿着与存储区域网络 (SAN) 流量相同的路径传输,因此它们看起来都是一样的,不能被视为单独的数据流。

利用 Marvell QLogic 的 VM-ID(一种使用帧标记来关联不同 VM 及其跨 SAN 的 I/O 流的端到端解决方案)可以解密共享链接上的每个 VM。 QLogic 已在其最新的 64GFC、增强型 32GFC 和增强型 16GFC 主机总线适配器 (HBA) 上启用了此功能。 该技术有一个内置的应用程序服务监视器,它从 VMware ESX 收集全球唯一的 ID。 然后它可以解释来自每个 VM 的不同 ID 以执行智能监控。

VM-ID 为来自原始 VM 通过结构的 I/O 带来了更深层次的愿景,使 SAN 管理器能够控制应用程序级服务并将其定向到 QLogic 光纤通道 HBA 中的每个虚拟工作负载。

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图8)

 

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图9)

图 3:Brocade 交换机分析引擎现在可以通过计算由 Marvell 光纤通道 HBA 标记为单个 VM-ID 的光纤通道帧来显示每个 VM 的统计数据。

使用 64GFC 提高性能

自该协议于 1988 年首次启动以来,光纤通道一直在不断进步。第一款 FC SAN 产品 1Gb FC 于 1997 年开始发货,并且发展至今仍在继续,128Gb 产品即将问世。

每三到四年,FC 速度就会翻一番。 除了提高性能方面的进步外,还包括新服务,如 Fabric Services、具有通用 SAN 拥塞缓解的 StorFusion™、NPIV(虚拟化)和云服务。 网络公司和原始设备制造商参与制定这些标准,并继续合作提供可靠和可扩展的存储网络产品。

光纤通道被认为是市场上最可靠的存储连接解决方案,具有提供渐进增强功能的传统。 服务器和存储技术推动了对更大 SAN 带宽的需求。 应用程序和存储容量、支持 SSD 和 NVMe 的 32Gb 和 64Gb 存储阵列、服务器虚拟化和多云部署正在证明光纤通道的价值,因为它提供更高的吞吐量、更低的延迟和更快的链接速度——所有这些都具有可预测的性能。

Marvell 最近宣布推出其全新的 64GFC HBA。 其中包括 QLE2870 系列单端口、双端口和四端口 FC HBA,可将可用带宽加倍,在更快的 PCIe 4.0 总线上工作,并同时支持 FC 和 FC-NVMe,是面向未来的关键任务企业的理想选择应用程序。

NVMe 交付!

毫无疑问,NVMe 设备可提供极快的读写访问。 因此,讨论将这些 NVMe 设备连接到高速网络,而没有考虑到这些仍然是需要保证交付的存储设备。 作为无损传输方法开发的技术是光纤通道。 在行业领导者的众多测试中,当底层技术为光纤通道时,NVMe-oF 和 NVMe/FC 表现更好。

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图10)

闪存阵列可在高密度虚拟化工作负载中实现更快的块存储性能,并缩短数据密集型应用程序的响应时间。 这一切看起来都很好,除非网络基础设施无法在与闪存存储阵列相同的水平上运行。

基于闪存的存储需要一个确定性的、低延迟的基础设施。 其他存储网络架构通常会增加延迟,造成瓶颈和网络拥塞。 发生这种情况时必须发送更多的数据包,从而造成更多的拥塞。 借助 Channel 基于信用的流量控制,可以在目标缓冲区接收数据时尽可能快地传送数据,并丢弃数据包或强制重传。

今年早些时候,我们发布了一篇关于 Marvell 的 FC-NVMe 方法的深入评论。 要了解更多信息,请查看 Marvell 在 FC-NVMe 上加倍下注.

vSphere 7.0 中首次引入的核心 NVMe 存储功能

VMware 博客将 NVMe over Fabrics (NVMe-oF) 描述为一种协议规范,使用 NVMe 协议通过网络结构将主机连接到高速闪存。 VMware 在 vSphere 7 U1 中引入了 NVMe-oF。 VMware 博客指出,基准测试结果表明,光纤通道 (FC-NVMe) 在 vSphere 虚拟化环境中的性能始终优于 SCSI FCP,可提供更高的吞吐量和更低的延迟。 vSphere 7.0 U3 中添加了对 NVMe over TCP/IP 的支持。

基于 NVMe 的日益普及,VMware 添加了对使用 NVMe-oF 的共享 NVMe 存储的支持。 鉴于固有的低延迟和高吞吐量,各行业正在利用 NVMe 处理 AI、ML 和 IT 工作负载。 通常,NVMe 使用本地 PCIe 总线,因此很难连接到外部阵列。 当时,业界一直在推进基于 IP 和 FC 的 NVMe-oF 的外部连接选项。

在 vSphere 7 中,VMware 添加了对使用 NVMe-oF 与 NVMe over FC 和 NVMe over RDMA 的共享 NVMe 存储的支持。

结构继续提供更快的速度,同时保持存储区域网络所需的无损、有保证的交付。 vSphere 8.0 支持 64GFC,迄今为止最快的 FC 速度。

vSphere 8.0 进一步关注 NVMe,优先考虑光纤通道

在过去的几个版本中,vVols 一直是 VMware 存储工程的主要关注点,在 vSphere 8.0 中,核心存储在 NVMe-oF 中添加了 vVols 支持。 最初,VMware 将仅支持 FC,但将继续验证和支持其他 NVMe-oF 协议。

这是一个新的 vVols 规范,VASA/VC 框架。 要了解更多信息,请访问 VASA 4.0/vVols 3.0 查看此新 vVols 规范的详细信息。

vSphere 8 继续添加功能和增强功能,最近将支持的命名空间增加到 256 个,将 NVMe-FC 和 TCP 的路径增加到 2K。 vSphere 添加了另一个功能,即对 NVMe 设备的预留命令支持。 预留命令让客户可以使用带有 NVMe-oF 数据存储的 Microsoft WSFC 的集群 VMDK 功能。

创新和可靠性使光纤通道成为数据中心 SAN 的选择(图11)

设置简单,管理简单!

光纤通道还有另一个内置的效率:自动发现。 当 FC 设备连接到网络时,如果它具有必要的凭据,它会被自动发现并添加到结构中。 节点映射得到更新,流量可以通过光纤。 这是一个简单的过程,无需管理员干预。

实施 NVMe/TCP 时会产生更多开销。 由于 NVMe/TCP 没有自动发现机制,ESXi 添加了 NVMe Discovery Service 支持。 ESXi 中的高级 NVMe-oF 发现服务支持支持动态发现符合标准的 NVMe 发现服务。 ESXi使用mDNS/DNS-SD服务获取网络上活跃的NVMe-oF发现服务的IP地址、端口号等信息。 ESXi 发送多播 DNS (mDNS) 查询,向提供 (NVMe) 发现服务 (DNS-SD) 的实体请求信息。 如果这样的实体在网络(在其上发送查询)上处于活动状态,它将向主机发送一个(单播)响应,其中包含请求的信息,即运行服务的 IP 地址和端口号。

总结

光纤通道专为承载块存储而构建,正如本文所述,它是一种低延迟、无损、高性能、可靠的结构。 需要明确的是,在一些重要的高速网络中改进 TCP 用于存储流量的使用方面正在取得长足进步。 但事实仍然是 TCP 不是无损网络,数据重传仍然是一个问题。


售前咨询

13008895219 产品经理

19924502528 何经理

技术支持

13378406071 李工

投诉建议

13008895219 雷先生

微信二维码微信公众号