在以往提供良好服务的“通用”数据中心架构如今正在达到其可扩展性、性能和效率的极限,并使用统一的资源比率来满足所有计算处理、存储和网络带宽要求。而对于数据密集型工作负载(例如大数据、快速数据、分析、人工智能和机器学习)而言,“一刀切”的方法不再有效。企业需要的是能够更好地控制各种所需资源的混合功能,以便可以独立地扩展处理、存储和网络带宽的优化级别。其最终目标是创建一个灵活和可组合的基础设施。
图1当今以数据为中心的架构
虽然超融合基础设施(HCI)将计算、存储和网络资源整合到一个虚拟化系统中(图1),但为了增加更多存储、内存或网络,还需要配置额外的处理器。这创建了一种固定的构建块方法(每个方法包含CPU、内存和存储),却无法实现当今数据中心所需的灵活性和可预测的性能。因此,可组合分解基础设施(CDI)正在成为一种流行的解决方案,因为它们不仅可以将融合或超融合的IT资源集成到单个集成单元中,还对其进行优化以提高业务灵活性。
对可组合分解的基础设施的需求
考虑到与通用设施相关的挑战(例如固定资源比率、利用不足和过度配置等),融合基础设施(CI)的出现在单个系统中提供了预配置的硬件资源。计算、存储和网络组件是离散的,并通过软件进行管理。融合基础设施(CI)已经发展为超融合基础设施(HCI),其中所有硬件资源都是虚拟化的,提供软件定义的计算、存储和网络。
虽然超融合基础设施(HCI)将计算、存储和网络资源整合到一个虚拟化系统中,但它们的效率有时较低。例如,可扩展性限制由处理器定义,并且通过处理器访问资源。为了添加更多资源,例如存储、内存或网络,超融合基础设施(HCI)提供额外的处理器,即使它们不是必需的,导致数据中心架构师尝试构建灵活的基础设施,但使用的却是不灵活的构建块。
根据最近对300多家中型和大型企业IT用户的调查,企业数据中心基础设施中只有45%的可用存储容量可供配置,而且只有45%的计算时间和存储容量得到利用。固定构建块方法显示未充分利用,无法实现当今数据中心所需的灵活性和可预测性能。需要启用分解的超融合基础设施(HCI)模型并使其易于组合,其中基于开放式应用程序编程接口(API)的软件 工具 是未来的发展方向。
可组合分解的基础设施
可组合的分解基础设施是数据中心架构框架,其物理计算、存储和网络结构资源被视为服务。高密度计算、存储和网络机架使用软件创建虚拟应用程序环境,该环境可实时提供应用程序所需的任何资源,以实现满足工作负载需求所需的最佳性能。它是一个新兴的数据中心市场,市场复合年总增长率为58.2%(预测从2017年到2022年)。
图2 超融合与可组合
在此基础设施中(图2),虚拟服务器是由包含计算、存储和网络设备的独立资源池创建的,而不是为超融合基础设施(HCI)服务器提供的分区资源。因此,可以在软件控制下根据需要供应或重新供应服务器,以适应特定工作负载的需求,因为软件和硬件组件紧密集成。通过组合软件上的API,应用程序可以请求所需的任何资源,即时提供实时服务器重新配置,无需人工干预,并向自我管理数据中心迈出一步。
超融合与可组合
网络协议对于可组合分解基础设施(CDI)同样重要,使得计算和存储资源可以从服务器分解,并可供其他应用程序使用。通过结构连接计算或存储节点非常重要,因为它可以为资源提供多条路径。NVMe™-over-Fabrics是可组合分解基础设施(CDI)实施的领先网络协议。它提供从应用程序到可用存储的最低的端到端延迟,使可组合分解基础设施(CDI)能够提供直接连接存储(低延迟和高性能)的数据位置优势,同时通过在整个企业内共享资源来提供灵活性和敏捷性。
Non-Volatile Memory Express™(NVMe)技术是一种简化的高性能低延迟接口,它利用专为持久性闪存技术开发的架构和协议集。通过NVMe-over-Fabrics规范在整个网络中提供相同的性能优势,该标准已扩展到本地连接的服务器应用程序之外。此规范使闪存设备能够通过网络进行通信,提供与本地连接的NVMe相同的高性能、低延迟优势,并且几乎不限制可以通过结构存储共享NVMe的服务器数量或可以共享的存储设备数量。
总结
核心和边缘的数据密集型应用程序已超出传统基础设施和体系结构的功能,尤其是在可扩展性、性能和效率方面。由于通用基础设施由统一的资源比率来支持,以满足所有计算处理、存储和网络带宽需求,因此它们不再适用于这些不同的数据密集型工作负载。随着可组合分解基础设施(CDI)的出现,数据中心架构师、云计算服务提供商,、系统集成商、软件定义存储开发商、原始设备制造(OEM),如今可以提供更大的经济性、灵活性、效率和简单性的存储和计算服务,同时支持跨工作负载的动态服务等级协议(SLA)。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网
猜你喜欢:本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。