热点推荐词:

私有云

Nutanix超融合

文字:[大][中][小] 手机页面二维码 2020/6/8     浏览次数:    
超融合基础架构(Hyper-Converged Infrastructure,或简称“HCI”)

  是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。HCI是实现“软件定义数据中心”的终极技术途径。HCI类似Google、Facebook等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。



下表列举了使用超融合架构(计算+存储)和传统数据中心三层架构(服务器+光纤交换机+存储)的对比:


超融合架构 传统数据中心基础架构
性能 尽可能提供本地吞吐,并使用SSD保证应用IO需求。不存在性能瓶颈 随着访问集中存储的服务器越来越多,性能瓶颈将日益凸显
横向扩展 可以简单的在集群中增加节点以扩展集群规模和性能 由于架构限制,无法实现横向扩展
高可用性 可以通过三副本的方式容忍最多两个节点同时故障,并且硬件故障时数据重建速度快,性能几乎不受影响 通过raid技术实现高可用性,但面对硬件故障时,性能下降严重。
整合比 虚拟机密度高,是传统2倍以上 虚拟机密度低
安装配置 开箱即用的部署方式,只需30分钟即可完成安装配置 需要准备大量安装实施前的信息收集和整理工作,并且由专人进行安装部署,最少需要2天时间
管理维护 统一WEB界面管理,维护方便
无需配置LUN、卷、Raid组
需要专门存储管理软件,配置复杂。需要厂商支持。
空间占用 使用超融合架构:1台2U高,总共包含3个节点(包含服务器和存储)总共占用空间2U 使用传统架构:30台2路服务器至少占用60U,3台存储至少需要6U
总共占用空间66U
耗电 使用超融合架构:1台3节点,共耗电 1000W
运行三年电费支出约:2.5万元
使用传统架构:30台服务器平均每台服务器耗电500W计算,3台存储耗电1500w,总共耗电19500W
运行三年电费支出约为:50万元

超融合架构在数据中心中承担着计算资源池和分布式存储资源池的作用,极大地简化了数据中心的基础架构,而且通过软件定义的计算资源虚拟化和分布式存储架构实现无单点故障、无单点瓶颈、弹性扩展、性能线性增长等能力;在虚拟化层可以自由选择Hypervisor的品牌,包括VMware vSphere、Microsoft Hyper-V和KVM;而且通过简单、方便的管理界面,实现对数据中心基础架构层的计算、存储、虚拟化等资源进行统一的监控、管理和运维。超融合基础架构形成的计算资源池和存储资源池直接可以被云计算平台进行调配,服务于OpenStack、Cloud Foundry、Docker、Hadoop等IAAS、PAAS平台,对上层的互联网及物联网业务等进行支撑。同时,分布式存储架构简化容灾方式,实现同城数据双活和异地容灾。现有的超融合基础架构可以延伸到公有云,可以轻松将私有云业务迁到公有云服务。



  图1 超融合数据中心架构


计算资源

  基于Nutanix架构的模块化数据中心由Nutanix  Block (区块)和Nutanix Node (节点)组成。下图2为标准的一个Block (区块)设备,仅占用2个机架单元 (2U高)。而每台标准的Nutanix Block (区块) 设备均含有四个独立的Nutanix节点,每个Node(节点)都是一**立的x86服务器。却能够提供4台标准2路Intel CPU的x86  服务器和最大48TB存储容量。




  图2:Nutanix Block (区块 ) 和 Node (节点 )


  Nutanix的计算资源池是通过x86服务器虚拟化来实现的,可以支持VMware vSphere、Microsoft Hyper-V及Nutanix Acropolis平台提供的KVM等Hypervisor,如图3。在虚拟化Hypervisor层形成计算资源池,为业务系统的虚拟机提供不同的服务质量和能力,包括了高可用(High Availability)、容错(Fault Tolerant)、在线迁移(Live Migration/vMotion)、资源动态负载均衡(Distributed Resource Scheduler)等虚拟化的特性。同时,Nutanix可以支持业务虚拟机在不同的Hypervisor之前进行迁移,也就是V2V的能力,例如从vSphere迁移到KVM等。



  图3 超融合架构计算资源池(x86服务器虚拟化)


存储资源

  Nutanix提供的分布式文件系统(NDFS)可以将一组集群内的节点组成一个统一的分布式存储平台。NDFS对于x86虚拟化平台软件而言就是一个集中的共享式存储,与任何其他集中式存储阵列一样工作,且提供更为简单便捷的存储管理,无需像传统集中存储那样再配置LUN、卷、或者Raid组。


  图4 Nutanix分布式存储架构和功能


  Nutanix分布式存储架构不仅同样提供传统存储的能力外,还提供更多的能力。针对于虚拟化方面提供快照、克隆等机制,数据层实现本地优先访问、存储分层等性能机制,对数据进行压缩和去重提高存储可用容量,借助两份以上冗余数据提供存储的可靠性,增加或减少节点数据分布会自动平台,当节点宕机或磁盘损坏后具备数据自恢复能力等。

  Nutanix每个节点提供两种磁盘,标准配置为2块SSD,容量从480GB到1.6TB;4块SATA的HDD,容量为1TB和2TB (部分型号节点提供4TB和6TB的HDD)。



  图5 分布式存储系统逻辑架构


  NDFS被设计成为非常动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个集群中。对于集群内部磁盘容量大小不同的,确保数据一致的分布非常重要。NDFS有自带的称为磁盘平衡的技术,用来确保数据一致的分布在集群内部各节点上。磁盘平衡功能与各节点的本地磁盘利用率和内置的NDFS ILM(数据生命周期管理)一同工作。它的目标是使得所有节点的磁盘利用率大致相等。
  另外,Nutanix节点通过ILM实现SSD和HDD的数据热分层。简单而言,磁盘的热分层时实现在集群内所有节点的SSD和HDD上,并且由ILM负责触发数据在热分层之间的迁移。本地节点的SSD在热分层中是最高优先级的,负责所有本地虚拟机IO的读写操作。并且还可以使用集群内所有其他节点的SSD,因为SSD层能提供良好的读写性能,并且在混合存储环境中尤为重要。

  在超融合的虚拟化环境中,所有IO操作都将由本地节点上的Nutanix Controler VM(CVM)接管,以提供良好的性能。据以往经验及用户习惯分析,一般运行服务器虚拟化的虚拟机对IO性能要求在200-300 IOPS左右,而单个Nutanix节点可提供25000上的IOPS,4节点集群可提供将近100,000的IOPS。完全可以满足需求。


网络拓扑

  在每个单节点上,默认提供如下网络端口:

标配 2x 1 GbE, 1x 1 GbE RJ45 (IPMI)
附加 Dual-Port 10 GbE/Quad-Port 10 GbE/Dual-Port 10 GBASE-T2x 1 GbE,  1x 1GbE RJ45 (IPMI)

  标配2x 1 GbE, 1x 1 GbE RJ45 (IPMI)
  附加Dual-Port 10 GbE/Quad-Port 10 GbE/Dual-Port 10 GBASE-T2x 1 GbE,  1x 1GbE RJ45 (IPMI)

  下图为Nutanix推荐的网络拓扑图:



  图6 网络拓扑


  在计算虚拟化资源池中的每台虚拟化Hypervisor节点上会运行多台虚拟机,多台虚拟机之间共享网络,为了方便管理建议采用虚拟交换机来配置和管理网络,虚拟交换机可在数据中心级别提供集中和聚合的虚拟网络,从而简化并增强虚拟机网络。在虚拟交换机的网络划分上,仍然可以采用VLAN的方式划分不同的子网,实现不同子网段的安全和隔离。
  在网络隔离上,也可以采用网络虚拟化VXLAN技术。VXLAN网络协议,即VLAN协议的扩展版本。VXLAN网络可以跨越物理边界,从而跨不连续的数据中心和集群来优化计算资源利用率。VXLAN采用逻辑网络与物理拓扑相互分离,使用IP的技术,所以无需重新配置底层物理网络设备即可扩展VXLAN网络。正因如此,也就无需再花费大量时间来规划如何调配VLAN及管理VLAN数量剧增问题。

  在每个Nutanix物理节点上有多种网络需求,包括管内部通讯网络、管理网络、生产网络等,因此每个Nutanix节点需配置多块网卡,网络设计建议如下:

类型 设计 备注
Nutanix物理节点之间的内部通讯网络 10Gb以太网
双链路冗余
每个节点通过两条万兆链路分别连接两台万兆交换机,保证网络设备和链路的冗余度。
Nutanix建议用户使用万兆网络互联物理节点,当发生密集的写IO时,万兆网络能保证提供足够带宽满足节点之间的IO同步流量。
客户端与服务器虚拟机之间的通讯网络,虚拟化服务器对外服务网络 1Gb/10Gb以太网,双链路冗余 每个节点通过两条千/万兆链路分别连接两台千/万兆交换机,保证网络设备和链路的冗余度。
用户访问虚拟服务器对外提供服务时,通过千/万兆链路可以实现与后端存储流量隔离。
硬件管理网络
(IPMI)
1Gb以太网 每个节点都有独立的千兆链路,用于连接专门的管理网络,实现管理网络与业务网络、存储网络分离。可以最大限度保证管理的灵活性和安全性。


类型设计备注

  Nutanix物理节点之间的内部通讯网络10Gb以太网
  双链路冗余每个节点通过两条万兆链路分别连接两台万兆交换机,保证网络设备和链路的冗余度。
  Nutanix建议用户使用万兆网络互联物理节点,当发生密集的写IO时,万兆网络能保证提供足够带宽满足节点之间的IO同步流量。
  客户端与服务器虚拟机之间的通讯网络,虚拟化服务器对外服务网络1Gb/10Gb以太网,双链路冗余每个节点通过两条千/万兆链路分别连接两台千/万兆交换机,保证网络设备和链路的冗余度。
  用户访问虚拟服务器对外提供服务时,通过千/万兆链路可以实现与后端存储流量隔离。
  硬件管理网络
  (IPMI)1Gb以太网每个节点都有独立的千兆链路,用于连接专门的管理网络,实现管理网络与业务网络、存储网络分离。可以最大限度保证管理的灵活性和安全性。


Nutanix计算存储融合平台适用场景包括:服务器虚拟化、桌面虚拟化、大数据应用等。并拥有传统架构无法比拟的优势:

  1. 简化虚拟化环境部署,开箱即用,无需SAN架构,是存储与计算融合的基础架构。
  2. 软件定义的架构,将Google分布式文件系统引入企业环境,提供良好的性能和大规模横向扩展能力,并支持不同虚拟化平台(VMware、AHV、Hyper-V)。
  3. 高度集成并随需扩展,单个2U机箱配置4个节点,以节点为单位实现轻松扩展并承诺线性的性能扩展。
  4. 对比传统虚拟化架构提供更多存储层功能,包括多副本容错、机架感知、去重和压缩、虚拟机粒度的快照及恢复、无缝灾难恢复等。
返回上一步
打印此页
[向上]