oVirt+SSAN超融合架构

浏览02017-06-11 14:34:50 10

(作者:孟宇繁@TaoCloud)


1. oVirt+SSAN超融合概述
虚拟化技术在不断发展中日趋成熟,随之而来各种云技术方兴未艾,对存储性能提出了更高的要求。传统网络存储不仅因为性能无法满足不断变化的虚拟化需求,而且是虚拟化环境中成本和管理复杂性的源头,逐渐成为牵绊虚拟化发展的某种瓶颈,超融合(HCI)技术的问世使得虚拟化环境下的存储问题迎刃而解。

超融合技术是为突破虚拟化环境下存储性能瓶颈的制约,提出的一种软件定义的分布式存储与虚拟化环境相融合的解决方案。超融合技术基于通用的x86平台将存储资源进行整合使存储成本可控,采用分布式架构有效避免了单点故障风险。分布式存储完全由软件定义,灵活部署升级简易,合理分配HDD与SSD资源提高性能突破I/O瓶颈。在满足高度需求的同时降低经济成本与使用难度,使得该技术在存储界颇受欢迎。

超融合作为新型的存储方式,以简约、稳定、可靠的特性成为业界靓点,吸引较多厂商投入研发。除Nutanix先发制人在超融合领域处于领先地位外,不仅以EMC为首的存储厂商参与其中,以VMware为代表的虚拟化厂商也竞相研发,国内更有华为等一系列公司推出自主研发的分布式存储产品,使得分布式存储技术成为当下存储行业发展的主流,超融合技术有望成为下一代数据中心的未来。

1.1 HCI超融合方案概念
超融合架构(HCI)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。超融合是将虚拟化计算和存储资源融合到统一的系统管理平台的解决方案。

图1-HCI.png

 超融合新颖之处在于底层采用分布式存储,分布式存储基于通用x86平台将存储资源进行整合,支持副本与纠删码方式保护数据,提高冗余性,多服务器节点资源聚合,有效规避了传统存储单点故障的风险,且存储性能随节点增多而线性增加。分布式存储完全由软件定义,合理配置SSD与HDD资源将I/O性能发挥到极致,有效解决了传统存储在虚拟化场景中性能不足的问题。采用Share-nothing设计架构,支持横向扩展,容量不足时可以增加服务器节点弹性水平扩展,整个集群无扩展瓶颈。此外,分布式存储还具备统一的管理平台、交付简易、维护简单、无孤岛效应、经济成本低等优点。分布式存储主要有Nutanix、vSAN、FusionStorage、Ceph、GlusterFS、SSAN等产品。

oVirt虚拟化平台+SSAN分布式存储是典型的超融合架构,物理服务器既是计算资源又是存储资源,不仅极大程度提高资源利用率,降低成本,而且保证系统高性能稳定运行。可以自由选择副本与纠删码任意的数据冗余方式,在安全性上比传统存储更有保障,性能上有较大提升,完全能够满足传统SAN存储所不能达到的高IO性能需求。支持物理融合与超融合两种部署模式,是实现软件定义存储技术的终极途径,可以为存储带来最优的效率、灵活性、规模、成本和数据保护。

1.2 oVirt虚拟化管理平台
oVirt是基于KVM虚拟化组建私有云平台的管理工具。oVirt以web界面的方式管理KVM虚拟化环境,主要由Engine和Node两部分组成,Engine是oVirt中的管理节点,提供web界面与用户交互,使Node节点管理可视化。Node是oVirt中的计算节点,底层专注KVM虚拟化,并为虚拟机运行提供计算资源。oVirt是数据中心虚拟化管理平台解决方案,数据中心是逻辑的概念,按照主数据存储的组织方式划分,以便快速构建私有云。oVirt主要应用于桌面云和服务器虚拟化,因此对存储性能要求较高。

图2-oVirt.png

 oVirt Engine负责整个系统的管理维护是整个oVirt管理平台的核心部件,Engine节点内置数据库记录整个系统中所有的虚拟机配置、节点状态、系统环境、存储器等信息。实现管理的逻辑、状态及策略,良好的web界面客户端,使系统管理员通过网页进行管理系统的任何操作。oVirt Node只负责提供计算资源及功能实现,不记录任何信息,仅仅负责实现虚拟机器与设备的创建与修改,资源的共享与保护。Node节点可以由普通Linux操作系统安装VDSM组件构成,也可以是专为Node定制的Linux操作系统。VDSM是维系Node节点与Engine关系的纽带,负责节点的自启动与注册及对网络、存储、主机、虚拟机的管理,支持对虚拟机的外部干涉、内存与存储的合并与超支等功能。Node节点系统重启后内容消失,从而保证了Node的无状态性。

oVirt管理平台具有以下特点:
(1)高可用性。集群无潜在的单点故障,任何Node 节点崩溃会由其他节点取代而继续提供服务,不影响集群功能。Engine异常时Node依然能正常工作,虚拟机继续进行。
(2)高伸缩性。添加 Node 和 SAN时,VDSM服务会自动完成,几乎不需要手动设置。
(3)集群安全性。VDSM 对正在操作的磁盘镜像进行排它性保护。
(4)备份与恢复。磁盘镜像间有相互关联的特性记录可进行引用、备份操作。
(5)性能优化。利用多线程与多进程减少操作堵塞状况。

1.3 SSAN分布式块存储
TaoCloud SSAN是典型的ServerSAN产品,遵循软件定义存储理念,可从X86服务器硬件平台的本地存储资源中创建基于服务器的SAN,以便按需提供具有弹性的、可扩展的分布式存储容量和性能。SSAN采用去中心化的全对等Share-nothing架构,融入Scale-out分布式块存储技术、支持在线动态扩展磁盘或者节点时,系统自动执行数据均衡。SSAN支持集群管理、重复数据删除、数据压缩及校验,具有强一致性确保多副本数据相同。借助SSD、10GbE网络等高速硬件,通过软件的方式实现存储池化、快照、克隆、分层、精简配置等企业级的数据功能。支持iSCSI、QEMU、Cinder多种访问接口,在桌面云、虚拟化、数据库、替换传统SAN/IPSAN存储等场景应用较多。

图3-SSAN.png

 SSAN支持物理融合和超融合两种部署模式,物理融合中将SSAN直接部署在底层物理服务器中运行,与虚拟化共用服务器计算资源,并为虚拟化环境提供分布式存储服务。超融合部署时将SSAN部署在每台服务器上运行的CVM虚拟机中,物理服务器作为计算节点的同时也是存储节点,通过标准iSCSI接口实现高效的I/O数据访问。
TaoCloud SSAN具备分布式存储的以下特征:
(1)弹性存储,支持在线扩容,无扩展瓶颈;
(2)集群配置,无单点故障风险;;
(3)单卷最大256TB,卷级冗余策略,支持副本和纠删码;
(4)iSCSI标准接口,支持多路径及各类VDI平台,容易对接各种应用系统;
(5)SSD+HDD混合模式,利用原有磁盘资源,并对读写加速。

1.4 传统存储的问题
传统网络存储被定义为一种特殊的专用数据存储服务器,包括存储器件和内嵌系统软件,可提供跨平台文件共享功能,主要有DAS、NAS、SAN三种存储方式。传统存储允许用户在网络上存取数据,能够集中管理和处理网络上所有数据,应用广泛,在处理一般业务时,具有可靠、稳定、安全、快速等优点。但传统存储自身也存在问题令人担忧,最主要的是单点故障,基于集中式存储架构,存储服务器一旦发生故障,将造成数据不可访问,风险较大。在虚拟化场景中,无法发挥SSD性能,I/O易成瓶颈,无法满足需求。此外,传统存储还存在控制器数量有限、无法扩展、管理运维复杂、异构硬件、成本高、升级困难、孤岛效应、数据备份操作复杂等缺陷。

图4-传统存储.png

 新兴超融合技术有效解决了传统存储中遇到的以上问题,在I/O性能上取得突破的同时降低存储使用成本与管理复杂度,使得存储容量扩展、产品升级变得简单易行,消灭传统存储孤岛效应后增加了数据备份功能。

2. 超融合与物理融合
2.1 超融合方式

超融合是在传统存储性能瓶颈与市场刚性需求下催生的一种新技术,该技术解决了较多业界难题,补齐了传统存储性能先天不足与单点故障的短板,较物理融合又有计算资源需求低、资源消耗可控、服务隔离等优势。超融合并非只为突出某一特性,而是针对功能、性能、扩展性、维护等多种问题综合分析的最佳解决方案。

性能刚需
oVirt+SSAN超融合解决方案有效满足了oVirt虚拟化环境对存储高并发、高I/O性能的需求,比物理融合具有更好的性能和更低的成本。oVirt开源IaaS平台多用于桌面云和服务器虚拟化。服务器虚拟化与云桌面是典型的多客户端、高并发应用,随着虚拟机数量的增多,对存储的容量和性能呈明显的上升趋势。启动风暴以及集中病毒扫描和关机风暴,对存储I/O提出了更高的弹性要求,以满足峰值性能需求。如果没有数据高可用支持,实现桌面业务连续性会很困难或者代价太高。桌面部署时,会要求快速生成新的大量的桌面镜像,需要高效的快照、克隆技术。

功能齐全
HCI分布式存储是实现模板数据、镜像数据、配置数据、业务数据的统一存储,几乎支持传统存储的所有功能。采用三副本或纠删码的冗余存储方式,极大限度的降低了存单点故障的风险。SSD+HDD的磁盘缓存模式,不仅充分发挥了SSD的磁盘性能,而且能继续使用原有的HDD,不会造成原有磁盘资源的浪费,又突破了高并发需求的I/O瓶颈,以及高效的ROW快照及克隆功能可支持快速、批量的创建桌面。运行的虚拟机可以在线迁移,支持FT功能,具有高可用特性。LUN上支持创建、克隆、删除虚拟机磁盘,并能将LUN直接作为虚拟机系统盘使用。

随时扩展
Scale-out架构的弹性存储支持在线扩容,补齐了存储控制器数量有限,无法扩展的功能短板。需要扩展容量时可以直接在线添加物理磁盘,添加后只需简单的操作使系统识别磁盘后使用。在线增加节点时只需在现有集群基础上直接增加存储节点,将新加节点创建OSD划分给存储池,系统自动进行负载均衡操作。磁盘扩容与节点扩容的所有操作都不需要中断任何服务,完全可以在分布式存储进行数据访问的任意时刻进行。

维护简单
超融合分布式存储是软件定义存储,图形化管理界面的简单操作可以执行配置、使用、维护、升级等所有任务,不需要专业极强的技术人员维护,短时间内即可完成更新升级,解决了异构硬件成本高、升级困难的技术难题。

部署灵活
SSAN支持物理融合和超融合部署方式,但更推荐超融合部署,方案中采用也是SSAN+oVirt超融合部署。用户通过oVirt Engine提供的web管理界面在每台KVM虚拟化的Node节点上创建CVM虚拟机,每台物理服务器既是oVirt计算节点,同时也是SSAN存储节点,提高了服务器物理资源利用效率,避免不必要的浪费,进而降低了成本。超融合部署使得SSAN存储资源与VDI主机计算资源融合,可以更好发挥本地存储优先访问策略优势,进一步提升I/O效率,在高性能需求上有所突破。虚拟化环境对虚拟机固有快照及备份操作能够使节点出现异常后短时间内恢复正常,相比物理融合故障恢复操作简单快捷,更能保证业务恢复的及时性。

图5-ovrt超融合.png

 采用超融合部署方式既稳定高效,又灵活部署、简单易用,降低了运维难度和使用成本。超融合部署具有以下特点:
(1)服务隔离。分布式存储服务部署在虚拟机中与虚拟化服务分开隔离,同时运行而不相互影响,确保安全、稳定、可靠。
(2)资源可控。分配虚拟机节点指定资源,将资源限制在合理范围内,服务异常时资源消耗受限,不会影响其他服务的正常运行。
(3)节点备份。利用虚拟化平台的克隆备份与快照备份相结合的备份方式对CVM虚拟机节点进行定时备份,防止节点服务异常时导致分布式存储系统崩溃。
(4)故障易恢复。节点服务异常时,利用快照备份技术进行恢复,简易快捷,保证分布式存储系统故障恢复的及时性。

2.2 物理融合方式
SSAN分布式存储同时支持物理融合的部署方式,物理融合即分布式存储服务与虚拟化软件同时部署在物理服务器上,分布式存储服务可直接管理磁盘资源而不必做磁盘穿透。在相同数量的物理服务器上虚拟化服务构成虚拟化集群,分布式存储服务组建存储集群,聚合所有的数据盘资源,将所有数据盘整合到存储池中后进行虚拟磁盘分配,可以自由选择副本或纠删码的数据冗余方式保护数据,通过iscsi网络共享。

存储通过iSCSI连接到计算节点。物理融合中SSAN服务对于物理资源的占有率较高,使得物理资源的计算性能略有提升,但资源紧张时会与虚拟化环境争夺资源,而超融合部署方式中CVM虚拟机提供的计算资源完全能够满足SSAN服务的性能需求。且能够将资源限制在可控范围内,使存储与虚拟化环境隔离,各自运行互不干扰。因此,物理融合的部署方式稍逊色超融合部署。

图6-ovirt物理融合.png

 三节点是保证分布式存储与虚拟化所有功能实现的集群起步节点数量,oVirt-Engine需要部署在单独的物理服务器上,因此按照物理融合部署方式需要4台物理服务器,3台用于部署SSAN与oVirt-Node节点,1台作为oVirt-Engine管理节点。管理网可用1G网络,用于管理所有服务器及虚拟机,业务网与数据网推荐采用10G网络,数据网用于SSAN节点内部数据传输,确保3节点数据具有强一致性,业务网用于连接SSAN节点与所有SSAN客户端节点,供客户端访问数据。此种物理部署方式下分布式存储服务容易与虚拟化环境竞争资源,两者之间相互干扰会影响到性能平衡性和系统QoS服务质量,因此通常需要采用CGroup/LXC等技术对物理资源进行隔离和合理分配。

2.3 两种融合对比
按照是否完全以虚拟化为中心,把融合方式分为物理融合和超融合两种。对于这两种部署方式应从存储性能、经济成本等多方面分析对比。从分布式存储角度来讲,物理融合与超融合不相上下,都符合分布式存储的原则和理论,且相比来说性能区别不大,伯仲之间。物理融合不需要做磁盘透传,分布式存储直接接管物理资源,具有部署简单方便等优势。不需要单独划分虚拟机,在虚拟化管理界面中的误操作不会对分布式存储造成影响,分布式存储不依赖于虚拟化环境,虚拟化崩溃不影响分布式存储继续运行。

虽然物理融合有较多的优势,却始终不如超融合那样广受欢迎,主要由于其自身存在硬伤。首先,物理融合不能进行节点系统快照备份,一旦存储服务出现问题,恢复困难。其次,将分布式存储服务与虚拟化服务同时部署在底层操作系统,会使两种服务竞争计算资源,且资源使用不可控,资源竞争容易导致存储或虚拟化环境稳定性问题。不仅如此,一旦存储出现问题需要重启主机时必然影响虚拟化环境继续提供服务,可能影响虚拟化环境运行业务甚至整个集群,牵一发而动全身,增加额外风险。

超融合技术的设计架构从原理上避免了以上问题,在实际使用中证明了相对于物理融合的优越性。虚拟化技术发展多年趋于成熟,已广泛应用于各种生产环境运行业务,其稳定性和可靠性早已无需多言,完全能够达到同物理机相同的水准。通过划分CVM虚拟机运行分布式存储服务以达到超融合的目的,合理配置存储服务使用资源,服务异常时能够将资源消耗限制在指定的范围内,不会影响其他服务的正常运行,更不会对虚拟化环境造成干扰,解决了物理融合环境中服务竞争计算资源与资源消耗不可控的问题。虚拟化环境中可以对虚拟机进行快照备份与克隆备份,一旦CVM节点故障可以及时进行恢复操作,确保分布式存储服务故障恢复的及时性。

物理融合与超融合部署的根本区别在存储控制端的不同,超融合中将Hypervisor中的虚拟机作为存储控制端,计算和存储部署在同一物理节点上,相当于多个组件集中部署在一个系统中,同时提供计算和存储能力。物理融合直接将物理服务器作为计算节点的同时提供存储控制端服务,计算和存储同时部署在底层操作系统,存储通过iSCSI连接到计算节点,计算和存储是同时运行在操作系统的两种服务,理论上互不影响,但实践证明处理不当很容易相互干扰,影响服务稳定性。超融合架构与物理融合不同在于是否完全以虚拟化计算为中心,计算和存储紧密相关,存储由虚拟机而非物理机服务来控制并将分散的存储资源形成统一的存储池,而后再提供给Hypervisor用于创建应用虚拟机。

图7-两种融合.png

超融合架构方案中,每台物理服务器单节点同时具备计算与存储双节点功能。每个计算节点配置一台虚拟机作为控制器(CVM),并将物理主机上的磁盘和网卡透传给CVM,在所有CVM上部署SSAN形成统一的存储资源池,所有应用虚拟机均创建在存储池中。超融合架构实现了计算、存储、网络等资源的统一管理和调度,具有更弹性的横向扩展能力,极大简化了复杂IT系统的设计,可以更好地提高资源利用效率,降低成本。
超融合相比物理融合方案更具备如下优势:
(1)完全软件定义。独立于硬件,采用商业通用标准硬件平台,完全采用软件实现计算、存储、网络等功能。
(2)完全虚拟化。以虚拟化计算为中心,计算、存储、网络均由虚拟化引擎统一管理和调度,软件定义存储由虚拟机控制器CVM进行管理。
(3)完全分布式。横向扩展的分布式系统,计算、存储、网络按需进行动态扩展,系统不存在任意单点故障,采用分布式存储。
(4)故障易恢复。利用虚拟机快照等方式进行备份,若CVM节点故障或异常,可短时间内恢复保证业务系统恢复的及时性。

综上所述,超融合技术经济成本与物理融合毫无差别,性能上区别不大,但都优于传统集中式共享存储,而在资源消耗可控与服务节点备份方面较物理融合有明显优势。因此,超融合技术是虚拟化环境中目前最好的选择,正在成为下一代数据中心的主流基础架构。

3.  超融合部署

图8-部署流程.png

3.1 oVirt部署
(1)部署底层系统
oVirt虚拟化所有服务都需要将Linux系统作为底层运行环境。因此,将四台物理服务器全部安装CentOS7.3 minimal 64位操作系统。

(2)安装管理节点
Engine作为管理节点,是整个系统的核心部件,控制计算节点资源的使用,提供用户访问的web管理界面,Engine节点内置数据库记录整个系统中所有的虚拟机配置、节点、系统、存储器状态等信息。管理的逻辑、状态及策略全部在 Engine 中设置与实现。
oVirt-Engine采用yum源的安装方式,配置所有主机的oVirt yum源,执行如下命令:
sudo yum install http://mirror.isoc.org.il/pub/ovirt/yum-repo/ovirt-release41.rpm
Engine节点需要yum安装oVirt-Engine,Node节点需要部署VDSM与KVM服务。配置好所有yum源后在管理节点安装oVirt-Engine,执行如下命令:
sudo yum install ovirt-engine –y

(3)配置oVirt Engine
执行命令:ovirt-engine setup
除部分需要填写的名称外,其余全部为默认,配置信息如下:

图9-ovirt配置.png

 (4)安装计算节点
oVirt Node作为虚拟化环境的计算节点,负责提供计算资源,搭建时需要在Linux操作系统部署VDSM和KVM服务。首先,需要确保Node节点能够ping通外网,且Node节点yum源配置正确,之后执行命令setenforce 0 关闭所有Node节点的SELinux,回到Engine管理界面直接添加oVirt Node节点,即完成oVirt Node安装。

(5)配置NFS存储
oVirt集群有本地存储与共享存储两种方式,由于本地存储集群中只能添加单台Node节点,所以为了更好发挥集群特性,采用NFS共享存储方式,在每台Node节点上配置单独的NFS存储用于安装CVM虚拟机,执行以下命令:
cat /etc/exports    #按照以下内容编辑exports文件
/export/ iso *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)
/export/ data *(rw,sync,no_subtree_check,all_squash,anonuid=36,anongid=36)
systemctl start nfs.service        #启动nfs服务
systemctl enable nfs.service    #设置nfs服务开机自启动

3.2 SSAN部署
3.2.1 超融合
(1)创建CVM

在每台Node节点分别创建CVM虚拟机,需要注意每个Node节点上运行的CVM虚拟机所使用的NFS存储均由该主机提供,每台CVM虚拟机用于运行SSAN服务。配置网络时确保管理网用1G,数据网与业务网用10G。具体规格要求如表所示。

图10-CVM创建.png

(2)物理磁盘透传
超融合环境中为更好的发挥存储性能,需要将物理磁盘直接透传给CVM虚拟机节点进行管理,磁盘透传采用FC存储类型方式,直接在Engine页面进行操作,以保证虚拟机无缝处理磁盘块级设备。在数据中心-磁盘菜单下,点击【新建】-【直接LUN】-【存储类型】中,选择Fibre Channel类型,可以显示物理服务器的所有磁盘信息,选择要透传给虚拟机的磁盘。

(3)安装SSAN
在CVM虚拟机管理节点,首先解决RPM依赖关系,由于SSAN安装采用脚本方式安装,在各个节点依次执行安装脚本并配置相应参数,在参数配置项中根据集群信息实际内容填写。
#./ssan_install.sh

WEB GUI是用户对SSAN系统进行配置和管理的图形界面,SSAN服务安装好后选择集群中管理服务器安装WEB服务。
#./ssanweb_install.sh

在浏览器输入管理服务器ip地址,打开SSAN图形管理界面按照以下流程配置。

图11-SSAN配置.png 
(4)配置iSCSI共享存储
SSAN主要用于给oVirt虚拟化环境提供iscsi共享存储,以确保虚拟机能够在线迁移、支持高可用,并且能快速批量创建。在oVirt环境中新建存储域,添加SSAN提供的iscsi共享存储,并使用该存储验证功能及性能。

(5)多路径设置
客户端通过挂载多个分布式存储节点ip,配置主备模式的多路径。在主节点宕机的情况下依然能够保证数据访问高可用,不影响业务运行,并发挥本地存储优先访问策略,进一步提高存储性能。

3.2.2 物理融合
物理融合中SSAN服务直接运行在底层操作系统。因此,要将SSAN分布式存储软件包上传至oVirt Node物理服务器,解决好RPM依赖包关系后执行安装脚本进行安装部署服务,配置WEB GUI。
#./ssan_install.sh
#./ssanweb_install.sh
用web管理界面进行节点添加、磁盘初始化、创建存储池、配置OSD、新建虚拟磁盘、匹配iscsi目标等相应配置,之后进入oVirt管理界面配置iscsi共享存储与存储多路径。

3.2.3 差异分析
超融合与物理融合两种部署方式的根本区别在于SSAN服务运行环境的不同。超融合部署时SSAN服务运行在单独的CVM虚拟机环境中,需要创建CVM虚拟机,由此引起物理磁盘透传、网卡透传等操作。物理融合时SSAN服务运行在物理服务器底层Linux操作系统,只需将SSAN软件包上传至服务器系统直接部署,进行相应的配置,不需要其他任何操作。

部署方式的差异将直接导致分布式存储控制端不同,物理服务器作为计算资源的同时提供存储服务。超融合中划分单独CVM虚拟机作为存储控制器,管理服务器内部磁盘资源,分布式存储服务依赖于虚拟化环境运行。在CVM虚拟机中运行分布式存储服务,使存储服务与虚拟化服务相互隔离、各自运行、互不影响,且能够完全控制分布式存储服务资源消耗,根据需求合理规划物理服务器资源,有效避免了服务异常时互相争夺资源的窘况。

物理融合中虚拟化服务与分布式存储服务同时运行在底层Linux操作系统,在底层系统部署虚拟化服务的同时直接部署分布式存储服务,减少了超融合部署中创建CVM虚拟机、物理磁盘透传、网卡透传、CVM网络规划配置等步骤,实施过程更加简单方便。但无法避免架构设计存在的固有缺陷。分布式存储服务与虚拟化服务在底层操作系统同时运行,两种服务容易竞争计算资源,资源消耗无法控制,资源竞争易导致虚拟化环境或分布式存储服务的系统稳定性和性能抖动。物理融合中分布式存储控制端节点不支持快照备份,一旦存储服务出现问题,恢复极其困难。

图12-部署对比.png

综合资源消耗可控性、服务运行稳定性、环境隔离与干扰性、业务恢复及时性等多方面因素,超融合部署方式较物理融合有显著优势,是现有情况下发挥存储性能、提高资源利用率、完全软件定义存储、遵循完全分布式原则的最佳解决方案。

4. 最佳实践
SSAN是软件定义分布式块存储,具有弹性在线扩展特性,支持最大节点数量为1024以上,集群最大192PB存储容量,小规模集群部署中推荐3节点起配置,根据实际需求发展在线扩容。理论上存储性能随着节点数量增加而近线性增长,企业模式部署推荐最佳配置单一集群规模控制在128节点以内,这个配置能够满足绝大多数企业需求,且存储效率和性能达到最优配置。

物理服务器推荐E52630v2CPU或更高,64GB内存配置,配置SSD缓存时SSD缓存容量大小为HDD容量的20%。物理服务器至少配备3块网卡,管理网络使用1G,数据网络和业务网络采用10G。CVM虚拟机节点建议配置4vCPU、8G内存、20G系统盘用于生产环境,测试环境中可以配置2vCPU、4G内存、20G系统盘,安装CentOS6.7 minimal操作系统作为SSAN服务运行环境。

5. 小结
超融合作为新兴的IT基础架构解决方案,在性能提升、功能实现等方面较物理融合有明显优势。超融合能够提高资源利用率,在物理主机中部署低配置虚拟机耗费资源较少,发挥了成本优势;本地优先访问策略提升数据传输速率,发挥了性能优势;CVM虚拟机节点能够随时做快照与备份,更能够保证业务中断后恢复的及时性。

oVirt+SSAN作为超融合架构中的典型方案架构,颇具代表性的展示了虚拟化与分布式存储组建超融合环境的优势。突破传统存储性能需求瓶颈,解决物理融合计算资源消耗不可控的问题,支持副本与纠删码两种冗余方式保证数据安全,遵循完全由软件定义、数据中心完全虚拟化、存储完全分布式的设计原则,具有故障易恢复的特点。该超融合方案部署方便,运维简单,降低经济成本与人力资源消耗,非常适用于桌面云、服务器虚拟化、私有云等应用场景。

发表评论

全部评论(0)