Cybersécurité, Virtualisation & Intelligence Artificielle... VIRTU-DESK - Technologies de virtualisation et sécurisation de l'environnement utilisateurs.

Cloud, VDI et Big Data : Pourquoi Nutanix ?

Par Le dimanche, 11 mai 2014 0

Dans Infrastructures (hyper) convergentes

Les Appliances de Nutanix proposent une approche basée sur le rapprochement du stockage et de la puissance de calcul pour la gestion des machines virtuelles.

Nutanix propose une approche originale des infrastructures virtualisées VMware, HyperV et KVM. Cette approche est basée sur la convergence du calcul et du stockage au sein d’Appliances préconfigurées, implémentées dans des clusters et gérées par une intelligence logicielle de Nutanix.

Le gros avantage des solutions Nutanix réside dans la suppression du SAN. Voici trois des principaux avantages par rapport aux solutions SAN classiques :

  1. Performances
  2. Scalabilité
  3. Coûts

1 - Performances

Il faut savoir qu’avec les plates-formes virtualisées, le principal goulet d’étranglement réside dans le stockage. Plus on intègre de plates-formes virtualisées sur un SAN, plus on va rapidement être confronté à des problèmes de performances. Nutanix lève cette limite par sa technologie Scale Out Converged Storage (SOCS) qui virtualise tout le stockage local des serveurs en un pool unifié. En effet, lorsque l’on ajoute des nœuds à mesure que l’on fait croître le nombre de VMs, on augmente le nombre de contrôleurs de stockage virtuels ou CVM (voir ce billet) dans le cluster en offrant une meilleure tolérance de panne et une optimisation du stockage.

2 - Scalabilité

La conception modulable de la solution permet de démarrer avec des déploiements modestes et de les développer au fur et à mesure des besoins. Avec une seule Appliance, il est possible de réaliser de la petite opération jusqu’à des déploiements de grande envergure, en passant par des initiatives de virtualisation de postes, des tests et développements d’applications, des projets Big Data, et plus encore. Nutanix, par sa technologie embarquée, offre de la linéarité aux performances.

3 - Coûts

Avec Nutanix, la marche financière dans l’étude d’un nouveau projet de virtualisation est plus facile à franchir qu’avec l’implémentation d’une solution de stockage classique. En effet, un boîtier 2U, composé de 3 nœuds (c’est le seuil minimal pour mettre en place un cluster Nutanix) permet d’héberger quelques 200 VMs pour un investissement d’environ 80 K€ (Sammy Zoghlami, Country Manager de Nutanix France, annonce même un coût d’entrée pour 3 nœuds à 60 K€). Pour Christophe Campet (ingénieur avant-vente chez l’hébergeur Claranet), l’approche du Software Defined Datacenter de Nutanix est proche de celle de vBlock (Alliance de Cisco, EMC et VMware), mais avec un ticket d’entrée plus modeste et des extensions plus faciles car il n’y a pas de coûts annexes comme ceux liés à l’achat de Switchs Fibre Channel.

Les usages

Côté usages, les clusters Nutanix sont surtout destinés à trois typologies de projets :

  1. La construction de Cloud privé,
  2. Le Big Data (gestion d’environnements Hadoop notamment)
  3. La virtualisation de postes de travail (VDI).

.

Un petit mot justement sur les infrastructures classiques en environnement VDI

Les plateformes VDI souffrent des performances et de l’évolutivité du stockage. Les limitations se situent surtout au niveau des échanges entre les hyperviseurs et la baie de stockage (problèmes d’IOPS en lecture/écriture, de latence et de bande passante). Les postes de travail virtuels, dans une infrastructure VDI, sont hébergés sur un SAN, ce qui implique que les accès en lecture/écriture se font au travers des contrôleurs de la baie de stockage. Sur les SAN de nouvelles générations, les contrôleurs implémentent du cache qui va permettre de stocker une certaine quantité de données pour optimiser les accès aux postes de travail. Le problème dans ce type de solution, c’est que le cache se trouve au niveau des contrôleurs de la baie, et pour accéder à l’hyperviseur, les données doivent quand même transiter au travers du réseau de stockage.

Lorsqu’un nombre important de postes de travail virtuels démarrent en même temps (effet « bootstorm »), les contrôleurs doivent traiter un nombre très important d’IOPS. Si la baie de stockage n’a pas la faculté de traiter l’ensemble de ces demandes, elle génère de la latence entre l’hyperviseur et le stockage. A ça vient se rajouter l’antivirus qui, par ses scans, dégrade lui aussi les performances. Le constat que l’on peut en faire par rapport aux infrastructures VDI, c’est que quand la donnée se trouve éloignée des hyperviseurs (ce qui est le cas dans les architectures classiques), des phénomènes de latence apparaissent et dégradent l’expérience utilisateur.

Sammy Zoghlami cite un cas client dans ce contexte particulier.

« Avec le VDI, la dégradation de performances due à la mutualisation du stockage peut se manifester très vite, en quelques semaines. C’est d’ailleurs ce qui est arrivé à l’armée américaine, qui, constatant ces difficultés, a dénoncé son contrat avec un autre fournisseur pour adopter notre infrastructure. »

Avec 13 000 postes de travail pris en charge, il s’agit d’une des plus importantes références actuelles de l’éditeur. Dans le monde, un projet sur deux de la start-up concerne d’ailleurs le VDI.

.

J'ai écrit ce billet à partir de l'arclicle disponible sur ce lien.

3 votes. Moyenne 5 sur 5.
Vous devez être connecté pour poster un commentaire