Cybersécurité, Virtualisation & Intelligence Artificielle... VIRTU-DESK - Technologies de virtualisation et sécurisation de l'environnement utilisateurs.

Optimisation de la donnée par Simplivity vs Nutanix

Par Le jeudi, 14 août 2014 0

Dans Infrastructures (hyper) convergentes

 

Simplivity annonce sa solution comme étant la toute dernière génération d’hyper-convergence avec sa gestion d’optimisation de la donnée à la source (fonctionnalité Data Virtualization Engine) qui favorise la convergence, la flexibilité et la mobilité des VMs.

Mais qu’en est-il vraiment et qu’apporte cette optimisation en termes de performances ?

 

Contrairement à Nutanix qui gère la déduplication et la compression des données au niveau de son système de fichiers distribué « NDFS », Simplivity s’appuie sur sa carte matérielle PCIe dédiée « OmniStack Accelerator » pour gérer ces mêmes fonctionnalités (voir le billet « L’architecture OmniStack de Simplivity »). Je pense que ce point est en la défaveur de Simplivity en ce qui concerne la fréquence de mise à jour des optimisations, qui reste de l’ordre de l’année en ce qui concerne le hardware et qui est plutôt de l’ordre du mois en ce qui concerne une solution logicielle. Un acteur de comme Nutanix offrira donc une meilleure granularité et constance dans l’évolution des optimisations logicielles pour la gestion de la donnée.

Chez Simplivity, la compression et déduplication des données (traitement par bloc granulaire de 4KB-8KB via le module PCIe « OmniCube Accelerator ») se fait au niveau de l’hôte local (nœud du cluster) contrairement à Nutanix qui gère ces mêmes fonctionnalités par son système de fichiers distribué « NDFS » au niveau global, c’est-à-dire à sur tous les nœuds du cluster. On doit comprendre par là qu’une même donnée, qui se trouve sur deux nœuds différents, ne sera jamais dé-dupliquée. Dans ces circonstances, valoriser sa solution comme faisant partie de la toute dernière génération d’infrastructure hyper-convergente sur le simple fait de proposer une optimisation de la donnée à la source, me parait assez osé. Certes, l’algorithme intensif de compression-déduplication d’« OmniCube Accelerator » est pertinent, mais si la solution ne traite qu’une partie des données concernées, on peut s’interroger sur les véritables performances côté réplications, malgré l’apport du module « OmniCube Global Federation » qui doit permettre un mouvement des données très efficace au sein du cluster dans sa globalité.

De plus, lors de la création d’une VM, Simplivity créer deux fois le même fichier VMDK sur deux nœuds différents du cluster (un local et l’autre distant). Comme VMware utilise vSphere DRS pour équilibrer en permanence l’utilisation de la plateforme, lorsque la VM sera déplacée vers un autre nœud dans le cluster, les fichiers VMDK transiteront par le réseau en générant un flux de données non négligeable. Peut-on vraiment parler de Scale-out dans ces circonstances ?

Si nous regardons maintenant côté densité, la faveur est à mettre au bénéfice de Nutanix. Les deux solutions ont des Appliances de format 2U, mais contrairement à Simplivity qui n’implémente qu’un nœud maximum par boitier, Nutanix en implémente un maximum de quatre. Quand on sait qu’aujourd’hui l’énergie et l’espace dans les Datacenters deviennent des points importants à considérer, cet aspect est loin d’être à négliger dans le choix de la solution à déployer.

Tout comme Simplivity, Nutanix intègre aussi nativement les fonctionnalités nécessaires pour faire de la compression « Inline » des données, et même en option de la compression « post-process* ». En y rajoutant les fonctionnalités de « Shadow Clones », de déduplication de cache NEDE (Nutanix Elastic Dedupe Engine) et de « MapReduce Deduplication », Nutanix est LA solution hyper-convergée pour les environnements V.D.I, au-delà d’une plateforme simple de virtualisation de machines (voir le billet « Nutanix & le V.D.I - L'évidence et la pertinence »).

* Compression « post-process » : La donnée brute est déjà écrite sur le disque avant d'être traitée par le mécanisme de compression dans une étape dite « postérieure ». Chez Nutanix, la compression permet de multiplier l’espace de stockage utile entre x2 et x4.5.

 

Un autre facteur qui peut avoir son importance d’un point de vu plus visionnaire celui-là, c’est que Nutanix vend du matériel pour vendre du logiciel, alors que Simplivity lui doit vendre du matériel car sa solution est dépendante de sa carte PCIe dédiée « OmniStack Accelerator ». D’un point de vu scalabilité, Nutanix est donc plus « scalable » que Simplivity car la solution n’a quasi aucune adhérence avec le matériel.

 

Alors, doit-on en conclure que cette dernière génération d’hyper-convergence que Simplivity appelle «  hyper-convergence  3.0 » est moins pertinente et performante que celle de Nutanix?

14 votes. Moyenne 3.9 sur 5.
Vous devez être connecté pour poster un commentaire