A l’occasion de l’apparition d’un nouveau Quadrant Magic sur les serveurs intégrés, le 11 aout, les systèmes hyper-convergés ont étés mis en avant par leurs performances. Ces systèmes, en vedettes, depuis le succès de Nutanix et de SimpliVity devraient subir à terme l’impact des solutions de réseaux intégrés (SDN) mais elles préfigurent une génération de serveurs ou les systèmes seront toujours plus distribué.s
Le Gartner, dans cette derniere étude, a rassemblé trois différentes architectures de serveurs ce qui a l’avantage de permettre un tour rapide des différentes formes de serveurs. L’ensemble de l’étude est disponible sur Gartner.com
Les systèmes dédiés
La première est constituée par les ISS, les Integrated System Servers . Elle rassemble dans un même ensemble le serveur, le stockage et le matériel réseau intégré avec son logiciel d’application pour offrir des services dédiés comme le ferait une « Appliance », un serveur dédié à une fonction principale. Dans cette catégorie, le Gartner cite les systèmes dédiés comme l’IBM System Pure Application, l’Oracle Exadata Database Machine et l’offre Teradata.
Les plateformes de calcul
La deuxième catégorie concerne les IIS, les systèmes d’infrastructure intégré (IIS) qui associent également pour leur part serveur, le stockage et réseau intégré mais cette fois pour fournir une infrastructure de calcul partagé. Les exemples proposés par Gartner incluent VCE Vblock (que Cisco vient officiellement d’abandonner), HP ConvergedSystem et Lenovo (anciennement PureFlex).
Ces deux premières catégories sont dans 95% des cas basées sur des serveurs en lame, avec un SAN étroitement intégré ou un serveur de stockage en réseau (NAS). Cela permet un démarrage rapide à partir de disques pour tous les nœuds physiques et virtuels, ce qui supprime l’inertie au démarrage en particulier dans le cas de systèmes très virtualisés.
Troisième variante ; les Systèmes intégrés hyper-convergés (HCIS)
Ils associent étroitement le calcul, le réseau et du matériel de stockage. Cela évite les frais liés à des systèmes de stockage dédiés (SAN). C’est du coté application du stockage que l’intérêt de ces systèmes est évident. La sauvegarde, la récupération, la réplication, la déduplication et de la compression sont fournis via la couche logicielle de gestion et /ou de matériel, avec le calcul automatique du provisionnement. Les exemples cités par le Gartner incluent Gridstore, Nimboxx, Nutanix, Pivot3, Scale computing (importé par Hermitage Solutions en France) et SimpliVity.
Si les trois environnements sont très proches les uns des autres, on ne peut s’empêcher de penser aux systèmes orientés logiciels comme EMC VSPEX qui permettent de rassembler sous un même « parapluie » logiciel un groupe de serveurs, de stockage et des éléments de réseau pour en faire un système intégré. D’autres logiciels dédiés comme ceux de SAP,HP, IBM, CA, BMC, par exemple facilitent aussi l’administration d’un pool de serveurs hétérogènes, la bonne intégration des plateforme extérieures, dans le cloud, étant au coeur des solutions les plus enthousiasmantes, au moins du point de vue de l’intégration .
Sur le fond, l’intégration de logiciels au cœur des systèmes à toujours été un sujet de différenciation. Lorsqu’IBM à proposé son mini IBM 36 avec le langage RPG intégré en février 83 (il sera supporté par IBM plus de 17 ans, jusqu’en 2000 puis suivis pas les fameux 38 et AS/400). mais déjà à l’époque cela ne faisait déjà pas mal de temps, depuis 1977 avec le 34 que l’on se posait des questions sur l’intérêt d’un système intégré ou d’une solution avec un logiciel externe. De même, la multiplication des PDP 11 chez Digital Equipement, puis les serveurs Sun avec leurs grosses librairies d’outils de communications intégrés donnaient déjà une idée de ce que l’on pourrait faire au 21 eme siècle en programmant un routeur pour qu’il fonctionne en osmose avec une application donnée, qu’elle soit au sein de l’entreprise ou en location chez un éditeur externe. L’avantage d’un logiciel intégré tient en priorité au support du constructeur, au parc d’applications bien rodées et l’élimination radicale de nombreuses pannes systèmes lorsque les premier clients ont essuyé les plâtres, mais cela se paie par une interdépendance parfois couteuse.
Quelles différences depuis les premiers serveurs dédiés?
L’évolution majeure des serveurs, de manière récurrente,on pourrait le dire depuis l’Eniac de Von Neuman tient à la puissance phénoménale de calcul de systèmes , les nouveaux processeurs et aux volumes mémoires croissants utilisés. Les annonces des nouveaux Power 9 et 10 d’IBM ( lire ls annonces IBM d’aujourd’hui)contribuent à la fuite en avant . On pourrait y rajouter depuis quelques années les récents disques « flashs » qui atténuent les différences entre stockage lent (disques magnétiques en voie de disparition) et stockage rapide (RAM), ce qui ne manquera pas tôt ou tard de remettre en question la nature même de certains OS conçus pour administrer entre autres des temps d’entrées sorties très différents. Du point de vue logiciel, l’omniprésence d’Internet et de la virtualisation ont conditionné les caractéristiques des serveurs pour qu’ils fonctionnent en harmonie dans des racks gérés par fermes de serveurs administrés à distance. Enfin, on retiendra que pour la première fois depuis des lustres , le Gartner n’a plus pris en compte les offres de Bull (Atos) et Unisys devenues sociétés de services à part entière, elle étaient pourtant les pionnières dans la virtualisation et l’intégration de systèmes.