Cybersécurité, Virtualisation & Intelligence Artificielle... VIRTU-DESK - Technologies de virtualisation et sécurisation de l'environnement utilisateurs.

Microsoft S2D – La configuration matérielle requise

Par Le samedi, 11 février 2017 0

Dans Infrastructures (hyper) convergentes

Ce billet a pour but de décrire la configuration matérielle minimale requise pour gérer, dans des environnements de tests, les espaces de stockage direct (Microsoft S2D pour Storage Spaces Direct) dans Windows Server 2016.

W2k16 ssd convergence4

 

NOTA : Ce billet est repris du site Technet de Microsoft (voir lien de la source en fin d'article)

Pour des environnements de production, il est très fortement recommandé d’opter pour des offres packagées, matérielles et  SDS (Software-defined Storage ou logicielle à définition logicielle) pour Windows Server et comprenant des outils et procédures de déploiement. Ces offres sont conçues, assemblées et validées pour répondre aux exigences de Microsoft vis-à-vis des environnements de cloud privé pour garantir un fonctionnement fiable.

Les offres SDS Windows Server seront mises à disposition dans le courant de l’année 2017. Voir dans cette vidéo, vous pourez retrouver les partenariats pressentis avec les divers constructeurs de serveurs.

Conditions et configurations pour les espaces de stockage direct (S2D)

Tous les systèmes, composants, matériels et pilotes doivent être « certifiés pour Windows Server 2016 »

Serveurs

  • Deux serveurs minimum, 16 serveurs maximum
  • Tous les serveurs doivent être identiques (composants matériels, pilotes, microprogrammes et configuration)

Processeur

  • Intel Nehalem au minimum, ou un processeur plus récent et compatible

Mémoire

  • 5 Go/To de cache sur chaque serveur pour les métadonnées. Exemple : si chaque serveur a 2 x 1 To de lecteurs cache, il faudra implémenter 10 Go (2 x 5 Go) de mémoire pour les espaces de stockage direct (usage interne).
  • La mémoire nécessaire pour les applications ou charges de travail (machines virtuelles, par exemple).

Réseaux

  • Au minimum, une interface réseau 10 Gbits/s pour la communication à l'intérieur du cluster
  • Recommandé : deux cartes réseau pour la redondance et les performances
  • Recommandé : interfaces avec accès direct à la mémoire à distance (RDMA), iWARP ou RoCE

Lecteurs

  • Lecteurs SATA, SAS ou NVMe locaux
  • Chaque lecteur doit être physiquement connecté à un seul serveur
  • Les disques SSD utilisés pour le cache doivent avoir une endurance élevée en écriture.
  • Disque séparé dédié au démarrage
  • Non pris en charge : MultiPath IO (MPIO), autrement dit la connexion physique de disques via plusieurs chemins

Nombre minimal de disques

  • 2 disques minimum pour le cache
  • 4 disques minimum pour la volumétrie

Types de disques présents   

Nombre minimal requis

Tous NVMe (même modèle)

4 NVMe

Tous SSD (même modèle)

4 SSD

NVMe + SSD

2 NVMe + 4 SSD

NVMe + HDD

2 NVMe + 4 HDD

SSD + HDD

2 SSD + 4 HDD

NVMe + SSD + HDD

2 NVMe + 4 autres

Maximum

  • Au maximum un pétaoctet (1 000 To) de capacité brute par pool de stockage

Adaptateur de bus hôte (HBA)

  • Simple HBA SAS pass-through pour les disques SAS et SATA
  • SCSI Enclosure Services (SES) pour les disques SAS et SATA
  • Les boîtiers de stockage en attachement direct doivent présenter un ID unique.
  • Non pris en charge : contrôleurs HBA RAID ou appareils SAN (Fibre Channel, iSCSI, FCoE)

Source de ce billet sur ce lien.

5 votes. Moyenne 5 sur 5.
Vous devez être connecté pour poster un commentaire