mardi 12 novembre 2013

Nuta… quoi ? Nutanix ?

Retour sur l’histoire du stockage partagé pour la virtualisation

J’ai rejoint VMware en Avril 2004 pour démarrer l’activité en France. Après HA (le redémarrage de VM lors de l’arrêt d’un serveur), c’est à cette période, que sortait vMotion (Le déplacement à la volée de VM entre serveurs physiques sans interruption). L’obligation pour HA et vMotion d’avoir un stockage partagé entre les serveurs de virtualisation, imposa l’usage de SAN et NAS dans le monde virtuel x86.
Au passage, il faut se souvenir que le SAN a été inventé pour les mainframes afin d’apporter des performances, de la qualité de service et la réplication inter-sites. EMC a amorcé son activité en adressant ce marché. Ensuite utilisé pour les serveurs Unix et x86 critiques à haute performance, il n’avait pas été imaginé pour fournir un service de stockage de commodité.
Pour le NAS, beaucoup de détracteurs considéraient à l’époque que ses performances étaient inadaptées et trop en dessous du SAN. D’accord, les premiers à l’adopter étaient surtout intéressés par la facilité de gestion et la simplicité d’IP comparé à FC. Mais, avec l’arrivée du 10Gb/s Ethernet, la montée en puissance des contrôleurs et l’évangélisation du marché par Netapp, le NAS se voit maintenant utilisé majoritairement pour la virtualisation.
Bien que ces deux solutions n’étaient pas vraiment destinées à cet usage, il n’existait pas d’autres options pour partager le stockage. Avec l’adoption massive de la virtualisation, de nombreuses fonctionnalités ont été ensuite développées par les fournisseurs de matériel.

Les racines d’une nouvelle approche

Lorsqu’une technologie innovante arrive, il y a ceux qui font comme avant, sans rien changer fondamentalement, et il y a ceux qui décident d’en profiter pour faire autrement, en remettant tout en cause. Ce constat est intemporel.
Avec l’arrivée des SSD, est-il encore utile de centraliser le stockage dans une boite pour paralléliser des axes de disques afin d’obtenir redondance et performance ?
D’autre part, pour traiter des volumes démesurés de données, les architectures de Big Data placent les traitements au plus proche de l’information. Aussi, pour ne pas refondre leurs infrastructures à chaque changement d’échelle, les grands acteurs d’internet ont quitté les architectures classiques que nous connaissons en entreprise pour des architectures distribuées totalement banalisées.
Le SSD et ces conceptions nouvelles augurent d’une nouvelle façon de penser.


Bascule du stockage centralisé à distribué 

La publication par les équipes de Google des principes d’un système de fichier distribué inspira le développement d’Hadoop File System (HDFS). Les équipes Nutanix ont repris l’idée en l’appliquant à la virtualisation. Ainsi cela profite à toutes les applications sans aucune modification.

L’utilisation de stockage SSD distribué dans chacun des serveurs de virtualisation couplés avec une redondance d’information entre les serveurs pose les fondements d’une nouvelle conception des infrastructures. C’est celle de Nutanix.

Les bénéfices sont multiples : Evolution sans jamais remettre en cause son architecture, l’investissement se fait au fur et à mesure des besoins avec un niveau de performance optimal. Je reviendrai dessus dans mes prochains posts.