Bien qu’on ait encore besoin de réserves de bois pour alimenter nos cheminées, force est de constater qu’on a encore plus besoin de stocker nos informations personnelles de façon sécurisée…pardon ?!
Le monde évolue…la technologie aussi. A l’ère du numérique, la préservation de nos données personnelles relève de la plus grande importance. Au point de finir par se demander comment stocker ces données de la façon la plus sécurisée, la plus optimale et la moins coûteuse possible…qui aurait cru que cette équation à plusieurs inconnues fasse l’objet de nos plus grandes préoccupations aujourd’hui ? Parlons-en !
Qu’il est loin de nous l’âge d’or du minitel et autres monstres bruyants et encombrants…non satisfaits d’avoir considérablement gagné en espace, en performances et en ergonomie, nous voilà à l’assaut d’un concept tout aussi révolutionnaire…la virtualisation.
Virtualiser d’accord…mais quoi et surtout pourquoi ?
Alors, on se calme… Nous ne parlons pas encore d’écrans transparents issus de l’imaginaire des sciences fiction, mais presque. L’essor démographique qu’a connu notre planète ces dernières décennies n’a fait que nourrir le besoin d’innover et d’investir dans des méthodes de plus en plus efficaces et performantes, en vue du développement de chaque être humain. Le besoin de personnalisation n’a jamais été aussi urgent. Face à ce besoin, il est évident que nos vieilles casseroles ne suffisent plus à faire les meilleures sauces… Quoi de mieux donc que de pouvoir mutualiser les ressources de plusieurs dizaines, voire centaines de serveurs. Mieux encore…quoi de mieux que de pouvoir nous connecter à n’importe quel serveur, de n’importe où et n’importe quand ?
Ce qui n’était qu’un rêve il y a quelques années est devenu réel. On parle aujourd’hui de virtualisation de stockage, de serveurs…mais de quoi s’agit-il exactement ?
Traditionnellement, un serveur a toujours eu pour vocation de fournir un ou plusieurs services à un ou plusieurs clients. Un espace de stockage, une interface réseau et des bus pour être accessible, une mémoire, un processeur pour calculer…et le tour est joué ! Pas de quoi fouetter un mammouth !
Mais en prenant le cas d’une entreprise, qui au fort de sa croissance, nécessite de mettre en service 100, 1000…voire 10 000 serveurs ou plus encore. Autant dire qu’il lui faudrait un quartier entier pour les installer, sans compter la complexité d’administration d’un tel parc. Aie…
Imaginons donc l’option de mutualiser les espaces de stockages de tous ces serveurs sur un seul et même équipement. Si si, c’est possible. Je suppose que vous représentez déjà ce considérable gain d’espace…Cette prouesse technologique porte aujourd’hui le doux nom de…baie de stockage (storage array pour nos amis Shakespeariens).
Ce n’est pas tout…imaginons encore qu’on puisse mutualiser les mémoires, mutualiser les interfaces réseau, les processeurs, etc sur une même carte physique…bref héberger plusieurs serveurs sur un même serveur physique. Cette mutualisation de ressources physiques est ce que nous appelons aujourd’hui virtualisation de serveurs.
Inutile de préciser que plusieurs géants informatiques se sont lancés à l’assaut de la création de solutions efficaces et optimisées mettant en œuvre ce nouveau concept.
Inutile également de préciser que la complexité d’une telle architecture réside aussi dans la capacité à faire communiquer tous ces serveurs et leur espace de stockage de façon simple, rapide et sécurisée. Très vite une nouvelle problématique est née : quels protocoles utiliser ? Sachant pour une telle cohabitation, il faut prendre en compte le fait que :
- Les serveurs ne communiquent pas tous de la même façon (ce que nous qualifieront de formatage)
- Les serveurs ne requièrent pas tous les mêmes besoin (eh oui, y’en a toujours qui bosseront plus que d’autres et qui seront plus gourmands en ..)
- On a très souvent besoin d’utiliser plusieurs systèmes d’exploitation différents (en fonction des besoins)
- Tous ces serveurs doivent pouvoir communiquer au même moment, et sans gêner les voisins bien sûr. Il faudrait des supports de communication pouvant supporter plusieurs Gb à la seconde voire à la milliseconde, sans
- Euh…on va s’arrêter là parce que la liste est trop longue
C’est donc tout l’objet, et la complexité de l’ingénierie actuelle. L’idéal n’existant pas, on ne peut que tendre vers…et c’est justement dans ce sens que 2 principaux modèles de stockage sont nés: le SAN (Storage Area Network) et le NAS (Network Attached Storage). Le but de cet article n’est pas d’entrer dans le détail de ces technologies, mais bien de permettre à n’importe qui de comprendre le métier d’un ingénieur du domaine en partant de l’histoire pour le situer dans le contexte actuel.
Pour ma part, en tant qu’ingénieure stockage j’ai eu l’immense privilège de pouvoir travailler sur ces 2 technologies. Et je ne bouderai pas mon plaisir de pouvoir continuer dans ce sens. Mais de mon expérience, il y a 2/3 choses que je trouve pertinentes.
Nous ne le dirons jamais assez : que ce soit dans le SAN comme dans le NAS, les enjeux sont les mêmes. Comment faire interagir ces architectures virtualisées de façons stables, sécurisées et optimales tout en améliorant leurs performances et leurs robustesses ?
Dans le domaine du SAN, plusieurs protocoles régissent aujourd’hui ces architecture (FC, FCoE, iSCSI…), mais le plus important de tous reste le protocole FC (Fiber Chanel). En véritable leader sur le marché, ce protocole permet d’atteindre des débits de l’ordre de 32Gb/seconde aujourd’hui, garantissant la rapidité des lectures/écritures et l’accessibilité aux données de n’importe quel serveur vers n’importe quel terminal de stockage. Vous l’aurez compris, mettre en relation un serveur et son espace de stockage nécessite donc mettre en place une configuration stricte tout en s’assurant que les terminaux physiques fonctionnent normalement pour assurer le service requis. Malheureusement, ces connectiques relèvent pour le moment (mais peut-être plus pour longtemps) du consommable, et nécessitent une surveillance et un maintien en condition opérationnelle constants. La moindre défaillance impacte inévitablement les utilisateurs. C’est pour cela que l’une de nos responsabilités en tant qu’ingénieurs consiste à anticiper, voire éviter de faire face à ce type de situation tout en intervenant de façon transparente, rapide et efficace lorsqu’un incident survient. Il est également indispensable que dans cette position l’on doive s’impliquer dans la mise en place des architectures, des règles et des normes imposées par les compagnies. Intéressant, n’est-ce pas?
Non des moindres, le NAS fait également figure de prouesse technologique aujourd’hui, d’autant plus qu’elle est plus accessible au grand public. Plutôt orientée fichiers (et pas blocs comme pour le SAN), le NAS se montre technologiquement redoutable dans la mesure où ses protocoles (NFS/CIFS entre autres) permettent d’accéder directement en lecture et écriture aux fichiers (contrairement au mode bloc qui nécessite d’abord un formatage). Dans un tel contexte, inutile de rappeler que la rigueur dans la mise en place comme dans le mode d’accès est extrêmement importante. J’ai personnellement eu le plaisir d’apprendre efficacement (et parfois à mes dépends), comment s’en assurer lors d’une mission que Aubay m’a permis d’effectuer chez un client grand compte du secteur bancaire.
Passionnant est un adjectif bien trop faible pour décrire l’intérêt qu’on peut porter aux métiers du stockage. Mon expérience au sein de ce groupe dynamique et ambitieux ne fait que renforcer ce désir d’en apprendre davantage. Et en tant qu’ingénieure stockage, c’est un immense privilège de pouvoir montrer à d’autres que ce secteur n’a rien d’inaccessible, bien au contraire, et qu’au sein de Aubay, on peut aisément faire carrière dans un contexte majoritairement encore masculin.
Il y a tant à faire et à découvrir dans le domaine de la virtualisation du stockage. Alors à vos marques, prêts…virtualisez!