Serveurs physiques ou virtuels, telle est la question …
Lors de la mise en place de vos projets informatiques, la question de la virtualisation des serveurs se pose. Est-il toujours pertinent de virtualiser les environnements ?
De nos jours, la virtualisation facilite grandement la gestion d’une architecture de système d’information.
Cependant, elle n’est pas toujours recommandée pour des raisons de performances et de sécurité.
Virtualisation VS Serveur Physique
Jadis, la question ne se posait pas. Pour un rôle, le serveur physique était la seule solution. Aujourd’hui, les systèmes de virtualisation ont explosé le marché ! Docker, VMware, Proxmox, Hyper-V, VirtualBox est bien d’autre … Il est possible de choisir la solution adaptée réellement à son besoin. Autrement dit, des machines virtuelles Microsoft hébergeaient sur de l’Hyper-V ou même des containers Debian sur une plateforme Proxmox. Oui, il est préférable d’installer du Linux sur un socle Linux et bien entendu du Windows sur un socle Microsoft. Le cas inverse va générer des problèmes. Pourquoi ? Pour des solutions nécessitant des capacités de traitement faibles, cela ne posera aucun souci. Par contre, des latences importantes vont apparaître pour les fortes volumétries. Et le matériel n’est pas toujours la cause des ralentissements !
Petite histoire : Un serveur Windows 2008 R2 avec le rôle RDS installé sur un socle Proxmox v3 provoque des ralentissements inexpliqué au delà de 30 utilisateurs en simultanées sur la machine RDS. Après de nombreuse analyse du matériel, des pilotes, des Raids, des licences, etc … On convertit les *.qcow2 en *.vhd. On monte ce serveur sur un Hyper-V dont le matériel est le strict homologue du serveur Proxmox. Tous les soucis sont résolus sans explication claire.
Déduction : Microsoft bride les environnements virtualisés non hébergés sur Hyper-V.
Autre avantage de la virtualisation, cela facilite grandement les travaux des équipes techniques informatiques en terme d’exploitation, de sauvegarde, d’industrialisation, d’uniformisation et de MCO (maintien en condition opérationnelle).
Néanmoins, toutes les solutions ont des points négatifs. Un socle de virtualisation héberge plusieurs rôles d’un système d’information. Lorsque le socle va tomber en panne. La question n’est pas de savoir, si il va y avoir des dysfonctionnements, mais plutôt quant est ce qu’ils vont arriver ? Donc oui, cela va arriver. Dans ce type de configuration, une partie du système d’information sera hors service lorsqu’on ne prévoit pas de :
– Haute disponibilité des serveurs
– Validation des sauvegardes des serveurs virtuels par des restaurations automatiques planifiées
– PRA (Plan de reprise d’activités)
– PCA (Plan de continuité d’activités)
– Exprimé clairement, les SLA et SLR notamment, auprès de vos clients. Il est nécessaire d’avoir l’architecture en adéquation avec les délais de rétablissement contractualisés.
– Etude de projet technique préalable à l’installation de la solution pour s’assurer de faire les bons choix
De plus, la sécurité doit être prise au sérieux. Il ne faut pas oublier qu’un programme malveillant sur une machine virtuelle, et surtout un container mal cloisonné, peut atteindre le système global de virtualisation. Ce type d’anomalie ne peut pas se produire de cette façon sur un serveur physique.
Pour conclure, il est impératif de procéder à la mise en place d’un cluster sur deux nœuds minimums pour pallier à la panne matériel dans le cadre d’une architecture simple. Que ce soit un cluster de virtualisation ou standard …
Hum … Et les coûts ?
Au sujet des budgets, il n’y a pas de règle définie. Les deux méthodes sont couteuses. En partant du principe que toutes les solutions doivent être basées sur un cluster minimum sur deux noeuds pour assurer la haute disponibilité. Il préférable d’opter pour des environnements dédiés pour des rôles sensibles et consommateurs de ressources. A contrario, les rôles qui nécessitent peu de ressources peuvent être mutualisés sur un cluster virtualisé. Il est nécessaire de mettre en place des environnements performants de manière à absorber la charge des multiples rôles supportés. Donc ce cluster coute plus cher généralement mais il fait réaliser des économies d’échelle. De nos jours, il est difficile d’imaginer d’installer des clusters physiques pour tous les rôles d’un système d’information.
PS : Il est peu recommandé de faire le choix de la virtualisation pour mettre une seule machine virtuelle hébergée sur celui-ci … Hélas, certains font ce choix pour des raisons de facilité de sauvegarde. Cependant, il perde les performances d’une machine dédié physique.
En espérant que cet article vous aide à faire le bon choix …