Skip to content
2011/01/25 / vpourchet

Introduction aux technologies de Virtualisation

NOTE : Le présent document correspond à l’introduction de mon mémoire de fin d’études intitulé ‘Comment entreprendre une démarche de virtualisation de l’infrastructure ?‘. Ce document comporte les différentes étapes clés pour une virtualisation de l’infrastructure serveur du parc informatique. Pour une meilleure compréhension par tout un chacun de la virtualisation de serveur j’ai décidé d’en publier l’introduction. Ce document (comme les autres articles présents sur ce site) est le fruit d’un travail long et personnel, merci de respecter le fruit de mon travail (pas de plagiat).

Les technologies de virtualisation sont en train de bousculer totalement le paysage informatique. Cette technologie permet à un ordinateur physique, originalement destiné à exécuter un seul système d’exploitation, d’héberger et exécuter en parallèle plusieurs instances de systèmes d’exploitation différents. Nous allons maintenant aborder ce concept plus en détail.

 

Le principe

Sur toute machine physique, une couche hardware est présente. Cette couche représente l’ensemble des périphériques matériels nécessaires au bon fonctionnement de l’ordinateur. Il existe de nombreux types de périphériques, tels que le processeur, la mémoire, les cartes réseau et les disques durs, et pour chaque périphérique, il existe de nombreux constructeurs différents. Le schéma suivant illustre une architecture dite ‘classique’, composée de deux couches :

  • La couche matérielle, représentée par un serveur, caractérise l’ensemble des périphériques matériels.
  • La couche logicielle, qui comprend le système d’exploitation et les applications.

 

Illustration d’une architecture dite ‘classique’. (Source : Site web vmware.com).

Les constructeurs de périphériques informatiques, incluent dans leurs produits des technologies brevetées dont ils sont les propriétaires, il en résulte un véritable problème, à savoir que pour un type de périphérique, une carte réseau par exemple, ayant une même fonction, en l’occurrence connecter la machine au réseau, deux modèles de constructeurs différents seront bel et bien différents pour le système d’exploitation. Pour faire fonctionner l’un ou l’autre, le système d’exploitation aura besoin du pilote adéquat.

Un pilote est un ensemble d’instructions qui indiquent au système d’exploitation comment utiliser le périphérique matériel. Si un type de périphérique est remplacé, alors le système d’exploitation ne reconnaitra ce périphérique qu’en présence du pilote du nouveau constructeur.

Les technologies de virtualisation ajoutent une nouvelle couche à l’architecture classique en lieu et place du système d’exploitation. Cette couche est appelée Hyperviseur.

Un hyperviseur opère entre la couche matérielle et les différents conteneurs qui lui sont ajoutés. Chaque conteneur, également appelé machine virtuelle, contient une instance d’un système d’exploitation et une ou plusieurs applications. La couche de virtualisation simule des périphériques virtuels pour chaque machine virtuelle et s’occupe de faire le lien entre les périphériques virtuels et les périphériques physiques.

Un hyperviseur peut faire tourner simultanément de nombreux systèmes d’exploitation de tous types (Windows, Linux, Unix/BSD …), qui plus est, pour chaque machine virtuelle, un jeu de pilotes génériques est spécifié. Ainsi quelle que soit la couche matérielle sur laquelle l’hyperviseur est installé, les machines virtuelles fonctionneront sans avoir besoin du pilote du constructeur. Et un changement de matériel n’aura aucune incidence sur les machines virtuelles.

Le schéma suivant illustre le principe de fonctionnement d’une architecture virtuelle, composée de trois couches :

  • La couche matérielle, représentée par un serveur, caractérise l’ensemble des périphériques matériels.
  • La couche logicielle qui est composée de l’hyperviseur en lieu et place du système d’exploitation de l’architecture classique.
  • Les différents conteneurs comprenant un système d’exploitation et des applications.

 

Illustration d’une architecture dite ‘virtuelle’. (Source : Site web vmware.com).

NOTE : les schémas précédents illustrent le principe de fonctionnement d’une architecture virtuelle basée sur les solutions de l’éditeur VMware. Le principe de fonctionnement est similaire quel que soit l’hyperviseur installé. Nous verrons plus loin dans ce document les différents éditeurs et les solutions qu’ils proposent.

La virtualisation est au cœur du principe du ‘cloud computing’, qui consiste en une agrégation de toutes les ressources disponibles pour former un nuage et qui permet l’allocation de ces ressources aux différents services. Dans le cas présent, l’hyperviseur agrège les ressources physiques et les répartit aux différentes machines virtuelles.

Bénéfices

Les bénéfices dégagés par l’utilisation des technologies de virtualisation sont multiples, nous décrirons ici les principaux.

  • Consolidation : La virtualisation permet au service informatique d’optimiser l’utilisation de ses ressources physiques en utilisant le principe des machines virtuelles. Plus tard dans ce document, nous verrons qu’il n’est pas rare d’observer des machines physiques dont l’utilisation n’excède pas 10% de leurs capacités réelles.

 

  • Réduction du TCO (Total Cost of Ownership) : Les dépenses en matériel informatique sont une problématique en entreprise. En effet si un matériel est amorti sur 5 ans, une fois amorti, le serveur arrive en fin de vie et à besoin d’être remplacé. Ce cycle de vie est considérablement réduit par la recherche et le développement conduisant à une innovation rapide dans le secteur informatique. La loi de Moore, vérifiée depuis 1973, stipule que la puissance des processeurs double tous les 18mois, le matériel est donc en plus de souvent être sous-utilisé, rapidement obsolète.

 

  • Continuité d’activité : Au travers des fonctionnalités introduites par la virtualisation, que nous aborderons par la suite, il est possible d’améliorer la continuité d’activité en améliorant considérablement la tolérance de panne, la haute disponibilité.

     

  • Optimisation de la qualité de service : Déployer un serveur opérationnel est une tâche lourde dans une architecture classique, impliquant de nombreux acteurs et demandant beaucoup de temps. La virtualisation met en place des processus facilitant cette opération et le déploiement de nouvelles machines virtuelles ne nécessite plus que quelques minutes.

Editeurs et solutions

Le marché des solutions de virtualisation est un marché extrêmement concurrentiel. Parmi les principaux acteurs composant ce marché, nous détaillerons les offres des trois principaux éditeurs, à savoir Vmware, Citrix et Microsoft.

Logo de l’éditeur vmware. (Source : Site web vmware.com).

 

  • VMware: VMware est probablement le plus vieux et le plus gros éditeur sur le marché de la virtualisation. Filiale du groupe EMC et fondée en 1998, cette compagnie propose une gamme de produits et services complète associée à la virtualisation d’architectures x86.

 

 

 

 

Logo de l’éditeur citrix. (Source : Site web citrix.com).

  • Citrix : Citrix à rejoins le marché de la virtualisation en 2007 suite à l’achat de XenSource, une compagnie ayant développé son propre hyperviseur. L’offre de virtualisation de Citrix contient différents produits, Citrix a également noué de solides partenariat avec l’éditeur Microsoft permettant de faciliter l’intégration de ses solutions de virtualisation au sein d’une architecture Microsoft.

 

Logo de l’éditeur Microsoft. (Source : Site web microsoft.com).

 

  • Microsoft: Microsoft est arrivé sur le marché de la virtualisation récemment, avec son Hyperviseur baptisé Hyper-V qui se présente sous la forme d’un rôle disponible avec la dernière édition du système d’exploitation de la gamme serveurs de la firme, à savoir Windows 2008 Server.

Mécanismes à valeur ajoutée

Les différentes solutions des éditeurs énumérés précédemment présentent certains mécanismes en commun. Ces mécanismes, que nous qualifierons de mécanismes à forte valeur ajoutée, constituent l’un des principaux attraits pour ces technologies. Nous allons maintenant définir ces différents mécanismes et en quoi ils sont synonymes de valeur ajoutée pour l’entreprise.

Migration de serveurs à chaud

Le mécanisme de migration de serveurs à chaud consiste à permettre à l’administrateur de déplacer ses machines virtuelles d’un hôte vers un autre sans interruption de service. Dans le cadre d’une architecture classique, ce mécanisme consisterait à réaliser une copie carbone d’un serveur, puis à l’appliquer sur un autre. Cela implique une interruption de service et généralement des problèmes liés à la couche hardware qui, différente de l’originale, peut-être entrainer erreurs ou d’incompatibilités.

Dans une architecture virtuelle, ces barrières sont levées par l’utilisation de pilotes hardware génériques indépendants du matériel du serveur hôte. Ce mécanisme, illustré sur le schéma ci-dessous, facile les opérations de maintenance des serveurs dans la mesure où il est possible de libérer totalement un serveur hôte de ses machines virtuelles pour réaliser une mise à niveau matérielle par exemple.

Illustration du principe de migration à chaud. (Source : vmware.com).

Haute disponibilité de l’infrastructure

Le mécanisme de migration à chaud présenté ci-dessus représente la pierre angulaire de la haute disponibilité de l’infrastructure. En effet dès lors qu’une panne survient sur l’un des serveurs hôtes de l’infrastructure, il est possible de définir des actions automatiques pour garantir la continuité de service. Ces actions consistent principalement à isoler le serveur hôte défaillant en migrant les machines virtuelles qu’il héberge sur le reste des serveurs sains de l’architecture disposant de ressources suffisantes pour garantir une qualité de service suffisante.

L’administrateur peut ainsi définir différentes actions à réaliser comme le déplacement des machines virtuelles vers de nouveaux serveurs hôtes, l’arrêt des machines virtuelles supportant une interruption de service de manière à optimiser l’allocation des ressources disponibles sur les serveurs restants. Le schéma ci-dessous illustre ce principe.

Illustration du principe de Haute disponibilité. (Source : Site web vmware.com)

Gestion des ressources énergétiques

Si nous avons vu précédemment que le mécanisme de migration à chaud permet de garantir une automatisation des procédures à appliquer en cas de panne matérielle sans influer sur la disponibilité des serveurs, il introduit également la possibilité de mieux gérer les ressources énergétiques de l’infrastructure.

Concrètement, l’infrastructure est capable de répartir intelligemment les ressources disponibles entre les différentes machines virtuelles. Dans le cas où les serveurs hôtes disposeraient de ressources non-utilisées, l’infrastructure réagit en repositionnant automatiquement les machines virtuelles pour garantir une utilisation optimale de la ressource. Les serveurs libérés de leurs machines virtuelles sont positionnés dans un état d’hibernation en attendant une nouvelle montée en charge ou un besoin supplémentaire en ressources pour se réveiller. Ce mécanisme est illustré dans le schéma suivant.

Illustration du principe de gestion des ressources. (Source : Site Web vmware.com).

Gestion des sauvegardes

Un autre point fort de l’infrastructure virtuelle face à une architecture classique est la gestion des sauvegardes. Dans une architecture classique, il n’est pas rare de voir cohabiter de multiples solutions différentes, sur des supports différents (stockage en réseau, bande magnétique …). Cela induit la mise en place de procédures différentes selon le cas de figure face auquel l’administrateur se trouve confronté lors de la restauration d’une sauvegarde.

La virtualisation permet de gérer de manière intelligente les mécanismes de sauvegardes, en effet les machines virtuelles se présentant sous la forme de fichier, leur sauvegarde s’en trouve facilitée. Le mécanisme de snapshot illustre à lui seul la facilité déconcertante avec laquelle il est possible de réaliser une copie de sauvegarde. De même, la restauration d’une sauvegarde ultérieure d’une machine virtuelle ne nécessite pas plus de quelques minutes.

Illustration du principe de gestion des sauvegardes. (Source : Site web vmware.com).

Gestion des correctifs

L’application des correctifs et mises à jour sur l’ensemble de l’infrastructure est également facilitée par la virtualisation. En effet il est possible de définir différentes politiques de sécurité, au niveau des serveurs hôtes et également des machines virtuelles. Ainsi l’administrateur peut définir des critères d’application des correctifs sur l’ensemble de l’architecture virtuelle. Lors de l’application de correctifs sur un serveur hôte, il peut également spécifier qu’aucune machine virtuelle ne doit se situer sur cet hôte durant l’opération. De cette manière, l’éventuel redémarrage du serveur après installation des correctifs n’a aucune incidence sur la disponibilité des machines virtuelles.

Illustration du principe de gestion des correctifs. (Source : Site web vmware.com).

Gestion de la sécurité

La sécurisation du système informatique est l’un des combats quotidiens de l’administrateur. En effet celui-ci doit régulièrement consulter les rapports de mise à jour des définitions de virus, auditer l’ensemble du parc informatique à la recherche de failles qui mettraient en péril la pérennité de l’architecture. Il arrive également que l’administrateur jongle avec une multitude d’outils différents mis en place au fil de l’eau ce qui représente un challenge supplémentaire.

La virtualisation lui permet de définir une politique de sécurité propre au serveur hôte qui va jouer le rôle de pare-feu et filtrer le trafic de l’intégralité des machines virtuelles de l’infrastructure. L’administrateur peut ainsi définir des zones de confiance et les règles de filtrage permettant d’intercepter et bloquer les éventuelles attaques sur l’une des machines virtuelles.

Illustration du principe de gestion de la sécurité. (Source : Site web vmware.com).

Gestion du réseau

Autre grand avantage de la virtualisation, la gestion du réseau se trouve considérablement facilitée. Les serveurs devenant virtuels, les appareils d’interconnexion sont supprimés et remplacés par une couche logicielle faisant office de commutateur. Ce commutateur virtuel permet d’interconnecter les machines virtuelles des différents serveurs hôtes et comporte la plupart des mécanismes de gestion avancée du réseau comme la norme 801.1q.

Illustration du principe de gestion du réseau. (Source : Site web vmware.com).

20 commentaires

Laisser un commentaire
  1. Crazy Jack / Fév 3 2011 16:36

    Pas mal, c’est super complet !
    Tu as déjà pence a mettre ton mémoire en ligne ?
    Je l’ai fait il y pas longtemps, c’est une manière de partager le savoir avec tout le monde !
    En tout cas ton post m’as aidé à lever le voile sur certaines choses !
    Merci :)

    • vpourchet / Fév 13 2011 11:40

      Bonjour ! Cet article fait partie d’un mémoire plus conséquent sur lequel j’ai passé plusieurs mois, malheureusement celui ci inclus de nombreuses données confidentielles comme des méthodologies de réalisation d’un projet de virtualisation de datacenter de bout en bout, des données financières (TCO/ROI etc …). Je ne peut donc pas le publier intégralement.

      • sanae / Avr 16 2012 14:00

        bonjour merci pour ta doccumentation :)
        j’aimerai entrer en contacte avec vs mais je ne sais pas comment
        voila mon mail veillez stp me contacter

        • vpourchet / Avr 29 2012 10:22

          Bonjour,

          Pour celà utilisez la rubrique ‘contact’ du blog ‘dans le menu en haut de la page).

          Cordialement,

          V

  2. abbes / Mar 1 2011 23:51

    bonjour,d’abord je suis un débutant et je suis commencé la realisation de mon projet fin d’etude sur la virtualisation qui consiste a creér plusieurs machines virtuelle que peuvent communiquer avec plusieurs serveurs (mail,printing,dhcp…) donc je reussi a creér plusieurs machines virtuelle (xp pro sp2,ubuntu10,windows server 2003) a l’aide de vmware workstation. puis je suis tombe en panne je ne sais pas comment realiser le reste de travail (les serveurs, configuration,consoltation…) ou a l’aide de quoi comme logiciel est-que de VMware vCenter Server ?
    si vous plait aidez moi a franchir mon pfe ……..et merci beaucoup…

    • vpourchet / Mar 10 2011 20:43

      Répondu par mail.

      Cordialement,

      Valentin

  3. Techno_400 / Mar 17 2011 07:42

    R A S super vraiment super !!!!!

    • vpourchet / Mar 17 2011 20:24

      Bonsoir,

      Merci pour votre commentaire.

      Cordialement,

      Valentin

  4. Mohamed chérif / Mar 23 2011 14:17

    Merci infiniment pour cette introduction

    • vpourchet / Mar 24 2011 20:10

      Merci a vous d’avoir pris le temps de laissé une appréciation :)

  5. Hakim BOUZIDI / Mar 28 2011 11:14

    Clareté, Pédagogie…une bonne introduction pour commencer dans la virtualisation. Merci.

    • vpourchet / Mar 28 2011 11:40

      Merci beaucoup pour vos encouragements Hakim.

  6. Bsalth / Mar 28 2011 20:21

    C’est super ce travail.J’ai beaucoup apprécié.Une très bonne explication.Merci par ce travail de nous aider aussi à faire le notre.

    • vpourchet / Mar 28 2011 20:36

      Merci à vous d’avoir pris le temps de laisser un commentaire.

      Cordialement,

      Valentin

  7. Yespeet / Avr 17 2011 18:18

    Bravo pour ton travail ou en tout cas pour la partie émergée ;-)
    Peut être pourra tu m’aider àfranchir une étape bcp plus basique en configuration serveur ;

    J ai configuré deux sous réseau en Vmnet5 et Vmnet3, IP dynamique, un serveur DHCP, pour les deux étendues, un routeur avec relay DHCP , 3 cartes réseau ; Vmnet5 , Vmnet3 et une troisième carte censée ouvrir mon réseau sur l’extérieur. J ai ajouté le protocole NAT basic protocole mais pas moyen de connecter mes machines virtuelles sur l’extérieur.
    Peux tu m’aider , merci

    • vpourchet / Avr 26 2011 00:07

      Pour ce qui est des vnic je vous recommande plutôt le protocole bridged.
      La verification des communication via ping inter hosts puis de la gateway est une première étape pour comprendre ou celà coince.

  8. a-boughza / Avr 22 2011 12:34

    je suis en train de réaliser mon mémoire de fin d’études , tu peux me passer ton adresse mail car des questions à te poser ?
    merci pour tes infos et tes explications.
    cordialemen

    • vpourchet / Avr 26 2011 00:05

      Vous pouvez utiliser la rubrique contact du site et le formulaire adéquat pour me contacter.

  9. akismet-3ca9fb2e76ec3970d30da9e3bd3ee7cb / Avr 3 2012 13:54

    Vraiment super blog!! Je lis beaucoup de tes tutos qui m’aident vraiment beaucoup! Très sympa de ta part de partager ton savoir :)

    • vpourchet / Avr 12 2012 22:15

      Salut.

      Merci pour les encouragements :)

      V

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :