L'annonce date de la semaine dernière sur le blog de l'équipe en charge d'Hyper-V, les sites TechNet et MSDN fonctionnent entièrement avec une version beta d'Hyper-V ; utilisant, ainsi le principe du "dogfood" évoqué récemment.

Il y a quelques années, la baisse de performances liée à la couche de virtualisation aurait rendu ce montage impossible. Aujourd'hui, la baisse existe toujours, mais elle est compensée par le gain sur la facilité de gestion, les économies d'énergie et l'optimisation de l'utilisation des processeurs.

Peut-on, pour autant prédire que tous les serveurs pourraient être virtualisés ? A une certaine échéance, sans doute. Il est, cependant, nécessaire de penser, par exemple aux défaillances de la machine physique : par exemple, si tous les contrôleurs de domaines sont hébergés par un même ordinateur physique, l'authentification risquera de poser des problèmes en cas d'arrêt du serveur physique. Dans le même genre de situation, il est nécessaire que le premier serveur qui démarre puisse parvenir à s'authentifier, donc, pour éviter un phénomène d'oeuf et de poule, il est intéressant de conserver un contrôleur de domaine en dehors d'une plate-forme entièrement virtualisée. Autre contrainte : ne pas revenir en arrière à travers l'utilisation de disques d'annulation pour des contrôleurs de domaine. Pour des serveurs capable de se resynchroniser comme des serveurs Web, la procédure de reprise d'activité est facilité par la virtualisation.

Dès lors que le nombre de serveurs virtuels augmente, l'utilisation de System Center Virtual Machine Manager (SCVMM) se justifie d'autant plus. Il permet de, réellement, rendre dynamique l'administration du datacenter.