L’UNIL bâtit son cloud à Géopolis

Interview de Daniel Henchoz, responsable du groupe production & système, Ci-UNIL, par Patrice Fumasoli, rédacteur en chef

A la rentrée de septembre 2012, l’UNIL comptera un (grand !) bâtiment de plus : Géopolis. Le Ci a profité de l’occasion pour y bâtir un nouveau datacenter moderne capable de fournir à l’UNIL des services cloud maison.


© Fernando Madeira – Fotolia.com

Avant toute chose qu’est-ce qu’un « datacenter » ?
Il s’agit de locaux à environnement contrôlé (température, humidité, système de prévention d’incendie) rempli de machines électroniques destinées au calcul, au stockage et aux télécommunications. L’approvisionnement en énergie et l’accès physiques sont sécurisés. En d’autres mots : le cœur électronique du système d’information d’une entreprise ou d’une institution.

Datacenter : salle remplie d’équipements informatiques si invisible des utilisateurs que les applications qui y sont hébergées tournent dans le « cloud », une entité abstraite qui permet par exemple de faire fonctionner le webmail, MyUNIL ou la gestion des finances sous SAP.

Pourquoi le Ci construit-il un nouveau datacenter ?
Prioritairement pour améliorer la fiabilité. Comme l’UNIL dépend toujours plus du bon fonctionnement de son système d’information pour mener à bien ses activités, la nouvelle salle a été pensée sur le mode n+1. Cela signifie que le datacenter fonctionne même en cas de panne d’un de ses éléments, puisque ces derniers ont été doublés. Même une panne du réseau électrique ne l’arrêtera pas : une génératrice diesel de 1.2 MW a été installée.

Quelle est la principale innovation de cette salle ?
Les racks (ou armoires) remplis de serveurs informatiques sont disposés en allées chaudes-allées froides. Ce procédé permet de créer un courant d’air qui accroît considérablement l’efficacité du dispositif de refroidissement.

Avez-vous des exemples de services qui y seront hébergés ?
Oui, citons entre autres :

  • les archives digitalisées du quotidien 24Heures
  • la téléphonie
  • la gestion de l’ouverture des portes
  • la vidéosurveillance
  • les systèmes de gestion des bâtiments (sondes, alarmes,…)
  • le logiciel SAP (salaires, contrats,…)
  • le mail de l’UNIL, le portail MyUNIL,…
  • des serveurs de calcul (120 CPU à disposition).

De combiens de datacenters le Ci dispose-t-il aujourd’hui ?
Deux. La salle principale est à l’Amphimax, et la salle secondaire est à l’Internef. Géopolis deviendra la salle primaire, Amphimax la salle secondaire et Internef sera désaffectée au fur et à mesure du non-renouvellement de ses équipements.

Combien de serveurs le Ci héberge-t-il aujourd’hui ? Et demain ?
Environ 50 machines physiques, pour 223 machines virtuelles. Nous gérons donc près de 300 serveurs. Les ordinateurs actuels sont si puissants qu’ils permettent de faire tourner plusieurs systèmes d’exploitation en même temps. Imaginer que votre PC fasse tourner Windows XP, Windows 2000, Windows 7 et Linux en même temps. Ces machines virtuelles nous ont ainsi permis de continuer à fournir à l’UNIL de nouvelles ressources informatiques sans pour autant construire un datacenter par année !

Comment trier les demandes ? Je suppose que vous en recevez souvent…
Nous acceptons en principe toute demande et dûment motivée d’un membre de la communauté UNIL, sous réserve de la validation par la direction du Ci. Nous favorisons l’hébergement de machines virtuelles ou d’applications dans notre cloud. En principe nous n’hébergeons donc pas de machines physiques. Le but est de profiter au maximum des capacités des ordinateurs d’aujourd’hui : pourquoi consommer place et électricité pour une machine qui ne tourne généralement qu’à 10% de ses capacités quand la technologie des machines virtuelles nous permet de faire tourner plus de 10 ordinateurs virtuels sur une seule machine physique ?

Quel est le planning des travaux ?
La salle nous sera remise par l’entreprise générale en charge des travaux le 4 avril. Il nous restera ensuite à l’équiper au niveau informatique. Notre nouveau datacenter devrait être opérationnel dès fin juin 2012.

Quelles ont été les principales difficultés ?
L’évaluation des besoins sans cesse croissants ! Au niveau consommation électrique nous sommes passés de 150 kW à 450 kW entre le début et la fin du projet. Il a également été difficile de sécuriser l’approvisionnement en électricité, mais avoir l’Etat de Vaud comme locataire nous a permis d’obtenir le groupe électrogène qui était nécessaire.

Qui sont les principaux partenaires ?
Le BUD et Techbuilding, une entreprise spécialisée dans la construction de datacenters.

Quelle surface représentera cette salle ?

  • 140 m2 pour la zone dite de « basse densité » (4.5 kW par rack),
  • 80 m2 pour la zone dite de « haute densité » (10 kW par rack),
  • plus 80 m2 réservés pour les divers équipements techniques (tableau électrique, extinction, UPS)
  • 35 m2 sont à ajouter pour le local dit « mécanique » (refroidissement).


Plan du datacenter de Géopolis

Et l’écologie, dans tout ça ?
Notre datacenter Géopolis consomme 1 MW, dont la moitié est utilisée pour faire baisser la température. Ca chauffe, des ordinateurs qui calculent et des disques durs qui tournent ! Le refroidissement est assuré par l’eau du lac. La chaleur extraite par les échangeurs est récupérée pour chauffer Géopolis.

Les géants comme Yahoo ou Google ne perdent presque pas d’énergie en refroidissement mais… ils construisent leurs datacenters géants près du cercle polaire arctique et utilisent parfois l’eau de barrages qui leur fournissent l’électricité pour refroidir leurs machines. La température de leurs salles est néanmoins largement au-delà du maximum préconisé par les constructeurs, d’où une usure rapide des ordinateurs. Mais il s’agit de milliers de « briques » bon marché et aisément remplaçables : sur la quantité le calcul est rentable. Par contre au niveau écologique si la consommation énergétique est rationnelle, l’énergie grise induite par ces remplacements incessants de machines est considérable…

Va-t-on vers un retour de clients légers qui se connectent à de gros serveurs centraux ?
Pas vraiment. A l’UNIL la liberté académique règne, chacun a donc un PC ou un Mac configuré pour fonctionner de manière autonome. Au niveau des serveurs par contre la virtualisation permet de réduire le nombre de machines et de les gérer de façon centralisée.

S’agit-il d’un cloud « made in UNIL », censé répondre aux problème de confidentialité qui se pose avec les cloud commerciaux ?
D’une certaine manière oui. Nous fournissons déjà 3 clouds hermétiques à l’UNIL :

  • académique (services centraux : web, messagerie,…)
  • campus (infrastructure physique et machines virtuelles pour héberger des applications)
  • administratif (gestion des étudiants, finances, RH).

Un cloud commun aux universités suisses pourrait également voir le jour. Mais nous n’en sommes qu’aux réflexions préliminaires.

Pourquoi ne pas simplement louer des capacités dans des clouds déjà existants ? (BrainServe à Crissier, Amazon,…) ?
Selon moi pour 3 raisons :

  • un cloud maison est moins cher (nous avons la taille critique pour faire des économies d’échelle, en particulier en ce qui concerne le stockage)
  • la direction de l’UNIL ne souhaite pas perdre le contrôle sur certaines données sensibles (finances, contrats, dossiers académiques,…)
  • un cloud contrôlé par l’UNIL lui assure plus de flexibilité et de fiabilité.


Géopolis vu de l’extérieur
© Bureau d’architecture Itten + Brechbühl