Je ne sais pas si vous connaissez James Hamilton, VP & Distinguished Engineer d'Amazon, mais c'est vraiment quelqu'un que je trouve formidable et que je suis au quotidien via son blog. C'est grâce notamment à lui que j'ai réellement compris le modèle d'Amazon et pourquoi ils se sont lancés dans le Cloud Computing. J'ai trouvé cette vidéo qui date d'il y a seulement 2 jours et qui provient de la Velocity Conference 2010.

Elle est vraiment intéressante. Bien sur elle rappelle les fondamentaux techniques qui sont à l'origine du modèle d'Amazon: il vaut mieux revendre sa puissance non utilisée plutôt que d'éteindre les machines puisque l'énergie ne compte que pour 13% du coût global. Elle apporte aussi d'autres éléments assez fondamentaux sur les infrastructures de demain :

  • Même si aujourd'hui le coût le plus important n'est pas encore la puissance, cela va le devenir un jour car le prix du hardware baisse mais celui de l'énergie augmente. Cela veut aussi dire qu'aujourd'hui il faut bien regarder l'aspect coût hardware qui reste prépondérant
  • Encore beaucoup de personnes ne font pas attention à la qualité des alimentations électriques de leur matériel, or cela peut engendrer des pertes d'énergie de l'ordre de 15% qui sont dissipés par effet joule bêtement.
  • L'environnement d'opération des serveurs est beaucoup trop froid par rapport à ce que techniquement le matériel supporte. James Hamilton prend comme exemple les consoles de jeux qui sont de très haut niveau matériel (multi CPU/GPU) mais qui tournent sans problème dans des conditions extrêmes (maintenant il ne connaît peut être pas le RRoD de la Xbox 360). Cela implique différentes considérations :

1) Il faut travailler en allée chaude confinée pour augmenter le gradient de température au maximum et améliorer le rendement des échanges thermiques. APC (Schneider Electric) a une solution clé en main qui va dans ce sens.

2) A quoi bon recycler l'air si on peut directement le prendre au dehors. Autant rejeter l'air chaud et récupérer l'air extérieur. Même à 40°C, il sera plus frais que celui rejeter par les serveurs dans ces conditions et cela coutera moins cher pour le refroidir.

Plusieurs chiffres sont donnés et j'en déduis qu'une température d'opération à 45°C serait envisageable. J'avoue que je ne suis pas tout à fait d'accord. Je pense qu'il faudrait différencier les parties storages, des parties cpus.On organiserait tout le stockage consolidé dans une zone à une température de 22 °C d'un côté, et une architecture "processeurs", diskless, qui tournerait elle à 40°C en air entrant. Par contre il faudra prévoir les opérations sur ces systèmes, car le milieu va devenir vraiment hostile pour le pauvre technicien qui va se deshydrater en voulant changer une barette mémoire...

A la fin de son exposé, James Hamilton annonce une révolution au sein des équipements réseaux de la même dimension que l'arrivée de Linux dans le monde des serveurs grâce à openflow, un standard ouvert pour les équipements réseaux. J'avoue ne pas connaître mais je vais regarder de plus près...