Cloud Computing by Laurent Seror

Aller au contenu | Aller au menu | Aller à la recherche

Technique

Fil des billets

dimanche 24 avril 2011

Amazon crashé pendant plus de 24H. Qui a dit que le Cloud était Bulletproof ?

Jeudi dernier, le 21/4, pendant plus de 24h, les services d'Amazon sur le Cloud situé dans le Datacenter de Virginie du Nord étaient downs. Cela a entraîné l'interruption de centaines de milliers de sites et de nombreuses startups ayant pignon sur rue. Plus important que l'incident lui même, qu'il faudra analyser mais qui semble venir de la partie EBS, le stockage en mode block, de l'infrastructure, c'est le fait que le Cloud ne va pas magiquement faire disparaître tous les problèmes qui étaient légions dans l'infogérance classique :

- On aura toujours besoin d'électricité pour alimenter le bazar - Ca dégagera toujours des tonnes de joules qu'il faudra dissiper avec de la clim de plus en plus performante - Le réseau sera toujours le goulot d'étranglement, surtout qu'aujourd'hui on y fait aussi passer le stockage des données. - Les développeurs continueront à nous pondre des bugs (et le Cloud, c'est surtout des APIs donc du développement qui fait des opérations très périeuses). - Les humains se prendront toujours les pieds dans les fils (et débrancheront le datacenter) - Les sauvegardes marcheront toujours. Par contre les restaurations... - et il y en a des dizaines d'autres...

Bref, un bonne stratégie d'utilisation du Cloud doit inclure une gestion des risques et un plan en cas de sinistre. Le DRP ou PRA en français n'est pas mort, au contraire dans le Cloud il a encore plus de sens, et est même économiquement abordable !

Si l'incident est de la responsabilité d'Amazon, le fait que les sites soient tombés est de la responsabilité de leur propriétaire et de leur développeur. Dans le Cloud, c'est le développement qui doit être bulletproof, pas l'infrastructure.

mardi 17 août 2010

Nouveau site généraliste sur l'IT et autres

Je vous invite à passer sur Chronophage.IT, un site qui donne des infos & astuces sur l'IT dans son ensemble, en incluant le Multimédia, les consoles de jeu, les applications pratiques, etc. N"hésitez pas à contribuer !

jeudi 15 juillet 2010

La virtualisation achève t elle le stock d'IPv4 ?

Tout le monde sait que le nombre d'IPs disponible est une ressource limitée (codée sur 32 bits, il y en a 4 milliards de possible). Malgré l'utilisation d'adressage privé et de NAT (Network Address Translation, plus communément appelé Evil NAT par les gens du réseau), il y a de plus en plus de machines et d'objets communiquants en IP et donc qui ont besoin d'adresse.

D'où la naissance d'IPv6, codée sur 128 bits, et qui apporte beaucoup beaucoup plus d'IPs qu'il n'y a de gouttes d'eau dans l'océan. Le problème c'est que personne n'a vraiment fait le pas et tout nouveau service a nécessairement besoin d'une IPv4 qui reste compatible avec tout ce qui existe.

Grâce notamment à l'hébergement mutualisé et aux architectures n-tiers, conjointement au NAT & au PAT (Port Address Translation), ainsi qu'avec la forte pression des organismes comme le RIPE, la demande en IPv4 a pu être servie ces dernières années.

Malheureusement, l'augmentation de la virtualisation, non pas pour la consolidation qui remplace une machine, donc une IP, par une autre, mais plutôt dans l'utilisation "élastique" type Amazon EC2, a aussi fortement augmenter le besoin en IPv4 (1 machine virtuelle = 1 IP) et donc la baisse du stock disponible a fortement baissé.

J'ai mis le compte à rebours fourni par Hurricane Electric sur ma page. Ca fait quand même vachement peur. Toutes les applications développées pour le Cloud aujourd'hui doivent IMPERATIVEMENT être compatible IPv6 sous peine de se retrouver aussi utile qu'un pédalo au milieu du Sahara...

vendredi 25 juin 2010

Datacenter Infrastructure Innovation par James Hamilton.

Je ne sais pas si vous connaissez James Hamilton, VP & Distinguished Engineer d'Amazon, mais c'est vraiment quelqu'un que je trouve formidable et que je suis au quotidien via son blog. C'est grâce notamment à lui que j'ai réellement compris le modèle d'Amazon et pourquoi ils se sont lancés dans le Cloud Computing. J'ai trouvé cette vidéo qui date d'il y a seulement 2 jours et qui provient de la Velocity Conference 2010.

Elle est vraiment intéressante. Bien sur elle rappelle les fondamentaux techniques qui sont à l'origine du modèle d'Amazon: il vaut mieux revendre sa puissance non utilisée plutôt que d'éteindre les machines puisque l'énergie ne compte que pour 13% du coût global. Elle apporte aussi d'autres éléments assez fondamentaux sur les infrastructures de demain :

  • Même si aujourd'hui le coût le plus important n'est pas encore la puissance, cela va le devenir un jour car le prix du hardware baisse mais celui de l'énergie augmente. Cela veut aussi dire qu'aujourd'hui il faut bien regarder l'aspect coût hardware qui reste prépondérant
  • Encore beaucoup de personnes ne font pas attention à la qualité des alimentations électriques de leur matériel, or cela peut engendrer des pertes d'énergie de l'ordre de 15% qui sont dissipés par effet joule bêtement.
  • L'environnement d'opération des serveurs est beaucoup trop froid par rapport à ce que techniquement le matériel supporte. James Hamilton prend comme exemple les consoles de jeux qui sont de très haut niveau matériel (multi CPU/GPU) mais qui tournent sans problème dans des conditions extrêmes (maintenant il ne connaît peut être pas le RRoD de la Xbox 360). Cela implique différentes considérations :

1) Il faut travailler en allée chaude confinée pour augmenter le gradient de température au maximum et améliorer le rendement des échanges thermiques. APC (Schneider Electric) a une solution clé en main qui va dans ce sens.

2) A quoi bon recycler l'air si on peut directement le prendre au dehors. Autant rejeter l'air chaud et récupérer l'air extérieur. Même à 40°C, il sera plus frais que celui rejeter par les serveurs dans ces conditions et cela coutera moins cher pour le refroidir.

Plusieurs chiffres sont donnés et j'en déduis qu'une température d'opération à 45°C serait envisageable. J'avoue que je ne suis pas tout à fait d'accord. Je pense qu'il faudrait différencier les parties storages, des parties cpus.On organiserait tout le stockage consolidé dans une zone à une température de 22 °C d'un côté, et une architecture "processeurs", diskless, qui tournerait elle à 40°C en air entrant. Par contre il faudra prévoir les opérations sur ces systèmes, car le milieu va devenir vraiment hostile pour le pauvre technicien qui va se deshydrater en voulant changer une barette mémoire...

A la fin de son exposé, James Hamilton annonce une révolution au sein des équipements réseaux de la même dimension que l'arrivée de Linux dans le monde des serveurs grâce à openflow, un standard ouvert pour les équipements réseaux. J'avoue ne pas connaître mais je vais regarder de plus près...

mardi 22 juin 2010

DropBox le Cloud Computing utile et pratique

Dans mes recherches j'ai testé DropBox qui est un espace de stockage en ligne donc accessible de partout. C'est un exemple de Cloud Computing ou plutôt de Cloud Storage bien pratique et utile. D'abord il permet de partager ses fichiers et dossiers entre tous ses ordinateurs (dans la limite de l'espace souscrit). Mais il permet surtout de voir ces fichiers sur son mobile (iphone, blackberry & android) et surtout sur ipad. On peut alors streamer de la vidéo ou de la musique directement, ce qui est assez sympa. Avec l'ipad (ou l'iphone, pour les warriors) et des applications comme DocstoGo, on peut directement visualiser et editer des documents Office ou assimilés. Encore plus intéressant, il est possible de partager fichiers et répertoires avec des personnes qui n'ont même pas besoin d'avoir un compte, via un portail Web 2.0. Si cela vous intéresse, il suffit de s'incrire ici : http://db.tt/s3OAv6D pour avoir 2 Go gratuit, qui peuvent passer à 10 Go si on a beaucoup d'amis qui s'inscrivent (d'ailleurs chaque personne qui s'inscrit via ce lien me fait gagner 250 Mo de stockage gratos).

mardi 18 mai 2010

Des appliances pour le Cloud

Un des gros intérêts du Cloud est de pouvoir essayer des nouveaux outils de manière super simple. Par contre il faut souvent les installer, les configurer à l'état de l'art, etc. Pourtant il existe des machines virtuelles prêtes à l'emploi, notamment pour VMWARE. Je conseille, surtout pour ceux qui utilise Amazon, le site de BitNami qui regorge de virtual appliances prêtes à l'emploi !