Affichage des articles dont le libellé est cloud computing. Afficher tous les articles
Affichage des articles dont le libellé est cloud computing. Afficher tous les articles

2012/09/07

Conséquences sur Internet de la fragmentation géopolitique mondiale

 Le nouveau terrain géostratégique représenté par le cyberespace est de plus en plus souvent débattu. Nous avons déjà évoqué le sujet (voir par exemple le MAP numéro 2), au travers de la cyber guerre. Mais ces analyses ignorent les possibles conséquences à terme de la dislocation géopolitique mondiale sur le réseau des réseaux, alors que c'est un point que j'étais le premier à souligner dès octobre 2008.

Voici une brève de LMI que je reprends pour mettre en lumière la dimension de la nouvelle tendance à la fragmentation d'Internet

"Les États-Unis ont clairement indiqué aux Nations Unies, et à son agence UIT, qu'ils n'avaient pas l'intention d'abandonner le contrôle de l'Internet.[...] la Russie a l'intention de demander à ce que l'UIT soit chargée de l'attribution des adresses IP et de « la détermination des conditions requises ». La proposition russe devrait être soutenue par plusieurs autres pays, dont la Chine."
Cette brève fait suite à la récente fuite du texte de la délégation U.S. pour la conférence WCIT en décembre prochain.
On est incité à croire que le Réseau a aboli les frontières... pour toujours. C'est faux. Il les a momentanément affaiblies, au mieux. Dans cette dynamique de long terme, un nouvel essor des frontières au sein du Réseau nous semble inévitablement lié à la perte continue d'influence des U.S. et à la montée des enjeux du contrôle souverain de chaque bloc régional.

Mise à jour 9/09/12 : 
lire l'article de CNET.com publié en mai dernier.

Mise à jour 5/12/12 :
Article de Computer Weekly, publié ce jour.

Mise à jour 12/12/12 :
Article de LMI, publié hier.

Mise à jour 17/9/13 : Anticipation définitivement confirmée.
  • The BRICS “Independent Internet” Cable. In Defiance of the “US-Centric Internet”: Article de GlobalResearch, publié aujourd'hui.
  • Brazil plans to go offline from US-centric internet : TheHindu.com
  • Brazil Looks To Break From US-centric Internet : ExcitingRio.com
Mise à jour 7/10/13 :
  • BRICS cable eyes 2015 completion, BRICScable.com, 03/2013
  • BRICS Submarine Cable Planned to Connect South Africa with Brazil, India, China, US and Russia : IHS.com, 04/2012
  • Ce cable ne doit pas être confondu avec le cable South Atlantic Express (SAex) annoncé auparavant (Brics nations back R 3bn Brazil-SA mega cable, techcentral.co.za, 04/2011)

2008/11/19

Le Cloud Computing s'accompagne de services

C'est ce qu'à parfaitement compris CapGemini, qui après son partenariat avec Google, vient d'annoncer un accord avec Amazon Web Services.

Comme prévu, ce sont à la fois des prestations de conseil, d'infogérance et d'intégration de systèmes qui sont proposés. Tous l'éventail des prestations classiques des intégrateurs est impacté par l'adoption du Cloud Computing. Comme convaincre les clients d'y passer ? La question ne se pose même plus : "Tout le monde cherche à faire plus avec moins".

Désormais ne pas avoir de systèmes d'entreprise hébergés sur les nuages, c'est considéré comme un luxe.

La prise de conscience vient de franchir un Cap.


2008/11/14

Le Cloud Computing et le SaaS font la Une de l'économie


The Economist publie un très intéressant dossier entièrement dédié au sujet du cloud computing et du SaaS pour l'entreprise :
Bon je ne sers plus à rien alors maintenant que la presse économique part dans les nuages ?
Mais non rassurez vous, je vous concocte quelques billets particulièrement savoureux et totalement introuvables ailleurs ;) Le travail d'agitateur des consciences n'a jamais de fin.

Restez éveillés !


2008/10/25

Effet de la crise sur l'adoption du Cloud Computing


 Le Cloud Computing était un des thèmes sous-jacents lors de la création de ce blog, comme l'indique mon introduction (Premier Repère). Voilà quelques articles récents qui traitent de ce sujet :
Le marché mondial du Saas ... devrait encore croître de 27% en 2008 pour représenter 6,4 milliards de dollars selon Gartner.
Mais nous n’en sommes qu’au début confirme le cabinet d’étude, pour qui le segment devrait plus que doubler d’ici 2012, année au cours de laquelle il générera un chiffre d’affaires de près de 15 milliards de dollars.

« La popularité du modèle de déploiement de logiciels à l’usage a fortement augmenté au cours quatre dernières années. Les problèmes initiaux liés à la sécurité, au temps de réponse et à la disponibilité des services ont sérieusement diminués pour beaucoup d’organisations au fur et à mesure que l’adoption modèle Saas se propageait et gagnait en maturité », selon Sharon Mertz, directeur de recherche chez Gartner.
Mais ces études ne posent jamais la question de fond : Cloud Computing et SaaS sont-ils forcément synonymes de fournisseurs américains, même sur le moyen terme ? Car c'est bien là que l'effet de la crise se fera sentir pour les utilisateurs de ces services. Malgré les énormes investissements consentis en infrastructure, la géographie pourrait fort bien se rappeler à nous rapidement si le dogme du libre échange tombe en désuétude. 

Ce blog va dès lors quitter l'angle de vue des technologies et des services pour s'attacher à examiner les effets de la crise sur les critères fondamentaux : géopolitique, géoéconomie, et anticipations rationnelles sur le long terme.

2008/10/08

Le cloud computing et la sécurité du Système d’Informations : une question de myopie ?

Voilà que surgissent les premières critiques un peu argumentées contre le modèle du cloud computing. Jusqu’à présent on en était resté à brandir des épouvantails : “oui, mais et la sécurité pour les systèmes hors de l’entreprise ?”
Cette question trouve sa réponse depuis bien longtemps dans les prestations d’infogérance, ou dans l’utilisation courante des moyens de paiement. Chacun de nous utilise sa carte bancaire sur internet, et la transaction de paiement passe dans la plupart des cas par un prestataire certifié qui n’est pas une banque, par exemple SIPS d’Atos Worldline. C’est encore plus fréquemment le cas pour les systèmes de cartes anonymes prépayées. Mais je voudrais aller plus loin dans ce billet.
...
Lire la suite de mon billet sur le blog d'Atos Origin.


La percée du SaaS et du Cloud Computing

Ce n'est pas encore le moment de la percée du vin Jaune, mais cet automne voit déjà le premier DSI français à annoncer le succès du modèle SaaS et du Cloud Computing.

Bravo à Didier Lambert, DSI d'Essilor, pour cette prise de position très réaliste ! Chaque ligne est pertinente dans ce témoignage.

Mise à jour :
Bruno Ménard le nouveau président du Cigref emboîte le pas de son prédécesseur sur le SaaS
, j'en ai parlé sur le blog d'Atos Origin.



2008/10/02

L'Innovation au service des métiers

J'ai publié un article sur le blog d'Atos Origin à propos des datacenters de Google. Alors que ce dernier est connu pour son innovation logicielle, j'aborde ici ce qui marque aujourd'hui son avantage compétitif.

L’Innovation comme avantage compétitif au service des métiers : l’exemple des datacenters de Google


2008/10/01

Windows annoncé sur EC²


Christian a été prompt pour nous annoncer le prochain support de Windows Server, SQL Server, IIS et l'environnement .Net sur Amazon EC².

Werner Vogels nous explique que le premier marché visé est celui de l'encodage audio et vidéo, gros consommateur de HPC (High Performance Computing). Mais on peut s'attendre à de multiples autres usages, que ce soit en développement, intégration, tests, recette, ou production des pans des Sytème d'Informations tournant sur Windows.

Actuellement en béta, la release publique est attendue pour la fin 2008. Cette annonce vient-elle couper l'herbe sous le pied de la communication attendue de Microsoft sur le Cloud Computing lors de la PDC, ou au contraire est-ce une mise en bouche d'annonces concertées ? Réponse dans quelques semaines.

On peut déjà noter que le phénomène de l'adoption de la virtualisation entraîne une refonte des modes de licensing de la part des éditeurs traditionnels. Le patron d'Oracle a commencé par officialiser le support d'Oracle DB sur Amazon EC², mais sans modifier le mode de tarification. La licence des produits BEA admet un fonctionnement sur partitionnement physique et logique des gros serveurs, mais ne prend pas encore en compte la virtualisation.

Ce n'est à mon avis qu'un étape d'une transition vers un mode licensing à la demande, qui représente bien la valeur ajoutée la plus immédiate pour le client de ces solutions logicielles. GoGrid ne propose pas encore cette flexibilité pour les serveurs utilisant Windows, et le mode de licensing de Flexiscale n'est pas encore très clair à ce sujet.

Le modèle industriel de facturation d'Amazon attendu est bien celui du "je ne paie qu'une fraction de la licence Windows uniquement en fonction de la durée où mon instance est active".



2008/09/28

Google Pelamis et la mer de troncs


Christian Faure nous a dégotté une petite vidéo pédagogique sur les générateurs pélagiques pour illustrer un brevet de Google dont on parle depuis quelques jours sur la blogosphère.
Google a adapté ce système pour alimenter en courant continu ou alternatif des datacenters flottants (et non pas sous-marins).


L'idée est séduisante :
  • l'énergie des vagues est gratuite et non polluante; pas de rejets à part de la chaleur
  • cette énergie sert aussi à pomper de l'eau de mer pour le refroidissement du datacenter
  • la production d'énergie solaire ou éolienne peut venir suppléer l'énergie pélagique
  • le datacenter est rapidement opérationnel parce qu'assemblé et non pas construit; il est déplaçable
  • le concept est très modulaire, le datacenter peut donc être partiellement terrestre pour quelques fonctions du système, en fonction de l'environnement local
A noter :
"much of the world's population lives near oceans, so system 100 could bring computing or telecommunication power close to them. Much of the world's communications infrastructure also runs through the oceans, so that system 100 could tap into existing infrastructure near shorelines."
La forme de l'engin fait un peu penser aux convois de troncs flottants des anciens bucherons :
"Approximately 40 machines spread over a square kilometer could also produce approximately 30 MW. The system ... may operate satisfactorily, for example, approximately 3-7 miles from shore, in 50-70 meters of water. "
"A standard size for such a system may cover an area approximately 600 m. times 200 m. Each motion-powered machine may have a pontoon diameter of 3.5 m and length of 35 m. "
Sachant que Google O3b envisage parallèlement de se doter d'une constellation de satellites de télécommunications, à la limite le seul cable qui reliera l'ensemble de ces troncs flottants sera le cable d'amarrage.

J'ai été attentif à la description du dispositif de refroidissement, car je me suis intéressé aux peintures anti-fouling dans une autre vie. Pelamis utilise un circuit fermé pour le refroidissement interne et l'eau salée est confinée dans l'échangeur externe :
"The cool water may also pass through heat exchangers (not shown) either at or away from the data center modules. Such use of heat exchangers allows the relatively caustic seawater to be isolated in only one part of the system, with fresh water or other coolant circulating in a closed-loop system on the other side of the heat exchangers. As a result, maintenance may be minimized, as the closed-loop side of the system may be kept in operation, with frequent replacements needed only on the saltwater side of the system."

Idée de valeur ajoutée : équiper chaque caisson de caisses grillagées et laisser les ostreiculteurs entretenir le parc à huitres géant et les échangeurs ;)

2008/09/25

REST à la Cantine

 J’étais ce matin au Wake Up organisé par Didier à La Cantine, pour un débat animé sur l’architecture ROA et son adoption en entreprise. J’ai apprécié d’y recroiser des têtes connues, ainsi que l’initiative de la création d’un nouvel espace de partage et de diffusion, qui nous aide collectivement à gagner en maturité sur la réflexion dans nos propositions d’architecture et d’accompagnement.

Il est possible que je présente le mois prochain ma vision du Cloud Computing, dans une formule que nous avons intitulée avec Grégory et Aurélien “le tribunal du SI”. Je vous en reparlerai.

MAJ
Ce "tribunal du SI" a finalement bien eu lieu quelques mois après avec Aurelien dans le rôle du procureur et moi dans celui de l'avocat de la défense des architectures actuelles (on ne pouvait pas avoir deux rôles de procureurs!). Aurélien attaquait avec toutes les armes et qualités offertes par le cloud computing, et je contrais à la volée. Je vous recommande vivement la formule. Cette session absolument unique était réservée à nos collègues chez notre employeur pour le tout dernier séminaire de veille technologique 5@7, avant une suite interminable de réorganisations. Sic transit gloria mundi.

2008/09/01

Construire son propre Cloud interopérable


On ne lutte pas contre le cloud computing. La seule autre alternative poussée par les acteurs du marché est de proposer de monter ce que j'appelle un "cloud on premises" ou Private Cloud, ou en bon français une infrastructure de virtualisation dans mes locaux.

Mais voila que la release 1.0 du projet OpenNebula vient nuancer un peu la frontière entre ces 2 types d'offres.
Elle propose de se monter sa propre infrastructure mais aussi de s'interconnecter à Amazon EC² de manière transparente pour absorber les plus gros pics de charge. Encore une fois c'est un projet open source (européen - vive Reservoir!) qui est au devant en termes d'inter-opérabilité des Clouds.

2008/08/26

Elastic Bloc Store : un SAN pour les services web Amazon


Le cloud computing vient de franchir une nouvelle étape avec la mise à disposition de l’offre Amazon EBS, qui complète ainsi toute la gamme des services de persistance que l’on peut souhaiter :

  • S3 pour le stockage clé-valeur
  • SimpleDB pour le stockage de données structurées
  • EBS pour le stockage de blocs, formatés selon notre convenance et nos besoins d’optimisation
Jusqu’à présent, l’étude du choix d’une solution SAN, son achat, son installation, sa configuration initiale et son optimisation pour chaque application utilisatrice consommait un budget non négligeable pour une DSI. C’est encore un exemple des leviers de productivité dont les nouveaux entrants sur le marché (start ups ou PME) sont friands pour marquer des points de compétitivité face à des acteurs plus imposants, déjà établis en terme de part de marché, et dont l’organisation interne sera plus lente à adopter ce type de services.
A quand le terme Cloud Computing dans la scorecard des DSI du Cigref ?

2008/07/29

Pour comprendre l'Entreprise 2.0


Je viens de publier un billet sur les caractéristiques du mouvement vers l'Entreprise 2.0, sur le nouveau blog d'Atos Origin.

Le Cloud Computing, qui englobe le SaaS, est une des composantes de l'Entreprise 2.0, mais ce n'est pas la seule. Ce billet les met en perspective, à partir d'une précédente analyse rédigée par Christian Fauré.

Avant de partir en vacances, je posterai ici une première analyse liant l'économie actuelle et Entreprise 2.0, puisque c'est aussi le propos de ce blog :)

2008/07/23

Perl pour Google App Engine


Google a officiellement lancé un projet non-officiel ;) pour réaliser un prototype d'une application Perl sur GAE.

C'est non officiel car le projet n'est pas mené par l'équipe de GAE, donc le support de Perl n'est pas encore garanti.

La majeure partie du travail réside dans la réalisation d'un environnement d'exécution Perl extrèmement sécurisé (voir ici pour le cas de Python). On est bien loin d'un simple CGI !

La guerre dans les nuages

image Je ne sais pas si vous avez fait attention, mais on ne parle plus que du Cloud Computing ces temps-ci dans les équipes informatiques. Il s’agit en simplifié de l’utilisation des infrastructures des géants du web pour les besoins informatiques des entreprises.

La promesse semble plutôt alléchante pour ces dernières : accès immédiat, tarification à l’usage, montée en charge facilitée… j’aurais l’occasion d’y revenir dans d’autres billets, mais pour celui-ci je voudrais parler de la guerre des Plates-Formes qui se joue en coulisses.

Qu’est-ce qu’une Plate-forme tout d’abord ? C’est le Graal de tout éditeur. C’est la création d’un écosystème intégrant étroitement matériel et logiciel et qui pourra faire naître d’autres innovations tierces, d’autres solutions qui lui seront intimement liées, et dont le succès de l’un profitera à l’autre. Parmi les plates-formes d’audience mondiale, on peut citer bien sur Windows (win32, .Net), MacOS, Java, Eclipse, mais aussi iSeries, zSeries, xBox, et les consoles de Nintendo. Je n'inclue pas Linux qui n'appartient pas spécifiquement à un éditeur unique et qui ne constitue donc pas un avantage concurentiel pour un lui. La tactique avec l'utilisation de Linux réside plus dans l'abaissement de l'investissement nécessaire pour créer la partie logicielle de l'écosystème, bien plus qu'une différenciation.

Et désormais on voit surgir de nouvelles plates-formes, de nouveaux écosystèmes conçus pour une utilisation massive simultanée (the web as a platform) : Amazon Web Services, Google App Engine, Microsoft RedDog, Facebook Platform, Salesforce Force.com sont les plus connus, bien qu’ils soient loin d’être tous d’un positionnement équivalent, on y reviendra. C’est aussi l’ambition de Symbian et d’Androïd.

La valeur première d’un écosystème, c’est de créer de l’innovation, et de permettre à son éditeur de s’en saisir pour créer de la valeur. La raison d’être de la mjorité de Start-Ups est de se faire racheter par l’éditeur de la plate-forme qu’elles ont choisi comme tremplin. Ces solutions vont alors compléter l’offre de l’éditeur de rang 1, qui les font grandir en cohérence avec ses autres actifs logiciels, en assurant une diffusion commerciale à une nouvelle échelle.

C’est ce qui est en train de se passer pour Animoto, une start-up qui a basé sa solution sur les services web d’Amazon. Comme les services proposés par Amazon elle-même. Ce qui fait que lorsque Animoto sera rachetée, Amazon n’aura quasiment aucun délai pour redéployer cette solution en cohérence complète avec son catalogue existant. Un time-to-market parfait.

On peut de là penser qu’accélérer ce time-to-market est aussi un des objectifs de Google App Engine (GAE). On a vu par exemple que le rachat de Blogger s’était soldé par une année environ sans que cette solution soit hébergée sur la même plate-forme, et puisse bénéficier de l’intégration avec les autres actifs de Google. Si Blogger avait été développé directement avec GAE, ce délai aurait été très fortement réduit, et le succès de Wordpress ou SixApart sans doute amoindri.

C’est aussi pour cela que l’ouverture de GAE à un autre langage que Python, demandée à grands cris par les développeurs Java par exemple, prend du temps. Il faut que Google prenne ses dispositions afin de s’assurer de pouvoir potentiellement immédiatement maintenir les applications dans tous les langages qui seront supportés par GAE, dans le cas où ils racheteraient le futur Facebook qui serait développé sur GAE. Au vu de l’infrastructure massivement distribuée de Google, ce n’est surement pas une question triviale.

C’est donc bien une guerre de séduction des développeurs qui s’opère pour ces éditeurs. Au plus une plate-forme en capture, au plus elle accroît ses chances de faire naître en son sein un rejeton porteur de relai de croissance, au détriment de ses concurents. Et qui sera immédiatement digéré lors de l’acquisition, laquelle sera rendue bien plus difficile pour les éditeurs concurents. Les victoires de demain se préparent aujourd’hui.

C’est à cette chronique que nous allons nous intéresser au fil de nos billets, ainsi qu’à ses conséquences et liens sociaux. Comme la crise actuelle risque de brouiller les cartes de l'adoption de ces solutions, nous aurons également un oeil vigilant sur ses évolutions.