0saves

Récemment, je me suis rendu à une conférence des plus intéressante qui traitait du cloud computing, avec notamment une personne de chez Microsoft qui nous as fourni de nombreuses informations.

Le cloud computing : entre solutions à d’anciens problèmes et nouvelles problématiques

Je ne suis pas un expert en cloud computing mais je m’intéresse pas mal au sujet, notamment en ce qui concerne la question de la sécurité des données et de son fonctionnement interne.

A n’en pas douter, c’est la (prochaine) révolution du monde numérique et informatique, qu’elle soit bonne ou mauvaise.

cloud computing

Les principales caractéristiques qui pourrait définir le cloud computing

Si l’on cherchait à définir ce qu’est le cloud computing, pour mieux comprendre et cerner le concept, on pourrait se concentrer sur les notions suivantes :

  • Permettre la continuité de l’activité par tous les moyens, et par une très haute disponibilité du système garanti contractuellement via contrat SLA. Microsoft, par exemple,  garanti une disponibilité de service à 99,9% par mois soit 3h/an maximum d’indisponibilité par an accepté contractuellement. Au délà (avec seuil à 95%), Microsoft rembourse le client (attention, tout de même, le « compte à rebours » ne se déclenche qu’à partir de l’appel aux supports Microsoft par le client avec ticket. D’où la nécessité d’un monitoring constant…:)).
  • Marqué par une très forte agilité, capable de suivre l’évolution technologique et de faire face à la montée en puissance des besoins,
  • Un concept de self-service, avec des modules « à la carte », configurable selon les besoins et la configuration de l’entreprise,
  • marqué par la notion d’élasticité et de réponse aux pics de demande,
  • Permettre la mise en place d’économies d’échelle informatique et donc une diminution des coûts, par la mutulisation des moyens et notamment des serveurs,
  • Une mutualisation complète des outils et des logiciels nécessaires à la bonne marché de l’entreprise, là encore à la carte et avec une disponibilité complète et constante.
  • qui entraîne dans son sillage, la construction de « méga » datacenters, très centralisés mais dotés de systèmes de sécurité poussées à leur paroxysme (multiples systèmes de refroidissement, indépendance des systèmes de refroidissement, multiples redondances physique et électronique, sécurités physiques, multiples sources d’approvisionnement électrique….)
  • Un système virtuel avec une délocalisation des données.
  • Une solution d’outsourcing 2.0, via une contractualisation complète des prestations entre l’entreprise cliente et le prestataire fournisseur (SLA). On s’oriente vers une fin des licences pour un développement des abonnements. C’est dans cette voie que Microsoft s’est engagé avec son nouveau Office 365 destiné à remplacer Microsoft Online. C’est un MS Office complet en « cloud » avec location des logiciels « à la carte ».
  • multi-locataire et ubiquité du système, disponible n’importe où et n’importe quand.
  • une plus grande ouverture, avec un développement des besoins en monitoring : le client doit pouvoir accéder à son compte n’importe quand pour surveiller d’éventuels dysfonctionnements/déconnections.

cloud triangle

Au fond, cela revient à créer un nouveau « business model » pour le monde informatique, et pour les entreprises utilisatrices, ce quelque soit la « couche » (layer) d’utilisation souhaitée :

  • infrastructure complète de gestion des besoins informatiques de la société, l’ « infrastructure as a service » (IaaS),
  • besoins en logiciels informatiques déportés, sans hébergement en local, avec abonnement plutôt qu’achat de licences, le « Software as a Service » (SaaS),
  • le « platform as a service » (PaaS), environnement middleware créannt la communication entre des applications encore hébergées par les client.

Le client aura donc, au final, un rendu informatique beaucoup plus ciblé, car correspondant à ces besoins réels. Que ce soit en infrastructure mais également en logiciels. Tout cela se fera « à la carte » en fonction de ses besoins, sans matériels et logiciels inutiles, et trop souvent compris dans les « packages informatiques » actuels.

 

conférence cloud computing

Une technologie qui profite des dernières innovations

Si beaucoup restent à faire pour hiérarchiser et standardiser les normes du « cloud computing » (comme par exemple, pour les services de type « Platform as a Service » (PaaS), on notera tout de même que son développement récent a profité des dernières innovations technologique, telles que les grands chantiers d’installation de la fibra optique, améliorant considérablement la bande passante, et permettant l’installation de plus grands systèmes dématérialisés sans perte de qualité.

Il en est de même pour les capacités réseaux et matériels (échange et stockage) qui ont permis de construire des datacenters de nouvelle génération, beaucoup plus grands et beaucoup plus sécurisés.

Cloud computing = concept écologique ?

L’un des arguments en faveur du cloud computing est son côté « eco-friendly » et « eco-responsable » souvent mis en avant par les constructeurs.

D’un premier abord, ce n’est pas probant au vu des besoins en dépenses énergétiques croissants nécessaires pour « loger » les fonctionnalités, logiciels et données dans le « cloud » (réseaux, construction de data centers immenses….).

Par contre, s’il n’offre pas « ex nihilo » un avantage écologique, le « cloud computing » permet de mettre en place une marge de manoeuvre conséquente pour travailler ce côté écologique.

En effet, en concentrant au même endroit toutes les données et ressources informatiques via d’immenses datacenters, on peut ainsi améliorer le focus de ces efforts écologiques sur un même endroit avec d’importantes économies d’échelles et de nouvelles méthodes : refroidissement assuré par échange thermique avec un bassin d’eau, toit végétalisé, énergie renouvelable…

D’autant que le « cloud computing » même si énergivore permet de mieux traiter les pics de consommation énergétique, via

  • une maîtrise complète de la virtualisation (serveurs virtuels sur châssis physiques permettant une plus grande utilisation des serveurs, à hauteur de 50-80%, contre seulement 10% actuellement en serveur dédié). Ainsi, moins de gaspillage dans les serveurs, mais également dans les réseaux (pas besoins d’infrastructures redondantes pour gérer les pics de trafic).
  • une meilleure maîtrise de sa densité électrique, notamment en terme de refroidissement des serveurs, tout en étant sécurisé et avec une irrigation télécom parfaite (double arrivée sur les derniers datacenter).

Les limites du cloud computing

En terme de limites, on retiendra que le cloud computing soulève les interrogations suivantes:

  • la réversabilité des données: les données envoyées dans le « cloud » par le client sont-elles récupérables? Théoriquement, la propriété des données restent celles du client, mais d’un  point de vue légal, c’est encore nébuleux… (pas de corpus législatif et judiciaire précis). Là encore, une bonne analyse du contrat liant le client au prestataire du « cloud » sera nécessaire.
  • la localisation des données: qui découle de l’interrogation précédente. Selon la localisation du datacenter où sont stockées les données dépendra la loi qui s’appliquera en cas de litige. Rappelons que le « passage en cloud » de données sensibles (ressources humaines, santé…) nécessite toujours un accord de la CNIL.
  • et évidemment la sécurité du « cloud » (physique et électronique) pour la protection des données stratégiques et personnelles.

Un bon conseil : vérifier les contrats et noter l’emplacement des datacenters

La personne de chez Microsoft nous a fourni un très bon conseil, même si derrière on sentait bien que tout cela était avant tout commercial : « vérifiez toujours où est localisé le/les datacenter servant à l’hébergement du « nuage » (cloud) que vous utilisez en entreprise ».

En effet, la localisation géographique du datacenter, c’est à dire l’endroit où sont stockées les données, conditionnera la loi qui s’appliquera en cas de litige sur la propriété des données.

Et pour informations, sur ce point précis, Microsoft est plus transparent avec ses solutions « cloud » que ces concurrents, tels Google, grâce à ses 3 datacenters tous localisés en Europe (donc droit européen : Dublin, Amsterdam…). Google, de son côté, est incapable de valider à ses clients la localisation précises des donnée sur le contient européen.

Dans le même domaine, on retiendra également le concept de « geo clusters » de Microsoft. Ce concept, très intéressant en ce qui concerne la sauvegarde des données, consiste à séparer géographiquement les serveurs, avec sur chaque site géographique, une redondance de sauvegarde physique.

Enfin, pour faire son choix entre un fournisseur de cloud « régional » ou « international », on pourra s’attacher au raisonnement suivant :

  • acteurs régionaux : pour un cloud très personnalisé,
  • acteurs mondiaux : pour un cloud plus standardisé mais avec de plus grandes économies d’échelle et de coûts à la sortie (et une une plus grande variété de solutions logicielles).

Ne pas oublier que le « 100% sécurité/fiabilité » n’existe pas

Malgré tous les avantages du cloud computing, il ne fait pas perdre de vue que la sécurisation à 100% de l’infrastructure informatique et des données est impossible. Inutile donc de tomber dans les panneaux des commerciaux des principaux acteurs du « cloud ». ils n’auront de cesse que de vous répéter que tout est génial et ultra sécurisé.

Certes l’idée est séduisante : au fond, le « coeur » du cloud (système et base de données privatives) sera stocké au centre du datacenter. Tout sera donc centralisé et monitoré en permanence, sans dispersion et sans « portes » non surveillées.

Mais les exemples récents de Sony, Nintendo et de Sega nous prouvent que mêmes les plus groupes industriels sont pour le moment incapables de sécuriser efficacement les données que nous leur donnons.

Cloud ouvert ou cloud privé

Cette question de la sécurisation de vos données stratégiques peut cependant être résolu en amont, dès la conception du « cloud » de votre entreprise.

Le choix devra donc se faire entre l’implémentation d’un « cloud » privé ou d’un « cloud » ouvert.

Le cloud privé étant à retenir si vous disposez de nombreuses donnes stratégiques à la survie de votre entreprise ou des données personnelles (listing clients, données personnelles…). Dans ce cas-là, on s’orientera finalement vers une solution assez proche des réseaux informatiques actuelles, avec hébergement sur les sites de l’entreprise des principaux serveurs.

Cela permet de garder la main sur des fonctions stratégiques de l’entreprise et sur la sécurité du réseau, ainsi que sur la « propriété » des données. Pour au final, obtenir un  système « taillé » sur mesure (fitted), solidement intégré, pour l’entreprise.

Par contre, le défaut de la cuirasse réside dans l’inertie de ce genre de système, qui empêchera d’atteindre l’ubiquité et l’élasticité des systèmes en « cloud ouvert ». Ainsi, si votre entreprise dépend fortement, pour son activité commercial, de l’internet et du nuémrique (type e-commerce), et est soumis à de fréquents pics de saisonnalité et de trafic, il faudra plutôt pour un  système en « cloud » ouvert beaucoup plus élastique, modulable et rapide à installer.

Là encore, tout dépend de ses besoins. Mais, malgré le discours des « constructeurs cloud », on s’oriente de plus en plus vers une mixité des SI, systèmes d’informations, avec la mise en place de réseaux « mix » 50% classique (sur le stratégique) 50% cloud

Par contre, l’intérêt immense du « cloud » réside dans son accessibilité aux PME/TPE, avec une large gamme d’outils et logiciels (community management, SAV, CRM…) accessibles en cloud, alors qu’ils seraient inaccessible en « traditionnel ».

Le cloud computing et les économies d’échelle

Le gros avantage d’un passage au cloud computing, en plus de ses caractéristiques de souplesse et d’élasticité, réside évidemment dans les gains financiers espérés pour l’entreprise.

Ainsi, une PME/PMI de taille moyenne peut espérer un gain de 40/60% sur 3 ans, sur sa facture informatique, par rapport à des investissements sur site.

Autre exemple, chez Microsoft toujours, si une licence coûte environ 400 € par poste (avec maintenance logicielle), le passage aux solutions cloud ne coûte que 5 € / utilisateur /mois.

Conclusion : l’avenir du cloud computing

Ce qui est sûr, c’est que le cloud computing n’a pas encore entièrement explosé dans les entreprises. Les « cloud constructeurs » communiquent énormément pour orienter les entreprises vers ces produits, et à terme ils réussiront, mais pour le moment le « cloud computing » reste l’apanage de grands groupes internationaux avec des grands besoins en élasticité et en résilience.

Ainsi, pour l’instant, le « cloud computing » ne réprésente que moins de 2 milliards d’euros de CA pour Microsoft dans le Monde. Soit moins de 10% du CA global de l’entreprise.

La marge de manœuvre est donc encore immense.

Hormis, tout cela, voici une infographie fournie par le groupe ABB qui résume les points cruciaux du cloud computing, notamment en ce qui concerne la consommation d’énergie:

Vous trouverez également des informations dans l’article sur le cloud computing présent sur le site de RSE-pro (et plus globalement sur tout le site).

0saves
Si vous avez aimé ce "post", n'hésitez pas à laisser un commentaire ou vous abonnez à notre flux RSS.