0saves

On avait déjà effleuré le sujet dans un précédent article, mais il mérite que l’on s’y attarde tant le sujet est d’importante : Quelle est la conséquence pour l’économie et l’ « industrie » (j’emploie le terme au sens large) de cette explosion de données, que l’on classifie désormais dans le terme de « big data » ?  Est ce que l’information est-elle devenue obèse ou bien s’agit-il d’une nouvelle étape du traitement de l’information. Un peu comme le passage du « web 2.0 » (interaction consommateurs) au « web 3.0 » (enrichissement sémantique).

Big data pour big métriques

Si l’on reprend la définition, le « big data » est un vaste ensemble de données si large et à l’enchevêtrement de relations si complexe que son traitement est devenu infiniment complexe pour les outils de traitements statistiques et analytiques habituellement utilisés par les départements marketing.

Les raisons pouvant expliquer cette apparition du « big data » sont multiples :

  •  l’explosion du volume des données du fait de l‘informatisation croissante des continents et du traitement de l’information quasiment en temps réel, provoquant des flux continus d’informations noyant littéralement les systèmes d’information,
  • les données sont également taguées de façon très disparate, sans normes précises, ce qui rend plus difficile leur intégration et leurs interconnexions,
  • les sources et les « medium » sont également très différents : smartphone, téléviseurs, ordinateurs de bureau, ordinateurs portables, machines connectées…).

 

Ce qui est clair, c’est que le traitement du « big data » va devenir une autre des problématiques des services informatiques, du Web, et de tout chargé de projets IT et de systèmes d’information, et ce,  jusqu’au moins 2020. Au même titre que le « cloud computing » (les deux sont d’ailleurs intimement liés au final).

 

 

Un défi pour le marketing

Un article de Forbes parlait même d’un défi énorme pour le monde de la distribution, pour la simple raison que les modèles actuelles d’analyse statistiques, souvent linéaires (et basés sur souvent sur le SKU, ou référent unique de chaque produit) et longitudinales, ne permettaient  plus de créer le liant entre toutes ces données.

Résultat :

  • il devient de plus en plus difficile de créer des modèles prédictifs efficients pour anticiper le comportement des consommateus (trop de nouveaux produits, trop de technologies…),
  • les tendances sur les marchés et produits changent de plus en plus rapidement,
  • le consommateur ne pardonne plus, et chaque erreur se répercute quasiment à l’infini sur les médias sociaux,
  • alors que dans le même temps, chaque mauvaise décision sur l’interprétation des données stratégiques d’un marché entraîne des conséquences financières de plus en plus catastrophiques.

 

La solution : réintroduire de nouveaux modèles mathématiques et de nouveaux outils

Pour de nombreux experts, la solution au traitement du « big data » passe par deux points essentiels :

  • introduire de nouveaux modèles mathématiques,
  • trouver de nouveaux outils permettant un meilleur croisement des données.

 

Ce sont notamment ces recommandations que j’ai entendu lorsque je suis rendu au E-metrics de Montréal en Janvier dernier. Pour beaucoup des experts présents, le défi de 2013 résident dans la nécessité de croiser de « datamining » et ses modèles prédictifs avec le traitement de données provenant du web analytics. Histoire de traiter une partie du « big data ».

Par un jeu de « poupées russes », cela permettra de lier progressivement une partie du « big data » du web (de plus en plus important de par l’explosion des médias sociaux) avec le « customer intelligence » (compréhension du consommateur) et le « business intelligence »  (compréhension des tendances sectorielles). Cela permettra de mettre à jour les modèles prédictifs actuels dans un premier temps, et de travailler sur l’interconnections des données externes (offline) et internes (online).

Ensuite, un gros travail sera à apporter sur la recherche de structures mathématiques permettant de travailler efficacement sur ces modèles prédictifs mis à jour (MNL, RFM analysis, LOA…) .

Il y a aussi les outils. C’est qusiment un nouveau marché qui s’ouvre pour les solutions de « business intelligence ». Et déjà des acteurs sont présents pour tenter de faciliter le traitement de ce « big data » :

  • Losquare, une start-up française, qui utilise l’intelligence artificielle pour analyser le contenu sur les médias sociaux,  et en sortir une tendance sur les commentaires analysés : positif ou négatif.
  • RSA security, qui elle travaille plus sur l’approche de la sécurité, pour anticiper les problèmes et éventuelles menaces à partir de l’analyse des données du « big data ». Pour cette société, dans son nouveau guide « Security Brief » , l’impacte du « big data » pour la sécurité informatique sera énorme, notamment sur la question de la surveillance des réseaux, authentification des utilisateurs, détection des fraudes…  La gestion de nouvelles stratégies destinées à remplacer celles actuelles déjà obsolètes est donc essentiel.

 

Crédit photo :

Photo 1 par  UWW ResNet

Photo 2 par matt.nicklas

0saves
Si vous avez aimé ce "post", n'hésitez pas à laisser un commentaire ou vous abonnez à notre flux RSS.