Logo INGIN - société de développement informatique spécialisé dans la refonte de site internet
Bouton de scroll vers le haut
Partager cet article

Big data : accès en temps réel à un volume inestimable de données.

L'une des principales caractéristiques d'Internet est de permettre la transmission de données. Actuellement, les spécialistes estiment que si 1 litre d'eau représentait 1 bit d'information, le volume de données circulant serait de 2 fois supérieur à l'ensemble des océans réunis ! Et qu'en 2020, ce volume serait multiplié par 44 ! Les géants du web n'ont pas manqué de voir dans ce phénomène appelé "Big data" une véritable mine d'or.

Big data

La règle des 3 V

L'augmentation exponentielle du volume des données circulant à travers le globe a contraint les spécialistes de la toile à rechercher des solutions alternatives aux logiciels de bases de données et d'analyses traditionnels. Ces outils permettent de collecter un gros Volume de données, qui peuvent être très Variées et avec une certaine Vélocité. Au-delà des données traditionnelles comme le nom, le prénom, la date de naissance et l'adresse, les big data emmagasinent une grande variété d'informations structurées et non structurées. Ainsi, des données provenant d'un GPS, des conversations postées sur les réseaux sociaux, des achats effectués et bien d'autres renseignements peuvent être regroupés pour déterminer les habitudes des consommateurs. Mais un tel volume nécessite forcément des machines très performantes car la vélocité est un facteur essentiel. C'est la règle des 3V.

Technologie utilisée par les big data

Les big data utilisent une technologie nettement plus sophistiquée que les bases de données traditionnelles. A cet effet, diverses solutions pour le traitement de ces données sont disponibles. On les appelle des framework et en la matière Hadoop semble prendre le dessus sur les autres. C'est une solution open source développée en langage Java et hébergée par la Fondation Apache. Ces frameworks permettent en outre d'optimiser les temps d'analyse des données géantes à travers des bases de données NoSQL. On peut effectuer des "traitements massivement parallèles" ou des traitements sur des milliers de nœuds. De plus, l'utilisation des "Memtables" ou stockage de données en mémoire permet un traitement rapide des requêtes et assure la vélocité attendue.

Collecter c'est bien, savoir exploiter c'est mieux

Quelques exemples viennent ainsi illustrer cette exploitation fructueuse de ces données. Lokad, une start-up française a développé un outil pour permettre d'anticiper les besoins d'approvisionnement d'un supermarché et à l'heure actuelle, beaucoup d'hyper-marchés français font appel à leur service. De son côté, LinkedIn a su exploiter les données à sa disposition et peut identifier différents profils au-delà des informations fournies par les utilisateurs, très utiles pour les chasseurs de têtes. Le leader des ventes du jeu vidéo BestMart a pu optimiser sa gestion de stocks et mettre en place un système de prix dynamique en fonction de la demande locale, en confrontant les données à travers les médias sociaux et les requêtes web avec ses propres données.

Ces quelques exemples illustrent bien que le grand volume de données qui circulent à travers le net est devenu un véritable eldorado pour les entreprises. Mais les big data n'ont de réelle valeur que si elles sont exploitées à bon escient.

Partager cet article
    Réagir à cet article
    Icon de profil de Gcadoret sur ingin.fr