En raison de la numérisation croissante, des quantités de données de plus en plus nombreuses et complexes s’accumulent dans de nombreux domaines. Ces données s’avèrent trop changeantes, complexes ou faiblement structurés pour être rendues exploitables par les systèmes de traitement de données classiques. Le terme Big Data rend compte de ces interrelations. D’une part, elle décrit les volumes de données elles mêmes problématiques. Mais elle comprend aussi des solutions informatiques innovantes qui permettent de gérer les données de masse. Bien qu’il n’existe pas de définition claire, le terme Big Data désigne le phénomène d’accumulation massive de données et les pratiques de traitement associées. Le Big Data peut être défini par cinq caractéristiques clés – les fameux 5V :

  • Volume : volume de données important et complexe ; non ou mal gérable avec les méthodes conventionnelles.
  • Variété : grande variété de types et de sources de données, qui se présentent sous une forme structurée, semi-structurée ou non structurée ; les connexions et les structures ne peuvent souvent être créées qu’en utilisant une technologie spécifique.
  • Vélocité : le traitement des données doit et devrait se faire à une vitesse accrue.
  • Véracité/Validité : Préparation et post-traitement des données requises en matière de qualité et de crédibilité.
  • Valeur : l’utilisation des volumes de données permet d’obtenir une valeur ajoutée.
Nouvelle étude de cas sur la connexion des machines dans notre médiathèque             apprendre plus