Durch zunehmende Digitalisierung und Datenerfassung fallen in vielen Bereich immer mehr und immer komplexere Datenmengen an. Sie erweisen sich als zu wechselhaft, komplex oder schwach strukturiert, um mit herkömmlichen Datenverarbeitungssystemen verwertbar gemacht zu werden. Der Begriff Big Data erfasst diese Zusammenhänge. Er beschreibt zum einen die problematischen Datenmengen selbst. Gleichzeit umfasst er aber auch innovative IT-Lösungen, die eine Verwaltung der Massedaten erlauben. Obwohl es keine eindeutige Definition gibt, steht der Begriff Big Data also insgesamt für das Phänomen des massenhaften Datenaufkommens und die zugehörigen Verarbeitungspraktiken.
Big Data lässt sich durch fünf Schlüsselmerkmale – die sogenannten 5V – definieren:

  • Volume: großes und komplexes Datenaufkommen; mit herkömmlichen Methoden nicht oder schlecht zu verwalten
  • Variety: große Vielfalt von Datentypen- und quellen, die strukturiert, semi-strukturiert oder unstrukturiert auftreten; Zusammenhänge und Strukturen sich oft nur durch spezifische Technik herstellbar
  • Velocity: Datenverarbeitung muss und soll mit erhöhter Geschwindigkeit erfolgen
  • Veracity/Validity: Aufbereitung und Nachbearbeitung von Daten im Hinblick auf Qualität und Glaubwürdigkeit erforderlich
  • Value: durch die Verwertung der Datenmengen lässt sich ein (unternehmerischer) Mehrwert erzielen
Webinar mit FORCAM-Gründer Franz Gruber: So gelingt der Neustart in der Fabrik      mehr erfahren