Kundenportal customer-icon
12. September 2019

Unterschiede hervorheben: Big Data versus Analytik

"Big Data" und "Analytics" sind nach wie vor zwei große Themen im IT-Bereich. Gleichzeitig werden sie oft missverstanden und unterschiedlich definiert. Bei Big Data geht es - wie man vielleicht erwarten würde - nicht nur um große Datenmengen, sondern auch um die Vielfalt der Datentypen und in einigen Fällen auch um die Geschwindigkeit der Datenverarbeitung. Bei Big Data geht es darum, relevante Erkenntnisse zu gewinnen. 

White Paper - Die Zukunft mit Analytik vorhersagen
White Paper - Die Zukunft mit Analytik vorhersagen

Wie können Sie CREM und FM-Daten am besten messen, analysieren und darüber berichten?. Erfahren Sie in diesem White Paper, wie Sie Unternehmensdaten des Immobilien- und Facility Managements nutzen können, um Ihren Wert für das Unternehmen zu belegen.

Read White Paper

Die Definition von „Analytik“ ist nicht eindeutig. Da BI (Business Intelligence) langsam zu einem Akronym der Vergangenheit wird, kann man sagen, dass der Begriff "Analytik" sowohl BI als auch neue Technologien umfasst, die uns ermöglichen, zukünftige Ereignisse und voraussichtliche Reaktionen vorherzusagen.

In unserer Branche – dem Facility Management – können wir anhand von Big Data und Analytik vorhersagen, wann und wie wahrscheinlich ein Besprechungsraum verfügbar ist, wie viele Mitarbeiter morgen ins Büro kommen und was sie vermutlich mittags essen werden. In Bezug auf die Vermögensverwaltung können Prognosen über die Produktivität und Funktionsfähigkeit von Anlagen die Ausfallzeiten erheblich reduzieren und unnötige Kosten vermeiden.

Aber lassen Sie uns zunächst zu den Grundlagen zurückkehren: Was ist Big Data, und vor allem: Was ist es nicht? Was ist Analytik und wie wird sie angewandt?

Zurück zu den Wurzeln

Gartner definiert Big Data wie folgt: 

"Großvolumige, schnelle und variantenreiche Informationsbestände, die kostengünstige, innovative Formen der Informationsverarbeitung für verbesserte Einblicke und Entscheidungen erfordern."

Wie erwartet sind mit „groß“ laut dieser Definition große Datenmengen (Volumen) gemeint. Heutzutage speichern wir unglaublich viele Datenmengen. Stellen Sie sich mal vor: Bis 2020 werden voraussichtlich 40 Zettabytes an Daten entstehen, was mehr als dem 300-fachen der in 2006 erzeugten Datenmenge entspricht. Dies ist jedoch nur eine Komponente des Begriffs „groß“ in Big Data.

Die anderen Komponenten, auf die Gartner sich bezieht, sind Vielfalt - die verschiedenen Erscheinungsformen oder Formate von Daten, die verfügbar sind, von Video bis zu statischen Daten - Geschwindigkeit - die Schnellheit, in der Daten verfügbar werden - und nicht zuletzt der Wahrheitsgehalt. Letzterer bezieht sich auf die Unsicherheit in Bezug zu Daten. Da es so viele und signifikante Daten gibt, wird es ist schwieriger, Fehler zu identifizieren.

Analytik: Worauf muss man achten?

Es gibt viele Möglichkeiten, Daten zu analysieren. Unternehmen sammeln heute große Datenmengen, vor allem wenn IoT-Technologien genutzt werden. Die Anzahl der möglichen Datenanalysen ist überwältigend.

Es stellt sich also die Frage: Was soll analysiert werden? Tatsächlich ist diese Frage nicht nur für den Ansatz der Analyse von grundlegender Bedeutung, sondern auch für die Art der zu erfassenden Daten. Wenn zum Beispiel die Kapazität und Auslastung verfügbarer Besprechungsräume analysiert werden soll, um die zukünftige Nachfrage vorherzusagen, benötigt man eine Zusammenfassung der Anzahl der Besprechungsräume, der Reservierungen und (falls vorhanden) der tatsächlichen Auslastung der letzten 15 Jahren.

Ein solider Analyseansatz beinhaltet in der Regel eine Reihe von Elementen:

  • Beginnen Sie mit der Priorisierung Ihrer „Unternehmensprobleme“ - Jede (neue) Analyse kostet Investitionen (z. B. in Zeit und Werkzeuge). Stellen Sie sicher, dass in Projekte investiert wird, die einen spürbaren Mehrwert bringen.
  • Bewertung anhand der verfügbaren Daten - Überprüfen Sie, ob fundierte Datensätze zur Analyse der jeweiligen Unternehmensprobleme verfügbar sind. Es kann durchaus sein, dass bei Problemen mit hoher Priorität nicht genügend Daten abrufbar sind, während ein anderer Fall leicht analysiert werden kann, da die relevanten Datensätze zur Verfügung stehen. Das Ganze ist eine Kosten-Nutzen-Frage.
  • Übung macht den Meister – Beginnen Sie mit damit, „schnelle Ergebnisse“ zu ermitteln, die nur einen Teil des prognostizierten Ergebnisses zeigen. Im Softwarebereich wird dieser Ansatz als „minimal tragfähiges Ergebnis“ oder „minimal tragfähiges Produkt“ bezeichnet. Erweitern Sie Ihre Analyse dann in kleinen Schritten. Die Erfahrung zeigt, dass dieser iterative Ansatz - auch “Unterwegs lernen“ genannt - die Möglichkeit bietet, den jeweiligen Analyseansatz rechtzeitig zu ändern. Ganz nach dem Motto: Was funktioniert? Was nicht?

Sie wissen nicht, was Sie nicht wissen: Gute Analyseprojekte geben Antworten auf Fragen, die Sie sich zunächst nicht einmal gestellt haben. Wenn Sie Zugriff auf viele Daten haben, können Sie mit Business Analytics nach möglichen Zusammenhängen zwischen verschiedenen Faktoren suchen, die in Ihren Datensätzen verfügbar sind.

Die Datenanalyse bezieht sich auf die Untersuchung, Sammlung, Analyse und Transformation großer Datensätze zu nützlichen Informationen, die hinter den Daten „versteckt“ liegen. Ziel ist es, Schlussfolgerungen zu ziehen und Probleme zu lösen. Analytik ist aber nicht nur eine Methode, mit der Sie ein Ereignis aus der Vergangenheit analysieren können; es ist auch möglich, zukünftige Muster mit heutigen Daten vorherzusafen. Gartner teilt die Analytik daher in vier verschiedene Kategorien ein:

  • Deskriptive Analytik: beschreibt die aktuelle Situation.
  • Diagnostische Analytik: untersucht, weshalb bestimmte Ereignisse und Muster auftreten.
  • Prädiktive Analytik: trifft – wie bereits beschrieben – Vorhersagen über zukünftige Verhaltensmuster auf Basis früherer Daten..
  • Rezeptive Analytik: Basierend auf Zukunftsprognosen und aktuellen Daten berät Sie diese Art der Analytik, welche Maßnahmen Sie ergreifen sollten.

Was sind die Unterschiede?

urz gesagt bezieht sich Big Data auf unstrukturierte und ziemlich komplexe Datensätze, weshalb spezifische Werkzeuge für den Umgang mit den Daten erforderlich sind. Analytik bezieht sich auf die Strukturierung dieser Daten, sodass diese für den Analyseprozess interessant werden. Die Entstehung von Big Data hat eine neue Berufsfunktion geschaffen: Datenanalyst bzw. Datenwissenschaftler. Eine Funktion, die sich auf die strategische Analyse großer Datensätze fokussiert und daraus Mehrwert schöpfen kann.

Anwendung von Big Data und Analytik

Obwohl es gut ist, klare Definitionen von Big Data und Analytik im Hinterkopf zu haben, stellt sich direkt die nächste Frage: Wie lassen sich diese Techniken in Unternehmen einsetzen? Wie könnte Ihr Unternehmen von Datenanalysen profitieren? Welche Software oder Tools sollten Sie einsetzen, um aus Ihren Daten einen Mehrwert zu schaffen? Diese Fragen werden in einem kommenden Blogbeitrag beantwortet. Aber mein Ratschlag lautet: Beginnen Sie klein und versuchen Sie mit der Komplexität umzugehen- verkomplizieren Sie die Dinge nicht schon zu Beginn.

Möchten Sie mehr über dieses Thema erfahren oder interessieren Sie sich dafür, welche Produkte zur Datenanalyse wir anbieten können? Laden Sie unser White Paper herunter oder informieren Sie sich über die Möglichkeiten unseres neuen Produkts „Planon Connect for Analytics “.

Erik Jaspers
Global Product Strategy & Innovation Director