Kundenportal customer-icon
24. März 2014

Sagen Sie die Zukunft voraus: mit Big (Fast, Varied) Data

„Big Data“ ist aktuell wohl eines der wichtigsten Schlagwörter der IT-Branche. Zugleich ist es aber auch ein oft unverstandenes Gebiet, und das fängt schon bei der Begriffsbestimmung an. Bei „Big Data“ geht es nämlich keineswegs nur um große Datenvolumen, sondern auch um die Vorhersage der Zukunft.

White Paper - Corporate Real Estate: kein Benchmarking ohne korrekte Daten

Benchmarking von Gebäuden hilft, diese leistungsfähiger zu machen. Warum korrekte Daten dafür so wichtig sind, lesen Sie in diesem White Paper.

Mehr lesen

Stellen Sie sich einmal vor, dass sich anhand von Big Data in der Zukunft präzise vorhersagen ließe, wann ein Konferenzraum frei wird, wie viele Mitarbeiter morgen im Büro erscheinen und was sie zu Mittag essen werden? Oder wie lange der Weg zur Arbeit dauert und welche Verkehrsmittel am schnellsten sind?

Aber lassen Sie uns besser von vorne anfangen: Was sind eigentlich „Big Data“ – und, vor allem: was sind sie nicht? Gartner definiert den Begriff wie folgt:

„High-volume, high-velocity and high-variety information assets that demand cost-effective, innovative forms of information processing for enhanced insight and decision making.“

(Große Mengen schnell verfügbarer und vielfältiger Daten, deren Erschließung und Nutzung zur Entscheidungsfindung kosteneffektive, innovative Formen der Informationsverarbeitung erfordern.)

Das Eigenschaftswort „Big“ verweist ausschließlich auf den Aspekt des großen Volumens. Zu Recht, denn wir speichern immer mehr Daten in digitaler Form. Zum Vergleich: 2020 wird das gespeicherte Datenvolumen den Stand von 2010 um das Fünfzigfache übersteigen, und ein Ende dieses exponentiellen Wachstums ist vorläufig nicht in Sicht.

Mindestens ebenso wichtig ist aber die enorme Geschwindigkeit, in der die Daten abgerufen werden können (high-velocity), sowie die vielfältigen Erscheinungsformen (oder Formate), in denen sie vorliegen (high-variety). Eigentlich müsste man also von Big, Fast, Varied Data sprechen, aber das klingt natürlich nicht so gut.

Grundsätzlich gibt es zwei Möglichkeiten, um Daten zu analysieren. Man kann zunächst definieren, was festgestellt werden soll, beispielsweise ob der Auslastungsgrad der Konferenzräume einer Organisation während der Finanzkrise gesunken ist. Anschließend versucht man dann, Daten zu finden, mithilfe derer sich diese Frage beantworten lässt. In unserem Fall wäre das eine Übersicht über die Zahl der verfügbaren Konferenzräume und der Reservierungen in den letzten fünfzehn Jahren.

Auf diese Weise können Daten also zur Beantwortung von Fragen herangezogen werden. Daten bieten aber auch den großen Vorteil, sogar Fragen beantworten zu können, die noch gar niemand gestellt hat. Wenn große Datenvolumen vorliegen, können Sie mithilfe von Business Analytics mögliche Korrelationen zwischen verschiedenen Faktoren in den Datenbeständen ermitteln. So könnte sich beispielsweise herausstellen, dass es gar nicht die Krise, sondern der Anteil an Senior Managern in einer Abteilung ist, der den Belegungsgrad der Konferenzräume am stärksten beeinflusst.

Wenn Sie wissen, wie Sie anhand historischer Daten (Anteil an Senior Managern) historische Ereignisse (Besetzungsgrad der Konferenzräume) prognostizieren können, ist der nächste Schritt ebenso logisch wie einfach: Anhand aktueller Daten können Sie künftige Muster beschreiben und prognostizieren. Hierfür hat sich der Begriff „Analytics“ eingebürgert, eine Entwicklung, die im Verbrauchermarkt entstand und ursprünglich für Marketingzwecke eingesetzt wurde und auf die Prognose des Konsumentenverhaltens abzielte.

In Immobilien- und Facility-Management-Systemen, wie CAFM, werden jetzt schon enorme Datenvolumen gespeichert, und diese werden in den kommenden Jahren weiter wachsen. Zudem kommen immer wieder neue Datenquellen hinzu, die genutzt werden können. Wie kann sich eine Organisation dies zunutze machen? Welche Daten und welche Anwendungen sind relevant und was wird dazu benötigt? Hier kommt künstliche Intelligenz (KI) ins Spiel. Vor allem Entscheidungsunterstützung und Prozessautomatisierung werden die meist genutzten KI-Bereiche in den kommenden Jahren sein. Entscheidungsunterstützung in Bezug auf KI wird häufig auch als präskriptive Analytik bezeichnet. In klar definierten Prozessen treffen Menschen Entscheidungen auf der Grundlage von Daten, die im Rahmen des Prozesses verfügbar sind. Wenn die richtigen Daten verfügbar sind und eine künstliche Intelligenz den Kontext versteht, können Systeme Entscheidungen treffen, die früher von Menschen getroffen wurden, was die Abläufe erheblich beschleunigt.

Erik Jaspers
Global Product Strategy & Innovation Director