Das Unternehmermagazin aus der Handelsblatt Media Group

Creditreform

Big Data befasst sich mit dem Einsatz großer Datenmengen, die möglichst schnell für Entscheidungen jeder Art aufbereitet werden müssen. Ohne eine kontinuierlich hohe Datenqualität geht es nicht, denn davon hängt die Treffgenauigkeit der Ergebnisse von Aktionen maßgeblich ab. Was eine hohe Qualität der Daten ausmacht, möchte ich Ihnen gerne erläutern.

Über Datenmangel können sich Unternehmen nicht beklagen, vielmehr sprechen viele von einer Datenflut. Verantwortlich dafür sind weniger die traditionellen Datenbanken, in denen die Informationen aus dem Vertrieb, dem Marketing, dem Einkauf und der Finanzbuchhaltung gespeichert sind. Ursache des rasanten Wachstums sind neue Datenquellen, wie Bilder, Dokumente, Videos, Sensoren-Streams und die Aktivitäten aus sozialen Netzwerken, in denen Unternehmen präsent sind. Stichwort: Big Data.

Die optimale Auswertung der relevanten, zum Teil sehr umfangreichen Datenbestände wird für immer mehr Unternehmen zu einem bedeutenden Wettbewerbsfaktor. Genau dies ist einer der zentralen Ansatzpunkte für „Big Data Analytics“. Aus den Analysen entstehen die benötigten Informationen für Entscheidungen im Geschäftsalltag. Bei der Art und dem Ziel der Analysen lassen mehrere Stufen unterscheiden. Viele Unternehmen konzentrieren sich noch auf deskriptive (was ist geschehen?) und interpretierende (warum ist etwas geschehen?) Analysen.

Typisch für diese beiden Stufen sind das Reporting und die vielfältigen Anwendungsszenarien von Business Intelligence (BI). Andere Unternehmen gehen einen Schritt weiter und betreiben prognostische Analysen. Sie wollen wissen, zu welchen Ergebnissen ihre Entscheidungen führen, um zu sehen, wo sie steuernd eingreifen können.

Prognostische Analysen kommen auf einigen Gebieten bereits zum Einsatz: Das bekannteste Beispiel dafür sind Onlineshops, die Besuchern, die sich für bestimmte Angebote interessieren, eine Liste mit ähnlichen oder ebenfalls dazu passenden Produkten präsentieren. Sie basiert auf einer Ermittlung der Kaufwahrscheinlichkeit.

Fertigungsunternehmen haben umfangreiche Anwendungen in Einsatz, die beispielsweise die ein- und ausgehenden Warenströme, die Auslastung der Produktionsanlagen sowie Sensoren-Streams analysieren. Die Sensoren messen die Verfügbarkeit, die Reparaturwahrscheinlichkeit der Maschinen und die Qualität der erzeugten Produkte. Beim Erreichen bestimmter Schwellwerte kann frühzeitig eingegriffen werden.

Logistikdienstleister verwenden schon seit einiger Zeit Applikationen, um ihre Tourenplanung weiter zu optimieren. In Marketing und Vertrieb sammeln einige Unternehmen Erfahrungen mit Anwendungen, die neue Einblicke in das Kundenverhalten liefern und eine optimierte Ansprache in der Kundenkommunikation ermöglichen sollen.

Prognostische Analysen werden immer weiterentwickelt

Wie jede individuell entwickelte Anwendung werden auch Big-Data-Projekte ständig angepasst und weiterentwickelt. In einzelnen Vorhaben hat sich jedoch herausgestellt, dass die Prognosemodelle zu wenig flexibel waren. Als neue Anforderungen an betriebliche Entscheidungsprozesse hinzukamen, ließen sich diese nicht entsprechend ändern. Unternehmen haben daher einige Projekte auf Eis gelegt und andere ganz eingestellt.

Anwendungen aus dem Bereich der prognostischen Analysen bringen nur dann einen Mehrwert, wenn die organisatorischen und technologischen Voraussetzungen, inklusive der eingesetzten Methoden und Verfahren, kontinuierlich adaptiert werden. Die Prognosemodelle müssen immer wieder ihre Praxistauglichkeit nachweisen und sozusagen „lernfähig“ sein. Kommen neue Datenquellen hinzu, muss das Modell eine höhere Prognosegenauigkeit liefern.

Die Datenqualität ist das A und O

Eine hohe Datenqualität ist einer der Erfolgsfaktoren für Big-Data-Projekte. Zur Beurteilung der Güte der Daten gibt es eine Reihe von Eigenschaften. Die Daten sollten aktuell, eindeutig, einheitlich, genau, konsistent, korrekt, redundanzfrei, relevant, verständlich, vollständig und zuverlässig sein.

Die Einschränkung „sollten“ ist bewusst gewählt, denn in der Praxis zählt nicht immer, dass die Daten hundertprozentig zutreffend sind. Bei Trendanalysen kommt es oft eher darauf an, dass ein Ergebniskorridor getroffen wird, weil erst zu einem späteren Zeitpunkt weitere Datenquellen berücksichtigt werden können.

Auf eines muss man aber hinweisen: Wenn es um das traditionelle Berichtswesen und zugehörige Analyseszenarien mit hohen regulatorischen Anforderungen geht, müssen Daten hundertprozentig korrekt sein.

In den vielfältigen Anwendungsszenarien von Big Data kommt IT-Dienstleistern eine wichtige Rolle zu. Sie bringen die Kombination der unternehmensinternen Expertise ihrer Kunden mit dem eigenen umfangreichen technischen und methodischen Know-how in konkrete Projekte ein.

Der Autor ist Vice President/ Practice Head Business Intelligence beim Business und IT-Consulting-Dienstleister CGI in Sulzbach.