Es ist schon ein starkes Stück, wenn die Blase platzt und sich gestandene Manager auf den Boden der analogen Tatsachen zurückholen lassen müssen: „Es denkt nicht für dich“, erinnert uns das Wirtschaftsmagazin brand eins im Juli 2016. „Big Data Hype – Schluss mit blinder Dummheit!“, war Anfang des Jahres schon im manager magazin zu lesen. Der gelegentliche Unkenruf kommt unerwartet in dem Konzert der Lobeshymnen. Dabei liegt es doch auf der Hand: Eine Vielzahl an Daten allein ist kein Garant für bessere Entscheidungen. Und Erfolg stellt sich erst ein, wenn die Entscheidungen gut sind.
Alles nur Betrug?
Seine harsche Kritik an dem „Marketingversprechen“ Big Data formuliert der Journalist Thomas Ramge unter Verweis auf eine Reihe sehr teurer und allesamt gescheiterter Big-Data-Projekte bekannter Akteure: Google, Microsoft und sogar öffentliche Behörden aus Großbritannien. Dabei erfasst er die fehlende Qualität und Menge der eruierten Daten als ein typisches Problem der beispielhaften Fehlschläge. „Mehr ist immer besser“, zitiert Ramge Technikvorstand Werner Vogels von Amazon und gibt zu bedenken: „Theoretisch hat Vogels damit recht. […] Ganz sicher falsch ist es für Unternehmen, deren IT-Infrastruktur aus den Achtziger- oder Neunzigerjahren stammt und dann schrittweise erweitert wurde. Mehr Daten heißt für sie meist: mehr Überforderung.“
Dieser Einwand ist leicht einzusehen, denn auch gut funktionierende Big-Data-Technologien versuchen lediglich, die Datenflut in Wissen zu kanalisieren. Damit ist einem Unternehmen jedoch noch nicht geholfen, denn zur Optimierung von Prozessen gehört mehr als nur eine Masse an Informationen. Wer unter Zeitdruck arbeiten muss, für den ist rasches Handeln geboten, konkrete Aktion gefragt. Selbst wenn die Materie komplex ist, muss ein IT-System das neue Wissen schnell in konkrete Handlungen übersetzen können.
Zögerliche Schritte

„Verloren in der Datenflut?“ Foto © Bruce Rolff
Bei aller berechtigter Kritik sollte man jedoch festhalten, dass die grundsätzliche Idee, mit mehr Daten besseres Wissen zu schaffen und darauf aufbauend bessere Entscheidungen zu treffen, sicherlich nicht falsch ist. Fakt ist aber, dass sich trotz Hype noch viele deutsche Unternehmen schwer darin tun, ihre Daten sinnvoll zu nutzen. Auch eine BITKOM-Auswertung bestätigt diese bedauernswerte Tatsache: Je nach Branche nutzen nur 10 bis 20 Pronzent der Unternehmen fortgeschrittene Datenanalysen. In manchen Bereichen ist der Anteil sogar noch geringer. Neben der mangelhaften Strategie benennt eine Studie des Beratungsunternehmens MHP zwei weitere Gründe für das zögerliche Vorgehen beim Einsatz von Big-Data-Technologien: 63 Prozent der Teilnehmer vermissen qualifizierte Fachkräfte, 54 Prozent eine leistungsfähige technologische Infrastruktur in ihren Betrieben.
Doch selbst wenn der Mangel an qualifizierten Datenanalytikern gelöst würde und das für Big Data so wichtige Konsolidieren großer Datenmengen auch Unternehmen leichter fiele, die nicht mit einer mit Amazon oder Google vergleichbaren Infrastrukur aufwarten können, bleibt ein wesentliches Problem ungelöst. Big Data Analytics lassen ihre Anwender mit ihren Erkentnissen allein und sind darum für viele interne Optimierungsprozesse nicht wirklich geeignet. Die Anwender selbst müssen gewonnenes Wissen priorisieren und Möglichkeiten erarbeiten, daraus eine Effizienz- oder Profitsteigerung abzuleiten. Dabei sind heutzutage bereits technologische Alternativen zu Big Data verfügbar, die auch mittelständischen Unternehmen eine Nutzung der vorhandenen Daten im Sinne einer betrieblichen Prozessoptimierung ermöglichen – nämlich die punktuelle Ergänzung bestehender IT-Systeme um entscheidungsintelligente Algorithmen aus Operations Research und Fuzzy Logic.
Entscheidungshilfe für den Menschen
Ein gutes Beispiel für den Nutzwert einer solchen Alternative ist die Optimierung der Absatzplanung, wie sie jedes Unternehmen für seine unterschiedlichen Produktgruppen, Absatzregionen und Key Accounts durchführt. Der Big-Data-Ansatz suggeriert, dass die Analyse großer Datenmengen aus der Vergangenheit sehr genaue Prognosen für die Zukunft liefert. Wer beispielsweise in Deutschland über Jahre hinweg den gleichen Turnschuh verkauft, kann auf einen entsprechend großen Datensatz zurückgreifen. Nun entspricht eine solche Situation aber absolut nicht dem Zeitgeist, denn ein solcher Schuh ist wahrscheinlich nur ein Jahr lang im Handel, bis er von seinem Nachfolger abgelöst wird. Hier hilft auch die beste Datenanalyse allein nicht weiter, denn diese wird bestenfalls die Erkenntnis liefern, dass die zukünftigen Absätze mehr oder weniger ungewiss sind.
Schwächen erkennen
In der Praxis sind es nicht nur die neuen Situationen mit mangelnden Daten, die die Schwächen der reinen Big-Data-Analyse offenbaren. Der wahre Feind ist die Unvorhersehbarkeit künftiger Entwicklungen, die im operativen Geschäft Agilität erfordert. Die Notwendigkeit, schnell die richtige Entscheidung zu treffen, lässt sich insbesondere im Folgeprozess der Absatzplanung beobachten, dem Bestandsmanagement. Wenn man einmal sehr optimistisch annimmt, dass eine Big- Data-Analyse eine extrem genaue Prognose für den zukünftigen Bedarf unseres Turnschuhs errechnet hat (ein zeitloser Dauerbrenner), dann gilt es für den Verantwortlichen in der Beschaffung immer noch, manuell ganz konkrete Entscheidungen zu treffen. Ihm stellt sich jeden Tag folgende Frage: „Wie viel muss ich zu welchem Zeitpunkt bestellen?“
Jeder Disponent muss diese Frage täglich mehrere hundert Mal beantworten, da der Turnschuh nicht der einzige Artikel im Portfolio seines Unternehmens ist. Die Komplexität und wirtschaftliche Tragweite dieser Entscheidungen macht verlässliche Handlungsempfehlungen unerlässlich. Nur ein agil optimierendes IT-System, das eben über die einfache Datenauswertung hinausgeht und dem Planer ermöglicht, aus der Vielzahl von möglichen Handlungsoptionen die beste auswählen, liefert ein optimales Ergebnis.
Dies ist insbesondere in Situationen der Fall, die nicht dem Standardablauf entsprechen. Wenn zum Beispiel eine Charge im Lager, die für einen konkreten Auftrag vorgesehen war, plötzlich unbrauchbar geworden ist oder ein Eilauftrag eingeht, der bereits anderweitig eingeplante Materialien, Teile oder Ressourcen beansprucht. Hier ist Agilität gefordert, die Big Data nicht bietet. Was ich nicht vorhersehen kann, ist auch datentechnisch nicht abbildbar.
Daten nutzen, aber richtig

„Agile Optimierung geht über die Datenanalyse weit hinaus.“ Foto © Pressmaster
Wer gute Entscheidungen treffen will, kennt die alltägliche Notwendigkeit, angesichts der Fülle alternativer Handlungsmöglichkeiten situationsgerecht und vor allem schnell handeln zu müssen. Agile Optimierungssysteme, die auf Basis von Algorithmen blitzschnell neue, und qualitativ hochstehende Handlungsvorschläge errechnen, sind gerade in Umgebungen mit hoher Unsicherheit den eher statischen Big-Data-Lösungen weit überlegen. Etwa wenn eine Störung, eine Verspätung oder andere unvorhergesehene Ereignisse die betrieblichen Abläufe lahmlegen. Das gilt natürlich besonders dann, wenn sich die Erwartungen der Kunden immer mehr in Richtung einer optimalen Liefergeschwindigkeit und Termintreue verschieben. Durch die Kombination von Prognose- und Optimierungsalgorithmen mit dem Input der menschlichen Planer und der Fähigkeit, neue Situationen blitzschnell neu zu bewerten, liefert agile Optimierung eine Robustheit in den Prozessen, die Ihnen Big Data niemals bieten kann.