Daten gelten im Digitalzeitalter neben Kapital, Arbeitskraft und Rohstoffen als vierter Produktionsfaktor. Mit neuartigen Auswertungstechniken lassen sich Trends, Zusammenhänge und Muster erkennen. So können Unternehmen das Kaufverhalten und die Kundenbedürfnisse besser und genauer vorhersagen als je zuvor.
Der Handel steht vor der ständigen Herausforderung, seinen Warenbestand so nah wie möglich am Bedarf der Kunden auszurichten. Liegt er mit seiner Prognose darunter, entgeht ihm Umsatz. Liegt er darüber, bleibt er womöglich auf der Ware sitzen. Damit hat man beim Onlinehändler Otto kein Problem mehr: Mit einer Wahrscheinlichkeit von 90 Prozent wissen die Hamburger bis zu zehn Wochen im Voraus, wie oft ein Kleid, eine Hose oder ein paar Schuhe in einer bestimmten Woche bestellt werden wird. Das schafft Otto mithilfe sogenannter „Predictive Analytics“-Lösungen, was so viel heißt wie vorausschauende Prognosen.
Entwickelt wurde die Software vom Karlsruher Otto-Beteiligungsunternehmen Blue Yonder, das sie als Cloudlösung zur Verfügung stellt. Die Prognosesoftware ist in der Lage, Informationen aus den verschiedensten Quellen zu analysieren: Maschinen- und Sensordaten, Daten aus der Produktion bis hin zu Abverkaufszahlen. Eingesetzt wird sie bereits in der Planung, Abverkaufsoptimierung und im Retourenmanagement in vielen Handelsunternehmen. „Damit reduzieren wir Restbestände und erhöhen gleichzeitig die Lieferbereitschaft, was uns bessere betriebswirtschaftliche Ergebnisse und eine höhere Kundenzufriedenheit beschert“, erklärt Michael Heller, Bereichsvorstand Categories bei Otto. Künftig will Otto mithilfe der Software auch Trends frühzeitig erkennen und seine Einkaufsbestellungen danach ausrichten.
Nahezu unbegrenzte Datenmengen
Die zuverlässigen Vorhersagen werden im Rahmen von Big Data erstellt. Vereinfacht beschrieben, verbirgt sich dahinter die Fähigkeit, enorme Datenmengen aus unterschiedlichsten Quelle zu sammeln und in sehr hoher Geschwindigkeit – fast in Echtzeit – auszuwerten. Mit speziellen Techniken und Services lassen sich Zusammenhänge beziehungsweise Muster erkennen und somit auch bessere Vorhersagen für die Zukunft treffen. Aktuell soll sich das weltweite Datenvolumen nach Schätzungen der Marktforscher von IDC bereits auf mehr als ein Zettabyte beziffern – das ist eine Eins mit 21 Nullen.
IT-Anwendungen, mobiles Internet mit Smartphones und Tablets, Cloud Computing und die Vernetzung der Geräte, Maschinen und Fahrzeuge untereinander (Machine to Machine, M2M) erzeugen ständig neue Bits und Bytes, die geteilt, verarbeitet und gespeichert werden. Bis 2022 – so die Prognosen der auf das Thema Maschinenkommunikation spezialisierten britischen Marktforscher von Machina Research – werden allein in Deutschland 650 Millionen Geräte und Maschinen miteinander vernetzt sein. Bis 2020 soll das gesamte Datenvolumen bis zur unvorstellbaren Menge von über 100 Zettabyte angeschwollen sein.
Von diesem enormen Informationspool könnten auch mittelständische Unternehmen profitieren – vorausgesetzt, sie wissen die auch hierzulande ständig zunehmende Datenflut zu nutzen. Laut Hightechverband Bitkom wuchs bei 91 Prozent der befragten Unternehmen das Datenvolumen im vergangenen Jahr im Schnitt um 22 Prozent. Die Reaktion darauf fällt ganz unterschiedlich aus: Die meisten Betriebe erhöhen lediglich ihre Speicherkapazität. Andere wiederum führen Analysetools und Cloudlösungen ein. Lediglich ein Viertel der Firmen erkennt die Chance und stellt Big-Data-Experten ein. Spezielle Programme, etwa die Prognosesoftware von Blue Yonder, Parstream, Splunk oder SAP, sowie Big-Data-Infrastruktur und -Dienstleistungen setzt sogar nur jedes zehnte Unternehmen ein.
Mehr Ordnung im Datenchaos
Die Herausforderung für Unternehmen besteht darin, ihre Datenschätze zu heben und sie so aufzubereiten, dass sie auf deren Grundlage effizienter arbeiten, bessere und schnellere Entscheidungen treffen und sogar neue Geschäftsmodelle entwickeln können. Bei der Auswertung dieser Datenmengen helfen neuartige Datenbanken, linguistische Analysen und Visualisierungs-Tools. Zusammen mit immer leistungsstärkeren Superrechnern und Breitbandnetzen sowie Speichermöglichkeiten in der Cloud entstehen Big-Data-Anwendungen, wie sie etwa Otto nutzt.
Die Einsatzmöglichkeiten der Big-Data-Ergebnisse sind vielfältig, am häufigsten werden sie jedoch im Marketing und im Vertrieb genutzt. Sie ermöglichen es zum Beispiel, Absatzprognosen für Wochen im Voraus zu erstellen und die Preise daraufhin zu optimieren. Im Bereich Finanzen, Buchhaltung und Controlling können Daten damit wesentlich schneller ausgewertet und Empfehlungen für die Geschäftsführung gegeben werden. Logistiker nutzen sie, um ihre Lieferprozesse zu verschlanken und ihre Flotten effizienter zu managen. Fertigungsunternehmen lasten ihre Maschinen und Mitarbeiter besser aus. Banken und Versicherungen entwickeln maßgeschneiderte Angebote für ihre Kunden – mit dem geringsten Risiko für das Geldinstitut. „Die möglichen Einsatzgebiete von Big Data umfassen faktisch alle Bereiche, in denen größere Datenmengen verarbeitet werden: von betriebswirtschaftlichen Anwendungen über die wissenschaftliche Forschung bis hin zur Medizin“, sagt Bitkom-Präsident Dieter Kempf.
Nicht zuletzt lassen sich mit Big-Data-Unterstützung auch neue Geschäftsmodelle aufziehen: Das Hamburger Start-up Kreditech etwa ermöglicht mit Big Data und komplexen, selbstlernenden Algorithmen schnelle und nachhaltige Kreditentscheidungen. Die Technologie dahinter ist vollautomatisiert. Sie identifiziert Personen online innerhalb weniger Sekunden und errechnet ihren Kreditscore mithilfe von bis zu 15.000 verschiedenen Datenpunkten. Bei Kreditechs Tochtergesellschaften im Ausland, Zaimo und Kredito24, schließt der Kunde den gesamten Antragsprozess binnen Sekunden papierlos ab. Kunden können sich online, mobil oder per SMS bewerben. Im Anschluss bekommen sie das Geld innerhalb von weniger als 15 Minuten auf ihr Bank- oder Kreditkartenkonto überwiesen oder heben es direkt an einem Geldautomaten ab.
Im Rahmen der gesetzlichen Vorgaben
Das Thema Datenschutz allerdings ist bei Big Data ein sensibler Punkt, weil bei fast allen Anwendungen personenbezogene Informationen verarbeitet werden. Unternehmen müssen daher die gesetzlichen Vorgaben des Datenschutzrechts beachten. Das fängt damit an, dass Kunden ausdrücklich darüber informiert werden müssen, welche Angaben von wem, wie und wofür genutzt werden – worin sie dann explizit einwilligen müssen. Ermittelte Standortdaten dürfen für Auswertungen grundsätzlich nur anonymisiert oder mit Einwilligung des Kunden genutzt werden. Aber auch, wenn sich bei den anonymisierten Daten aufgrund einer Verkettung mit sonstigen Erklärungen der Bezug zu einer Einzelperson herstellenlässt, kann es sich um personenbezogene Angaben handeln, sodass auch hier geltendes Recht streng beachtet werden muss.
Eine komplexe Materie, die viele Unternehmen scheuen. So nutzt denn auch die Hälfte der vom Bitkom befragten Unternehmen nicht alle Informationen, die ihnen technisch zur Verfügung stehen. Fast ein Drittel der Firmen befürchtet nämlich Kritik durch Kunden und ein Viertel hat Angst vor öffentlicher Kritik, die einen Imageschaden zur Folge haben könnte. Ein Fünftel gibt rechtliche Ursachen an, 15 Prozent nennen ethisch-moralische Gründe. Das größte Hemmnis zum Einsatz von Big Data ist jedoch für 70 Prozent der befragten Unternehmen der Mangel an entsprechenden Experten in diesem noch recht jungen IT-Bereich. Gebraucht werden sogenannte Data Scientists, deren Aufgabe es ist, alle Informationen vorzubereiten, die prognostischen Modelle für das jeweilige Einsatzgebiet zu entwickeln und die Ergebnisse den Fachabteilungen zugänglich zu machen.
(c) Bitkom
Unternehmen, die sich entschließen, von den schier unendlichen Möglichkeiten der Datenanalyse in Echtzeit zu profitieren, müssen sorgsam planen. „Die Projektverantwortlichen sollten anfangs ermitteln, was genau sie mit Big Data erreichen wollen, und dazu eng mit den betreffenden Fachbereichen zusammenarbeiten“, rät Uwe Weiss, CEO von Blue Yonder. Dann gelte es, den passenden Anbieter zu finden und eine Datenbankstrategie zu entwickeln. Auch sollte man sich Best Practices anderer Unternehmen anschauen und aus deren Erfahrungen lernen. „Big Data Analytics ist eine Unternehmensfähigkeit, die man nicht vollständig kaufen kann, sie muss im Unternehmen in allen Abteilungen – nicht nur in der IT – wachsen“, erklärt Mike Hummel, Technikchef und Mitgründer von Parstream. Sinnvoll sei es, sich ein aktuelles Problem vorzunehmen, das sich mit Datenanalyse besser verstehen oder sogar lösen ließe. Neben Mitarbeitern aus allen Fachbereichen, die sich mindestens vier Wochen Vollzeit mit dem Projekt befassen sollten, gehören seiner Empfehlung nach auch externe Fachberater zu den Projektteams. Denn die Materie ist hoch komplex: „Für jedes Unternehmen gibt es eine passende Lösung“, sagt er. „Aber es gibt keine Lösung, die für alle Unternehmen passt.“