Das Unternehmermagazin aus der Handelsblatt Media Group

Creditreform

Informationen aus unterschiedlichen Quellen zu sammeln, ihnen eine Struktur zu verpassen und sie anschließend auch noch nutzbringend auszuwerten – für diese Vorgehensweise steht der trendige Schlüsselbegriff „Big Data“. Lohnt sich das auch für mittelständische Unternehmen und wie sollten sie dabei vorgehen?

Die Informationssammelwut erfasst inzwischen sämtliche Branchen und alle Unternehmensbereiche. „Die Analysen liefern den Unternehmern die Grundlage für fundierte Entscheidungen“, sagt Mathias Weber, Experte beim Berliner Digitalverband Bitkom. Big Data wird derzeit wie eine wissenschaftliche Wunderwaffe gehandelt, mit der sich allerlei Wunschresultate erzielen lassen. „Damit können Unternehmen ihre Produktivität erhöhen oder das Umsatzwachstum ankurbeln“, führt Weber aus. Oder neue Produkte einführen. Oder geeignete Bewerber für einen vakanten Arbeitsplatz herausfiltern.

Nach der aktuellen Studie „Big Data use cases 2015 – getting real on data monetization“ des Business Application Research Center (BARC) profitieren davon nicht nur die großen Firmen. „Vorreiter sind Unternehmen, die entweder ohnehin ein Geschäftsmodell haben, das sehr stark auf Daten und Informationen aufsetzt, oder die in Branchen tätig sind, in denen eine hohe Wettbewerbsintensität herrscht“, erklärt Carsten Bange, Geschäftsführer von BARC und Herausgeber der Studie. Dazu zählen hierzulande beispielsweise Firmen aus der Automobilindustrie sowie Unternehmen aus den Segmenten Maschinenbau, Energie, Handel, Chemie und Pharma, wie die Beratungsgesellschaft KPMG in einer aktuellen Analyse herausgefunden hat. Marketing und Vertrieb sind die Vorreiter in puncto Big Data, aber auch in allen anderen Unternehmensbereichen finden sich heute schon ausreichend Anwendungsfälle – von der Produktion über den Vertrieb bis hin zum Controlling oder zur Logistik.

Doch was ist Big Data eigentlich genau und wie können Unternehmen davon profitieren? Nach allgemeingültiger Definition steht der Begriff für Datenmengen, die zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und klassischen Methoden der Datenverarbeitung auszuwerten. Das „Big“ bezieht sich auf diese drei Dimensionen: Volumen (volume), Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden (velocity), und Bandbreite der Datentypen und -quellen (variety). Erweitert wird diese Definition um die Begriffe „value“ und „validity“, die für den unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.

„Der Begriff Big Data erzeugt bei den meisten erst einmal Angst.“ Henning von Kielpinski, Consol Consulting

Das Ganze klingt wissenschaftlich kompliziert und wirkt auf viele Firmenchefs erst einmal abschreckend. „Der Begriff ist häufig das Problem – er erzeugt bei den meisten erst einmal Angst“, stellt Henning von Kielpinski, Leiter Business Development beim Münchner Beratungsunternehmen Consol Consulting, fest und ergänzt: „Wir müssen den Leuten erklären, dass Big Data weder ein Tool noch eine Methode ist. Es ist ein Konzept, mit Daten umzugehen und Informationen aus Daten herauszunehmen, um langfristig Vorteile für ein Geschäftsmodell zu haben.“ Seine vereinfachte Definition lautet daher: „Die effiziente Nutzung von Daten, um zukünftige Entwicklungen vorherzusagen.“ Unterm Strich kann sich das Ergebnis sehen lassen: Unternehmen, die den Nutzen durch den Einsatz von Big Data heute bereits genauer beziffern können, gehen nach BARC-Angaben von einer durchschnittlichen Umsatzsteigerung von acht Prozent und einer Kostensenkung um zehn Prozent aus.

Hat ein Mitarbeiter vor, zu kündigen?

Beeindruckende Zahlen, die zum Beispiel auch im Bereich Personalwesen erzielt werden können: Die auf Big Data basierende Software des kalifornischen Cloud-Anbieters Workday weist Personaler rechtzeitig darauf hin, wann bestimmte Mitarbeiter kündigen könnten. Dafür durchforstet das Programm Statistiken aus verschiedenen Branchen sowie die Jobtypen und die Daten des Unternehmens. So wird etwa herausgefiltert, nach wie vielen Jahren Betriebszugehörigkeit Mitarbeiter mit vergleichbarem Werdegang und entsprechenden Qualifikationen im Durchschnitt kündigen. Basierend auf ähnlich gelagerten Fällen, berechnet die Software anschließend das Kündigungsrisiko für bestimmte Arbeitnehmer. Doch damit nicht genug: Sie schlägt auch Maßnahmen vor, wie diese im Unternehmen gehalten werden können. Im Einsatz ist die Software bereits bei großen US-Unternehmen wie Netflix, Yahoo und Tripadvisor.

Die ersten Praxiserfahrungen haben auch gezeigt, dass Unternehmen für die Umsetzung ihres Big-Data-Konzepts vor allem drei Dinge benötigen: Eine Leitidee, was sie am Ende erreichen wollen. Die Technik, dies umzusetzen. Und insbesondere einen Wandel in ihrer Unternehmenskultur. „Big-Data-Initiativen sind nur dann erfolgreich, wenn der Chef diese vorantreibt“, erklärt von Kielpinski. Nach einer Untersuchung von Capgemini und dem Big-Data-Dienstleister Informatica ist es mehr als doppelt so wahrscheinlich, dass ein Big-Data-Vorhaben profitabel ist, wenn es im operativen Geschäft verankert ist. „Der Chef muss auch bereit sein, in einem gewissen Maße Fehler zu begehen“, meint von Kielpinski.

Den kostenlosen Leitfaden zum Einsatz von Big Data des Branchenverbands Bitkom finden Sie hier.

Ein Vorgehen, das jedoch nicht gerade zu den Paradedisziplinen deutscher Firmenchefs gehört. Daher sei es ratsam, zunächst mit kleinen Initiativen zu beginnen, bei denen sich der Erfolg schnell einstellt und in der Folge auch die Skeptiker im Betrieb überzeugt. Unternehmen könnten im ersten Schritt beispielsweise bestimmte Kennzahlen oder Prozesse optimieren. Eher ungeeignet für den Anfang sind dagegen Projekte, die personenbezogene Daten beinhalten und damit gleich eine ganze Reihe von datenschutzrechtlichen Fragen aufwerfen. „Die übliche Vorgehensweise für uns als Berater ist die, dass wir mit dem Kunden erörtern, welche Daten sie haben und was genau sie vorhaben. Im nächsten Schritt erfolgt ein mehrtägiger Workshop beim Kunden mit allen beteiligten Fachabteilungen, in denen die Potenziale identifiziert und die nächsten Schritte des Big-Data-Pilotprojekts besprochen werden“, schildert Christian Friese, Account Manager beim IT-Dienstleister Consol, den Ablauf.

Was die technischen Aspekte angeht, nutzen Unternehmen am häufigsten noch Standard-Business-Intelligence- (BI) oder sogenannte Data-Discovery-Software wie Prevero, Tableau oder Qlikview, um ihre vorhandenen Daten – Stammdaten, Produktionsdaten, Transaktionsdaten – zu analysieren und aufzubereiten. Unternehmen, die ihre Prozessketten durchgehend digitalisiert haben, sind dabei deutlich im Vorteil und können alle relevanten Informationen zentral zur Verfügung stellen. Das im Zusammenhang mit Big Data viel zitierte Hadoop – ein hochverfügbares, leistungsfähiges Dateisystem zur Speicherung und Verarbeitung sehr großer Datenmengen – ist nicht immer erforderlich. Oft genügen vorhandene Datenbanken wie etwa SQL den betrieblichen Ansprüchen. In Zukunft werden nach Experteneinschätzung diese aber immer häufiger ergänzt durch spezielle Big-Data-Software mit analytischen Fähigkeiten (Predictive Analytics), wie sie etwa Blue Yonder, Cloudera, Parstream, PM-one, Teradata, Informationbuilders, SAS oder Celonis anbieten.

Auf die BI-Software Qlikview setzt man zum Beispiel auch beim in Hutthurm bei Passau ansässigen Verpackungsunternehmen ES-Plastic. Das Programm wird in nahezu allen Bereichen des Betriebs eingesetzt, um bisher verborgen gebliebene Einblicke in Prozesse und Projekte zu gewähren: Umsatzanalysen werten etwa das Kaufverhalten von Kunden aus, die saisonabhängig bestellen. Anhand verschiedener Parameter kann das Management genau sehen, wie und wann beispielsweise das Geschäft mit Grillgutverpackungen anläuft, ob bestimmte Produkte gut laufen und ob die Mindestbestände vorrätig sind. Daraus leiten die Führungsverantwortlichen anschließend die richtigen Produktionsmengen ab. Lieferengpässe oder Überschussmengen gehören damit der Vergangengheit an.

Was Big Data bringt

Was das Sammeln und Auswerten von strukturierten Informationen angeht, befinden sich die Unternehmen noch in der Lernphase. Entsprechend dürftig fällt derzeit der Nutzen für sie aus. Das Ergebnis einer KPMG-Umfrage: 29 von 100 befragten Unternehmen haben durch den Einsatz von Big Data den Umsatz erhöht, nur 14 Kosten reduziert. Immerhin noch 31 Unternehmen gaben an, durch Big Data Risiken minimiert zu haben.

Ein anderes Beispiel aus dem bayerischen Betrieb: Die Logistikabteilung kontrolliert mithilfe der Software, ob auch der Transport der Ware wie geplant verläuft. So wird etwa geprüft, wie viele und welche Waren die Mitarbeiter verladen. Zudem werden im Warenausgangsbereich Daten aus einer eigenentwickelten Lkw-Steuerungssoftware ausgewertet: Wann kommen die Transporter an, wann fahren sie ab, wie gut ist ihr Laderaum ausgelastet und weshalb gehen Fahrzeuge verspätet auf die nächste Tour? Regelmäßig verschaffen sich so die Verantwortlichen mit wenigen Klicks einen Überblick über die gesamte Unternehmenssituation, sehen bis auf die Schichtebene, wo es nicht läuft, und können, wenn nötig, sofort gegensteuern.

Schneller sein als die Marktführer

Dagegen nutzt Schukat Electronic in Monheim Big-Data-Technologien, um sich im Wettbewerb gegen international agierende Branchenriesen wie Amazon und Co. behaupten zu können. Für den Katalogdistributor, spezialisiert auf Elektronikteile, kommt es vor allem darauf an, die Bestellungen der Kunden so schnell wie möglich zu bearbeiten und konstant lieferfähig zu sein. Voraussetzung dafür ist ein effizientes Lager-, Liefer- und Bestellmanagement. Mit den klassischen Auswertungsmöglichkeiten beispielsweise eines ERP-Systems stieß Schukat schon bald an seine Grenzen. Die Geschäftsführung wünschte sich detailliertere Einblicke in die laufenden Prozesse – und zwar in Echtzeit. Sie führte deshalb zunächst die In-Memory-Datenbank SAP Hana und anschließend die Big-Data-Software Celonis Process Mining ein. Bei der Auswahl der Software waren sowohl der Chef als auch die Mitarbeiter, die in ihrem Arbeitsalltag damit umgehen müssen, mit im Boot.

Gerade einmal zwei Wochen dauerte es, bis das Unternehmen die Vorteile der ersten Big-Data-Auswertungen genießen konnte. Dank der Software haben die Mitarbeiter heute völlige Transparenz über die Abläufe im Einkauf, in der Lagerhaltung und im Vertrieb. „Auf Grundlage der gewonnenen Daten erkennen wir nun Engpässe viel früher. Wir können unsere Vertriebsprozesse besser steuern und beschleunigen. Das Ergebnis ist eine höhere Servicequalität und Kundenzufriedenheit“, erklärt Thomas Reichmann, Prozessverantwortlicher und Assistent der Geschäftsführung.

„Wer nicht mitzieht, wird auf Dauer nicht überlebensfähig sein.“ Michael Feindt, Blue Yonder

Vor allem im Handel ist es notwendig, die steigenden Kundenanforderungen zu erfüllen. Dafür müssen vielerorts neue Technologien her. „Händler setzen vor allem auf Machine-Learning-Algorithmen“, sagt Michael Feindt, Gründer und Chief Scientific Advisor von Blue Yonder, einer Tochtergesellschaft des Otto- Konzerns. Mithilfe dieser Rechenoperationen können Programme eigenständig Lösungen finden. Wichtige operative Entscheidungen, die zuvor von Führungskräften oder der Geschäftsleitung gefällt werden mussten, werden nun automatisiert. „Auf Basis der gewonnenen Daten können wir etwa die Warendisposition, die Preise und auch die Kundenansprache optimieren“, so Feindt und ist sich sicher: „Wer hier nicht mitzieht, wird auf Dauer in diesem Wettbewerb nicht überlebensfähig sein.“

Der Otto-Konzern konnte mithilfe der Software zum Beispiel die Zahl der Retouren deutlich reduzieren. Um dieses Ziel zu erreichen, wurden große Datenmengen aus unterschiedlichen Quellen miteinander verknüpft und Zusammenhänge aufgezeigt, an die bisher kein Mitarbeiter gedacht hatte. Beispielsweise trugen bessere, detailliertere Erklärungen und Beschreibungen im Onlineshop, eine verbesserte Bestellunterstützung sowie kürzere Lieferzeiten zu mehr Kundenzufriedenheit und folglich zu einer Senkung der Rücksendequote bei. Das Besondere daran: Erstmals konnten verschiedene Informationsarten zusammengebracht werden: strukturierte, leicht quantifizierbare Daten wie die Dauer der Lieferzeit sowie unstrukturierte, vom Kunden meist subjektiv empfundene Aspekte wie die ausreichend detaillierte Beschreibung eines Produkts.

Mehr Überblick durch individuelle Auswertungen

Auch das IT-Beratungsunternehmen Consol hat eine Big-Data- Lösung im Einsatz: „Wir arbeiten meist projektbezogen. Wir müssen wissen, welche Projekte gut laufen und welche nicht. Wie sich die Zeitverläufe entwickeln, die Rechnungsstellungen und die Zahlungseingänge. Oder wie hoch unsere tatsächlichen Aufwände im Vergleich zu unseren Kalkulationen sind“, erklärt Henning von Kielpinski. Dank der automatisierten Informationsauswertung läuft alles nun viel schneller und präziser ab: Mussten er und seine Kollegen früher noch bis zu vier Wochen auf die Auswertungen eines Auftrags durch die Mitarbeiter des Controllings warten, können sie nun ihre Reports mithilfe der Software selbst zusammenstellen. Und wissen innerhalb einer Stunde, was ein Projekt unterm Strich für Rendite abgeworfen hat.

Höhere Transparenz und mehr Geschwindigkeit – dies sind zwei wichtige Argumente, die für Big Data sprechen. „Das größte Potenzial von Big Data liegt jedoch in der Entwicklung neuer Geschäftsmodelle“, ist Mathias Weber vom Bitkom überzeugt. In Kombination mit anderen Technologien entstehen zahlreiche neue Services. Wie etwa die neue Web-Plattform des Elektronikversenders Conrad: Nutzer sollen über „Conrad Connect“ ihre Geräte mitsamt den darauf befindlichen Daten herstellerübergreifend steuern und intelligent miteinander vernetzen. Diese kommunizieren selbstständig über das Internet und erledigen verschiedene Aufgaben für den Besitzer. Ein Beispiel: Wenn sich der Terminkalender mit der Wetter-App abstimmt, wird an Tagen, an denen eine Dienstreise ansteht, aber Schneefall vorhergesagt wird, dem Anwender vorgeschlagen, doch besser mit der Bahn zu fahren. Willkommen in der neuen Datenwelt!

 

 

Sicherheit und Datenschutz bei Big Data

Mit seinen „Leitlinien für den Big-Data-Einsatz“ hat der Berliner Digitalverband Bitkom eine Richtschnur für einen ethisch und juristisch einwandfreien Einsatz von Big-Data-Analysen für Unternehmen entwickelt. Die wichtigsten Eckdaten:

– Den Nutzen prüfen. Sinn machen Big-Data-Anwendungen nur, wenn sie einen klar erkennbaren Nutzen für die Verbraucher, Kunden oder die Gesellschaft haben.

– Für Transparenz sorgen. Die Betroffenen sollen erkennen können, welche ihrer personenbezogenen Daten in welcher Weise verarbeitet werden.

– Personenbezogene Daten anonymisieren. Soweit die Verarbeitung von anonymisierten oder pseudonymisierten Daten denselben Nutzen für die Beteiligten hat, sind solche Verfahren vorzuziehen.

– Interessen abwägen. Personenbezogene Daten dürfen verarbeitet werden, wenn berechtigte Interessen der verantwortlichen Stelle dies rechtfertigen und dem keine überwiegenden Interessen der Betroffenen entgegenstehen. Unter diesen Voraussetzungen ist es zulässig, Daten zu verwenden, die ursprünglich für einen anderen Zweck erhoben wurden. Liegen die Bedingungen nicht vor, dürfen die Daten nur verarbeitet werden, wenn die Betroffenen einwilligen.

– Einwilligungen einholen. Wenn die Informationsverarbeitung eine Einwilligung erfordert, muss dies für die Betroffenen klar erkennbar sein.

– Mehrwert schaffen. Big-Data-Anwendungen sollten auch einen Nutzen für Betroffene haben, die ihre Daten für die Bearbeitung zur Verfügung stellen.

– Aufsicht etablieren. Unternehmen sollten dafür sorgen, dass eine gründliche Überprüfung von Zulässigkeit und Notwendigkeit von Big-Data-Anwendungen garantiert ist, der verantwortungsvolle Umgang mit Big Data gesichert ist und die Rechte und Interessen der Betroffenen – interne wie externe Personen – gewahrt sind. Bei diesen Aufgaben kommt dem betrieblichen Datenschutzbeauftragten eine wichtige Rolle zu.

– Daten schützen. Wer Big-Data-Anwendungen einsetzt, sollte ausreichende technische und organisatorische Schutzmaßnahmen nutzen, um unberechtigte Zugriffe auf personenbezogene Daten zu verhindern.

– Ethik und Moral beachten. Datenerhebungen, Verknüpfung von Daten oder andere Datenverarbeitungen zu unlauteren Zwecken sind unbedingt zu unterlassen. Das Gleiche gilt, wenn die Erhebung, Verknüpfung oder Verarbeitung der Daten den Betroffenen schaden können.

 

©  okalinichenko / Fotolia (Montage)

© okalinichenko / Fotolia (Montage)

 

„Größe ist keine Grundvoraussetzung für Big Data“

Carsten Bange, Geschäftsführer von BARC und Herausgeber der Studie „Big Data use cases 2015 – getting real on data monetization“ spricht im Interview über die optimale Vorgehensweise, die Chancen von Big-Data-Projekten und warum Unternehmen am besten sofort damit starten sollten, Informationen gezielt zu sammeln, zu strukturieren und auszuwerten.

Herr Bange, wie sind die kleinen und mittelgroßen Unternehmen in Sachen Big Data aufgestellt?

Viele Projekte werden momentan eher bei großen Unternehmen gestartet. Größe ist aber keine Grundvoraussetzung für Big Data. Es ist einfach eine neue Chance, neue Datenquellen zu nutzen, sowie eine sehr innovative und erkenntnisreiche Form der Datenanalyse. Und davon können Unternehmen jeder Größenordnung profitieren.

Welche Betriebe übernehmen in puncto Informationsverwertung die Vorreiterrolle?

Das sind Unternehmen, die entweder ohnehin ein Geschäftsmodell haben, das sehr stark auf Daten und Informationen basiert, oder die in Branchen tätig sind, in denen eine hohe Wettbewerbsintensität herrscht. Vorreiter sind Unternehmen aus der Telekommunikation und dem Finanzbereich, und gerade in Letzteren gibt es mit den Fintecs auch kleine Unternehmen, die mit Big-Data-Auswertungen ein erfolgreiches Geschäftsmodell aufbauen. Wir sehen viel Aktivität in den Bereichen Handel und Industrie und in allen Formen von Services.

Was wollen Unternehmen Ihrer Erfahrung nach derzeit mit Big Data erreichen?

Die Ziele sind vergleichbar mit denen von Digitalisierungsinitiativen: Einmal steht hier die Verbesserung existierender Prozesse im Vordergrund. Ein zweites wichtiges Ziel ist das eigene Produkt- oder Leistungsangebot bis hin zum Geschäftsmodell zu erweitern und zu verändern, um etwa mit datenbasierten Produkten neue Umsatzpotenziale zu erschließen.

Was entscheidet letztendlich über Erfolg oder Misserfolg von Big-Data-Projekten?

Der Startpunkt sind typischerweise die Ideen, wie Daten und Datenanalysen zur Prozessverbesserung oder zur Veränderung des Geschäftsmodells beitragen können. Am Anfang stehen Kreativität und Innovation. Die zu fördern und eine Entwicklung und das Ausprobieren von Ideen bis hin zu ihrer Umsetzung zuzulassen, bedarf allerdings der umfassenden Unterstützung des Managements. Ergänzend werden Fähigkeiten zum Datenmanagement und zur Datenanalyse benötigt. Die Innovationskultur bedeutet auch, dass man eine hohe Geschwindigkeit an den Tag legt, neue Ideen nicht nur zu generieren, sondern auch auszuprobieren.

Was sind Ihrer Erfahrung nach die größten mit Big Data verbundenen Herausforderungen?

Die großen Herausforderungen sind Datenschutz, Datensicherheit sowie fehlendes technisches und fachliches Know-how. Aber das größte Problem ist zu langes Zaudern, statt mit kleinen Projekten loszulegen. Denn fehlende Geschwindigkeit kann in einer digitalen Ökonomie durchaus zum existenziellen Problem werden. Die gute Nachricht lautet: Die Herausforderungen sind lösbar, wenn man das Thema ernsthaft angeht.