Geld aus Daten

Mit Industrie 4.0 rücken Daten für produzierende Unternehmen in den Vordergrund. Doch die Entwicklung von neuen, datengetriebenen Geschäftsmodellen und Services, mit denen sich Geld verdienen lässt, fällt den meisten schwer. - Bild: Adobestock/Phongphan Suppakank

Eine Umfrage des Business Application Research Centers (Barc) und Tableau Software unter 200 Unternehmen zeigt, dass auf dem Weg zu datengetriebenen Geschäftsmodellen und Prozessen noch viel Luft nach oben ist. Bisher schaffen es erst 15 Prozent, ihre Daten zu monetarisieren. Als mit Abstand größtes Hindernis dabei, Daten zu Geld zu machen, nannten 56 Prozent der Teilnehmer die mangelnde Datenqualität.

Immerhin 40 Prozent der Unternehmen planen, an Daten zu verdienen oder befinden sich schon in der Pilotphase. Das Thema neue, datengetriebene Geschäftsmodelle beschäftigt viele Unternehmen im Maschinen- und Anlagenbau. So ist man sich zum Beispiel beim Werkzeugmaschinen-Hersteller Trumpf sicher, dass in den nächsten Jahren auch mit den Daten Geld verdient werden kann, die jetzt schon vorsorglich in einem Data Lake gesammelt werden. Solche Daten-Seen nehmen auch unstrukturierte Informationen wie beispielsweise Bilder, Video und Text auf.

Was ist Big Data?

Big Data bezeichnet sehr große unstrukturierte Datenmengen, die aufgrund ihres Volumens und ihrer Geschwindigkeit nicht mehr mit manuellen Methoden verarbeitet werden können. Diese Datenmengen enstehen beispielsweise in der Industrie, wenn Sensoren Informationen an Maschinen und großen Anlagen sammeln. Die Analyse von Big Data mit Algorithmen und Künstlicher Intelligenz ermöglicht beispielsweise Anwendungen wie Fabriksteuerung, Produktionsplanung und vorausschauende Wartungsmaßnahmen im Kontext von Industrie 4.0  

Das „Big“ in Big Data bezieht sich auf die vier Dimensionen:

  • volume (Umfang, Datenvolumen),
  • velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden),
  • variety (Bandbreite der Datentypen und -quellen) sowie
  • veracity (Echtheit von Daten).

Großen Datenmengen: Warum sich die Geschäftsmodelle ändern müssen

Gerade im Bereich Machine Learning und Künstliche Intelligenz – die zum wesentlichen Treiber von automatisierten Prozessen und neuen Geschäftsmodellen werden – zeigt sich, dass die Unternehmen noch recht ratlos vor den neuen Möglichkeiten stehen. Einer Studie von PwC und Kantar Emnid unter 500 Unternehmen zufolge nutzen bisher nur sechs Prozent KI-Technologie in der Praxis. Fast die Hälfte sieht keine Relevanz für KI in ihrem Unternehmen. Bei 60 Prozent aller Unternehmen, die bereits KI-Technologie einsetzen, ändern sich allerdings auch die Geschäftsmodelle, stellt eine IDC-Untersuchung unter fast 2 500 Unternehmen fest. Es müssen aber nicht immer neue Produkte oder Services sein: Auch Einsparungen durch effizientere Prozesse, bessere Eindämmung von Verschwendung, qualifiziertere Entscheidungen und mehr Produktivität tragen dazu bei, dass Unternehmen mit ihren Daten nicht nur Geld verdienen, sondern es auch sparen können.

Daten-Monetarisierung: Big Data muss zuerst beherrscht werden

Auf seine Anwenderkonferenz lud der Datenvisualisierungs-Anbieter Tableau Software – der vor Kurzem von Salesforce gekauft wurde – gut eine Handvoll produzierende Unternehmen ein, die über ihre Erfahrungen berichteten. Die Beispiele zeigen, dass Daten-Monetarisierung nur dann funktioniert, wenn die Systeme und die Datenqualität vorher in Ordnung gebracht werden: Eine Aufgabe, die oft mehrere Jahre in Anspruch nimmt.

Wer sich perspektivisch in Stellung bringen will, muss also viel Vorbereitungszeit einplanen und Datenanalysen für möglichst viele Mitarbeiter zugänglich machen. Eine weitere Erkenntnis lautet: Das Aufbauen einer Community quer durch alle Bereiche, die sich aktiv zu Themen wie Daten-Analytik und Machine Learning austauscht, ist erfolgsentscheidend. Zugleich wurde auf der europäischen Anwenderkonferenz in Berlin deutlich, dass die Jüngeren auch deutlich Daten-affiner sind: Die überwältigende Mehrzahl der 2 500 Teilnehmer war gefühlt unter 35.

Wie HeidelCement zur Data-driven Company wird

Parallel zu einem Modernisierungsprojekt der BI-Landschaft entstand in der Heidelberg-Cement-Geschäftsführung die Idee, zur Data-driven Company zu wer­den. „Die existierenden Systeme mit dem SAP Business Warehouse waren nicht in der Lage, die wachsenden Datenmengen zu verarbeiten – vor allem vor dem Hintergrund von Industrie 4.0 und IoT wollten wir Sensordaten aus 3 000 Produktionsstandorten für kontinuierliche Verbesserung und Predictive Maintenance sammeln“, so Dominik Ruf, Self-Service BI-Experte bei Heidelberg Cement. Außerdem wollte man mit der Unzufriedenheit der User mit den zu umständlichen BI-Tools Schluss und Analysen besser für die Mitarbeiter zugänglich machen.

Bei der Auswahl eines Self-Service-BI-Tools schaute man sich die Marktführer aus dem Magic Quadrant von Gartner an und SAP. Nach dem Abgleich der Kriterienliste blieben zwei Produkte über. Diesmal wollte man alles richtig machen: „Früher hat immer die IT entschieden, welches Tool es wird, aber diesmal haben wir die Business User in die Entscheidung einbezogen“, erinnert sich Ruf. Nach einem halben Tag Training durften die Abteilungen, die sich zuvor beschwert hatten, die Tools an eigenen Anwendungsszenarien ausprobieren. 90 Prozent waren der Meinung, dass die Tableau-Lösung Nutzen für die tägliche Arbeit bringt, über das zweite Produkt sagte das weniger als die Hälfte.

"Die existierenden Systeme mit dem SAP Business Warehouse waren nicht in der Lage, die wachsenden Datenmengen zu verarbeiten."

Dominik Ruf, Self-Service BI-Experte Heidelberg Cement

Im neuen Konzept setzt man nun auf zwei Plattformen, auf einen Hadoop Data Lake und das neue SAP BW/4Hana. Für Letzteres entschied man sich für eine Green-Field-Implementierung. „Wir wollten die Gelegenheit nutzen, alte Datenmodelle komplett zu re-designen, zu vereinfachen und zu harmonisieren, um die Daten besser ‚konsumierbar‘ zu machen“, erklärt Dominik Ruf. Ursprünglich sollte Tableau die Landschaft nur ergänzen, es gelang jedoch, viele andere SAP- und Business-Objects-Tools abzulösen. Jetzt sind statt über zehn nur noch zwei Tools im Einsatz. Aufgrund limitierter Ressourcen konzentrierte man sich stark auf drei Leuchtturmprojekte mit Tableau, die dann weiter skaliert werden sollten, sobald der Nutzen bewiesen war.

Dennoch erlaubte man allen anderen Usern, schon autodidaktisch und ohne großes Reglement vorab mit der neuen Software zu arbeiten – eine gute Idee, wie sich herausstellte. Erst etwas später wurden verbindliche Governance-Leitplanken gelegt. Gleich das erste Projekt brachte Einsparungen: Bitumen ist im Geschäftsbereich Asphalt der größte Kos­ten­treiber. Indem genau visualisiert wurde, wie viel Bitumen in einer Lkw-Ladung enthalten ist, konnten Überdosierungen identifiziert und abgebaut werden: Pro Jahr und Produktionsstandort immerhin eine Einsparung von 100 000 Euro.

Wie geht BMW mit Big Data um?

Bei BMW kommt die Datenanalyse-Technologie für das Testen von Fahrzeugen zum Einsatz. Barbara Moser, Data Scientist bei der BMW AG, beschrieb die vielen Fragestellungen, bei denen Data Analytics im Testing helfen kann. Zum Beispiel: Wie viele Testkilometer hat die neueste Software für die Funktion ‚Adaptive Cruise Control‘ in einer Stadt in den USA absolviert? Wurde die Funktionalität mit der aktuellen Software-Version auf allen wichtigen Straßentypen getestet? Entstand der Fehler aufgrund des heftigen Regens oder ist er wetterunabhängig? Das System versorgt die Entwickler mit Resultaten für das Test Planning, die Defekt-Erkennung und die KPI-Ermittlung. „Daten-Analytik verbindet Menschen, die ähnliche Fragen haben“, erklärt Moser.

Auch aus ihrer Sicht ist die Community rund um die Tableau-Software besonders wichtig. Zwar ist der Fahrzeugbereich mit weltweit täglich drei Terabyte Daten aus den über 50 Bus-Systemen in jedem Fahrzeug recht speziell und „eine Herausforderung für Data Analytics“, wie Moser erklärt. Aber natürlich lassen sich vergleichbare Lösungen auch für andere Industriebereiche ableiten: Nicht nur im Testing, sondern potenziell auch dort, wo es darum geht, ein Produkt mittels digitalem Zwilling über den Produktlebenszyklus hinweg zu überwachen und durch Predictive Maintenance steuernd einzugreifen.

"Daten-Analytik verbindet Menschen, die ähnliche Fragen haben. Dabei ist die Community rund um die Tableau-Software besonders wichtig."

Barbara Moser, Data Scientist BMW AG

Warum Siemens von Excel auf Big Data umstieg

Im Rahmen des Konzernumbaus will Siemens-Chef Joe Kaeser die Sparte Gas and Power zum eigenständigen Unternehmen machen. Das Ebitda soll von jetzt vier Prozent auf acht bis zwölf steigen. Mit mehr Produktivität will man die Profitlücke schließen, die entsteht, weil Kunden weniger hohe Preise zahlen wollen und die Kosten steigen, berichtet Tony Adams, Global Business Improvement Manager Siemens AG, Power Generation Performance. Um mehr Transparenz in die Zahlen zu bringen, stieg man von Excel-Tabellen auf Big Data Analytics um.

„Wir unterstützen die Zusammenarbeit zwischen Regionen und Funktionen, das hat große Vorteile. Jeder hat eigene dedizierte Ziele, die er erreichen will. So wird eine kontinuierliche Diskussion über Produktivität ermöglicht“, meint Adams. Dafür nutzt man Alteryx als Plattform für Self-Service-Datenanalysen und die Datenvorbereitung, darauf setzen Visualisierungen mit Tableau auf. Wichtig ist für Adams an den Analyse-Tools, dass keine Programmierung nötig ist, die Einarbeitung leicht fällt und Workflows leicht mit anderen Mitarbeitern geteilt werden können.

Im neuen System werden Produktivitätsdaten mit Vergangenheitsdaten und Zielangaben verschmolzen. Alle drei Stunden gibt es Updates, die nur jeweils fünf Minuten brauchen. Zuvor waren Aktualisierungen viel seltener und vor allem sehr zeitaufwendig. Die Mitarbeiter schauen jetzt immer wieder nach, wie sich ‚ihre‘ Zahlen verändern. Diese Transparenz führt auch dazu, dass Daten konsequenter eingetragen werden. „Das ist besonders wichtig für die Datenkultur“, meint Adams. Die Strategie scheint aufzugehen: Am Ende des Fiskaljahres werde man mit den Aktivitäten 17 Prozent über den selbstgesteckten Zielen liegen. Nachdem bis jetzt vor allem an der Datenvorbereitung gearbeitet wurde, soll es im nächsten Schritt darum gehen, die Software für Predictive Analytics zu nutzen. „Wir haben so viele Daten im Bereich Gas und Power, zum Beispiel zu Umgebungstemperaturen, Energie-Output und Effizienzen, das liefert Stoff für viele interessante Modelle“, so der Improvement Manager. Mit neuen analytischen Apps könnten Kunden zum Beispiel Upgrade- oder Veränderungsvorschläge gemacht werden.

"Es ist wichtig, zu verstehen, welche Daten überhaupt im Unternehmen vorhanden sind. Besonders die Business-Probleme müssen verstanden werden."

Dr. Jiayi Yang, Head of BI CoE Sartorius AG

Sartorius: Big Data ist kein Sonntagsspaziergang

Auch wenn man Dr. Jiayi Yang, Head of BI CoE beim Pharma- und Laborzulieferer Sartorius AG, zuhört, wird klar, dass der Weg zur Data-driven Company kein Sonntagsspaziergang ist. Das Unternehmen will von 1,6 Milliarden Euro Umsatz bis 2025 auf rund vier Milliarden kommen. Für die ehrgeizigen Wachstumsziele setzt man auch auf die Digitalisierung. Bisherige Excel-Reports reichten nicht mehr aus, ihr Versand per E-Mail brachte Security-Probleme, es fehlten mobile Lösungen. Die Datenvorbereitung war zeitaufwendig und verlangte viele manuelle Schritte zwischen SAP BW und Excel. Auch für Sartorius stand als erste Stufe vor dem Sprung in Advanced Analytics die Etablierung von Self-Service-BI an.

„Es ist wichtig, zu verstehen, welche Daten und Datenquellen überhaupt im Unternehmen vorhanden sind – vor allem aber müssen die Business-Probleme verstanden werden“, sagt Jiayi Yang. Bisher gingen 80 Prozent der Zeit für die Datenvorbereitung drauf, nur 20 für Analysen: Eine typische Zahl, die in der Praxis immer wieder fällt. Ein eigenes BI Center of Excellence soll bei Sartorius jetzt die Datenvorbereitung übernehmen, bei der Data Discovery helfen und die Analytics as a Service bieten. Die Fachabteilungen definieren dafür nur die Anforderungen und konzentrieren sich auf das Business. „Man muss den Nutzen und die Einsparpotenziale von Analytik durch Use Cases demonstrieren“, meint die Expertin. Advanced Analytics und KI gelingen aus ihrer Sicht nur mit Management-Unterstützung.

Wissen, was die Industrie bewegt!

Alles zu Industrie 4.0, Smart Manufacturing und die ganze Welt der Technik.

Newsletter gratis bestellen!