Symbolbild: Big Data als Geldquelle - transparente Balken und Zahlen kommen aus Münzen neben einem Laptop

Mit Industrie 4.0 rücken Daten für produzierende Unternehmen in den Vordergrund. Doch die Entwicklung von neuen, datengetriebenen Geschäftsmodellen und Services, mit denen sich Geld verdienen lässt, fällt den meisten schwer. (Bild: Adobestock/Phongphan Suppakank)

Viele Unternehmen verfolgen das Ziel, Entscheidungen und Prozesse möglichst auf Basis von Daten zu treffen, um so wettbewerbsfähiger zu werden. Dies zeigt eine Umfrage des Beratungsunternehmens BARC mit 1.823 Personen aus verschiedenen Branchen (Data, BI and Analytics Trend Monitor 2023). Demnach braucht es, um ein datengetriebenes Unternehmen zu werden, neben Investitionen in Technologie oft einen Kulturwandel in der Firma, sodass alle Mitarbeitenden involviert sind und die Daten wirklich nutzen.

Vor allem werden aber Daten von hoher Qualität und Stammdaten-Management benötigt. Entscheidungen, Vorhersagen oder KI-Training – all dies sollte auf Basis zuverlässiger, widerspruchsfreier Daten geschehen. Erfolgsfaktoren sind dabei: klar definierte Rollen und Verantwortlichkeiten, Qualitätssicherungsprozesse, kontinuierliche Überwachung der Datenqualität und vor allem Bewusstsein und Transparenz über die Auswirkungen schlechter Datenqualität.

Was ist Big Data?

Big Data bezeichnet sehr große unstrukturierte Datenmengen, die aufgrund ihres Volumens und ihrer Geschwindigkeit nicht mehr mit manuellen Methoden verarbeitet werden können. Diese Datenmengen entstehen beispielsweise in der Industrie, wenn Sensoren Informationen an Maschinen und großen Anlagen sammeln. Die Analyse von Big Data mit Algorithmen und Künstlicher Intelligenz ermöglicht beispielsweise Anwendungen wie Fabriksteuerung, Produktionsplanung und vorausschauende Wartungsmaßnahmen im Kontext von Industrie 4.0  

Das „Big“ in Big Data bezieht sich auf die vier Dimensionen:

  • volume (Umfang, Datenvolumen),
  • velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden),
  • variety (Bandbreite der Datentypen und -quellen) sowie
  • veracity (Echtheit von Daten).

Was ist eine gute Datenstrategie und warum braucht man eine?

Um das Potenzial von Big-Data-Technologie zu nutzen, sollten Unternehmen eine Datenstrategie beziehungsweise Strategie für die Datenanalyse haben. Ansonsten kann es passieren, dass die Investitionen in Technologie und Infrastruktur sich nicht in der erwarteten Weise auszahlen. PWC hat im Jahr 2021 in einer Studie Datenstrategien von 50 Unternehmen analysiert. Demnach bezieht eine Datenstrategie fünf Bereiche ein:

  1. Die Organisationsstruktur: Ressourcen, Aktivitäten, Zusammenarbeit und Daten-Governance
  2. Unternehmenskultur und Umgang mit personellen Ressourcen: Aufbau von Expertise im Unternehmen
  3. Das Betriebsmodell für Daten und Datenanalyse: Wie wird entschieden, welche Use-Cases implementiert werden?
  4. Plattform-Landschaft: Ziel sollte ein bereichsübergreifende, zentrale Daten-Plattform sein, die 80 Prozent der Bedürfnisse abdeckt. 20 Prozent dürfen Ausnahmen sein.
  5. Philosophie für den Datenzugang: Wer darf auf die Daten zugreifen, welche Daten werden geschützt?

Was zeichnet eine erfolgreiche Datenstrategie aus?

  • Die Führungsebene treibt und unterstützt Strategien und Initiativen für Datenanalyse.
  • Es gibt klare Ziele, was mit der Datenstrategie erreicht werden soll.
  • Geschäftsbereiche müssen ihre Ideen und Skills einbringen und die Entscheidungshoheit behalten, auch bei zentralem Ansatz.
  • Die Unternehmenskultur wird berücksichtigt.
  • Mitarbeitende werden zu Daten-Analysten und -Analystinnen, auf allen Ebenen.
Symbolbild Datenmanagement, Datenanalyse und Datenstrategie: Person sitzt vor Bildschirm; es werden Diagramme angezeigt
Damit sich die Investitionen in Datenanalyse auszahlen, benötigen Unternehmen eine Daten-Strategie. (Bild: Tn-stock.adobe.com)

Wie entwickeln Unternehmen erfolgreiche Datenstrategien? (Schritt-für-Schritt)

Das Beratungsunternehmen PWC empfiehlt auf Basis der oben genannten Studie folgende Schritte:

  • Anfänger:
    • Vision für den Umgang mit Big Data entwickeln und Führungsebene einbinden
    • Bestehende Big-Data-Analysen konsolidieren, Mitarbeitende weiterbilden zum Daten-Thema
    • Kosten-Nutzen-Verhältnis für erste Ergebnisse feststellen und Erfolgsgeschichten im Unternehmen teilen
  • Fortgeschrittene:
    • Geschäftseinheiten animieren, Verantwortung für ihre Ideen und Projekte im Bereich Big Data zu übernehmen
    • Führungsposition für dieses Thema einrichten: Chief Data Analytics Officer
  • Profi:
    • Auf Basis der Datenanalysen neue Services für Kunden entwickeln
    • Produkte und Services verbessern; personalisierte, zukunftsgerichtete Lösungen anbieten
    • Komplettes Ökosystem für die Data-Mining und vorausschauende Analytik (siehe Kasten).

Was ist Data-Mining?

Beim Data-Mining stellt man in einer großen Menge von Daten interessante beziehungsweise nützliche Muster fest. Es handelt sich um eine Form der mathematischen Datenanalyse mit Hilfe von Algorithmen. Zum Beispiel werden so Einkaufs-Empfehlungen erstellt.

Was ist Predictive-Analytics?

Predictive-Analytics (vorausschauende Analytik) nutzt eine Reihe von Methoden und Werkzeugen, um aus historischen Daten Vorhersagen über künftige Ereignisse abzuleiten. Zu diesen Methoden gehören: Data-Mining, maschinelles Lernen, Elemente der Spieltheorie, Simulationsverfahren und weitere Analyse-Methoden.

Data-Warehouses und Data-Lakes: Wie läuft Datenmanagement momentan ab?

PWC und Statista haben in einer Studie von Dezember 2021 bis Januar 2022 den Umgang mit Daten in der Industrie untersucht. Dabei wurden 152 IT-Entscheidungsträgerinnen und -träger aus deutschen Unternehmen mit mehr als 500 Mitarbeitenden verschiedener Branchen befragt.

Was sie dabei herausgefunden haben, ist: Diese Personengruppe treibt mit ihren Teams eine Reorganisation der Daten voran. Bisher werden die Daten für analytische Zwecke meist in zentralen Datenplattformen gehalten, den Data-Warehouses. 84 Prozent der Unternehmen gaben in der Studie an, ein Data-Warehouse einzusetzen.

Als Big Data ein Thema wurde, fügten Unternehmen oft einen Data-Lake hinzu, der alle Arten von Daten aufnehmen kann, beispielsweise als Basis für Machine-Learning-Anwendungen. Heute nutzen Unternehmen für das Management ihrer Big Data meist Cloud-Anwendungen der großen Anbieter, wie Microsoft Azure, Amazon Web Services oder Google Cloud Platform. Einige Unternehmen verknüpfen Data-Lakes und -Warhouses. Diese Architektur wird dann Data-Lakehouse genannt: Im Data-Lake werden Rohdaten für Analysen gespeichert. Ein Teil der Daten wird im Data-Warehouse verarbeitet. Auf der Seite des Personals gibt es ein zentrales Team für die Datenanalyse, oft data lab oder centres of excellence genannt. Für den Anfang schien das die beste Lösung zu sein.

Warum ändern aktuell viele Unternehmen ihr Datenmanagement?

Inzwischen ist die Zahl der datengetriebenen Lösungen gestiegen und diese zentralisierten Strukturen sind oft ein Flaschenhals im Prozess: Zu wenige Personen wissen mit der neuen Technologie umzugehen. 54 Prozent der befragen Senior-Führungskräften sehen Verbesserungsbedarf vor anderem bei der Daten-Qualität, der Datenverarbeitungs-Kompetenz im Unternehmen, bei der eingesetzten Technologie und bei der Art und Weise, wie neu entwickelte Anwendungsfälle empirisch messbar gemacht werden.

Deshalb modernisieren aktuell viele der Unternehmen ihr Datenmanagement und ihre Werkezeuge für die Datenanalyse. Außerdem arbeiten sie daran, ihre Kompetenzen in der Datentechnik und -wissenschaft auszubauen.

Gleichzeitig geht der Trend weg vom komplett zentralisierten Ansatz. Als vielversprechend schätzen die befragten Personen das Data-Mesh ein, ein Konzept für Datenarchitektur, das Zhamak Deghani 2019 vorgestellt hatte. Eine solche Plattform-Architektur kombiniert eine dezentrale Datenhaltung mit zentralen Richtlinien und Plattform-Komponenten. Von den befragten Unternehmen mit mehr als 1000 Mitarbeitenden nutzen 60 Prozent zumindest schon teilweise Data-Mesh-Prinzipien.

Was bedeutet Data-Mesh?

Symbolbild Datenanalyse, Data-Lake, Data-Mesh, KI, Big Data: hellblaue Diagramme auf dunklem Hintergrund
Daten sind die Grundlage für viele spannende Anwendungen, beispielsweise Machine Learning und künstliche Intelligenz. (Bild: AIStock-stock.adobe.com)

Data-Mesh (engl. Datengitter) ist eine Datenarchitektur. Die Daten sind den einzelnen Unternehmensbereichen zugeordnet. Jeder Unternehmensbereich verwaltet, verarbeitet und nutzt Daten also dezentral. Die Plattform sollte in der Theorie für alle einfach zugänglich sein. Die einzelnen Unternehmensbereiche sind verantwortlich für die Daten, die sie erstellen. Jeder Bereich kann Daten für die anderen Bereiche bereitstellen. Daten werden als Datenprodukt gesehen, die einen Wert für die Nutzer haben. Kontrolle und Durchsetzung von Regeln erfolgt automatisiert. Der Umgang mit Daten ist professionalisiert.

Zentral verwaltet werden die Anwendungsfälle und Metadaten. Datenprodukte sind auffindbar und zugänglich über einen zentralen Datenmarktplatz. Die Regeln für die Datenverwaltung sind für alle gleich.

In der Umfrage ging mehr als die Hälfte der befragten Personen davon aus, dass Data-Mesh die Qualität der Datenanalyse und -Anwendungsfälle verbessern wird. Die Autorinnen und Autoren der Studie weisen jedoch auch auf Schwächen dieser Architektur hin: Unternehmen stehen bei der Umstellung vor diversen technischen und organisatorischen Herausforderungen. Komplexe Zusammenhänge, Performance-Probleme und Schwierigkeiten bei der Suche nach fehlerhaften Daten können auftreten. Es werden außerdem eher mehr qualifizierte Personen benötigt als zuvor.

Wer wendet Data-Meshs bereits an?

In einem Leitfaden, den der Branchenverband der deutschen Informations- und Telekommunikationsbranche Bitkom im Jahr 2022 herausgegeben hat, sind mehrere Beispiele genannt für Firmen, die Data-Meshs einsetzen. Dazu gehören große Unternehmen wie die Deutsch Bahn, PWC und Allianz Direkt, aber auch kleine Firmen wie der Softwareanbieter Datability.

Hier finden Sie den Bitkom-Leitfaden zum Thema Data-Mesh.

Wie verdienen Unternehmen Geld mit Daten?

Es gibt verschiedene Methoden, um mit Daten Geld zu verdienen oder wirtschaftlicher zu werden, zum Beispiel:

  • Datenbasiert bessere Entscheidungen treffen
  • Prozesse optimieren und automatisieren
  • Datengetriebene KI-Produkte
  • Datengetriebene Geschäftsmodelle

Es kann dabei positive Nebeneffekte geben, beispielsweise höhere Effizienz und geringeres wirtschaftliches Risiko. Es fallen einmalige Kosten an, um Daten zugänglich machen und um Analysemodelle erstellen, sowie laufende Kosten für den Betrieb.

Tipps: So erhöhen Unternehmen den Wert ihrer Daten

  • Wenn ein Anwendungsfall zum Wettbewerbsvorteil werden soll, sind schnelle Entwicklung, Operationalisierung und Skalierung entscheidend.
  • Nur vertrauenswürdige Daten von hoher Qualität sind als Basis für Entscheidungen geeignet.
  • Damit kein Chaos ausbricht, sobald eine größere Zahl von Personen involviert ist, die Prozesse aber trotzdem schlank bleiben, müssen Unternehmen die Daten und Anwendungsfälle möglichst effizient verwalten.

Bei Künstlicher Intelligenz den Durchblick behalten!

Das ist nicht immer einfach, doch wir wollen es Ihnen leichter machen! Daher haben wir für Sie einen praktischen Überblick zu den wichtigsten Fragen erstellt: "Künstliche Intelligenz - verständlich erklärt". Damit können Sie Ihr KI-Wissen auffrischen.

Anwendungsbeispiele, Einordnungen und vieles mehr finden Sie in unserem Fokusthema KI.

Sie möchten gerne weiterlesen?