SAP,Big Data,Big Data Lakes,Daten

Viele Firmen sammeln ihre Datenströme in sogenannten Big Data Lakes. Doch erst durch deren Interaktion mit der Applikationslandschaft und deren Daten werden sie für das Unternehmen wertvoll. - Bild: SAP

Viele Unternehmen sammeln gegenwärtig ihre Datenströme aus diversen Quellen in sogenannten Big Data Lakes. Doch erst durch deren Interaktion mit der Applikationslandschaft und deren Daten werden sie für das Unternehmen wertvoll. SAP Data Hub als das zentrale Orchestrierungswerkzeug reduziert den Aufwand, Big-Data-Szenarien aufzusetzen und neue Geschäftsmodelle zu etablieren.

Mehr aus bestehenden Daten herausholen

Die Situation ist in vielen Unternehmen ähnlich: Neben den bekannten Daten aus den Geschäftsprozessen, also etwa aus CRM- und ERP-Systemen, kommen nun neue etwa von Sensoren, Social-Media-Plattformen und diversen Cloud-Anwendungen auf den CIO zu.

„Anfangs weiß kaum ein Unternehmen damit konkret etwas anzufangen“, erläutert Marc Hartz, Produktmanager für den SAP Data Hub: „Bei den in Data Lakes gesammelten Rohdaten können dann Jahr für Jahr Datenmengen von mehreren Petabytes zusammenkommen.“ Nach einer aktuellen Umfrage zum Thema Big Data sind 86 % der Befragten davon überzeugt, mehr aus ihren Daten herausholen zu können, 74 % halten ihre Datenlandschaft für undurchsichtig und befürchten daher negative Auswirkungen auf die unternehmerische Flexibilität.

Zwischenschritte zum Big-Data-Szenario bewältigen

Der Grund dafür liegt darin, dass Unternehmen bestimmte Fähigkeiten benötigen und es aufwändig ist, aus Daten letztlich einen Mehrwert ziehen zu können. Data Scientists sind nötig, um die Vielzahl an erforderlichen (Open-Source-)Tools richtig einsetzen zu können.

Denn für die Produktisierung – also den praktischen Einsatz eines Big-Data-Szenarios im Unternehmen – sind viele Zwischenschritte nötig. Daten integrieren, deren Qualität prüfen, sie verarbeiten, Filter setzen, Aggregate bilden, (Social-Media-)Daten anonymisieren: „Das ist bereits ein hoher Aufwand“, sagt Hartz.

Zusätzliche Mehrwerte generieren

Mehrere parallele Szenarien in einer gemeinsamen Landschaft sind dann kaum noch zu schaffen. Das Maß der Dinge ist letztlich, Erkenntnisse zu gewinnen und automatisiert in ein neues Geschäftsmodell zu integrieren. „Besonders wer es schafft, Big-Data-Szenarien mit der existierenden Applikationslandschaft zu verbinden, kann zusätzliche Mehrwerte generieren“, sagt Hartz. Für die Interaktion zwischen Big Data und den bestehenden Data Warehouses und ERP-Anwendungen sind nun Automatismen realisierbar – also Verbesserungen und Vereinfachungen bestehender Prozesse.

Wie ein Haushaltsgerätehersteller von Big-Data-Szenarien profitiert

Bis zu sieben Tools hatten die Datenexperten eines Haushaltsgeräteherstellers im Einsatz, um die Fragestellung zu analysieren, wie häufig die einzelnen Funktionen eines Geräts im Alltagsgebrauch wirklich genutzt werden. Das Unternehmen stattete jeden Druckknopf mit einem Sensor aus, der bei Gebrauch gleich einen Datensatz generierte.

Das Ziel bestand darin, die Funktionen noch besser an die Bedürfnisse des Kunden anzupassen. So können die ausgewerteten Sensordaten etwa dazu beitragen, Prognosen über die verbleibende Laufzeit des Geräts abzugeben oder Funktionen zu identifizieren, die bisher kaum genutzt werden.

Big-Data-Szenarien schneller implementieren

Weitere Szenarien werden mit Hilfe des SAP Data Hub einfacher. Denn was bisher fragmentiert und oft manuell codiert werden musste, um die großen Datenmengen (Big Data) verarbeiten zu können, wird mit Hilfe des SAP Data Hubs künftig automatisiert. Für die weiteren Produkte, für die der Kunde bereits ähnliche Big-Data-Szenarien plant, werden also künftig nicht mehr jedes Mal Codes geschrieben werden müssen. „Vor 30 Jahren gab es kein ERP, keine Standards, kaum Tools und Applikationen, die mit den geschäftlichen Daten umgehen konnten“, erläutert Hartz, „in der Big-Data-Welt sind wir jetzt an einem ähnlichen Punkt.“

Als Bestandteil des Systems für digitale Innovation SAP Leonardo dient der SAP Data Hub als Rahmenwerk, um Big-Data-Szenarien einfacher umsetzen zu können. SAP Data Hub ist dabei eine Kontrollebene für die gesamte Datenlandschaft, deren Daten orchestriert und verteilt werden – egal ob die Daten aus Hadoop- oder SAP-BW-Systemen, aus On-Premise-, Cloud- oder hybriden Systemen oder letztendlich aus Data Lakes stammen.

Während in der Vergangenheit mit Hilfe von ETL-Tools die relevanten Daten aus verschiedenen Quellen herausgezogen und in einer Zieldatenbank zentralisiert wurden, verzichtet SAP nun darauf. Da eine verteilte Landschaft von SAP HANA bis Hadoop oder Cloud-Systemen von Amazon oder Google reicht, ist es nun einfacher, Erkenntnisse zu gewinnen, „ohne Daten hin- und herzuschaufeln“, erläutert Hartz: „SAP Data Hub ermöglicht, landschaftsübergreifende Szenarien schneller zu implementieren, weniger Tools dafür einzusetzen und gleichzeitig eine tiefere Integration in die Geschäftsprozesse, insbesondere auch zu SAP S/4HANA anzubieten.“

Unstrukturierte Daten in den Griff kriegen

SAP Data Hub
Was bisher fragmentiert und oft manuell codiert werden musste, um die großen Datenmengen (Big Data) verarbeiten zu können, wird mit Hilfe des SAP Data Hubs künftig automatisiert. Für die weiteren Produkte, für die der Kunde bereits ähnliche Big-Data-Szenarien plant, werden also künftig nicht mehr jedes Mal Codes geschrieben werden müssen. - Bild: SAP

SAP Data Hub greift also gerade dort an, wo die Unternehmen augenblicklich die größten ‚Schmerzen’ haben – an der unstrukturierten Masse an Daten, die ihnen keinen sichtbaren Mehrwert bieten. Deshalb war es die wichtigste Herausforderung auf dem Weg zu diesem fundamental neuen Ansatz von SAP, drei Schritte zurückzulegen, die „einfach klingen, aber extrem schwierig sind“, wie Hartz bemerkt: Erstens, Sensordaten in einen Data Lake zu überführen und zu identifizieren, zweitens, sie zu verarbeiten und drittens die Daten in eine Anwendung wie beispielsweise ein Data Warehouse zu integrieren.

Dass diese drei Schritte bereits erfolgreich zurückgelegt wurden, zeigt nicht nur das Beispiel des Waschmaschinenherstellers. In einem bereits von SAP vorgestellten Use Case werden beispielsweise die Sensordaten von Fitness-Uhren global analysiert und in die Geschäftsprozesse integriert oder Social-Media-Effizienzanalysen für Marketingkampagnen gemacht. Und doch sind diese Beispiele erst der Start in ein Big Data der Zukunft, dessen Potenzial heute noch gar nicht absehbar ist.