Data Intelligence Hub

"Keines der Werkzeuge aus KI und Maschine Learning liefert Kausalität, nur Korrelation. Es braucht die richtige Fundierung aus der Theorie und dann die entsprechende Aufbereitung der Daten", erklärt Christoph Schlueter Langdon, Entwicklungsleiter Partner-On-Boarding und Dateninnovation Data Intelligence Hub von T-Systems. - (Bild: Adobe Stock)

„Wir unterschätzen Daten“, sagt Christoph Schlueter Langdon, Entwicklungsleiter Partner-On-Boarding und Dateninnovation Data Intelligence Hub von T-Systems. „Es wäre sinnvoll, Daten als Produkt zu begreifen und die üblichen Mechanismen darauf anzuwenden: Von der Produktentwicklung, über Marketing bis zum Vertrieb. Dafür ist ein anderes Rollenverständnis nötig und ein Management, das Daten als Produkt auffasst“, erklärt Schlueter Langdon, der zudem Professor für Data Science und Analytics an der Peter Drucker School of Management der Claremont Graduate University ist und zu KI und komplexen adaptiven Systemen promovierte.

Nur Datenberge durchkämmen reicht nicht

„Oft wird bei Data Analytics von Anfang an das Problem nicht scharf genug präzisiert und ohne klare Frage gestartet“, nennt der Experte einen häufigen Kardinalfehler. Anders als häufig angenommen, reiche es eben nicht aus, große Datenmengen einfach munter mit KI-Tools zu durchkämmen.

Durch Explorationsanalysen bekomme man zwar Korrelationen, aber es fehle der Nachweis von Ursache und Wirkung, der in der Business-Praxis entscheidend wichtig sei, meint der Experte: „Keines der Werkzeuge aus KI und Maschine Learning liefert Kausalität, nur Korrelation. Es braucht die richtige Fundierung aus der Theorie und dann die entsprechende Aufbereitung der Daten“.

Gerade bei den Herausforderungen rund um das Internet of Things und Data Analytics soll der Data Intelligence Hub der Telekom Hilfestellung für Unternehmen geben, um Probleme schneller, skalierbarer und kostengünstiger angehen zu können.

Vernetzung im Internet of Production über Unternehmensgrenzen hinweg

Am Beispiel von GlasGo, einer bedeutenden europäischen Glasraffinerie, zeigte sich durch die Nutzung des Data Intelligence Hub, dass sich auch für Unternehmen, die im Bereich Qualitätssicherung schon führend sind, neue Optimierungspotentiale erschließen lassen. Sie entstehen nicht nur durch interne Vernetzung, sondern durch eine Vernetzung über die Wertschöpfungskette hinweg. Dafür wurde über den Data Intelligence Hub die gesamte Kette vom Lieferanten bis zum Kunden abgebildet, um Schlüsselvariablen zu überwachen.

Denn trotz einwandfreier Warenkontrollen im Unternehmen gab es hin und wieder Reklamationen zu verblassenden Farben bei den Glaswaren. Die Vermutung: Die Qualität der Beschichtung leidet, wenn Farblacke verwendet werden, die Temperaturen unter 2 Grad Celsius ausgesetzt wurden. Jetzt kann entlang der gesamten Lieferkette geprüft werden, ob eine Charge beim Transport zu starker Kälte ausgesetzt wurde, um Qualitätsprobleme im Ansatz zu verhindern.

Christoph Schlueter Langdon

„Unsere Kunden profitieren von Data Governance auf Basis von Blue Prints aus Fraunhofer Instituten.“

 

Christoph Schlueter Langdon
Entwicklungsleiter Partner-On-Boarding und Dateninnovation Data Intelligence Hub von T-Systems

Drei Ebenen von Datenproblemen

 „Die Probleme mit den Daten lassen sich in drei Ebenen unterteilen: Die technische Ebene mit der Frage, wie man an die richtigen Daten herankommt, die Prozessebene mit der Frage nach Prozessqualität und -sicherheit und dann die rechtliche Ebene – dazu gehört die öffentliche Diskussion um Datensouveränität“, erklärt Schlueter Langdon. Viele Überlegungen enden mit Problemen rund um Datenschutzthemen.

Deshalb ist einer der Schwerpunkte des Data Intelligence Hub, schon von der Architektur her dem Besitzer der Rechte an den Daten die Möglichkeit zu geben, diese schützen zu können. Umgesetzt wurde dieser Ansatz im Data Intelligence Hub Connector, der auf Blue Prints der International Data Spaces Association (IDSA) basiert, einem Konsortium von Fraunhofer-Instituten.

Die passenden Daten sind oft ein Riesenproblem

Die grundsätzliche Herausforderung bei Data Analytics besteht darin, Wertschöpfung zu generieren. Oft sind nicht die richtigen Daten in der ausreichenden Menge verfügbar, eine Voraussetzung, um Methoden der Künstlichen Intelligenz anzuwenden.

„Die Informationen, die ich brauche, um ein Problem zu lösen oder eine Frage zu beantworten, müssen in den Daten enthalten sein“, nennt Schlueter Langdon ein weiteres Problem. Tech-Companies wie Amazon, Facebook oder Google seien deshalb so erfolgreich, weil sie wissen, was sie sammeln und das in riesigen Mengen. Auch hier setzt der Data Intelligence Hub an und bietet gerade auch kleineren Unternehmen eine Reihe von Möglichkeiten: das Poolen, Sharen und Zusammenfassen von Daten. Ein vertikaler Datenpool entsteht, indem entlang einer Wertschöpfungskette Daten eingesammelt werden, wie beim Beispiel von GlasGo.

Ein horizontaler Pool kommt zustande, indem zum Beispiel ein Maschinenhersteller die Betriebsdaten seiner Produkte über die Kunden hinweg auswertet. Die dritte Variante, das „Daten-Sandwich“, überlagert unterschiedliche Datenquellen, zum Beispiel Kartenmaterial mit Echtzeit-Verkehrsinformationen, Wetterdaten oder auch Bewegungsdaten aus Mobilfunknetzen, um Mehrwert zu generieren. Letztere werden über die Telekom-Tochter Motionlogic – komplett anonymisiert und DSGVO-konform – in die Data Intelligence Hub-Plattform eingebunden. So lässt sich beispielsweise über das Sandwich hinweg die Route einer bestimmten Anfrage berechnen

Oft zu wenig Daten und schlechte Qualität

„Im Idealfall sollte am Anfang die Überlegung stehen, was man erreichen möchte, welche Daten die richtigen Informationen enthalten – und erst ganz am Ende die Frage, welche Werkzeuge dafür benötigt werden. Das spielt sich in der Praxis noch zu oft andersherum ab“, stellt der Professor für Data Science und Analytics fest. In einer Studie des Data Intelligence Hub unter 65 Teilnehmern, allesamt Datenexperten aus der Business-Welt, zeigte sich ganz deutlich: Es wird zu viel Zeit mit den Daten verbracht. 48 Prozent der Zeit geht bei Data Analytics für das Data Processing drauf, 32 Prozent werden für die Analytics aufgewendet und 21 Prozent für die Implementierung.

Als Hauptprobleme wurden genannt: Nicht genügend und nicht die richtigen Daten in zu schlechter Qualität. „Der Spruch ‚Data is the new Oil‘ ist durchaus wörtlich zu verstehen: Auch die Aufbereitung von Daten ist sehr aufwendig und benötigt ähnlich komplexe Anlagen wie Raffinerien“, stellt Schlueter Langdon fest. Nur wenige Unternehmen werden sich selbst diese Datenfabriken leisten können. Deshalb trage der Data Intelligence Hub durch seinen Cloud-basierten Ansatz als neutraler Partner auch zur Demokratisierung von KI bei.

Data Intelligence Hub – Ein Datenmarktplatz mit vielen Möglichkeiten

Sind Sie interessiert an weiteren Informationen zum Data Intelligence Hub?

  • Dann melden Sie sich kostenfrei für den Data Intelligence Hub an: https://portal.dih.telekom.net/

  • Schauen Sie am 25. und 26. Juni 2019 beim International Data Spaces Association Summit in Bonn vorbei. Der Data Intelligence Hub steht am zweiten Tag um 9:20 Uhr auf dem Vortragsprogramm, und auch an unserem Stand informieren wir Sie gern näher über den Datenmarktplatz.

  • Oder besuchen Sie uns vom 16. bis 21. September 2019 auf der EMO in Hannover. Sie finden uns auf dem Gemeinschaftsstand Industrie 4.0 in Halle 9.

Sie möchten gerne weiterlesen?

Dieser Beitrag wird präsentiert von: