Produktion: Industrie 4.0 führt zu gläsernen Produktionsstätten, die dank der Zunahme an Sensorik und leistungsfähiger Auswerteelektronik Big Data erzeugen. Doch wie lassen sich die wertvollen Rohdaten etwa einer Werkzeugmaschine erfassen – lässt sich eine ältere Maschine ohne Sensorik nachrüsten?

Epple: "Es gibt Forschungsprojekte, die sich damit beschäftigen, wie ältere Maschinen nachgerüstet werden können. Wir verfolgen darüber hinaus derzeit auch Ansätze, welche zunächst die in der Maschine verbaute Sensorik nutzen. Neben dem Motorstrom erfasst jede Maschine auch aktuelle Achspositionen.

In der Regel sind direkte und indirekte Wegmesssysteme verbaut. Mit diesen Signalen können wir beispielsweise die Ratterneigung prozessparallel ermitteln. Auch die Prozesskräfte und Komponentenlasten für Ansätze im Predictive Maintenance lassen sich bestimmen. Dies gilt für ältere und für neue Maschinensysteme."

Produktion: Big ist aber nicht immer „beautiful“: So ergibt die 100prozentige Datenerfassung der Arbeit eines Bearbeitungszentrums in Echtzeit (35 Kennwerte pro Millisekunde) pro Jahr bereits ein Datenvolumen von 5,8 Terabytes. Wie fischen sie hier die interessanten Fakten heraus?

Königs: "Für die Extraktion von interessanten Informationen und Kennwerten nutzen wir sowohl statistische Methoden (Machine Learning) als auch eigens entwickelte Algorithmen, die die Integration von Experten- bzw. Domänenwissen ermöglichen.

Generell ist es aber richtig, dass bei kontinuierlicher Datenerfassung eine große Datenmenge anfällt. Nun gibt es Ansätze, nicht permanent mit maximaler Abtastrate alle Daten zu erfassen, sondern nur zu bestimmten Zeiten, nach bestimmten Events - zum Beispiel Übertreten eines Schwellenwerts – oder für bestimmte Prozesse.

Andere Ansätze komprimieren die Datenmenge durch Kennwertbildung. Wieder andere Ansätze nutzen bewusst die hohe Datenmenge, um mit entsprechenden mathematischen Algorithmen Muster zu erkennen. Es ist stark anwendungsabhängig, welcher Ansatz der erfolgversprechendste ist."

Produktion: Lässt sich diese Datenmenge noch mit üblicher Hardware bewältigen oder ist ein Supercomputer – Stichwort Quantenrechner – gefragt?

Königs: "Die aktuelle Technik reicht – richtig eingesetzt – in unseren Disziplinen meist aus, wenn Einzel- oder Teil-Modelle von Experten entwickelt werden. Die breite, disziplinübergreifende Verschaltung und Anwendung dieser Modelle bringt die aktuell verfügbare Hardware jedoch schnell an ihre Grenzen.

Eine auf diese Bedürfnisse ausgerichtete Cloud-Umgebung, in der sowohl statistisch als auch physikalisch motivierte Einzelmodelle gekoppelt und mit bedarfsgerecht bereitgestellten Rechenressourcen ausgeführt werden können, kann hier die benötigte Konnektivität und Rechenleistung bereithalten. Ich glaube aber nicht, dass sich eine solche Umgebung nur mit Quantenrechnern umsetzen lässt."

Produktion: Wissenschaftler vom Fraunhofer IPK meinten, es sei sinnvoller, vor dem Speichern in der Nähe der Maschine eine intelligente Vorauswahl zu treffen, bevor dann ein reduzierter Datensatz – Stichwort Smart Data – in die Cloud wandert. Was halten Sie von diesem Ansatz?

Epple: "Der Idee kann ich grundsätzlich folgen. Auch am WZL beschäftigen wir uns mit der lokalen Datenvorverarbeitung und -interpretation und somit der Veredlung der Daten zu smarten Daten in unmittelbarer Nähe des Maschinensystems. Die Vorteile dieser lokalen Datenvorverarbeitung liegen auf der Hand. Allerdings gibt es auch Firmen, die alle Rohdaten ungefiltert in einem zentralen System – etwa einer Cloud – speichern und verarbeiten."

Produktion: Was ist für Sie eine Cloud und wie lassen sie sich nutzen?

Epple: "Unter Cloud verstehen wir ein Modell für den ortsunabhängi-gen, On-Demand-Netzzugang zu einem gemeinsamen Pool konfigurierbarer IT-Ressourcen, die bedarfsgerecht eingesetzt und wieder freigegeben werden können. Diese umfassen neben Netzwerkbandbreiten und Rechenhardware auch Services und Applikationen.

Im Kontext von Big Data bieten Cloud-Plattformen aufgrund eben dieser Skalierbarkeit und der breiten Verfügbarkeit von Analysealgorithmen gute Voraussetzungen für die nachgelagerte Auswertung von Datenmengen, die zu groß, zu komplex, zu schwach strukturiert oder heterogen sind, um diese manuell oder mit klassischen Methoden der Datenverarbeitung auszuwerten. Technisch herausfordernd ist jedoch unter Umständen die vorgelagerte Datenübertragung. Ein lokales Datenerfassungssystem an der Maschine kann vergleichsweise einfach gestaltet werden, wenn die Daten nur weitergesendet werden müssen.

Dies hat natürlich erhebliche Vorteile in der Wartung und im Roll-Out, stellt aber im Gegenzug hohe Herausforderungen an die notwendige Bandbreite zur Datenübertragung. Eine lokale Datenvorverarbeitung und -verdichtung kann sie deutlich reduzieren. Allerdings gehen mit jeder Datenverdichtung auch Informationen verloren, die für die aktuellen Betrachtungen vielleicht irrelevant, für zukünftige Szenarien jedoch ganz entscheidend sein könnten. Manchmal wird einem erst nachträglich bewusst, dass die nicht mehr verfügbaren Informationen doch hilfreich gewesen wären, um ein Phänomen zu interpretieren.

Beide Ansätze haben ihre Vorteile und es hängt von der Strategie des jeweiligen Anwendungspartners ab, welchen Ansatz er verfolgen möchte. Generell bemerken wir eine gewisse Skepsis, Daten zentral in einem Cloudsystem zu speichern. Es gibt aber auch Möglichkeiten einer lokalen „Firmencloud“. Selbst die Datenauswertung direkt an nur einem lokalen Maschinensystem kann schon große Potenziale der Produktivitätssteigerung bieten."