Fraunhofer FKIE , Produktion, Nutzerzustände , FuE

Eine Software des Fraunhofer FKIE erkennt, wie leistungsfähig der Mensch ist und gibt die Information an den Computer weiter. Bild: Fraunhofer FKIE

Die Kamera hat die Augen des Fahrers fest im Blick. Sind sie länger als eine Sekunde geschlossen, wird Alarm ausgelöst. Die Technik verhindert den gefährlichen Sekundenschlaf hinterm Steuer. „Nicht immer ist der Zustand, in dem sich ein Mensch befindet, von einer Maschine so einfach zu erkennen wie hier“, sagt Jessica Schwarz vom Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie FKIE. Die Diplom-Psychologin ist in ihrer Doktorarbeit der Frage nachgegangen, wie sich Nutzerzustände sehr genau ermitteln lassen, welchen Einfluss diese auf mögliches Fehlverhalten haben und wie automatisierte Systeme diese Information nutzen können. „Bei komplexen Anwendungen reicht es nicht aus, sich auf einen Einflussfaktor zu konzentrieren“, so die Wissenschaftlerin. Beispielsweise bedeutet eine gestiegene Herzrate nicht automatisch, dass ein Mensch gestresst ist. Das kann vielfältige Ursachen haben. Schwarz untersuchte daher, welche Faktoren konkret Einfluss auf die Leistungsfähigkeit des Menschen nehmen und konzipierte ein ganzheitliches Modell, das Nutzerzustände und deren Ursachen umfassend abbildet.

In ihrem Modell unterscheidet sie zwischen sechs Dimensionen des Nutzerzustands, die Einfluss auf die Leistungsfähigkeit eines Menschen haben: Beanspruchung, Motivation, Situationsbewusstsein, Aufmerksamkeit, Müdigkeit und den emotionalen Zustand. Zur Erfassung dieser Zustände setzt sie physiologische und verhaltensbasierte Messmethoden ein. Diese kombiniert sie zusätzlich mit äußeren Faktoren wie Aufgabenstellung, Umgebungsbedingungen, Automationsgrad und Tageszeit sowie individuellen Angaben zur Person – wie beispielsweise deren Erfahrung. „Auf diese Weise ist es möglich, den Nutzerzustand exakter zu erfassen und auch Ursachen für kritische Zustände zu identifizieren“ berichtet Schwarz.

Die theoretischen Erkenntnisse überprüfte die Doktorandin in Experimenten, in denen sie Probanden vor folgende Aufgabe stellte: Sie mussten sich in Fluglotsen hineinversetzen und in einer Computersimulation Flugzeuge sicher durch einen virtuellen Luftraum steuern. Dabei wurden als Stressfaktoren die Anzahl der Flugzeuge erhöht, Anweisungen der ‚Lotsen’ nicht erwidert und Hintergrundlärm eingespielt. Individuelle Faktoren wie Erfahrungsgrad, Fähigkeiten und Befinden hatte Schwarz zuvor erfasst. EEG-Sensoren auf dem Kopf, ein Eyetracker und ein EKG-Brustgurt zeichneten die Körperdaten der Probanden auf. „Zuvor hatten wir intensive Gespräche mit echten Fluglotsen geführt, um deren Herausforderungen mit Mensch-Maschine-Schnittstellen so genau wie möglich nachstellen zu können“, so Schwarz.

Es entstand eine Diagnoseschnittstelle, die in Echtzeit erkennt, wann einzelne Einflussfaktoren kritische Werte erreichen, und das der Maschine mitteilt. „Automatisierte Systeme erhalten so sehr genaue Informationen über die aktuelle Leistungsfähigkeit des Nutzers und können darauf reagieren.“ Bis Ende des Jahres will das FKIE das Forschungsprojekt abschließen. Schon jetzt sind die Forscher auf der Suche nach Industriepartnern. „Die Technologie ist bereits sehr nah an der Anwendung. Das Know-how ist da, um für individuelle Einzelfälle konkrete Produkte zu entwickeln“, sagt Schwarz. Mögliche Einsatzgebiete finden sich bei allen hochautomatisierten Aufgaben, in denen kritische Nutzerzustände ein Sicherheitsrisiko darstellen, beispielsweise monotone Überwachungsaufgaben in Leitwarten oder Trainingssysteme für Piloten, die mit der Technologie optimiert werden können.

„Maschinen spielen eine immer wichtigere Rolle, werden aber auch zunehmend komplexer. Das birgt neue Anforderungen an die Zusammenarbeit zwischen Mensch und Maschine. Adaptive Systeme – die unterschiedliche Situationen erkennen und sich daran anpassen – können bekannte Probleme in der Automation lösen. Grundlegende Voraussetzung dafür ist es, dass nicht nur der Nutzer die Maschine kennt, sondern auch die Maschine weiß, wie es dem Nutzer geht. Dafür haben wir jetzt einen ersten Schritt gemacht“, so Schwarz weiter.