Alex Knight Roboter

Künstliche Intelligenz wird in Arbeit und Alltag immer einflussreicher. - Bild: Accenture

Der Geschäftsnutzen von Künstlicher Intelligenz wird immer klarer: Automatisierung, Beschleunigung von Abläufen, effizientere und ressourcensparende Fertigung versprechen niedrigere Kosten; der Einsatz für Innovation, Forschung und Entwicklung neue Geschäfte. Doch auch die Zweifel an der Technik wachsen.

Welche gesellschaftlichen Auswirkungen haben die Algorithmen? Genauer: Was bewirken sie in unser aller Arbeitsalltag? Immer öfter sind Forderungen aus der Politik zu hören, Maschinen bräuchten eine Moral und Algorithmen dürften niemanden benachteiligen. Viele Tech-Unternehmen haben sich mittlerweile zum ethischen Umgang mit Künstlicher Intelligenz verpflichtet.  

Dass die Debatte darüber alles andere als unbegründet ist, haben erste Untersuchungen bereits gezeigt. Viel Presse gab es zum Beispiel über KI-gestützte Polizei-Software in den USA, die das „Rückfall-Risiko“ einmal Verurteilter berechnet – und dabei ganz offensichtlich vorurteilsbehaftet vorgeht.

Das Beispiel zeigt eine ganz grundlegende Wahrheit, meint Andreas Braun, Applied AI Lead bei Accenture in Deutschland, Österreich und der Schweiz: „Künstliche Intelligenz lernt aus Daten der realen Welt und bildet daher auch existierende Ungleichheiten und Vorurteile ab – sofern man darauf nicht besonders achtet.“ Anders ausgedrückt: Maschinen übernehmen gute „Muster“ ebenso wie schlechte – Vorurteile wie Rassismus wie im erwähnten Beispiel.

Mit Software gegen Vorurteile

Der Zusammenhang ist hinlänglich bekannt, ihn zu beseitigen aber alles andere als trivial. Schließlich finden die Entscheidungen von selbstlernenden Algorithmen in einer Black Box statt, sodass schwer zu beurteilen ist, wie die KI zu einem bestimmten Ergebnis gelangt. Deshalb ist vor allem wichtig, zu klären, mit welchen Daten der Algorithmus trainiert wird.

Genau hier setzt das Beratungsunternehmen Accenture mit seinem „AI Fairness Tool“ an. Die Software unterstützt KI-Anwender dabei, von ihnen eingesetzte Algorithmen auf „Fairness“ zu überprüfen – also daraufhin, ob sie Menschen grundsätzlich gerecht behandeln.

„Gerecht“ bedeutet in diesem Falle, Ungleichgewichtungen wie Vorurteile zu erkennen um sie dann gegebenenfalls zu entfernen oder Nachteile zumindest gleich über Gruppen hinweg zu verteilen. Für personenbezogene Daten müssen hierbei natürlich auch EU- und deutsche Gesetze berücksichtigt werden (GDPR, EU-DSGVO).

Dabei prüft das Tool, ob und welche Daten und Features diskriminierend wirken könnten. Zudem zeigt es an, wie stark diese Variablen die Entscheidungen der KI beeinflussen.

Ein Frühwarnsystem für „Jedermann“

Das „AI Fairness Tool“ arbeitet also wie eine Art Frühwarnsystem – und zwar wie eines, das die Schwierigkeiten auch für Anwender ohne technischen Hintergrund deutlich macht. Die Software stelt die Wirkungsweise von Algorithmen, statistischen Modellen und die Resultate der Anti-Diskriminierungstests in gut verständlichen, grafischen Dashboards dar.  

Die eigentlichen Ergebnisse berechnet die Software dabei in drei Schritten:

  1. Bewertung sämtlicher Daten und „Herausrechnen“ von Beziehungen  zwischen diskriminierenden Variablen. Die Accenture-Software überprüft die personenspezifischen Daten, die eine KI-Anwendung nutzt, auf deren diskriminierenden Effekt. Darüber hinaus wertet sie auch aus, wie sich einzelne Variablen gegenseitig beeinflussen, ohne dass dies auf den ersten Blick offensichtlich ist. Das verhindert, dass selbst bei Ausschluss eines offensichtlich diskriminierenden Merkmals weiterhin Ungleichbehandlungen entstehen. Ein Beispiel hierfür: Geschlecht und Berufswahl korrelieren oft miteinander, sodass die Verarbeitung von Daten zur beruflichen Tätigkeit selbst dann zu diskriminierenden Ergebnissen führen kann, wenn das Merkmal „Geschlecht“ aus den Datensätzen gelöscht, die Berufswahl aber weiterhin verarbeitet würde. 
  2. Bewertung und Nachjustierung der KI-Algorithmen. Die Accenture-Software kann nicht nur Daten und Modelle, sondern auch Algorithmen selbst auf Ungleichgewichte und Vorurteile prüfen. Hierfür testet sie die Maschinen-Regeln darauf, ob diese innerhalb einer bestimmten Gruppe Ergebnisse liefern, die bestimmten Erwartungswerten nicht entsprechen. Beispiel: Accenture hat die Software unter anderem mit einem Datensatz über die Kreditrisiken deutscher Verbraucher erprobt. Das Resultat: Die Nationalität eines Kreditnehmers hatte im verwendeten Modell großen Einfluss auf das Kreditrating – und benachteiligte insbesondere Kunden ohne deutsche Staatsbürgerschaft. Die Schlechterstellung hatte dabei nicht einmal Einfluss auf die Vorhersagekraft des Modells: Accenture konnte zeigen, dass ein verändertes Modell ohne „Staatsbürgerschaft“-Merkmal zu vergleichbar verlässlicheren Ergebnissen führte als das bisherige.
  3. Die Berechnung möglicher Auswirkungen auf die Aussagekraft eines Modells. Eine Grundschwierigkeit von „faireren“ Algorithmen ist, dass sie meist weniger Variablen nutzen. Das kann die Aussagekraft eines Modells tatsächlich beeinträchtigen. Um diesen Effekt zu überprüfen, bewertet die Accenture-Software daher auch, inwiefern Genauigkeit und Verlässlichkeit von KI-Modellen unter einem Verzicht auf „unfaire“ Variablen leiden würden. Sollte ein solcher Effekt nachweisbar sein, gibt das Tool auch an, wie stark der Einfluss einer bestimmten Variable auf die Vorhersagekraft des Algorithmus ist.  

Einsatz in der Industrie?

Natürlich sind KI-Anwendungen in Industrieunternehmen noch vergleichsweise rar. Trotzdem sieht Braun durchaus Einsatzmöglichkeiten für die Accenture-Software – vor allem in Personal-, Marketing- und Vertriebsabteilungen.

Neuere HR-Lösungen nutzen bisweilen zum Beispiel Algorithmen, um Bewerbungen „vorzusortieren“. Hier könnte die Accenture-Software dabei helfen, sicherzustellen, dass die Algorithmen bei der Bewerber-Beurteilung wirklich „blind“ vorgehen, sprich: keine Ungleichheiten etwa aufgrund von Geschlecht oder Herkunft erzeugen.

Aber auch weniger offensichtliche Bereiche könnten von ethisch geprüften Algorithmen profitieren; in Frage kommen im Grunde alle, in denen KIs etwa die „Sichtung“ und Vorab-Bewertung von Daten übernehmen. Mögliche Beispiele hierfür könnten das Vorschlagswesen im Unternehmen sein,  oder auch das Innovationsmanagement.

Und dann wären da natürlich noch die Produkte eines Unternehmens selbst: Vor allem selbststeuernde Maschinen wie Chatbots, Service-Roboter oder autonome Fahrzeuge treffen bisweilen schließlich ebenfalls Entscheidungen auf Grund personenbezogener Daten.

Die Zahl der Anwendungsbereiche dürfte künftig also noch zunehmen – und die der ethischen Herausforderungen ebenfalls. Doch Accenture-Experte Braun ist sich sicher: „Mit dem ‚AI Fairness Tool’ bieten wir jetzt eine konkrete Lösung an, um die Verbreitung diskriminierender Algorithmen zu verhindern oder zumindest zu erkennen. Wir sind überzeugt, dass Künstliche Intelligenz der Industrie große Vorteile bringen wird, dennoch dürfen wir die Schattenseiten nicht ignorieren. Ich meine, unser Frühwarnsystem ist eine gute Lösung hierfür.”

Das „AI Fairness Tool“ wurde erstmals am 11. Juni auf der CogX Conference in London vorgestellt. Es ist das Ergebnis einer Zusammenarbeit von Accenture und jungen Wissenschaftlern des Alan Turing Institutes, dem nationalen britischen Forschungszentrum für Data Science und Künstliche Intelligenz.   

Mehr zum Thema:

Weitere Informationen dazu, wie Accenture den verantwortungsvollen Umgang mit KI fördert, finden Sie unter anderem hier; wenn Sie Andreas Braun persönlich erreichen möchten, finden Sie Ihn unter anderem auf LinkedIn.