Foto: Helena Henkel, Bearbeitung: Eva Gengler

Eva Gengler forscht zu künstlicher Intelligenz.

Karin Henjes
17.06.2024
Lesezeit: 7 Min.

„KI kann die Welt gerechter machen“

Noch reproduziert künstliche Intelligenz die Vorurteile der analogen Welt. Doktorandin Eva Gengler will das ändern

Viele Frauen haben sich schon einmal um einen Job beworben und eine Absage erhalten. Wenn das in den letzten Jahren geschah, kann eine künstliche Intelligenz mitgemischt haben. So wie 2018  beim  KI-gestützten Lebenslauf-Screening von Amazon. Damals fielen durchweg alle Frauen bei der Vorauswahl durch. Und auch heute, eine halbe digitale Ewigkeit später, wird das weibliche Geschlecht im KI-Recruiting längst nicht angemessen berücksichtigt – zum Beispiel, wenn es sich um Führungsjobs oder technische Berufe handelt.

Das ist einer von vielen Gründen, warum sich Eva Gengler für eine feministische KI einsetzt. Die Wissenschaftlerin, Unternehmerin und Aktivistin findet, dass wir ganz viele verschiedene Menschen in diesem Bereich brauchen. Wenn wir es klug anstellen, so ihr Tenor, kann KI uns sogar helfen, die gesellschaftliche Transformation zu beschleunigen.

Doch eins nach dem anderen – wobei das bei diesem Turbo-Thema eine echte Herausforderung ist. Wenn Eva Gengler in Nürnberg im Café Auf AEG spontan und in hohem Tempo von ihrem Weg zu KI und feministischem Engagement erzählt, schwirrt einem erst mal der Kopf. Eins wird schnell klar: Sie ist in vielen Welten unterwegs und eine unermüdliche Vermittlerin komplexer Zusammenhänge.

Liebe Eva Gengler, was motiviert dich, zu KI zu forschen und campaignen?

Eva Gengler: KI treibt mich um, seit ich in meiner Masterarbeit zur Auswahl von Mitarbeiter:innen durch KI geforscht habe, genauer gesagt zu den ethischen Implikationen von KI im Recruiting.

Ich habe sehr schnell verstanden, dass Frauen und auch viel andere Gruppen durch KI benachteiligt werden. Der Bias, also die Vorurteile, bestehen schon in der analogen Welt. Das wird von KI reproduziert. Meine Fragestellung in der Masterarbeit war: Kann KI fairer entscheiden als Menschen? Die Antwort: grundsätzlich eher nein, außer man geht das bewusst an.

„Ich habe sehr schnell verstanden, dass Frauen und auch viel andere Gruppen durch KI benachteiligt werden“: Um das zu ändern, ist Eva Gengler aus als Speakerin unterwegs. Foto: CBS Cologne

Das heißt, wenn Gerechtigkeit und Diversität nicht die definierten Ziele einer KI sind, dann werden wir nachahmen, was da ist. KI wird ja mit bestehenden Daten trainiert. Und im Moment reproduzieren wir damit ja nicht einmal die Gegenwart. Unsere Daten umfassen die Realität der letzten 30, 40 Jahre. Das heißt, mit KI bilden wir die Vergangenheit ab. Wir können noch so viele Probleme in der analogen Welt lösen und gesellschaftlich voranschreiten. Wenn wir jetzt KI-Systeme bauen, die nachspiegeln, was schon war, hat das nur wenig Einfluss.

Warum feministische KI?

Weil ich mir sicher bin: Wenn die Welt feministischer und gleichberechtigter wird, dann wird sie für alle gerechter. Ich sehe seit Jahren, dass KI überhaupt nicht feministisch entscheidet. KI wird in einer immer größeren Bandbreite eingesetzt: Routenvorschlag, Text- und Bildgenerierung, Kreditvergabe, Recruiting, Stadplanung und vieles mehr. Frauen und ihre Bedürfnisse kommen darin kaum vor, oder wenn ­– dann verzerrt, wie in der Bildgenerierung, wo Frauen nicht oder stereotypisch gezeigt werden. Das gilt auch für andere marginalisierte, also an den Rand gedrängte Gruppen.

Wenn wir es hingegen schaffen, KI gerecht und feministisch zu gestalten, kann das auch unsere Welt gerechter und feministischer machen. Das heißt, wenn Entscheidungen anders vorbereitet und getroffen werden, dann kann es das Machtverhältnis in der Welt verändern. Ich glaube, es gibt großes Potenzial, die Welt mit Hilfe von KI gerechter zu machen.

Was kann die KI, was wir bis jetzt nicht konnten?

Ein großes Problem ist es, dass es so lange dauert, dass Menschen ihr Mindset weiterentwickeln. Ich glaube, wenn die KI es uns explizit ermöglicht, andere und gerechtere Entscheidungen zu treffen, hat sie ein Riesenpotenzial, Entwicklungen zu beschleunigen. Also ich glaube, das braucht’s einfach.

Das heißt, KI ist eng verknüpft mit den bestehenden Machtverhältnissen?

„KI kann es uns ermöglichen, gerechtere Entscheidungen zu treffen“, sagt Eva. Foto: Helena Henkel, Bearbeitung: Eva Gengler

Ja. Ich schaue mir in meiner Forschung vier Dinge an. Erstens den Zusammenhang, also den Kontext, in dem KI gebaut wird. Hier spielen formelle Faktoren wie die Werte in einer Firma, ethische KI-Prinzipien oder Gesetze eine Rolle. Es gibt aber auch informelle Einflüsse, also das, was auf Englisch „authority by tradition“ heißt. Wir sehen, dass Männer eher Einfluss nehmen als Frauen, dass bestimmte Klassen und Gruppen stärker vertreten sind als andere. Diese Machtstrukturen bilden den Kontext von KI-Einsatz. Innerhalb dieses Kontexts schaue ich mir drei Felder an: Menschen, Daten und Design.

Macht, Menschen, Daten, Design – das sind die konkreten Stellschrauben der KI?

                     

Genau. Es spielt natürlich eine Rolle, welche Menschen in welchem Zusammenhang Einfluss auf KI nehmen. Wenn wir über diejenigen Entscheider:innen hier in Deutschland reden, die das Personalwesen oder die Budgets beeinflussen, werden diese aufgrund unserer Machtstrukturen eher männlich, privilegiert und weiß sein und eher eine entsprechende Sicht auf die Dinge haben. Auch die Entwicklungsteams sind eher männlich – unter anderem, weil aufgrund von Stereotypen zu wenige Frauen IT studieren.

Die Daten, mit denen die KI gefüttert und trainiert wird, sind ebenfalls vom Kontext beeinflusst. Ein Beispiel ist das Gender Data Gap. Es gibt zwar ca. gleich viel Frauen wie Männer, aber Frauen kommen in den Daten kaum vor ­– ganz zu schweigen von People of Color, genderqueeren Personen oder, noch schlimmer, Personen mit mehreren dieser Merkmale.

Dass Frauen in den Daten zu wenig vorkommen, zeigen zum Beispiel Lebenslauf-Screenings von Amazon aus dem Jahr 2018, in denen Frauen einfach aussortiert wurden, weil sei in den Daten eine untergeordnete Rolle spielten. Job-Apps schlagen dir je nach Standort, Gender und Race verschiedene Jobs vor, und es spielt auch eine Rolle, ob du ein Macbook hast oder einen Windows PC nutzt.

Wir können Anwendungen nicht nur technisch verstehen, sie sind immer auch sozial geprägt. Apps können spezielle Personengruppen bevorzugen und damit ausschließend wirken. Das ist auch immer wieder ein Thema beim NueDigital-Festival. Foto: NueDigital/Simeon Johnke

Design wiederum ist nicht nur technisch zu verstehen, sondern auch sozial. Es wird ebenfalls vom Kontext beeinflusst. Die Designer:innen können sich fragen: Welche sozialen Praktiken und Prozesse fließen in das Design ein? Worauf wird Wert gelegt? Welche Dinge priorisiere ich? Welche Features baue ich ein? Gibt es Möglichkeiten, mit der KI zu interagieren und Outcomes zu beeinflussen? Berücksichtige ich nur Sprachen, die häufig gesprochen werden oder auch andere? Habe ich bestimmte Menschen vergessen? Die Health Tracker Apps sind da ein gutes Beispiel, sie beinhalteten am Anfang keine Menstruationstracker – vermutlich, weil sie zunächst von Männern entwickelt wurden und Männer Prioritäten setzten.

Wie können wir daran mitwirken, dass KI gerechter wird?

Indem wir mit feministischen Interventionen in die verschiedenen Felder hineingehen:

KI lässt sich ja über Regulierungen beeinflussen, wie es jetzt mit der AI-Richtlinie der EU geschehen soll. AI steht hierbei für Artificial Intelligence, der englische Begriff für KI. Feministisch ist die AI-Richtlinie bisher nicht, das heißt, sie stellt keinen riesigen Schritt in Richtung weniger Bias dar. Aber immerhin sind darin verschiedene Risikoklassen für KI definiert, und Recruiting zählt dabei zum Beispiel zum Bereich der Hochrisiko-KI. Hier ließe sich noch wesentlich mehr bewegen.

Auch über die Förderung lässt sich eine gerechtere KI gestalten – etwa, indem man mehr Geld in Projekte steckt, die bias-frei agieren wollen. Zum Beispiel in NGOs, die nicht so viel Geld für KI haben.

Oder ein Panel der Diverstät könnte bei der Entwicklung und dem Einsatz von KI Einfluss nehmen, hierzu ließen sich Menschen aus verschiedensten Fachbereichen und sozialen Gruppen bestimmen.

Wie ließe sich mit den Daten selbst anders umgehen?

Daten, die aktuell beim Training zum Einsatz kommen, sind meist gebiast, auch öffentliche. Es gibt aber verschiedene Möglichkeiten der Einflussnahme.

Wenn Trainingsdaten einen Bias zeigen, ist auch der Output gebiast. Hier kann man filtern und zum Beispiel beim KI-Recruiting sagen: Bitte zeige mir 50% Frauen und 50% Männer. Das wäre sehr binär, wir könnten natürlich auch Schwellwerte definieren wie 45% männlich, 45 % weiblich, 10 % divers – jeweils mit unterschiedlichem Alter, anderer Nationalität etc.

Explizit gebiaste Daten könnten gezielt eingesetzt werden, damit positiv diskriminiert wird. Ich könnte sagen: Ich möchte etwas haben, was nicht zu dem passt, was in deinem Trainingssatz ist.

Es gibt auch die Möglichkeit, mit Hilfe synthetisch generierter Daten die Repräsentation marginalisierter Gruppen zu erhöhen.

Wir können einen feministischen Reflex integrieren, also z. B. automatisierte Fragen, die im gesamten Prozess die Qualität der Daten und den Einbezug marginalisierter Menschen gewährleisten.  

Man kann den User:innen eine Art Guideline an die Hand zu geben, wie sie diverser prompten, d. h. Sprachbefehle an die KI eingeben: Achte beim Output auf … Die und die Wörter sind geeignet für … Prüfe …

Es gibt auch die Möglichkeit, einen Diversity-Regler einzubauen und die Nutzer:innen selbst dazu zu befähigen, diese zu bestimmen.

Vier Thesen zu feministischer KI von Eva Gengler

Ungerechte Machtstrukturen in der Gesellschaft sind Ursache für Ungerechtigkeit in der KI, und nicht die Daten selbst. Die Daten selbst spiegeln die Machtstrukturen nur wider. KI ist ein Spiegel der Gesellschaft.

Wenn wir KI feministisch bauen, kann sie unsere Welt verbessern und die Macht gerechter machen – und das auch schon ohne, dass wir eine gerechte Macht haben. Eigentlich reproduziert konventionelle KI, aber wir können es schaffen, mit feministischer KI die Welt gerechter zu gestalten

Ich forsche und arbeite mit der folgenden Hypothese: Menschen, Daten und Design sind die drei Haupt-Determinanten von KI. Wenn wir an diesen drei Punkten ansetzen, können wir eine gerechtere Macht gestalten. Je nachdem, wie wir diese gestalten, wird am Ende auch die KI aussehen.

Ich würde außerdem noch hinzufügen: Die Probleme, die aktuell mit KI auftreten, sind soziotechnische und nicht nur technisch. Deshalb können die Lösungen auch nicht rein technisch sein. Das wird oft vergessen.

Eva Gengler

Eva Gengler ist Master of Science und kam über die Wirtschaftswissenschaften zu IT und KI. Die Privatwirtschaft lernte sie nach ihrem Abschluss 2019 in beruflichen Stationen bei IT-Unternehmensberatungen kennen – sexistische Erfahrungen inklusive. 2021 machte sie sich deshalb selbstständig. 2022 gründete sie als Co-Founderin die Organisations- und IT-Beratung www.enableYou.de Parallel forscht sie zu KI und Feminismus, unter anderem in EU-finanzierten Projekten zu Sexrobotern und KI. Dass es einen Sexroboter namens „Frigid Farrah“ gibt, findet sie zum Beispiel gar nicht lustig. Zurzeit promoviert Eva Gengler im Rahmen eines Doktorand:innenprogramms zu „Business and Human Rights“ am Schöller-Stiftungslehrstuhl der FAU. Ihre feministischen KI-Kenntnisse spielen dabei eine wichtige Rolle. Außerdem leitet sie feminist AI (https://www.feminist-ai.com/de) Foto: Christine Dietenbach