Dr. Eva Gengler ist Wissenschaftlerin mit Schwerpunkt Künstliche Intelligenz, Gründerin – und Feministin. Noch ist KI weit davon entfernt, feministisch zu sein. Deshalb setzt sich Eva Gengler für Aufklärung und Selbstbestimmung im Umgang mit KI ein. herCAREER spricht mit der Expertin über ihr Buch „Feministische KI“ und darüber, wie wir alle dazu beitragen können, dass die Zukunft mithilfe von KI gerechter wird.
„Nur in einer gerechten Welt wäre KI gerechter.“
herCAREER: In deinem Buch schreibst du, dass KI unsere Welt massiv ungerechter machen wird. Was meinst du damit konkret?
Dr. Eva Gengler: Insbesondere Large-Language-Modelle (LLM) wie ChatGPT oder generative KI wie Dall·E lernen Muster aus bestehenden Daten. Sie reproduzieren und verstärken also, was ist. Wer in der analogen Welt benachteiligt ist, wird also auch digital benachteiligt, teils sogar stärker. KI lernt zudem vor allem von einer recht kleinen, homogenen und privilegierten Gruppe von Menschen, deren Perspektive nicht für die gesamte Gesellschaft, schon gar nicht für die ganze Welt stehen kann.
herCAREER: Was wäre ein Beispiel dafür?
Dr. Eva Gengler: Ich habe kürzlich das Prompt „Create an image of a doctor and nurses“ getestet. Das Ergebnis: ein Bild mit einem weißen männlichen Arzt und mehreren weiblichen, fast ausschließlich nicht-weißen Pflegekräften. Oder nehmen wir eine Firma, die in der Vergangenheit für eine bestimmte Rolle selten Frauen eingestellt hat – vielleicht, weil die Position aufgrund mangelnder Flexibilität für Mütter nicht geeignet war. Eine KI, die mit diesen Daten trainiert wird, „schließt“ womöglich daraus, dass Männer besser geeignet sind – und verstärkt damit ein altes Muster, ohne die Ursachen zu verstehen oder zu verdeutlichen.
herCAREER: Wenn es keinen Gender Data Gap gäbe, wäre KI dann gerechter?
Dr. Eva Gengler: Nicht unbedingt. Nur in einer gerechten Welt wäre KI gerechter. Die Qualität der Daten ist wichtig, aber sie sind niemals neutral. Selbst wenn wir mit ausgewogeneren Datensätzen trainieren, können Stereotype und menschliche Bias in Entwicklung und Nutzung einfließen.
herCAREER: Wie können wir trotzdem ausgewogenere, intersektionalere Daten erheben?
Dr. Eva Gengler: Daten sind nur so lange abstrakte, neutrale Einheiten, bis wir deren Machtgefüge hinterfragen. Erst wenn wir fragen, warum und von wem Daten gesammelt werden, verstehen wir ihre weißen Flecken. Ein Beispiel: In der Medizin haben Männer entschieden, dass es sich nicht lohnt, den weiblichen Körper mit seinen hormonellen Zyklen genau zu erforschen – er galt als zu komplex. Darum fehlen uns bis jetzt wichtige gendermedizinische Daten, mit gravierenden Folgen für Forschung und Behandlung. Die Qualität unserer Daten und die gerechte Funktionsweise von KI hängen also davon ab, wer die (richtigen) Fragen stellt und wer Entscheidungen trifft.
herCAREER: Besorgniserregend, wenn wir bedenken, dass die größten Player in der KI-Entwicklung und die großen Social-Media-Kanäle von MAGA-affinen Männern geleitet werden, oder?
Dr. Eva Gengler: Ja. Im Buch schreibe ich: „Macht prägt KI und KI reproduziert Macht.“ Es ist gefährlich, wenn einzelne Personen so viel Macht haben, denn sie bestimmen buchstäblich, was eine KI oder ein Algorithmus tut. Sie entscheiden über deren zugrundliegenden Werte.
Ein Beispiel ist Grok: Ich weiß nicht, ob Elon Musk sich die sogenannte „Spicy-Funktion“ selbst gewünscht hat. Aber er hat offensichtlich mindestens gebilligt, dass damit zutiefst sexualisierte Bilder auf der Basis von Fotos von Frauen, weiblich gelesenen Personen und Kindern erstellt und auf X geteilt wurden. Das war am Ende sogar gut fürs Geschäft. In anderen Fällen hat Grok antisemitische sowie rassistische Inhalte verbreitet. Das Problem ist: Solche sexistischen, rassistischen und antisemitischen Botschaften wirken oft subtil – bei Grok sind sie allerdings in der Regel sehr plakativ und offensichtlich. Aber gerade subtile stereotype Bilder und diskriminierende Sprache können diskriminierendes Gedankengut in der Mitte der Gesellschaft normalisieren.
herCAREER: Die Algorithmen sozialer Medien sind genauso manipulierbar, oder?
Dr. Eva Gengler: Ja. Experimente auf YouTube und TikTok haben immer wieder gezeigt, dass neu eröffnete, neutrale Profile systematisch auf rechtsextremen und frauenfeindlichen Content gelenkt werden.
herCAREER: Warum ist das so? Denn diese Inhalte spiegeln ja erwiesenermaßen nicht die Haltung des Großteils der Gesellschaft …
Dr. Eva Gengler: Es ist das Geschäftsmodell. Das Ziel dieser Social-Media-Plattformen ist, die Nutzerinnen und Nutzer länger auf der Plattform zu halten – und genau das bringt Werbeeinnahmen. Und extremer Content wird mehr geklickt. Polarisierung und Meinungsmanipulation sind also kein Zufall, sondern Teil des Geschäftsmodells. Die Entscheider:innen hinter den Plattformen nehmen in Kauf, dass damit Extremismus, Hass und eine konkrete Gefahr für die Demokratie einhergehen.
herCAREER: Kaum jemand kann heute sagen: „Ich boykottiere KI.” Dafür ist sie zu tief im (Arbeits-)Alltag verankert. Haben wir also zu wenig Regulierung in Deutschland und Europa?
Dr. Eva Gengler: Ich bin überrascht, wie viele Stimmen – auch unsere Wirtschaftsministerin – sich für Deregulierung einsetzen. Demokratie bedeutet, das friedliche Zusammenleben aller zu schützen, nicht die Wirtschaft um jeden Preis zu fördern. Natürlich brauchen wir wirtschaftlichen Aufschwung, aber nicht auf Kosten der Menschenrechte! Insofern: Ja, wir brauchen unbedingt Regulierung, denn es ist offensichtlich, dass gerechte KI ohne sie nicht realisierbar ist.
herCAREER: Wie effektiv ist der EU-AI-Act deiner Einschätzung nach?
Dr. Eva Gengler: Für mich geht die Regulierung nicht weit genug. Das liegt unter anderem daran, dass sehr viele Firmen in die Ausarbeitung eingebunden waren, die Lobby für weniger strenge Auflagen für KI gemacht haben. In Sachen Diversität, Barrierefreiheit, Zugang und Teilhabe sowie ökologische Nachhaltigkeit geht die Regulierung nicht weit genug. Aber sie ist ein wichtiger Anfang – gerade mit Blick auf Deregulierung in den USA.
herCAREER: Die Entwicklung des AI-Acts hat acht Jahre gedauert. Eine im Januar entwickelte Software kann jedoch bereits im Juli veraltet sein. Wie soll so effektive Regulierung möglich sein?
Dr. Eva Gengler: Gesetze arbeiten mit Generalisierungen, um flexibel zu bleiben. Ich glaube beispielsweise nicht, dass KI-Agenten explizit in der Regulierung erwähnt sind, weil sie damals noch keine große Rolle gespielt haben. Aufgrund ihrer Einsatzfelder und Nutzung würde ich dennoch sagen, dass sie unter die KI-Regulierung fallen. Es wird aber tatsächlich schwierig bleiben, die technologische Geschwindigkeit politisch und juristisch abzudecken.
herCAREER: Schwierig auch dahingehend, dass viele Nationen – auch Deutschland – sich nicht immer an multilaterale Abkommen halten. Enthält das Papier auch echte Sanktionen oder ist es mehr als freiwillige Selbstkontrolle zu betrachten?
Dr. Eva Gengler: Laut dem Abkommen sollen das EU-AI-Office der Europäischen Kommission und die nationalen KI-Aufsichtsbehörden die Einhaltung kontrollieren. Bei Verstößen sind finanzielle Strafen vorgesehen. Ob die finanziellen und personellen Ressourcen für die Überwachung allerdings ausreichen, wird sich zeigen.
herCAREER: So wie Sexismus kein Frauen-, sondern ein Männerproblem ist, sind Diskriminierung und Polarisierung durch KI kein technisches Problem, sondern ein menschliches. Wo müssen wir also ansetzen?
Dr. Eva Gengler: Ein wichtiger Bereich ist die Bildung. Wir müssen Kompetenzen früh vermitteln – schon in der Schule. Und zwar nicht nur in der Nutzung, sondern im verantwortungsvollen Umgang mit KI. Kinder sollten lernen, wie Machtstrukturen und Hierarchien wirken und dass Technologie darum nie neutral ist. Jedes Ergebnis muss hinterfragt werden.
herCAREER: Welche Frage ist die erste, die man sich stellen sollte?
Dr. Eva Gengler: Die Frage nach dem Zweck: Warum?
herCAREER: Warum spielt Simon Sineks Konzept „Start with Why“ eine Rolle im Kontext feministischer KI?
Dr. Eva Gengler: Simon Sinek sagt: Wenn wir als Organisation nicht wissen, warum wir etwas tun, dann können wir es auch nicht richtig tun. Das gilt besonders für KI. Wer Systeme entwickelt oder einsetzt, sollte verstehen, welchem Ziel sie dienen. Heute geht es meist um Effizienz oder Kostensenkung. Wenn das Ziel jedoch Gerechtigkeit oder Vielfalt im Recruiting ist, dürfen wir uns nicht (nur) auf alte Datensätze stützen, die Ungerechtigkeit widerspiegeln. Wir sollten mit KI den Prozess neu und gerechter denken.
Im Recruiting gibt es da zum Beispiel Chemistree, die ein KI-gestütztes Matching im Personalwesen anbieten. Statt Stellenbeschreibungen und schier unerreichbaren Anforderungslisten – zumindest aus Sicht von vielen Frauen – matcht die KI konkrete Anforderungen und Vorstellungen eines Unternehmens mit den Kompetenzen und Präferenzen der Talente. Das kann dazu führen, dass sich Frauen letztendlich für eine Stelle bewerben, auf die sie sich ohne das Matching nicht beworben hätten.
herCAREER: Es ist interessant: Im Innovationskontext verteufeln wir die Aussage „Das haben wir schon immer so gemacht“ – und das zu Recht. Beim Thema KI verlassen wir uns jedoch ausschließlich auf bestehende Muster und verschließen uns so systematisch echten Innovationen. Wie können IT-Unternehmen dazu beitragen, ethische und feministische Innovationen zu entwickeln?
Dr. Eva Gengler: Indem sie nach dem Warum fragen. Jede Person, die an einer KI-Entwicklung arbeitet, sollte sich bewusst sein, welchen Zweck die Anwendung hat. Aber die wirkliche Verantwortung liegt im Management. Sie setzen die Rahmen, sie bestimmen über Budgets, sie tragen die Verantwortung dafür, wo, wie und vor allem warum KI eingesetzt wird.
herCAREER: Gibt es Prozesse, die dabei helfen können?
Dr. Eva Gengler: KI-Governance und Tests! Wir sollten unsere Systeme im gesamten Prozess immer wieder testen, mit diversen Daten und durch diverse Personen. Denn erst dann fallen Probleme oft auf. Und das sollten wir von Anfang an machen!
herCAREER: Transdisziplinäre und intersektionale Testgruppen?
Dr. Eva Gengler: Genau. So kann selbst ein Entwickler:innen-Team, das vorwiegend aus weißen, sozioökonomisch ähnlichen Umfeldern kommt, wichtige weiße Flecken aufdecken. In der Praxis ist das oft nicht leicht umzusetzen – zumindest wird es viel zu selten getan.
herCAREER: Wie kann jede*r von uns KI feministisch nutzen?
Dr. Eva Gengler: Ihr könnt euch fragen, wie ihr eine KI so nutzt, dass sie feministische Ziele umsetzt. Ihr könnt LLM nutzen, um feministische Texte zu schreiben – aber bitte immer den Inhalt selbst bestimmen, KI darf nur ein Werkzeug zur Unterstützung sein. Schon beim Formulieren eines Prompts könnt ihr entscheiden, welche Perspektive ihr einfordert, könnt gezielt Expertinnen oder LGBTQIA-Personen als Quellen verlangen – und generell Quellenvielfalt – ebenso wie genderneutrale Sprache. So prägt ihr KI auch Stück für Stück ein bisschen mit.
herCAREER: Das hat dann meine konkrete Anfrage feministisch geprägt – aber habe ich damit einen Einfluss auf die KI selbst?
Dr. Eva Gengler: Wir haben bereits mehrfach beobachtet, dass KI-Unternehmen auf Druck der Öffentlichkeit nachgebessert haben. Also finde ich es gut, wenn wir problematische Inhalte, die eine KI generiert hat, teilen und sichtbar machen. Das kann Druck ausüben, wenn es viele von uns tun – wie auch im Fall von Grok auf X zu beobachten war. Wir wissen nicht mit Sicherheit, wie groß der Einfluss von unserem Nutzer:innen-Feedback auf LLMs ist, aber ich würde trotzdem sagen, dass es gut ist, wenn wir auch das System kritisieren und hoffen, dass es Stück für Stück dazulernen wird. Am Ende sollten wir uns beim Prompten immer fragen: Was wollen wir mit KI erreichen – einen Teil der Realität abbilden oder sie verändern?
herCAREER: Wenn KI ein Abbild unserer Gesellschaft ist, müssen wir im analogen und im digitalen Raum möglichst feministisch agieren. Du schreibst, wir sollen anderen (KI-)Expertinnen eine Plattform bieten.
Dr. Eva Gengler: Genau. KI lernt von digitalem Content. Das bedeutet: Je öfter ich Expertinnen an die Medien empfehle und je mehr Panels ausschließlich mit Frauen oder paritätisch mit Frauen besetzt sind, desto öfter werden sie auch erwähnt und eingeladen werden. Das ist in unserer analogen Welt so, aber das wird durch digitale Berichterstattung und Präsenz auch in die Datengrundlage einfließen und die nächste Generation von KI mitprägen.
Dr. Eva Gengler wird ihr Buch „Feministische KI” und ihre Forschungserfahrungen im Rahmen des Authors-MeetUp auf der herCAREER Expo 2026 am 22.+ 23. Oktober 2026 in München vorstellen.
Das Interview führte herCAREER-Redakteurin Kristina Appel.
Bild Dr. Eva Gengler Wirtschaftsinformatikerin und intersektional-feministische Forscherin zu Macht und Künstlicher Intelligenz Co-Founderin der feminist AI Community und enableYou © Helena Henkel
Quelle messe.rocks GmbH

























