Feministische Perspektiven auf Daten, Algorithmen & Macht
KI und Gender, zwei Begriffe, die in der öffentlichen Diskussion oft getrennt behandelt werden. Doch sie sind untrennbar verbunden. Künstliche Intelligenz (KI) beeinflusst längst unser tägliches Leben, von Bewerbungsgesprächen bis zur Gesundheitsversorgung. Doch wer gestaltet diese Systeme und wessen Perspektiven fehlen dabei?
Etwa 70-80 % der KI-Entwickler*innen sind männlich, vor allem in technischen Leitpositionen. Diese strukturelle Einseitigkeit wirkt sich auf Trainingsdaten, Systemdesigns und die Funktion von KI aus, oft zum Nachteil marginalisierter Gruppen. (AI’s Missing Link: The Gender Gap in the Talent Pool)
Aber: Die Zukunft ist nicht festgelegt.
Was wäre, wenn KI mehrheitlich von Frauen entwickelt worden wäre?
Was würde sich ändern, wenn feministische Prinzipien wie Fürsorge, Kontext, Transparenz und Gerechtigkeit integraler Bestandteil von Technologieentwicklung wären?
Dieser Beitrag bietet einen radikalen Perspektivwechsel auf KI und Gender und lädt dazu ein, neue Realitäten zu denken.
Bildung und KI: neugierig statt normiert
Stell dir vor: Eine KI, die nicht fragt „Wo liegst du falsch?“, sondern: „Was brauchst du zum Wachsen?“
Eine Lern-KI, die erkennt, dass du müde bist und dir eine Pause vorschlägt. Dein Rhythmus ist unüblich? Kein Problem, Übungen passen sich an. Individualisierte Lernpfade statt standardisierter Tests. Emotionale Intelligenz statt Faktenreproduktion.
In ihrem Buch Data Feminism zeigen Catherine D’Ignazio und Lauren F. Klein eindrucksvoll: „Data are not neutral or objective. They are the products of unequal social relations, and this context is essential for conducting accurate, ethical analysis“ aus: What we do with data: a performative critique of data ‚collection‘, Data Feminism (MIT Press)
Ein KI-System, das von Frauen mitentwickelt worden wäre, würde vermutlich Neugier wecken und Stärken fördern, nicht Defizite verwalten. Und es würde berücksichtigen, wie stark Gender soziale Erwartungen beim Lernen beeinflusst.
Gender Bias in Trainingsdaten: Wenn KI Machtverhältnisse spiegelt
KI und Gender sind nicht nur eine Frage der Repräsentation, sondern der Macht. Denn KI lernt nicht „neutral“, sondern aus vorhandenen Daten und die sind oft voller Vorurteile.
Ein Beispiel:
Das Projekt Gender Shades von Joy Buolamwini zeigte, dass Gesichtserkennungssysteme bei weißen Männern eine Fehlerquote von unter 1 % hatten, bei Schwarzen Frauen lag sie bei bis zu 35 % (mehr dazu: Photo Algorithms ID White Men Fine—Black Women, Not So Much).
Was wäre, wenn diese Systeme von Anfang alle Perspektiven mitgedacht hätten?
Wenn folgende Fragen regelmäßig gestellt werden?
- Wer fehlt in den Daten
- Welche gesellschaftlichen Strukturen sind in den Algorithmen eingebaut
- Welche Realitäten werden übersehen oder ausgeblendet?
Mehr zu meinen Gedanken zu den Trainingsdaten der KI findest du auch unter: Was wäre, wenn KI-Modelle ihre Trainingsdaten nach der realen Verteilung der Menschheit gewichtet hätten?
Mehr dazu, warum es mehr Frauen in der KI-Entwicklung benötigt: AI Development Needs More Women. Here’s What Leaders Can Do About It
Care-Arbeit als Algorithmus: Wenn Fürsorge als Innovation zählt
Was passiert, wenn Sorgearbeit und emotionale Intelligenz nicht als „weich/weiblich“, sondern als technologische Ressource verstanden werden?
Pflegende Angehörige, Therapeut*innen, Eltern – sie alle bringen Skills mit, die KI-Entwicklung bereichern könnten: Empathie, vorausschauendes Handeln, Beziehungsgestaltung.
Apps wie Clue und Flo machen zyklusbasiertes Gesundheitswissen zugänglich, aber auch hier zeigt sich, wie Genderfragen und Datenschutz zusammenhängen. In 2022 führten sie einen „Anonymous Mode“ ein, der besonders nach dem US-Abtreibungsurteil entscheidend wurde (Flo (App) Wikipedia).
Eine divers geprägte KI würde eher
- Belastung sichtbar machen (z. B. in Haushalts- oder Pflegearbeit)
- Alltagsverantwortung anerkennen
- Gesundheitsdaten respektvoll und transparent verarbeiten
KI und Arbeitswelt: Gendergerechte Technologie für faire Strukturen
„Move fast and break things“, war lange Zeit ein inoffizielles Motto von Facebook (Meta) in der Anfangszeit, speziell um die schnelle Innovationskultur im Tech-Bereich zu beschreiben. Es ist ein Sinnbild für die frühe Tech-Startup-Kultur: schnell, disruptiv, oft unkonventionell, aber auch riskant. Heute gilt das Motto eher als Leitspruch vergangener, unreflektierter Hyperwachstumsphasen im Tech-Sektor.
Doch die zentrale Frage, die wir uns stellen müssen, ist: Wer oder was wird eigentlich „gebrochen“, wenn wir uns unkritisch an dieses Tempo halten? Insbesondere im Kontext der Künstlichen Intelligenz in der Arbeitswelt offenbaren sich nicht nur immense Potenziale, sondern auch tiefgreifende Risiken:
- Algorithmen, die Bewerbungen vorsortieren
- Systeme, die Leistung tracken
- Tools, die Produktivität „messen“
Eine feministische Perspektive auf KI und Gender würde nach Work-Life-Integration, Kontext und Sinn fragen, nicht nach Output um jeden Preis.
Die steigende Zahl an FemTech-StartUps vor allem im Bereich Frauen-Gesundheit, zeigt, dass es da einen Markt gibt. (FemTech-Startups, die sich alle merken sollten von Feb. 2024)
Data Feminism: Wenn Gender, Macht und Technologie zusammengedacht werden
Der Kern des Data Feminism ist die Erkenntnis, dass Daten niemals neutral oder objektiv sind. Sie sind Produkte menschlicher Entscheidungen und spiegeln die Machtverhältnisse und Vorurteile der Gesellschaft wider. Dies betrifft nicht nur Geschlechterfragen, sondern auch andere Formen der Ungleichheit, wie Rassismus, Klassismus, Kolonialismus und Ableismus.
Die beiden Autorinnen Catherine D’Ignazio und Lauren F. Klein haben in ihrem Buch „Data Feminism“ sieben Kernprinzipien formuliert, die diesen Ansatz leiten:
Kernprinzipien des Data Feminism
- Macht untersuchen
- Macht herausfordern
- Emotionen und Verkörperung aufwerten
- Binäre und hierarchische Denkweisen überdenken
- Pluralismus umarmen
- Kontext berücksichtigen
- Arbeit sichtbar machen
Diese Prinzipien helfen, KI und Gender systematisch zu denken und bieten praktische Tools für Entwicklung, Analyse und Anwendung.
Mehr dazu findest du auch hier: Data Feminism for AI Paper.
Was du jetzt tun kannst
KI und Gender neu zu denken, beginnt nicht in den Konzernzentralen, sondern bei uns.
Das kannst du konkret tun:
- Nutze und empfehle gendergerechte KI-Tools wie z. B. Clue
- Unterstütze Organisationen wie Girls Who Code, Algorithmic Justice League
- Hinterfrage KI-Systeme in deinem Alltag: Wer profitiert? Wer wird übersehen?
- Sprich über das Thema: in deinem Netzwerk, auf Social Media, in Teams
Fazit: Die Zukunft von KI ist kein Zufall
KI und Gender gehören zusammen.
Wenn wir Systeme entwickeln, die in viele unserer Entscheidungen eingreifen, egal ob medizinische Diagnosen oder Personalpolitik, müssen wir sicherstellen, dass sie nicht die Fehler der Vergangenheit wiederholen.
Die Vision einer KI, die Gleichstellung, Care und Kontext integriert, ist kein Traum, sie ist greifbar. Und sie beginnt damit, dass wir uns trauen, KI neu zu denken.
Also: Nicht „Was wäre, wenn …“, sondern: Was wird, wenn wir jetzt handeln?
Quellen & Weiterführende Links
- AI’s Missing Link: The Gender Gap in the Talent Pool
- AI Development Needs More Women. Here’s What Leaders Can Do About It
- Frauen als gleichberechtigte Partnerinnen in der KI-Revolution: ein Aufruf zur Gleichstellung der Geschlechter im digitalen Zeitalter
- FIT FÜR KI? Genderspezifische Unterschiede in der Wahrnehmung, dem Verständnis und in den Weiterbildungswünschen bezüglich Künstlicher Intelligenz