Entdecke, wie KI gesellschaftliche Machtstrukturen spiegelt, warum der Gender Data Gap reale Folgen hat und wie feministische Tech-Vorbilder wie Joy Buolamwini und Timnit Gebru die Zukunft mitgestalten. Inklusive praktischer Impulse für mehr Vielfalt, Ethik und Empowerment in der digitalen Welt.
Kreativität und KI: Eine neue Ära
In der vierten Folge des Podcasts wird die Beziehung zwischen KI und Feminismus beleuchtet. KI wird oft als objektiv wahrgenommen, doch das ist ein Trugschluss. Die Technologie lernt aus den Daten, mit denen sie trainiert wird, und diese sind selten neutral. Hier sind einige wichtige Punkte:
- Data Bias: KI kann Verzerrungen übernehmen, die in den Trainingsdaten vorhanden sind. Diese Daten spiegeln oft gesellschaftliche Vorurteile wider.
- Bilderkennung: Ein Beispiel für Data Bias ist die Bilderkennung, die oft nicht divers genug ist und viele Wiederholungen benötigt, um ein vielfältiges Bild zu erzeugen.
Feminismus in der Technik: Ein Muss, kein Nice-to-have
Feminismus in der Technik ist unerlässlich, um eine gerechte und inklusive Zukunft zu gestalten. Barbara stellt die Frage, wie Empathie, Vielfalt und Care-Arbeit Teil des Codes werden können. Einige Überlegungen dazu sind:
- Feministische Perspektiven: Diese sollten nicht als Filter, sondern als Upgrade für KI-Systeme betrachtet werden.
- Visionärinnen und Role Models: Frauen wie Joy Buolamwini und Timnit Gebru sind Vorreiterinnen in der Diskussion um ethische und gerechte KI-Systeme.
Joy Buolamwini ist Informatikerin, KI-Forscherin, Künstlerin und digitale Aktivistin. Sie ist durch ihre Arbeit zur Aufdeckung von Algorithmusverzerrungen bekannt und die Gründung der Algorithmic Justice League hat die weltweite Debatte über KI-Ethik maßgeblich geprägt.
Timnit Gebru ist eine führende KI-Forscherin und Kritikerin, die durch ihre Arbeit zur algorithmischen Voreingenommenheit und die Gründung des Distributed AI Research Institute (DAIR) eine zentrale Rolle in der Diskussion um ethische und gerechte KI-Systeme spielt.
Der Gender Gap in der KI-Nutzung
Ein weiteres zentrales Thema ist der Gender Gap in der Nutzung von KI-Tools. Studien zeigen, dass Frauen diese Technologien seltener nutzen als Männer. Gründe dafür sind:
- Geringeres Selbstvertrauen: Frauen haben oft weniger Vertrauen in ihre Technikfähigkeiten.
- Kritische Einstellung: Ein höheres Misstrauen gegenüber Datenschutz und Zuverlässigkeit von KI.
Die Studie „Global Evidence on Gender Gaps and Generative AI“ zeigt global und sektorübergreifend, dass Frauen generative KI-Tools deutlich seltener nutzen als Männer, was hauptsächlich auf ein geringeres selbstberichtetes Technikverständnis und eine kritischere Einstellung zurückzuführen ist.
Das wiederum führt zu potenziellen Nachteilen für ihre Karriereentwicklung in einer zunehmend KI-gesteuerten Arbeitswelt.
Studie: Women are falling behind on generative AI in the workplace
Der Weg zur Gleichberechtigung in der Technik
Um die Kluft zu überwinden, braucht es Räume, in denen Frauen und andere marginalisierte Gruppen Technik spielerisch ausprobieren können. Der Gender Data Gap ist in vielen Bereichen Realität, und KI übernimmt oft diese Lücken. Barbara ermutigt dazu, aktiv feministische Perspektiven in die Entwicklung von KI-Tools einzubringen.
Dein Prompt zum ausprobieren
Wie könnte ein KI-System klingen, das von weißen cis Männern trainiert wurde, wenn es einer Frau of Color kreative Tipps geben soll? Und was würdest du ändern, wenn du feministisch programmiert wärst?
Fazit: Technik als Spiegel der Gesellschaft
Technik ist nicht objektiv, sondern ein Spiegel der Gesellschaft. Die Frage ist, wer in diesen Spiegel schaut und wessen Spiegelbild fehlt. Barbara erinnert uns daran, dass wir nicht perfekt sein müssen, um kreativ zu sein. Sie lädt dazu ein, sich in ihren Newsletter einzutragen, um Inspiration und Motivation zu finden.
Bleib neugierig und gestalte die Zukunft der Technik mit!
Kreativität ist kein Geistesblitz. Sie ist ein Aufeinandertreffen von Reibung und Mut. KI kann beides liefern. Aber du entscheidest, ob du hinschaust.
Podcastfolge anhören
Sie sehen gerade einen Platzhalterinhalt von Standard. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Weitere Informationen
Transkript
Uneditiertes Transkript zur Folge (mit KI Tool entstanden)
Fearless Prefection, der Podcast über Kreativität, Inspiration und Empowerment, der dich ermutigt, einfach loszulegen, bevor du dich bereit fühlst. Hi, ich bin Barbara und in der vierten Staffel von Fearless Prefection geht es um Kreativität, KI und Feminismus. Ich zeige dir, wie du KI nicht nur nutzt, sondern mit ihr spielst, improvisierst und vielleicht sogar rebellierst. Kein Technik-Blabla, sondern echtes Ausprobieren mit Haltung, Humor und viel Spaß mit und in den Prompts.
Denn die Zukunft gehört denen, die lernen und verstehen wollen, in ihrer Geschwindigkeit, auf ihre Art. In Folge 4 geht es jetzt um KI und Feminismus. KI klingt erst mal, als wäre es objektiv. Das stimmt aber nicht.
KI lernt aus den Daten, die sie bekommt, mit denen sie trainiert wurde. Und die sind selten neutral. Und wenn du nicht aufpasst, übernimmst du unbewusst diesen Data Bias, so nennt man das, aus dieser Welt, aus der sie gefüttert wurde. Die Trainingsdaten sind meistens ja sowas wie ein Spiegel der Gesellschaft.
Aber was passiert, wenn dieser Spiegel verzerrt ist? Für diesen Data Bias, bei KI vor allem, gibt es ganz viele Beispiele bei der Bilderkennung, wenn du versuchst, damit Texte oder Bilder zu generieren und sehr, sehr intensiv und sehr viele Wiederholungen brauchst, damit das Bild divers ist. Wenn KI dich als Frau, als People of Color, als was auch immer, nicht sieht, erkennt sie auch nicht, dass du die Expertin bist, die Unternehmerin bist, die Kreative. Feminismus ist in der Technik kein Nice-to-have, es ist ein Muss.
Was wäre, wenn Empathie, Vielfalt, Care-Arbeit Teil des Codes wäre? Wenn feministische KI fragt, was ist effizient, sondern für wen funktioniert das eigentlich? Wie kriegt man diese feministischen Perspektiven in die KI? Und ich rede jetzt hier nicht von ultra harten Sachen, sondern tatsächlich von einer Gleichberechtigung aller Menschen.
Wie bekommt man das in einer KI abgebildet, die mit Trainingsdaten trainiert wird, die die Gesellschaft abbilden, aber eben verzerrt? Es gibt Visionärinnen und Role Models. Frauen, die diese Technik neu denken. Es gibt Joy Buolamwini.
Ich hoffe, ich habe den Namen einigermaßen ausgesprochen. Sie ist Informatikerin, KI-Forscherin, Künstlerin und digitale Aktivistin. Sie ist vor allem durch ihre Arbeit zur Aufdeckung von Algorithmusverzerrung bekannt und hat die Algorithmic Justice League mitgegründet und eine weltweite Debatte über KI-Ethik geprägt. Dann gibt es Timnit Gebru, auch eine KI-Forscherin und Kritikerin, die durch ihre Arbeit zur algorithmischen Voreingenommenheit und die Gründung des Distributed AI Research Institute bekannt ist und auch eine zentrale Rolle in der Diskussion um ethische und gerechte KI-Systeme spielt.
Diese Role Models, Visionären, machen sichtbar, was möglich ist und sie zeigen, du musst nicht angepasst sein, um Technik zu verändern. Der Gender Gap ist nicht nur im Code vorhanden, in den Trainingsdaten, sondern auch bei der Nutzung. Es geht nicht nur darum, wie KI denkt, beziehungsweise welche Daten KI als Basis hat, als Grundlage für alle ihre statistischen Aussagen, Berechnungen, sondern auch wer sie nutzt. Die Global Evidence on Gender Gaps and Generative AI-Studie von Harvard zeigt global und auch sektorübergreifend, dass Frauen generative KI-Tools deutlich seltener nutzen als Männer.
Was hauptsächlich damit zusammenhängt, dass Frauen denken, sie hätten ein geringeres Technikverständnis und oft auch eine kritischere Einstellung zu diesen Techniken haben. Das wiederum führt aber auch zu potenziellen Nachteilen bei der Karriereentwicklung in einer zunehmend KI-gesteuerten Arbeitswelt. Diese Studien zeigen, dass das Geschlechtergefälle in der KI-Nutzung nicht primär an der Verteilung von Frauen in bestimmten Berufsfeldern liegt, sondern an tieferliegenden Faktoren, wie eben diesem geringeren Selbstvertrauen bei Technikfähigkeiten. einem höheren Misstrauen gegenüber der KI in Bezug auf Datenschutz und Zuverlässigkeit und auch der mangelnden Berücksichtigung weiblicher Perspektiven in der Entwicklung von KI-Tools.
Technik war jahrzehntelang nicht für Frauen gedacht, obwohl viele Frauen entscheidende Rollen in vielen Erfindungen hatten rund um Computer und Programmiersprachen. Und Frauen neigen dazu, dass sie perfekt starten wollen und seltener etwas spielerisch ausprobieren. Das ist aber kein persönliches Problem, das ist ein strukturelles Muster. Und deshalb braucht es Räume, in denen man etwas ausprobieren darf, ohne perfekt zu sein.
Und wenn wir diesen Zugang zu diesen neuen Techniken nicht selbst gestalten und auch nicht finden, dann bleibt das verschlossen. Der Gender Data Gap ist Realität in Medizin, Stadtplanung, Marketing. Überall fehlen Daten über Frauen und andere marginalisierte Gruppen und KI übernimmt diesen Gap. und wundern uns dann, warum wir nicht repräsentiert werden.
Hast du das schon mal erlebt, dass dich Technik nicht gesehen hat? Und wie hast du dich gefühlt? Was war die Konsequenz daraus? Und um dann nochmal tiefer reinzugehen, habe ich einen Prompt zum Ausprobieren für dich, auch diese Woche wieder.
Wie könnte ein KI-System klingen, das von weißen CIS-Männern trainiert wurde, wenn es einer Frau of Color kreative Tipps geben soll? Und was würdest du ändern, wenn du feministisch programmiert wärst? Probiert das mal aus. Die Antwort ist echt spannend, was die KI dann über sich selber sagt.
Und vergesst einfach nicht, KI ist nicht neutral. Ist einfach so. Sie kann besser werden, wenn wir sie besser machen und wenn wir uns dessen bewusst sind, dass sie nicht neutral ist. Feministische Perspektiven sind nicht sowas wie ein Filter, sondern Sie sollten ein Upgrade sein.
Du kannst das mitgestalten. Du kannst von deiner KI immer wieder verlangen, dass es auch die Perspektiven von allen Menschen berücksichtigt, von marginalisierten Gruppen, von Frauen, von People of Color. Du kannst sie danach fragen. Es gibt darüber ja Daten, aber eben bei weitem nicht so viele.
Und auch dieses Mal gibt es wieder zum Schluss etwas zum Nachdenken. Technik ist nicht objektiv, sie ist ein Spiegel. Die Frage ist nur, wer schaut hinein, wessen Spiegelbild fehlt und wer hat überhaupt einen Schlüssel zu dem Raum mit dem Spiegel. Wir hören uns wieder nächste Woche.
Bis dann. Das war Fearless Perfection, dein Reminder, dass du nicht perfekt sein musst, um kreativ zu sein. Ich stehe für Female Empowerment, Content Creation mit Haltung, spielerisches Ausprobieren und Ideen, die dich bewegen. Wenn du Inspiration suchst, Motivation brauchst oder einfach wieder deine Kreativität finden willst, trag dich in meinen Newsletter ein.
Und hab immer Stift + Papier dabei, denn deine nächste große Idee wartet schon darauf, von dir festgehalten zu werden.