KI? KA!

Künstliche Intelligenz gendergerecht!

😃 AR-Face Filter-Edition 😃

Für mehr Transparenz beim Einsatz von KI, um Gleichbehandlung zu gewährleisten

Problem #1
Geschlechterstereotypen

„AI, aint’t I a woman?“ (Buolamwini 2018)

Gesichtserkennung ist darauf trainiert, gender-spezifische Merkmal zu erkennen. Im ersten Beispiel sucht ein Algorithmus dein Gesicht nach Merkmalen ab, die er als entweder männlich oder weiblich erkennt. Diese Merkmale hat er durch das Anschauen, Bewerten und Vergleichen von vielen Gesichts-Bildern gelernt. Ebenso kann der Algorithmus wissen, ob eine Person jung oder alt ist. Er schätzt also auch dein Alter. Aber liegt er dabei immer richtig?

😃 Probier mal den AR-Filter aus 😃

face
Die Kamera des Web-Browsers muss eingeschaltet sein, um Augmented Reality aktivieren zu können

?!

Vorurteile und Ungleichheiten, sowie insbesondere Geschlechterstereotype werden von Menschen an algorithmische Systeme weitergegeben, wenn die Lerngrundlage nicht kritisch hinterfragt und geprüft wurde. Wurdest du als männlich oder als weiblich erkannt und bewertet und zu wieviel Prozent? Liegt der Algorithmus richtig oder fühlst du dich diskriminiert? Problematisch ist hier schon das Konzept eines binären Systems, dass davon ausgeht, dass es genau zwei Geschlechter mit eindeutigen Merkmalen gibt. Andere Geschlechtsidentitäten werden hier gar nicht berücksichtigt.

Problem #2
Bias im Algorithmus und in den Daten

„Diskriminierungen in den Daten werden vom Algorithmus „mitgelernt.“ (Zweig 2019)

Datensätze sollten möglichst unvoreingenommen sein, also Bias-frei. Wie sieht es bei diesem Filter aus? Wenn lediglich diese Gesichter zum Training der KI eingesetzt worden wären, wie vielfältig wäre der Algorithmus am Ende?
Ein krasses Beispiel sind sexualisierte Deepfakes, die mithilfe eines einfachen Portraitfotos erstellt werden können. „Diese KI-Modelle wurden mit Millionen von Nacktbildern von Frauen trainiert. Die Folge ist eine strukturell verzerrte Technologie, die geschlechtsspezifische Gewalt nicht nur reproduziert, sondern systematisch verstärkt.“ (Mosene 2025) Bislang ist die Gesetzeslage dafür lückenhaft.

😃 Probier mal den AR-Filter aus 😃

Die Kamera des Web-Browsers muss eingeschaltet sein, um Augmented Reality aktivieren zu können

?!

Wer KI einsetzt, muss sicherstellen, dass das System Bias-frei (unvoreingenommen) ist und Entscheidungen trifft, die niemanden benachteiligen. Das setzt voraus, dass sowohl die Datensätze, mit dem das System gelernt hat, als auch die Entwickler*innen, die Algorithmen gestaltet haben, frei von Bias sind. „Algorithmen und damit verbundenes maschinelles Lernen können – wenn sie nicht transparent und robust genug sind – zu geschlechterspezifischen Diskriminierungen beitragen, diese wiederholen oder verstärken, weil sie auf einer bestimmten Datenauswahl beruhen oder weil dies den Programmierern möglicherweise gar nicht bewusst ist.“ (Europäische Kommission 2020).

Problem #3
Diskriminierung durch (Gender-) Ungleichgewicht

„Nur 22% der KI-Programmierer/innen derzeit sind Frauen“ (Europäische Kommission, 2020).

Frauen sind bei der Entwicklung fast unsichtbar. In diesem Beispiel kannst Du das nachfühlen, vorausgesetzt, du wirst als mindestens zu 50% weiblich identifiziert.

😃 Probier mal den AR-Filter aus 😃

Die Kamera des Web-Browsers muss eingeschaltet sein, um Augmented Reality aktivieren zu können

?!

Aufgrund der Überrepräsentanz von weißen cis-Männern aus ressourcenstarken Regionen bei der Entwicklung automatisierter Entscheidungssysteme ist davon auszugehen, dass z. B. Codes (unbewusst) aus einer „männlichen Perspektive“ geschrieben werden. Das kann dazu führen, dass eine ungerechtfertigte Benachteiligung von Frauen und anderen marginalisierte Personengruppen in Systemen fest verankert wird und somit dazu beigetragen wird, dass Ungleichheit immer weiter verstärkt wird.

Problem #4
Beteiligung aller Geschlechtsidentitäten an KI-Entwicklung

„It’s easy to make a mistake, it’s easy for bias to enter undetected, and everyone in the room is responsible for preventing it.“ (Maccormick 2023)

Go and create! Nehme Raum ein und werde sichtbar! Du bist wichtig, um eine vielfältige Zukunftstechnologie zu gestalten und Anti-Diskriminierung zu gewährleisten!

😃 Probier mal den AR-Filter aus 😃

Die Kamera des Web-Browsers muss eingeschaltet sein, um Augmented Reality aktivieren zu können

?!

Marginalisierte Personengruppen spielen eine entscheidende Rolle, die Systeme der Zukunft mitzugestalten. Zum einen können Frauen, Lesben, Intergeschlechtliche, Nicht-binäre, Trans- und Agender-Personen sich so auf einem extrem wichtigen Zukunftsmarkt etablieren, Einfluss nehmen und an dem wirtschaftlichen Profit teilhaben. Zum anderen können sie durch Mitgestaltung die Qualität der Systeme sicherstellen und Stereotypen entgegenwirken.

Künstliche Intelligenz gendergerecht!

Prinzipien für eine gendergerechte Gestaltung beim Einsatz von KI

Wie müssen also algorithmische Systeme gestaltet werden, damit sie frei von Geschlechter-Diskriminierung sind?

👉 Heterogene Gestaltungsteams

Durch verstärkte Beteiligung von Frauen werden Meinungs- und Perspektivenvielfalt angeregt und eine und Reflexion von Geschlechterstereotypen gefördert.

👉 Anti-Bias-Trainings

Alle Personen, die an der Entwicklung und dem Einsatz automatisierter Entscheidungssysteme beteiligt sind, absolvieren Unconscious Bias-Trainings, um Unvoreingenommenheit zu identifizieren und mit „Gender-Blindheit“ bewusst umzugehen.

👉 Monitoring und Evaluation

Die Installation eines Kontrollprozesses soll die Anforderungen und die Entscheidungen des Systems auf eine klare und transparente Weise analysieren und adressieren, insbesondere jener automatisierten Entscheidungssysteme, in deren Kontext eine Diskriminierung nach Geschlecht erwartet werden kann.

👉 Stakeholder-Partizipation

Die Beteiligung von Stakeholdern aus dem Bereich Gleichstellung lenkt den Blick auf Gendergerechtigkeit. Dabei ist es gewinnbringend, auch nach der Bereitstellung des Systems um ein regelmäßiges Feedback zu bitten und Langzeitmechanismen für die Beteiligung von Interessensvertretungen zu etablieren, z. B. durch Information und Konsultationsprozesse.

Wünschenswert ist eine eine Umsetzung dieser Empfehlungen immer dann, wenn KI zum Einsatz kommt. Nur so kann eine gleichberechtigte Einbeziehung bzw. Teilhabe ohne Benachteiligung nach Geschlecht gewährleistet werden.

🧠 Frag doch mal nach, falls Du an einem KI-Projekt beteiligt bist, wie Diskriminierung verhindert und gendergerechtigkeit gewährleistet wird. Oder initiiere selbst die Umsetzung des Leitfadens.

Mehr Regelungen und Guidelines zur Nachlese

Zur intersektionalen feministischen Kritik am AI Act
Sechs Punkte auf dem Weg zu einem feministisch informierten EU-Gesetz über künstliche Intelligenz, um feministische Prinzipien in das EU-Gesetz über künstliche Intelligenz zu integrieren und sicherzustellen, dass die Entwicklung von künstlicher Intelligenz geschlechtsspezifisch, gleichberechtigt und gerecht ist.

KI-Gesetz des EU-Parlaments
Das EU-Parlament beschließt im Juni 2023 Regeln zu Künstlicher Intelligenz.

Abschlussbericht der Expertengruppe der Kommission für künstliche Intelligenz und Daten in der allgemeinen und beruflichen Bildung
Als Teil ihrer digitalen Strategie hat die Europäische Kommission 2022 einen umfassenden Rechtsrahmen für KI vorgeschlagen, der verbindliche Anforderungen für „Hochrisiko-KI-Systeme“ in verschiedenen Bereichen, einschließlich der allgemeinen und beruflichen Bildung, vorsieht.

Ethische Leitlinien für Künstliche Intelligenz bei SmartLiving
Im Oktober 2021 veröffentlicht das BMWK-geförderte Projekt „Foresight“ einen Leitfaden für Smart-Living-Anwendungen.

New guidelines aim to correct discriminatory algorithms
Das 2021 veröffentlichte Dokument enthält „10 lessons for algorithms“. Das Forschungsteam - bestehend aus Fachleuten der VUB, der Universität Tilburg, der Technischen Universität Eindhoven und des Nationalen Menschenrechtsinstituts der Niederlande - wurde vom niederländischen Innenministerium beauftragt.

Strategie für die Gleichstellung der Geschlechter 2020-2025
Im März 2020 veröffentlicht die Europäische Kommission das Strategie-Papier, in dem auch Gender und KI thematisiert wird.

Gutachten der Datenethikkommission
Im Oktober 2019 hat die Datenethikkommission (DEK) der Bundesregierung die zentralen Handlungsempfehlungen zu den Themen KI, algorithmische Systeme und Datenpolitik vorgestellt.

Ethik-Leitlinien für eine vertrauenswürdige KI
Im April 2019 veröffentlichte die HEG-KI (eine unabhängige Expertengruppe, die im Juni 2018 von der Europäischen Kommission eingesetzt wurde) das Dokument, das eine Bewertungsliste enthält.

Literatur

Joy Buolamwini: "AI, Ain't I A Woman?" 28.06.2018; https://www.youtube.com/watch?v=QxuyfWoVV98 Letzter Zugriff: 01.07.2025

Ein Schritt vor, zwei zurück: Warum Künstliche Intelligenz derzeit vor allem die Vergangenheit vorhersagt 15 Oktober 2024| doi: 10.5281/zenodo.13934923 Letzter Zugriff: 01.07.2025

Amt für Gleichstellung und gesellschaftlichen Zusammenhalt der freien Hansestadt Hamburg[Hsg]: Gleuchstellung in Digitalstrastegien; Hamburg: November 2020 https://www.hamburg.de/resource/blob/866870/ca72118e2f68896b54160fe771539352/leitfaden-gleichstellung-in-digitalstrategien-data.pdf Letzter Zugriff: 01.010.2024

Europäische Kommission: Mitteilung der Europäischen Kommission – Eine Union der Gleichheit: Strategie für die Gleichstellung der Geschlechter 2020-2025, 05.03.2020 https://eur-lex.europa.eu/legal-content/DE/AUTO/?uri=celex:52020DC0152 Letzter Zugriff: 01.07.2025

BMWK: Ethische Leitlinien für Künstliche Intelligenz, 01.09.2021. https://www.bmwk.de/Redaktion/DE/Schlaglichter-der-Wirtschaftspolitik/2021/09/11-ethische-leitlinien-fur-kunstliche-intelligenz.html Letzter Zugriff: 01.07.2025

Pesala Bandara: New Tool Allows Users to See Bias in AI Image Generators; 09.11.2022; https://petapixel.com/2022/11/09/new-tool-allows-users-to-see-bias-in-ai-image-generators/ Letzter Zugriff: 01.07.2025

VUB: New guidelines aim to correct discriminatory algorithms; 15.07.2021 https://petapixel.com/2022/11/09/new-tool-allows-users-to-see-bias-in-ai-image-generators/ Letzter Zugriff: 01.07.2025

Verbraucherzentrale Bundesverband e.V.: Evaluierung: Umsetzung der Empfehlungen der Datenethikkommission; 26.10.2021 https://www.vub.be/en/news/new-guidelines-aim-correct-discriminatory-algorithms Letzter Zugriff: 01.07.2025

Hochrangige Expertengruppe für künstliche Intelligenz: Ethik-Leitlinien für eine vertrauenswürdige KI; April 2019 https://demographie-netzwerk.de/site/assets/files/4421/ethik-leitlinien_fur_eine_vertrauenswurdige_ki_1.pdf Letzter Zugriff: 01.07.2025

Celine Caira, Lucia Russo, Luis Aranda: Artificially Inequitable? AI and closing the gender gap. 08.03.2023 https://oecd.ai/en/wonk/closing-the-gender-gap Letzter Zugriff: 01.07.2025

Cem Dilmegani: "Bias in AI: Examples and 6 Ways to Fix it in 2025"; Updated on Jun 30, 2025. https://research.aimultiple.com/ai-bias/ Letzter Zugriff: 01.07.2025

John Maccormick: I accidentally created a racist A.I. algorithm in 1998 and I’m having horrible déjà vu with the ChatGPT hype; 09.05.2023. https://fortune.com/2023/05/09/is-artificial-intelligence-racist-algorithim-bias-chatgpt-openai-computer-scientist/ Letzter Zugriff: 01.07.2025

Fabian Lütz: Gender equality and artificial intelligence in Europe. Addressing direct and indirect impacts of algorithms on gender-based discrimination. ERAForum(2022)23:33–52 https://doi.org/10.1007/s12027-022-00709-6