Für mehr Transparenz beim Einsatz von KI, um Gleichbehandlung zu gewährleisten
Problem #1
Geschlechterstereotypen
„AI, aint’t I a woman?“ (Buolamwini 2018)
Gesichtserkennung ist darauf trainiert, gender-spezifische Merkmal zu erkennen.
Im ersten Beispiel sucht ein Algorithmus dein Gesicht nach Merkmalen ab, die er als entweder männlich oder
weiblich erkennt.
Diese Merkmale hat er durch das Anschauen, Bewerten und Vergleichen von vielen Gesichts-Bildern gelernt.
Ebenso kann der Algorithmus wissen, ob eine Person jung oder alt ist. Er schätzt also auch dein Alter. Aber
liegt er dabei immer richtig?
😃 Probier mal den AR-Filter aus 😃
Die Kamera des Web-Browsers muss eingeschaltet sein,
um Augmented Reality aktivieren zu können
?!
Vorurteile und Ungleichheiten, sowie insbesondere Geschlechterstereotype werden von Menschen an
algorithmische Systeme weitergegeben,
wenn die Lerngrundlage nicht kritisch hinterfragt und geprüft wurde.
Wurdest du als männlich oder als weiblich erkannt und bewertet und zu wieviel Prozent? Liegt der Algorithmus
richtig oder fühlst du dich diskriminiert?
Problematisch ist hier schon das Konzept eines binären Systems, dass davon ausgeht, dass es genau zwei
Geschlechter mit eindeutigen
Merkmalen gibt. Andere Geschlechtsidentitäten werden hier gar nicht berücksichtigt.
Problem #2
Bias im Algorithmus und in den Daten
„Diskriminierungen in den Daten werden vom Algorithmus „mitgelernt.“ (Zweig
2019)
Datensätze sollten möglichst unvoreingenommen sein, also Bias-frei. Wie sieht es bei diesem
Filter aus?
Wenn lediglich diese Gesichter zum Training der KI eingesetzt worden wären, wie vielfältig wäre der
Algorithmus am Ende?
Ein krasses Beispiel sind sexualisierte Deepfakes, die mithilfe eines einfachen Portraitfotos erstellt
werden können.
„Diese KI-Modelle wurden mit Millionen von Nacktbildern von Frauen trainiert.
Die Folge ist eine strukturell verzerrte Technologie, die geschlechtsspezifische Gewalt nicht nur
reproduziert,
sondern systematisch verstärkt.“ (Mosene 2025)
Bislang ist die Gesetzeslage dafür lückenhaft.
😃 Probier mal den AR-Filter aus 😃
Die Kamera des Web-Browsers muss eingeschaltet sein,
um Augmented Reality aktivieren zu können
?!
Wer KI einsetzt, muss sicherstellen, dass das System Bias-frei (unvoreingenommen) ist und
Entscheidungen trifft, die niemanden benachteiligen. Das setzt voraus, dass sowohl die Datensätze, mit dem
das System gelernt hat,
als auch die Entwickler*innen, die Algorithmen gestaltet haben, frei von Bias sind.
„Algorithmen und damit verbundenes maschinelles Lernen können – wenn sie nicht transparent und robust genug
sind – zu geschlechterspezifischen Diskriminierungen beitragen, diese wiederholen oder verstärken,
weil sie auf einer bestimmten Datenauswahl beruhen oder weil dies den Programmierern möglicherweise gar
nicht bewusst ist.“ (Europäische Kommission 2020).
Problem #3
Diskriminierung durch (Gender-) Ungleichgewicht
„Nur 22% der KI-Programmierer/innen derzeit sind Frauen“ (Europäische Kommission,
2020).
Frauen sind bei der Entwicklung fast unsichtbar. In diesem Beispiel kannst Du das nachfühlen,
vorausgesetzt,
du wirst als mindestens zu 50% weiblich identifiziert.
😃 Probier mal den AR-Filter aus 😃
Die Kamera des Web-Browsers muss eingeschaltet sein, um Augmented Reality aktivieren
zu können
?!
Aufgrund der Überrepräsentanz von weißen cis-Männern aus ressourcenstarken Regionen bei der
Entwicklung automatisierter
Entscheidungssysteme ist davon auszugehen,
dass z. B. Codes (unbewusst) aus einer „männlichen Perspektive“ geschrieben werden. Das kann dazu führen,
dass eine ungerechtfertigte Benachteiligung von Frauen und anderen marginalisierte Personengruppen in
Systemen fest
verankert wird und somit dazu beigetragen wird, dass Ungleichheit immer weiter verstärkt wird.
Problem #4
Beteiligung aller Geschlechtsidentitäten an KI-Entwicklung
„It’s easy to make a mistake, it’s easy for bias to enter undetected,
and everyone in the room is responsible for preventing it.“ (Maccormick 2023)
Go and create! Nehme Raum ein und werde sichtbar! Du bist wichtig, um eine vielfältige
Zukunftstechnologie zu gestalten und Anti-Diskriminierung zu gewährleisten!
😃 Probier mal den AR-Filter aus 😃
Die Kamera des Web-Browsers muss eingeschaltet sein,
um Augmented Reality aktivieren zu können
?!
Marginalisierte Personengruppen spielen eine entscheidende Rolle, die Systeme der Zukunft
mitzugestalten.
Zum einen können Frauen, Lesben, Intergeschlechtliche, Nicht-binäre, Trans- und Agender-Personen sich so auf
einem extrem wichtigen Zukunftsmarkt etablieren,
Einfluss nehmen und an dem wirtschaftlichen Profit teilhaben. Zum anderen können sie durch Mitgestaltung
die Qualität der Systeme sicherstellen und Stereotypen entgegenwirken.
Künstliche Intelligenz gendergerecht!
Prinzipien für eine gendergerechte Gestaltung beim Einsatz von KI
Wie müssen also algorithmische Systeme gestaltet werden, damit sie frei von Geschlechter-Diskriminierung
sind?
👉 Heterogene Gestaltungsteams
Durch verstärkte Beteiligung von Frauen werden Meinungs- und Perspektivenvielfalt angeregt und eine und
Reflexion von Geschlechterstereotypen gefördert.
👉 Anti-Bias-Trainings
Alle Personen, die an der Entwicklung und dem Einsatz automatisierter Entscheidungssysteme beteiligt sind,
absolvieren Unconscious Bias-Trainings, um Unvoreingenommenheit zu identifizieren und mit „Gender-Blindheit“
bewusst umzugehen.
👉 Monitoring und Evaluation
Die Installation eines Kontrollprozesses soll die Anforderungen und die Entscheidungen des Systems auf eine
klare und transparente Weise analysieren und adressieren, insbesondere jener automatisierten
Entscheidungssysteme, in deren Kontext eine Diskriminierung nach Geschlecht erwartet werden kann.
👉 Stakeholder-Partizipation
Die Beteiligung von Stakeholdern aus dem Bereich Gleichstellung lenkt den Blick auf Gendergerechtigkeit.
Dabei ist es gewinnbringend, auch nach der Bereitstellung des Systems um ein regelmäßiges Feedback zu
bitten und Langzeitmechanismen für die Beteiligung von Interessensvertretungen zu etablieren, z. B. durch
Information und Konsultationsprozesse.
Wünschenswert ist eine eine Umsetzung dieser Empfehlungen immer dann, wenn KI zum Einsatz kommt. Nur so kann
eine gleichberechtigte Einbeziehung bzw. Teilhabe ohne Benachteiligung nach Geschlecht gewährleistet
werden.
🧠 Frag doch mal nach, falls Du an einem KI-Projekt beteiligt bist, wie Diskriminierung
verhindert und
gendergerechtigkeit gewährleistet wird. Oder initiiere selbst die Umsetzung des Leitfadens.
Mehr Regelungen und Guidelines zur Nachlese
Zur intersektionalen feministischen Kritik am AI Act
Sechs Punkte auf dem Weg zu einem feministisch informierten EU-Gesetz über künstliche Intelligenz, um
feministische Prinzipien in das EU-Gesetz über künstliche Intelligenz zu integrieren und sicherzustellen,
dass die Entwicklung von künstlicher Intelligenz
geschlechtsspezifisch, gleichberechtigt und gerecht ist.
New guidelines aim to correct discriminatory algorithms
Das 2021 veröffentlichte Dokument enthält „10 lessons for algorithms“. Das Forschungsteam - bestehend
aus Fachleuten der VUB, der Universität Tilburg, der Technischen Universität Eindhoven
und des Nationalen Menschenrechtsinstituts der Niederlande - wurde vom niederländischen Innenministerium
beauftragt.
Gutachten der Datenethikkommission
Im Oktober 2019 hat die Datenethikkommission (DEK) der Bundesregierung die zentralen
Handlungsempfehlungen zu den Themen KI, algorithmische Systeme und Datenpolitik vorgestellt.
Ethik-Leitlinien für eine vertrauenswürdige KI
Im April 2019 veröffentlichte die HEG-KI (eine unabhängige Expertengruppe, die im Juni 2018 von der
Europäischen Kommission eingesetzt wurde) das Dokument, das eine Bewertungsliste enthält.
Ein Schritt vor, zwei zurück: Warum Künstliche Intelligenz derzeit vor allem die Vergangenheit vorhersagt
15 Oktober 2024| doi:
10.5281/zenodo.13934923
Letzter Zugriff: 01.07.2025
Fabian Lütz: Gender equality and artificial intelligence in Europe. Addressing direct and
indirect
impacts of algorithms on gender-based discrimination. ERAForum(2022)23:33–52
https://doi.org/10.1007/s12027-022-00709-6