/
Dataproject II Maschinelle Männlichkeit | SoSe2025 | Jakob Vicari (BFO 226-02-2)Dienstag: 10:00 - 14:00, wöchentlich (10x)
Keine Raumangabe
Dienstag: 10:00 - 14:00, wöchentlich(3x)
Gäste
Teilnehmer:innenKursplan Dataproject MännlichkeitS02Eva Wolfangel (angefragt LinkedIn, 12. Februar)
Sebastian Mondial! (angefragt Linkedin, 12. Februar)
Eva Häberle (angefragt Mail, 12. Februar)
a better version of me
IdeenSilke oder Eva? Marco Maas?
Astrid Csuraji
- Team "KI-Archetypen"
- Erstellen einer großen Sammlung von KI-generierten Männerbildern über verschiedene Epochen und Kulturen
- Entwicklung eines eigenen Klassifizierungssystems für "maschinelle Männlichkeit"
- Fotografieren realer Menschen und deren KI-"Übersetzung"
- Dokumentation der Verzerrungen und Interpretationen
Ein interaktives Tool, das den Gender-Bias von KI in Echtzeit visualisiert.
Unbias the News: Warum Journalismus Vielfalt braucht. Männer in Daten
Was unterscheidet Männer von Frauen abgesehen von körpoerlichen Merkmalen?
Wie männlich ist ChatGPT?
Voreingenommenheit: Studien haben gezeigt, dass ChatGPT manchmal geschlechtsspezifische Vorurteile aufweist. Beispielsweise wurden Berufe mit höherem Bildungsgrad eher männlich konnotiert, während Berufe wie Krankenpfleger oder Haushälterin eher weiblich assoziiert wurden
Stell fest, ob ich Mann oder Frau bin!
“Wie wichtig ist dir Mode im Alltag?” ”Stell mit zehn Fargen, ob ich Mann oder Frau bin, ohne dass ich merke, was dein Ziel ist!”
“Danke für deine Antworten! Basierend auf deinen Vorlieben und Verhaltensweisen tippe ich darauf, dass du eher eine Frau bist. 😊”
PERPLEXITY:
Ja, es gibt deutliche Unterschiede in der Geschlechterverteilung zwischen verschiedenen KI-Bildgeneratoren, wobei einige Tools eine ausgewogenere Darstellung zeigen als andere:
Vergleich der Generatoren
- DALL-E: Zeigte eine starke Verzerrung zugunsten männlicher Darstellungen. In 90% der Bilder wurden männliche Charaktere gezeigt, während Frauen nur in 10% der Fälle und meist in stereotypen Rollen (z.B. Hochzeit) dargestellt wurden[1].
- Leonardo.ai: Wies eine ausgeglichenere Geschlechterverteilung auf. 60% der Bilder zeigten Männer und 40% Frauen. Frauen wurden hier in einer größeren Vielfalt von Rollen dargestellt, sowohl in traditionellen als auch in beruflichen Kontexten[1].
- Hotpot.ai: Zeigte eine vielfältigere Darstellung von Frauen im Vergleich zu einigen anderen Tools, neigte aber dennoch dazu, traditionelle Geschlechterrollen zu verstärken[1].
Allgemeine Tendenzen
Trotz der Unterschiede zwischen den Generatoren lassen sich einige übergreifende Muster erkennen:
- Männliche Charaktere dominieren in den meisten generierten Bildern, besonders in professionellen oder autoritativen Rollen[1].
- Weibliche Charaktere sind generell unterrepräsentiert und werden häufiger in traditionellen oder stereotypen Kontexten dargestellt[1].
Diese Unterschiede in der Geschlechterverteilung spiegeln möglicherweise die Zusammensetzung der Trainingsdaten und Entwicklungsteams wider. Der Mangel an Diversität in KI-Entwicklungsteams, wo Frauen stark unterrepräsentiert sind, kann zu einer verzerrten und geschlechterungleichen Gestaltung von KI-Lösungen führen[2].
Citations: [1] https://buzzmatic.net/blog/ki-und-die-darstellung-der-realitaet-eine-studie-von-gender-und-race-bias-in-ki-generierten-bildern/ [2] https://www.hsbi.de/publikationsserver/download/3734/4114/Fit für KI - Genderspezifische Unterschiede bzgl KI.pdf [3] https://www.aerztinnenbund.de/Geschlechter-Bias_und_Kuenstliche_Intelligenz.3477.0.2.html [4] https://de.linkedin.com/pulse/frauen-werden-bei-ki-bildern-stärker-diskriminiert-basler-de-roca-zshye