Diskriminierung durch Künstliche Intelligenz – Wie KI Schönheitsideale verzerrt
Künstliche Intelligenz prägt zunehmend die visuelle Kommunikation – von Social-Media-Bildern bis zu Werbekampagnen. Doch laut einer aktuellen Analyse der 8com GmbH & Co. KG in Kooperation mit der Initiative SpardaSurfSafe zeigt sich ein besorgniserregendes Muster: KI-Bildgeneratoren wie DALL·E oder Midjourney erzeugen fast ausschließlich Darstellungen, die westliche Schönheitsideale reproduzieren – jung, weiß und makellos. Vielfalt bleibt dabei meist unsichtbar.
„Die Modelle lernen aus Milliarden existierender Bilder im Internet“, erklärt Götz Schartner vom Verein Sicherheit im Internet e.V. „Da dort vor allem westlich geprägte Darstellungen dominieren, spiegelt die KI diese Überrepräsentation wider.“ So entsteht ein verzerrtes Bild von Schönheit, das kulturelle Diversität ausblendet und bestehende Vorurteile verstärkt.
Diese Mechanismen führen dazu, dass KI-generierte Bilder gesellschaftliche Ungleichheiten fortschreiben: Sie machen marginalisierte Gruppen unsichtbar und tragen dazu bei, unrealistische Erwartungen zu zementieren. Besonders problematisch wird es, wenn KI-Tools gezielt in Desinformationskampagnen oder manipulativer Werbung eingesetzt werden.
Lösungsansätze liegen laut den Expertinnen und Experten in der bewussten Nutzung von KI: Nutzerinnen und Nutzer sollten Diversität explizit einfordern, etwa durch präzise Prompts oder die Integration vielfältiger Trainingsdaten. Auch Transparenz und ethische Standards in der Entwicklung sind entscheidend, um Verzerrungen zu erkennen und zu reduzieren.
Die UNESCO, das Oxford Internet Institute und der aktuelle Report der MIT Technology Review warnen ebenfalls: Generative KI ist nur so objektiv wie die Daten, mit denen sie trainiert wird. Kulturelle Fairness muss aktiv gestaltet werden – durch Vielfalt in den Datensätzen, interdisziplinäre Audits und gesellschaftliche Kontrolle.
Stand: 26. Oktober 2025
Quellen:
1. 8com GmbH & Co. KG / SpardaSurfSafe – „Diskriminierung durch Künstliche Intelligenz?“, PresseBox, https://www.pressebox.de/pressemitteilung/8com-gmbh-co-kg-neustadt-an-der-weinstrasse/diskriminierung-durch-knstliche-intelligenz/boxid/1269718, 15. Oktober 2025.
2. MIT Technology Review – „AI Image Generators Reinforce Cultural Bias“, https://www.technologyreview.com/, 2025.
3. Oxford Internet Institute – „Fairness in Generative AI Models“, https://www.oii.ox.ac.uk/, 2024.
4. UNESCO – „Representation and Inclusion in Machine Learning“, Global AI Ethics Report, https://unesdoc.unesco.org/, 2025.
5. SpardaSurfSafe Baden-Württemberg – „Digitale Vielfalt fördern“, https://www.spardasurfsafe-bw.de/, 2025.