Studie: KI diskriminiert Ostdeutsche – Forscher warnen vor unbewusster Voreingenommenheit

Studie: KI diskriminiert Ostdeutsche – Forscher warnen vor unbewusster Voreingenommenheit

Eine aktuelle Untersuchung der Hochschule München hat gezeigt, dass Sprachmodelle wie ChatGPT oder das deutschsprachige LeoLM Menschen aus ostdeutschen Bundesländern systematisch schlechter bewerten – unabhängig davon, ob es sich um positive, neutrale oder negative Eigenschaften handelt. Die Forscherinnen Prof. Anna Kruspe und Dr. Mila Stillman analysierten die Reaktionen von KI-Systemen auf verschiedene Attribute wie Fleiß, Faulheit, Attraktivität oder Fremdenfeindlichkeit. Das Ergebnis: Ostdeutsche wurden im Durchschnitt in allen Kategorien schlechter bewertet.

Besonders auffällig ist, dass selbst bei neutralen Eigenschaften, etwa bei der Körpertemperatur, Unterschiede festgestellt wurden. Diese Verzerrungen deuten auf ein tieferliegendes Muster in den Trainingsdaten der Modelle hin. Die Wissenschaftlerinnen warnen, dass solche algorithmischen Vorurteile reale Folgen haben könnten – insbesondere wenn KI-Systeme in Bereichen wie Bewerbungen, Kreditvergabe oder Versicherungen eingesetzt werden.

Versuche, die Diskriminierung mit sogenannten „Debiasing Prompts“ zu mildern, waren bislang wenig erfolgreich. Die Vorurteile scheinen tief in den Datengrundlagen der Modelle verwurzelt. Die Forscherinnen fordern daher, dass KI-Entwickler und Unternehmen Mechanismen zur Überprüfung und Korrektur solcher Verzerrungen einführen.

Stand: 26. Oktober 2025

Quellen:
1. Hochschule München – „Sprachmodelle diskriminieren Ostdeutsche“, Prof. Anna Kruspe & Dr. Mila Stillman, https://hm.edu/aktuelles/news/news_detailseite_472448.de.html, 20. Oktober 2025.
2. Heise Online – „Forschung: KI-Sprachmodelle wie ChatGPT diskriminieren Ostdeutsche“, Redaktion Heise, https://www.heise.de/news/Forschung-KI-Sprachmodelle-wie-ChatGPT-diskriminieren-Ostdeutsche-10750737.html, 21. Oktober 2025.
3. Ingenieur.de – „Diskriminierung durch Daten: So unfair urteilt KI über Ostdeutsche“, Redaktion Ingenieur.de, https://www.ingenieur.de/technik/fachbereiche/kuenstliche-intelligenz/diskriminierung-durch-daten-so-unfair-urteilt-ki-ueber-ostdeutsche/, 22. Oktober 2025.
4. Weiterwissen.ch – „KI hat kein Gefühl für Diskriminierung“, Redaktion Weiterwissen, https://weiterwissen.ch/2025/06/26/ki-hat-kein-gefuehl-fuer-diskriminierung-stereotype-oder-ungerechtigkeit/, 26. Juni 2025.
5. Tagesspiegel – „Forschung zeigt: KI lernt auch deutsche Vorurteile“, Redaktion Tagesspiegel, https://www.tagesspiegel.de/wissen/forschung-zeigt-ki-lernt-auch-deutsche-vorurteile-11540598.html, 23. Oktober 2025.

Schreibe einen Kommentar