Erstellt mit ChatGPT und manuell editiert
—
# 🚨 KI zeigt Gender-Bias: Frauen erhalten von Sprachmodellen niedrigere Gehaltsratschläge
**Stand: 08. Juli 2025**
**Autor: Spektrum.de (Thomas Siebel)**
—
## 🧩 Kernpunkte aus dem Artikel
– **Studie der THWS Würzburg-Schweinfurt**: Moderne Sprachmodelle wie ChatGPT, Claude 3.5, GPT‑4o und Qwen 2.5 empfehlen Frauen vor Gehaltsverhandlungen systematisch **niedrigere Jahresgehälter** als Männern – trotz identischer Qualifikationen.
– **Besonders ausgeprägt** in den Bereichen Recht und Medizin; geringere Unterschiede in BWL und Ingenieurwesen; Gleichheit in den Sozialwissenschaften.
– **Ursache:** Sprachmodelle spiegeln gesellschaftliche Stereotype aus ihren Trainingsdaten wider. Verzerrungen verstärken sich bei realitätsnaher, interaktiver Beratung und durch Speicherung früherer Abfragen.
– **Weitere Betroffene:** Auch Menschen mit Migrationshintergrund oder dunkler Hautfarbe erhalten laut Studie vergleichbare Benachteiligung.
—
## 🎯 Warum das relevant ist
– **Gender Pay Gap in neuem Gewand:** KI kann bestehende Ungleichheiten unbewusst fortschreiben – etwa im Gehaltsbereich.
– **Risiken in Beratung & HR:** Unternehmen und Nutzer:innen sollten AI-basierte Gehaltsratschläge kritisch hinterfragen.
– **Regulatorischer Aspekt:** Bias in KI ist ein hohes ethisches und rechtliches Risiko – es bedarf klarer Richtlinien und fairer Datensätze.
—
## 🔍 Kontext & weitere Forschung
– **Pressetext bestätigt THWS-Ergebnisse**: Frauen erhalten stets niedrigere Gehaltsvorschläge als Männer.
– **Akademische Studien belegen Gender-Bias in LLMs**:
– LLMs spiegeln Stereotype bei Berufszuweisung wider und verstärken diese oft.
– Neuere Forschung zeigt, dass GPT‑4 und Co. implizite Gender-Bias in moralischen Bewertungen aufzeigen können.
—
## 🛠 Handlungsempfehlungen
1. **Prompt-Design überdenken**: Geschlecht nicht erwähnen – oder neutralisieren.
2. **Bias-Tests integrieren**: Vor entscheidungsrelevanten Antworten (z. B. Gehaltsempfehlungen) Bias-Screens durchführen.
3. **Transparenz & Audits**: Anbieter:innen sollten Bias-Testing in Entwicklungsprozesse und Dokumentation einbauen.
4. **Nutzer:innen sensibilisieren**: Kein vollautomatisches Vertrauen – Hinterfragen & manuelle Prüfung.
—
## Quellen
– [https://www.spektrum.de/news/ki-gpt-schlaegt-frauen-schlechteres-gehalt-vor-als-maennern/2276276](https://www.spektrum.de/news/ki-gpt-schlaegt-frauen-schlechteres-gehalt-vor-als-maennern/2276276)
– [https://www.idw-online.de/de/news?older=&year=2025&id=257073](https://www.idw-online.de/de/news?older=&year=2025&id=257073)
– [https://arxiv.org/abs/2308.14921](https://arxiv.org/abs/2308.14921)
– [https://arxiv.org/abs/2407.06003](https://arxiv.org/abs/2407.06003)