Warum KI Vergangenes vorhersagt und Diskriminierung fortschreibt
Automatisierte Entscheidungssysteme (ADM-Systeme) gelten oft als objektiv und effizient. Doch wie eine aktuelle Analyse der Friedrich-Ebert-Stiftung (FES) zeigt, reproduzieren viele KI-Anwendungen unbewusst gesellschaftliche Vorurteile. Autorin Katharina Mosene beschreibt, dass KI auf historischen Daten basiert, die selbst soziale Ungleichheiten enthalten. So wird aus der Vergangenheit ein Muster, das die Zukunft formt – und bestehende Diskriminierungen fortschreibt.
KI lernt aus Datensätzen, in denen bestimmte Gruppen – etwa Frauen, Migrantinnen und Migranten oder Menschen mit Behinderung – strukturell unterrepräsentiert sind. Dadurch verfestigen sich Ausschlüsse, anstatt sie zu korrigieren. Besonders im Recruiting, bei Kreditvergaben oder in der Strafverfolgung kann das gravierende Folgen haben. Studien wie die Untersuchung „Künstliche Intelligenz in der Personalauswahl“ (Denkfabrik BMAS, 2022) oder der Bericht des Humboldt-Instituts für Internet und Gesellschaft (HIIG, 2024) bestätigen: KI trifft Entscheidungen entlang der Muster, die sie gelernt hat – nicht entlang gesellschaftlicher Gerechtigkeit.
Die FES fordert deshalb, dass KI-Systeme stärker reguliert, regelmäßig auditiert und sozialwissenschaftlich begleitet werden. Neben technischer Korrektur braucht es politische Verantwortung, um sicherzustellen, dass digitale Systeme gesellschaftliche Fairness fördern. Menschliche Kontrolle und Transparenz über Datenherkunft und Entscheidungslogiken gelten dabei als unverzichtbar.
Stand: 26. Oktober 2025
Quellen:
1. Friedrich-Ebert-Stiftung – „Warum KI Vergangenes vorhersagt und Diskriminierung fortschreibt“, Katharina Mosene, https://www.fes.de/news/warum-ki-vergangenes-vorhersagt-und-diskriminierung-fortschreibt, 6. Oktober 2025.
2. Denkfabrik BMAS – „Künstliche Intelligenz in der Personalauswahl“, Fleck et al., https://www.denkfabrik-bmas.de/fileadmin/Downloads/Publikationen/Kuenstliche-Intelligenz-in-der-Personalauswahl.pdf, 2022.
3. Humboldt Institut für Internet und Gesellschaft – „Warum KI derzeit vor allem die Vergangenheit vorhersagt“, HIIG, https://www.hiig.de/warum-ki-derzeit-vor-allem-vergangenheit-vorhersagt/, 2024.
4. AlgorithmWatch – „Automated Decision-Making in Europe“, https://algorithmwatch.org/en/adm-report-europe/, 2024.
5. OECD – „AI, Bias and Fairness: Global Policy Responses“, https://www.oecd.ai/en/policy/ai-bias-fairness, 2025.