KI im Recruiting: Warum Maschinen Bewerbungen oft ungerecht bewerten
Eine internationale Forschungsgruppe des EU-Projekts FINDHR (Fairness and Intersectional Non-Discrimination in Human Recommendation) hat untersucht, wie KI-gesteuerte Systeme Bewerbungen analysieren und selektieren. Das Ergebnis: Automatisierte Auswahlverfahren können Diskriminierung nicht nur reproduzieren, sondern auch verstärken. Bewerbungen mit standardisiertem Aufbau und maschinenlesbaren Strukturen werden bevorzugt – kreative oder individuelle Unterlagen fallen dagegen häufig durchs Raster.
Laut der Soziologin Prof. Sabine Pfeiffer (Universität Erlangen-Nürnberg) setzen bis zu ein Drittel der Unternehmen in Deutschland bereits KI-gestützte Tools zur Vorauswahl ein. Exakte Schlüsselwörter, klare Überschriften und ein schlichtes Layout erhöhen die Chancen, in den nächsten Auswahlprozess zu gelangen. Das FINDHR-Handbuch empfiehlt Bewerbern, möglichst die Begriffe aus der Stellenausschreibung zu übernehmen und auf komplexe Gestaltung zu verzichten.
Gleichzeitig zeigen Experimente: Selbst erstklassige Fachkräfte wurden von KI-Systemen abgelehnt, wenn ihre Lebensläufe nicht im richtigen Format vorlagen. Das Forschungsprojekt entwickelte daraufhin Tools, Trainings und Richtlinien, um Personalverantwortliche, Entwickler und Bewerbende für algorithmische Verzerrungen zu sensibilisieren.
Forscherinnen wie Moira Daviet von AlgorithmWatch CH fordern, dass Arbeitgeber offenlegen müssen, wenn Bewerbungen durch Algorithmen vorselektiert werden. Betroffene sollen nachvollziehen können, ob und wie KI am Entscheidungsprozess beteiligt ist. Die Antidiskriminierungsstelle des Bundes verweist zudem auf bestehende rechtliche Grenzen: Vollständig automatisierte Personalentscheidungen ohne menschliche Kontrolle sind in Deutschland nicht zulässig.
Stand: 26. Oktober 2025
Quellen:
1. Ingenieur.de – „Besser schlicht und langweilig – Just Hiring!“, Matilda Jordanova-Duda, https://www.ingenieur.de/karriere/bewerbung/besser-schlicht-und-langweilig-just-hiring-tools-gegen-diskriminierende-personaler-ki/, 22. Oktober 2025.
2. FINDHR Project – „Fairness and Intersectional Non-Discrimination in Human Recommendation“, EU Horizon Europe, https://findhr.eu/, 2025.
3. AlgorithmWatch CH – „Fairness im Recruiting: KI und Diskriminierung“, Moira Daviet, https://algorithmwatch.ch/, 2025.
4. Universität Erlangen-Nürnberg – Lehrstuhl Prof. Sabine Pfeiffer, „Technik, Arbeit und Gesellschaft“, https://www.soz.phil.fau.de/, 2025.
5. Antidiskriminierungsstelle des Bundes – „KI-gestützte Bewerbungsverfahren und rechtliche Grenzen“, https://www.antidiskriminierungsstelle.de/, 2025.