# Diskriminierung 2.0 Warum das deutsche Antidiskriminierungsgesetz bei KI versagt
Dieser Text wurde ganz oder teilweise mit Hilfe von KI erstellt.
Stand: 05.03.2026
Künstliche Intelligenz wird zunehmend eingesetzt, um Entscheidungen über Menschen zu treffen. Beispiele sind automatisierte Bewerbungsprozesse, Kreditbewertungen oder Preisberechnungen im Onlinehandel. Gleichzeitig wächst die Sorge, dass solche Systeme bestehende Vorurteile reproduzieren oder neue Formen von Diskriminierung erzeugen.
Das zentrale deutsche Gesetz zum Schutz vor Diskriminierung ist das Allgemeine Gleichbehandlungsgesetz AGG. Es soll Menschen vor Benachteiligung etwa aufgrund von Geschlecht, Herkunft, Religion, Alter oder sexueller Identität schützen. Allerdings wurde das Gesetz ursprünglich für Situationen geschaffen, in denen Entscheidungen von Menschen getroffen werden. Wenn jedoch ein Algorithmus oder eine KI eine diskriminierende Entscheidung trifft, greift das bestehende Recht häufig nur unzureichend.
Die Bundesbeauftragte für Antidiskriminierung Ferda Ataman fordert deshalb eine Reform des Gesetzes. Ihrer Ansicht nach ist bislang nicht klar geregelt, wie mit Diskriminierung umzugehen ist, wenn nicht ein Mensch, sondern ein Computerprogramm verantwortlich ist. In solchen Fällen fehlt oft eine klare rechtliche Grundlage, um Betroffene zu schützen oder Verantwortliche zur Rechenschaft zu ziehen.
Ein weiteres Problem besteht darin, dass algorithmische Systeme häufig als Black Box funktionieren. Das bedeutet, dass selbst Entwickler oder Betreiber nicht immer nachvollziehen können, wie eine Entscheidung zustande gekommen ist. Für Betroffene ist es deshalb schwer nachzuweisen, dass sie tatsächlich diskriminiert wurden.
Hinzu kommt, dass viele KI Systeme mit historischen Daten trainiert werden. Diese Daten spiegeln gesellschaftliche Ungleichheiten wider und können dazu führen, dass bestehende Vorurteile automatisiert fortgeführt werden. So können etwa Bewerbungsalgorithmen bestimmte Gruppen systematisch benachteiligen oder Kreditentscheidungen bestimmte Bevölkerungsgruppen schlechter bewerten.
Experten und Studien weisen daher darauf hin, dass das AGG derzeit nicht ausreichend auf algorithmische Entscheidungsprozesse ausgerichtet ist. Unter anderem fehlen klare Auskunftspflichten über die Funktionsweise solcher Systeme sowie spezifische Regeln für automatisierte Entscheidungen.
Politik und Forschung diskutieren deshalb verschiedene Reformvorschläge. Dazu gehören mehr Transparenzpflichten für Unternehmen, bessere Klagerechte für Betroffene sowie eine Erweiterung des Anwendungsbereichs des AGG auf Entwickler und Betreiber von KI Systemen.
Mit der zunehmenden Verbreitung von künstlicher Intelligenz wird die Frage immer dringender, wie Diskriminierung in automatisierten Systemen verhindert werden kann. Ohne Anpassungen im Rechtssystem besteht die Gefahr, dass technologische Entscheidungen gesellschaftliche Ungleichheiten verstärken, ohne dass Betroffene wirksam dagegen vorgehen können.
Quellen
Diskriminierung 2.0 Warum das deutsche Antidiskriminierungsgesetz bei KI versagt, t3n Magazin, https://t3n.de/news/diskriminierung-2-0-warum-das-deutsche-antidiskriminierungsgesetz-bei-ki-versagt-1730946/, 24.02.2026
Diskriminierungsrisiken durch Verwendung von Algorithmen, Antidiskriminierungsstelle des Bundes, https://www.antidiskriminierungsstelle.de/SharedDocs/downloads/DE/publikationen/Expertisen/studie_diskriminierungsrisiken_durch_verwendung_von_algorithmen.pdf, 2019
Das Allgemeine Gleichbehandlungsgesetz und der Schutz vor Diskriminierung durch algorithmische Entscheidungssysteme, wissenschaftliche Veröffentlichung, https://www.researchgate.net/publication/379542710_Das_Allgemeine_Gleichbehandlungsgesetz_und_der_Schutz_vor_Diskriminierung_durch_algorithmische_Entscheidungssysteme, 2023
Diskriminierungsrisiken beim Einsatz künstlicher Intelligenz, Otto Schmidt Verlag, https://www.otto-schmidt.de/news/arbeits-und-sozialrecht/diskriminierungsrisiken-beim-einsatz-kunstlicher-intelligenz-2023-09-12.html, 12.09.2023
Gaps and policies in AI and algorithm driven discrimination in Europe, Council of Europe, https://www.coe.int/de/web/portal/-/gaps-and-policies-in-ai-and-algorithm-driven-discrimination-in-europe, 15.01.2026