Diskriminierung durch den Einsatz von Künstlicher Intelligenz (KI)

Diskriminierung durch den Einsatz von Künstlicher Intelligenz (KI) kann in verschiedenen gesellschaftlichen Bereichen verstärkt oder vermindert werden – je nach Gestaltung, Training und Kontrolle der Systeme. Hier eine ausführliche Übersicht:

Bereiche, in denen Diskriminierung durch KI verstärkt werden kann:
– Personalwesen (Recruiting): Algorithmen benachteiligen Bewerber*innen aufgrund von Namen, Geschlecht oder Herkunft. Zum Beispiel hat Amazon ein KI-basiertes Recruiting-Tool entwickelt, das laut Berichten systematisch Frauen benachteiligte. (Quelle: BBC, 2018)
– Polizeiarbeit & Sicherheit (Predictive Policing): KI-Systeme können historische, oft diskriminierende Daten nutzen und damit überproportionale Überwachung von Minderheiten verursachen. (Quelle: AlgorithmWatch, 2021)
– Gesichtserkennung: Untersuchungen zeigen höhere Fehlerquoten bei People of Color und Frauen — was in Überwachung oder Zugangskontrollen zu diskriminierenden Ergebnissen führen kann. (Quelle: Buolamwini et al., 2018)
– Soziale Medien / Plattformmoderation: Algorithmen können bestimmte Inhalte oder Sprachformen bevorzugen oder unterdrücken — marginalisierte Gruppen laufen Gefahr benachteiligt zu werden. (Quelle: EDRi, 2021)
– Kreditvergabe & Versicherungen: Scoring-Modelle diskriminieren indirekt aufgrund von Merkmalen wie Postleitzahl, Bildungsweg etc., die mit Herkunft oder sozialem Status korrelieren. (Quelle: ACM, 2020)

Bereiche, in denen Diskriminierung durch KI vermindert werden kann:
– Anti-Diskriminierungs-Analysen: KI kann in großen Datenmengen diskriminierende Muster erkennen (z. B. bei Lohnlücken oder Beförderungsraten) und gezielte Gegenmaßnahmen ermöglichen. (Quelle: Binns, 2018)
– Barrierefreiheit & Inklusion: Sprach- und Bilderkennung kann Zugänge für Menschen mit Behinderung verbessern (z. B. Screenreader-Funktionen, automatische Untertitelung). (Quelle: WHO, 2021)
– Mehrsprachigkeit / Integration: KI-gestützte Übersetzungsdienste ermöglichen inklusivere Kommunikation in Verwaltung, Bildung, Gesundheit etc.
– Schulung & Sensibilisierung: KI kann als Trainingswerkzeug für Vorurteilserkennung oder Antidiskriminierungsmaßnahmen genutzt werden (z. B. Simulationen).
– Bewerbungssysteme mit Fairness-Kontrollen: Wenn aktiv „Fairness-by-Design“ implementiert ist, kann KI gezielt helfen, Diskriminierung zu vermeiden — etwa durch Open-Source-Toolkits wie AI Fairness 360 von IBM. (Quelle: IBM AI Fairness 360)

Quellen:
– BBC, 2018: Amazon’s AI recruiting tool discriminated against women. https://www.bbc.com/news/technology-45809919
– AlgorithmWatch, 2021: Predictive Policing in Europe. https://algorithmwatch.org/en/predictive-policing/
– Buolamwini et al., 2018: Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. MIT Media Lab.
– EDRi, 2021: How automated content moderation discriminates. https://edri.org/our-work/how-automated-content-moderation-discriminates/
– ACM, 2020: Fairness and Machine Learning. https://dl.acm.org/doi/book/10.1145/3386322
– Binns, 2018: Fairness in Machine Learning: Lessons from Political Philosophy. https://arxiv.org/abs/1712.03586
– WHO, 2021: Artificial Intelligence and Health. https://www.who.int/publications/i/item/9789240029200
– IBM AI Fairness 360. https://aif360.mybluemix.net/

Veröffentlichungsdatum: 27.10.2025

Schreibe einen Kommentar