Kursinhalt
Allgemeine Einführung
Künstliche Intelligenz (KI) und ihre Anwendungsfelder KI anschaulich erklärt In diesem Seminar lernen Sie in verständlicher Weise, was sich hinter dem Begriff KI verbirgt. Dabei setzen Sie sich mit folgenden Aspekten auseinander, bei denen immer ein Anwendungsbereich mit einbezogen wird: • Unterscheidung von Algorithmen • Anwendungsfelder der Künstlichen Intelligenz • Maschinelles Lernen, Spracherkennung und Automatisierter Aktienhandel • Big Data in der medizinischen Forschung und Gesundheitsvorsorge Außerdem wird kritisch die Frage untersucht, welche Auswirkungen KI für Sie als Arbeiternehmer/-innen und im privaten Bereich z. B. beim Beschäftigtendatenschutz und beim Gesundheitsschutz hat. Zum Verständnis der weiteren Seminare zur KI ist es sinnvoll, diese Veranstaltung zu belegen.
0/6
chatgpt
Chat-GPT macht Schreiben leicht!? Chat-GPT ist ein KI-Chatbot, der menschliche Texteingaben verstehen und möglichst natürlich antworten soll. Er schreibt Hausaufgaben, Seminartexte und besteht Prüfungen an renommierten Rechtsfakultäten in den USA. Seit Januar 2023 wird die Fähigkeit dieses Chatbots in der Fachwelt, aber auch in den Medien kontrovers diskutiert. In diesem Seminar erhalten Sie einen Überblick darüber, an welchen Stellen schon Software etabliert ist, die eigenständig Texte verfassen kann. Sie setzen sich mit der Frage auseinander, wer diese Texte verantwortet und kontrolliert. Ebenso besprechen Sie Anwendungsfälle und welche Anforderungen sich an die Nutzer und Konsumenten bei der Verwendung von Chat-GPT ergeben. Kurstitel: Hat Chat-GPT schon die Journalisten verdrängt? Untertitel KI Reihe Chat-GPT als repräsentative Anwendung Text : Chat-GPT ist ein KI-Chatbot, der menschliche Texteingaben verstehen und möglichst natürlich antworten soll . Seit Januar 2023 werden die Fähigkeiten von Chat-GPT kontrovers diskutiert. Chat-GPT schreibt Hausaufgaben , Seminartexte und besteht die Prüfungen von renommierten Rechtsfakultäten. An welchen Stellen ist eine Software schon etabliert, die eigenständig Texte verfassen kann? Wo hat sich der Hype gelegt?. Wer verantwortet und kontrolliert solche Texte? Wir besprechen Anwendungsfälle und welche Anforderungen sich an die Nutzer und Konsumenten ergeben.
0/2
Diskriminierung
Wer diskriminiert besser: Der Mensch oder die Maschine? „Big brother is watching you“ ist ein bekanntes Zitat aus Georg Orwells Roman „!984“, der 1949 erschienen ist. Heute stellt sich für uns einerseits die Frage, ob es durch den Einsatz von KI zu neuen Formen von Diskriminierung kommt. Andererseits kann man auch argumentieren, dass der Einfluss menschlicher Vorurteile durch eine faktenbasierte Entscheidung reduziert werden kann. In diesem Spannungsbogen beschäftigen Sie sich mit der Frage, ob Algorithmen diskriminieren können und wo der Einsatz KI-basierter Technologien besonders problematisch ist. An Beispielen wird der Frage nachgegangen, wer die Verlierer/-innen dieser technologischen Entwicklung sind und wie die Verwendung Künstlicher Intelligenz zu bewerten ist. Kurstitel: Diskriminierung durch KI Untertitel: KI Reihe: Wer diskriminiert besser der Mensch oder die Maschine? Text : Führt der Einsatz von Künstlicher Intelligenz zu neuen Formen von Diskriminierung oder kann im Gegenteil der Einfluss menschlicher Vorurteile im Arbeitsleben durch eine faktenbasierte Entscheidung reduziert werden? Warum können Algorithmen diskriminieren? Wo ist der Einsatz von KI-basierter Technologie besonders problematisch? Wer sind die Verlierer_innen dieser Entwicklung und wie können wir die Situation bewerten? An einigen Beispielen werden wird diese Fragen besprechen.
0/4
Arbeitsmarkt
Künstliche Intelligenz (KI) in der Arbeitswelt Wer wird durch die KI ersetzt? KI-Systeme werden intensiv in Betrieben eingesetzt. Sie sorgen für die richtige Stellenbesetzung oder Entlassung. Daraus ergibt sich für Arbeitnehmer/-innen die Frage: Werde ich in meinem Job durch eine KI ersetzt? Eine Antwort auf diese Frage kann lauten: Du wirst durch eine Person ersetzt, die KI benutzt. In diesem Seminar diskutieren Sie einerseits die Frage, ob KI nur eine weitere Facette der Digitalisierung ist, durch die Arbeitsbereiche optimiert werden können. Andererseits entsteht dadurch auch das Problem, wer im Arbeitsprozess die Verantwortung für KI-basierte Entscheidungen und deren Folgen übernimmt. Kurstitel: Wer wird durch KI ersetzt? Untertitel: KI Reihe Auswirkungen auf die Arbeitswelt Text : Frage: „Werde ich in meinem Job durch eine KI ersetzt?“ Antwort : „Nein, du wirst nur durch eine andere Person ersetzt, die KI benutzt“ Ist der Einsatz von KI nur eine weitere Facette der allgemeinen Digitalisierung oder stellen sich neue Fragen zu Verantwortlichkeit in KI- basierten Prozessen? Welche Arbeitsfelder können oder sollten vom Einsatz künstlicher Intelligenz profitieren? Wer übernimmt die Verantwortung für KI Basierte Entscheidungen?
0/3
links
aktuelle links und quellenangaben
Privat: Künstliche Intelligenz und Sozialpolitik
Lektion

Bias und Diskriminierung
Datenbasierte KI-Systeme lernen auf Basis vorhandener Daten. Resultierende Prognosen und
Empfehlungen schreiben somit die Vergangenheit in die Zukunft fort, wodurch Stereotype, aber
auch bestehende gesellschaftliche Ungerechtigkeiten durch den Einbau in scheinbar neutrale
Technologien reproduziert und sogar verstärkt werden können. In den letzten Jahren wurden
die teils diskriminierenden Effekte insbesondere datenbasierter Technologien zur Entscheidungsunterstützung in zahlreichen Sektoren nachgewiesen. Für den Bereich der öffentlichen
Verwaltung sei hier exemplarisch auf die Debatten rund um die Software COMPAS hingewiesen (vgl. Abschnitt 8.3.1). Auch im Kontext der für öffentliche Kommunikation und Meinungsbildung zentralen Sozialen Medien und Suchmaschinen konnte gezeigt werden, dass algorithmische Systeme gesellschaftliche Stereotype und Ungerechtigkeiten reproduzieren können und
dies in systematischen diskriminierenden Verzerrungen resultieren kann. In der Medizin wiederum gibt es zahlreiche Beispiele, dass verzerrte Trainingsdaten zu diskriminierenden Ergebnissen bei der Beurteilung von Patientinnen und Patienten durch KI-basierte Systeme führen
können, so etwa bei der Einschätzung,, wieviel Nachsorgebehandlungen Menschen nach einem
Krankenhausaufenthalt benötigen – so wurde in diesem Fall die vorhandene Verzerrung in den
Trainingsdaten in eine direkte Benachteiligung bestimmter Personengruppen übersetzt. 433
Auch im Bildungsbereich können systematische Verzerrungen nachgewiesen werden, insbesondere im Kontext von Audio- und Videoanalysen zum Zweck der Emotions- und Affekterkennung.
Die Ursachen für Diskriminierung durch KI-Systeme sind vielfältig. Oft liegt bei deren Entwicklung keine unmittelbare Diskriminierungsabsicht vor. Stattdessen sind diskriminierende
Effekte das Resultat gesellschaftlicher Realitäten oder Stereotype in Kombination mit technisch-methodischen Entscheidungen, wie beispielsweise der Wahl der Zielvariablen und Labels,

433 Obermeyer, Z. et al. (2019): Dissecting racial bias in an algorithm used to manage the health of populations.
In: Science 366 (6464), 447-453. (DOI: 10.1126/science.aax2342).
+++ Vorabfassung! Wird durch die lektorierte Fassung ersetzt. +++
282
der Auswahl der Trainingsdaten oder der verwendeten statistischen Analysemethoden. Dies
erschwert einerseits die Anwendung rechtlicher Regulierungen, die auf Vorsätzlichkeit von
Diskriminierung bauen. Andererseits bedarf es detaillierter Analysen der methodisch-technischen Ursachen für diskriminierende Effekte, die häufig schwierig zu erkennen und nachzuweisen sind.
Von besonderer Bedeutung sind hier Trainingsdaten. Mangelnde Qualität, aber auch existierende gesellschaftliche Ungleichheiten, die sich in Daten widerspiegeln, können zu diskriminierenden Modellen führen. Über- und Unterrepräsentativität sind weitere Probleme, die diskriminierende Effekte haben können. Wenn Software im Bereich der Medizin zur Diagnostik
von Hautkrebs vor allem auf Bildern mit heller Haut trainiert wurde, kann dies zu unterschiedlicher Genauigkeit bei der Befundung von verschiedenen Hautfarben führen. Die Folge wären
beispielsweise überproportional häufigere Fehldiagnosen für Patientinnen und Patienten mit
dunklerer Hautfarbe.
Das Gegenteil dieser mangelnden Berücksichtigung von Personengruppen in Datensätzen ist
die Überrepräsentativität. Ein Beispiel ist der Einsatz von Software zur Vorhersage von Straftaten im Kontext von prädiktiver Polizeiarbeit. Falls eine Software eine bestimmte Gegend aufgrund bisheriger Straftaten als Hoch-Risikozone kategorisiert, werden dort gegebenenfalls in
der Folge Polizeikontrollen verstärkt. Gerade aufgrund der erhöhten Kontrolle können dort
dann noch mehr Straftaten verzeichnet werden. Im Gegenzug bleiben gegebenenfalls Straftaten
in Niedrig-Risiko-Zonen aufgrund ausbleibender Kontrollen unerkannt. Durch beide Effekte
kann sich die Datenlage weiter zuungunsten der Bewohnerschaft einer Hoch-Risikozone verschieben – nämlich für jene, die durch verstärkte Kontrollen unter Umständen ungerechtfertigt
stigmatisiert werden.
Darüber hinaus besteht das Problem der sogenannten redundanten Enkodierung: Sensible Attribute wie beispielsweise Geschlecht, religiöse Zugehörigkeit oder sexuelle Orientierung lassen sich teilweise aus anderen Datenpunkten, etwa Bewegungsprofilen, Details des Medienkonsums sowie Angaben über Wohnort oder Hobbys ableiten. Dadurch können diese Daten als
sogenannte Proxy-, bzw. Stellvertretervariablen für die geschützten Variablen fungieren. Das
Resultat ist, dass Personen auch dann aufgrund ihres Geschlechts oder ihrer sexuellen oder religiösen Orientierung von der Software diskriminiert werden können, wenn diese Angaben gar
nicht erhoben wurden, eben weil diese Kategorien aus anderen erhobenen Daten ableitbar sind.
In den zuvor genannten Beispielen ist Diskriminierung der Effekt von technisch-methodischen
Entscheidungen, aber nicht notwendigerweise intendiert. Es ist allerdings zumindest denkbar,
+++ Vorabfassung! Wird durch die lektorierte Fassung ersetzt. +++
283
dass auch explizite Diskriminierungsabsichten in komplexen Systemen versteckt werden könnten. Dies gilt umso mehr in proprietärer, das heißt rechtlich geschützter Software, in welche die
Personen, die sie verwenden, nicht nur aufgrund von technischer Komplexität, sondern auch
aus rechtlichen Gründen keine Einsicht haben.
Empfehlung
 Empfehlung Querschnittsthema 9: Zum Schutz vor Diskriminierung in Anbetracht der zuvor dargelegten Herausforderungen bedarf es angemessener Aufsicht und Kontrolle von KISystemen. Besonders in sensiblen Bereichen erfordert dies den Auf- oder Ausbau gut ausgestatteter Institutionen. Hier gilt: je größer die Eingriffstiefe und je unumgänglicher die
Systeme, desto höher die Anforderungen an Diskriminierungsminimierung.
Auch bereits bei der Entwicklung von Technologien gilt es, Diskriminierung zu minimieren
bzw. Fairness, Transparenz und Nachvollziehbarkeit herzustellen. Dies sollte sowohl durch
Anreize – etwa Forschungsförderung – als auch durch entsprechende gesetzliche Anforderungen befördert werden, etwa hinsichtlich der Offenlegung, welche Maßnahmen zur Diskriminierungsminimierung bei der Softwareentwicklung ergriffen wurden.434
Allerdings haben technische wie regulatorische Maßnahmen zur Minimierung von Diskriminierung ihre Grenzen, unter anderem weil unterschiedliche Fairnessziele technisch nicht
gleichzeitig erfüllt werden können. Es müssen also zugleich ethische und politische Entscheidungen getroffen werden, welche Kriterien für Gerechtigkeit in welchem Kontext zum
Tragen kommen sollen. Diese Entscheidungen dürfen nicht den Personen, die Software entwickeln, und anderen direkt Beteiligten überlassen werden. Stattdessen bedarf es der Entwicklung geeigneter Verfahren und Institutionen, um diese Kriterien kontextspezifisch und
demokratisch, gegebenenfalls immer wieder neu auszuhandeln. Je nach Anwendungskontext und Sensibilität des einzusetzenden Systems kann die Beteiligung der Öffentlichkeit
erforderlich sein. Dabei sollte der Schutz der jeweils bedürftigsten bzw. von Entscheidungen besonders betroffenen Gruppen besonders berücksichtigt werden.

434 Der derzeit diskutierte Entwurf eines EU Artificial Intelligence Act (AI Act) verfolgt bereits diesen Ansatz,
auf der einen Seite die Forschung zu KI-Technologien zu fördern und auf der anderen, einen rechtlichen Rahmen
für ihre Entwicklung und Anwendung zu schaffen.
+++ Vorabfassung! Wird durch die lektorierte Fassung ersetzt. +++
284
10.10 Querschnittsthema 10: Transparenz und Nachvollziehbarkeit – Kontrolle und
Verantwortung
KI-Systeme sind mitunter wenig transparent und nachvollziehbar. Diese Opazität hat verschiedene Ursachen, die vom Schutz geistigen Eigentums über die Komplexität und Nicht-Nachvollziehbarkeit der Verfahren bis hin zur mangelnden Durchsichtigkeit von Entscheidungsstrukturen, in die der Einsatz algorithmischer Systeme eingebettet ist, reichen. Als Reaktion auf
diese vielfältigen Herausforderungen gibt es Bemühungen, die Transparenz und Nachvollziehbarkeit durch technische, organisatorische und rechtliche Mittel zu erhöhen.435
Fragen von Transparenz, Erklärbarkeit und Nachvollziehbarkeit sind mit Fragen von Kontrolle
und Verantwortung verbunden. Zwar besteht zwischen ihnen ein gewisser Zusammenhang,
doch ist die Transparenz und Nachvollziehbarkeit algorithmischer Systeme für die Kontrolle
und die Verantwortung für ihren Einsatz weder zwingend notwendig noch hinreichend.
Einerseits kann es auch bei prinzipiell transparenten und nachvollziehbaren Methoden wie zum
Beispiel Entscheidungsbäumen dazu kommen, dass verantwortliches Handeln und angemessene Kontrolle ausbleiben. Zudem ist in Bezug auf Offenlegungspraktiken auf das Problem
strategischer Transparenz hinzuweisen. So könnten insbesondere im Bereich der öffentlichen
Kommunikation und Meinungsbildung Plattformbetreibende entweder irrelevante und unzureichende Informationen transparent machen (beispielsweise in Bezug auf Prozesse und Effekte
von Content-Moderation) oder aber relevante Informationen unter einer Fülle irrelevanter Information verbergen. In diesen Fällen würde Transparenz also nicht zwingend zu verantwortlichem Handeln und Kontrolle führen.
Andererseits sind Kontrolle und Verantwortung auch ohne vollständige Transparenz möglich.
So können bei der Nutzung von Softwaresystemen, die auf Deep Learning-Ansätzen beruhen,
Herstellern oder Anwendern die volle Verantwortung für den Einsatz dieser Systeme zugewiesen werden, selbst wenn ihnen die Details der Verarbeitung unbekannt sind. Sie trügen dann
die Verantwortung, derartige Systeme zum Einsatz gebracht zu haben, und müssten begründen,
warum diese Intransparenz akzeptabel ist – etwa weil der mögliche Schaden gering oder der
zusätzliche Nutzen dieser Systeme (beispielsweise in Bezug auf eine höhere Genauigkeit der
Prognosen) die Nachteile der Intransparenz überwiegt. So kann es einerseits sein, dass im medizinischen Kontext aus guten Gründen Software in der Krebsdiagnostik eingesetzt wird, deren

435 Schlagworte dieser Debatte sind neben Transparenz (transparency) insbesondere auch Erklärbarkeit
(explainability/explainable AI/explicability), Beobachtbarkeit (observability) und Nachvollziehbarkeit sowie
Verantwortung und Haftung (responsibility, accountability und liability).
+++ Vorabfassung! Wird durch die lektorierte Fassung erset