KI und Strafrecht – Wenn Algorithmen über Schuld entscheiden
Künstliche Intelligenz hält zunehmend Einzug in das Strafrecht. Staatsanwaltschaften, Behörden und Unternehmen nutzen algorithmische Systeme zur Beweisanalyse, Mustererkennung und Datenbewertung. Diese Effizienz bringt jedoch rechtliche und ethische Herausforderungen mit sich. Während Menschen Verantwortung für ihre Entscheidungen tragen können, verschwimmt diese Verantwortung bei KI-Systemen – juristisch, technisch und moralisch.
Fehlerhafte Trainingsdaten, algorithmische Verzerrungen und intransparente Entscheidungswege können zu gravierenden Fehlurteilen führen. Nach dem Grundsatz des fairen Verfahrens müssen jedoch Nachvollziehbarkeit und Transparenz gewahrt bleiben. Wenn KI zur Beweisgewinnung eingesetzt wird, muss klar sein, wie sie zu ihrem Ergebnis gelangt ist. Fehlt diese Nachvollziehbarkeit, kann ein Gericht die Beweisergebnisse als unzulässig werten.
Die Haftung bleibt menschlich. Maschinen kennen keine Schuld. Entwickler haften, wenn ihre Systeme auf fehlerhaften Daten beruhen oder Sicherheitsstandards missachten. Betreiber tragen Verantwortung, wenn sie die Systeme nicht kontrollieren. Nutzer haften, wenn sie KI-Ergebnisse blind übernehmen. Damit wird KI juristisch zu einem Risikoobjekt, das wie ein gefährliches Werkzeug verantwortungsvoll eingesetzt werden muss.
Auch datenschutzrechtlich birgt der Einsatz von KI im Strafverfahren erhebliche Risiken. Nach § 42 BDSG und Art. 82 DSGVO drohen strafrechtliche Ermittlungen und Schadensersatzforderungen, wenn personenbezogene Daten unbefugt verarbeitet oder offengelegt werden. Schon ein technischer Fehler, etwa eine fehlerhafte Schnittstelle, kann strafrechtliche Konsequenzen haben.
Mit dem EU AI Act entstehen erstmals verbindliche Regeln für Hochrisiko-KI-Systeme – insbesondere im Justiz-, Gesundheits- und Sicherheitsbereich. Unternehmen müssen künftig dokumentieren, wie Systeme trainiert werden, welche Risiken bestehen und wie menschliche Kontrolle gewährleistet ist. Verstöße können als Unterlassungstat gemäß § 13 StGB strafrechtlich relevant werden.
Art. 22 DSGVO schreibt vor, dass niemand ausschließlich automatisierten Entscheidungen unterworfen werden darf. Damit bleibt menschliche Kontrolle – der sogenannte „Human in the Loop“ – zwingend. Unternehmen müssen sicherstellen, dass KI-Entscheidungen überprüft und gegebenenfalls korrigiert werden können.
Fazit: KI ersetzt keine Verantwortung, sie verschiebt sie. Wer KI-Systeme einsetzt, muss sie rechtlich und technisch beherrschen. Nur durch klare Verantwortlichkeiten, Auditpflichten und rechtliche Kontrolle lässt sich verhindern, dass Algorithmen über Schuld und Unschuld entscheiden.
Stand: 26. Oktober 2025
Quellen:
1. Anwalt.de – „KI und Strafrecht – Wenn Algorithmen über Schuld entscheiden“, Max Nikolas Mischa Hortmann, https://www.anwalt.de/rechtstipps/ki-und-strafrecht-wenn-algorithmen-ueber-schuld-entscheiden-haftung-datenschutz-und-verantwortung-klaeren-256181.html, 23. Oktober 2025.
2. EU-Kommission – Regulation (EU) 2024/1689, „AI Act“, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A32024R1689, 2024.
3. Bundesdatenschutzbeauftragter (BfDI) – „KI und Datenschutz im Strafverfahren“, Jahresbericht 2025, https://www.bfdi.bund.de/.
4. Max-Planck-Institut für ausländisches und internationales Strafrecht – „Künstliche Intelligenz in Strafverfolgung und Beweiswürdigung“, MPI Freiburg, 2025.
5. Heinrich-Heine-Universität Düsseldorf – Lehrstuhl für Strafrecht & KI-Recht, Studie „Automatisierte Entscheidungssysteme in der Justiz“, 2024.