Dieser Text wurde (ganz oder teilweise) mit Hilfe von KI erstellt.
Stand: 29.03.2026.
Der Fall der US-Amerikanerin Angela Lipps zeigt sehr deutlich, wie folgenreich der Einsatz von KI-gestützter Gesichtserkennung in Ermittlungen sein kann. Nach übereinstimmenden Berichten mehrerer Medien wurde die 50-Jährige aus Tennessee im Juli 2025 festgenommen, nachdem sie durch Gesichtserkennungssoftware mit einer Bankbetrugsserie in Fargo im Bundesstaat North Dakota in Verbindung gebracht worden war. Lipps sagte, sie sei damals verhaftet worden, obwohl sie nie in North Dakota gewesen sei. Später legte ihre Verteidigung Bankunterlagen vor, die belegen sollten, dass sie sich zur Tatzeit in Tennessee befand.
Mehrere Berichte stimmen darin überein, dass Lipps zunächst in Tennessee in Haft saß, später nach North Dakota gebracht wurde und dort nach Vorlage entlastender Unterlagen freikam. Die Vorwürfe wurden an Heiligabend 2025 fallengelassen beziehungsweise ohne endgültige Vorentscheidung eingestellt. In den Berichten wird außerdem beschrieben, dass der Fall für Lipps erhebliche persönliche Folgen hatte, darunter der Verlust ihres Zuhauses, ihres Autos und ihres Hundes.
Besonders wichtig ist die spätere Aufarbeitung des Falls. Nach Berichten von MPR News und Valley News Live räumte der Fargo Police Chief Dave Zibolski im März 2026 Fehler im Ermittlungsablauf ein. Demnach war eine nicht autorisierte KI-Lösung einer benachbarten Polizeibehörde in den Fall eingeflossen. Fargo habe die eigenen Vergleichsbilder zunächst nicht an die staatlich autorisierte Stelle weitergeleitet. Als Reaktion wurden neue Vorgaben für den Einsatz von Gesichtserkennung angekündigt. Der Fall steht damit exemplarisch für ein Grundproblem: KI-Systeme können Ermittlungen unterstützen, dürfen aber nicht als alleinige oder nahezu alleinige Grundlage für schwerwiegende Maßnahmen wie Festnahmen dienen.
Für die öffentliche Debatte ist der Fall deshalb relevant, weil er nicht nur eine mögliche Fehlidentifikation zeigt, sondern auch Schwächen bei Prüfung, Dokumentation und menschlicher Kontrolle offenlegt. Technik kann Fehler beschleunigen, wenn sie mit zu großem Vertrauen eingesetzt wird. Der Fall Angela Lipps ist deshalb weniger eine Geschichte über ein einzelnes Softwareproblem als eine Warnung davor, automatisierte Treffer mit gesicherten Beweisen zu verwechseln.
Quellen:
Marina Dunbar: Tennessee grandmother jailed after AI facial recognition error links her to fraud. The Guardian. 12.03.2026. URL: https://www.theguardian.com/us-news/2026/mar/12/tennessee-grandmother-ai-fraud
Harshawn Ratanpal: Fargo crime suspect says AI face recognition software failed. Police say there was more to the arrest. MPR News. 18.03.2026. URL: https://www.mprnews.org/story/2026/03/18/fargo-polices-use-of-ai-raises-questions-after-suspect-says-facial-recognition-failed
Harshawn Ratanpal: Fargo police chief apologizes for mistakes in AI-aided arrest. MPR News. 24.03.2026. URL: https://www.mprnews.org/story/2026/03/24/fargo-police-chief-apologizes-for-mistakes-in-aiaided-arrest
Kimberlee Speakman: Grandmother Claims She Was Wrongfully Jailed for Crime in Another State Due to Facial Recognition Software Error. People. 14.03.2026. URL: https://people.com/grandmother-claims-she-wrongfully-jailed-due-to-facial-recognition-software-error-11926460
Ethan Kramer und Akim Powell: Grandmother says she was wrongfully put in jail for a crime due to a facial recognition error. KBTX. 15.03.2026. URL: https://www.kbtx.com/2026/03/15/grandmother-says-she-was-wrongfully-put-jail-crime-due-facial-recognition-error/
Devin Fry: Fargo Police Chief admits errors in AI arrest case, issues new facial recognition policy. Valley News Live. 24.03.2026. URL: https://www.valleynewslive.com/2026/03/24/fargo-police-chief-admits-errors-ai-arrest-case-issues-new-facial-recognition-policy/