KI-Irrtum mit Handschellen

KI-gestützte Gesichtserkennung gilt als modernes Ermittlungswerkzeug. Sie liefert schnelle Treffer, entlastet Beamte und soll die Aufklärungsquote steigern. Doch der Fall der Angela Lipps aus Tennessee zeigt, was passiert, wenn ein algorithmischer Hinweis unkritisch als gesicherte Identifizierung behandelt wird: Eine unbescholtene Frau verliert Freiheit, Zuhause, Auto und Hund – wegen eines Softwarefehlers und menschlichen Versagens im Umgang damit.

Der Fall wirft grundlegende Fragen zum rechtsstaatlichen Umgang mit KI-Beweismitteln auf. Aus anderen Ländern….

Sachverhalt

Am 14. Juli 2025 stehen US-Marshals mit gezogenen Waffen vor der Tür von Angela Lipps in Tennessee. Die 50-jährige Großmutter passt gerade auf ihre Enkelkinder auf. Die Ermittler sind überzeugt, eine professionelle Betrügerin dingfest gemacht zu haben.

Der Grund für die Verhaftung: Eine KI-Gesichtserkennungssoftware hatte Lipps mit einem Bankbetrug in Fargo, North Dakota, in Verbindung gebracht. Der angebliche Tatort liegt über 1700 Kilometer entfernt, in einem anderen Bundesstaat. Lipps bestreitet jede Beteiligung und erklärt schlicht: „Ich war noch nie in North Dakota.”

Entscheidung / Auswirkung

Ihr Protest hilft zunächst nichts. Sie wird nach Fargo überführt und sitzt dort mehr als fünf Monate in Haft. Erst ein neuer Anwalt setzt eigene Ermittlungen in Gang und bringt entlastende Belege ans Licht. Die Anklage wird schließlich fallen gelassen. An Heiligabend kommt Angela Lipps frei – ohne Wohnung, ohne Auto, ohne Hund.

Fargos Polizeichef räumt auf einer Pressekonferenz schwere Fehler ein und entschuldigt sich öffentlich. Eine andere Polizeibehörde hatte ein eigenes KI-System genutzt und einen möglichen Treffer weitergeleitet. Dieser Treffer wurde intern fälschlicherweise als gesicherte Identifizierung behandelt – ein methodisch gravierender Fehler.

Meinung und Schluss

Rechtlich ist der Fall eindeutig einzuordnen: Ein KI-Hinweis ist kein Beweis. Er ist allenfalls ein Ermittlungsansatz, der zwingend durch weitere, unabhängige Beweismittel untermauert werden muss, bevor er zur Grundlage freiheitsentziehender Maßnahmen wird. Der Fehler lag nicht allein in der Software, sondern vor allem im unkritischen menschlichen Umgang mit deren Ausgabe. Wo Algorithmen blind vertraut wird, versagt der Rechtsstaat.

Die praktischen Folgen für Betroffene sind verheerend. Lipps verlor in fünf Monaten Untersuchungshaft alles, was sie aufgebaut hatte. Der Fall steht exemplarisch für eine wachsende Gefahr: Je mehr Ermittlungsbehörden auf KI-Systeme setzen, desto dringlicher wird die Frage, welche rechtsstaatlichen Sicherungen ihren Einsatz begleiten müssen.

Der Fall Lipps ist kein Betriebsunfall. Er ist das vorhersehbare Ergebnis einer gefährlichen Nachlässigkeit: Ermittler vertrauen einer Maschine, ohne deren Ausgabe kritisch zu hinterfragen. Das klingt nach Science-Fiction, ist aber amerikanische Gegenwart – und könnte morgen anderswo genauso passieren.

Ein KI-Treffer ist kein Fingerabdruck. Er ist eine statistische Wahrscheinlichkeit, erzeugt von einem System, das Pixel vergleicht und keine Schuld feststellt. Wer das vergisst, setzt Menschen ins Gefängnis, die dort nichts verloren haben. Angela Lipps hat fünf Monate ihres Lebens dafür bezahlt, dass niemand die einfachste aller Fragen gestellt hat: Stimmt das eigentlich?

Für das deutsche Strafrecht gilt: Auch hierzulande werden KI-gestützte Ermittlungsmethoden zunehmend eingesetzt. Die Versuchung, aus einem algorithmischen Hinweis schnell einen Tatverdacht zu konstruieren, ist real. Verteidiger müssen daher künftig noch genauer hinsehen, auf welcher Grundlage ein Haftbefehl beantragt und erlassen wird. Denn ein Algorithmus kennt keine Unschuldsvermutung. Technologie ist ein Werkzeug, kein Richter.

Nachdenklich – Ihr Rechtsanwalt Thomas Penneke!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert