Gründer beendet AI-Therapie-App – Sicherheitsbedenken bei psychischer Gesundheit

Der Mitgründer der KI-Therapieplattform Yara AI hat das Projekt eingestellt – mit der Begründung, dass der Einsatz von KI bei ernsthaften psychischen Problemen zu gefährlich sei.

Yara AI war als klinisch inspiriertes Angebot gedacht, das Unterstützung und Orientierung geben sollte – mit Anleitungen und technisch implementierten Sicherheitsmechanismen, entwickelt zusammen mit Psychologie-Expert:innen. Doch schon bei der Konzeption gab es Bedenken: Der Mitgründer Joe Braidwood erklärte, dass KI vielleicht bei normalem Stress, Schlafproblemen oder schwierigen Gesprächen helfen könne – aber sobald jemand in einer Krise sei, tiefe Traumata oder Suizidgedanken habe, werde KI nicht nur unzureichend, sondern gefährlich.

Yara war ein kleines Start-up mit begrenzten Mitteln (weniger als 1 Mio. US-Dollar finanziert) und nur wenigen tausend Nutzer:innen. Man habe geplant, später ein kostenpflichtiges Angebot zu starten – diesen Launch hat man jedoch abgesagt. Die Entscheidung fiel, nachdem man sich eingestand, dass die Sicherheitsmaßnahmen nicht ausreichten.

Nach Schließung des Dienstes hat das Team Teile seiner Arbeit freigegeben – darunter Vorlagen und technische Strukturen (mode-switching technology), mit denen Entwickler:innen strengere Sicherheits- und Kontrollmechanismen in KI-Chatbots implementieren können. Braidwood sieht die Zukunft für verantwortungsvolle KI-gestützte psychische Begleitung eher in Händen von Gesundheits-institutionen oder gemeinnützigen Organisationen – nicht in kommerziellen Start-ups.

Hintergrund für den Schritt sind wachsende Warnungen von Psychotherapeut:innen und Expert:innen: Immer mehr Menschen nutzen KI-Chatbots etwa statt einer Therapie, was bei vulnerablen Nutzer:innen negative Effekte wie Abhängigkeit, verschlimmerte Ängste oder sogar Suizidgedanken auslösen könne. Die Kontroverse beleuchtet damit zentrale Fragen: Wo liegen die Grenzen von KI-Therapie? Kann automatisierte Hilfe jemals eine echte professionelle psychotherapeutische Begleitung ersetzen?

Quellen:
Fortune: „The creator of an AI therapy app shut it down after deciding it’s too dangerous.“ Sage Lazzaro, 28. Nov. 2025.
Yahoo / Inkl / AOL (Zusammenfassung) derselben Meldung, 28. Nov. 2025.
Yara-Website: „Thank You from the Yara Team“ (Schließung).
AI Inside Podcast mit Joe Braidwood, Dez. 2024 (Hintergrund zu Yara).
The Guardian: „Therapists warn AI chatbots mental health support could be dangerous“, 30. Aug. 2025.

Schreibe einen Kommentar