Ärzte sehen Platz für KI im Gesundheitswesen – aber vielleicht nicht als Chatbot

Im Gesundheitswesen wächst die Debatte darüber, wie künstliche Intelligenz (KI) sinnvoll eingesetzt werden kann. Laut einem aktuellen Bericht denken viele medizinische Fachleute, dass KI-Tools durchaus eine Rolle in der Versorgung spielen können – jedoch nicht unbedingt in der Form von generischen Chatbots, die direkt mit Patienten interagieren.

Dr. Sina Bari, Chirurgin und Leiterin für KI-Anwendungen im Gesundheitsbereich bei iMerit, berichtete, dass sie bereits erlebt habe, wie ein Patient auf fehlerhafte medizinische Informationen aus einem Chatbot vertraute. In einem Fall war ein Chatverlauf aus ChatGPT ausgedruckt worden, der fälschlicherweise eine hohe Wahrscheinlichkeit einer schweren Nebenwirkung angeführt hatte – basierend auf einer Studie, die für den Patienten nicht relevant war.

OpenAI hat kürzlich ChatGPT Health vorgestellt, eine Variante des ChatGPT-Systems, die es Nutzern ermöglicht, Gesundheitsdaten wie medizinische Unterlagen oder Fitness-Apps zu verbinden, um personalisierte Hinweise zu erhalten und diese Gespräche mit Ärzten vorzubereiten. Laut OpenAI ist dieser Dienst dazu gedacht, medizinische Betreuung zu unterstützen, aber nicht zu ersetzen. Die Daten werden in einem separaten Bereich verarbeitet und nicht zum Training generativer Modelle verwendet.

Neben OpenAI engagieren sich auch andere Unternehmen im Gesundheitsbereich: Anthropic hat mit „Claude for Healthcare“ ein konkurrierendes KI-Angebot für die Medizin vorgestellt, das sowohl Patienten als auch klinischen Anwendern helfen soll, Gesundheitsinformationen sicherer zu verarbeiten. Diese Lösung lässt sich ebenfalls mit Gesundheitsdaten verbinden und richtet sich an verschiedene Akteure im Gesundheitssystem.

Medizinische Experten warnen jedoch vor den Risiken eines direkten patientenseitigen KI-Chatbots ohne ausreichende menschliche Aufsicht. Probleme wie „Halluzinationen“ – also falsche oder irreführende Antworten von KI-Modellen – können im medizinischen Kontext gefährlich sein und Fehlentscheidungen begünstigen.

Stattdessen sehen viele Fachleute den sinnvolleren Einsatz von KI eher auf der Seite der klinischen Unterstützung, etwa bei der Analyse von Patientenakten, Automatisierung administrativer Abläufe oder Bereitstellung kontextualisierter medizinischer Daten für Ärztinnen und Ärzte. Diese Anwendungen könnten dazu beitragen, Arbeitsbelastung zu reduzieren und Ärzten mehr Zeit für den direkten Patientenkontakt zu geben.

Insgesamt deutet sich an, dass KI im Gesundheitswesen weiterhin an Bedeutung gewinnen wird – aber mit klaren Grenzen und unter menschlicher Kontrolle, um die Sicherheit und Qualität der Versorgung zu gewährleisten.

Quellen:
• Doctors think AI has a place in healthcare — but maybe not as a chatbot, TechCrunch, Amanda Silberling, 13.01.2026, https://techcrunch.com/2026/01/13/doctors-think-ai-has-a-place-in-healthcare-but-maybe-not-as-a-chatbot/
• OpenAI launches dedicated ChatGPT Health feature with medical record integrations, Euronews Next, 08.01.2026, https://www.euronews.com/next/2026/01/08/open-ai-launches-dedicated-chatgpt-health-feature-with-medical-record-integrations
• Introducing ChatGPT Health, OpenAI, 07.01.2026, https://openai.com/index/introducing-chatgpt-health/
• Anthropic Steps into Medical AI with “Claude for Healthcare,” Precedence Research, 12.01.2026, https://www.precedenceresearch.com/news/anthropic-medical-ai-claude-launch
• ChatGPT – Wikipedia: Einsatz und Risiken von KI im Gesundheitswesen, https://en.wikipedia.org/wiki/ChatGPT