Wenn KI-Modelle falsche oder frei erfundene Informationen erzeugen, spricht man von sogenannten Halluzinationen. Dabei handelt es sich nicht um einfache Fehler, sondern um Inhalte, die grammatikalisch korrekt und glaubwürdig wirken, tatsächlich jedoch nicht auf realen Fakten beruhen.
Solche Erfindungen stellen ein ernstzunehmendes Qualitäts- und Vertrauensproblem dar – insbesondere in sensiblen Bereichen wie Medizin, Recht, Wissenschaft oder öffentlicher Kommunikation. Falsche Aussagen können dort direkte negative Folgen haben.
Ursachen für Halluzinationen sind unter anderem:
- Unvollständige oder widersprüchliche Trainingsdaten
- Fehlender Zugriff auf aktuelle oder verifizierte Informationen
- Unklare oder mehrdeutige Nutzereingaben
- Fehlende „Wissensprüfung“ durch das Modell selbst
Um dem entgegenzuwirken, gewinnen spezialisierte KI-Modelle an Bedeutung, die mit qualitätsgesicherten Fachdaten trainiert wurden. Sie können kontextgerechter und zuverlässiger antworten – insbesondere in kritischen Anwendungsfeldern.
🔍 Infobox: Konkreter Fall einer KI-Halluzination
Fallbeispiel: Gerichtsurteil durch erfundene Quellen
Ein Anwalt in den USA nutzte ChatGPT zur Recherche für ein Gerichtsverfahren. Das Modell lieferte scheinbar passende Gerichtsentscheidungen als Beleg – inklusive Aktenzeichen, Urteile und Argumentation. Bei genauer Überprüfung stellte sich jedoch heraus: Alle zitierten Fälle waren frei erfunden. Das Gericht rügte den Anwalt scharf, da die Angaben nicht nachvollziehbar und juristisch unbrauchbar waren.
👉 Lernpunkt: KI kann überzeugend formulieren – aber ohne Faktenprüfung auch überzeugend irren.
Mögliche Gegenmaßnahmen:
- Retrieval-Augmented Generation (RAG): KI greift auf verifizierte externe Datenquellen zu
- Fine-Tuning mit domänenspezifischen, geprüften Daten
- „Human-in-the-Loop“: Fachliche Überprüfung von sensiblen KI-Ausgaben durch Menschen