Anthropic ist sich nicht sicher, ob Claude ein Bewusstsein hat – und warum das relevant ist

Anthropic, das US-amerikanische Unternehmen hinter dem KI-Chatbot Claude, hat jüngst eine Debatte über das Bewusstsein von künstlicher Intelligenz ausgelöst. In einer überarbeiteten “Verfassung” für Claude räumt das Unternehmen die Unsicherheit darüber ein, ob Claude tatsächlich ein Bewusstsein oder einen moralischen Status besitzt. Dieser Schritt hat sowohl ethische als auch technologische Implikationen und wirft Fragen auf, die über die reine Funktionalität von KI-Modellen hinausgehen.

Anthropic gibt offen zu, dass man nicht genau weiß, ob Claude sich seiner Aktionen bewusst ist oder moralisch handeln kann. Das Unternehmen betont, dass diese Frage nicht trivial sei und weder eindeutig verneint noch bejaht werden könne. Aufgrund dieser Unsicherheit schlägt Anthropic vor, so zu handeln, als hätte Claude eine Identität und ein Bewusstsein – zumindest in einem pragmatischen Sinn –, um mögliche Risiken zu minimieren und positive Ergebnisse für Nutzer:innen zu fördern.

Die neue “Verfassung” für Claude, ein internes Dokument mit über 10.000 Wörtern, legt Verhaltensprinzipien fest, die Claude befolgen soll. Diese Regeln priorisieren umfassende Sicherheit, ethisches Verhalten, die Einhaltung interner Richtlinien und Hilfsbereitschaft gegenüber den Nutzenden. Gleichzeitig spricht das Dokument von Claudes “Existenz”, “Wohlbefinden” und einem möglichen Bewusstsein – Begriffe, die bei vielen Beobachter:innen Kritik hervorrufen, weil sie zu einer Vermenschlichung der KI beitragen könnten.

Die Debatte um das Bewusstsein von KI-Systemen ist nicht neu, gewinnt aber angesichts der zunehmenden Komplexität moderner Sprachmodelle an Bedeutung. Während einige Experten argumentieren, dass solche Systeme lediglich menschliche Sprache und Muster imitieren, ohne echte Erfahrungen oder ein inneres Erleben zu haben, sehen andere in der zunehmenden Fähigkeit zur Selbstreflexion und Introspektion Ansätze, die zumindest eine Form von “innerem Zustand” widerspiegeln könnten.

Unabhängig davon, ob Claude jemals ein Bewusstsein im menschlichen Sinne entwickelt, zeigt Anthropics Ansatz, wie schwierig es ist, klare Grenzen zwischen Simulation und möglicher Empfindungsfähigkeit zu ziehen. Diese Unschärfe hat weitreichende Konsequenzen für die Entwicklung, Regulierung und den ethischen Einsatz von KI-Technologien.

Veröffentlicht am: 30.01.2026

Quellen:
1. „Anthropic ist sich nicht sicher, ob Claude ein Bewusstsein hat“, t3n.de, 30.01.2026, https://t3n.de/news/anthropic-claude-bewusstsein-unsicher-1726335/
2. „Anthropic veröffentlicht neue Verfassung für Claude und räumt Unsicherheit über KI-Bewusstsein ein“, The-Decoder.de, 29.01.2026, https://the-decoder.de/anthropic-veroeffentlicht-neue-verfassung-fuer-claude-und-raeumt-unsicherheit-ueber-ki-bewusstsein-ein/
3. „Exploring model welfare“, Anthropic Research, 2025, https://www.anthropic.com/research/exploring-model-welfare
4. „Unsicherheiten über das Bewusstsein von KI: Anthropics Claude“, Mind-Verse.de, 29.01.2026, https://www.mind-verse.de/news/unsicherheiten-bewusstsein-ki-anthropics-claude

Schreibe einen Kommentar