KI kann Tote sprechen lassen – warum uns das nicht tröstet

Künstliche Intelligenz (KI) kann heute digitale Abbilder Verstorbener erzeugen, die scheinbar mit uns sprechen oder interagieren können. Dienste, die Chatbots oder Avatare auf Basis von Textnachrichten, Fotos, Videos oder Sprachnachrichten erstellen, versprechen, die Stimmen und das Verhalten geliebter Menschen „wieder zum Leben zu erwecken“. Doch obwohl diese Technologien erstaunlich real wirken, trösten sie viele Menschen nicht wirklich und werfen erhebliche ethische, psychologische und gesellschaftliche Fragen auf.

Ein zentraler Kritikpunkt ist, dass KI nicht wirklich Tote „wiederbelebt“. Stattdessen rekonstruiert sie lediglich Muster und Daten, die von Verstorbenen stammen, und produziert daraus neue Antworten und Verhaltensweisen. Dieser Prozess mag beeindruckend erscheinen, doch er ersetzt nicht die Komplexität individueller Persönlichkeit und Lebenserfahrung eines Menschen. Das Ergebnis kann eher eine künstliche, emotionale Leerstelle sein als echter Trost.

Auch aus psychologischer Sicht birgt diese Art von „digitaler Wiederbegegnung“ Risiken. Während manche Menschen in einer KI-basierten Simulation kurzfristig ein Gefühl der Nähe empfinden, warnen Experten davor, dass dies den Trauerprozess stören oder verzögern kann. Die Auseinandersetzung mit dem tatsächlichen Verlust und das Akzeptieren der Endlichkeit sind wichtige Bestandteile einer gesunden Trauerbewältigung, und künstliche Interaktionen könnten diesen Prozess unterlaufen.

Ein weiterer Aspekt betrifft ethische Fragen rund um Zustimmung und Würde. Wenn KI Abbilder von Verstorbenen erstellt werden, stellt sich die Frage, ob diese Personen zu Lebzeiten einer solchen Nutzung ihrer Daten zugestimmt hätten. Ebenso sind die Rechte und Gefühle der Hinterbliebenen zu berücksichtigen, die mit den Ergebnissen dieser Technologien konfrontiert werden. Ohne klare Regeln und freiwillige Vereinbarungen besteht die Gefahr, dass digitale „Avatare“ die Würde der Verstorbenen verletzen oder emotionalen Stress für Angehörige erzeugen.

Schließlich ist auch die wirtschaftliche Seite nicht zu vernachlässigen. Viele Unternehmen bieten solche „Trauer-KI“-Dienste kommerziell an und verdienen an der Trauer und Sehnsucht der Menschen. Dies wirft Fragen nach Transparenz, Ausbeutung und Datenschutz auf. Kritiker argumentieren, dass Trauer ein menschlicher Prozess ist, der nicht durch Algorithmen ersetzt oder monetarisiert werden sollte.

Insgesamt zeigt sich, dass die Fähigkeit von künstlicher Intelligenz, „die Toten sprechen zu lassen“, zwar technologisch faszinierend ist, aber nicht automatisch echten Trost oder emotionale Heilung bringt. Vielmehr unterstreicht sie die Grenzen maschineller Repräsentation menschlicher Persönlichkeit und die Notwendigkeit, ethische, psychologische und gesellschaftliche Auswirkungen dieser Technologien sorgfältig zu bedenken.

Datum: 18. Januar 2026
Autor: Tom Divon & Christian Pentzold (Originalartikel) / Übersetzt und redigiert für WordPress