Anthropic’s Chefwissenschaftler Jared Kaplan warnt davor, dass die Menschheit in den nächsten Jahren eine entscheidende Entscheidung über die weitere Entwicklung von künstlicher Intelligenz (KI) treffen müsse. Laut Kaplan könnte der Punkt, an dem KI‑Modelle sich selbst optimieren und auf ein Niveau jenseits menschlicher Kontrolle wachsen, bereits zwischen 2027 und 2030 erreicht werden. Diese sogenannte intelligence explosion könnte neue wissenschaftliche Fortschritte ermöglichen, gleichzeitig aber Risiken bergen, die unsicher und potenziell gefährlich für die Zukunft der Menschheit sind.
Kaplan betont, dass es an der Gesellschaft liege zu entscheiden, ob KI‑Systeme autonome Selbstverbesserung erhalten sollen. Dabei sei die Frage zentral, ob solche Systeme weiterhin menschlichen Interessen dienen und unter menschlicher Kontrolle bleiben könnten. Kritiker argumentieren, dass ein solcher Punkt weniger ein Entscheidungs‑Moment, sondern ein unvermeidlicher Entwicklungspfad sein könnte.
Auch andere KI‑Experten und Führungskräfte äußern Sorgen: Anthropic‑CEO Dario Amodei gab an, dass es etwa eine 25 % Chance gebe, dass die Entwicklung von KI „wirklich, wirklich schlecht“ verläuft — inklusive Risiken wie erheblicher gesellschaftlicher Störung oder existenzieller Gefahren. Zugleich sieht Amodei großes Potenzial der Technologie, wenn sie verantwortungsvoll entwickelt und reguliert wird.
Diese Debatte findet statt vor dem Hintergrund, dass zahlreiche führende KI‑Forscher und Organisationen hervorgehoben haben, wie wichtig Sicherheitsmaßnahmen und regulatorische Rahmenwerke sind, um potenziellen negativen Auswirkungen fortschrittlicher KI‑Systeme vorzubeugen.
Quellen:
1. Anthropic’s Chief Scientist Says We’re Rapidly Approaching the Moment That Could Doom Us All – Frank Landymore – 13. Dezember 2025 – https://futurism.com/artificial-intelligence/anthropic-ai-scientist-doom
2. Anthropic’s Jared Kaplan Warns of AI Intelligence Explosion by 2030 – WebProNews – Dezember 2025 – https://www.webpronews.com/anthropics-jared-kaplan-warns-of-ai-intelligence-explosion-by-2030/
3. Amodei on AI: “There’s a 25% chance that things go really, really badly” – Axios AI+ DC Summit – September 2025 – https://www.linkedin.com/posts/meganmorrone_amodei-on-ai-theres-a-25-chance-that-activity-7374174740581638144-9yVU
4. Anthropic CEO warns of a 25% AI “doom” risk – Windows Central – September 2025 – https://www.windowscentral.com/artificial-intelligence/anthropic-ceo-warns-25-percent-chance-ai-threatens-job-losses
5. Statement on AI Risk – Wikipedia – aktuell – https://en.wikipedia.org/wiki/Statement_on_AI_Risk