Heute hat der KI‑Forscher Daniel Kokotajlo seine frühere Prognose über den Zeitplan für die Entwicklung einer künstlichen allgemeinen Intelligenz (AGI) überarbeitet. Kokotajlo, ein ehemaliger Mitarbeiter von OpenAI, hatte im Rahmen des Szenarios AI 2027 prognostiziert, dass KI‑Systeme bis 2027 autonom programmieren könnten, was nach seiner Annahme eine Kettenreaktion zur Entstehung einer superintelligenten KI auslösen könnte. Diese hypothetische Entwicklung wurde von ihm und anderen als potenziell existenzielles Risiko für die Menschheit gesehen.
Nach neuer Einschätzung sei der Fortschritt hin zu vollständig autonomem Codieren „etwas langsamer“ als ursprünglich angenommen, so Kokotajlo. Die aktualisierte Projektion verschiebt den möglichen Zeitpunkt für sogenannte transformative KI‑Fähigkeiten in die frühen 2030er Jahre, mit einem groben Zeitrahmen um 2034 für Superintelligenz. Eine neue Schätzung für ein mögliches menschliches Aussterben infolge dieser Technologie gibt er in der Revision nicht mehr an.
Diese Änderung spiegelt laut Experten die wachsende Anerkennung der Komplexität realer KI‑Systeme wider. Während generative Modelle wie ChatGPT bereits heute breite Fähigkeiten zeigen, bleibt die Entwicklung hochgradig autonomer Systeme, die verlässliche und sichere selbstverbessernde KI ermöglichen, ein technisch schwieriges Unterfangen. Kritiker des ursprünglichen AI 2027‑Szenarios sehen darin eher eine spekulative Narrative als eine unmittelbare Erwartung.
In der breiteren Debatte über die Risiken von KI bleiben Experten wie David Dalrymple und Institutionen wie das Future of Life Institute aktiv. Dalrymple warnte jüngst davor, dass die Welt möglicherweise nicht ausreichend Zeit habe, um sich auf die Sicherheitsrisiken durch zunehmend leistungsfähige KI vorzubereiten.
Parallel dazu gibt es wissenschaftliche Initiativen und Stellungnahmen, die sich mit existenziellen Risiken durch KI beschäftigen. So haben hunderte Fachleute öffentlich betont, dass KI‑Systeme potenziell Risiken bis hin zu einem Aussterben der Menschheit bergen könnten und fordern mehr Forschung und Regulierung.
Quellen:
Guardian News and Media, Leading AI expert delays timeline for its possible destruction of humanity, Aisha Down, 6. Januar 2026, https://www.theguardian.com/technology/2026/jan/06/leading-ai-expert-delays-timeline-possible-destruction-humanity
Guardian News and Media, World ‘may not have time’ to prepare for AI safety risks, says leading researcher, 5. Januar 2026, https://www.theguardian.com/technology/2026/jan/04/world-may-not-have-time-to-prepare-for-ai-safety-risks-says-leading-researcher
Wikipedia, Stellungnahme zu existenziellem Risiko durch KI, veröffentlicht 30. Mai 2023, https://de.wikipedia.org/wiki/Stellungnahme_zu_existenziellem_Risiko_durch_KI