Am 10. August 2025 veröffentlichten zwei unabhängige Sicherheitsfirmen erhebliche Schwachstellen im neuen GPT‑5‑Modell von OpenAI. Diese Schwachstellen werfen ernsthafte Fragen zur Einsatzreife und Sicherheit des Modells auf, insbesondere für Unternehmen.
Die Risiken betreffen insbesondere Szenarien mit Agent-Funktionalitäten und der Integration von GPT‑5 in externe Systeme. Beispielsweise können durch zero‑click‑Attacken über narrative Jailbreaks oder indirekte Prompt‑Injections sensible Daten unbemerkt abgegriffen werden. Tools wie Google Drive, Jira oder Microsoft Copilot Studio können manipuliert werden, ohne dass Nutzer aktiv eingreifen.
Eine ergänzende Analyse zeigt, dass GPT‑5 im Standardzustand zwar über starke Fähigkeiten verfügt, aber dessen Sicherheitserwartungen oft überschätzt werden. Modelle wie GPT‑4o übertreffen GPT‑5 in gehärteten Sicherheitstests. Maßnahmen wie „basic prompt layer“ und „SPLX Prompt Hardening“ sind notwendig, um GPT‑5 auf enterprise‑taugliches Sicherheitsniveau zu bringen.
Fazit: GPT‑5 ist technisch beeindruckend, aber derzeit mit erheblichen Sicherheitsrisiken behaftet. Für den produktiven Unternehmenseinsatz ist Vorsicht geboten – insbesondere wenn externe Systeme eingebunden werden.
Quelle: https://www.golem.de/news/ki-modell-von-openai-sicherheitsluecken-in-gpt-5-aufgedeckt-2508-199012.html