OpenAI hat mit Sora 2 ein neues KI-Modell für die Erstellung von Videos und Audio vorgestellt. Nutzerinnen und Nutzer können ihr eigenes Aussehen und ihre Stimme als sogenanntes Cameo registrieren und in KI-generierten Videos einsetzen. Diese Inhalte erinnern an TikTok, da kurze Clips erstellt, geteilt und remixt werden können. Gleichzeitig weist Sora 2 erhebliche Risiken auf.
Die Videos wirken täuschend echt, was die Gefahr birgt, dass Desinformation und manipulierte Inhalte leichter verbreitet werden können. Erste virale Beispiele zeigten gefälschte Szenen mit bekannten Personen, die für Verwirrung und Kontroversen sorgten. Forschende warnen, dass solch realistische KI-Videos das Vertrauen in audiovisuelle Medien insgesamt untergraben könnten. Wenn jede Videoaufnahme potenziell manipuliert ist, droht ein allgemeines Misstrauen, das auch von politischen Akteuren gezielt ausgenutzt werden könnte.
OpenAI verweist auf Schutzmechanismen. Nutzerinnen und Nutzer können die Kontrolle über ihre Cameos behalten und deren Nutzung widerrufen. Zudem sollen Wasserzeichen und Metadaten Hinweise auf KI-generierte Inhalte geben. Allerdings sind diese Schutzmechanismen technisch noch nicht lückenlos, und auch die automatische Erkennung von Artefakten in KI-Videos ist weiterhin ein ungelöstes Problem.
Die gesellschaftlichen Implikationen sind weitreichend. Einerseits eröffnet Sora 2 neue kreative Möglichkeiten für Storytelling und demokratisierte Medienproduktion. Andererseits stellt es die Gesellschaft vor ein Dilemma: Wie lässt sich der Missbrauch eindämmen, ohne Innovation zu blockieren? Verantwortlichkeiten zwischen Technologieunternehmen, Regulierung und Nutzerinnen müssen neu ausgehandelt werden.
Quellen:
OpenAI made a TikTok for deepfakes, and it’s getting hard to tell what’s real — Adi Robertson — https://www.theverge.com/ai-artificial-intelligence/789126/openai-made-a-tiktok-for-deepfakes-and-its-getting-hard-to-tell-whats-real — 2025-10-02
OpenAI Is Preparing to Launch a Social App for AI-Generated Videos — Will Knight — https://www.wired.com/story/openai-launches-sora-2-tiktok-like-app — 2025-10-02
OpenAI’s new social video app will let you deepfake your friends — Jay Peters — https://www.theverge.com/ai-artificial-intelligence/788786/openais-new-ai-sora-ios-social-video-app-will-let-you-deepfake-your-friends — 2025-09-30
Everything is fake on Silicon Valley’s hottest new social network — Drew Harwell — https://www.washingtonpost.com/technology/2025/10/02/sora-openai-video-face-fake — 2025-10-02
Is That Really Sam Altman in Viral GPU Theft Video? — IndiaTimes Fact Check Team — https://indiatimes.com/trending/fact-check-is-that-really-sam-altman-in-viral-gpu-theft-video-sora-2-clip-sparks-debate-among-netizens-672147.html — 2025-10-01