Viele Unternehmen sind nicht ausreichend darauf vorbereitet, die einzigartigen Sicherheitsrisiken von Künstlicher Intelligenz (KI) zu bewältigen, warnt der KI-Sicherheitsforscher Sander Schulhoff in einem aktuellen Beitrag von Business Insider. Schulhoff betont, dass traditionelle Cybersecurity-Teams zwar auf bekannte Schwachstellen und Software-Bugs spezialisiert sind, jedoch nicht auf die Art von Angriffen, die durch generative KI-Systeme entstehen können.
Schulhoff beschreibt KI-Modelle wie große Sprachmodelle als Systeme, die nicht einfach „gepatched“ werden können, weil sie auf Sprache und Kontext reagieren — und genau darin liegen neue Angriffsvektoren wie Prompt Injection und Jailbreaking. Diese können KI dazu bringen, sich anders zu verhalten als beabsichtigt oder unerwünschte Aktionen auszuführen.
Laut Schulhoff fehlt vielen Organisationen das nötige Fachwissen, um KI-Sicherheitsprobleme zu identifizieren oder zu lösen. Er fordert daher eine stärkere Verbindung von klassischer IT-Sicherheit mit Kenntnissen über KI-Systemverletzlichkeiten und spricht von einem wachsenden Bedarf an Spezialisten, die beide Bereiche abdecken.
Ein weiterer Aspekt ist, dass viele Start-ups im Bereich KI-Sicherheit marktgängige „Guardrails“ anbieten, die versprechen, Systeme vor Angriffen zu schützen. Schulhoff bezeichnet diese Zusagen als übertrieben oder irreführend — er erwartet, dass sich der Markt in Zukunft korrigieren wird.
Branchendaten zeigen außerdem, dass ein großer Teil der Unternehmen nur rudimentäre KI-Kontrollen oder gar keine automatisierten Sicherheitsmaßnahmen besitzt. In einer Umfrage gaben etwa 83 % der Organisationen an, keine automatisierten KI-Sicherheitskontrollen zu haben, was sensible Daten exponiert und Risiken erhöht.
Vor diesem Hintergrund fordern Experten, dass Unternehmen nicht nur Tools, sondern auch Ausbildung, Monitoring, klare Richtlinien und kombinierte Sicherheitskompetenzen einführen müssen, um die fortschreitende Integration von KI verantwortungsvoll und sicher zu gestalten.
Quellen:
1. AI is creating a security problem most companies aren’t staffed to handle, says an AI researcher, Lee Chong Ming, Business Insider, 22. Dezember 2025, https://www.businessinsider.com/ai-security-gap-companies-researcher-sander-schulhoff-2025-12
2. The coming AI security crisis (and what to do about it) | Sander Schulhoff, Lenny’s Podcast, Lenny Rachitsky, 21. Dezember 2025, https://www.lennysnewsletter.com/p/the-coming-ai-security-crisis
3. 2025 AI Security Gap: 83% of Organizations Flying Blind, Kiteworks AI Security Gap Study, August 2025, https://www.kiteworks.com/cybersecurity-risk-management/ai-security-gap-2025-organizations-flying-blind/
4. State of AI Data Security — How to close the readiness gap, Cybersecurity Insiders Report, Oktober 2025, https://www.cybersecurity-insiders.com/state-of-ai-data-security-how-to-close-the-readiness-gap-as-ai-outpaces-enterprise-safeguards/
5. AI gaps in governance and monitoring of AI systems, Pacific AI Survey, 19. August 2025, https://www.kiteworks.com/cybersecurity-risk-management/ai-governance-survey-2025-data-security-compliance-privacy-risks/