Menschen verkaufen ihre Identität für KI-Training – und zahlen oft einen hohen Preis

Dieser Text wurde (ganz oder teilweise) mit Hilfe von KI erstellt.

Stand: 25.03.2026.

Ein Bericht des Guardian zeigt, dass sich ein neuer Markt für KI-Training etabliert: Menschen verkaufen Videos ihres Alltags, Sprachaufnahmen, Umgebungsgeräusche oder sogar private Gespräche an Plattformen, die diese Daten an KI-Firmen weiterreichen. Das ist für manche Beteiligte kurzfristig attraktiv, weil die Bezahlung in US-Dollar in Ländern mit hoher Arbeitslosigkeit oder schwacher Währung vergleichsweise viel wert sein kann.

Der wirtschaftliche Hintergrund ist nachvollziehbar. Forschende weisen seit Jahren darauf hin, dass hochwertige, von Menschen erzeugte Trainingsdaten knapper werden. Eine vielfach zitierte Analyse von Pablo Villalobos und Mitautoren kommt zu dem Ergebnis, dass große Sprachmodelle bei anhaltendem Wachstum zwischen 2026 und 2032 an eine Grenze der verfügbaren öffentlichen menschlichen Textdaten stoßen könnten. Gleichzeitig warnen Oxford-Forschende und eine in Nature publizierte Studie davor, KI-Modelle zunehmend mit von KI erzeugten Daten zu trainieren, weil dies zu Qualitätsverlusten bis hin zum sogenannten Modellkollaps führen kann. Gerade deshalb steigt der Wert echter menschlicher Daten.

Für Nutzerinnen und Nutzer entsteht daraus ein riskantes Tauschgeschäft. Plattformen versprechen schnelles Geld, während die abgegebenen Daten oft sehr weitreichend nutzbar werden. In den Nutzungsbedingungen von Kled heißt es, dass eingereichte Inhalte weltweit, dauerhaft, lizenzgebührenfrei, übertragbar und auch für abgeleitete Werke genutzt, verkauft und kommerzialisiert werden dürfen. Das bestätigt den Kern des Guardian-Berichts: Wer Stimme, Gesicht oder Alltagsszenen hochlädt, gibt nicht nur eine einzelne Datei ab, sondern oft umfassende Rechte an der weiteren Verwertung.

Wie real die Datenschutzrisiken sind, zeigt der Fall Neon Mobile. TechCrunch berichtete im September 2025, dass bei der App Telefonnummern, Gesprächsaufnahmen und Transkripte anderer Nutzer abrufbar waren. Die App ging danach offline. Solche Vorfälle machen deutlich, dass sensible Sprach- und Beziehungsdaten nicht nur abstrakt für KI-Training genutzt werden, sondern bei Sicherheitslücken unmittelbar in falsche Hände geraten können.

Auch die Selbstdarstellung der Plattformen ist aufschlussreich. Silencio beschreibt in seiner Datenschutzerklärung, dass Daten mit Einwilligung in pseudonymisierter Form für Forschung und Werbung an Geschäftspartner weitergegeben werden können. Das widerspricht zwar nicht zwingend dem Versprechen von Datenschutz, zeigt aber, wie komplex die Datenwege bereits auf Plattformebene sind. Wer mitmacht, muss deshalb sehr genau unterscheiden zwischen technisch möglicher Anonymisierung, vertraglicher Weitergabe und der tatsächlichen Kontrolle über die eigene Identität.

Hinzu kommt ein arbeitsmarktpolitischer Aspekt. Die Forschung von Mark Graham und Mitautoren beschreibt die Arbeit hinter KI-Systemen als vielfach unsichtbar, monoton, schlecht bezahlt und teilweise psychisch belastend. Der jetzt sichtbare Trend, auch persönliche Identitätsdaten als Rohstoff zu handeln, erweitert dieses Problem noch einmal. Aus einem klassischen Datenlabeling-Job wird zunehmend ein Identitätsmarkt, in dem Menschen ihre Stimme, ihr Gesicht und private Alltagssituationen zu Trainingsmaterial machen.

Mein Fazit lautet daher: Der neue Markt für menschliche Trainingsdaten ist kein Randphänomen mehr, sondern ein Warnsignal. Er zeigt, wie groß der Hunger der KI-Branche nach echten menschlichen Daten geworden ist. Für einzelne Personen kann das kurzfristig finanziell sinnvoll erscheinen. Langfristig überwiegen jedoch die Risiken, wenn Einwilligungen zu weit reichen, Sicherheitsstandards versagen und Betroffene später kaum noch kontrollieren können, wo ihre biometrischen oder persönlichen Daten landen. Wer solche Dienste nutzt, sollte Bedingungen, Datenschutzregeln und Widerrufsmöglichkeiten sehr genau prüfen und sich bewusst machen, dass ein kleiner Sofortbetrag im Zweifel gegen dauerhafte Nutzungsrechte an der eigenen Identität eingetauscht wird.

Quellen [Sources]
1. Shubham Agarwal: Thousands of people are selling their identities to train AI – but at what cost? The Guardian, https://www.theguardian.com/technology/2026/mar/21/ai-trainers-identity-cost , 21.03.2026.
2. Zack Whittaker und Sarah Perez: Viral call-recording app Neon goes dark after exposing users‘ phone numbers, call recordings, and transcripts. TechCrunch, https://techcrunch.com/2025/09/25/viral-call-recording-app-neon-goes-dark-after-exposing-users-phone-numbers-call-recordings-and-transcripts/ , 25.09.2025.
3. Pablo Villalobos, Jaime Sevilla, Lennart Heim, Tamay Besiroglu, Marius Hobbhahn, Anson Ho: Will we run out of data? Limits of LLM scaling based on human-generated data. arXiv, https://arxiv.org/abs/2211.04325 , 26.10.2022.
4. University of Oxford Department of Computer Science: New research warns of potential collapse of machine learning models, https://www.cs.ox.ac.uk/news/2356-full.html , 25.07.2024.
5. Nitrility, Inc.: Kled Terms of Service, https://www.kled.ai/terms-of-service , 07.01.2026.
6. Silencio Network LLC: Privacy Policy, https://www.silencio.network/privacy-policy , 20.08.2025.
7. Mark Graham, Oğuz Alyanak, Jonas CL Valente: Reflection AI: feeding the machine – the hidden labour behind AI tools and ethical implications for higher education. Frontiers in Communication, https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1614817/full , 14.07.2025.

Schreibe einen Kommentar