Schutz vor Betroffenenrechten durch faktische Pseudonymität

Erstellt mit ChatGPT und manuell editiert

# Schutz vor Betroffenenrechten durch faktische Pseudonymität?

**Autor:** Dr. Datenschutz
**Veröffentlicht am:** 25. Juni 2025

## Einführung
Pseudonymisierung ist ein zentraler Baustein technischer und organisatorischer Maßnahmen (TOM) – und dient nicht nur dem Schutz personenbezogener Daten, sondern kann auch genutzt werden, um Verpflichtungen nach der DSGVO zu verringern. Besonders Art. 11 DSGVO sieht vor, dass Betroffenenrechte eingeschränkt werden können, wenn faktische Pseudonymität vorliegt. Doch was genau ist damit gemeint, und welche Voraussetzungen müssen dafür erfüllt sein?

## 🔍 Überblick

### 1. Was ist **faktische Pseudonymität**?
„Wenn der Verantwortliche nachweisen kann, dass er nicht in der Lage ist, die betroffene Person zu identifizieren, finden die Artikel 15–20 keine Anwendung“ (§ 11 DSGVO) ([dr-datenschutz.de](https://www.dr-datenschutz.de/schutz-vor-betroffenenrechten-durch-faktische-pseudonymitaet/?utm_source=chatgpt.com)).
Es reicht, wenn es überwiegend unwahrscheinlich ist, dass ein Personenbezug hergestellt werden kann – selbst wenn die Daten formal personenbezogen bleiben.

### 2. Unterschied zur „klassischen“ Pseudonymisierung
Faktische Pseudonymisierung beruht darauf, dass der Verantwortliche mit vertretbarem Aufwand **nicht** identifizieren kann – anders als bei technisch rückführbarer Pseudonymisierung (z. B. bei Gesichtsver pix elung). Ist eine Re-Identifikation technisch oder organisatorisch möglich, greift Art. 11 nicht ([dr-datenschutz.de](https://www.dr-datenschutz.de/schutz-vor-betroffenenrechten-durch-faktische-pseudonymitaet/?utm_source=chatgpt.com), [dr-datenschutz.de](https://www.dr-datenschutz.de/pseudonymisierung-wie-funktioniert-das-eigentlich/?utm_source=chatgpt.com)).

### 3. Nachweis der fehlenden Identifizierbarkeit
Der Schwerpunkt liegt auf der Unfähigkeit (oder unverhältnismäßigem Aufwand), nicht auf theoretischer Möglichkeit. Wenn der Verantwortliche etwa keinen Zugriff auf die Zwischendaten hat, liegt faktische Pseudonymität vor ([dr-datenschutz.de](https://www.dr-datenschutz.de/schutz-vor-betroffenenrechten-durch-faktische-pseudonymitaet/?utm_source=chatgpt.com)).

### 4. Praxisbeispiel & Geschäftsmodell
Diskussionen gab es z. B. bei Fotoaufnahmen von Menschenmengen oder der Verwendung von Privacy-Enhancing-Technologien. Dort ist oft keine Rückführung auf Einzelpersonen mit vertretbarem Aufwand möglich ().

## 🧭 Fazit für die Praxis

– **Art. 11 DSGVO** erlaubt es: Keine Anwendung der Rechte aus Art. 15–20, wenn faktische Pseudonymität nachweisbar ist.
– **Unterscheidung**: Technisch möglich vs. praktisch unverhältnismäßig – entscheidend ist letzteres.
– **Dokumentation**: Nachweis des Aufwandes zur Identifikation kann im Audit oder bei Aufsichtsbehörden entscheidend sein.
– **Anwendungspotenziale**: Besonders relevant bei Technologieeinsatz, bei dem zentrale Schlüssel oder Filtersysteme externer Verantwortung liegen.

🔧 Nutzen für Ihr Unternehmen

Vorteil Erklärung
Weniger DSGVO-Last Geringerer Aufwand bei Anfragen Betroffener
Technologie-Schub Ermöglicht den Einsatz von PETs (Privacy-Enhancing Technologies)
Rechtliche Sicherheit Artikel 11 der DSGVO schafft einen klaren Rahmen

|

## Quellen
– https://www.dr-datenschutz.de/schutz-vor-betroffenenrechten-durch-faktische-pseudonymitaet/
– https://www.dr-datenschutz.de/pseudonymisierung-wie-funktioniert-das-eigentlich/

Schreibe einen Kommentar