Die Transparenz ist besonders relevant in kritischen und regulierten Anwendungsbereichen (z. B. Justiz, Medizin):
- Erklärbarkeit (XAI) und Black-Box-Problem: Ein zentrales Kriterium ist die Transparenz und Erklärbarkeit der Entscheidungsprozesse. Die Natur der tiefen neuronalen Netze, die oft als „Black Box“ fungieren, erschwert das Verständnis, warum ein Netz eine bestimmte Entscheidung getroffen hat.
- Trade-off: Bei der Auswahl von KI-Modellen muss der Abwägung zwischen Nachvollziehbarkeit und Leistungsfähigkeit berücksichtigt werden.
- Regulatorische Anforderungen: Die EU AI Act führt Transparenzpflichten ein. Anbieter von GPAI-Modellen müssen eine ausführliche technische Dokumentation der Funktionsweise und Limitationen erstellen.
- Offenlegung von Trainingsdaten: Anbieter müssen Informationen über die verwendeten Trainingsdaten (zumindest eine ausreichend detaillierte Zusammenfassung) veröffentlichen, um Nutzern und Aufsichtsbehörden eine Einschätzung des Materials und potenzieller Verzerrungen zu ermöglichen.
- Open Source vs. Proprietär: Echte Open-Source-Modelle wie Apertus legen alles Wesentliche komplett offen: Quellcode, Gewichte, Trainingsdaten, Filterprozeduren und das Alignment. Open-Weight-Modelle (wie DeepSeek) geben zwar die Gewichte frei, halten aber oft Details zum Trainingskorpus geheim. Diese Transparenz ermöglicht Nachvollziehbarkeit bis hinab zu den Trainingsdaten.